Tecnologia

LLaMA 2: cos’è e come utilizzare il modello open source di Meta



Indirizzo copiato

Disponibile in tre dimensioni – 7 miliardi, 13 miliardi e 70 miliardi di parametri, a seconda del modello – viene addestrato utilizzando l’apprendimento rinforzato dal feedback umano (RLHF), imparando dalle preferenze e dalle valutazioni dei formatori umani di intelligenza artificiale. Nel 2024 è stato superato da Llama 3. Ecco come accedere e utilizzarlo

Aggiornato il 1 ott 2024



LLaMA
AI Questions Icon
Chiedi all'AI
Riassumi questo articolo
Approfondisci con altre fonti

Meta, società madre di Facebook, ha lanciato da poco LLaMA 2, un modello linguistico di grandi dimensioni (LLM) open-source che intende sfidare le pratiche restrittive dei grandi concorrenti tecnologici.

A differenza dei sistemi di intelligenza artificiale lanciati da Google, OpenAI e altri che sono strettamente custoditi in modelli proprietari, Meta sta rilasciando liberamente il codice e i dati alla base di LLaMA 2 per consentire ai ricercatori di tutto il mondo di sviluppare e migliorare la tecnologia.

La natura open-source di LLaMA 2 potrebbe portare a rapidi progressi nel campo dell’AI, in quanto gli sviluppatori di tutto il mondo possono ora accedere al modello di base, analizzarlo e costruirci sopra. Si tratta di una mossa coraggiosa che potrebbe democratizzare il campo dell’AI, in rapida evoluzione, fornendo agli sviluppatori strumenti potenti per costruire applicazioni e soluzioni innovative.

Llama 2 evolve in Llama 3

Il 18 aprile del 2024 Meta ha rilasciato LLaMA 3 con due diverse dimensioni da 8 miliardi e 70 miliardi di parametri. Questi modelli sono stati addestrati mediante 15 trilioni di token di testo raccolti da fonti pubbliche.

LLaMA 2: una sfida a ChatGPT e a Bard

LLaMA 2 è disponibile in tre dimensioni: 7 miliardi, 13 miliardi e 70 miliardi di parametri, a seconda del modello scelto. In confronto, la serie GPT-3.5 di OpenAI ha fino a 175 miliardi di parametri e il Bard di Google (basato su LaMDA) ha 137 miliardi di parametri. OpenAI notoriamente non ha rivelato il numero di parametri di GPT-4 nella sua ricerca pubblicata. Il numero di parametri di un modello è generalmente correlato alle sue prestazioni e alla sua accuratezza, ma modelli più grandi richiedono più risorse computazionali e dati da addestrare.

Anche il metodo di addestramento utilizzato per LLaMA 2 è degno di nota e diverso dalle alternative più diffuse. Lo strumento viene addestrato utilizzando l’apprendimento rinforzato dal feedback umano (RLHF), imparando dalle preferenze e dalle valutazioni dei formatori umani di intelligenza artificiale. Al contrario, ChatGPT ha utilizzato una messa a punto supervisionata, imparando da dati etichettati forniti da annotatori umani.

Come accedere a LLaMA 2 e come utilizzarlo

Data la sua natura open-source, esistono numerosi modi per interagire con LLaMA 2. Ecco alcuni dei modi più semplici per accedere a LLaMA 2 e iniziare a sperimentarlo fin da subito:

1. Interagire con la demo del chatbot

Il modo più semplice per utilizzare LLaMA 2 è visitare llama2.ai, una demo del modello di chatbot ospitata da Andreessen Horowitz. È possibile porre al modello domande su qualsiasi argomento di interesse o richiedere contenuti creativi utilizzando prompt specifici. È possibile cambiare la modalità di chat tra equilibrata, creativa e precisa in base alle proprie preferenze. Questo è il modo migliore per iniziare a testare il nuovo modello.

2. Scaricare il codice LaMA 2

Se si desidera eseguire LLaMA 2 sulla propria macchina o modificare il codice, è possibile scaricarlo direttamente da Hugging Face, una piattaforma leader per la condivisione di modelli AI. È necessario un account Hugging Face e le librerie e le dipendenze necessarie per eseguire il codice. Le istruzioni per l’installazione e la documentazione sono disponibili sul repository di LLaMA repository .

3. Accesso tramite Microsoft Azure

Un’altra opzione per accedere a LLaMA 2 è Microsoft Azure, un servizio di cloud computing che offre diverse soluzioni di AI. LLaMA 2 si trova nel catalogo dei modelli AI di Azure, dove è possibile sfogliare, distribuire e gestire i modelli AI. Per utilizzare questo servizio è necessario disporre di un account Azure e di un abbonamento. Questo metodo è consigliato agli utenti più esperti.

4. Accesso tramite Amazon SageMaker JumpStart

È inoltre possibile sperimentare e distribuire LLaMA 2 tramite Amazon SageMaker JumpStart, un popolare hub per algoritmi, modelli e soluzioni. SageMaker JumpStart semplifica il processo di costruzione, addestramento e distribuzione di modelli di apprendimento automatico (ML) con pochi clic. Per utilizzare questo servizio è necessario un account Amazon Web Services e un abbonamento. Questo è un altro metodo consigliato agli utenti avanzati e ai programmatori.

5. Provate una variante su llama.perplexity.ai

Perplexity.ai è un web crawler che utilizza il metodo ML per generare risposte generali alle vostre domande, offrendo poi una serie di link a siti web. Llama.perplexity.ai combina la potenza di LLaMA 2 e di Perplexity.ai per fornire risposte generali e link pertinenti alle query utilizzando il nuovo modello per alimentare le risposte. Per utilizzarlo, visitate llama.perplexity.ai e digitate una domanda nella casella di ricerca. Verrà visualizzata una breve risposta, seguita da un elenco di link da esplorare ulteriormente.

TinyLlama

L’attesissimo modello open source, è arrivato all’inizio del 2024. Con un peso inferiore a 640 megabyte, TinyLlama è stato addestrato su un trilione di token e supera rivali di dimensioni simili. Il progetto ha preso il via a settembre 2023, quando un gruppo di sviluppatori ha iniziato ad addestrare un modello minuscolo su trilioni di token. Il modello ha una dimensione di 1 miliardo di parametri ed è stato addestrato su circa un trilione di token per circa tre cicli attraverso i dati di addestramento.

Articoli correlati