Llama è una raccolta di modelli aperti sviluppati da Meta che puoi ottimizzare e implementare su Vertex AI. Llama offre modelli di testo e multimodali generativi preaddestrati e ottimizzati in base alle istruzioni.
Llama 4
La famiglia di modelli Llama 4 è una raccolta di modelli multimodali che utilizzano l'architettura MoE (Mixture of Experts). Utilizzando l'architettura MoE, i modelli con un numero molto elevato di parametri possono attivare un sottoinsieme di questi parametri per qualsiasi input, il che porta a inferenze più efficienti. Inoltre, Llama 4 utilizza la fusione anticipata, che integra le informazioni di testo e visione dalle fasi di elaborazione iniziali. Questo metodo consente ai modelli Llama 4 di comprendere in modo più efficace le relazioni complesse e sfumate tra testo e immagini. Model Garden su Vertex AI offre due modelli Llama 4: Llama 4 Scout e Llama 4 Maverick.
Per ulteriori informazioni, consulta la scheda del modello Llama 4 in Model Garden o guarda il post del blog Introduzione a Llama 4 su Vertex AI.
Llama 4 Maverick
Llama 4 Maverick è il modello Llama 4 più grande e capace, che offre funzionalità leader del settore per i benchmark di programmazione, ragionamento e immagini. Contiene 17 miliardi di parametri attivi su 400 miliardi di parametri totali e 128 esperti. Llama 4 Maverick utilizza livelli densi e MoE alternati, in cui ogni token attiva un esperto condiviso più uno dei 128 esperti di routing. Puoi utilizzare il modello come preaddestrato (PT) o ottimizzato per le istruzioni (IT) con il supporto di FP8. Il modello è preaddestrato su 200 lingue e ottimizzato per interazioni chat di alta qualità tramite una pipeline post-addestramento perfezionata.
Llama 4 Maverick è multimodale e ha una lunghezza del contesto di 1 milione. È adatto per la generazione di descrizioni avanzate delle immagini, l'analisi, la comprensione precisa delle immagini, le domande e le risposte visive, la generazione di testo creativo, gli assistenti AI generici e i chatbot sofisticati che richiedono intelligenza e comprensione delle immagini di alto livello.
Llama 4 Scout
Llama 4 Scout offre risultati all'avanguardia per la sua classe di dimensioni, con un'ampia finestra contestuale di 10 milioni di token, superando le generazioni precedenti di Llama e altri modelli aperti e di proprietà su diversi benchmark. Presenta 17 miliardi di parametri attivi sui 109 miliardi di parametri totali con 16 esperti ed è disponibile come modello preaddestrato (PT) o ottimizzato per le istruzioni (IT). Llama 4 Scout è adatto per le attività di recupero in contesti lunghi e per quelle che richiedono il ragionamento su grandi quantità di informazioni, ad esempio il riepilogo di più documenti di grandi dimensioni, l'analisi di estesi log di interazione utente per la personalizzazione e il ragionamento su codebase di grandi dimensioni.
Llama 3.3
Llama 3.3 è un modello ottimizzato per le istruzioni di 70 miliardi di byte solo testo che offre prestazioni superiori rispetto a Llama 3.1 70B e Llama 3.2 90B se utilizzato per applicazioni solo testo. Inoltre, per alcune applicazioni, Llama 3.3 70B si avvicina alle prestazioni di Llama 3.1 405B.
Per ulteriori informazioni, consulta la scheda del modello Llama 3.3 in Model Garden.
Llama 3.2
Llama 3.2 consente agli sviluppatori di creare ed eseguire il deployment degli ultimi modelli di IA generativa e delle applicazioni che utilizzano le funzionalità di Llama per dare vita a nuove innovazioni, come il ragionamento per immagini. Llama 3.2 è progettato anche per essere più accessibile per le applicazioni on-device. L'elenco seguente mette in evidenza le funzionalità di Llama 3.2:
- Offre un'esperienza IA più privata e personalizzata, con l'elaborazione sul dispositivo per i modelli più piccoli.
- Offre modelli progettati per essere più efficienti, con latenza ridotta e prestazioni migliorate, che li rendono adatti a un'ampia gamma di applicazioni.
- È basato su Llama Stack, che semplifica la creazione e il deployment delle applicazioni. Llama Stack è un'interfaccia standardizzata per la creazione di componenti della toolchain canonici e applicazioni agenti.
- Supporta le attività di visione, con una nuova architettura del modello che integra le rappresentazioni degli encoder di immagini nel modello linguistico.
I modelli 1B e 3B sono modelli di testo leggeri che supportano casi d'uso on-device come il recupero di conoscenze locali multilingue, il riepilogo e la riscrittura.
I modelli Llama 11B e 90B sono modelli multimodali di piccole e medie dimensioni con ragionamento basato su immagini. Ad esempio, possono analizzare i dati visivi dei grafici per fornire risposte più accurate ed estrarre dettagli dalle immagini per generare descrizioni di testo.
Per ulteriori informazioni, consulta la scheda del modello Llama 3.2 in Model Garden.
Considerazioni
Quando utilizzi i modelli 11B e 90B, non ci sono limitazioni per l'invio di prompt solo testo. Tuttavia, se includi un'immagine nel prompt, deve essere all'inizio del prompt e puoi includere una sola immagine. Ad esempio, non puoi includere del testo e poi un'immagine.
Llama 3.1
La raccolta di modelli linguistici di grandi dimensioni (LLM) multilingue Llama 3.1 è una raccolta di modelli generativi preaddestrati e ottimizzati per le istruzioni con dimensioni di 8 miliardi, 70 miliardi e 405 miliardi (testo in/testo in). I modelli di solo testo ottimizzati per le istruzioni Llama 3.1 (8 miliardi, 70 miliardi, 405 miliardi) sono ottimizzati per i casi d'uso di dialogo multilingue e superano molti dei modelli di chat open source e chiusi disponibili sui benchmark comuni del settore.
Per ulteriori informazioni, consulta la scheda del modello Llama 3.1 in Model Garden.
Llama 3
I modelli ottimizzati per le istruzioni di Llama 3 sono una raccolta di LLM ottimizzati per i casi d'uso di dialogo. I modelli Llama 3 superano molti dei modelli di chat open source disponibili nei benchmark di settore comuni.
Per ulteriori informazioni, consulta la scheda del modello Llama 3 in Model Garden.
Llama 2
Gli LLM Llama 2 sono una raccolta di modelli di testo generativo preaddestrati e ottimizzati, con dimensioni che vanno da 7 miliardi a 70 miliardi di parametri.
Per ulteriori informazioni, consulta la scheda del modello Llama 2 in Model Garden.
Code Llama
I modelli Code Llama di Meta sono progettati per la sintesi, la comprensione e l'istruzione del codice.
Per ulteriori informazioni, consulta la sezione Codice Scheda del modello Llama in Model Garden.
Llama Guard 3
Llama Guard 3 sfrutta le capacità di Llama Guard 2, aggiungendo tre nuove categorie: Diffamazione, Elezioni e Abuso dell'Interprete di codice. Inoltre, questo modello è multilingue e ha un formato di prompt che in modo coerente con i modelli Llama 3 o successivi.
Per ulteriori informazioni, consulta la scheda del modello Llama Guard in Model Garden.
Risorse
Per ulteriori informazioni su Model Garden, consulta Esplora i modelli di IA in Model Garden.