Elenco dei modelli proprietari di Google
La seguente tabella elenca i modelli proprietari di Google disponibili in Model Garden:
Nome modello | Modalità | Descrizione | Guide rapide |
---|---|---|---|
Gemini 2.5 Flash (anteprima) | Lingua, audio, visione | Modello di pensiero progettato per bilanciare prezzo e prestazioni. | Scheda del modello |
Gemini 2.5 Pro (anteprima) | Lingua, audio, visione | Modello pensante con funzionalità di nuova generazione e capacità migliorate. | Scheda del modello |
Gemini 2.0 Flash | Lingua, audio, visione | Il modello di riferimento per tutte le attività e le funzionalità quotidiane, con prestazioni migliorate e supporto dell'API Live in tempo reale. | Scheda del modello |
Gemini 2.0 Flash-Lite | Lingua, audio, visione | Il modello Flash più veloce ed economico. Offre una qualità migliore rispetto a 1.5 allo stesso prezzo e alla stessa velocità. | Scheda del modello |
Imagen per la generazione di immagini | Vision | Crea immagini di qualità professionale su larga scala utilizzando prompt di testo. Puoi anche utilizzare questo modello per aumentare la risoluzione delle immagini. | Scheda del modello |
Imagen per la modifica e la personalizzazione | Vision | Modifica o utilizza l'apprendimento few-shot per creare immagini di qualità professionale su larga scala utilizzando immagini di base e prompt di testo oppure immagini di riferimento e prompt di testo. | Scheda del modello |
Segmentazione immagine Vertex (anteprima) | Vision | Utilizza prompt di testo o disegna scarabocchi per segmentare un'immagine. La segmentazione delle immagini ti consente, ad esempio, di rilevare oggetti, rimuovere lo sfondo di un'immagine o segmentare il primo piano di un'immagine. | Scheda del modello |
Imagen per la generazione di didascalie e VQA | Lingua | Genera una descrizione pertinente per una determinata immagine. | Scheda del modello |
Incorporamenti per multimodale | Vision | Genera vettori basati su immagini, che possono essere utilizzati per attività downstream come la classificazione e la ricerca di immagini. | Scheda del modello |
Chirp 2 | Voce | Chirp 2 è un modello di riconoscimento vocale automatico (ASR) multilingue sviluppato da Google che trascrive il parlato (speech-to-text). Rispetto alla prima generazione di modelli Chirp, Chirp 2 offre una maggiore precisione e velocità, oltre a nuove funzionalità come timestamp a livello di parola, adattamento del modello e traduzione vocale. | Scheda del modello |
Elenco dei modelli con ricette di ottimizzazione o serving open source in Model Garden
La seguente tabella elenca i modelli OSS che supportano le ricette di ottimizzazione o di pubblicazione open source in Model Garden:
Nome modello | Modalità | Descrizione | Guida rapida |
---|---|---|---|
Llama 4 | Lingua, Visione | Una famiglia di modelli multimodali che utilizzano l'architettura Mixture-of-Experts (MoE) e la fusione anticipata. | Colab Scheda del modello |
Llama 3.3 | Lingua | Il modello linguistico di grandi dimensioni (LLM) multilingue Meta Llama 3.3 è un modello generativo preaddestrato e ottimizzato per le istruzioni in 70 miliardi (testo in entrata/testo in uscita). | Scheda del modello |
Flux | Vision | Un modello Transformer di flusso rettificato con 12 miliardi di parametri che genera immagini di alta qualità da descrizioni di testo. | Scheda del modello |
Protezione prompt | Lingua | Proteggi gli input LLM dalle tecniche di jailbreaking e dalle iniezioni indirette. | Scheda del modello |
Llama 3.2 | Lingua | Una raccolta di modelli linguistici di grandi dimensioni multilingue che sono modelli generativi preaddestrati e ottimizzati per le istruzioni nelle dimensioni di 1 miliardo e 3 miliardi. | Scheda del modello |
Llama 3.2-Vision | Lingua, Visione | Una raccolta di modelli linguistici di grandi dimensioni multimodali che sono modelli generativi di ragionamento sulle immagini preaddestrati e ottimizzati per le istruzioni nelle dimensioni di 11 miliardi e 90 miliardi. Questi modelli sono ottimizzati per il riconoscimento visivo, il ragionamento sulle immagini, la generazione di sottotitoli codificati e la risposta a domande generali su un'immagine. | Scheda del modello |
Llama Guard 3 | Lingua | Un modello preaddestrato Llama-3.1-8B che è stato ottimizzato per la classificazione della sicurezza dei contenuti. | Scheda del modello |
Qwen2 | Lingua | Esegui il deployment di Qwen2, una serie di modelli linguistici di grandi dimensioni di base. | Colab Scheda del modello |
Phi-3 | Lingua | Implementa Phi-3, una serie di modelli linguistici di grandi dimensioni di base. | Colab Scheda del modello |
E5 | Lingua | Esegui il deployment di E5, una serie di modelli di incorporamento di testo. | Colab Scheda del modello |
Instant ID | Lingua, Visione | Esegui il deployment di Instant ID, un modello di generazione di immagini da testo che preserva l'identità. | Colab Scheda del modello |
Llama 3 | Lingua | Esplora e crea con i modelli Llama 3 (8B, 70B, 405B) di Meta su Vertex AI. | Scheda del modello |
Gemma 3 | Lingua, Visione | Modelli open weight (1B solo testo, 4B, 12B, 27B) creati sulla base della stessa ricerca e tecnologia utilizzata per creare i modelli Gemini di Google. | Scheda del modello |
Gemma 2 | Lingua | Modelli open weight (9B, 27B) creati sulla base della stessa ricerca e tecnologia utilizzata per creare i modelli Gemini di Google. | Scheda del modello |
Gemma | Lingua | Modelli open weight (2B, 7B) creati sulla base della stessa ricerca e tecnologia utilizzata per creare i modelli Gemini di Google. | Scheda del modello |
CodeGemma | Lingua | Modelli open weight (2B, 7B) progettati per la generazione e il completamento del codice, creati sulla base della stessa ricerca e tecnologia utilizzata per creare i modelli Gemini di Google. | Scheda del modello |
PaliGemma 2 | Lingua, Visione | Modelli open weight 3B, 10B e 28B progettati per attività di sottotitolaggio di immagini e attività di domande e risposte visive, creati sulla base della stessa ricerca e tecnologia utilizzata per creare i modelli Gemini di Google. | Scheda del modello |
PaliGemma | Lingua, Visione | Modello open weight 3B progettato per attività di generazione di didascalie per immagini e attività di domande e risposte visive, creato sulla base della stessa ricerca e tecnologia utilizzata per creare i modelli Gemini di Google. | Scheda del modello |
ShieldGemma 2 | Lingua, Visione | Modello con pesi aperti 4B addestrato sul checkpoint IT 4B di Gemma 3 per la classificazione della sicurezza delle immagini in categorie chiave che acquisiscono immagini e restituiscono etichette di sicurezza per norma. | Scheda del modello |
TxGemma | Lingua | Modelli con pesi aperti (2B, 9B, 27B) progettati per lo sviluppo terapeutico e basati su Gemma 2. | Scheda del modello |
Vicuna v1.5 | Lingua | Esegui il deployment dei modelli della serie Vicuna v1.5, che sono modelli di base ottimizzati da LLama2 per la generazione di testo. | Scheda del modello |
NLLB | Lingua | Esegui il deployment dei modelli della serie nllb per la traduzione multilingue. | Scheda del modello Colab |
Mistral-7B | Lingua | Esegui il deployment di Mistral-7B, un modello di base per la generazione di testo. | Scheda del modello |
BioGPT | Lingua | Esegui il deployment di BioGPT, un modello generativo di testo per il settore biomedico. | Scheda del modello Colab |
BiomedCLIP | Lingua, Visione | Esegui il deployment di BiomedCLIP, un modello di base multimodale per il dominio biomedico. | Scheda del modello Colab |
ImageBind | Lingua, vista, audio |
Esegui il deployment di ImageBind, un modello di base per l'incorporamento multimodale. | Scheda del modello Colab |
DITO | Lingua, Visione | Ottimizza ed esegui il deployment di DITO, un modello di base multimodale per attività di rilevamento di oggetti con vocabolario aperto. | Scheda del modello Colab |
OWL-ViT v2 | Lingua, Visione | Esegui il deployment di OWL-ViT v2, un modello di base multimodale per attività di rilevamento di oggetti con vocabolario aperto. | Scheda del modello Colab |
FaceStylizer (Mediapipe) | Vision | Una pipeline generativa per trasformare le immagini di volti umani in un nuovo stile. | Scheda del modello Colab |
Llama 2 | Lingua | Ottimizza ed esegui il deployment dei foundation model Llama 2 di Meta (7B, 13B, 70B) su Vertex AI. | Scheda del modello |
Code Llama | Lingua | Esegui il deployment dei modelli di base Code Llama di Meta (7B, 13B, 34B) su Vertex AI. | Scheda del modello |
Falcon-instruct | Lingua | Perfeziona ed esegui il deployment dei modelli Falcon-instruct (7B, 40B) utilizzando PEFT. | Colab Scheda del modello |
OpenLLaMA | Lingua | Perfeziona ed esegui il deployment dei modelli OpenLLaMA (3B, 7B, 13B) utilizzando PEFT. | Colab Scheda del modello |
T5-FLAN | Lingua | Ottimizza ed esegui il deployment di T5-FLAN (base, small, large). | Scheda del modello (pipeline di perfezionamento inclusa) |
BERT | Lingua | Perfeziona ed esegui il deployment di BERT utilizzando PEFT. | Colab Scheda del modello |
BART-large-cnn | Lingua | Esegui il deployment di BART, un modello di codifica-codifica (seq2seq) di Transformer con un codificatore bidirezionale (simile a BERT) e un decodificatore autoregressivo (simile a GPT). | Colab Scheda del modello |
RoBERTa-large | Lingua | Perfeziona ed esegui il deployment di RoBERTa-large utilizzando PEFT. | Colab Scheda del modello |
XLM-RoBERTa-large | Lingua | Perfeziona ed esegui il deployment di XLM-RoBERTa-large (una versione multilingue di RoBERTa) utilizzando PEFT. | Colab Scheda del modello |
Stable Diffusion XL v1.0 | Lingua, Visione | Esegui il deployment di Stable Diffusion XL v1.0, che supporta la generazione di immagini da testo. | Colab Scheda del modello |
Stable Diffusion XL Lightning | Lingua, Visione | Esegui il deployment di Stable Diffusion XL Lightning, un modello di generazione di immagini da testo. | Colab Scheda del modello |
Stable Diffusion v2.1 | Lingua, Visione | Perfeziona ed esegui il deployment di Stable Diffusion v2.1 (supporta la generazione di testo in immagine) utilizzando Dreambooth. | Colab Scheda del modello |
Upscaler 4x di Stable Diffusion | Lingua, Visione | Implementa lo strumento di upscaling 4x di Stable Diffusion, che supporta la super risoluzione delle immagini con testo condizionato. | Colab Scheda del modello |
InstructPix2Pix | Lingua, Visione | Implementa InstructPix2Pix, che supporta la modifica delle immagini utilizzando un prompt di testo. | Colab Scheda del modello |
Inpainting di Stable Diffusion | Lingua, Visione | Perfeziona e implementa Stable Diffusion Inpainting, che supporta l'inpainting di un'immagine mascherata utilizzando un prompt di testo. | Colab Scheda del modello |
SAM | Lingua, Visione | Esegui il deployment di Segment Anything, che supporta la segmentazione delle immagini zero-shot. | Colab Scheda del modello |
Recupero di immagini composte con Pic2Word | Lingua, Visione | Implementa Pic2Word, che supporta il recupero di immagini composte multimodali. | Colab Scheda del modello |
BLIP2 | Lingua, Visione | Implementa BLIP2, che supporta la generazione di didascalie per immagini e il question answering per immagini. | Colab Scheda del modello |
Open-CLIP | Lingua, Visione | Ottimizza e implementa Open-CLIP, che supporta la classificazione zero-shot. | Colab Scheda del modello |
F-VLM | Lingua, Visione | Esegui il deployment di F-VLM, che supporta il rilevamento di oggetti immagine con vocabolario aperto. | Colab Scheda del modello |
tfhub/EfficientNetV2 | Vision | Ottimizza e implementa l'implementazione TensorFlow Vision del modello di classificazione delle immagini EfficientNetV2. | Colab Scheda del modello |
EfficientNetV2 (TIMM) | Vision | Perfeziona e implementa l'implementazione PyTorch del modello di classificazione di immagini EfficientNetV2. | Colab Scheda del modello |
Proprietario/EfficientNetV2 | Vision | Ottimizza e implementa il checkpoint proprietario di Google del modello di classificazione di immagini EfficientNetV2. | Colab Scheda del modello |
EfficientNetLite (MediaPipe) | Vision | Ottimizza il modello di classificazione delle immagini EfficientNetLite tramite MediaPipe Model Maker. | Colab Scheda del modello |
tfvision/vit | Vision | Ottimizza e implementa l'implementazione TensorFlow Vision del modello di classificazione di immagini ViT. | Colab Scheda del modello |
ViT (TIMM) | Vision | Ottimizza e implementa l'implementazione PyTorch del modello di classificazione delle immagini ViT. | Colab Scheda del modello |
Proprietario/ViT | Vision | Perfeziona ed esegui il deployment del checkpoint proprietario di Google del modello di classificazione delle immagini ViT. | Colab Scheda del modello |
Proprietario/MaxViT | Vision | Ottimizza e implementa il checkpoint proprietario di Google del modello di classificazione delle immagini ibrido (CNN + ViT) MaxViT. | Colab Scheda del modello |
ViT (JAX) | Vision | Perfeziona ed esegui il deployment dell'implementazione JAX del modello di classificazione delle immagini ViT. | Colab Scheda del modello |
tfvision/SpineNet | Vision | Ottimizza e implementa l'implementazione TensorFlow Vision del modello di rilevamento degli oggetti SpineNet. | Colab Scheda del modello |
Proprietario/Spinenet | Vision | Ottimizza e implementa il checkpoint proprietario di Google del modello di rilevamento degli oggetti SpineNet. | Colab Scheda del modello |
tfvision/YOLO | Vision | Ottimizza ed esegui il deployment dell'implementazione TensorFlow Vision del modello di rilevamento degli oggetti YOLO in una sola fase. | Colab Scheda del modello |
Proprietario/YOLO | Vision | Ottimizza e implementa il checkpoint proprietario di Google del modello di rilevamento degli oggetti YOLO in una fase. | Colab Scheda del modello |
YOLOv8 (Keras) | Vision | Ottimizza e implementa l'implementazione Keras del modello YOLOv8 per il rilevamento di oggetti. | Colab Scheda del modello |
tfvision/YOLOv7 | Vision | Ottimizza e implementa il modello YOLOv7 per il rilevamento degli oggetti. | Colab Scheda del modello |
ByteTrack Video Object Tracking | Vision | Esegui la previsione batch per il monitoraggio di oggetti video utilizzando il tracker ByteTrack. | Colab Scheda del modello |
ResNeSt (TIMM) | Vision | Ottimizza e implementa l'implementazione PyTorch del modello di classificazione delle immagini ResNeSt. | Colab Scheda del modello |
ConvNeXt (TIMM) | Vision | Perfeziona e implementa ConvNeXt, un modello puramente convoluzionale per la classificazione delle immagini ispirato al design dei Vision Transformer. | Colab Scheda del modello |
CspNet (TIMM) | Vision | Perfeziona ed esegui il deployment del modello di classificazione delle immagini CSPNet (Cross Stage Partial Network). | Colab Scheda del modello |
Inception (TIMM) | Vision | Perfeziona ed esegui il deployment del modello di classificazione delle immagini Inception. | Colab Scheda del modello |
DeepLabv3+ (con checkpoint) | Vision | Ottimizza e implementa il modello DeepLab-v3 Plus per la segmentazione semantica delle immagini. | Colab Scheda del modello |
Faster R-CNN (Detectron2) | Vision | Perfeziona ed esegui il deployment dell'implementazione Detectron2 del modello Faster R-CNN per il rilevamento di oggetti immagine. | Colab Scheda del modello |
RetinaNet (Detectron2) | Vision | Perfeziona ed esegui il deployment dell'implementazione Detectron2 del modello RetinaNet per il rilevamento di oggetti immagine. | Colab Scheda del modello |
Mask R-CNN (Detectron2) | Vision | Perfeziona ed esegui il deployment dell'implementazione di Detectron2 del modello Mask R-CNN per il rilevamento e la segmentazione di oggetti immagine. | Colab Scheda del modello |
ControlNet | Vision | Ottimizza e sottoponi a deployment il modello di generazione da testo a immagine ControlNet. | Colab Scheda del modello |
MobileNet (TIMM) | Vision | Ottimizza e implementa l'implementazione PyTorch del modello di classificazione di immagini MobileNet. | Colab Scheda del modello |
Classificazione delle immagini MobileNetV2 (MediaPipe) | Vision | Perfeziona il modello di classificazione delle immagini MobileNetV2 utilizzando MediaPipe Model Maker. | Colab Scheda del modello |
Rilevamento di oggetti MobileNetV2 (MediaPipe) | Vision | Ottimizza il modello di rilevamento degli oggetti MobileNetV2 utilizzando MediaPipe Model Maker. | Colab Scheda del modello |
MobileNet-MultiHW-AVG (MediaPipe) | Vision | Ottimizza il modello di rilevamento degli oggetti MobileNet-MultiHW-AVG utilizzando MediaPipe Model Maker. | Colab Scheda del modello |
DeiT | Vision | Ottimizza e implementa il modello DeiT (Data-efficient Image Transformers) per la classificazione delle immagini. | Colab Scheda del modello |
BEiT | Vision | Perfeziona e implementa il modello BEiT (Bidirectional Encoder representation from Image Transformers) per la classificazione delle immagini. | Colab Scheda del modello |
Riconoscimento dei gesti della mano (MediaPipe) | Vision | Perfeziona ed esegui il deployment on-device dei modelli di riconoscimento dei gesti della mano utilizzando MediaPipe. | Colab Scheda del modello |
Classificatore di word embedding medio (MediaPipe) | Vision | Perfeziona ed esegui il deployment on-device dei modelli di classificazione dell'incorporamento medio delle parole utilizzando MediaPipe. | Colab Scheda del modello |
Classificatore MobileBERT (MediaPipe) | Vision | Perfeziona ed esegui il deployment sul dispositivo dei modelli di classificazione MobileBERT utilizzando MediaPipe. | Colab Scheda del modello |
Classificazione dei clip video MoViNet | Video | Ottimizza ed esegui il deployment dei modelli di classificazione dei clip video MoViNet. | Colab Scheda del modello |
MoViNet Video Action Recognition | Video | Ottimizza ed esegui il deployment dei modelli MoViNet per l'inferenza del riconoscimento delle azioni. | Colab Scheda del modello |
Stable Diffusion XL LCM | Vision | Esegui il deployment di questo modello che utilizza il modello di coerenza latente (LCM) per migliorare la generazione da testo a immagine nei modelli di diffusione latente, consentendo la creazione di immagini più rapide e di alta qualità con meno passaggi. | Colab Scheda del modello |
LLaVA 1.5 | Visione, lingua | Esegui il deployment dei modelli LLaVA 1.5. | Colab Scheda del modello |
pytorch-zipnerf | Visione artificiale, video | Addestra il modello Pytorch-ZipNeRF, che è un'implementazione all'avanguardia dell'algoritmo ZipNeRF nel framework Pytorch, progettato per la ricostruzione 3D efficiente e accurata a partire da immagini 2D. | Colab Scheda del modello |
Mixtral | Lingua | Esegui il deployment del modello Mixtral, un modello linguistico di grandi dimensioni (LLM) Mixture of Experts (MoE) sviluppato da Mistral AI. | Scheda del modello |
Llama 2 (quantizzato) | Lingua | Ottimizza e implementa una versione quantizzata dei modelli Llama 2 di Meta. | Colab Scheda del modello |
LaMa (Large Mask Inpainting) | Vision | Esegui il deployment di LaMa, che utilizza convoluzioni di Fourier veloci (FFC), una perdita percettiva del campo ricettivo elevata e maschere di addestramento di grandi dimensioni consente il riempimento di immagini robuste alla risoluzione. | Colab Scheda del modello |
AutoGluon | Tabulare | Con AutoGluon puoi addestrare ed eseguire il deployment di modelli di machine learning e deep learning ad alta precisione per dati tabellari. | Colab Scheda del modello |
MaMMUT | Lingua, Visione | Un'architettura di encoder visivo e decoder di testo per attività multimodali come question answering visivo, recupero di immagini e testo, recupero di testo e immagini e generazione di incorporamenti multimodali. | Colab Scheda del modello |
Sussurro grande | Voce | Esegui il deployment di Whisper Large, il modello all'avanguardia di OpenAI per il riconoscimento vocale automatico (ASR). | Colab Scheda del modello |
Elenco dei modelli partner disponibili in Model Garden
Alcuni modelli partner sono offerti come API gestite in Vertex AI Model Garden (noti anche come model as a service). La seguente tabella elenca i modelli disponibili presso i partner Google in Model Garden:
Nome modello | Modalità | Descrizione | Guida rapida |
---|---|---|---|
Claude Opus 4 | Lingua, Visione | Il modello più potente di Anthropic e il modello di programmazione all'avanguardia. Claude Opus 4 offre prestazioni costanti per attività di lunga durata che richiedono uno sforzo concentrato e migliaia di passaggi, ampliando notevolmente ciò che gli agenti AI possono risolvere. | Scheda del modello |
Claude Sonnet 4 | Lingua, Visione | Il modello di medie dimensioni di Anthropic con intelligenza superiore per utilizzi ad alto volume, come programmazione, ricerca approfondita e agenti. | Scheda del modello |
Claude 3.7 Sonnet di Anthropic | Lingua, Visione | Modello leader del settore per la programmazione e l'alimentazione di agenti AI e il primo modello Claude a offrire il ragionamento esteso. | Scheda del modello |
Claude 3.5 Sonnet v2 di Anthropic | Lingua, Visione | Claude 3.5 Sonnet aggiornato è un modello all'avanguardia per attività di ingegneria del software nel mondo reale e capacità agentiche. Claude 3.5 Sonnet offre questi miglioramenti allo stesso prezzo e alla stessa velocità del suo predecessore. | Scheda del modello |
Claude 3.5 Haiku di Anthropic | Lingua, Visione | Claude 3.5 Haiku, la nuova generazione del modello più veloce ed economico di Anthropic, è ottimale per i casi d'uso in cui velocità e convenienza sono importanti. | Scheda del modello |
Claude 3 Opus di Anthropic | Lingua | Un potente modello di AI che offre prestazioni di alto livello per attività molto complesse. È in grado di esplorare prompt aperti e scenari non visivi con notevole fluidità e comprensione di tipo umano. | Scheda del modello |
Claude 3 Haiku di Anthropic | Lingua | Il modello di visione e testo più rapido di Anthropic per risposte quasi immediate a query di base, pensato per esperienze di AI senza interruzioni che imitano le interazioni umane. | Scheda del modello |
Claude 3.5 Sonnet di Anthropic | Lingua | Claude 3.5 Sonnet offre prestazioni migliori rispetto a Claude 3 Opus di Anthropic su un'ampia gamma di valutazioni di Anthropic con la velocità e il costo del modello di livello intermedio di Anthropic, Claude 3 Sonnet. | Scheda del modello |
DeepSeek-R1-0528 (anteprima) | Lingua | L'ultima versione del modello DeepSeek R1 di DeepSeek. | Scheda del modello |
Jamba 1.5 Large (anteprima) | Lingua | Jamba 1.5 Large di AI21 Labs è progettato per risposte di qualità superiore, throughput elevato e prezzi competitivi rispetto ad altri modelli della stessa classe di dimensioni. | Scheda del modello |
Jamba 1.5 Mini (anteprima) | Lingua | Jamba 1.5 Mini di AI21 Labs è ben bilanciato in termini di qualità, velocità effettiva e costi ridotti. | Scheda del modello |
Llama 4 Maverick 17B-128E (GA) | Lingua, Visione | Il modello Llama 4 più grande e potente, con capacità di programmazione, ragionamento e generazione di immagini. Llama 4 Maverick 17B-128E è un modello multimodale che utilizza l'architettura Mixture-of-Experts (MoE) e la fusione anticipata. | Scheda del modello |
Llama 4 Scout 17B-16E (GA) | Lingua, Visione | Llama 4 Scout 17B-16E offre risultati all'avanguardia per la sua classe di dimensioni, superando le generazioni precedenti di Llama e altri modelli open source e proprietari in diversi benchmark. Llama 4 Scout 17B-16E è un modello multimodale che utilizza l'architettura Mixture-of-Experts (MoE) e la fusione anticipata. | Scheda del modello |
Llama 3.3 (GA) | Lingua | Llama 3.3 è un modello di 70 miliardi di parametri ottimizzato per le istruzioni solo testuali che offre prestazioni migliorate rispetto a Llama 3.1 70B e Llama 3.2 90B se utilizzato per applicazioni solo testuali. Inoltre, per alcune applicazioni, Llama 3.3 70B si avvicina alle prestazioni di Llama 3.1 405B. | Scheda del modello |
Llama 3.2 (anteprima) | Lingua, Visione | Un modello multimodale di medie dimensioni da 90 miliardi di parametri in grado di supportare il ragionamento sulle immagini, come l'analisi di grafici e diagrammi, nonché l'assegnazione di didascalie alle immagini. | Scheda del modello |
Llama 3.1 (GA e anteprima) | Lingua |
Una raccolta di LLM multilingue ottimizzati per casi d'uso di dialoghi multilingue e che superano molti dei modelli di chat open source e chiusi disponibili nei benchmark comuni del settore. Llama 3.1 405B è disponibile a livello generale (GA) e il prezzo è calcolato in base al dollaro per 1 milione di token. Vedi prezzi. Llama 3.1 8B e Llama 3.1 70B sono disponibili in anteprima senza costi. |
Scheda del modello |
OCR Mistral (25/05) | Lingua, Visione | Mistral OCR (25.05) è un'API di riconoscimento ottico dei caratteri per la comprensione dei documenti. Il modello comprende ogni elemento dei documenti, come contenuti multimediali, testo, tabelle ed equazioni. | Scheda del modello |
Mistral Small 3.1 (25/03) | Lingua | Mistral Small 3.1 (25/03) è l'ultima versione del modello Small di Mistral, con funzionalità multimodali e lunghezza del contesto estesa. | Scheda del modello |
Mistral Large (24.11) | Lingua | Mistral Large (24.11) è la prossima versione del modello Mistral Large (24.07), ora con funzionalità di ragionamento e chiamata di funzione migliorate. | Scheda del modello |
Codestral (25.01) | Codice | Un modello all'avanguardia progettato per la generazione di codice, incluso il completamento del codice e il riempimento del testo a metà. | Scheda del modello |