Model Garden nella console Google Cloud è una libreria di modelli ML che ti aiuta a scoprire, testare, personalizzare ed eseguire il deployment di asset e modelli di proprietà di Google e di alcuni OSS.
I seguenti argomenti ti presentano i modelli di AI disponibili in Model Garden e come utilizzarli.
Esplorare i modelli
Per visualizzare l'elenco dei modelli Vertex AI e open source (di base, ottimizzabili e specifici per le attività), vai alla pagina Model Garden nella console Google Cloud.
Le categorie dei modelli disponibili in Model Garden sono:
Categoria | Descrizione |
---|---|
Modelli di base | Modelli di grandi dimensioni multitasking preaddestrati che possono essere ottimizzati o personalizzati per attività specifiche mediante Vertex AI Studio, l'API Vertex AI e l'SDK Vertex AI per Python. |
Modelli ottimizzabili | Modelli che possono essere ottimizzati mediante una pipeline o un blocco note personalizzati. |
Soluzioni specifiche per le attività | La maggior parte di questi modelli predefiniti può essere usata subito. Molti possono essere personalizzati usando i tuoi dati. |
Per filtrare i modelli nel riquadro dei filtri, specifica quanto segue:
- Modalità: fai clic sulle modalità (tipi di dati) che vuoi includere nel modello.
- Attività: fai clic sull'attività che vuoi che venga eseguita dal modello.
- Elementi: fai clic sugli elementi che vuoi includere nel modello.
Per scoprire di più su ciascun modello, fai clic sulla relativa scheda.
Modelli disponibili in Model Garden
Puoi trovare i modelli proprietari di Google e selezionare i modelli open source in Model Garden.
Elenco dei modelli proprietari di Google
La tabella seguente elenca i modelli proprietari di Google disponibili in Model Garden:
Nome modello | Modalità | Descrizione | Guide rapide |
---|---|---|---|
Gemini 1.5 Flash | Linguaggio, audio, visione | Il modello multimodale Gemini più veloce e conveniente. È progettato per attività con volumi elevati e applicazioni convenienti sensibili alla latenza. Grazie alla sua reattività, Gemini 1.5 Flash è una buona opzione per creare assistenti di chat e applicazioni di generazione di contenuti on demand. | Scheda del modello |
Gemini 1.5 Pro | Linguaggio, audio, visione | Modello multimodale che supporta l'aggiunta di file PDF, audio, video e di immagini nei prompt di testo o chat per una risposta di testo o codice. | Scheda del modello |
Gemini 1.0 Pro | Lingua | Progettato per gestire attività di elaborazione del linguaggio naturale, chat di testo e codice in più passaggi e generazione di codice. | Scheda del modello |
Gemini 1.0 Pro Vision | Linguaggio, visione | Modello multimodale che supporta l'aggiunta di file di immagini, video e PDF nei prompt di testo o chat per una risposta di testo o codice. | Scheda del modello |
PaLM 2 per il testo | Lingua | Ottimizzato per seguire le istruzioni in linguaggio naturale ed è adatto a una varietà di attività relative alle lingue. | Scheda del modello |
PaLM 2 per la chat | Lingua | Ottimizzato per condurre conversazioni naturali. Utilizza questo modello per creare e personalizzare la tua applicazione di chatbot. | Scheda del modello |
Codey per il completamento del codice | Lingua | Genera codice in base ai prompt di codice. Ideale per i suggerimenti di codice e per ridurre al minimo i bug nel codice. | Scheda del modello |
Codey per la generazione di codice | Lingua | Genera codice in base all'input in linguaggio naturale. Ottimo per scrivere funzioni, classi, test delle unità e altro ancora. | Scheda del modello |
Codey per Chat di codice | Lingua | Ricevi assistenza per il codice tramite una conversazione naturale. Utile per domande su un'API, sulla sintassi in una lingua supportata e altro ancora. | Scheda del modello |
Incorporamenti per il testo | Lingua | Converte i dati di testo in vettori numerici che possono essere elaborati dagli algoritmi di machine learning, in particolare dai modelli di grandi dimensioni. | Scheda del modello |
Imagen per la generazione di immagini | Vision | Crea o modifica immagini di qualità professionale su larga scala utilizzando prompt di testo. | Scheda del modello |
Segmentazione delle immagini Vertex (anteprima) | Vision | Utilizza i prompt di testo o disegna scarabocchi per segmentare un'immagine. La segmentazione delle immagini consente, ad esempio, di rilevare oggetti, rimuovere lo sfondo di un'immagine o segmentare il primo piano di un'immagine. | Scheda del modello |
Imagen per sottotitoli codificati e VQA | Lingua | Genera una descrizione pertinente per una determinata immagine. | Scheda del modello |
Incorporamenti per il multimodale | Vision | Genera vettori basati su immagini, che possono essere utilizzati per attività successive come la classificazione e la ricerca di immagini. | Scheda del modello |
Chirp | Voce | Una versione di un Universal Speech Model con oltre 2 miliardi di parametri e in grado di trascrivere in oltre 100 lingue in un unico modello. | Scheda del modello |
Elenco di modelli con ricette di ottimizzazione o pubblicazione open source in Model Garden
Nella tabella seguente sono elencati i modelli OSS che supportano la regolazione o la pubblicazione di ricette open source in Model Garden:
Nome modello | Modalità | Descrizione | Guida rapida |
---|---|---|---|
Llama 3.3 | Lingua | Il modello linguistico di grandi dimensioni (LLM) multilingue Meta Llama 3.3 è un modello generativo preaddestrato e ottimizzato per le istruzioni in 70 miliardi (testo in/testo out). | Scheda del modello |
Flux | Vision | Un modello Transformer con flusso rettificato di 12 miliardi di parametri che genera immagini di alta qualità da descrizioni di testo. | Scheda del modello |
Protezione prompt | Lingua | Proteggi gli input LLM del guardrail da tecniche di jailbreaking e da immissioni indirette. | Scheda del modello |
Llama 3.2 | Lingua | Una raccolta di modelli linguistici di grandi dimensioni multilingue che sono modelli generative preaddestrati e ottimizzati in base alle istruzioni di dimensioni 1B e 3B. | Scheda del modello |
Llama 3.2-Vision | Lingua, Visione | Una raccolta di modelli linguistici di grandi dimensioni multimodali che sono modelli generative di ragionamento per immagini preaddestrati e sintonizzati sulle istruzioni con dimensioni di 11 miliardi e 90 miliardi di parametri. Questi modelli sono ottimizzati per il riconoscimento visivo, il ragionamento per immagini, la creazione di sottotitoli codificati e la risposta a domande generali su un'immagine. | Scheda del modello |
Llama Guard 3 | Lingua | Un modello preaddestrato Llama-3.1-8B che è stato ottimizzato per la classificazione della sicurezza dei contenuti. | Scheda del modello |
Qwen2 | Lingua | Esegui il deployment di Qwen2, una serie di modelli linguistici di grandi dimensioni di base. | Colab Scheda del modello |
Phi-3 | Lingua | Esegui il deployment di Phi-3, una serie di modelli linguistici di grandi dimensioni di base. | Colab Scheda del modello |
E5 | Lingua | Esegui il deployment di E5, una serie di modelli di embedding di testo. | Colab Scheda del modello |
ID istantaneo | Lingua, Visione | Esegui il deployment di Instant ID, un modello di generazione di testo a immagine che preserva l'identità. | Colab Scheda del modello |
Llama 3 | Lingua | Esplora e crea con i modelli Llama 3 di Meta (8B, 70B, 405B) su Vertex AI. | Scheda del modello |
Gemma 2 | Lingua | Modelli aperti con peso variabile (9 miliardi, 27 miliardi) creati sulla base della stessa ricerca e tecnologia utilizzata per creare i modelli Gemini di Google. | Scheda del modello |
Gemma | Lingua | Modelli aperti con peso variabile (2 miliardi, 7 miliardi) creati sulla base della stessa ricerca e tecnologia utilizzata per creare i modelli Gemini di Google. | Scheda del modello |
CodeGemma | Lingua | Modelli aperti con peso variabile (2 miliardi, 7 miliardi) progettati per la generazione e il completamento del codice e basati sulla stessa ricerca e tecnologia utilizzata per creare i modelli Gemini di Google. | Scheda del modello |
PaliGemma | Lingua | Modello a peso aperto 3B progettato per attività di sottotitolazione delle immagini e di risposta a domande visive, creato sulla base della stessa ricerca e tecnologia utilizzata per creare i modelli Gemini di Google. | Scheda del modello |
Vicuna v1.5 | Lingua | Esegui il deployment dei modelli della serie Vicuna 1.5, ovvero modelli di base ottimizzati da Llama2 per la generazione di testo. | Scheda del modello |
NLLB | Lingua | Esegui il deployment di modelli di serie nllb per la traduzione multilingue. | Scheda del modello Colab |
Mistral-7B | Lingua | Esegui il deployment di Mistral-7B, un modello di base per la generazione di testo. | Scheda del modello |
BioGPT | Lingua | Esegui il deployment di BioGPT, un modello di generazione di testo per il dominio biomedico. | Scheda del modello Colab |
BiomedCLIP | Lingua, Visione | Esegui il deployment di BiomedCLIP, un modello di base multimodale per il dominio biomedico. | Scheda del modello Colab |
ImageBind | Lingua, visione, audio |
Esegui il deployment di ImageBind, un modello di base per l'embedding multimodale. | Scheda del modello Colab |
DITO | Lingua, Visione | Ottimizza ed esegui il deployment di DITO, un modello di base multimodale per attività di rilevamento di oggetti con vocabolario aperto. | Scheda del modello Colab |
OWL-ViT v2 | Lingua, Visione | Esegui il deployment di OWL-ViT v2, un modello di base multimodale per le attività di rilevamento di oggetti con vocabolario aperto. | Scheda del modello Colab |
FaceStylizer (Mediapipe) | Vision | Una pipeline generativa per trasformare le immagini dei volti umani in un nuovo stile. | Scheda del modello Colab |
Llama 2 | Lingua | Ottimizza ed esegui il deployment dei modelli di base Llama 2 di Meta (7B, 13B, 70B) su Vertex AI. | Scheda del modello |
Code Llama | Lingua | Esegui il deployment dei modelli di base Code Llama di Meta (7B, 13B, 34B) su Vertex AI. | Scheda del modello |
Falcon-instruct | Lingua | Ottimizza e esegui il deployment dei modelli Falcon-instruct (7 miliardi, 40 miliardi) utilizzando PEFT. | Colab Scheda del modello |
OpenLLaMA | Lingua | Ottimizza e esegui il deployment dei modelli OpenLLaMA (3B, 7B, 13B) utilizzando PEFT. | Colab Scheda del modello |
T5-FLAN | Lingua | Ottimizza ed esegui il deployment di T5-FLAN (base, small, large). | Scheda del modello (pipeline di ottimizzazione fine inclusa) |
BERT | Lingua | Ottimizza e esegui il deployment di BERT utilizzando PEFT. | Colab Scheda modello |
BART-large-cnn | Lingua | Esegui il deployment di BART, un modello di Transformer encoder-encoder (seq2seq) con un encoder bidirezionale (simile a BERT) e un decoder autoregressivo (simile a GPT). | Colab Scheda modello |
RoBERTa-large | Lingua | Ottimizza e esegui il deployment di RoBERTa-large utilizzando PEFT. | Colab Scheda modello |
XLM-RoBERTa-large | Lingua | Ottimizza e esegui il deployment di XLM-RoBERTa-large (una versione multilingue di RoBERTa) utilizzando PEFT. | Colab Scheda modello |
Dolly-v2-7b | Lingua | Esegui il deployment di Dolly-v2-7b, un modello linguistico di grandi dimensioni che segue le istruzioni con 6,9 miliardi di parametri. | Colab Scheda modello |
Stable Diffusion XL v1.0 | Lingua, Visione | Esegui il deployment di Stable Diffusion XL v1.0, che supporta la generazione di testo in immagini. | Colab Scheda del modello |
Stable Diffusion XL Lightning | Lingua, Visione | Esegui il deployment di Stable Diffusion XL Lightning, un modello di generazione di testo in immagine. | Colab Scheda del modello |
Stable Diffusion v2.1 | Lingua, Visione | Ottimizza ed esegui il deployment di Stable Diffusion v2.1 (supporta la generazione di testo in immagini) utilizzando Dreambooth. | Colab Scheda modello |
Upscaler 4x di Stable Diffusion | Lingua, Visione | Esegui il deployment dell'upscaler Stable Diffusion 4x, che supporta la superrisoluzione delle immagini basata sul testo. | Colab Scheda modello |
InstructPix2Pix | Lingua, Visione | Esegui il deployment di InstructPix2Pix, che supporta la modifica delle immagini utilizzando un prompt di testo. | Colab Scheda del modello |
Inpainting con Stable Diffusion | Lingua, Visione | Ottimizza e implementa l'inpainting con diffusione stabile, che supporta l'inpainting di un'immagine mascherata utilizzando un prompt di testo. | Colab Scheda del modello |
SAM | Lingua, Visione | Esegui il deployment di Segment Anything, che supporta la segmentazione delle immagini senza addestramento. | Colab Scheda del modello |
Da testo a video (ModelScope) | Lingua, Visione | Esegui il deployment di ModelScope text-to-video, che supporta la generazione di video a partire da testo. | Colab Scheda del modello |
Recupero di immagini composte di Pic2Word | Lingua, Visione | Esegui il deployment di Pic2Word, che supporta il recupero di immagini composte multimodali. | Colab Scheda del modello |
BLIP2 | Lingua, Visione | Esegui il deployment di BLIP2, che supporta le didascalie codificate e le risposte visive alle domande. | Colab Scheda modello |
Open-CLIP | Lingua, Visione | Ottimizza e implementa Open-CLIP, che supporta la classificazione zero-shot. | Colab Scheda del modello |
F-VLM | Lingua, Visione | Esegui il deployment di F-VLM, che supporta il rilevamento di oggetti nelle immagini con vocabolario aperto. | Colab Scheda del modello |
tfhub/EfficientNetV2 | Vision | Ottimizza e esegui il deployment dell'implementazione di Tensorflow Vision del modello di classificazione delle immagini EfficientNetV2. | Colab Scheda modello |
EfficientNetV2 (TIMM) | Vision | Ottimizza e esegui il deployment dell'implementazione PyTorch del modello di classificazione delle immagini EfficientNetV2. | Colab Scheda del modello |
Proprietario/EfficientNetV2 | Vision | Ottimizza ed esegui il deployment del checkpoint proprietario di Google del modello di classificazione delle immagini EfficientNetV2. | Colab Scheda del modello |
EfficientNetLite (MediaPipe) | Vision | Ottimizza il modello di classificazione delle immagini EfficientNetLite tramite lo strumento per la creazione di modelli MediaPipe. | Colab Scheda del modello |
tfvision/vit | Vision | Ottimizza ed esegui il deployment dell'implementazione di TensorFlow Vision del modello di classificazione delle immagini ViT. | Colab Scheda modello |
ViT (TIMM) | Vision | Ottimizza ed esegui il deployment dell'implementazione PyTorch del modello di classificazione delle immagini ViT. | Colab Scheda modello |
Proprietario/ViT | Vision | Ottimizza ed esegui il deployment del checkpoint proprietario di Google del modello di classificazione delle immagini ViT. | Colab Scheda modello |
Proprietario/MaxViT | Vision | Ottimizza e esegui il deployment del checkpoint proprietario di Google del modello di classificazione delle immagini ibrido MaxViT (CNN + ViT). | Colab Scheda modello |
ViT (JAX) | Vision | Ottimizza ed esegui il deployment dell'implementazione JAX del modello di classificazione delle immagini ViT. | Colab Scheda modello |
tfvision/SpineNet | Vision | Ottimizza e esegui il deployment dell'implementazione di Tensorflow Vision del modello di rilevamento di oggetti SpineNet. | Colab Scheda modello |
Proprietario/Spinenet | Vision | Ottimizza e implementa il checkpoint proprietario di Google del modello di rilevamento degli oggetti SpineNet. | Colab Scheda del modello |
tfvision/YOLO | Vision | Ottimizza ed esegui il deployment dell'implementazione di TensorFlow Vision del modello di rilevamento di oggetti YOLO a una fase. | Colab Scheda modello |
Proprietari/YOLO | Vision | Ottimizza ed esegui il deployment del checkpoint proprietario di Google del modello di rilevamento di oggetti a una fase YOLO. | Colab Scheda modello |
YOLOv8 (Keras) | Vision | Ottimizza ed esegui il deployment dell'implementazione di Keras del modello YOLOv8 per il rilevamento di oggetti. | Colab Scheda del modello |
tfvision/YOLOv7 | Vision | Ottimizza ed esegui il deployment del modello YOLOv7 per il rilevamento di oggetti. | Colab Scheda del modello |
ByteTrack Video Object Tracking | Vision | Esegui la previsione batch per il monitoraggio di oggetti video utilizzando il tracker ByteTrack. | Colab Scheda del modello |
ResNeSt (TIMM) | Vision | Ottimizza ed esegui il deployment dell'implementazione PyTorch del modello di classificazione delle immagini ResNeSt. | Colab Scheda modello |
ConvNeXt (TIMM) | Vision | Ottimizza e implementa ConvNeXt, un modello di convoluzione puro per la classificazione delle immagini ispirato al design di Vision Transformers. | Colab Scheda modello |
CspNet (TIMM) | Vision | Ottimizza ed esegui il deployment del modello di classificazione delle immagini CSPNet (Cross Stage Partial Network). | Colab Scheda modello |
Inception (TIMM) | Vision | Ottimizza ed esegui il deployment del modello di classificazione delle immagini Inception. | Colab Scheda modello |
DeepLabv3+ (con checkpoint) | Vision | Ottimizza e implementa il modello DeepLab-v3 Plus per la segmentazione delle immagini semantiche. | Colab Scheda modello |
Faster R-CNN (Detectron2) | Vision | Ottimizza ed esegui il deployment dell'implementazione di Detectron2 del modello Faster R-CNN per il rilevamento di oggetti immagine. | Colab Scheda modello |
RetinaNet (Detectron2) | Vision | Ottimizza ed esegui il deployment dell'implementazione di Detectron2 del modello RetinaNet per il rilevamento di oggetti nelle immagini. | Colab Scheda modello |
Mask R-CNN (Detectron2) | Vision | Ottimizza ed esegui il deployment dell'implementazione di Detectron2 del modello Mask R-CNN per il rilevamento e la segmentazione di oggetti nelle immagini. | Colab Scheda modello |
ControlNet | Vision | Ottimizza e implementa il modello di generazione di testo in immagine di ControlNet. | Colab Scheda modello |
MobileNet (TIMM) | Vision | Ottimizza ed esegui il deployment dell'implementazione PyTorch del modello di classificazione delle immagini MobileNet. | Colab Scheda modello |
Classificazione delle immagini MobileNetV2 (MediaPipe) | Vision | Ottimizza il modello di classificazione delle immagini MobileNetV2 utilizzando lo strumento Model Maker di MediaPipe. | Colab Scheda modello |
Rilevamento di oggetti MobileNetV2 (MediaPipe) | Vision | Ottimizza il modello di rilevamento degli oggetti MobileNetV2 utilizzando lo strumento per la creazione di modelli MediaPipe. | Colab Scheda modello |
MobileNet-MultiHW-AVG (MediaPipe) | Vision | Ottimizza il modello di rilevamento degli oggetti MobileNet-MultiHW-AVG utilizzando lo strumento per la creazione di modelli MediaPipe. | Colab Scheda modello |
DeiT | Vision | Ottimizza e esegui il deployment del modello DeiT (Data-efficient Image Transformers) per la classificazione delle immagini. | Colab Scheda modello |
BEiT | Vision | Ottimizza e implementa il modello BEiT (Bidirectional Encoder Representation from Image Transformers) per la classificazione delle immagini. | Colab Scheda modello |
Riconoscimento dei gesti delle mani (MediaPipe) | Vision | Ottimizza e esegui il deployment dei modelli di riconoscimento dei gesti delle mani sul dispositivo utilizzando MediaPipe. | Colab Scheda del modello |
Classificatore di embedding di parole medio (MediaPipe) | Vision | Ottimizza ed esegui il deployment on-device dei modelli di classificazione dell'embedding medio delle parole utilizzando MediaPipe. | Colab Scheda del modello |
Classificatore MobileBERT (MediaPipe) | Vision | Ottimizza ed esegui il deployment dei modelli di classificazione MobileBERT sul dispositivo utilizzando MediaPipe. | Colab Scheda del modello |
Classificazione di clip video MoViNet | Video | Ottimizza ed esegui il deployment di modelli di classificazione di clip video MoViNet. | Colab Scheda del modello |
MoViNet Video Action Recognition | Video | Ottimizza ed esegui il deployment dei modelli MoViNet per l'inferenza del riconoscimento delle azioni. | Colab Scheda del modello |
LCM di Stable Diffusion XL | Vision | Implementa questo modello che utilizza il modello di coerenza latente (LCM) per migliorare la generazione da testo a immagine nei modelli di diffusione latente consentendo la creazione di immagini più rapide e di alta qualità con meno passaggi. | Colab Scheda del modello |
LLaVA 1.5 | Visione, Lingua | Esegui il deployment dei modelli LLaVA 1.5. | Colab Scheda del modello |
Pytorch-ZipNeRF | Visione, video | Addestra il modello Pytorch-ZipNeRF, che è un'implementazione all'avanguardia dell'algoritmo ZipNeRF nel framework Pytorch, progettato per una ricostruzione 3D efficiente e accurata da immagini 2D. | Colab Scheda del modello |
Mixtral | Lingua | Esegui il deployment del modello Mixtral, un modello linguistico di grandi dimensioni (LLM) basato su una miscela di esperti (MoE) sviluppato da Mistral AI. | Scheda del modello |
Llama 2 (quantizzato) | Lingua | Ottimizza ed esegui il deployment di una versione quantizzata dei modelli Llama 2 di Meta. | Colab Scheda del modello |
LaMa (Large Mask Inpainting) | Vision | Esegui il deployment di LaMa che utilizza convoluzioni di Fourier rapide (FFC), una perdita percettiva del campo ricettivo elevata e maschere di addestramento di grandi dimensioni consente l'inserimento di immagini con una risoluzione robusta. | Colab Scheda del modello |
AutoGluon | Tabulare | Con AutoGluon puoi addestrare e implementare modelli di machine learning e deep learning ad alta precisione per i dati tabulari. | Colab Scheda del modello |
MaMMUT | Lingua, Visione | Un'architettura di encoder visivo e decoder di testo per attività multimodali come risposta a domande visive, recupero di testo e immagini, recupero di immagini e testo e generazione di incorporamenti multimodali. | Colab Scheda del modello |
Elenco dei modelli partner disponibili in Model Garden
Alcuni modelli di partner sono offerti come API gestite in Vertex AI Model Garden (noti anche come model as a service). La tabella seguente elenca i modelli disponibili dai partner di Google in Model Garden:
Nome modello | Modalità | Descrizione | Guida rapida |
---|---|---|---|
Claude 3.5 Sonnet v2 di Anthropic | Lingua | Claude 3.5 Sonnet aggiornato è un modello all'avanguardia per attività di ingegneria del software nel mondo reale e funzionalità di agente. Claude 3.5 Sonnet offre questi miglioramenti allo stesso prezzo e alla stessa velocità del suo predecessore. | Scheda del modello |
Claude 3.5 Haiku di Anthropic | Lingua | Claude 3.5 Haiku, la nuova generazione del modello più veloce ed economico di Anthropic, è ottimale per i casi d'uso in cui velocità e convenienza sono importanti. | Scheda del modello |
Claude 3 Opus di Anthropic | Lingua | Un potente modello di AI con prestazioni di alto livello per attività molto complesse. È in grado di esplorare prompt aperti e scenari non visivi con notevole fluidità e comprensione di tipo umano. | Scheda del modello |
Claude 3 Haiku di Anthropic | Lingua | Il modello di visione e testo più rapido di Anthropic per risposte quasi immediate a query semplici, pensato per esperienze di AI senza interruzioni che imitano le interazioni umane. | Scheda del modello |
Claude 3.5 Sonnet di Anthropic | Lingua | Claude 3.5 Sonnet supera Claude 3 Opus di Anthropic su un'ampia gamma di valutazioni di Anthropic con la velocità e il costo del modello di livello medio di Anthropic, Claude 3 Sonnet. | Scheda del modello |
Claude 3 Sonnet di Anthropic | Lingua | Un modello di visione e testo che bilancia le prestazioni e la velocità per l'elaborazione dei carichi di lavoro aziendali. È progettato per deployment di AI scalabili a basso costo. | Scheda del modello |
Jamba 1.5 Large (anteprima) | Lingua | Jamba 1.5 Large di AI21 Labs è progettato per risposte di qualità superiore, elevato throughput e prezzi competitivi rispetto ad altri modelli della stessa classe di dimensioni. | Scheda del modello |
Jamba 1.5 Mini (anteprima) | Lingua | Jamba 1.5 Mini di AI21 Labs offre un buon equilibrio tra qualità, velocità effettiva e basso costo. | Scheda del modello |
Llama 3.2 (anteprima) | Lingua, Visione | Un modello multimodale di medie dimensioni da 90 miliardi di parametri che può supportare il ragionamento sulle immagini, ad esempio l'analisi di grafici e tabelle, nonché l'inserimento di didascalie per le immagini. | Scheda del modello |
Llama 3.1 (anteprima) | Lingua | Una raccolta di LLM multilingue ottimizzati per casi d'uso di dialogo multilingue e che superano molti dei modelli di chat chiusi e open source disponibili sui benchmark di settore comuni. | Scheda del modello |
Mistral Large (24.11) | Lingua | Mistral Large (24.11) è la versione successiva del modello Mistral Large (2407), ora con funzionalità di ragionamento e chiamate di funzioni migliorate. | Scheda del modello |
Mistral Large (2407) | Lingua | Mistral Large (2407) è il modello di punta di Mistral AI per la generazione di testo. Raggiunge funzionalità di ragionamento di primo livello e può essere utilizzato per attività multilingue complesse, tra cui comprensione del testo, trasformazione e generazione di codice. | Scheda del modello |
Mistral Nemo | Lingua | Il modello proprietario più conveniente di Mistral AI. Utilizza i carichi di lavoro a bassa latenza di Mistral Nemo e le attività semplici che possono essere eseguite collettivamente, come la classificazione, l'assistenza clienti e la generazione di testo. | Scheda del modello |
Codestral | Codice | Un modello generativo progettato e ottimizzato appositamente per la generazione di codice. Puoi utilizzare Codestral per progettare applicazioni di AI avanzate. | Scheda del modello |
Scansione della sicurezza del modello
Google esegue test e benchmarking approfonditi sui contenitori di pubblicazione e ottimizzazione che forniamo. L'analisi delle vulnerabilità attive viene applicata anche agli artefatti dei container.
I modelli di terze parti dei partner in primo piano vengono sottoposti a scansioni di controllo per verificarne l'autenticità. I modelli di terze parti di HuggingFace Hub vengono analizzati direttamente da HuggingFace e dal loro scanner di terze parti per rilevare malware, file pickle, livelli Lambda Keras e secret. I modelli ritenuti non sicuri da queste analisi vengono segnalati da HuggingFace e il loro deployment viene bloccato in Model Garden. I modelli ritenuti sospetti o che hanno la possibilità di eseguire potenzialmente codice remoto sono indicati in Model Garden, ma possono comunque essere implementati. Ti consigliamo di eseguire un esame approfondito di qualsiasi modello sospetto prima di eseguirlo in Model Garden.
Come utilizzare le schede del modello
Fai clic su una scheda del modello per utilizzare il modello associato. Ad esempio, puoi fare clic su una scheda del modello per testare i prompt, ottimizzare un modello, creare applicazioni e visualizzare esempi di codice.
Per scoprire come utilizzare i modelli associati alle schede dei modelli, fai clic su una delle seguenti schede:
Prompt di test
Utilizza la scheda del modello dell'API Vertex AI PaLM per testare i prompt.
Nella console Google Cloud, vai alla pagina Model Garden.
Trova un modello supportato che vuoi testare e fai clic su Visualizza dettagli.
Fai clic su Apri progettazione prompt.
Viene visualizzata la pagina Design del prompt.
In Prompt, inserisci il prompt che vuoi testare.
(Facoltativo) Configura i parametri del modello.
Fai clic su Invia.
Ottimizza un modello
Per ottimizzare i modelli supportati, utilizza una pipeline Vertex AI o un notebook.
Ottimizzazione tramite una pipeline
I modelli BERT e T5-FLAN supportano la regolazione del modello utilizzando una pipeline.
Nella console Google Cloud, vai alla pagina Model Garden.
In Modelli di ricerca, inserisci BERT o T5-FLAN, quindi fai clic sulla lente d'ingrandimento per eseguire la ricerca.
Fai clic su Visualizza dettagli nella scheda del modello T5-FLAN o BERT.
Fai clic su Apri pipeline di ottimizzazione.
Viene visualizzata la pagina delle pipeline Vertex AI.
Per iniziare la sintonizzazione, fai clic su Crea esecuzione.
Sintonizzarsi su un notebook
Le schede dei modelli per la maggior parte dei modelli di base open source e dei modelli ottimizzabili supportano l'ottimizzazione in un notebook.
Nella console Google Cloud, vai alla pagina Model Garden.
Trova un modello supportato che vuoi ottimizzare e fai clic su Visualizza dettagli.
Fai clic su Apri notebook.
Esegui il deployment di un modello
Puoi eseguire il deployment di un modello dalla relativa scheda, ad esempio Diffusione stabile. Quando esegui il deployment di un modello, puoi scegliere di utilizzare una prenotazione Compute Engine. Per ulteriori informazioni, consulta Utilizzare le prenotazioni con la previsione.
Nella console Google Cloud, vai alla pagina Model Garden.
Trova un modello supportato di cui vuoi eseguire il deployment e fai clic sulla relativa scheda.
Fai clic su Esegui il deployment per aprire il riquadro Esegui il deployment del modello.
Nel riquadro Esegui il deployment del modello, specifica i dettagli del deployment.
- Utilizza o modifica i nomi del modello e dell'endpoint generati.
- Seleziona una località in cui creare l'endpoint del modello.
- Seleziona un tipo di macchina da utilizzare per ogni nodo del deployment.
Per utilizzare una prenotazione Compute Engine, seleziona Avanzate nella sezione Impostazioni di deployment.
Per il campo Tipo di prenotazione, seleziona un tipo di prenotazione. La prenotazione deve corrispondere alle specifiche della macchina specificate.
- Utilizza automaticamente la prenotazione creata: Vertex AI selezionerà automaticamente una prenotazione consentita con proprietà corrispondenti. Se la prenotazione selezionata automaticamente non ha capacità, Vertex AI utilizza il pool di risorse generale di Google Cloud.
- Seleziona prenotazioni specifiche: Vertex AI utilizza una prenotazione specifica. Se non è disponibile la capacità per la prenotazione selezionata, viene generato un errore.
- Non utilizzare (valore predefinito): Vertex AI utilizza il pool di risorse Google Cloud generale. Questo valore ha lo stesso effetto di non specificare una prenotazione.
Fai clic su Esegui il deployment.
Visualizza esempi di codice
La maggior parte delle schede dei modelli per le soluzioni specifiche per le attività contiene esempi di codice che puoi copiare e testare.
Nella console Google Cloud, vai alla pagina Model Garden.
Trova un modello supportato di cui vuoi visualizzare gli esempi di codice e fai clic sulla scheda Documentazione.
La pagina scorre fino alla sezione della documentazione con il codice campione incorporato.
Creare un'app di visione
Le schede dei modelli per i modelli di visione artificiale applicabili supportano la creazione di un'applicazione di visione.
Nella console Google Cloud, vai alla pagina Model Garden.
Nella sezione Soluzioni specifiche per attività, trova un modello di visione che vuoi utilizzare per creare un'applicazione di visione e fai clic su Visualizza dettagli.
Fai clic su Crea app.
Viene visualizzata la pagina Vertex AI Vision.
In Nome applicazione, inserisci un nome per l'applicazione e fai clic su Continua.
Seleziona un piano di fatturazione e fai clic su Crea.
Verrà visualizzata la pagina Vertex AI Vision Studio, dove potrai continuare a creare la tua applicazione di visione artificiale.
Prezzi
Per i modelli open source in Model Garden, ti viene addebitato l'utilizzo di quanto segue su Vertex AI:
- Ottimizzazione del modello: ti vengono addebitate le risorse di calcolo utilizzate alla stessa tariffa dell'addestramento personalizzato. Consulta i prezzi dell'addestramento personalizzato.
- Deployment del modello: ti vengono addebitate le risorse di calcolo utilizzate per eseguire il deployment del modello in un endpoint. Consulta i prezzi delle previsioni.
- Colab Enterprise: consulta la pagina Prezzi di Colab Enterprise.
Controllare l'accesso a modelli specifici
Puoi impostare un criterio dell'organizzazione di Model Garden a livello di organizzazione, cartella o progetto per controllare l'accesso a modelli specifici in Model Garden. Ad esempio, puoi consentire l'accesso a modelli specifici che hai esaminato e negare l'accesso a tutti gli altri.
Passaggi successivi
- Scopri le best practice per l'AI responsabile e i filtri di sicurezza di Vertex AI.
- Scopri di più sull'IA generativa su Vertex AI.
- Scopri come ottimizzare i modelli di base.