Tecnologie di AI generativa

Documentazione e risorse per l'intero ciclo di vita della creazione di applicazioni di AI generativa con Google Cloud strumenti e prodotti.

  • Accedere a Gemini 2.0 Flash Thinking
  • Utilizzo mensile gratuito di prodotti popolari, tra cui le API di AI e BigQuery
  • Nessun addebito automatico, nessun impegno

Continua a esplorare con oltre 20 prodotti Always Free

Accedi a oltre 20 prodotti gratuiti per casi d'uso comuni, tra cui API AI, VM, data warehouse e altro ancora.

Scopri di più sulla creazione di applicazioni di AI generativa

AI generativa su Vertex AI

Accedi ai grandi modelli di AI generativa di Google in modo da poterli testare, ottimizzare ed eseguire il deployment per utilizzarli nelle tue applicazioni basate sull'AI.

Guida rapida di Gemini

Scopri com'è inviare richieste all'API Gemini tramite la piattaforma AI/ML di Google Cloud, Vertex AI.

Orchestrazione di AI/ML su GKE

Sfrutta la potenza di GKE come piattaforma AI/ML personalizzabile con serving e addestramento ad alte prestazioni ed economicamente vantaggiosi, con scalabilità leader del settore e opzioni di infrastruttura flessibili.

Quando utilizzare l'AI generativa

Identifica se l'AI generativa, l'AI tradizionale o una combinazione di entrambe potrebbe essere adatta al tuo caso d'uso aziendale.

Sviluppare un'applicazione di AI generativa

Scopri come affrontare le sfide in ogni fase di sviluppo di un'applicazione di AI generativa.

Esempi di codice e applicazioni di esempio

Visualizza esempi di codice per casi d'uso comuni e implementa esempi di applicazioni di AI generativa sicure, efficienti, resilienti, ad alto rendimento ed economiche.

Glossario dell'AI generativa

Scopri di più sui termini specifici associati all'AI generativa.

Strumenti di AI generativa

Elenco di strumenti di AI generativa, tra cui Vertex AI Studio, Colab Enterprise/Notebooks e Workbench elencati in Cloud Console, e SDK/API elencati come elemento separato.

Flusso di sviluppo dell'AI generativa

Diagramma del flusso di sviluppo dell'AI generativa con sei fasi: selezione del modello (incluso Model Garden), ingegneria dei prompt (inclusi galleria dei prompt, Vertex AI Studio, confronto dei prompt e ottimizzazione dei prompt), ottimizzazione (inclusi addestramento e ottimizzazione), ottimizzazione (inclusa la distillazione), deployment (inclusi Model Registry, previsione online e previsione batch) e monitoraggio. Le fasi di selezione del modello, prompt engineering, ottimizzazione e tuning fanno parte di un sottociclo in loop etichettato come Valutazione.

Esplorazione e hosting del modello

Google Cloud fornisce un insieme di modelli di base all'avanguardia tramite Vertex AI, tra cui Gemini. Puoi anche eseguire il deployment di un modello di terze parti in Vertex AI Model Garden o l'hosting autonomo su GKE o Compute Engine.

Modelli Google su Vertex AI (Gemini, Imagen)

Scopri, testa, personalizza ed esegui il deployment di modelli e asset Google da una libreria di modelli di ML.

Altri modelli in Vertex AI Model Garden

Scopri, testa, personalizza ed esegui il deployment di modelli e asset OSS selezionati da una libreria di modelli di machine learning.

Modelli di generazione del testo tramite HuggingFace

Scopri come eseguire il deployment dei modelli di generazione di testo HuggingFace su Vertex AI o Google Kubernetes Engine (GKE).

GPU su Compute Engine

Collega le GPU alle istanze VM per accelerare i carichi di lavoro di AI generativa su Compute Engine.

Progettazione e ingegneria dei prompt

La progettazione dei prompt è il processo di creazione di coppie di prompt e risposte per fornire ai modelli linguistici contesto e istruzioni aggiuntivi. Dopo aver creato i prompt, li fornisci al modello come set di dati di prompt per il preaddestramento. Quando un modello fornisce previsioni, risponde con le tue istruzioni integrate.

Vertex AI Studio

Progetta, testa e personalizza i prompt inviati ai modelli linguistici di grandi dimensioni (LLM) Gemini e PaLM 2 di Google.

Panoramica delle strategie di prompting

Scopri il flusso di lavoro di prompt engineering e le strategie comuni che puoi utilizzare per influire sulle risposte del modello.
Visualizza esempi di prompt e risposte per casi d'uso specifici.

Grounding e RAG

Il grounding collega i modelli di AI alle origini dati per migliorare l'accuratezza delle risposte e ridurre le allucinazioni. La RAG, una tecnica di grounding comune, cerca informazioni pertinenti e le aggiunge al prompt del modello, garantendo che l'output si basi su fatti e informazioni aggiornate.

Vertex AI grounding

Puoi basare i modelli Vertex AI sulla Ricerca Google o sui tuoi dati archiviati in Vertex AI Search.
Utilizza il grounding con la Ricerca Google per collegare il modello alle conoscenze aggiornate disponibili su internet.

Vector embedding in AlloyDB

Utilizza AlloyDB per generare e archiviare gli incorporamenti vettoriali, quindi indicizzali ed esegui query sugli incorporamenti utilizzando l'estensione pgvector.

Cloud SQL e pgvector

Archivia gli incorporamenti vettoriali in Postgres SQL, quindi indicizza ed esegui query sugli incorporamenti utilizzando l'estensione pgvector.

Integrazione dei dati BigQuery nell'applicazione LangChain

Utilizza LangChain per estrarre dati da BigQuery e arricchire e basare le risposte del modello.

Vector embedding in Firestore

Crea vector embedding dai tuoi dati Firestore, quindi indicizza ed esegui query sugli embedding.

Incorporamenti vettoriali in Memorystore (Redis)

Utilizza LangChain per estrarre dati da Memorystore e arricchire e basare le risposte del modello.

Agenti e chiamate di funzioni

Gli agenti semplificano la progettazione e l'integrazione di un'interfaccia utente conversazionale nella tua app mobile, mentre la chiamata di funzioni estende le funzionalità di un modello.

Applicazioni AI

Sfrutta i foundation model, l'esperienza di ricerca e le tecnologie di AI conversazionale di Google per applicazioni di AI generativa di livello enterprise.

Vertex AI Function calling

Aggiungi la chiamata di funzione al tuo modello per attivare azioni come la prenotazione in base alle informazioni del calendario estratte.

Personalizzazione e addestramento dei modelli

Attività specializzate, come l'addestramento di un modello linguistico su una terminologia specifica, potrebbero richiedere un addestramento più approfondito rispetto a quello che puoi fare solo con la progettazione o la fondatezza dei prompt. In questo scenario, puoi utilizzare l'ottimizzazione del modello per migliorare le prestazioni o addestrare il tuo modello.

Valuta i modelli in Vertex AI

Valuta le prestazioni dei foundation model e dei modelli di AI generativa ottimizzati su Vertex AI.

Ottimizzare i modelli Vertex AI

I foundation model per uso generico possono trarre vantaggio dall'ottimizzazione per migliorare le loro prestazioni su attività specifiche.

Cloud TPU

Le TPU (Tensor Processing Unit) sono i circuiti integrati per applicazioni specifiche (ASIC) di Google sviluppati appositamente per accelerare i carichi di lavoro di machine learning, ad esempio l'addestramento di un LLM.

Inizia a creare

LangChain è un framework open source per app di AI generativa che ti consente di creare un contesto nei prompt e di agire in base alla risposta del modello.
Visualizza esempi di codice per casi d'uso comuni e implementa esempi di applicazioni di AI generativa sicure, efficienti, resilienti, ad alto rendimento ed economiche.