Scegli i modelli e l'infrastruttura per la tua applicazione di AI generativa

Scopri quali prodotti, framework e strumenti sono la soluzione migliore per creare la tua applicazione di AI generativa. La figura seguente mostra i componenti comuni di un'applicazione di AI generativa ospitata su Cloud.
Diagramma di Venn che mostra i componenti di un sistema di AI generativa Diagramma di Venn che mostra i componenti di un sistema di AI generativa
  1. Hosting di applicazioni: risorse di calcolo per ospitare l'applicazione. La tua applicazione può utilizzare gli SDK e le librerie client di Google Cloud per comunicare con diversi prodotti Cloud.

  2. Hosting del modello:hosting scalabile e sicuro per un modello generativo.

  3. Modello: modello generativo per testo, chat, immagini, codice, incorporamenti e multimodale.

  4. Soluzione di grounding: ancora l'output del modello a fonti di informazioni verificabili e aggiornate.

  5. Database:memorizza i dati dell'applicazione. Puoi riutilizzare il tuo database esistente come soluzione di ancoraggio, integrando i prompt tramite query SQL e/o archiviando i dati come embedding vettoriali utilizzando un'estensione come pgvector.

  6. Archiviazione:archivia file come immagini, video o frontend web statici. Puoi anche utilizzare Storage per i dati non elaborati relativi al sistema di ancoraggio (ad es. PDF) che in un secondo momento vengono convertiti in embedding e archiviati in un database vettoriale.

Le sezioni seguenti illustrano ciascuno di questi componenti e ti aiutano a scegliere i prodotti Google Cloud da provare.

Infrastruttura di hosting delle applicazioni

Scegli un prodotto per ospitare e pubblicare il workload dell'applicazione, che effettua chiamate al modello generativo.

Vuoi un'infrastruttura serverless gestita?

chiudi
controllo
Cloud Run
chiudi

La tua applicazione può essere containerizzata?

chiudi
controllo
Kubernetes Engine
chiudi

Infrastruttura di hosting del modello

Google Cloud offre diversi modi per ospitare un modello generativo, dalla piattaforma di punta Vertex AI all'hosting personalizzabile e portatile su Google Kubernetes Engine.

Utilizzi Gemini e hai bisogno di funzionalità aziendali come scalabilità, sicurezza, privacy dei dati e osservabilità

controllo
chiudi
API Gemini per gli sviluppatori
controllo

Vuoi un'infrastruttura completamente gestita con API e strumenti di AI generativa di prima classe?

chiudi
controllo
Vertex AI
chiudi

Il tuo modello richiede un kernel specializzato, un sistema operativo legacy o ha termini di licenza speciali?

chiudi
controllo
Compute Engine
chiudi

Modello

Google Cloud fornisce un insieme di modelli di base all'avanguardia tramite Vertex AI , tra cui Gemini. Puoi anche eseguire il deployment di un modello di terze parti in Model Garden di Vertex AI o auto-hosting su GKE , Cloud Run o Compute Engine.

Generazione del codice?

chiudi
controllo
Codey (Vertex AI)
chiudi

Vuoi generare immagini?

chiudi
controllo
Imagen (Vertex AI)
chiudi

Generazione di embedding per ricerca, classificazione o clustering?

chiudi
controllo
embedding di testo (Vertex AI)
chiudi

Ok, vuoi generare del testo. Vuoi includere immagini o video nei prompt di testo? (multimodale)

chiudi
controllo
Gemini (Vertex AI)
chiudi

Ok, solo prompt di testo. Vuoi sfruttare il modello di punta più avanzato di Google?

chiudi
controllo
Gemini (Vertex AI)
chiudi

Esegui il deployment di un modello open source in: Vertex AI (Model Garden) GKE (HuggingFace)

Grounding

Per garantire risposte del modello informate e accurate, ti consigliamo di basare la tua applicazione di AI generativa su dati in tempo reale. Questa tecnica è chiamata retrieval-augmented generation (RAG).

Puoi implementare l'ancoraggio con i tuoi dati in un database vettoriale, un formato ottimale per operazioni come la ricerca di somiglianza. Google Cloud offre più soluzioni di database vettoriali per diversi casi d'uso.

Nota:puoi eseguire l'ancoraggio anche con i database tradizionali (non vettoriali), semplicemente eseguendo una query su un database esistente come Cloud SQL o Firestore e utilizzando il risultato nel prompt del modello.

Vuoi una soluzione semplice, senza accesso agli embedding sottostanti?

chiudi
controllo
Vertex AI Search & Conversation
chiudi

Hai bisogno di una ricerca vettoriale a bassa latenza, di pubblicazione su larga scala o vuoi utilizzare un DB vettoriale specializzato?

chiudi
controllo
Vertex AI Vector Search
chiudi

Hai accesso ai dati tramite programmazione (OLTP)? Utilizzi già un database SQL?

chiudi
controllo

Vuoi utilizzare i modelli di IA di Google direttamente dal tuo database? Hai bisogno di bassa latenza?

controllo
chiudi
chiudi

Hai un set di dati di analisi di grandi dimensioni (OLAP)? Richiedi l'elaborazione in batch e l'accesso frequente alle tabelle SQL da parte di persone o script (data science)?

controllo
BigQuery

Conoscenza di base delle API

Anziché (o in aggiunta a) utilizzare i tuoi dati per l'ancoraggio, molti servizi online offrono API che puoi utilizzare per recuperare i dati di ancoraggio al fine di migliorare il prompt del modello.
Crea, esegui il deployment e gestisci le estensioni che collegano i modelli linguistici di grandi dimensioni alle API di sistemi esterni.
Esplora una serie di caricamenti di documenti e integrazioni di API per le tue app di AI generativa, da YouTube a Google Scholar.
Se utilizzi modelli ospitati in Vertex AI, puoi basare le risposte del modello utilizzando Vertex AI Search, Ricerca Google o testo in linea/infile.

Inizia a creare

LangChain è un framework open source per app di AI generativa che ti consente di creare contesto nei prompt e di intervenire in base alla risposta del modello.

Visualizza esempi di codice per casi d'uso comuni ed esegui il deployment di esempi di applicazioni di AI generativa sicure, efficienti, resilienti, ad alte prestazioni e convenienti.