Panoramica dell'AI generativa

Questo documento descrive le funzionalità di intelligenza artificiale (AI) generativa supportate da BigQuery ML. Queste funzionalità ti consentono di eseguire attività di IA in BigQuery ML utilizzando modelli Vertex AI preaddestrati e modelli BigQuery ML integrati.

Le attività supportate includono:

Per accedere a un modello Vertex AI ed eseguire una di queste funzioni, crea un modello remoto in BigQuery ML che rappresenti l'endpoint del modello Vertex AI. Dopo aver creato un modello remoto sul modello Vertex AI che vuoi utilizzare, accedi alle sue funzionalità eseguendo una funzione BigQuery ML sul modello remoto.

Questo approccio ti consente di utilizzare le funzionalità di questi modelli Vertex AI nelle query SQL per analizzare i dati di BigQuery.

Flusso di lavoro

Puoi utilizzare modelli remoti rispetto ai modelli Vertex AI e modelli remoti rispetto ai servizi Cloud AI insieme alle funzioni BigQuery ML per eseguire analisi dei dati complesse e attività di IA generativa.

Il seguente diagramma mostra alcuni flussi di lavoro tipici in cui potresti utilizzare queste funzionalità insieme:

Diagramma che mostra i flussi di lavoro comuni per i modelli remoti che utilizzano i modelli Vertex AI o i servizi Cloud AI.

Genera testo

La generazione di testo è una forma di AI generativa in cui il testo viene generato in base a un prompt o all'analisi dei dati. Puoi eseguire la generazione di testo utilizzando sia i dati di testo che quelli multimodali.

Ecco alcuni casi d'uso comuni per la generazione di testo:

  • Generazione di contenuti creativi.
  • Generazione del codice.
  • Generazione di risposte via chat o email.
  • Brainstorming, ad esempio suggerendo strade per prodotti o servizi futuri.
  • Personalizzazione dei contenuti, ad esempio suggerimenti di prodotti.
  • Classificazione dei dati mediante l'applicazione di una o più etichette ai contenuti per ordinarli in categorie.
  • Identificazione dei principali sentimenti espressi nei contenuti.
  • Riepilogare le idee o le impressioni chiave trasmesse dai contenuti.
  • Identificazione di una o più entità importanti nei dati di testo o visivi.
  • Traduzione dei contenuti di dati di testo o audio in un'altra lingua.
  • Generazione di testo corrispondente ai contenuti verbali nei dati audio.
  • Sottotitolazione codificata o domande e risposte sui dati visivi.

L'arricchimento dei dati è un passaggio comune successivo alla generazione di testo, in cui puoi arricchire le informazioni dell'analisi iniziale combinandole con dati aggiuntivi. Ad esempio, potresti analizzare le immagini di arredamento per la casa per generare il testo per una colonna design_type, in modo che lo SKU degli arredi abbia una descrizione associata, ad esempio mid-century modern o farmhouse.

Modelli supportati

Per eseguire attività di IA generativa, puoi utilizzare i modelli remoti in BigQuery ML per fare riferimento ai modelli di cui è stato eseguito il deployment o che sono ospitati in Vertex AI. Puoi creare i seguenti tipi di modelli remoti:

Utilizzo di modelli di generazione di testo

Dopo aver creato un modello remoto, puoi utilizzare la funzione ML.GENERATE_TEXT per interagire con il modello:

Utilizza i seguenti argomenti per provare la generazione di testo in BigQuery ML:

Attributi di messa a terra e sicurezza

Puoi utilizzare grounding e attributi di sicurezza quando utilizzi i modelli Gemini con la funzione ML.GENERATE_TEXT, a condizione che tu stia utilizzando una tabella standard per l'input. La funzionalità di grounding consente al modello Gemini di utilizzare informazioni aggiuntive di internet per generare risposte più specifiche e oggettive. Gli attributi di sicurezza consentono al modello Gemini di filtrare le risposte restituite in base agli attributi specificati.

Ottimizzazione supervisionata

Quando crei un modello remoto che fa riferimento a uno dei seguenti modelli, se vuoi puoi scegliere di configurare contemporaneamente la ottimizzazione supervisionata:

  • gemini-2.0-flash-001
  • gemini-2.0-flash-lite-001
  • gemini-1.5-pro-002
  • gemini-1.5-flash-002

Tutta l'inferenza avviene in Vertex AI. I risultati vengono archiviati in BigQuery.

Throughput pianificato di Vertex AI

Per i modelli Gemini supportati, puoi utilizzare il throughput riservato di Vertex AI con la funzione ML.GENERATE_TEXT per fornire un throughput elevato e costante per le richieste. Per ulteriori informazioni, consulta Utilizzare il throughput pianificato di Vertex AI.

Generare dati strutturati

La generazione di dati strutturati è molto simile alla generazione di testo, tranne per il fatto che puoi anche formattare la risposta del modello specificando uno schema SQL.

Per generare dati strutturati, crea un modello remoto su uno dei modelli Gemini generalmente disponibili o di anteprima. Puoi quindi utilizzare la funzione AI.GENERATE_TABLE per interagire con il modello. Per provare a creare dati strutturati, consulta Genera dati strutturati utilizzando la funzione AI.GENERATE_TABLE.

Puoi specificare attributi di sicurezza quando utilizzi i modelli Gemini con la funzione AI.GENERATE_TABLE per filtrare le risposte del modello.

Generare valori di un tipo specifico per riga

Puoi utilizzare le funzioni di AI generativa scalari con i modelli Gemini per analizzare i dati nelle tabelle standard di BigQuery. I dati includono sia i dati di testo sia i dati non strutturati delle colonne contenenti valori ObjectRef. Per ogni riga della tabella, queste funzioni generano un output contenente un tipo specifico.

Sono disponibili le seguenti funzioni di AI:

Quando utilizzi la funzione AI.GENERATE con modelli Gemini supportati, puoi utilizzare il throughput provisionato di Vertex AI per fornire un throughput elevato e costante per le richieste. Per ulteriori informazioni, consulta Utilizzare il throughput pianificato di Vertex AI.

Genera embedding

Un embedding è un vettore numerico ad alta dimensione che rappresenta una determinata entità, ad esempio un testo o un file audio. La generazione di embedding ti consente di acquisire la semantica dei dati in modo da ragionare e confrontare più facilmente i dati.

Ecco alcuni casi d'uso comuni per la generazione di embed:

  • Utilizzo della Retrieval Augmented Generation (RAG) per migliorare le risposte del modello alle query degli utenti facendo riferimento a dati aggiuntivi di una fonte attendibile. La RAG offre una maggiore accuratezza fattuale e coerenza delle risposte, nonché l'accesso a dati più recenti rispetto a quelli di addestramento del modello.
  • Eseguire una ricerca multimodale. Ad esempio, l'utilizzo dell'input di testo per cercare nelle immagini.
  • Eseguire una ricerca semantica per trovare elementi simili per consigli, sostituzione e deduplica dei record.
  • Creazione di rappresentazioni distribuite da utilizzare con un modello K-means per il clustering.

Modelli supportati

Sono supportati i seguenti modelli:

Per un embedding di testo più piccolo e leggero, prova a utilizzare un modello di TensorFlow preaddestrato, come NNLM, SWIVEL o BERT.

Utilizzo di modelli di generazione di embedding

Dopo aver creato il modello, puoi utilizzare la funzione ML.GENERATE_EMBEDDING per interagire con esso. Per tutti i tipi di modelli supportati, ML.GENERATE_EMBEDDING funziona con i dati strutturati nelle tabelle standard. Per i modelli di embedding multimodali, ML.GENERATE_EMBEDDING funziona anche con i contenuti visivi provenienti dalle colonne della tabella standard che contengono valori ObjectRef o dalle tabelle di oggetti.

Per i modelli remoti, tutta l'inferenza avviene in Vertex AI. Per gli altri tipi di modelli, tutta l'inferenza avviene in BigQuery. I risultati vengono memorizzati in BigQuery.

Utilizza i seguenti argomenti per provare la generazione di testo in BigQuery ML:

Previsione

La previsione è una tecnica che consente di analizzare i dati storici delle serie temporali per fare una previsione informata sulle tendenze future. Puoi utilizzare il modello di serie temporali TimesFM (anteprima) integrato di BigQuery ML per eseguire le previsioni senza dover creare il tuo modello. Il modello TimesFM integrato funziona con la funzione AI.FORECAST per generare previsioni in base ai tuoi dati.

Località

Le posizioni supportate per i modelli di generazione di testo e di embedding variano in base al tipo e alla versione del modello in uso. Per ulteriori informazioni, consulta Località. A differenza di altri modelli di AI generativa, il supporto della località non si applica al modello di serie temporali TimesFM integrato. Il modello TimesFM è disponibile in tutte le regioni supportate da BigQuery.

Prezzi

Ti vengono addebitate le risorse di calcolo utilizzate per eseguire query sui modelli. I modelli remoti effettuano chiamate ai modelli Vertex AI, pertanto le query relative ai modelli remoti comportano anche addebiti da Vertex AI.

Per ulteriori informazioni, consulta Prezzi di BigQuery ML.

Passaggi successivi