Ottimizzare un modello utilizzando i tuoi dati
Questo documento mostra come creare un modello remoto BigQuery ML che fa riferimento a un modello Vertex AI, quindi come configurare il modello per eseguire il tuning supervisionato. Il modello Vertex AI deve essere uno dei seguenti:
gemini-1.5-pro-002
gemini-1.5-flash-002
gemini-1.0-pro-002
(Anteprima)
Dopo aver creato il modello remoto, utilizza la
funzione ML.EVALUATE
per valutarlo e verificare che le sue prestazioni siano adatte al tuo
caso d'uso. Puoi quindi utilizzare il modello in combinazione con la
funzione ML.GENERATE_TEXT
per analizzare il testo in una tabella BigQuery.
Per ulteriori informazioni, consulta Ottimizzazione supervisionata del modello dell'API Gemini di Vertex AI.
Autorizzazioni obbligatorie
Per creare una connessione, devi disporre dell'appartenenza al seguente ruolo IAM (Identity and Access Management):
roles/bigquery.connectionAdmin
Per concedere le autorizzazioni all'account di servizio della connessione, devi disporre della seguente autorizzazione:
resourcemanager.projects.setIamPolicy
Per creare il modello utilizzando BigQuery ML, sono necessarie le seguenti autorizzazioni IAM:
bigquery.jobs.create
bigquery.models.create
bigquery.models.getData
bigquery.models.updateData
bigquery.models.updateMetadata
Per eseguire l'inferenza, devi disporre delle seguenti autorizzazioni:
bigquery.tables.getData
sul tavolobigquery.models.getData
sul modellobigquery.jobs.create
Prima di iniziare
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
-
Make sure that billing is enabled for your Google Cloud project.
-
Enable the BigQuery, BigQuery Connection,Vertex AI, and Compute Engine APIs.
Crea una connessione
Crea una connessione risorsa Cloud e recupera l'account di servizio della connessione.
Seleziona una delle seguenti opzioni:
Console
Vai alla pagina BigQuery.
Per creare una connessione, fai clic su
Aggiungi e poi su Connessioni a origini dati esterne.Nell'elenco Tipo di connessione, seleziona Modelli remoti di Vertex AI, funzioni remote e BigLake (risorsa Cloud).
Nel campo ID connessione, inserisci un nome per la connessione.
Fai clic su Crea connessione.
Fai clic su Vai alla connessione.
Nel riquadro Informazioni sulla connessione, copia l'ID account di servizio da utilizzare in un passaggio successivo.
bq
In un ambiente a riga di comando, crea una connessione:
bq mk --connection --location=REGION --project_id=PROJECT_ID \ --connection_type=CLOUD_RESOURCE CONNECTION_ID
Il parametro
--project_id
sostituisce il progetto predefinito.Sostituisci quanto segue:
REGION
: la regione di connessionePROJECT_ID
: il tuo ID progetto Google CloudCONNECTION_ID
: un ID per la connessione
Quando crei una risorsa di connessione, BigQuery crea un account di servizio di sistema unico e lo associa alla connessione.
Risoluzione dei problemi: se ricevi il seguente errore di connessione, aggiorna Google Cloud SDK:
Flags parsing error: flag --connection_type=CLOUD_RESOURCE: value should be one of...
Recupera e copia l'ID account di servizio per utilizzarlo in un passaggio successivo:
bq show --connection PROJECT_ID.REGION.CONNECTION_ID
L'output è simile al seguente:
name properties 1234.REGION.CONNECTION_ID {"serviceAccountId": "connection-1234-9u56h9@gcp-sa-bigquery-condel.iam.gserviceaccount.com"}
Terraform
Utilizza la risorsa google_bigquery_connection
.
Per autenticarti in BigQuery, configura le credenziali predefinite dell'applicazione. Per saperne di più, consulta Configurare l'autenticazione per le librerie client.
L'esempio seguente crea una connessione risorsa Cloud denominata
my_cloud_resource_connection
nella regione US
:
Per applicare la configurazione Terraform in un progetto Google Cloud, completa i passaggi nelle seguenti sezioni.
Prepara Cloud Shell
- Avvia Cloud Shell.
-
Imposta il progetto Google Cloud predefinito in cui vuoi applicare le configurazioni Terraform.
Devi eseguire questo comando una sola volta per progetto e puoi farlo in qualsiasi directory.
export GOOGLE_CLOUD_PROJECT=PROJECT_ID
Le variabili di ambiente vengono sostituite se imposti valori espliciti nel file di configurazione Terraform.
Prepara la directory
Ogni file di configurazione di Terraform deve avere una propria directory (chiamata anche modulo principale).
-
In Cloud Shell, crea una directory e un nuovo
file al suo interno. Il nome file deve avere l'estensione
.tf
, ad esempiomain.tf
. In questo tutorial, il file è denominatomain.tf
.mkdir DIRECTORY && cd DIRECTORY && touch main.tf
-
Se stai seguendo un tutorial, puoi copiare il codice campione in ogni sezione o passaggio.
Copia il codice campione nel
main.tf
appena creato.Se vuoi, copia il codice da GitHub. Questa opzione è consigliata quando lo snippet Terraform fa parte di una soluzione end-to-end.
- Esamina e modifica i parametri di esempio da applicare al tuo ambiente.
- Salva le modifiche.
-
Inizializza Terraform. Devi eseguire questa operazione una sola volta per directory.
terraform init
Se vuoi, per utilizzare la versione più recente del provider Google, includi l'opzione
-upgrade
:terraform init -upgrade
Applica le modifiche
-
Rivedi la configurazione e verifica che le risorse che Terraform sta per creare o
aggiornare corrispondano alle tue aspettative:
terraform plan
Apporta le correzioni necessarie alla configurazione.
-
Applica la configurazione di Terraform eseguendo il seguente comando e inserendo
yes
al prompt:terraform apply
Attendi che Terraform mostri il messaggio "Applicazione completata".
- Apri il tuo progetto Google Cloud per visualizzare i risultati. Nella console Google Cloud, vai alle risorse nell'interfaccia utente per assicurarti che Terraform le abbia create o aggiornate.
Concedi l'accesso all'account di servizio della connessione
Concedi all'account di servizio l'autorizzazione ad accedere a Vertex AI. La mancata autorizzazione comporta un errore. Seleziona una delle seguenti opzioni:
Console
Vai alla pagina IAM e amministrazione.
Fai clic su
Concedi l'accesso.In Nuove entità, inserisci l'ID account di servizio che hai copiato in precedenza.
Fai clic su Seleziona un ruolo.
In Filtro, digita
Vertex AI Service Agent
e seleziona il ruolo.Fai clic su Salva.
gcloud
Utilizza il
comando gcloud projects add-iam-policy-binding
:
gcloud projects add-iam-policy-binding 'PROJECT_NUMBER' --member='serviceAccount:MEMBER' --role='roles/aiplatform.serviceAgent' --condition=None
Sostituisci quanto segue:
PROJECT_NUMBER
: il numero del progetto.MEMBER
: l'ID account di servizio che hai copiato in precedenza.
L'account di servizio associato alla connessione è un'istanza dell'agente di servizio di delega della connessione BigQuery, quindi è possibile assegnargli un ruolo di agente di servizio.
Creare un modello con ottimizzazione supervisionata
Nella console Google Cloud, vai alla pagina BigQuery.
Nell'editor di query, esegui la seguente query per creare un modello remoto:
CREATE OR REPLACE MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME` REMOTE WITH CONNECTION `PROJECT_ID.REGION.CONNECTION_ID` OPTIONS ( ENDPOINT = 'ENDPOINT', MAX_ITERATIONS = MAX_ITERATIONS, LEARNING_RATE_MULTIPLIER = LEARNING_RATE_MULTIPLIER, DATA_SPLIT_METHOD = 'DATA_SPLIT_METHOD', DATA_SPLIT_EVAL_FRACTION = DATA_SPLIT_EVAL_FRACTION, DATA_SPLIT_COL = 'DATA_SPLIT_COL', EVALUATION_TASK = 'EVALUATION_TASK', PROMPT_COL = 'INPUT_PROMPT_COL', INPUT_LABEL_COLS = INPUT_LABEL_COLS) AS SELECT PROMPT_COLUMN, LABEL_COLUMN FROM `TABLE_PROJECT_ID.TABLE_DATASET.TABLE_NAME`;
Sostituisci quanto segue:
PROJECT_ID
: l'ID progetto in cui creare il modello.DATASET_ID
: l'ID del set di dati che deve contenere il modello. Questo set di dati deve trovarsi in una regione di caricamento dei modelli e dei job di pipeline supportata.MODEL_NAME
: il nome del modello.REGION
: la regione utilizzata dalla connessione.CONNECTION_ID
: l'ID della connessione BigQuery. Questa connessione deve trovarsi nella stessa località del set di dati che stai utilizzando.Quando visualizzi i dettagli della connessione nella console Google Cloud, questo è il valore nell'ultima sezione dell'ID connessione visualizzato in ID connessione, ad esempio
projects/myproject/locations/connection_location/connections/myconnection
.ENDPOINT
: un valoreSTRING
che specifica il nome del modello da utilizzare.MAX_ITERATIONS
: un valoreINT64
che specifica il numero di passaggi da eseguire per l'ottimizzazione supervisionata. Il valoreMAX_ITERATIONS
deve essere compreso tra1
e∞
.I modelli Gemini vengono addestrati utilizzando epoche anziché passaggi, pertanto BigQuery ML converte il valore
MAX_ITERATIONS
in epoche. Il valore predefinito perMAX_ITERATIONS
è il numero di righe nei dati di input, che equivale a un'epoca. Per utilizzare più epoche, specifica un multiplo del numero di righe nei dati di addestramento. Ad esempio, se hai 100 righe di dati di input e vuoi utilizzare due epoche, specifica200
per il valore dell'argomento. Se fornisci un valore che non è un multiplo del numero di righe nei dati di input, BigQuery ML lo arrotonda per eccesso all'epoca più vicina. Ad esempio, se hai 100 righe di dati di input e specifichi101
per il valoreMAX_ITERATIONS
, l'addestramento viene eseguito con due epoche.Per saperne di più sui parametri utilizzati per ottimizzare i modelli Gemini, consulta Creare un job di ottimizzazione.
DATA_SPLIT_METHOD
: un valoreSTRING
che specifica il metodo utilizzato per suddividere i dati di input in set di addestramento e valutazione. Le opzioni valide sono le seguenti:AUTO_SPLIT
: BigQuery ML suddivide automaticamente i dati. Il modo in cui i dati vengono suddivisi varia in base al numero di righe nella tabella di input. Questo è il valore predefinito.RANDOM
: i dati vengono randomizzati prima di essere suddivisi in insiemi. Per personalizzare la suddivisione dei dati, puoi utilizzare questa opzione con l'opzioneDATA_SPLIT_EVAL_FRACTION
.CUSTOM
: i dati vengono suddivisi utilizzando la colonna fornita nell'opzioneDATA_SPLIT_COL
. Il valoreDATA_SPLIT_COL
deve essere il nome di una colonna di tipoBOOL
. Le righe con un valoreTRUE
oNULL
vengono utilizzate come dati di valutazione, mentre le righe con un valoreFALSE
vengono utilizzate come dati di addestramento.SEQ
: suddividi i dati utilizzando la colonna fornita nell'opzioneDATA_SPLIT_COL
. Il valoreDATA_SPLIT_COL
deve essere il nome di una colonna di uno dei seguenti tipi:NUMERIC
BIGNUMERIC
STRING
TIMESTAMP
I dati vengono ordinati dal più piccolo al più grande in base alla colonna specificata.
Le prime n righe vengono utilizzate come dati di valutazione, dove n è il valore specificato per
DATA_SPLIT_EVAL_FRACTION
. Le righe rimanenti vengono utilizzate come dati di addestramento.NO_SPLIT
: nessuna suddivisione dei dati; tutti i dati di input vengono utilizzati come dati di addestramento.
Per ulteriori informazioni su queste opzioni di suddivisione dei dati, consulta
DATA_SPLIT_METHOD
.DATA_SPLIT_EVAL_FRACTION
: un valoreFLOAT64
che specifica la frazione di dati da utilizzare come dati di valutazione durante l'ottimizzazione supervisionata. Deve essere un valore compreso nell'intervallo[0, 1.0]
. Il valore predefinito è0.2
.Utilizza questa opzione quando specifichi
RANDOM
oSEQ
come valore per l'opzioneDATA_SPLIT_METHOD
. Per personalizzare la suddivisione dei dati, puoi utilizzare l'opzioneDATA_SPLIT_METHOD
con l'opzioneDATA_SPLIT_EVAL_FRACTION
.DATA_SPLIT_COL
: un valoreSTRING
che specifica il nome della colonna da utilizzare per ordinare i dati di input nel set di addestramento o di valutazione. Utilizza quando specifichiCUSTOM
oSEQ
come valore per l'opzioneDATA_SPLIT_METHOD
.EVALUATION_TASK
: un valoreSTRING
che specifica il tipo di attività per la quale vuoi ottimizzare il modello. Le opzioni valide sono:TEXT_GENERATION
CLASSIFICATION
SUMMARIZATION
QUESTION_ANSWERING
UNSPECIFIED
Il valore predefinito è
UNSPECIFIED
.INPUT_PROMPT_COL
: un valoreSTRING
che contiene il nome della colonna prompt nella tabella dei dati di addestramento da utilizzare durante l'ottimizzazione supervisionata. Il valore predefinito èprompt
.INPUT_LABEL_COLS
: un valoreARRAY<<STRING>
che contiene il nome della colonna dell'etichetta nella tabella dei dati di addestramento da utilizzare nella regolazione supervisionata. Puoi specificare un solo elemento nell'array. Il valore predefinito è un array vuoto. In questo modo,label
diventa il valore predefinito dell'argomentoLABEL_COLUMN
.PROMPT_COLUMN
: la colonna della tabella dei dati di addestramento contenente il prompt per la valutazione dei contenuti nella colonnaLABEL_COLUMN
. Questa colonna deve essere di tipoSTRING
o essere sottoposta a conversione aSTRING
. Se specifichi un valore per l'opzioneINPUT_PROMPT_COL
, devi specificare lo stesso valore perPROMPT_COLUMN
. In caso contrario, questo valore deve essereprompt
. Se la tabella non ha una colonnaprompt
, utilizza un alias per specificare una colonna di tabella esistente. Ad esempio,AS SELECT hint AS prompt, label FROM mydataset.mytable
.LABEL_COLUMN
: la colonna nella tabella dei dati di addestramento che contiene gli esempi con cui addestrare il modello. Questa colonna deve essere di tipoSTRING
o essere sottoposta a conversione aSTRING
. Se specifichi un valore per l'opzioneINPUT_LABEL_COLS
, devi specificare lo stesso valore perLABEL_COLUMN
. In caso contrario, questo valore deve esserelabel
. Se la tabella non ha una colonnalabel
, utilizza un alias per specificare una colonna di tabella esistente. Ad esempio,AS SELECT prompt, feature AS label FROM mydataset.mytable
.TABLE_PROJECT_ID
: l'ID progetto del progetto che contiene la tabella di dati di addestramento.TABLE_DATASET
: il nome del set di dati che contiene la tabella di dati di addestramento.TABLE_NAME
: il nome della tabella che contiene i dati da utilizzare per addestrare il modello.
Valutare il modello ottimizzato
Nella console Google Cloud, vai alla pagina BigQuery.
Nell'editor di query, esegui la seguente query per valutare il modello ottimizzato:
SELECT * FROM ML.EVALUATE( MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`, TABLE `TABLE_PROJECT_ID.TABLE_DATASET.TABLE_NAME`, STRUCT('TASK_TYPE' AS task_type, TOKENS AS max_output_tokens, TEMPERATURE AS temperature, TOP_K AS top_k, TOP_P AS top_p));
Sostituisci quanto segue:
PROJECT_ID
: l'ID del progetto che contiene il modello.DATASET_ID
: l'ID del set di dati che contiene il modello.MODEL_NAME
: il nome del modello.TABLE_PROJECT_ID
: l'ID progetto che contiene la tabella dei dati di valutazione.TABLE_DATASET
: il nome del set di dati che contiene la tabella dei dati di valutazione.TABLE_NAME
: il nome della tabella che contiene i dati di valutazione.La tabella deve avere una colonna il cui nome corrisponde al nome della colonna del prompt fornito durante l'addestramento del modello. Puoi fornire questo valore utilizzando l'opzione
prompt_col
durante l'addestramento del modello. Seprompt_col
non è specificato, viene utilizzata la colonnaprompt
nei dati di addestramento. Viene visualizzato un errore se non esiste una colonna denominataprompt
.La tabella deve avere una colonna il cui nome corrisponde al nome della colonna dell'etichetta fornito durante l'addestramento del modello. Puoi fornire questo valore utilizzando l'opzione
input_label_cols
durante l'addestramento del modello. Seinput_label_cols
non è specificato, viene utilizzata la colonnalabel
nei dati di addestramento. Viene restituito un errore se non esiste una colonna denominatalabel
.TASK_TYPE
: un valoreSTRING
che specifica il tipo di attività per cui vuoi valutare il modello. Le opzioni valide sono:TEXT_GENERATION
CLASSIFICATION
SUMMARIZATION
QUESTION_ANSWERING
UNSPECIFIED
TOKENS
: un valoreINT64
che imposta il numero massimo di token che possono essere generati nella risposta. Questo valore deve essere compreso nell'intervallo[1,1024]
. Specifica un valore più basso per risposte più brevi e un valore più alto per risposte più lunghe. Il valore predefinito è128
.TEMPERATURE
: un valoreFLOAT64
nell'intervallo[0.0,1.0]
che controlla il grado di casualità nella selezione dei token. Il valore predefinito è0
.I valori più bassi per
temperature
sono ideali per prompt che richiedono risposte più deterministiche e meno aperte o creative, mentre i valori più alti pertemperature
possono portare a risultati più diversificati o creativi. Un valore0
pertemperature
è deterministico, il che significa che viene sempre selezionata la risposta con la probabilità più alta.TOP_K
: un valoreINT64
nell'intervallo[1,40]
che determina il pool iniziale di token preso in considerazione dal modello per la selezione. Specifica un valore più basso per risposte meno random e un valore più alto per risposte più casuali. Il valore predefinito è40
.TOP_P
: un valoreFLOAT64
nell'intervallo[0.0,1.0]
consente di determinare quali token del pool determinato daTOP_K
vengono selezionati. Specifica un valore più basso per risposte meno casuali e un valore più alto per risposte più casuali. Il valore predefinito è0.95
.
Genera testo
Genera testo con la
funzione ML.GENERATE_TEXT
:
Colonna prompt
Genera il testo utilizzando una colonna della tabella per fornire il prompt.
SELECT * FROM ML.GENERATE_TEXT( MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`, TABLE PROJECT_ID.DATASET_ID.TABLE_NAME, STRUCT(TOKENS AS max_output_tokens, TEMPERATURE AS temperature, TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output, STOP_SEQUENCES AS stop_sequences) );
Sostituisci quanto segue:
PROJECT_ID
: il tuo ID progetto.DATASET_ID
: l'ID del set di dati che contiene il modello.MODEL_NAME
: il nome del modello.TABLE_NAME
: il nome della tabella che contiene il prompt. Questa tabella deve avere una colonna il cui nome corrisponde al nome della colonna delle funzionalità nel modello ottimizzato. Il nome della colonna della funzionalità nel modello può essere impostato utilizzando l'opzionePROMPT_COL
durante la creazione del modello. In caso contrario, il nome della colonna delle funzionalità nel modello èprompt
per impostazione predefinita oppure puoi utilizzare un alias per utilizzare una colonna con nome diverso.TOKENS
: un valoreINT64
che imposta il numero massimo di token che possono essere generati nella risposta. Questo valore deve essere compreso nell'intervallo[1,8192]
. Specifica un valore più basso per risposte più brevi e un valore più alto per risposte più lunghe. Il valore predefinito è128
.TEMPERATURE
: un valoreFLOAT64
nell'intervallo[0.0,1.0]
che controlla il grado di casualità nella selezione dei token. Il valore predefinito è1.0
.I valori più bassi per
temperature
sono ideali per prompt che richiedono risposte più deterministiche e meno aperte o creative, mentre i valori più alti pertemperature
possono portare a risultati più diversificati o creativi. Un valore0
pertemperature
è deterministico, il che significa che viene sempre selezionata la risposta con la probabilità più alta.TOP_P
: un valoreFLOAT64
nell'intervallo[0.0,1.0]
consente di determinare la probabilità dei token selezionati. Specifica un valore più basso per risposte meno casuali e un valore più alto per risposte più casuali. Il valore predefinito è0.95
.FLATTEN_JSON
: un valoreBOOL
che determina se restituire il testo generato e gli attributi di sicurezza in colonne separate. Il valore predefinito èFALSE
.STOP_SEQUENCES
: un valoreARRAY<STRING>
che rimuove le stringhe specificate se sono incluse nelle risposte del modello. Le stringhe vengono associate esattamente, incluse le lettere maiuscole. Il valore predefinito è un array vuoto.GROUND_WITH_GOOGLE_SEARCH
: un valoreBOOL
che determina se il modello Vertex AI utilizza la basamento con la Ricerca Google per generare le risposte. La fondatezza consente al modello di utilizzare informazioni aggiuntive di internet durante la generazione di una risposta, in modo da rendere le risposte del modello più specifiche e oggettive. Quando siaflatten_json_output
sia questo campo sono impostati suTrue
, nei risultati viene inclusa un'altra colonnaml_generate_text_grounding_result
che fornisce le origini utilizzate dal modello per raccogliere informazioni aggiuntive. Il valore predefinito èFALSE
.SAFETY_SETTINGS
: un valoreARRAY<STRUCT<STRING AS category, STRING AS threshold>>
che configura le soglie di sicurezza dei contenuti per filtrare le risposte. Il primo elemento della struttura specifica una categoria di danno e il secondo elemento della struttura specifica una soglia di blocco corrispondente. Il modello filtra i contenuti che violano queste impostazioni. Puoi specificare ogni categoria una sola volta. Ad esempio, non puoi specificare siaSTRUCT('HARM_CATEGORY_DANGEROUS_CONTENT' AS category, 'BLOCK_MEDIUM_AND_ABOVE' AS threshold)
cheSTRUCT('HARM_CATEGORY_DANGEROUS_CONTENT' AS category, 'BLOCK_ONLY_HIGH' AS threshold)
. Se non è presente un'impostazione di sicurezza per una determinata categoria, viene utilizzata l'impostazione di sicurezzaBLOCK_MEDIUM_AND_ABOVE
.Le categorie supportate sono le seguenti:
HARM_CATEGORY_HATE_SPEECH
HARM_CATEGORY_DANGEROUS_CONTENT
HARM_CATEGORY_HARASSMENT
HARM_CATEGORY_SEXUALLY_EXPLICIT
Le soglie supportate sono le seguenti:
BLOCK_NONE
(Accesso limitato)BLOCK_LOW_AND_ABOVE
BLOCK_MEDIUM_AND_ABOVE
(valore predefinito)BLOCK_ONLY_HIGH
HARM_BLOCK_THRESHOLD_UNSPECIFIED
Per ulteriori informazioni, consulta la definizione di categoria di sicurezza e soglia di blocco.
L'esempio seguente mostra una richiesta con le seguenti caratteristiche:
- Utilizza la colonna
prompt
della tabellaprompts
per il prompt. - Restituisce una risposta breve e moderatamente probabile.
- Restituisce il testo generato e gli attributi di sicurezza in colonne separate.
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.mymodel`, TABLE mydataset.prompts, STRUCT( 0.4 AS temperature, 100 AS max_output_tokens, 0.5 AS top_p, TRUE AS flatten_json_output));
Prompt query
Genera il testo utilizzando una query per fornire il prompt.
SELECT * FROM ML.GENERATE_TEXT( MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`, (PROMPT_QUERY), STRUCT(TOKENS AS max_output_tokens, TEMPERATURE AS temperature, TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output, STOP_SEQUENCES AS stop_sequences) );
Sostituisci quanto segue:
PROJECT_ID
: il tuo ID progetto.DATASET_ID
: l'ID del set di dati che contiene il modello.MODEL_NAME
: il nome del modello.PROMPT_QUERY
: una query che fornisce i dati del prompt.TOKENS
: un valoreINT64
che imposta il numero massimo di token che possono essere generati nella risposta. Questo valore deve essere compreso nell'intervallo[1,8192]
. Specifica un valore più basso per risposte più brevi e un valore più alto per risposte più lunghe. Il valore predefinito è128
.TEMPERATURE
: un valoreFLOAT64
nell'intervallo[0.0,1.0]
che controlla il grado di casualità nella selezione dei token. Il valore predefinito è1.0
.I valori più bassi per
temperature
sono ideali per prompt che richiedono risposte più deterministiche e meno aperte o creative, mentre i valori più alti pertemperature
possono portare a risultati più diversificati o creativi. Un valore0
pertemperature
è deterministico, il che significa che viene sempre selezionata la risposta con la probabilità più alta.TOP_P
: un valoreFLOAT64
nell'intervallo[0.0,1.0]
consente di determinare la probabilità dei token selezionati. Specifica un valore più basso per risposte meno casuali e un valore più alto per risposte più casuali. Il valore predefinito è0.95
.FLATTEN_JSON
: un valoreBOOL
che determina se restituire il testo generato e gli attributi di sicurezza in colonne separate. Il valore predefinito èFALSE
.STOP_SEQUENCES
: un valoreARRAY<STRING>
che rimuove le stringhe specificate se sono incluse nelle risposte del modello. Le stringhe vengono associate esattamente, incluse le lettere maiuscole. Il valore predefinito è un array vuoto.GROUND_WITH_GOOGLE_SEARCH
: un valoreBOOL
che determina se il modello Vertex AI utilizza la basamento con la Ricerca Google per generare le risposte. La fondatezza consente al modello di utilizzare informazioni aggiuntive di internet durante la generazione di una risposta, in modo da rendere le risposte del modello più specifiche e oggettive. Quando siaflatten_json_output
sia questo campo sono impostati suTrue
, nei risultati viene inclusa un'altra colonnaml_generate_text_grounding_result
che fornisce le origini utilizzate dal modello per raccogliere informazioni aggiuntive. Il valore predefinito èFALSE
.SAFETY_SETTINGS
: un valoreARRAY<STRUCT<STRING AS category, STRING AS threshold>>
che configura le soglie di sicurezza dei contenuti per filtrare le risposte. Il primo elemento della struttura specifica una categoria di danno e il secondo elemento della struttura specifica una soglia di blocco corrispondente. Il modello filtra i contenuti che violano queste impostazioni. Puoi specificare ogni categoria una sola volta. Ad esempio, non puoi specificare siaSTRUCT('HARM_CATEGORY_DANGEROUS_CONTENT' AS category, 'BLOCK_MEDIUM_AND_ABOVE' AS threshold)
cheSTRUCT('HARM_CATEGORY_DANGEROUS_CONTENT' AS category, 'BLOCK_ONLY_HIGH' AS threshold)
. Se non è presente un'impostazione di sicurezza per una determinata categoria, viene utilizzata l'impostazione di sicurezzaBLOCK_MEDIUM_AND_ABOVE
.Le categorie supportate sono le seguenti:
HARM_CATEGORY_HATE_SPEECH
HARM_CATEGORY_DANGEROUS_CONTENT
HARM_CATEGORY_HARASSMENT
HARM_CATEGORY_SEXUALLY_EXPLICIT
Le soglie supportate sono le seguenti:
BLOCK_NONE
(Accesso limitato)BLOCK_LOW_AND_ABOVE
BLOCK_MEDIUM_AND_ABOVE
(valore predefinito)BLOCK_ONLY_HIGH
HARM_BLOCK_THRESHOLD_UNSPECIFIED
Per ulteriori informazioni, consulta la definizione di categoria di sicurezza e soglia di blocco.
Esempio 1
L'esempio seguente mostra una richiesta con le seguenti caratteristiche:
- Richiede un riepilogo del testo nella colonna
body
della tabellaarticles
. - Restituisce una risposta moderatamente lunga e più probabile.
- Restituisce il testo generato e gli attributi di sicurezza in colonne separate.
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.mymodel`, ( SELECT CONCAT('Summarize this text', body) AS prompt FROM mydataset.articles ), STRUCT( 0.2 AS temperature, 650 AS max_output_tokens, 0.2 AS top_p, TRUE AS flatten_json_output));
Esempio 2
L'esempio seguente mostra una richiesta con le seguenti caratteristiche:
- Utilizza una query per creare i dati del prompt concatenando stringhe che forniscono prefisso del prompt con le colonne della tabella.
- Restituisce una risposta breve e moderatamente probabile.
- Non restituisce il testo generato e gli attributi di sicurezza in colonne separate.
SELECT * FROM ML.GENERATE_TEXT( MODEL `mydataset.mytuned_model`, ( SELECT CONCAT(question, 'Text:', description, 'Category') AS prompt FROM mydataset.input_table ), STRUCT( 0.4 AS temperature, 100 AS max_output_tokens, 0.5 AS top_p, FALSE AS flatten_json_output));