-
agente
- Nel contesto dell'AI generativa, un agente è un software che pianifica ed esegue autonomamente una serie di azioni per raggiungere un obiettivo, potenzialmente in situazioni nuove. Gli agenti possono essere utilizzati in varie applicazioni, come l'elaborazione del linguaggio naturale, il machine learning e la robotica. Ad esempio, un agente LLM utilizza un modello linguistico per valutare l'ambiente e scegliere un'azione che lo aiuti a raggiungere il suo obiettivo. Gli agenti LLM possono essere utilizzati per generare testo, tradurre lingue e rispondere a domande.
-
Endpoint API
- Gli endpoint API sono un aspetto della configurazione del servizio che specifica gli indirizzi di rete, noti anche come endpoint di servizio (ad esempio aiplatform.googleapis.com).
-
Credenziali predefinite dell'applicazione (ADC)
- Le credenziali predefinite dell'applicazione (ADC) forniscono un modo semplice per ottenere le credenziali di autorizzazione da utilizzare per chiamare le API di Google. Sono più adatte ai casi in cui la chiamata deve avere lo stesso livello di identità e autorizzazione per l'applicazione indipendentemente dall'utente. Questo è l'approccio consigliato per autorizzare le chiamate alle API Google Cloud, in particolare quando crei un'applicazione di cui viene eseguito il deployment nelle macchine virtuali di Google App Engine (GAE) o Compute Engine. Per ulteriori informazioni, vedi Come funzionano le credenziali predefinite dell'applicazione.
-
Approximate Nearest Neighbor (ANN)
- Il servizio Approximate Nearest Neighbor (ANN) è una soluzione a bassa latenza e su larga scala per trovare vettori simili (o più specificamente "incorporamenti") per un corpus di grandi dimensioni. Per saperne di più, consulta Come utilizzare la ricerca vettoriale per la corrispondenza semantica.
-
artifact
- Un artefatto è un'entità discreta o un insieme di dati prodotti e utilizzati da un flusso di lavoro di machine learning. Esempi di artefatti includono set di dati, modelli, file di input e log di addestramento.
-
Artifact Registry
- Artifact Registry è un servizio di gestione universale degli artefatti. È il servizio consigliato per la gestione di container e altri artefatti su Google Cloud. Per ulteriori informazioni, consulta Artifact Registry.
-
Intelligenza artificiale (AI)
- L'intelligenza artificiale (o AI) è lo studio e la progettazione di macchine che sembrano "intelligenti", ovvero che imitano funzioni umane o intellettuali come il movimento meccanico, il ragionamento o la risoluzione di problemi. Uno dei sottocampi più popolari dell'AI è il machine learning, che utilizza un approccio statistico e basato sui dati per creare l'AI. Tuttavia, alcune persone utilizzano questi due termini in modo intercambiabile.
-
Realtà aumentata (AR)
- Combinazione di contenuti digitali renderizzati con contenuti del mondo reale, tramite un display come quello di uno smartphone o come overlay del mondo visto attraverso dispositivi ottici come gli occhiali. I contenuti digitali devono essere tracciati in base al movimento della videocamera o degli occhiali (a seconda di come viene eseguito il rendering della scena) in modo che sembrino parte del mondo reale.
-
autenticazione
- Il processo di verifica dell'identità di un client (che potrebbe essere un utente o un altro processo) allo scopo di ottenere l'accesso a un sistema protetto. Un client che ha dimostrato la propria identità viene autenticato. Per ulteriori informazioni, vedi Metodi di autenticazione di Google.
-
Automatic side-by-side (AutoSxS)
- Automatic Side-by-Side (AutoSxS) è uno strumento di valutazione assistita da modello che confronta due modelli linguistici di grandi dimensioni (LLM) affiancati. Può essere utilizzato per valutare le prestazioni dei modelli di AI generativa in Vertex AI Model Registry o delle inferenze pregenerate. AutoSxS utilizza uno strumento di valutazione automatica per decidere quale modello fornisce la risposta migliore a un prompt. AutoSxS è disponibile on demand e valuta i modelli linguistici con prestazioni paragonabili a quelle dei valutatori umani.
-
Riconoscimento vocale automatico (ASR,Speech-to-Text)
- Trascrizione automatica della lingua parlata (voce) in testo.
-
AutoML
- Algoritmi di machine learning che "imparano a imparare" tramite l'ottimizzazione black box. Per ulteriori informazioni, consulta il glossario di ML.
-
autorater
- Un valutatore automatico è un modello linguistico che valuta la qualità delle risposte del modello dato un prompt di inferenza originale. Viene utilizzato nella pipeline AutoSxS per confrontare le inferenze di due modelli e determinare quale modello ha ottenuto il rendimento migliore. Per ulteriori informazioni, consulta la sezione Valutazione automatica.
-
base di riferimento
- Un modello utilizzato come punto di riferimento per confrontare il rendimento di un altro modello (in genere, uno più complesso). Ad esempio, un modello di regressione logistica potrebbe fungere da buona base di riferimento per un modello profondo. Per un problema specifico, la baseline aiuta gli sviluppatori di modelli a quantificare il rendimento minimo previsto che un nuovo modello deve raggiungere per essere utile. Per maggiori informazioni, consulta Set di dati di base e di destinazione.
-
batch
- L'insieme di esempi utilizzati in un'iterazione di addestramento. La dimensione del batch determina il numero di esempi in un batch.
-
batch size
- Il numero di esempi in un batch. Ad esempio, la dimensione del batch di SGD è 1, mentre la dimensione del batch di un mini-batch è in genere compresa tra 10 e 1000. La dimensione del batch viene solitamente corretta durante l'addestramento e l'inferenza; tuttavia, TensorFlow consente dimensioni del batch dinamiche.
-
inferenza batch
- L'inferenza batch accetta un gruppo di richieste di inferenza e restituisce i risultati in un unico file. Per ulteriori informazioni, consulta la panoramica su come ottenere inferenze su Vertex AI.
-
bias
- 1. Stereotipare, mostrare preconcetti o favoritismi verso determinate cose, persone o gruppi rispetto ad altri. Questi bias possono influire sulla raccolta e sull'interpretazione dei dati, sulla progettazione di un sistema e sul modo in cui gli utenti interagiscono con un sistema. 2. Errore sistematico introdotto da una procedura di campionamento o reporting.
-
bidrectional
- Termine utilizzato per descrivere un sistema che valuta il testo che precede e segue una sezione di testo di destinazione. Al contrario, un sistema unidirezionale valuta solo il testo che precede una sezione di testo di destinazione.
-
Bidirectional Encoder Representations from Transformers (BERT)
- BERT è un metodo di preaddestramento delle rappresentazioni linguistiche, il che significa che addestriamo un modello di "comprensione del linguaggio" di uso generico su un ampio corpus di testo (come Wikipedia) e poi lo utilizziamo per attività di NLP downstream che ci interessano (come la risposta alle domande). BERT supera i metodi precedenti perché è il primo sistema non supervisionato e bidirezionale per il pre-addestramento del NLP.
-
Bilingual Evaluation Understudy (BLEU)
- Una misura popolare per valutare la qualità di un algoritmo di traduzione automatica confrontando il suo output con quello di una o più traduzioni umane.
-
boosting
- Nell'addestramento del modello: il boosting può fare riferimento a tecniche di aumento dei dati utilizzate per aumentare le dimensioni e la diversità dei set di dati di addestramento. A questo scopo, gli esempi esistenti vengono trasformati per creare esempi aggiuntivi e vari, il che può migliorare le prestazioni del modello, soprattutto quando il set di dati originale è limitato.
-
riquadro di delimitazione
- Un riquadro di delimitazione per un oggetto nel frame video può essere specificato in due modi: (i) utilizzando due vertici costituiti da un insieme di coordinate x,y se sono punti diagonalmente opposti del rettangolo. Ad esempio: x_relative_min, y_relative_min,,,x_relative_max,y_relative_max,, (ii) Utilizza tutti e quattro i vertici. Per saperne di più, vedi Preparare i dati video.
-
bucket
- Cartella di primo livello per Cloud Storage. I nomi dei bucket devono essere univoci per tutti gli utenti di Cloud Storage. I bucket contengono file. Per maggiori informazioni, consulta la panoramica del prodotto Cloud Storage.
-
Chain-of-Thought
- Nell'AI generativa, la catena di pensiero (CoT) è una tecnica di prompting che incoraggia il modello linguistico di grandi dimensioni (LLM) a descrivere in dettaglio il suo processo di ragionamento prima di arrivare a una conclusione. Ciò comporta la richiesta al modello di mostrare i passaggi intermedi che esegue per risolvere un problema, anziché fornire solo la risposta finale. Questo metodo può migliorare significativamente le prestazioni dell'LLM in attività di ragionamento complesse.
-
chat
- I contenuti di un dialogo bot e utente con un sistema ML, in genere un modello linguistico di grandi dimensioni. L'interazione precedente in una chat (ciò che hai digitato e la risposta del modello linguistico di grandi dimensioni) diventa il contesto per le parti successive della chat. Un chatbot è un'applicazione di un modello linguistico di grandi dimensioni (LLM).
-
checkpoint
- Dati che acquisiscono lo stato dei parametri di un modello durante l'addestramento o al termine dell'addestramento. Ad esempio, durante l'addestramento, puoi: 1. Interrompere l'addestramento, intenzionalmente o a causa di determinati errori. 2. Acquisisci il checkpoint. 3. In un secondo momento, ricarica il checkpoint, possibilmente su un hardware diverso. 4. Riavvia l'addestramento. In Gemini, un checkpoint si riferisce a una versione specifica di un modello Gemini addestrato su un set di dati specifico.
-
modello di classificazione
- Un modello la cui inferenza è una classe. Ad esempio, i seguenti sono tutti modelli di classificazione: un modello che prevede la lingua di una frase di input (francese? Spagnolo? ?). Un modello che prevede le specie di alberi (acero? Quercia? Baobab?). Un modello che prevede la classe positiva o negativa per una particolare condizione medica.
-
metriche di classificazione
- Le metriche di classificazione supportate nell'SDK Vertex AI per Python sono la matrice di confusione e la curva ROC.
-
Cloud TPU
- Un acceleratore hardware specializzato progettato per velocizzare i carichi di lavoro di machine learning su Google Cloud.
-
clustering
- Nel contesto dell'AI generativa, il clustering è una tecnica di machine learning non supervisionata utilizzata per raggruppare punti dati simili in base alle loro caratteristiche. Ciò si ottiene definendo una misura (o metrica) di similarità per confrontare i punti dati e raggruppando quelli con un'elevata similarità nello stesso cluster. Nelle applicazioni di AI generativa, ciò potrebbe comportare il clustering degli incorporamenti (rappresentazioni numeriche di testo, immagini o altri dati) per eseguire attività come ricerca, classificazione o rilevamento di outlier. Ad esempio, la segmentazione dei clienti può essere ottenuta raggruppando i dati dei clienti per identificare gruppi con comportamenti o caratteristiche simili. Per saperne di più, vedi Che cos'è il clustering?.
-
immagine container
- Un'immagine container è un pacchetto che include il codice eseguibile del componente e una definizione dell'ambiente in cui viene eseguito il codice. Per ulteriori informazioni, vedi Panoramica dell'addestramento personalizzato.
-
context
- Un contesto viene utilizzato per raggruppare artefatti ed esecuzioni in una singola categoria interrogabile e digitata. I contesti possono essere utilizzati per rappresentare insiemi di metadati. Un esempio di contesto è l'esecuzione di una pipeline di machine learning.
-
cache contestuale
- Una cache del contesto in Vertex AI è una grande quantità di dati che può essere utilizzata in più richieste a un modello Gemini. I contenuti memorizzati nella cache vengono archiviati nella regione in cui viene effettuata la richiesta di creazione della cache. Può essere qualsiasi tipo MIME supportato dai modelli multimodali Gemini, ad esempio testo, audio o video. Per ulteriori informazioni, vedi Panoramica della memorizzazione nella cache del contesto.
-
finestra contestuale
- Il numero di token che un modello può elaborare in un determinato prompt. Più ampia è la finestra contestuale, più informazioni il modello può utilizzare per fornire risposte coerenti e uniformi al prompt.
-
Chiavi di crittografia gestite dal cliente (CMEK)
- Le chiavi di crittografia gestite dal cliente (CMEK) sono integrazioni che consentono ai clienti di criptare i dati nei servizi Google esistenti utilizzando una chiave gestita in Cloud KMS (nota anche come Storky). La chiave in Cloud KMS è la chiave di crittografia della chiave che protegge i dati. Per saperne di più, consulta Chiavi di crittografia gestite dal cliente (CMEK).
-
analisi dei dati
- Ottenere una comprensione dei dati considerando campioni, misurazioni e visualizzazioni. L'analisi dei dati può essere particolarmente utile quando viene ricevuto un set di dati per la prima volta, prima di creare il primo modello. È fondamentale anche per comprendere gli esperimenti e risolvere i problemi del sistema.
-
aumento dei dati
- Aumentare artificialmente l'intervallo e il numero di esempi di addestramento trasformando gli esempi esistenti per crearne di aggiuntivi. Ad esempio, supponiamo che le immagini siano una delle tue funzionalità, ma il tuo set di dati non contenga esempi di immagini sufficienti per consentire al modello di apprendere associazioni utili. Idealmente, dovresti aggiungere al set di dati un numero sufficiente di immagini etichettate per consentire al modello di addestrarsi correttamente. Se non è possibile, l'aumento dei dati può ruotare, allungare e riflettere ogni immagine per produrre molte varianti dell'immagine originale, generando possibilmente dati etichettati sufficienti per consentire un addestramento eccellente.
-
DataFrame
- Un tipo di dati pandas popolare per rappresentare i set di dati in memoria. Un DataFrame è analogo a una tabella o a un foglio di lavoro. Ogni colonna di un DataFrame ha un nome (un'intestazione) e ogni riga è identificata da un numero univoco. Ogni colonna di un DataFrame è strutturata come un array bidimensionale, tranne per il fatto che a ogni colonna può essere assegnato un proprio tipo di dati.
-
indicizzazione dei dati
- Nel contesto dell'AI generativa, l'indicizzazione dei dati è il processo di strutturazione e organizzazione di una knowledge base per ottimizzare la ricerca e il recupero. Ciò comporta la creazione di un indice, spesso chiamato corpus, che consente di eseguire ricerche efficienti nei dati. Il processo è separato dalla creazione del corpus e i dati indicizzati possono essere utilizzati per arricchire il contesto dei modelli linguistici di grandi dimensioni (LLM), riducendo le allucinazioni e migliorando l'accuratezza delle risposte. Ad esempio, nel contesto di un sito web, l'indicizzazione dei dati potrebbe comportare l'aggiunta di metadati come datePublished e dateModified per migliorare la funzionalità di ricerca. Esistono diversi metodi per indicizzare i dati, tra cui l'utilizzo della ricerca vettoriale per la ricerca di similarità in applicazioni come il recupero di informazioni pertinenti per gli LLM al momento della query. Per saperne di più, consulta la panoramica di RAG Engine .
-
importazione dati
- L'importazione dei dati è il processo di estrazione dei dati da varie origini e della loro integrazione in una posizione centrale per l'ulteriore elaborazione e analisi. Nel contesto dell'AI generativa, l'importazione dati prevede l'estrazione di informazioni da diverse origini dati, come moduli clinici, cartelle cliniche o testo non strutturato, per addestrare e perfezionare i modelli di AI generativa. I dati importati vengono in genere elaborati e trasformati per garantirne la qualità e la coerenza prima di essere utilizzati per addestrare i modelli di AI generativa. Questo processo può comportare tecniche di pulizia, feature engineering e aumento dei dati per migliorare le prestazioni e le capacità di generalizzazione del modello. Per ulteriori informazioni, consulta Utilizzare l'AI generativa per la gestione dell'utilizzo.
-
parallelismo dei dati
- Un modo per scalare l'addestramento o l'inferenza che replica un intero modello su più dispositivi e poi passa un sottoinsieme dei dati di input a ciascun dispositivo. Il parallelismo dei dati può consentire l'addestramento e l'inferenza su dimensioni dei batch molto grandi; tuttavia, richiede che il modello sia abbastanza piccolo da poter essere inserito su tutti i dispositivi. Il parallelismo dei dati in genere accelera l'addestramento e l'inferenza.
-
set di dati
- Un set di dati è definito in generale come una raccolta di record di dati strutturati o non strutturati. Una raccolta di dati non elaborati, comunemente (ma non esclusivamente) organizzati in uno dei seguenti formati: un foglio di lavoro, un file in formato CSV (valori separati da virgole). Per saperne di più, vedi Creare un set di dati.
-
data transformation
- Nel contesto della Retrieval Augmented Generation (RAG), la trasformazione dei dati si riferisce alla conversione dei dati in un formato adatto all'indicizzazione e all'elaborazione da parte di un LLM. Spesso, questo comporta la suddivisione dei dati in blocchi più piccoli per renderli gestibili per l'incorporamento e l'indicizzazione. Altre trasformazioni potrebbero includere passaggi di pulizia e convalida per garantire la qualità dei dati. Per saperne di più, consulta la panoramica di RAG Engine.
-
decoder
- In generale, qualsiasi sistema ML che esegue la conversione da una rappresentazione elaborata, densa o interna a una rappresentazione più grezza, sparsa o esterna. I decoder sono spesso un componente di un modello più grande, in cui vengono spesso accoppiati a un encoder. Nelle attività di sequenza-sequenza, un decoder inizia con lo stato interno generato dall'encoder per prevedere la sequenza successiva.
-
rete neurale profonda (DNN)
- Una rete neurale con più strati nascosti, in genere programmata tramite tecniche di deep learning.
-
depth
- La somma di quanto segue in una rete neurale: 1. il numero di strati nascosti 2. il numero di strati di output, che in genere è uno 3. il numero di eventuali strati di embedding. Ad esempio, una rete neurale con cinque strati nascosti e uno strato di output ha una profondità di 6. Tieni presente che il livello di input non influisce sulla profondità.
-
DevOps
- DevOps è una suite di prodotti Google Cloud Platform, ad esempio Artifact Registry e Cloud Deploy.
-
interruzione anticipata
- Un metodo di regolarizzazione che prevede l'interruzione dell'addestramento prima che la perdita di addestramento termini di diminuire. Nell'interruzione anticipata, l'addestramento del modello viene interrotto intenzionalmente quando la perdita su un set di dati di convalida inizia ad aumentare, ovvero quando le prestazioni di generalizzazione peggiorano.
-
incorporamento
- Rappresentazioni numeriche di parole o parti di testo. Questi numeri acquisiscono il significato semantico e il contesto del testo. Parole o testi simili o correlati tendono ad avere incorporamenti simili, il che significa che sono più vicini nello spazio vettoriale ad alta dimensione.
-
spazio di embedding (spazio latente)
- Nell'AI generativa, lo spazio di incorporamento si riferisce a una rappresentazione numerica di testo, immagini o video che acquisisce le relazioni tra gli input. I modelli di machine learning, in particolare quelli di AI generativa, sono esperti nella creazione di questi incorporamenti identificando pattern all'interno di grandi set di dati. Le applicazioni possono utilizzare gli incorporamenti per elaborare e generare il linguaggio, riconoscendo significati complessi e relazioni semantiche specifiche dei contenuti.
-
vettore di embedding
- Una rappresentazione vettoriale densa, spesso a bassa dimensionalità, di un elemento in modo che, se due elementi sono semanticamente simili, i rispettivi incorporamenti si trovino vicini tra loro nello spazio vettoriale di incorporamento.
-
encoder
- In generale, qualsiasi sistema ML che converte una rappresentazione non elaborata, sparsa o esterna in una rappresentazione più elaborata, densa o interna. Gli encoder sono spesso un componente di un modello più grande, in cui vengono spesso accoppiati a un decoder. Alcuni transformer accoppiano encoder e decoder, mentre altri utilizzano solo l'encoder o solo il decoder. Alcuni sistemi utilizzano l'output dell'encoder come input per una rete di classificazione o regressione. Nelle attività di sequenza-sequenza, un encoder prende una sequenza di input e restituisce uno stato interno (un vettore). Il decodificatore utilizza quindi questo stato interno per prevedere la sequenza successiva.
-
ensemble
- Una raccolta di modelli addestrati in modo indipendente le cui inferenze vengono calcolate in media o aggregate. In molti casi, un ensemble produce inferenze migliori rispetto a un singolo modello. Ad esempio, una foresta casuale è un insieme costruito da più alberi decisionali. Tieni presente che non tutte le foreste decisionali sono insiemi.
-
environment
- Nell'apprendimento per rinforzo, il mondo che contiene l'agente e gli consente di osservarne lo stato. Ad esempio, il mondo rappresentato può essere un gioco come gli scacchi o un mondo fisico come un labirinto. Quando l'agente applica un'azione all'ambiente, l'ambiente passa da uno stato all'altro.
-
evaluation (eval)
- Un'eval, abbreviazione di "valutazione", è un tipo di esperimento in cui le query registrate o sintetiche vengono inviate tramite due stack di ricerca: uno stack sperimentale che include la modifica e uno stack di base senza la modifica. Le valutazioni producono differenze e metriche che ti consentono di valutare l'impatto, la qualità e altri effetti della modifica sui risultati di ricerca e su altre parti dell'esperienza utente di Google. Le valutazioni vengono utilizzate durante l'ottimizzazione o le iterazioni della modifica. Vengono utilizzati anche per lanciare una modifica al traffico degli utenti attivi.
-
esecuzione
- Un'esecuzione è un record di un singolo passaggio del flusso di lavoro di machine learning, in genere annotato con i relativi parametri di runtime. Esempi di esecuzioni includono l'importazione dati, la convalida dei dati, l'addestramento del modello, la valutazione del modello e il deployment del modello.
-
Punteggio F1
- Il punteggio F1 è una metrica utilizzata per valutare l'accuratezza dell'output di un modello. È particolarmente utile per valutare le prestazioni dei modelli in attività in cui sono importanti sia la precisione che il richiamo, come l'estrazione di informazioni. Per i modelli di AI generativa, il punteggio F1 può essere utilizzato per confrontare le inferenze del modello con i dati empirici reali per determinare l'accuratezza del modello. Tuttavia, per attività generative come il riepilogo e la generazione di testo, potrebbero essere più appropriate altre metriche come il punteggio Rough-L.
-
funzionalità
- Nel machine learning (ML), una funzionalità è una caratteristica o un attributo di un'istanza o di un'entità che viene utilizzato come input per addestrare un modello di ML o per fare inferenze.
-
estrazione delle caratteristiche
- Nel contesto dell'AI generativa, l'estrazione delle caratteristiche si riferisce al processo di identificazione e selezione delle caratteristiche pertinenti dai dati di input da utilizzare nell'addestramento del modello. Queste caratteristiche vengono poi utilizzate per generare nuovi dati simili all'input originale. Ad esempio, nella generazione di immagini, l'estrazione delle caratteristiche potrebbe comportare l'identificazione di bordi, trame e colori. Nell'elaborazione del linguaggio naturale, potrebbe comportare l'estrazione di parole chiave, frasi e strutture grammaticali. Le funzionalità estratte vengono poi utilizzate dal modello generativo per creare nuovi contenuti.
-
esportazione delle caratteristiche
- La distribuzione delle caratteristiche è il processo di esportazione o recupero dei valori delle caratteristiche per l'addestramento o l'inferenza. In Vertex AI esistono due tipi di distribuzione delle funzionalità: online e offline. La pubblicazione online recupera i valori delle caratteristiche più recenti di un sottoinsieme dell'origine dei dati delle caratteristiche per le inferenze online. L'erogazione offline o in batch esporta grandi volumi di dati delle funzionalità, inclusi i dati storici, per l'elaborazione offline, ad esempio l'addestramento del modello ML.
-
visualizzazione delle funzionalità
- Una visualizzazione delle caratteristiche è una raccolta logica di caratteristiche materializzate da un'origine dati BigQuery a un'istanza di negozio online. Una vista delle funzionalità archivia e aggiorna periodicamente i dati delle funzionalità del cliente, che vengono aggiornati periodicamente dall'origine BigQuery. Una visualizzazione delle caratteristiche è associata all'archiviazione dei dati delle caratteristiche direttamente o tramite associazioni alle risorse del registro delle caratteristiche.
-
prompt few-shot (few-shot)
- Nell'AI generativa, "few-shot" si riferisce a un tipo di prompt che include un piccolo numero di esempi per guidare la risposta del modello. Questi esempi aiutano il modello a comprendere il formato di output, la formulazione, l'ambito o il modello generale della risposta desiderati. I prompt few-shot vengono spesso utilizzati per regolare l'output dei modelli linguistici, garantendo che generino risposte accurate, di alta qualità e coerenti con le aspettative dell'utente. Fornendo al modello alcuni esempi pertinenti, l'utente può influenzarne il comportamento e ottenere risultati più soddisfacenti. Per saperne di più, consulta Includere esempi few-shot.
-
modello di base (FM)
- Modelli addestrati su dati ampi in modo da poter essere adattati (ad esempio, perfezionati) a un'ampia gamma di attività a valle.
-
Operazioni del modello di base (FMOPs)
- FMOps amplia le funzionalità di MLOps e si concentra sulla produzione efficiente di modelli di base preaddestrati (addestrati da zero) o personalizzati (ottimizzati).
-
Gemini
- Gemini è un insieme di modelli multimodali basati su sequenze di grandi dimensioni di Google. Ciò significa che possono accettare input e produrre output in più di un mezzo contemporaneamente, inclusi testo, audio e contenuti visivi. Sono progettati per integrarsi con agenti in grado di svolgere varie attività. Per ulteriori informazioni, vedi Modelli Google.
-
generalizzazione
- La capacità di un modello di fare inferenze corrette su dati nuovi e mai visti prima. Un modello in grado di generalizzare è l'opposto di un modello in overfitting.
-
generazione
- Nel contesto dell'AI generativa, il termine "generazione" si riferisce al processo di creazione di nuovi dati o contenuti a partire da dati o informazioni esistenti. I modelli di AI generativa vengono addestrati su grandi set di dati e possono apprendere pattern e relazioni all'interno dei dati. Possono quindi utilizzare queste conoscenze per generare contenuti nuovi e unici simili ai dati di addestramento, ma non una replica esatta. Per ulteriori informazioni, consulta la sezione Quando utilizzare l'AI generativa o l'AI tradizionale.
-
modello generativo
- Un tipo di modello di machine learning che può creare nuovi output in base ai dati di addestramento. Nella sua forma più semplice, il modello genera nuovi dati simili a un determinato insieme di categorie su cui è stato addestrato. Solitamente associati a modelli linguistici di grandi dimensioni, ma anche altri tipi di modelli possono essere generativi.
-
Google Embedded Modem System (GEMS)
- GEMS è un framework software incorporato destinato ai modem e un insieme di flussi di lavoro di sviluppo e infrastruttura di accompagnamento. L'obiettivo principale di GEMS è fornire codice di sistema modem di alta qualità con elevata riutilizzabilità su molti dispositivi Google che contengono modem. Per realizzare questa visione generale, GEMS fornisce un ambiente completo per gli sviluppatori, composto dai principali elementi costitutivi illustrati di seguito.
-
gradiente
- Il vettore delle derivate parziali rispetto a tutte le variabili indipendenti. Nel machine learning, il gradiente è il vettore delle derivate parziali della funzione del modello. La pendenza è orientata nella direzione della salita più ripida.
-
grafico
- Nel contesto dell'AI generativa, un grafico si riferisce a una rappresentazione strutturata di informazioni che organizza e collega i dati come una rete di nodi e archi. Questi grafici vengono spesso utilizzati per rappresentare la conoscenza e le relazioni tra le entità, il che li rende particolarmente utili per i sistemi di AI generativa che richiedono una profonda comprensione del contesto e delle relazioni all'interno dei dati. I sistemi di AI generativa che sfruttano i Knowledge Graph possono utilizzarli per migliorare le prestazioni dei modelli di recupero. Incorporando i grafici della conoscenza nel sistema, l'AI generativa può accedere a dati ricchi di contesto e attraversare il grafico per recuperare i sottografi pertinenti in base alle query degli utenti. In questo modo, il sistema può fornire risposte più accurate e informative generando contenuti contestualmente pertinenti.
-
dati di riferimento (GT)
- La verità di base è un termine utilizzato in vari campi per indicare la verità assoluta di un problema di decisione o misurazione, in contrapposizione alla stima di un sistema. Nel machine learning, il termine "verità di base" si riferisce al set di addestramento per le tecniche di apprendimento supervisionato.
-
allucinazione
- Un'allucinazione nell'AI generativa è una risposta sicura di un'AI che non può essere basata sui suoi dati di addestramento. Potrebbe contenere informazioni non vere. Nel contesto della generazione di testo, si tratta di falsità casuali plausibili all'interno dei contenuti di testo generati.
-
euristica
- Una soluzione semplice e rapida da implementare a un problema. Ad esempio, "Con un'euristica, abbiamo raggiunto un'accuratezza dell'86%. Quando siamo passati a una rete neurale profonda, l'accuratezza è salita al 98%".
-
livello nascosto
- Uno strato di una rete neurale tra lo strato di input (le funzionalità) e lo strato di output (l'inferenza). Ogni strato nascosto è costituito da uno o più neuroni. Una rete neurale profonda contiene più di uno strato nascosto.
-
Istogramma
- Una visualizzazione grafica della variazione di un insieme di dati mediante barre. Un istogramma visualizza pattern difficili da rilevare in una semplice tabella di numeri.
-
iperparametro
- Un iperparametro è una variabile che regola il processo di addestramento di un modello di machine learning. Queste variabili possono includere tassi di apprendimento, valori momentum nell'ottimizzatore e il numero di unità nell'ultimo strato nascosto di un modello. Per ulteriori informazioni, consulta la panoramica dell'ottimizzazione degli iperparametri.
-
ottimizzazione degli iperparametri
- L'ottimizzazione degli iperparametri in Vertex AI prevede l'esecuzione di più prove di un'applicazione di addestramento con valori diversi per gli iperparametri scelti, impostati entro limiti specificati. L'obiettivo è ottimizzare le impostazioni degli iperparametri per massimizzare l'accuratezza predittiva del modello. Per ulteriori informazioni, consulta la panoramica dell'ottimizzazione degli iperparametri.
-
Autorizzazioni Identity and Access Management (IAM)
- Le autorizzazioni Identity and Access Management (IAM) sono funzionalità granulari specifiche che definiscono chi può fare cosa su quali risorse Google Cloud. Vengono assegnate alle entità (come utenti, gruppi o service account) tramite i ruoli, consentendo un controllo preciso dell'accesso ai servizi e ai dati all'interno di un progetto o di un'organizzazione Google Cloud. Per saperne di più, consulta Controllo dell'accesso con IAM.
-
Imagen
- Imagen è un servizio di AI generativa da testo a immagine disponibile tramite la piattaforma Vertex AI. Consente agli utenti di generare nuove immagini, modificarle, perfezionare i modelli di stile o soggetto, aggiungere didascalie alle immagini o ottenere risposte a domande sui contenuti delle immagini. Per ulteriori informazioni, consulta la panoramica di Imagen su Vertex AI.
-
riconoscimento delle immagini
- Il riconoscimento delle immagini è il processo di classificazione di oggetti, pattern o concetti in un'immagine. È noto anche come classificazione delle immagini. Il riconoscimento delle immagini è una branca secondaria del machine learning e della visione artificiale.
-
index
- Una raccolta di vettori di cui è stato eseguito il deployment insieme per la ricerca di similarità. I vettori possono essere aggiunti o rimossi da un indice. Le query di ricerca per similarità vengono inviate a un indice specifico e cercano i vettori in quell'indice.
-
inferenza
- Nel contesto della piattaforma Vertex AI, l'inferenza si riferisce al processo di esecuzione di punti dati in un modello di machine learning per calcolare un output, ad esempio un singolo punteggio numerico. Questo processo è noto anche come "operazionalizzazione di un modello di machine learning" o "inserimento di un modello di machine learning in produzione". L'inferenza è un passaggio importante nel flusso di lavoro di machine learning, in quanto consente di utilizzare i modelli per fare inferenze su nuovi dati. In Vertex AI, l'inferenza può essere eseguita in vari modi, tra cui l'inferenza batch e l'inferenza online. L'inferenza batch prevede l'esecuzione di un gruppo di richieste di inferenza e la restituzione dei risultati in un unico file, mentre l'inferenza online consente inferenze in tempo reale su singoli punti dati.
-
information retrieval (IR)
- Il recupero delle informazioni (IR) è un componente chiave di Vertex AI Search. È il processo di ricerca e recupero di informazioni pertinenti da una vasta raccolta di dati. Nel contesto di Vertex AI, il recupero delle informazioni viene utilizzato per recuperare documenti da un corpus in base alla query di un utente. Vertex AI offre una suite di API per aiutarti a creare le tue applicazioni di Retrieval Augmented Generation (RAG) o il tuo motore di ricerca. Per ulteriori informazioni, consulta Utilizzare Vertex AI Search come backend di recupero utilizzando il motore RAG.
-
Infrastructure as Code (IaC)
- Infrastructure as Code (IaC). Un approccio per gestire l'infrastruttura IT in cui i team possono gestire ed eseguire il provisioning dei servizi tramite codice. Con IaC, vengono creati file di configurazione che contengono le specifiche dell'infrastruttura, il che semplifica la creazione e la modifica dell'infrastruttura su larga scala.
-
Tasso di apprendimento (dimensione del passo)
- Il tasso di apprendimento è un iperparametro utilizzato per regolare il processo di ottimizzazione di un modello di machine learning. Determina la dimensione del passo in base alla quale il modello aggiorna i suoi pesi durante l'addestramento. Un tasso di apprendimento più elevato può portare a una convergenza più rapida, ma può causare instabilità o overfitting. Al contrario, un tasso di apprendimento inferiore può portare a una convergenza più lenta, ma può contribuire a prevenire l'overfitting, senza fonti. Per ulteriori informazioni, consulta la panoramica dell'ottimizzazione degli iperparametri.
-
loss (cost)
- Durante l'addestramento di un modello supervisionato, una misura della distanza tra l'inferenza di un modello e la sua etichetta. Una funzione di perdita calcola la perdita.
-
set di dati gestito
- Un oggetto set di dati creato e ospitato da Vertex AI.
-
model
- Qualsiasi modello preaddestrato o meno. In generale, qualsiasi costrutto matematico che elabora i dati di input e restituisce l'output. In altre parole, un modello è l'insieme di parametri e della struttura necessari a un sistema per fare inferenze.
-
distillazione del modello (distillazione della conoscenza, modelli insegnante-studente)
- La distillazione del modello è una tecnica che consente a un modello studente più piccolo di apprendere da un modello insegnante più grande. Il modello studente viene addestrato per imitare l'output del modello insegnante e può quindi essere utilizzato per generare nuovi dati o fare inferenze. La distillazione del modello viene spesso utilizzata per rendere i modelli di grandi dimensioni più efficienti o per renderli più accessibili ai dispositivi con risorse limitate. Può anche essere utilizzato per migliorare la generalizzazione dei modelli riducendo l'overfitting.
-
Monitoraggio del modello
- Vertex AI Model Monitoring è un servizio che valuta continuamente le prestazioni dei modelli di cui è stato eseguito il deployment rilevando la distorsione delle funzionalità e la deviazione nelle richieste di previsione, contribuendo a mantenere la qualità del modello nel tempo. Per ulteriori informazioni, consulta Introduzione a Vertex AI Model Monitoring.
-
model resource name
- Il nome della risorsa per un
model
è il seguente:projects/<PROJECT_ID>/locations/<LOCATION_ID>/models/<MODEL_ID>
. Puoi trovare l'ID del modello nella console Cloud nella pagina Model Registry.
- Il nome della risorsa per un
-
Network File System (NFS)
- Un sistema client/server che consente agli utenti di accedere ai file su una rete e di trattarli come se si trovassero in una directory di file locale. Per ulteriori informazioni, vedi Montare una condivisione NFS per l'addestramento personalizzato.
-
codifica one-hot
- La codifica one-hot rappresenta ogni categoria come un vettore di N elementi (dove N è il numero di categorie) con esattamente un elemento con un valore di 1,0 e tutti gli elementi rimanenti con un valore di 0,0. Per ulteriori informazioni, consulta la sezione Codifica one-hot.
-
prompt one-shot
- Un prompt che contiene un esempio che mostra come deve rispondere il modello linguistico di grandi dimensioni. Per ulteriori informazioni, consulta Prompt one-shot.
-
parameter
- I parametri sono valori di input con chiave che configurano un'esecuzione, ne regolano il comportamento e influiscono sui risultati. Alcuni esempi sono il tasso di apprendimento, il tasso di dropout e il numero di passaggi di addestramento.
-
Perplessità
- La perplessità è una metrica utilizzata per valutare le prestazioni dei modelli linguistici. Misura la probabilità che il modello generi una determinata sequenza di testo in base alla distribuzione del testo su cui è stato addestrato. La perplessità è una metrica comunemente utilizzata per valutare i modelli linguistici e viene spesso utilizzata per confrontare le prestazioni di diversi modelli o per monitorare i progressi di un modello durante l'addestramento.
-
pipeline
- Le pipeline ML sono flussi di lavoro ML portatili e scalabili basati su container. Per ulteriori informazioni, consulta Introduzione a Vertex AI Pipelines.
-
job di pipeline
- Un job pipeline o un'esecuzione della pipeline corrisponde alla risorsa PipelineJob nell'API Vertex AI. È un'istanza di esecuzione della definizione della pipeline ML, definita come un insieme di attività ML interconnesse da dipendenze di input-output.
-
esecuzione della pipeline
- A un esperimento possono essere associati uno o più Vertex PipelineJob, dove ogni PipelineJob è rappresentato come una singola esecuzione. In questo contesto, i parametri dell'esecuzione vengono dedotti dai parametri di PipelineJob. Le metriche vengono dedotte dagli artefatti system.Metric prodotti da PipelineJob. Gli artefatti dell'esecuzione vengono dedotti dagli artefatti prodotti da PipelineJob.
-
accesso privato ai servizi
- L'accesso privato ai servizi è una connessione privata tra la tua rete Virtual Private Cloud (VPC) e le reti di proprietà di Google o di fornitori di servizi di terze parti. Consente alle istanze di macchine virtuali (VM) nella tua rete VPC di comunicare con questi servizi utilizzando indirizzi IP interni, evitando l'esposizione a internet pubblico. Per saperne di più, consulta Accesso privato ai servizi.
-
prompt
- Un prompt è una richiesta in linguaggio naturale presentata a un modello linguistico per ricevere una risposta. I prompt possono contenere domande, istruzioni, informazioni contestuali, esempi few-shot e input parziali da completare o proseguire. Dopo aver ricevuto un prompt, a seconda del tipo di modello utilizzato, può generare testo, incorporamenti, codice, immagini, video, musica e altro ancora. Per maggiori informazioni, consulta la panoramica delle strategie di prompt.
-
Ingegneria dei prompt (progettazione dei prompt)
- Il prompt engineering nell'AI generativa è il processo di creazione di prompt efficaci per ottenere gli output desiderati dai modelli linguistici di grandi dimensioni (LLM). Si tratta di un processo iterativo basato sui test incentrato sul perfezionamento degli input per ottenere risultati specifici. Ciò comporta la valutazione sia del contenuto che della struttura del prompt per garantire risposte accurate e di alta qualità. Un'ingegneria dei prompt efficace è fondamentale per le attività complesse, anche se quelle più semplici potrebbero non richiederla. L'obiettivo è prototipare rapidamente le applicazioni basate su LLM. Per saperne di più, consulta Introduzione all'ingegneria dei prompt.
-
ottimizzazione dei prompt
- L'ottimizzazione dei prompt è un metodo di perfezionamento efficiente dei parametri utilizzato per migliorare le prestazioni di un modello di AI generativa su un'attività specifica. Consiste nell'apprendimento di un "prefisso" che viene anteposto al prompt effettivo, a volte a ogni livello. Questo approccio è considerato più economico e veloce rispetto ad altri metodi di ottimizzazione e spesso produce buoni risultati. L'ottimizzazione dei prompt è particolarmente efficace quando hai un'attività specifica e vuoi che il modello la esegua in un determinato modo. A volte viene anche chiamato apprendimento del prompt o ottimizzazione efficiente dei parametri. Per saperne di più, consulta Introduzione all'ingegneria dei prompt.
-
Throughput riservato (PT)
- Il throughput sottoposto a provisioning (PT) è un servizio premium per i modelli di AI generativa di Vertex AI che offre un'esperienza garantita grazie alla garanzia di capacità e ai prezzi prevedibili. A differenza dell'opzione pay as you go (on demand), PT consente ai clienti di acquistare una quota dedicata, garantendo che le loro richieste non competano con altre per la capacità del modello. PT è un abbonamento mensile o settimanale a costo fisso che riserva il throughput per modelli e località specifici. Per saperne di più, consulta la panoramica del throughput di cui è stato eseguito il provisioning.
-
quantizzazione
- La quantizzazione è una tecnica di ottimizzazione del modello utilizzata per ridurre la precisione dei numeri utilizzati per rappresentare i parametri di un modello. Ciò può portare a modelli più piccoli, a un minore consumo energetico e a una latenza di inferenza ridotta.
-
Random Forest
- Random Forest è un algoritmo di machine learning utilizzato sia per la classificazione che per la regressione. Non è direttamente un modello di AI generativa, ma è un componente che può essere utilizzato all'interno di un sistema di AI generativa più grande. Una foresta casuale è costituita da più alberi decisionali e la sua inferenza è un'aggregazione delle inferenze di questi singoli alberi. Ad esempio, in un'attività di classificazione, ogni albero "vota" per una classe e l'inferenza finale è la classe con il maggior numero di voti. Per ulteriori informazioni, consulta Decision Forest.
-
Cluster Ray su Vertex AI
- Un cluster Ray su Vertex AI è un cluster gestito di nodi di calcolo che può essere utilizzato per eseguire applicazioni di machine learning (ML) e Python distribuite. Fornisce l'infrastruttura per eseguire il computing distribuito e l'elaborazione parallela per il tuo flusso di lavoro ML. I cluster Ray sono integrati in Vertex AI per garantire la disponibilità di capacità per i carichi di lavoro ML critici o durante i periodi di picco. A differenza dei job personalizzati, in cui il servizio di addestramento rilascia la risorsa al termine del job, i cluster Ray rimangono disponibili fino all'eliminazione. Per saperne di più, consulta la panoramica di Ray su Vertex AI.
-
Ray su Vertex AI (RoV)
- Ray su Vertex AI è progettato in modo da poter utilizzare lo stesso codice Ray open source per scrivere programmi e sviluppare applicazioni su Vertex AI con modifiche minime. Per saperne di più, consulta la panoramica di Ray su Vertex AI.
-
SDK Ray su Vertex AI per Python
- L'SDK Ray on Vertex AI per Python è una versione dell'SDK Vertex AI per Python che include la funzionalità di Ray Client, del connettore Ray BigQuery, della gestione del cluster Ray su Vertex AI e delle inferenze su Vertex AI. Per ulteriori informazioni, consulta Introduzione all'SDK Vertex AI per Python.
-
richiamo
- La percentuale di vicini più prossimi effettivi restituiti dall'indice. Ad esempio, se una query sui vicini più prossimi per 20 vicini più prossimi ha restituito 19 dei vicini più prossimi "ground truth", il richiamo è 19/20 x 100 = 95%.
-
sistema di raccomandazione
- Un sistema di suggerimenti è un sistema basato sul machine learning che aiuta gli utenti a trovare contenuti interessanti in un ampio corpus. Genera un sottoinsieme più piccolo di candidati da un corpus potenzialmente enorme, assegna un punteggio e classifica i candidati e riordina la classifica finale per tenere conto di ulteriori vincoli. Per saperne di più, consulta la Panoramica dei sistemi di raccomandazione.
-
regolarizzazione
- La regolarizzazione è una tecnica utilizzata per evitare l'overfitting nei modelli di machine learning. L'overfitting si verifica quando un modello apprende troppo bene i dati di addestramento, con conseguente scarso rendimento sui dati non rilevati. Un tipo specifico di regolarizzazione menzionato è l'interruzione anticipata, in cui l'addestramento viene interrotto prima che la perdita su un set di dati di convalida inizi ad aumentare, indicando un calo delle prestazioni di generalizzazione. Per ulteriori informazioni, vedi Overfitting: regolarizzazione L2.
-
service account
- I service account sono account Google Cloud speciali utilizzati da applicazioni o macchine virtuali per effettuare chiamate API autorizzate ai servizi Google Cloud. A differenza degli account utente, non sono collegati a una persona fisica, ma fungono da identità per il tuo codice, consentendo l'accesso sicuro e programmatico alle risorse senza richiedere credenziali umane. Per saperne di più, consulta la panoramica dei service account.
-
service agent
- Un agente di servizio si riferisce a un account di servizio gestito da Google. Viene utilizzato quando un servizio richiede l'accesso a risorse create da un altro servizio. Ad esempio, quando i servizi Dataflow o Dataproc devono creare istanze durante l'runtime o quando una Cloud Function vuole utilizzare Key Management Service (KMS) per proteggere la Cloud Function. Gli agenti di servizio vengono creati automaticamente da Google Cloud quando un servizio li richiede. In genere vengono utilizzati per gestire l'accesso alle risorse ed eseguire varie attività per conto del servizio. Per saperne di più, vedi Agenti di servizio.
-
metriche di riepilogo
- Le metriche riepilogative sono un singolo valore per ogni chiave metrica in un'esecuzione dell'esperimento. Ad esempio, l'accuratezza del test di un esperimento è l'accuratezza calcolata rispetto a un set di dati di test alla fine dell'addestramento, che può essere acquisita come metrica di riepilogo a valore singolo.
-
TensorBoard
- TensorBoard è una suite di applicazioni web per visualizzare e comprendere le esecuzioni e i modelli TensorFlow. Per ulteriori informazioni, consulta TensorBoard.
-
Istanza TensorBoard
- Un'istanza di TensorBoard è una risorsa regionalizzata che archivia gli esperimenti di Vertex AI TensorBoard associati a un progetto. Puoi creare più istanze TensorBoard in un progetto se, ad esempio, vuoi più istanze abilitate a CMEK. Corrisponde alla risorsa TensorBoard nell'API.
-
Nome risorsa TensorBoard
- Un nome risorsa TensorBoard viene utilizzato per identificare completamente un'istanza Vertex AI TensorBoard. Il formato è il seguente: projects/PROJECT_ID_OR_NUMBER/locations/REGION/tensorboards/TENSORBOARD_INSTANCE_ID.
-
offset temporale
- L'offset temporale è relativo all'inizio di un video.
-
metriche delle serie temporali
- Le metriche delle serie temporali sono valori di metriche longitudinali in cui ogni valore rappresenta un passaggio della routine di allenamento di una corsa. Le metriche delle serie temporali vengono archiviate in Vertex AI TensorBoard. Vertex AI Experiments memorizza un riferimento alla risorsa Vertex TensorBoard.
-
token
- Un token in un modello linguistico è l'unità atomica su cui il modello esegue l'addestramento e le inferenze, ovvero parole, morfemi e caratteri. Nei domini al di fuori dei modelli linguistici, i token possono rappresentare altri tipi di unità atomiche. Ad esempio, nella computer vision, un token potrebbe essere un sottoinsieme di un'immagine. Per ulteriori informazioni, vedi Elencare e conteggiare i token.
-
traiettoria
- Una "traiettoria" si riferisce a una sequenza di passaggi o azioni intraprese da un agente o un modello. Viene spesso utilizzato nella valutazione di modelli generativi, in cui viene valutata la capacità del modello di generare testo, codice o altri contenuti. Esistono diversi tipi di metriche della traiettoria che possono essere utilizzate per valutare i modelli generativi, tra cui corrispondenza esatta della traiettoria, corrispondenza in ordine della traiettoria, corrispondenza in qualsiasi ordine della traiettoria e precisione della traiettoria. Queste metriche misurano la somiglianza tra l'output del modello e un insieme di output di riferimento generati da persone.
-
Transformer
- Un "Transformer" è un'architettura di rete neurale alla base della maggior parte dei modelli generativi all'avanguardia. Viene utilizzato in varie applicazioni di modelli linguistici, tra cui la traduzione. I Transformer sono costituiti da un encoder e un decoder: l'encoder converte il testo di input in una rappresentazione intermedia, mentre il decoder la converte in un output utile. Utilizzano un meccanismo di auto-attenzione per raccogliere il contesto dalle parole che circondano la parola in fase di elaborazione. L'addestramento di un Transformer richiede risorse significative, mentre il perfezionamento di un Transformer preaddestrato per applicazioni specifiche è più efficiente.
-
Apprendimento per rinforzo con Transformer
- Transformer Reinforcement Learning (TRL) si riferisce all'applicazione di tecniche di apprendimento per rinforzo (RL) per addestrare modelli basati su Transformer per attività generative. Questo approccio risolve i limiti dei modelli generativi tradizionali, che spesso vengono addestrati sull'inferenza del token successivo senza un'ottimizzazione esplicita per qualità desiderabili come coerenza, sicurezza e sensibilità. TRL ottimizza direttamente il modello linguistico in base a obiettivi complessi utilizzando l'apprendimento per rinforzo, spesso incorporando il feedback umano (RLHF) per guidare il processo di apprendimento. Gli esempi includono l'ottimizzazione dei modelli per generare contenuti meno tossici utilizzando modelli di ricompensa e l'utilizzo di TRL per ottimizzare Gemma, un modello generativo. Per saperne di più, consulta DLC Hugging Face: ottimizzazione di Gemma con Transformer Reinforcement Learning (TRL) su Vertex AI.
-
vero positivo
- Un "vero positivo" si riferisce a un'inferenza in cui il modello identifica correttamente una classe positiva. Ad esempio, se un modello viene addestrato per identificare i clienti che acquisteranno una giacca, un vero positivo sarebbe la previsione corretta che un cliente effettuerà un acquisto di questo tipo.
-
convalida
- La convalida verifica la qualità delle inferenze di un modello rispetto al set di convalida. Ciò comporta la definizione di metriche per misurare la qualità, la velocità, il rispetto delle istruzioni e la sicurezza dei contenuti generati. La convalida spesso utilizza dati etichettati (prompt di input e output previsti) per confrontare le inferenze del modello con i dati empirici reali. Potrebbero essere utilizzate metriche come il punteggio F1 (per la classificazione) e il punteggio ROUGE-L (per il riepilogo). Il processo include anche il test di casi limite e scenari insoliti per garantire la robustezza. Per i modelli implementati, il monitoraggio continuo e l'acquisizione di punti dati comuni e casi limite contribuiscono a migliorare i futuri sforzi di convalida.
-
vector
- Un vettore si riferisce a una rappresentazione numerica di testo, immagini o video che acquisisce le relazioni tra gli input. I modelli di machine learning sono adatti alla creazione di incorporamenti identificando pattern all'interno di set di dati di grandi dimensioni. Le applicazioni possono utilizzare gli embedding per elaborare e produrre il linguaggio, riconoscendo significati complessi e relazioni semantiche specifiche dei contenuti. Per ulteriori informazioni, consulta la panoramica delle API Embeddings.
-
Vertex AI Experiments
- Vertex AI Experiments consente agli utenti di monitorare quanto segue: 1. Passaggi di un'esecuzione dell'esperimento (ad esempio, pre-elaborazione e addestramento). 2. Input (ad esempio, algoritmo, parametri e set di dati). 3. Output di questi passaggi (ad esempio modelli, checkpoint e metriche).
-
Vertex AI Model Registry
- Vertex AI Model Registry è un repository centrale in cui puoi gestire il ciclo di vita dei tuoi modelli ML. Da Vertex AI Model Registry, hai una panoramica dei tuoi modelli, in modo da poter organizzare, monitorare e addestrare meglio le nuove versioni. Quando hai una versione del modello di cui vuoi eseguire il deployment, puoi assegnarla a un endpoint direttamente dal registro oppure, utilizzando gli alias, eseguire il deployment dei modelli su un endpoint. Per ulteriori informazioni, consulta Introduzione a Vertex AI Model Registry.
-
segmento video
- Un segmento video è identificato dall'offset temporale di inizio e fine di un video.
-
Virtual Private Cloud (VPC)
- Un virtual cloud privato è un pool on demand e configurabile di risorse di computing condivise allocate in un ambiente cloud pubblico e che fornisce un livello di isolamento tra le diverse organizzazioni che utilizzano queste risorse.
-
word embedding
- Gli incorporamenti di parole sono un modo per rappresentare le parole come vettori densi di valori in virgola mobile. In questo modo, parole simili hanno codifiche simili. Gli incorporamenti di parole vengono spesso utilizzati nell'AI generativa per acquisire le relazioni tra le parole e generare nuovo testo o codice, senza fonti. Nell'AI generativa, gli incorporamenti di parole possono essere utilizzati per addestrare modelli in grado di generare nuovo testo o codice. Comprendendo le relazioni tra le parole, i modelli di AI generativa possono creare nuovi contenuti coerenti e pertinenti.
-
prompt zero-shot (prompting diretto)
- Nell'AI generativa, un prompt zero-shot è un prompt che consente a un modello linguistico di grandi dimensioni (LLM) di eseguire un'attività senza ulteriore addestramento o esempi. Ciò è in contrasto con metodi come il prompt few-shot, che fornisce al modello esempi di input e output. Un prompt zero-shot si basa esclusivamente sulle conoscenze preesistenti del modello per generare una risposta. Per maggiori informazioni, consulta prompt zero-shot.