-
set di annotazioni
- Un set di annotazioni contiene le etichette associate ai file di origine caricati all'interno di un set di dati. Un set di annotazioni è associato sia a un tipo di dati sia a un obiettivo (ad es. video/classificazione).
-
Endpoint API
- Endpoint API è un aspetto di configurazione del servizio che specifica gli indirizzi di rete, noti anche come endpoint di servizio (ad esempio, aiplatform.googleapis.com).
-
Credenziali predefinite dell'applicazione (ADC)
- Le credenziali predefinite dell'applicazione (ADC) offrono un modo semplice per ottenere le credenziali di autorizzazione da utilizzare per chiamare le API di Google. Sono ideali per i casi in cui la chiamata deve avere lo stesso livello di identità e autorizzazione per l'applicazione indipendentemente dall'utente. Questo è l'approccio consigliato per autorizzare le chiamate alle API Google Cloud, in particolare quando crei un'applicazione di cui viene eseguito il deployment su macchine virtuali Google App Engine (GAE) o Compute Engine. Per ulteriori informazioni, vedi Come funzionano le credenziali predefinite dell'applicazione.
-
Algoritmo Approximate Nearest Neighbor (ANN)
- Il servizio Approximate Nearest Neighbor (ANN) è una soluzione ad alta scalabilità e bassa latenza per trovare vettori simili (o più specificamente "embedding") per un corpus di grandi dimensioni. Per ulteriori informazioni, consulta Come utilizzare la ricerca vettoriale per la corrispondenza semantica.
-
elemento
- Un artefatto è un'entità o un frammento di dati discreti prodotto e consumato da un flusso di lavoro di machine learning. Alcuni esempi di artefatti sono set di dati, modelli, file di input e log di addestramento.
-
Artifact Registry
- Artifact Registry è un servizio di gestione degli artefatti universale. È il servizio consigliato per la gestione di container e altri elementi su Google Cloud. Per ulteriori informazioni, consulta Artifact Registry.
-
Intelligenza artificiale (AI)
- L'intelligenza artificiale (AI) è lo studio e la progettazione di macchine che sembrano "intelligenti", ovvero che simulano funzioni umane o intellettuali come il movimento meccanico, il ragionamento o la risoluzione dei problemi. Uno dei sottocampi più popolari dellAI è il machine learning, che utilizza un approccio statistico e basato sui dati per creare AI;IA. Tuttavia, alcune persone usano questi due termini in modo intercambiabile.
-
autenticazione
- La procedura di verifica dell'identità di un client (che può essere un utente o un altro processo) allo scopo di ottenere l'accesso a un sistema protetto. Un cliente che ha dimostrato la propria identità è autenticato. Per ulteriori informazioni, consulta Metodi di autenticazione di Google.
-
AutoML
- Algoritmi di machine learning che "imparano ad apprendere" tramite l'ottimizzazione black box. Per ulteriori informazioni, consulta il Glossario di ML.
-
base di riferimento
- Un modello utilizzato come punto di riferimento per confrontare il rendimento di un altro modello (in genere più complesso). Ad esempio, un modello di regressione logistica potrebbe essere un buon punto di riferimento per un modello di deep learning. Per un problema specifico, la linea di base aiuta gli sviluppatori di modelli a quantificare il rendimento minimo previsto che un nuovo modello deve raggiungere per essere utile. Per ulteriori informazioni, consulta Set di dati di riferimento e target.
-
batch
- L'insieme di esempi utilizzati in un'iterazione di addestramento. La dimensione del batch determina il numero di esempi in un batch.
-
batch size
- Il numero di esempi in un batch. Ad esempio, la dimensione del batch di SGD è 1, mentre la dimensione del batch di un mini-batch è in genere compresa tra 10 e 1000. La dimensione del batch è solitamente fissa durante l'addestramento e l'inferenza, ma TensorFlow consente dimensioni dei batch dinamiche.
-
previsione in batch
- La previsione batch accetta un gruppo di richieste di previsione e restituisce i risultati in un file. Per ulteriori informazioni, consulta la sezione Ottenere le previsioni in batch.
-
bias
- 1. Stereotipare, mostrare preconcetti o favoritismi verso determinate cose, persone o gruppi rispetto ad altri. Questi bias possono influire sulla raccolta e sull'interpretazione dei dati, sulla progettazione di un sistema e sul modo in cui gli utenti interagiscono con un sistema. 2. Errore sistematico introdotto da una procedura di campionamento o reporting.
-
bidirezionale
- Termine utilizzato per descrivere un sistema che valuta il testo che precede e segue una sezione di testo target. Al contrario, un sistema unidirezionale valuta solo il testo che precede una sezione di testo target.
-
Bidirectional Encoder Representations from Transformers (BERT)
- BERT è un metodo di preaddestramento delle rappresentazioni linguistiche, il che significa che addestriamo un modello di "comprensione del linguaggio" generico su un corpus di testo di grandi dimensioni (come Wikipedia) e poi lo utilizziamo per le attività di NLP a valle che ci interessano (come la risposta alle domande). BERT supera i metodi precedenti perché è il primo sistema non supervisionato e profondamente bidirezionale per l'addestramento pre-training del NLP.
-
Bilingual Evaluation Understudy (BLEU)
- Una misura molto utilizzata per valutare la qualità di un algoritmo di traduzione automatica confrontando il suo output con quello di una o più traduzioni umane.
-
riquadro di delimitazione
- Un riquadro di delimitazione per un oggetto nell'inquadratura del video può essere specificato in due modi: (i) utilizzando due vertici costituiti da un insieme di coordinate x,y se si trovano in diagonale rispetto ai punti opposti del rettangolo. Ad esempio: x_relative_min, y_relative_min,,,x_relative_max,y_relative_max,, (ii) Utilizza tutti e quattro i vertici. Per ulteriori informazioni, vedi Preparare i dati video.
-
bucket
- Cartella di primo livello per Cloud Storage. I nomi dei bucket devono essere univoci per tutti gli utenti di Cloud Storage. I bucket contengono file. Per ulteriori informazioni, consulta la Panoramica del prodotto Cloud Storage.
-
chat
- I contenuti di un dialogo con un sistema di ML, in genere un modello linguistico di grandi dimensioni. L'interazione precedente in una chat (ciò che hai digitato e la risposta del modello linguistico di grandi dimensioni) diventa il contesto per le parti successive della chat. Un chatbot è un'applicazione di un modello linguistico di grandi dimensioni.
-
checkpoint
- Dati che acquisiscono lo stato dei parametri di un modello durante l'addestramento o al termine dell'addestramento. Ad esempio, durante l'addestramento, puoi: 1. Interrompere l'addestramento, magari intenzionalmente o a causa di determinati errori. 2. Acquisisci il checkpoint. 3. In un secondo momento, ricarica il checkpoint, eventualmente su hardware diverso. 4. Riavvia l'addestramento. In Gemini, un checkpoint fa riferimento a una versione specifica di un modello Gemini addestrato su un set di dati specifico.
-
modello di classificazione
- Un modello la cui previsione è una classe. Ad esempio, di seguito sono riportati tutti i modelli di classificazione: un modello che prevede la lingua di una frase di input (francese? Spagnolo? Italiano?). Un modello che prevede le specie di alberi (acero? Rovere? Baobab?). Un modello che prevede la classe positiva o negativa per una determinata condizione medica.
-
Metriche di classificazione
- Le metriche di classificazione supportate nell'SDK Vertex AI per Python sono la matrice di confusione e la curva ROC.
-
Cloud TPU
- Un acceleratore hardware specializzato progettato per velocizzare i carichi di lavoro di machine learning su Google Cloud.
-
immagine container
- Un'immagine container è un pacchetto che include il codice eseguibile del componente e una definizione dell'ambiente in cui viene eseguito il codice. Per ulteriori informazioni, consulta la Panoramica dell'addestramento personalizzato.
-
context
- Un contesto viene utilizzato per raggruppare elementi e esecuzioni in una singola categoria di tipo interrogabile. I contesti possono essere utilizzati per rappresentare insiemi di metadati. Un esempio di contesto è l'esecuzione di una pipeline di machine learning.
-
Finestra contestuale
- Il numero di token che un modello può elaborare in un determinato prompt. Maggiore è la finestra di contesto, più informazioni può utilizzare il modello per fornire risposte coerenti e coese al prompt.
-
Chiavi di crittografia gestite dal cliente (CMEK)
- Le chiavi di crittografia gestite dal cliente (CMEK) sono integrazioni che consentono ai clienti di criptare i dati nei servizi Google esistenti utilizzando una chiave gestita in Cloud KMS (noto anche come Storky). La chiave in Cloud KMS è la chiave di crittografia della chiave che protegge i dati. Per saperne di più, consulta Chiavi di crittografia gestite dal cliente (CMEK).
-
CustomJob
- Un CustomJob è una delle tre risorse Vertex AI che un utente può creare per addestrare modelli personalizzati su Vertex AI. I job di addestramento personalizzato sono il modo di base per eseguire il codice di addestramento di machine learning (ML) personalizzato in Vertex AI. Per ulteriori informazioni, consulta Creare job di addestramento personalizzati.
-
Dask
- Dask è una piattaforma di calcolo distribuito spesso utilizzata con TensorFlow, Pytorch e altri framework di ML per gestire job di addestramento distribuiti. Per ulteriori informazioni, visita Wikipedia.
-
analisi dei dati
- Ottenere una comprensione dei dati tenendo conto di campioni, misurazioni e visualizzazione. L'analisi dei dati può essere particolarmente utile quando viene ricevuto un set di dati per la prima volta, prima di creare il primo modello. È inoltre fondamentale per comprendere gli esperimenti e i problemi di debug del sistema.
-
Aumento dei dati
- Aumentare artificialmente l'intervallo e il numero di esempi di addestramento trasformando gli esempi esistenti per creare esempi aggiuntivi. Ad esempio, supponiamo che le immagini siano una delle tue funzionalità, ma che il tuo set di dati non contenga esempi di immagini sufficienti per consentire al modello di apprendere associazioni utili. Idealmente, dovresti aggiungere al set di dati un numero sufficiente di immagini etichettate per consentire l'addestramento corretto del modello. Se non è possibile, l'aumento dei dati può ruotare, allungare e riflettere ogni immagine per produrre molte varianti dell'immagine originale, producendo eventualmente dati etichettati sufficienti per consentire un'eccellente addestramento.
-
DataFrame
- Un tipo di dati pandas molto utilizzato per rappresentare i set di dati in memoria. Un DataFrame è analogo a una tabella o a un foglio di lavoro. Ogni colonna di un DataFrame ha un nome (un'intestazione) e ogni riga è identificata da un numero univoco.Ogni colonna di un DataFrame è strutturata come un array 2D, tranne per il fatto che a ogni colonna può essere assegnato un proprio tipo di dati.
-
dataset (set di dati)
- Un set di dati è definito in generale come una raccolta di record di dati strutturati o non strutturati. Una raccolta di dati non elaborati, comunemente (ma non esclusivamente) organizzata in uno dei seguenti formati: un foglio di lavoro o un file in formato CSV (valori separati da virgole). Per ulteriori informazioni, vedi Creare un set di dati.
-
decoder
- In generale, qualsiasi sistema di ML che converte da una rappresentazione elaborata, densa o interna a una rappresentazione più grezza, sparsa o esterna. I decodificatori sono spesso un componente di un modello più grande, in cui vengono spesso accoppiati a un codificatore. Nelle attività di sequenza a sequenza, un decodificatore inizia con lo stato interno generato dall'encoder per prevedere la sequenza successiva.
-
Rete neurale profonda (DNN)
- Una rete neurale con più strati nascosti, in genere programmata tramite tecniche di deep learning.
-
depth
- La somma di quanto segue in una rete neurale: 1. il numero di strati nascosti 2. il numero di strati di output, che in genere è uno 3. il numero di eventuali strati di embedding. Ad esempio, una rete neurale con cinque strati nascosti e uno di output ha una profondità di 6. Tieni presente che il livello di input non influisce sulla profondità.
-
DevOps
- DevOps è una suite di prodotti Google Cloud Platform, ad esempio Artifact Registry e Cloud Deploy.
-
interruzione anticipata
- Un metodo di regolarizzazione che prevede l'interruzione dell'addestramento prima che la perdita di addestramento termini di diminuire. Con l'interruzione anticipata, interrompi intenzionalmente l'addestramento del modello quando la perdita in un set di dati di convalida inizia ad aumentare, ovvero quando le prestazioni di generalizzazione peggiorano.
-
Incorporamento
- Una rappresentazione vettoriale densa, spesso di bassa dimensione, di un elemento tale che, se due elementi sono semanticamente simili, i rispettivi incorporamenti si trovano vicini nello spazio vettoriale dell'embedding.
-
vettore di embedding
- Una rappresentazione vettoriale densa, spesso di bassa dimensione, di un elemento tale che, se due elementi sono semanticamente simili, i rispettivi incorporamenti si trovano vicini nello spazio vettoriale dell'embedding.
-
encoder
- In generale, qualsiasi sistema di ML che converte da una rappresentazione non elaborata, sparsa o esterna in una rappresentazione più elaborata, più densa o più interna. Gli encoder sono spesso un componente di un modello più grande, in cui vengono spesso accoppiati a un decodificatore. Alcuni trasformatori accoppiano gli encoder ai decoder, mentre altri utilizzano solo l'encoder o solo il decoder. Alcuni sistemi utilizzano l'output dell'encoder come input di una rete di classificazione o regressione. Nelle attività di sequenza a sequenza, un encoder prende una sequenza di input e restituisce uno stato interno (un vettore). Il decoder utilizza questo stato interno per prevedere la sequenza successiva.
-
ensemble
- Una raccolta di modelli addestrati in modo indipendente le cui previsioni vengono medie o aggregate. In molti casi, un ensemble produce previsioni migliori di un singolo modello. Ad esempio, una foresta casuale è un insieme costituito da più alberi decisionali. Tieni presente che non tutte le foreste di decisione sono insiemi.
-
evaluation (eval)
- Un eval, abbreviazione di "valutazione", è un tipo di esperimento in cui le query registrate o sintetiche vengono inviate tramite due stack di ricerca: uno sperimentale che include la modifica e uno di base senza la modifica. Le valutazioni producono differenze e metriche che ti consentono di valutare l'impatto, la qualità e altri effetti della modifica sui risultati di ricerca e su altre parti dell'esperienza utente di Google. Le valutazioni vengono utilizzate durante la messa a punto o le iterazioni della modifica. Vengono utilizzati anche nell'ambito del lancio di una modifica al traffico degli utenti in tempo reale.
-
environment
- Nell'apprendimento tramite rinforzo, il mondo che contiene l'agente e gli consente di osservarne lo stato. Ad esempio, il mondo rappresentato può essere un gioco come gli scacchi o un mondo fisico come un labirinto. Quando l'agente applica un'azione all'ambiente, l'ambiente passa da uno stato all'altro.
-
event
- Un evento descrive la relazione tra gli elementi e le esecuzioni. Ogni elemento può essere prodotto da un'esecuzione e utilizzato da altre esecuzioni. Gli eventi ti aiutano a determinare la provenienza degli artefatti nei flussi di lavoro di ML collegando tra loro artefatti ed esecuzioni.
-
esecuzione
- Un'esecuzione è un record di un singolo passaggio del flusso di lavoro di machine learning, in genere annotato con i relativi parametri di runtime. Alcuni esempi di esecuzioni sono l'importazione dati, la convalida dei dati, l'addestramento del modello, la valutazione del modello e il deployment del modello.
-
esperimento
- Un esperimento è un contesto che può contenere un insieme di n esecuzioni dell'esperimento, oltre alle esecuzioni della pipeline, in cui un utente può esaminare, come gruppo, configurazioni diverse come gli elementi di input o gli iperparametri.
-
Esecuzione dell'esperimento
- Un'esecuzione dell'esperimento può contenere metriche, parametri, esecuzioni, artefatti e risorse Vertex (ad esempio PipelineJob) definiti dall'utente.
-
analisi esplorativa dei dati
- In statistica, l'analisi esplorativa dei dati (o EDA) è un approccio per analizzare i set di dati al fine di riassumerne le loro caratteristiche principali, spesso con metodi visivi. Si può utilizzare o meno un modello statistico, ma principalmente l'EDA serve a vedere cosa possono dirci i dati al di là della modellazione formale o della verifica delle ipotesi.
-
funzionalità
- Nel machine learning (ML), una funzionalità è una caratteristica o un attributo di un'istanza o entità che viene utilizzata come input per addestrare un modello di ML o fare previsioni.
-
feature engineering
- La creazione di funzionalità è il processo di trasformazione dei dati non elaborati di machine learning (ML) in funzionalità che possono essere utilizzate per addestrare i modelli di ML o per fare previsioni.
-
valore della funzionalità
- Un valore della funzionalità corrisponde al valore effettivo e misurabile di una funzionalità (attributo) di un'istanza o entità. Una raccolta di valori delle caratteristiche per l'entità univoca rappresenta il record della caratteristica corrispondente all'entità.
-
Pubblicazione delle funzionalità
- La distribuzione delle caratteristiche è il processo di esportazione o recupero dei valori delle caratteristiche per l'addestramento o l'inferenza. In Vertex AI esistono due tipi di pubblicazione delle funzionalità: online e offline. La pubblicazione online recupera gli ultimi valori delle funzionalità di un sottoinsieme dell'origine dati delle funzionalità per le previsioni online. L'erogazione offline o in batch esporta grandi volumi di dati sulle funzionalità per l'elaborazione offline, ad esempio l'addestramento di modelli ML.
-
feature timestamp
- Un timestamp della caratteristica indica quando è stato generato l'insieme di valori della caratteristica in un record della caratteristica specifico per un'entità.
-
record della funzionalità
- Un record delle funzionalità è un'aggregazione di tutti i valori delle funzionalità che descrivono gli attributi di un'entità univoca in un determinato momento.
-
Registro di funzionalità
- Un registry delle funzionalità è un'interfaccia centrale per registrare le origini dati delle funzionalità che vuoi pubblicare per le previsioni online. Per ulteriori informazioni, consulta la configurazione di Feature Registry.
-
gruppo di funzionalità
- Un gruppo di caratteristiche è una risorsa del registro di caratteristiche che corrisponde a una tabella o vista di origine BigQuery contenente dati delle caratteristiche. Una visualizzazione delle caratteristiche può contenere caratteristiche e può essere considerata un raggruppamento logico delle colonne delle caratteristiche nell'origine dati.
-
Visualizzazione elemento
- Una visualizzazione delle caratteristiche è una raccolta logica di funzionalità materializzate da un'origine dati BigQuery a un'istanza del negozio online. Una vista elemento archivia e aggiorna periodicamente i dati delle funzionalità del cliente, che vengono aggiornati periodicamente dall'origine BigQuery. Una visualizzazione delle caratteristiche è associata allo spazio di archiviazione dei dati delle caratteristiche direttamente o tramite associazioni alle risorse del registry delle caratteristiche.
-
modello di base (FM)
- Modelli addestrati su dati ampi in modo che possano essere adattati (ad esempio perfezionati) a un'ampia gamma di attività a valle.
-
Operazioni del modello di base (FMOP)
- FMOps espande le funzionalità di MLOps e si concentra sulla produzione efficiente di modelli di machine learning preaddestrati (addestrati da zero) o personalizzati (ottimizzati).
-
GEM
- I Gem sono versioni personalizzate di Gemini che ti danno risposte su misura. Puoi personalizzare un Gem predefinito oppure crearne uno nuovo da zero utilizzando le istruzioni impostate da te. Qui troverai tutti i tuoi Gem e potrai modificarli in qualsiasi momento oppure puoi iniziare subito una chat con un Gem predefinito.
-
SDK dei componenti della pipeline di Google Cloud
- L'SDK Google Cloud Pipeline Components (GCPC) fornisce un insieme di componenti Kubeflow Pipelines predefiniti di qualità di produzione, performanti e facili da usare. Puoi utilizzare i componenti della pipeline di Google Cloud per definire ed eseguire pipeline ML in Vertex AI Pipelines e in altri backend di esecuzione di pipeline ML conformi a Kubeflow Pipelines. Per ulteriori informazioni, consulta Introduzione a Google Cloud Pipeline Components.
-
Google Embedded Modem System (GEMS)
- GEMS è un framework software embedded destinato ai modem e un insieme aggiuntivo di workflow e infrastruttura di sviluppo. La visione di base di GEMS è fornire codice di sistema del modem di alta qualità con elevata riutilizzabilità su molti dispositivi Google contenenti modem. Per realizzare questa visione ampia, GEMS offre agli sviluppatori un ambiente completo composto dai principali componenti di base descritti di seguito.
-
gradient
- Il vettore delle derivate parziali rispetto a tutte le variabili indipendenti. Nel machine learning, il gradiente è il vettore delle derivate parziali della funzione del modello. Il gradiente indica la direzione della salita più ripida.
-
Dati di fatto (GT)
- La risposta basata su dati di fatto è un termine utilizzato in vari campi per fare riferimento alla verità assoluta di un problema di decisione o misurazione, al contrario della stima di un sistema. Nel machine learning, il termine "ground truth" si riferisce al set di addestramento per le tecniche di apprendimento supervisionato.
-
istogramma
- Una visualizzazione grafica della variazione in un insieme di dati mediante barre. Un istogramma visualizza schemi difficili da rilevare in una semplice tabella di numeri.
-
index
- Una raccolta di vettori implementati insieme per la ricerca di similarità. I vettori possono essere aggiunti o rimossi da un indice. Le query di ricerca di somiglianza vengono inviate a un indice specifico e vengono eseguite ricerche nei vettori di quell'indice.
-
perdita (costo)
- Durante l'addestramento di un modello supervisionato, una misura della distanza tra la previsione di un modello e la relativa etichetta. Una funzione di perdita calcola la perdita.
-
Metadati del machine learning
- ML Metadata (MLMD) è una libreria per la registrazione e il recupero dei metadati associati ai flussi di lavoro di sviluppatori ML e data scientist. MLMD è parte integrante di TensorFlow Extended (TFX), ma è progettato per essere utilizzato in modo indipendente. Nell'ambito della piattaforma TFX più ampia, la maggior parte degli utenti interagisce con MLMD solo quando esamina i risultati dei componenti della pipeline, ad esempio nei notebook o in TensorBoard.
-
set di dati gestito
- Un oggetto set di dati creato e ospitato da Vertex AI.
-
risorse di metadati
- Vertex ML Metadata espone un modello dei dati simile a un grafo per rappresentare i metadati prodotti e consumati dai flussi di lavoro di ML. I concetti principali sono elementi, esecuzioni, eventi e contesti.
-
MetadataSchema
- Un MetadataSchema descrive lo schema per determinati tipi di elementi, esecuzioni o contesti. MetadataSchemas viene utilizzato per convalidare le coppie chiave-valore durante la creazione delle risorse di metadati corrispondenti. La convalida dello schema viene eseguita solo sui campi corrispondenti tra la risorsa e MetadataSchema. Gli schemi di tipo sono rappresentati utilizzando oggetti schema OpenAPI, che devono essere descritti utilizzando YAML.
-
MetadataStore
- Un MetadataStore è il contenitore di primo livello per le risorse di metadati. MetadataStore è regionalizzato e associato a un progetto Google Cloud specifico. In genere, un'organizzazione utilizza un MetadataStore condiviso per le risorse dei metadati all'interno di ogni progetto.
-
Pipeline di ML
- Le pipeline ML sono flussi di lavoro ML portatili e scalabili basati su container.
-
model
- Qualsiasi modello, preaddestrato o meno. In generale, qualsiasi costrutto matematico che elabora i dati di input e restituisce l'output. In altre parole, un modello è l'insieme di parametri e strutture necessari per consentire a un sistema di fare previsioni.
-
nome risorsa modello
- Il nome della risorsa per un
model
è il seguente: projects/<PROJECT_ID>/locations/<LOCATION_ID>/models/<MODEL_ID>. Puoi trovare l'ID del modello nella console Cloud nella pagina "Model Registry" (Registro modelli).
- Il nome della risorsa per un
-
Network File System (NFS)
- Un sistema client/server che consente agli utenti di accedere ai file su una rete e trattarli come se si trovassero in una directory di file locale.
-
Negozio offline
- Lo spazio di archiviazione offline è un'area di archiviazione che memorizza i dati delle funzionalità recenti e storici, in genere utilizzati per l'addestramento dei modelli di ML. Un archivio offline contiene anche i valori delle caratteristiche più recenti, che puoi pubblicare per le previsioni online.
-
Negozio online
- Nella gestione delle funzionalità, un archivio online è uno spazio di archiviazione per i valori delle funzionalità più recenti da pubblicare per le previsioni online.
-
parameters
- I parametri sono valori di input con chiave che configurano un'esecuzione, regolano il relativo comportamento e influiscono sui risultati. Alcuni esempi sono il tasso di apprendimento, il tasso di abbandono e il numero di passaggi di addestramento.
-
pipeline
- Le pipeline ML sono flussi di lavoro ML portatili e scalabili basati su container.
-
Componente della pipeline
- Un insieme di codice autonomo che esegue un passaggio nel flusso di lavoro di una pipeline, ad esempio il pretrattamento dei dati, la trasformazione dei dati e l'addestramento di un modello.
-
job della pipeline
- Un job di pipeline o un'esecuzione di pipeline corrisponde alla risorsa PipelineJob nell'API Vertex AI. Si tratta di un'istanza di esecuzione della definizione della pipeline ML, che è definita come un insieme di attività ML interconnesse da dipendenze di input-output.
-
pipeline run
- A un esperimento possono essere associati uno o più Vertex PipelineJob, in cui ogni PipelineJob è rappresentato come una singola esecuzione. In questo contesto, i parametri dell'esecuzione vengono dedotti dai parametri di PipelineJob. Le metriche vengono dedotte dagli elementi system.Metric prodotti da PipelineJob. Gli artefatti dell'esecuzione vengono dedotti dagli artefatti prodotti da PipelineJob.
-
Modello di pipeline
- Una definizione di flusso di lavoro di ML che un singolo utente o più utenti possono riutilizzare per creare più esecuzioni della pipeline.
-
Private Service Connect (PSC)
- Private Service Connect è una tecnologia che consente ai clienti di Compute Engine di mappare gli IP privati nella loro rete a un'altra rete VPC o alle API di Google.
-
Interfaccia Private Service Connect (PSC-I)
- L'interfaccia Private Service Connect consente ai producer di avviare connessioni private a qualsiasi risorsa di rete nella VPC del consumer.
-
Ray cluster su Vertex AI
- I cluster Ray su Vertex AI sono integrati per garantire la disponibilità della capacità per i carichi di lavoro ML critici o durante le stagioni di picco. A differenza dei job personalizzati, in cui il servizio di addestramento rilascia la risorsa al termine del job, i cluster Ray rimangono disponibili fino all'eliminazione. Per ulteriori informazioni, consulta la panoramica di Ray su Vertex AI.
-
Ray on Vertex AI (RoV)
- Ray su Vertex AI è progettato in modo da poter utilizzare lo stesso codice open source di Ray per scrivere programmi e sviluppare applicazioni su Vertex AI con modifiche minime. Per ulteriori informazioni, consulta la panoramica di Ray su Vertex AI.
-
SDK Ray on Vertex AI per Python
- L'SDK Ray on Vertex AI per Python è una versione dell'SDK Vertex AI per Python che include le funzionalità di Ray Client, del connettore Ray BigQuery, della gestione del cluster Ray su Vertex AI e delle previsioni su Vertex AI. Per ulteriori informazioni, consulta Introduzione all'SDK Vertex AI per Python.
-
richiamo
- La percentuale di vicini più vicini veri restituiti dall'indice. Ad esempio, se una query sul vicino più prossimo per 20 vicini più prossimi ha restituito 19 dei vicini più prossimi "del vero e proprio", il valore di recupero è 19/20 x 100 = 95%.
-
limita
- Funzionalità per "limitare" le ricerche a un sottoinsieme dell'indice utilizzando regole booleane. La limitazione è indicata anche come "filtro". Con la ricerca vettoriale, puoi utilizzare i filtri numerici e di attributi di testo.
-
account di servizio
- In Google Cloud, un account di servizio è un particolare tipo di account utilizzato da un'applicazione o da un'istanza di macchina virtuale (VM), non da una persona. Le applicazioni utilizzano account di servizio per effettuare chiamate API autorizzate.
-
metriche di riepilogo
- Le metriche di riepilogo sono un singolo valore per ogni chiave di metrica in un'esecuzione dell'esperimento. Ad esempio, l'accuratezza del test di un esperimento è l'accuratezza calcolata in base a un set di dati di test al termine dell'addestramento e può essere acquisita come metrica di riepilogo di un singolo valore.
-
TensorBoard
- TensorBoard è una suite di applicazioni web per visualizzare e comprendere le esecuzioni e i modelli TensorFlow. Per ulteriori informazioni, consulta TensorBoard.
-
Nome risorsa TensorBoard
- Un nome della risorsa TensorBoard viene utilizzato per identificare completamente un'istanza Vertex AI TensorBoard. Il formato è il seguente: projects/PROJECT_ID_OR_NUMBER/locations/REGION/tensorboards/TENSORBOARD_INSTANCE_ID.
-
Istanza TensorBoard
- Un'istanza di TensorBoard è una risorsa regionalizzata che archivia gli esperimenti Vertex AI TensorBoard associati a un progetto. Puoi creare più istanze TensorBoard in un progetto se, ad esempio, vuoi più istanze con CMEK abilitato. È la stessa risorsa TensorBoard nell'API.
-
TensorFlow Extended (TFX)
- TensorFlow Extended (TFX) è una piattaforma end-to-end per il deployment di pipeline di machine learning di produzione basate sulla piattaforma TensorFlow.
-
offset di tempo
- Il ritardo è relativo all'inizio di un video.
-
segmento di tempo
- Un segmento di tempo è identificato dagli offset di inizio e di fine.
-
Metriche delle serie temporali
- Le metriche delle serie temporali sono valori delle metriche longitudinali in cui ogni valore rappresenta un passaggio nella parte della routine di addestramento di un'esecuzione. Le metriche delle serie temporali vengono archiviate in Vertex AI TensorBoard. Vertex AI Experiments memorizza un riferimento alla risorsa Vertex TensorBoard.
-
token
- Un token in un modello linguistico è l'unità atomica su cui il modello viene addestrato e fa previsioni, ovvero parole, morfemi e caratteri. In domini diversi dai modelli linguistici, i token possono rappresentare altri tipi di unità atomiche. Ad esempio, nella visione artificiale, un token potrebbe essere un sottoinsieme di un'immagine.
-
Elementi non gestiti
- Un artefatto esistente al di fuori del contesto di Vertex AI.
-
vettore
- Un vettore è un elenco di valori in virgola mobile con grandezza e direzione. Può essere utilizzato per rappresentare qualsiasi tipo di dati, ad esempio numeri, punti nello spazio o indicazioni stradali.
-
Vertex AI Experiments
- Vertex AI Experiments consente agli utenti di monitorare quanto segue: 1. Passaggi di un'esecuzione dell'esperimento (ad esempio, pre-elaborazione e addestramento). 2. Input (ad esempio algoritmo, parametri e set di dati). 3. Gli output di questi passaggi (ad esempio modelli, checkpoint e metriche).
-
Esperimento TensorBoard di Vertex AI
- I dati associati a un esperimento possono essere visualizzati nell'applicazione web TensorBoard (scalari, istogrammi, distribuzioni e così via). Gli scalari delle serie temporali possono essere visualizzati nella Google Cloud Console. Per ulteriori informazioni, vedi Confrontare e analizzare le esecuzioni.
-
SDK Vertex AI per Python
- L'SDK Vertex AI per Python offre funzionalità simili a quelle della libreria client Vertex AI Python, tranne per il fatto che l'SDK è di livello superiore e meno granulare.
-
Tipo di dati del vertice
- I tipi di dati di Vertex AI sono "image", "text", "tabular" e "video".
-
segmento video
- Un segmento di video viene identificato dall'offset temporale di inizio e di fine di un video.
-
virtual private cloud (VPC)
- Il virtual cloud privato è un pool configurabile e on demand di risorse di calcolo condivise che viene allocato in un ambiente cloud pubblico e fornisce un livello di isolamento tra le diverse organizzazioni che utilizzano queste risorse.