Glossario di Vertex AI per l'AI predittiva

  • set di annotazioni
    • Un set di annotazioni contiene le etichette associate ai file di origine caricati all'interno di un set di dati. Un set di annotazioni è associato sia a un tipo di dati sia a un obiettivo (ad esempio, video/classificazione).
  • Endpoint API
    • Gli endpoint API sono un aspetto della configurazione del servizio che specifica gli indirizzi di rete, noti anche come endpoint di servizio (ad esempio aiplatform.googleapis.com).
  • Credenziali predefinite dell'applicazione (ADC)
    • Le credenziali predefinite dell'applicazione (ADC) forniscono un modo semplice per ottenere le credenziali di autorizzazione da utilizzare per chiamare le API di Google. Sono più adatte ai casi in cui la chiamata deve avere lo stesso livello di identità e autorizzazione per l'applicazione indipendentemente dall'utente. Questo è l'approccio consigliato per autorizzare le chiamate alle API Google Cloud, in particolare quando crei un'applicazione di cui viene eseguito il deployment nelle macchine virtuali di Google App Engine (GAE) o Compute Engine. Per ulteriori informazioni, vedi Come funzionano le credenziali predefinite dell'applicazione.
  • Approximate Nearest Neighbor (ANN)
  • artifact
    • Un artefatto è un'entità discreta o un insieme di dati prodotti e utilizzati da un flusso di lavoro di machine learning. Esempi di artefatti includono set di dati, modelli, file di input e log di addestramento.
  • Artifact Registry
    • Artifact Registry è un servizio di gestione universale degli artefatti. È il servizio consigliato per la gestione di container e altri artefatti su Google Cloud. Per ulteriori informazioni, consulta Artifact Registry.
  • Intelligenza artificiale (AI)
    • L'intelligenza artificiale (o AI) è lo studio e la progettazione di macchine che sembrano "intelligenti", ovvero che imitano funzioni umane o intellettuali come il movimento meccanico, il ragionamento o la risoluzione di problemi. Uno dei sottocampi più popolari dell'AI è il machine learning, che utilizza un approccio statistico e basato sui dati per creare l'AI. Tuttavia, alcune persone utilizzano questi due termini in modo intercambiabile.
  • autenticazione
    • Il processo di verifica dell'identità di un client (che potrebbe essere un utente o un altro processo) allo scopo di ottenere l'accesso a un sistema protetto. Un client che ha dimostrato la propria identità viene autenticato. Per ulteriori informazioni, vedi Metodi di autenticazione di Google.
  • Automatic side-by-side (AutoSxS)
    • Automatic Side-by-Side (AutoSxS) è uno strumento di valutazione assistita da modello che confronta due modelli linguistici di grandi dimensioni (LLM) affiancati. Può essere utilizzato per valutare le prestazioni dei modelli di AI generativa in Vertex AI Model Registry o delle inferenze pregenerate. AutoSxS utilizza uno strumento di valutazione automatica per decidere quale modello fornisce la risposta migliore a un prompt. AutoSxS è disponibile on demand e valuta i modelli linguistici con prestazioni paragonabili a quelle dei valutatori umani.
  • AutoML
    • Algoritmi di machine learning che "imparano a imparare" tramite l'ottimizzazione black box. Per ulteriori informazioni, consulta il glossario di ML.
  • autologging
    • La registrazione automatica è una funzionalità delle piattaforme e delle librerie di machine learning che registra automaticamente metriche, parametri e artefatti chiave durante il processo di addestramento del modello senza richiedere l'instrumentazione esplicita del codice. Semplifica il monitoraggio degli esperimenti acquisendo automaticamente informazioni come iperparametri, metriche di valutazione (ad esempio accuratezza, perdita) e checkpoint del modello, consentendo agli sviluppatori di confrontare e riprodurre facilmente gli esperimenti.
  • autorater
    • Un valutatore automatico è un modello linguistico che valuta la qualità delle risposte del modello dato un prompt di inferenza originale. Viene utilizzato nella pipeline AutoSxS per confrontare le inferenze di due modelli e determinare quale modello ha ottenuto il rendimento migliore. Per ulteriori informazioni, consulta la sezione Valutazione automatica.
  • scalabilità automatica
    • La scalabilità automatica è la capacità di una risorsa di calcolo, come il pool di worker di un cluster Ray, di regolare automaticamente il numero di nodi in base alle esigenze del carico di lavoro, ottimizzando l'utilizzo delle risorse e i costi. Per ulteriori informazioni, consulta Scalare i cluster Ray su Vertex AI: scalabilità automatica.
  • base di riferimento
    • Un modello utilizzato come punto di riferimento per confrontare il rendimento di un altro modello (in genere, uno più complesso). Ad esempio, un modello di regressione logistica potrebbe fungere da buona base di riferimento per un modello profondo. Per un problema specifico, la baseline aiuta gli sviluppatori di modelli a quantificare il rendimento minimo previsto che un nuovo modello deve raggiungere per essere utile. Per maggiori informazioni, consulta Set di dati di base e di destinazione.
  • batch
    • L'insieme di esempi utilizzati in un'iterazione di addestramento. La dimensione del batch determina il numero di esempi in un batch.
  • batch size
    • Il numero di esempi in un batch. Ad esempio, la dimensione del batch di SGD è 1, mentre la dimensione del batch di un mini-batch è in genere compresa tra 10 e 1000. La dimensione del batch viene solitamente corretta durante l'addestramento e l'inferenza; tuttavia, TensorFlow consente dimensioni del batch dinamiche.
  • inferenza batch
  • bias
    • 1. Stereotipare, mostrare preconcetti o favoritismi verso determinate cose, persone o gruppi rispetto ad altri. Questi bias possono influire sulla raccolta e sull'interpretazione dei dati, sulla progettazione di un sistema e sul modo in cui gli utenti interagiscono con un sistema. 2. Errore sistematico introdotto da una procedura di campionamento o reporting.
  • bidrectional
    • Termine utilizzato per descrivere un sistema che valuta il testo che precede e segue una sezione di testo di destinazione. Al contrario, un sistema unidirezionale valuta solo il testo che precede una sezione di testo di destinazione.
  • Bidirectional Encoder Representations from Transformers (BERT)
    • BERT è un metodo di preaddestramento delle rappresentazioni linguistiche, il che significa che addestriamo un modello di "comprensione del linguaggio" di uso generico su un ampio corpus di testo (come Wikipedia) e poi lo utilizziamo per attività di NLP downstream che ci interessano (come la risposta alle domande). BERT supera i metodi precedenti perché è il primo sistema non supervisionato e bidirezionale per il pre-addestramento del NLP.
  • BigQuery
    • BigQuery è un data warehouse aziendale serverless, completamente gestito e altamente scalabile fornito da Google Cloud, progettato per analizzare set di dati di grandi dimensioni utilizzando query SQL a velocità incredibilmente elevate. BigQuery consente di eseguire analisi e business intelligence avanzate senza richiedere agli utenti di gestire alcuna infrastruttura. Per saperne di più, consulta Da data warehouse a piattaforma di AI e dati autonomi.
  • BigQuery ML
    • BigQuery ML è una funzionalità del data warehouse BigQuery di Google Cloud che consente agli analisti di dati e ai data scientist di creare, addestrare ed eseguire il deployment di modelli di machine learning direttamente in BigQuery utilizzando query SQL standard. In questo modo non è necessario spostare i dati su piattaforme ML separate, semplificando il flusso di lavoro di machine learning e rendendo l'ML più accessibile agli utenti SQL. Per saperne di più, consulta Creare modelli di machine learning in BigQuery ML.
  • Bigtable
    • Un servizio di database NoSQL completamente gestito, consigliato anche come opzione di archiviazione per i dati di addestramento quando utilizzi Vertex AI. Per ulteriori informazioni, consulta la panoramica di Bigtable.
  • Bilingual Evaluation Understudy (BLEU)
    • Una misura popolare per valutare la qualità di un algoritmo di traduzione automatica confrontando il suo output con quello di una o più traduzioni umane.
  • riquadro di delimitazione
    • Un riquadro di delimitazione per un oggetto nel frame video può essere specificato in due modi: (i) utilizzando due vertici costituiti da un insieme di coordinate x,y se sono punti diagonalmente opposti del rettangolo. Ad esempio: x_relative_min, y_relative_min,,,x_relative_max,y_relative_max,, (ii) Utilizza tutti e quattro i vertici. Per saperne di più, vedi Preparare i dati video.
  • bucket
    • Cartella di primo livello per Cloud Storage. I nomi dei bucket devono essere univoci per tutti gli utenti di Cloud Storage. I bucket contengono file. Per maggiori informazioni, consulta la panoramica del prodotto Cloud Storage.
  • chat
    • I contenuti di un dialogo bot e utente con un sistema ML, in genere un modello linguistico di grandi dimensioni. L'interazione precedente in una chat (ciò che hai digitato e la risposta del modello linguistico di grandi dimensioni) diventa il contesto per le parti successive della chat. Un chatbot è un'applicazione di un modello linguistico di grandi dimensioni (LLM).
  • checkpoint
    • Dati che acquisiscono lo stato dei parametri di un modello durante l'addestramento o al termine dell'addestramento. Ad esempio, durante l'addestramento, puoi: 1. Interrompere l'addestramento, intenzionalmente o a causa di determinati errori. 2. Acquisisci il checkpoint. 3. In un secondo momento, ricarica il checkpoint, possibilmente su un hardware diverso. 4. Riavvia l'addestramento. In Gemini, un checkpoint si riferisce a una versione specifica di un modello Gemini addestrato su un set di dati specifico.
  • modello di classificazione
    • Un modello la cui inferenza è una classe. Ad esempio, i seguenti sono tutti modelli di classificazione: un modello che prevede la lingua di una frase di input (francese? Spagnolo? ?). Un modello che prevede le specie di alberi (acero? Quercia? Baobab?). Un modello che prevede la classe positiva o negativa per una particolare condizione medica.
  • metriche di classificazione
    • Le metriche di classificazione supportate nell'SDK Vertex AI per Python sono la matrice di confusione e la curva ROC.
  • Cloud Logging
    • Cloud Logging è un servizio di logging in tempo reale completamente gestito fornito da Google Cloud che ti consente di raccogliere, archiviare, analizzare e monitorare i log di tutte le tue risorse Google Cloud, delle applicazioni on-premise e persino delle origini personalizzate. Cloud Logging centralizza la gestione dei log, semplificando la risoluzione dei problemi, l'audit e la comprensione del comportamento e dell'integrità delle applicazioni e dell'infrastruttura. Per maggiori informazioni, consulta la panoramica di Cloud Logging.
  • Cloud Monitoring
    • Cloud Monitoring è una piattaforma di osservabilità completa fornita da Google Cloud che raccoglie e visualizza metriche, log ed eventi da servizi Google Cloud, infrastruttura on-premise e componenti delle applicazioni. Consente agli utenti di ottenere informazioni dettagliate su prestazioni, disponibilità e integrità complessiva dei propri sistemi, consentendo il rilevamento, la risoluzione dei problemi e gli avvisi proattivi. Per ulteriori informazioni, consulta Metriche di Cloud Monitoring per Vertex AI.
  • Cloud Profiler
    • Cloud Profiler è un servizio di profilazione continua fornito da Google Cloud che ti aiuta a identificare e analizzare il consumo di CPU e memoria, nonché l'utilizzo di altre risorse (come heap, tempo totale di esecuzione, contesa) nelle tue applicazioni. Raccoglie automaticamente i dati di profilazione dalle applicazioni di produzione con un overhead minimo, consentendoti di visualizzare e comprendere i colli di bottiglia delle prestazioni in vari servizi e ottimizzare il codice per una maggiore efficienza e costi ridotti. Per saperne di più, consulta la panoramica di Cloud Profiler.
  • Cloud Storage
    • Servizio di archiviazione di oggetti scalabile e sicuro di Google Cloud, consigliato per l'archiviazione di set di dati di grandi dimensioni utilizzati per l'addestramento e la verifica con Vertex AI per prestazioni ottimali. Per maggiori informazioni, consulta la documentazione di Cloud Storage.
  • Cloud TPU
    • Un acceleratore hardware specializzato progettato per velocizzare i carichi di lavoro di machine learning su Google Cloud.
  • Colab Enterprise
    • Colab Enterprise è un ambiente di notebook Jupyter gestito e collaborativo che porta la popolare esperienza utente di Google Colab su Google Cloud, offrendo funzionalità di sicurezza e conformità di livello aziendale. Colab Enterprise offre un'esperienza incentrata sui notebook e senza configurazione, con risorse di calcolo gestite da Vertex AI e si integra con altri servizi Google Cloud come BigQuery. Per ulteriori informazioni, vedi Introduzione a Colab Enterprise.
  • immagine container
    • Un'immagine container è un pacchetto che include il codice eseguibile del componente e una definizione dell'ambiente in cui viene eseguito il codice. Per ulteriori informazioni, vedi Panoramica dell'addestramento personalizzato.
  • context
    • Un contesto viene utilizzato per raggruppare artefatti ed esecuzioni in una singola categoria interrogabile e digitata. I contesti possono essere utilizzati per rappresentare insiemi di metadati. Un esempio di contesto è l'esecuzione di una pipeline di machine learning.
  • cache contestuale
    • Una cache del contesto in Vertex AI è una grande quantità di dati che può essere utilizzata in più richieste a un modello Gemini. I contenuti memorizzati nella cache vengono archiviati nella regione in cui viene effettuata la richiesta di creazione della cache. Può essere qualsiasi tipo MIME supportato dai modelli multimodali Gemini, ad esempio testo, audio o video. Per ulteriori informazioni, vedi Panoramica della memorizzazione nella cache del contesto.
  • finestra contestuale
    • Il numero di token che un modello può elaborare in un determinato prompt. Più ampia è la finestra contestuale, più informazioni il modello può utilizzare per fornire risposte coerenti e uniformi al prompt.
  • Chiavi di crittografia gestite dal cliente (CMEK)
    • Le chiavi di crittografia gestite dal cliente (CMEK) sono integrazioni che consentono ai clienti di criptare i dati nei servizi Google esistenti utilizzando una chiave gestita in Cloud KMS (nota anche come Storky). La chiave in Cloud KMS è la chiave di crittografia della chiave che protegge i dati. Per saperne di più, consulta Chiavi di crittografia gestite dal cliente (CMEK).
  • CustomJob
    • Un CustomJob è una delle tre risorse Vertex AI che un utente può creare per addestrare modelli personalizzati su Vertex AI. I job di addestramento personalizzato sono il modo di base per eseguire codice di addestramento di machine learning (ML) personalizzato in Vertex AI. Per ulteriori informazioni, vedi Creare job di addestramento personalizzati.
  • immagine container personalizzata
    • Un'immagine container personalizzata è un pacchetto eseguibile autonomo che include il codice dell'applicazione dell'utente, il runtime, le librerie, le dipendenze e la configurazione dell'ambiente. Nel contesto di Google Cloud, in particolare Vertex AI, consente all'utente di pacchettizzare il codice di addestramento di machine learning o l'applicazione di serving con le relative dipendenze esatte, garantendo la riproducibilità e consentendo all'utente di eseguire un carico di lavoro su servizi gestiti utilizzando versioni software specifiche o configurazioni uniche non fornite dagli ambienti standard. Per ulteriori informazioni, consulta Requisiti dei container personalizzati per l'inferenza.
  • addestramento personalizzato
    • L'addestramento personalizzato di Vertex AI è un servizio flessibile che consente agli utenti di eseguire le proprie applicazioni di addestramento personalizzato (script o container) sull'infrastruttura Google Cloud, fornendo il controllo sui tipi di macchine e sullo scaling. Per ulteriori informazioni, vedi Panoramica dell'addestramento personalizzato.
  • Dask
    • Dask è una piattaforma di computing distribuito spesso utilizzata con TensorFlow, Pytorch e altri framework ML per gestire i job di addestramento distribuiti. Per ulteriori informazioni, consulta Wikipedia.
  • analisi dei dati
    • Ottenere una comprensione dei dati considerando campioni, misurazioni e visualizzazioni. L'analisi dei dati può essere particolarmente utile quando viene ricevuto un set di dati per la prima volta, prima di creare il primo modello. È fondamentale anche per comprendere gli esperimenti e risolvere i problemi del sistema.
  • aumento dei dati
    • Aumentare artificialmente l'intervallo e il numero di esempi di addestramento trasformando gli esempi esistenti per crearne di aggiuntivi. Ad esempio, supponiamo che le immagini siano una delle tue funzionalità, ma il tuo set di dati non contenga esempi di immagini sufficienti per consentire al modello di apprendere associazioni utili. Idealmente, dovresti aggiungere al set di dati un numero sufficiente di immagini etichettate per consentire al modello di addestrarsi correttamente. Se non è possibile, l'aumento dei dati può ruotare, allungare e riflettere ogni immagine per produrre molte varianti dell'immagine originale, generando possibilmente dati etichettati sufficienti per consentire un addestramento eccellente.
  • DataFrame
    • Un tipo di dati pandas popolare per rappresentare i set di dati in memoria. Un DataFrame è analogo a una tabella o a un foglio di lavoro. Ogni colonna di un DataFrame ha un nome (un'intestazione) e ogni riga è identificata da un numero univoco. Ogni colonna di un DataFrame è strutturata come un array bidimensionale, tranne per il fatto che a ogni colonna può essere assegnato un proprio tipo di dati.
  • set di dati
    • Un set di dati è definito in generale come una raccolta di record di dati strutturati o non strutturati. Una raccolta di dati non elaborati, comunemente (ma non esclusivamente) organizzati in uno dei seguenti formati: un foglio di lavoro, un file in formato CSV (valori separati da virgole). Per saperne di più, vedi Creare un set di dati.
  • decoder
    • In generale, qualsiasi sistema ML che esegue la conversione da una rappresentazione elaborata, densa o interna a una rappresentazione più grezza, sparsa o esterna. I decoder sono spesso un componente di un modello più grande, in cui vengono spesso accoppiati a un encoder. Nelle attività di sequenza-sequenza, un decoder inizia con lo stato interno generato dall'encoder per prevedere la sequenza successiva.
  • rete neurale profonda (DNN)
    • Una rete neurale con più strati nascosti, in genere programmata tramite tecniche di deep learning.
  • depth
    • La somma di quanto segue in una rete neurale: 1. il numero di strati nascosti 2. il numero di strati di output, che in genere è uno 3. il numero di eventuali strati di embedding. Ad esempio, una rete neurale con cinque strati nascosti e uno strato di output ha una profondità di 6. Tieni presente che il livello di input non influisce sulla profondità.
  • DevOps
    • DevOps è una suite di prodotti Google Cloud Platform, ad esempio Artifact Registry e Cloud Deploy.
  • interruzione anticipata
    • Un metodo di regolarizzazione che prevede l'interruzione dell'addestramento prima che la perdita di addestramento termini di diminuire. Nell'interruzione anticipata, l'addestramento del modello viene interrotto intenzionalmente quando la perdita su un set di dati di convalida inizia ad aumentare, ovvero quando le prestazioni di generalizzazione peggiorano.
  • incorporamento
    • Rappresentazioni numeriche di parole o parti di testo. Questi numeri acquisiscono il significato semantico e il contesto del testo. Parole o testi simili o correlati tendono ad avere incorporamenti simili, il che significa che sono più vicini nello spazio vettoriale ad alta dimensione.
  • spazio di embedding (spazio latente)
    • Nell'AI generativa, lo spazio di incorporamento si riferisce a una rappresentazione numerica di testo, immagini o video che acquisisce le relazioni tra gli input. I modelli di machine learning, in particolare quelli di AI generativa, sono esperti nella creazione di questi incorporamenti identificando pattern all'interno di grandi set di dati. Le applicazioni possono utilizzare gli incorporamenti per elaborare e generare il linguaggio, riconoscendo significati complessi e relazioni semantiche specifiche dei contenuti.
  • vettore di embedding
    • Una rappresentazione vettoriale densa, spesso a bassa dimensionalità, di un elemento in modo che, se due elementi sono semanticamente simili, i rispettivi incorporamenti si trovino vicini tra loro nello spazio vettoriale di incorporamento.
  • encoder
    • In generale, qualsiasi sistema ML che converte una rappresentazione non elaborata, sparsa o esterna in una rappresentazione più elaborata, densa o interna. Gli encoder sono spesso un componente di un modello più grande, in cui vengono spesso accoppiati a un decoder. Alcuni transformer accoppiano encoder e decoder, mentre altri utilizzano solo l'encoder o solo il decoder. Alcuni sistemi utilizzano l'output dell'encoder come input per una rete di classificazione o regressione. Nelle attività di sequenza-sequenza, un encoder prende una sequenza di input e restituisce uno stato interno (un vettore). Il decodificatore utilizza quindi questo stato interno per prevedere la sequenza successiva.
  • endpoint
    • Risorse in cui puoi eseguire il deployment di modelli addestrati per fornire inferenze. Per saperne di più, consulta Scegliere un tipo di endpoint.
  • ensemble
    • Una raccolta di modelli addestrati in modo indipendente le cui inferenze vengono calcolate in media o aggregate. In molti casi, un ensemble produce inferenze migliori rispetto a un singolo modello. Ad esempio, una foresta casuale è un insieme costruito da più alberi decisionali. Tieni presente che non tutte le foreste decisionali sono insiemi.
  • environment
    • Nell'apprendimento per rinforzo, il mondo che contiene l'agente e gli consente di osservarne lo stato. Ad esempio, il mondo rappresentato può essere un gioco come gli scacchi o un mondo fisico come un labirinto. Quando l'agente applica un'azione all'ambiente, l'ambiente passa da uno stato all'altro.
  • evaluation (eval)
    • Un'eval, abbreviazione di "valutazione", è un tipo di esperimento in cui le query registrate o sintetiche vengono inviate tramite due stack di ricerca: uno stack sperimentale che include la modifica e uno stack di base senza la modifica. Le valutazioni producono differenze e metriche che ti consentono di valutare l'impatto, la qualità e altri effetti della modifica sui risultati di ricerca e su altre parti dell'esperienza utente di Google. Le valutazioni vengono utilizzate durante l'ottimizzazione o le iterazioni della modifica. Vengono utilizzati anche per lanciare una modifica al traffico degli utenti attivi.
  • event
    • Un evento descrive la relazione tra artefatti ed esecuzioni. Ogni artefatto può essere prodotto da un'esecuzione e utilizzato da altre esecuzioni. Gli eventi ti aiutano a determinare la provenienza degli artefatti nei workflow ML concatenando artefatti ed esecuzioni.
  • esecuzione
    • Un'esecuzione è un record di un singolo passaggio del flusso di lavoro di machine learning, in genere annotato con i relativi parametri di runtime. Esempi di esecuzioni includono l'importazione dati, la convalida dei dati, l'addestramento del modello, la valutazione del modello e il deployment del modello.
  • esperimento
    • Un esperimento è un contesto che può contenere un insieme di n esecuzioni di esperimenti, oltre alle esecuzioni di pipeline in cui un utente può esaminare, come gruppo, diverse configurazioni come artefatti di input o iperparametri.
  • esecuzione dell'esperimento
    • Un'esecuzione specifica e monitorabile all'interno di un esperimento Vertex AI, che registra input (come algoritmo, parametri e set di dati) e output (come modelli, checkpoint e metriche) per monitorare e confrontare le iterazioni di sviluppo ML. Per saperne di più, vedi Creare e gestire le esecuzioni degli esperimenti.
  • Explainable AI
    • Una funzionalità di Vertex AI che fornisce strumenti e funzionalità per comprendere e interpretare le inferenze effettuate dai modelli ML, offrendo approfondimenti sull'importanza delle caratteristiche e sul comportamento del modello. Per ulteriori informazioni, consulta Introduzione a Vertex Explainable AI.
  • analisi esplorativa dei dati
    • In statistica, l'analisi esplorativa dei dati (EDA) è un approccio all'analisi dei set di dati con lo scopo di riassumerne le caratteristiche principali, spesso con metodi visivi. Si può utilizzare o meno un modello statistico, ma principalmente l'EDA serve a vedere cosa possono dirci i dati al di là della modellazione formale o della verifica delle ipotesi.
  • Punteggio F1
    • Il punteggio F1 è una metrica utilizzata per valutare l'accuratezza dell'output di un modello. È particolarmente utile per valutare le prestazioni dei modelli in attività in cui sono importanti sia la precisione che il richiamo, come l'estrazione di informazioni. Per i modelli di AI generativa, il punteggio F1 può essere utilizzato per confrontare le inferenze del modello con i dati empirici reali per determinare l'accuratezza del modello. Tuttavia, per attività generative come il riepilogo e la generazione di testo, potrebbero essere più appropriate altre metriche come il punteggio Rough-L.
  • funzionalità
    • Nel machine learning (ML), una funzionalità è una caratteristica o un attributo di un'istanza o di un'entità che viene utilizzato come input per addestrare un modello di ML o per fare inferenze.
  • feature engineering
    • Il feature engineering è il processo di trasformazione dei dati non elaborati di machine learning (ML) in caratteristiche che possono essere utilizzate per addestrare modelli ML o per fare inferenze.
  • gruppo di funzionalità
    • Un gruppo di caratteristiche è una risorsa del registro di caratteristiche che corrisponde a una tabella o vista di origine BigQuery contenente dati delle caratteristiche. Una visualizzazione delle caratteristiche può contenere caratteristiche e può essere considerata un raggruppamento logico di colonne delle caratteristiche nell'origine dati.
  • record di funzionalità
    • Un record di caratteristiche è un'aggregazione di tutti i valori delle caratteristiche che descrivono gli attributi di un'entità univoca in un momento specifico.
  • registro di caratteristiche
    • Un registro delle caratteristiche è un'interfaccia centrale per registrare le origini dati delle caratteristiche che vuoi utilizzare per le inferenze online. Per ulteriori informazioni, vedi Configurazione del registro delle funzionalità.
  • esportazione delle caratteristiche
    • La distribuzione delle caratteristiche è il processo di esportazione o recupero dei valori delle caratteristiche per l'addestramento o l'inferenza. In Vertex AI esistono due tipi di distribuzione delle funzionalità: online e offline. La pubblicazione online recupera i valori delle caratteristiche più recenti di un sottoinsieme dell'origine dei dati delle caratteristiche per le inferenze online. L'erogazione offline o in batch esporta grandi volumi di dati delle funzionalità, inclusi i dati storici, per l'elaborazione offline, ad esempio l'addestramento del modello ML.
  • timestamp della funzionalità
    • Un timestamp della caratteristica indica quando è stato generato l'insieme di valori della caratteristica in un record di caratteristiche specifico per un'entità.
  • valore della caratteristica
    • Un valore della caratteristica corrisponde al valore effettivo e misurabile di una caratteristica (attributo) di un'istanza o di un'entità. Una raccolta di valori delle caratteristiche per l'entità univoca rappresenta il record delle caratteristiche corrispondente all'entità.
  • visualizzazione delle funzionalità
    • Una visualizzazione delle caratteristiche è una raccolta logica di caratteristiche materializzate da un'origine dati BigQuery a un'istanza di negozio online. Una vista delle funzionalità archivia e aggiorna periodicamente i dati delle funzionalità del cliente, che vengono aggiornati periodicamente dall'origine BigQuery. Una visualizzazione delle caratteristiche è associata all'archiviazione dei dati delle caratteristiche direttamente o tramite associazioni alle risorse del registro delle caratteristiche.
  • modello di base (FM)
    • Modelli addestrati su dati ampi in modo da poter essere adattati (ad esempio, perfezionati) a un'ampia gamma di attività a valle.
  • Operazioni del modello di base (FMOPs)
    • FMOps amplia le funzionalità di MLOps e si concentra sulla produzione efficiente di modelli di base preaddestrati (addestrati da zero) o personalizzati (ottimizzati).
  • SDK dei componenti della pipeline di Google Cloud
    • L'SDK dei componenti della pipeline di Google Cloud (GCPC) fornisce un insieme di componenti Kubeflow Pipelines predefiniti di qualità di produzione, efficienti e facili da usare. Puoi utilizzare i componenti della pipeline di Google Cloud per definire ed eseguire pipeline ML in Vertex AI Pipelines e altri backend di esecuzione di pipeline ML conformi a Kubeflow Pipelines. Per ulteriori informazioni, consulta la Introduzione a Google Cloud Pipeline Components.
  • Google Embedded Modem System (GEMS)
    • GEMS è un framework software incorporato destinato ai modem e un insieme di flussi di lavoro di sviluppo e infrastruttura di accompagnamento. L'obiettivo principale di GEMS è fornire codice di sistema modem di alta qualità con elevata riutilizzabilità su molti dispositivi Google che contengono modem. Per realizzare questa visione generale, GEMS fornisce un ambiente completo per gli sviluppatori, composto dai principali elementi costitutivi illustrati di seguito.
  • gradiente
    • Il vettore delle derivate parziali rispetto a tutte le variabili indipendenti. Nel machine learning, il gradiente è il vettore delle derivate parziali della funzione del modello. La pendenza è orientata nella direzione della salita più ripida.
  • grafico
    • Nel contesto di Vertex AI, un grafico si riferisce a una struttura di dati che rappresenta le relazioni tra le entità e i relativi attributi. Viene utilizzato per modellare e analizzare dati complessi, come grafici della conoscenza, social network e processi aziendali. Per ulteriori informazioni, consulta Introduzione a Vertex ML Metadata.
  • dati di riferimento (GT)
    • La verità di base è un termine utilizzato in vari campi per indicare la verità assoluta di un problema di decisione o misurazione, in contrapposizione alla stima di un sistema. Nel machine learning, il termine "verità di base" si riferisce al set di addestramento per le tecniche di apprendimento supervisionato.
  • euristica
    • Una soluzione semplice e rapida da implementare a un problema. Ad esempio, "Con un'euristica, abbiamo raggiunto un'accuratezza dell'86%. Quando siamo passati a una rete neurale profonda, l'accuratezza è salita al 98%".
  • livello nascosto
    • Uno strato di una rete neurale tra lo strato di input (le funzionalità) e lo strato di output (l'inferenza). Ogni strato nascosto è costituito da uno o più neuroni. Una rete neurale profonda contiene più di uno strato nascosto.
  • Istogramma
    • Una visualizzazione grafica della variazione di un insieme di dati mediante barre. Un istogramma visualizza pattern difficili da rilevare in una semplice tabella di numeri.
  • iperparametro
    • Un iperparametro è una variabile che regola il processo di addestramento di un modello di machine learning. Queste variabili possono includere tassi di apprendimento, valori momentum nell'ottimizzatore e il numero di unità nell'ultimo strato nascosto di un modello. Per ulteriori informazioni, consulta la panoramica dell'ottimizzazione degli iperparametri.
  • ottimizzazione degli iperparametri
    • L'ottimizzazione degli iperparametri in Vertex AI prevede l'esecuzione di più prove di un'applicazione di addestramento con valori diversi per gli iperparametri scelti, impostati entro limiti specificati. L'obiettivo è ottimizzare le impostazioni degli iperparametri per massimizzare l'accuratezza predittiva del modello. Per ulteriori informazioni, consulta la panoramica dell'ottimizzazione degli iperparametri.
  • Autorizzazioni Identity and Access Management (IAM)
    • Le autorizzazioni Identity and Access Management (IAM) sono funzionalità granulari specifiche che definiscono chi può fare cosa su quali risorse Google Cloud. Vengono assegnate alle entità (come utenti, gruppi o service account) tramite i ruoli, consentendo un controllo preciso dell'accesso ai servizi e ai dati all'interno di un progetto o di un'organizzazione Google Cloud. Per saperne di più, consulta Controllo dell'accesso con IAM.
  • riconoscimento delle immagini
    • Il riconoscimento delle immagini è il processo di classificazione di oggetti, pattern o concetti in un'immagine. È noto anche come classificazione delle immagini. Il riconoscimento delle immagini è una branca secondaria del machine learning e della visione artificiale.
  • index
    • Una raccolta di vettori di cui è stato eseguito il deployment insieme per la ricerca di similarità. I vettori possono essere aggiunti o rimossi da un indice. Le query di ricerca per similarità vengono inviate a un indice specifico e cercano i vettori in quell'indice.
  • inferenza
    • Nel contesto della piattaforma Vertex AI, l'inferenza si riferisce al processo di esecuzione di punti dati in un modello di machine learning per calcolare un output, ad esempio un singolo punteggio numerico. Questo processo è noto anche come "operazionalizzazione di un modello di machine learning" o "inserimento di un modello di machine learning in produzione". L'inferenza è un passaggio importante nel flusso di lavoro di machine learning, in quanto consente di utilizzare i modelli per fare inferenze su nuovi dati. In Vertex AI, l'inferenza può essere eseguita in vari modi, tra cui l'inferenza batch e l'inferenza online. L'inferenza batch prevede l'esecuzione di un gruppo di richieste di inferenza e la restituzione dei risultati in un unico file, mentre l'inferenza online consente inferenze in tempo reale su singoli punti dati.
  • information retrieval (IR)
    • Il recupero delle informazioni (IR) è un componente chiave di Vertex AI Search. È il processo di ricerca e recupero di informazioni pertinenti da una vasta raccolta di dati. Nel contesto di Vertex AI, il recupero delle informazioni viene utilizzato per recuperare documenti da un corpus in base alla query di un utente. Vertex AI offre una suite di API per aiutarti a creare le tue applicazioni di Retrieval Augmented Generation (RAG) o il tuo motore di ricerca. Per ulteriori informazioni, consulta Utilizzare Vertex AI Search come backend di recupero utilizzando il motore RAG.
  • Infrastructure as Code (IaC)
    • Infrastructure as Code (IaC). Un approccio per gestire l'infrastruttura IT in cui i team possono gestire ed eseguire il provisioning dei servizi tramite codice. Con IaC, vengono creati file di configurazione che contengono le specifiche dell'infrastruttura, il che semplifica la creazione e la modifica dell'infrastruttura su larga scala.
  • Tasso di apprendimento (dimensione del passo)
    • Il tasso di apprendimento è un iperparametro utilizzato per regolare il processo di ottimizzazione di un modello di machine learning. Determina la dimensione del passo in base alla quale il modello aggiorna i suoi pesi durante l'addestramento. Un tasso di apprendimento più elevato può portare a una convergenza più rapida, ma può causare instabilità o overfitting. Al contrario, un tasso di apprendimento inferiore può portare a una convergenza più lenta, ma può contribuire a prevenire l'overfitting, senza fonti. Per ulteriori informazioni, consulta la panoramica dell'ottimizzazione degli iperparametri.
  • loss (cost)
    • Durante l'addestramento di un modello supervisionato, una misura della distanza tra l'inferenza di un modello e la sua etichetta. Una funzione di perdita calcola la perdita.
  • Metadati di machine learning
    • ML Metadata (MLMD) è una libreria per la registrazione e il recupero dei metadati associati ai flussi di lavoro di sviluppatori ML e data scientist. MLMD è parte integrante di TensorFlow Extended (TFX), ma è progettato in modo da poter essere utilizzato in modo indipendente. Nell'ambito della piattaforma TFX più ampia, la maggior parte degli utenti interagisce con MLMD solo quando esamina i risultati dei componenti della pipeline, ad esempio nei blocchi note o in TensorBoard.
  • set di dati gestito
    • Un oggetto set di dati creato e ospitato da Vertex AI.
  • registrazione manuale
    • Il processo di aggiunta esplicita di codice (ad esempio, utilizzando l'SDK Vertex AI per Python) a uno script di addestramento per monitorare e registrare parametri, metriche e artefatti personalizzati in un'esecuzione di Vertex AI Experiments. Per ulteriori informazioni, consulta la panoramica di monitoraggio e logging.
  • ridimensionamento manuale
    • Lo scaling manuale si riferisce al processo di aggiustamento esplicito e deliberato del numero di risorse di calcolo (come macchine virtuali, container o server) allocate a un'applicazione o a un servizio da un utente o amministratore. A differenza della scalabilità automatica, che regola automaticamente le risorse in base alla domanda, la scalabilità manuale richiede un intervento diretto per eseguire il provisioning o il deprovisioning delle risorse, fornendo un controllo preciso, ma non la reattività dinamica delle soluzioni automatizzate. Per ulteriori informazioni, consulta Scalare i cluster Ray su Vertex AI: scalabilità manuale.
  • risorse di metadati
    • Vertex ML Metadata espone un modello dei dati simile a un grafico per rappresentare i metadati prodotti e consumati dai flussi di lavoro ML. I concetti principali sono artefatti, esecuzioni, eventi e contesti.
  • MetadataSchema
    • Un MetadataSchema descrive lo schema per particolari tipi di artefatti, esecuzioni o contesti. MetadataSchema vengono utilizzati per convalidare le coppie chiave-valore durante la creazione delle risorse Metadata corrispondenti. La convalida dello schema viene eseguita solo sui campi corrispondenti tra la risorsa e MetadataSchema. Gli schemi di tipo sono rappresentati utilizzando oggetti schema OpenAPI, che devono essere descritti utilizzando YAML.
  • MetadataStore
    • Un MetadataStore è il container di primo livello per le risorse di metadati. MetadataStore è regionalizzato e associato a un progetto Google Cloud specifico. In genere, un'organizzazione utilizza un unico MetadataStore condiviso per le risorse di metadati all'interno di ogni progetto.
  • Pipeline di ML
    • Le pipeline ML sono flussi di lavoro ML portatili e scalabili basati su container.
  • model
    • Qualsiasi modello preaddestrato o meno. In generale, qualsiasi costrutto matematico che elabora i dati di input e restituisce l'output. In altre parole, un modello è l'insieme di parametri e della struttura necessari a un sistema per fare inferenze.
  • distillazione del modello (distillazione della conoscenza, modelli insegnante-studente)
    • La distillazione del modello è una tecnica che consente a un modello studente più piccolo di apprendere da un modello insegnante più grande. Il modello studente viene addestrato per imitare l'output del modello insegnante e può quindi essere utilizzato per generare nuovi dati o fare inferenze. La distillazione del modello viene spesso utilizzata per rendere i modelli di grandi dimensioni più efficienti o per renderli più accessibili ai dispositivi con risorse limitate. Può anche essere utilizzato per migliorare la generalizzazione dei modelli riducendo l'overfitting.
  • Valutazione del modello
    • Vertex AI Model Evaluation è un servizio gestito all'interno della piattaforma Vertex AI di Google Cloud che aiuta l'utente a valutare le prestazioni e la qualità dei propri modelli di machine learning. Fornisce strumenti per generare varie metriche e visualizzazioni di valutazione, consentendo all'utente di comprendere il rendimento dei propri modelli, identificare potenziali bias e prendere decisioni informate sul deployment e sul miglioramento dei modelli. Per ulteriori informazioni, consulta Valutazione dei modelli in Vertex AI.
  • Monitoraggio del modello
    • Vertex AI Model Monitoring è un servizio che valuta continuamente le prestazioni dei modelli di cui è stato eseguito il deployment rilevando la distorsione delle funzionalità e la deviazione nelle richieste di previsione, contribuendo a mantenere la qualità del modello nel tempo. Per ulteriori informazioni, consulta Introduzione a Vertex AI Model Monitoring.
  • model resource name
    • Il nome della risorsa per un model è il seguente: projects/<PROJECT_ID>/locations/<LOCATION_ID>/models/<MODEL_ID>. Puoi trovare l'ID del modello nella console Cloud nella pagina Model Registry.
  • Network File System (NFS)
  • offline store
    • Lo store offline è una struttura di archiviazione che memorizza dati delle funzionalità recenti e storici, in genere utilizzati per l'addestramento di modelli di ML. Un archivio offline contiene anche gli ultimi valori delle caratteristiche, che puoi utilizzare per le inferenze online.
  • Inferenza online
    • Ottenere inferenze sulle singole istanze in modo sincrono. Per ulteriori informazioni, consulta la sezione Inferenza online.
  • Previsione online
    • Ottenere previsioni sulle singole istanze in modo sincrono. Per ulteriori informazioni, vedi Previsione online.
  • negozio online
    • Nella gestione delle caratteristiche, un archivio online è una struttura di archiviazione per i valori delle caratteristiche più recenti da utilizzare per le inferenze online.
  • parameter
    • I parametri sono valori di input con chiave che configurano un'esecuzione, ne regolano il comportamento e influiscono sui risultati. Alcuni esempi sono il tasso di apprendimento, il tasso di dropout e il numero di passaggi di addestramento.
  • risorsa permanente
    • Un tipo di risorsa di calcolo Vertex AI, ad esempio un cluster Ray, che rimane allocata e disponibile fino all'eliminazione esplicita, il che è utile per lo sviluppo iterativo e riduce l'overhead di avvio tra i job. Per ulteriori informazioni, vedi Recuperare informazioni sulle risorse permanenti.
  • pipeline
  • componente della pipeline
    • Un insieme di codice autonomo che esegue un passaggio nel flusso di lavoro di una pipeline, ad esempio il pretrattamento dei dati, la trasformazione dei dati e l'addestramento di un modello.
  • job di pipeline
    • Un job pipeline o un'esecuzione della pipeline corrisponde alla risorsa PipelineJob nell'API Vertex AI. È un'istanza di esecuzione della definizione della pipeline ML, definita come un insieme di attività ML interconnesse da dipendenze di input-output.
  • esecuzione della pipeline
    • A un esperimento possono essere associati uno o più Vertex PipelineJob, dove ogni PipelineJob è rappresentato come una singola esecuzione. In questo contesto, i parametri dell'esecuzione vengono dedotti dai parametri di PipelineJob. Le metriche vengono dedotte dagli artefatti system.Metric prodotti da PipelineJob. Gli artefatti dell'esecuzione vengono dedotti dagli artefatti prodotti da PipelineJob.
  • modello di pipeline
    • Una definizione del flusso di lavoro ML che un singolo utente o più utenti possono riutilizzare per creare più esecuzioni della pipeline.
  • classe positiva
    • "Classe positiva" si riferisce al risultato o alla categoria che un modello è addestrato a prevedere. Ad esempio, se un modello prevede se un cliente acquisterà una giacca, la classe positiva sarà "il cliente acquista una giacca". Allo stesso modo, in un modello che prevede la registrazione di un cliente per un deposito a termine, la classe positiva sarebbe "cliente registrato". L'opposto è la "classe negativa".
  • Container predefinito
  • Private Google Access (PGA)
    • L'accesso privato Google consente alle istanze VM con soli indirizzi IP interni (privati) (nessun indirizzo IP esterno) di raggiungere gli indirizzi IP pubblici delle API e dei servizi Google. Per ulteriori informazioni, consulta Configurare l'accesso privato Google.
  • accesso privato ai servizi
    • L'accesso privato ai servizi è una connessione privata tra la tua rete Virtual Private Cloud (VPC) e le reti di proprietà di Google o di fornitori di servizi di terze parti. Consente alle istanze di macchine virtuali (VM) nella tua rete VPC di comunicare con questi servizi utilizzando indirizzi IP interni, evitando l'esposizione a internet pubblico. Per saperne di più, consulta Accesso privato ai servizi.
  • Private Service Connect (PSC)
    • Private Service Connect è una tecnologia che consente ai clienti di Compute Engine di mappare gli IP privati nella propria rete a un'altra rete VPC o alle API di Google. Per ulteriori informazioni, consulta Private Service Connect.
  • Interfaccia Private Service Connect (PSC-I)
    • L'interfaccia Private Service Connect offre ai producer un modo per avviare connessioni a qualsiasi risorsa di rete nel VPC consumer in modo privato.
  • quantizzazione
    • La quantizzazione è una tecnica di ottimizzazione del modello utilizzata per ridurre la precisione dei numeri utilizzati per rappresentare i parametri di un modello. Ciò può portare a modelli più piccoli, a un minore consumo energetico e a una latenza di inferenza ridotta.
  • Random Forest
    • Random Forest è un algoritmo di machine learning utilizzato sia per la classificazione che per la regressione. Non è direttamente un modello di AI generativa, ma è un componente che può essere utilizzato all'interno di un sistema di AI generativa più grande. Una foresta casuale è costituita da più alberi decisionali e la sua inferenza è un'aggregazione delle inferenze di questi singoli alberi. Ad esempio, in un'attività di classificazione, ogni albero "vota" per una classe e l'inferenza finale è la classe con il maggior numero di voti. Per ulteriori informazioni, consulta Decision Forest.
  • API client Ray (Ray Client)
    • Ray Client è un'API che consente a uno script Python locale o a una shell interattiva (come un notebook Jupyter) di connettersi e interagire con un cluster Ray remoto. In sostanza, il client Ray consente agli utenti di sviluppare ed eseguire il codice Ray come se fosse in esecuzione in locale, sfruttando al contempo la potenza di calcolo distribuita di un cluster remoto. Per saperne di più, consulta la panoramica di Ray su Vertex AI.
  • Cluster Ray su Vertex AI
    • Un cluster Ray su Vertex AI è un cluster gestito di nodi di calcolo che può essere utilizzato per eseguire applicazioni di machine learning (ML) e Python distribuite. Fornisce l'infrastruttura per eseguire il computing distribuito e l'elaborazione parallela per il tuo flusso di lavoro ML. I cluster Ray sono integrati in Vertex AI per garantire la disponibilità di capacità per i carichi di lavoro ML critici o durante i periodi di picco. A differenza dei job personalizzati, in cui il servizio di addestramento rilascia la risorsa al termine del job, i cluster Ray rimangono disponibili fino all'eliminazione. Per saperne di più, consulta la panoramica di Ray su Vertex AI.
  • Ray su Vertex AI (RoV)
    • Ray su Vertex AI è progettato in modo da poter utilizzare lo stesso codice Ray open source per scrivere programmi e sviluppare applicazioni su Vertex AI con modifiche minime. Per saperne di più, consulta la panoramica di Ray su Vertex AI.
  • SDK Ray su Vertex AI per Python
    • L'SDK Ray on Vertex AI per Python è una versione dell'SDK Vertex AI per Python che include la funzionalità di Ray Client, del connettore Ray BigQuery, della gestione del cluster Ray su Vertex AI e delle inferenze su Vertex AI. Per ulteriori informazioni, consulta Introduzione all'SDK Vertex AI per Python.
  • richiamo
    • La percentuale di vicini più prossimi effettivi restituiti dall'indice. Ad esempio, se una query sui vicini più prossimi per 20 vicini più prossimi ha restituito 19 dei vicini più prossimi "ground truth", il richiamo è 19/20 x 100 = 95%.
  • Reduction Server
    • Reduction Server è una funzionalità o un componente disponibile in Vertex AI, progettato specificamente per ottimizzare l'addestramento delle GPU distribuite. Il server di riduzione funge da algoritmo di riduzione totale che contribuisce ad aumentare il throughput e a ridurre la latenza per l'addestramento di modelli di machine learning su larga scala. Per saperne di più, consulta Ridurre i tempi di addestramento con Reduction Server.
  • regolarizzazione
    • La regolarizzazione è una tecnica utilizzata per evitare l'overfitting nei modelli di machine learning. L'overfitting si verifica quando un modello apprende troppo bene i dati di addestramento, con conseguente scarso rendimento sui dati non rilevati. Un tipo specifico di regolarizzazione menzionato è l'interruzione anticipata, in cui l'addestramento viene interrotto prima che la perdita su un set di dati di convalida inizi ad aumentare, indicando un calo delle prestazioni di generalizzazione. Per ulteriori informazioni, vedi Overfitting: regolarizzazione L2.
  • restricts
    • Funzionalità per "limitare" le ricerche a un sottoinsieme dell'indice utilizzando regole booleane. La limitazione è anche chiamata "filtraggio". Con la ricerca vettoriale, puoi utilizzare il filtro numerico e il filtro degli attributi di testo.
  • service account
    • I service account sono account Google Cloud speciali utilizzati da applicazioni o macchine virtuali per effettuare chiamate API autorizzate ai servizi Google Cloud. A differenza degli account utente, non sono collegati a una persona fisica, ma fungono da identità per il tuo codice, consentendo l'accesso sicuro e programmatico alle risorse senza richiedere credenziali umane. Per saperne di più, consulta la panoramica dei service account.
  • service agent
    • Un agente di servizio si riferisce a un account di servizio gestito da Google. Viene utilizzato quando un servizio richiede l'accesso a risorse create da un altro servizio. Ad esempio, quando i servizi Dataflow o Dataproc devono creare istanze durante l'runtime o quando una Cloud Function vuole utilizzare Key Management Service (KMS) per proteggere la Cloud Function. Gli agenti di servizio vengono creati automaticamente da Google Cloud quando un servizio li richiede. In genere vengono utilizzati per gestire l'accesso alle risorse ed eseguire varie attività per conto del servizio. Per saperne di più, vedi Agenti di servizio.
  • metriche di riepilogo
    • Le metriche riepilogative sono un singolo valore per ogni chiave metrica in un'esecuzione dell'esperimento. Ad esempio, l'accuratezza del test di un esperimento è l'accuratezza calcolata rispetto a un set di dati di test alla fine dell'addestramento, che può essere acquisita come metrica di riepilogo a valore singolo.
  • TensorBoard
    • TensorBoard è una suite di applicazioni web per visualizzare e comprendere le esecuzioni e i modelli TensorFlow. Per ulteriori informazioni, consulta TensorBoard.
  • Istanza TensorBoard
    • Un'istanza di TensorBoard è una risorsa regionalizzata che archivia gli esperimenti di Vertex AI TensorBoard associati a un progetto. Puoi creare più istanze TensorBoard in un progetto se, ad esempio, vuoi più istanze abilitate a CMEK. Corrisponde alla risorsa TensorBoard nell'API.
  • Nome risorsa TensorBoard
    • Un nome risorsa TensorBoard viene utilizzato per identificare completamente un'istanza Vertex AI TensorBoard. Il formato è il seguente: projects/PROJECT_ID_OR_NUMBER/locations/REGION/tensorboards/TENSORBOARD_INSTANCE_ID.
  • TensorFlow Extended (TFX)
    • TensorFlow Extended (TFX) è una piattaforma end-to-end per il deployment di pipeline di machine learning di produzione basate sulla piattaforma TensorFlow.
  • Container TensorFlow Serving
    • Un'immagine container specializzata progettata per pubblicare in modo efficiente modelli TensorFlow per le inferenze, utilizzata durante il deployment di modelli tabulari personalizzati con Vertex AI Model Monitoring.
  • offset temporale
    • L'offset temporale è relativo all'inizio di un video.
  • segmento di tempo
    • Un segmento temporale è identificato da offset temporali di inizio e fine.
  • metriche delle serie temporali
    • Le metriche delle serie temporali sono valori di metriche longitudinali in cui ogni valore rappresenta un passaggio della routine di allenamento di una corsa. Le metriche delle serie temporali vengono archiviate in Vertex AI TensorBoard. Vertex AI Experiments memorizza un riferimento alla risorsa Vertex TensorBoard.
  • token
    • Un token in un modello linguistico è l'unità atomica su cui il modello esegue l'addestramento e le inferenze, ovvero parole, morfemi e caratteri. Nei domini al di fuori dei modelli linguistici, i token possono rappresentare altri tipi di unità atomiche. Ad esempio, nella computer vision, un token potrebbe essere un sottoinsieme di un'immagine. Per ulteriori informazioni, vedi Elencare e conteggiare i token.
  • training cluster
    • Un cluster di addestramento è un gruppo di risorse di computing interconnesse (come macchine virtuali, GPU e spazio di archiviazione associato) configurate e dedicate specificamente all'esecuzione di carichi di lavoro di addestramento di modelli di machine learning in modo distribuito. Questi cluster sono progettati per fornire la potenza di calcolo e la scalabilità necessarie per addestrare in modo efficiente modelli complessi, spesso sfruttando l'elaborazione parallela su più nodi. Per maggiori informazioni, consulta la sezione Struttura del cluster di addestramento.
  • set di addestramento
    • In Vertex AI, il set di addestramento è la parte più grande dei dati (in genere l'80%) utilizzata per addestrare un modello di machine learning. Il modello apprende i pattern e le relazioni all'interno di questi dati per fare inferenze. Il set di addestramento è distinto dai set di convalida e test, che vengono utilizzati per valutare le prestazioni del modello durante e dopo l'addestramento.
  • traiettoria
    • Una "traiettoria" si riferisce a una sequenza di passaggi o azioni intraprese da un agente o un modello. Viene spesso utilizzato nella valutazione di modelli generativi, in cui viene valutata la capacità del modello di generare testo, codice o altri contenuti. Esistono diversi tipi di metriche della traiettoria che possono essere utilizzate per valutare i modelli generativi, tra cui corrispondenza esatta della traiettoria, corrispondenza in ordine della traiettoria, corrispondenza in qualsiasi ordine della traiettoria e precisione della traiettoria. Queste metriche misurano la somiglianza tra l'output del modello e un insieme di output di riferimento generati da persone.
  • Transformer
    • Un "Transformer" è un'architettura di rete neurale alla base della maggior parte dei modelli generativi all'avanguardia. Viene utilizzato in varie applicazioni di modelli linguistici, tra cui la traduzione. I Transformer sono costituiti da un encoder e un decoder: l'encoder converte il testo di input in una rappresentazione intermedia, mentre il decoder la converte in un output utile. Utilizzano un meccanismo di auto-attenzione per raccogliere il contesto dalle parole che circondano la parola in fase di elaborazione. L'addestramento di un Transformer richiede risorse significative, mentre il perfezionamento di un Transformer preaddestrato per applicazioni specifiche è più efficiente.
  • vero positivo
    • Un "vero positivo" si riferisce a un'inferenza in cui il modello identifica correttamente una classe positiva. Ad esempio, se un modello viene addestrato per identificare i clienti che acquisteranno una giacca, un vero positivo sarebbe la previsione corretta che un cliente effettuerà un acquisto di questo tipo.
  • elementi non gestiti
    • Un artefatto che esiste al di fuori del contesto di Vertex AI.
  • vector
    • Un vettore si riferisce a una rappresentazione numerica di testo, immagini o video che acquisisce le relazioni tra gli input. I modelli di machine learning sono adatti alla creazione di incorporamenti identificando pattern all'interno di set di dati di grandi dimensioni. Le applicazioni possono utilizzare gli embedding per elaborare e produrre il linguaggio, riconoscendo significati complessi e relazioni semantiche specifiche dei contenuti. Per ulteriori informazioni, consulta la panoramica delle API Embeddings.
  • Tipo di dati Vertex AI
    • I tipi di dati di Vertex AI sono "immagine", "testo", "tabulare" e "video".
  • Vertex AI Experiments
    • Vertex AI Experiments consente agli utenti di monitorare quanto segue: 1. Passaggi di un'esecuzione dell'esperimento (ad esempio, pre-elaborazione e addestramento). 2. Input (ad esempio, algoritmo, parametri e set di dati). 3. Output di questi passaggi (ad esempio modelli, checkpoint e metriche).
  • Vertex AI Model Registry
    • Vertex AI Model Registry è un repository centrale in cui puoi gestire il ciclo di vita dei tuoi modelli ML. Da Vertex AI Model Registry, hai una panoramica dei tuoi modelli, in modo da poter organizzare, monitorare e addestrare meglio le nuove versioni. Quando hai una versione del modello di cui vuoi eseguire il deployment, puoi assegnarla a un endpoint direttamente dal registro oppure, utilizzando gli alias, eseguire il deployment dei modelli su un endpoint. Per ulteriori informazioni, consulta Introduzione a Vertex AI Model Registry.
  • SDK Vertex AI Python
    • L'SDK Vertex AI per Python offre funzionalità simili a quelle della libreria client Python di Vertex AI, ad eccezione del fatto che l'SDK è di livello superiore e meno granulare.
  • Vertex AI TensorBoard
    • Vertex AI TensorBoard è un servizio gestito e scalabile su Google Cloud che consente a data scientist e ingegneri ML di visualizzare i propri esperimenti di machine learning, eseguire il debug dell'addestramento dei modelli e monitorare le metriche di rendimento utilizzando la nota interfaccia open source di TensorBoard. Si integra perfettamente con Vertex AI Training e altri servizi, fornendo spazio di archiviazione permanente per i dati degli esperimenti e consentendo l'analisi collaborativa dello sviluppo dei modelli. Per ulteriori informazioni, consulta Introduzione a Vertex AI TensorBoard.
  • Esperimento Vertex AI TensorBoard
    • I dati associati a un esperimento possono essere visualizzati nell'applicazione web TensorBoard (scalari, istogrammi, distribuzioni e così via). Gli scalari delle serie temporali possono essere visualizzati nella Google Cloud Console. Per saperne di più, vedi Confrontare e analizzare le corse.
  • Vertex AI Feature Store
  • Vertex ML Metadata
    • Un sistema per il monitoraggio e l'analisi dei metadati dei flussi di lavoro di machine learning. Per ulteriori informazioni, consulta Introduzione a Vertex ML Metadata.
  • Vertex AI Vizier
    • Un servizio di ottimizzazione black-box per l'ottimizzazione degli iperparametri e di altri parametri. Per ulteriori informazioni, consulta la panoramica di Vertex AI Vizier.
  • Vertex AI Workbench
    • Vertex AI Workbench è un ambiente di sviluppo unificato basato su blocchi note Jupyter che supporta l'intero flusso di lavoro di data science, dall'esplorazione e analisi dei dati allo sviluppo, all'addestramento e al deployment dei modelli. Vertex AI Workbench fornisce un'infrastruttura gestita e scalabile con integrazioni integrate ad altri servizi Google Cloud come BigQuery e Cloud Storage, consentendo ai data scientist di eseguire in modo efficiente le attività di machine learning senza gestire l'infrastruttura sottostante. Per ulteriori informazioni, consulta Introduzione a Vertex AI Workbench.
  • segmento video
    • Un segmento video è identificato dall'offset temporale di inizio e fine di un video.
  • Virtual Private Cloud (VPC)
    • Un virtual cloud privato è un pool on demand e configurabile di risorse di computing condivise allocate in un ambiente cloud pubblico e che fornisce un livello di isolamento tra le diverse organizzazioni che utilizzano queste risorse.
  • Controlli di servizio VPC
    • I Controlli di servizio VPC sono una funzionalità di sicurezza all'interno di Google Cloud che consente alle organizzazioni di creare perimetri sicuri attorno ai propri dati e risorse sensibili per mitigare il rischio di esfiltrazione di dati. I Controlli di servizio VPC lo fanno limitando l'accesso a servizi e dati Google Cloud specificati da reti non autorizzate e impedendo ai dati di spostarsi al di fuori di questi perimetri definiti, fornendo così una solida difesa contro le minacce interne e la perdita accidentale di dati. Per maggiori informazioni, consulta Controlli di servizio VPC.
  • nodo worker
    • Un nodo di lavoro si riferisce a una singola macchina o istanza di calcolo all'interno di un cluster responsabile dell'esecuzione di attività o del lavoro. In sistemi come i cluster Kubernetes o Ray, i nodi sono le unità di calcolo fondamentali.
  • pool di worker
    • Componenti di un cluster Ray che eseguono attività distribuite. I pool di worker possono essere configurati con tipi di macchine specifici e supportano sia la scalabilità automatica sia quella manuale. Per maggiori informazioni, consulta la sezione Struttura del cluster di addestramento.