Progetti, modelli, versioni e job

Molti termini del machine learning (ML) hanno significati diversi in contesti diversi. Questa sezione definisce alcuni termini così come vengono utilizzati in questa documentazione.

Progetti, modelli, versioni e job

Progetto
Il tuo progetto è il tuo progetto Google Cloud. È il contenutore logico per i modelli e i job di cui è stato eseguito il deployment. In ogni progetto che utilizzi per sviluppare soluzioni AI Platform Prediction deve essere attivata la funzionalità AI Platform Prediction. Il tuo Account Google può avere accesso a più progetti Google Cloud.
Modello
Nel machine learning, un modello rappresenta la soluzione a un problema che stai cercando di risolvere. In altre parole, è la ricetta per prevedere un valore dai dati. In AI Platform Prediction, un modello è un contenitore logico per le singole versioni della soluzione. Ad esempio, supponiamo che il problema che vuoi risolvere sia la previsione del prezzo di vendita delle case in base a un insieme di dati sulle vendite precedenti. Creando un modello in AI Platform Prediction denominato housing_prices, provi più tecniche di machine learning per risolvere il problema. In ogni fase, puoi eseguire il deployment di versioni del modello. Ogni versione può essere completamente diversa dalle altre, ma puoi organizzarle nello stesso modello se è adatto al tuo flusso di lavoro.
Modello addestrato
Un modello addestrato include lo stato del modello computazionale e le sue impostazioni dopo l'addestramento.
Modello salvato
La maggior parte dei framework di machine learning può serializzare le informazioni che rappresentano il modello addestrato e creare un file come modello salvato, che puoi implementare per le previsioni nel cloud.
Versione del modello
Una versione del modello, o semplicemente versione, è un'istanza di una soluzione di machine learning memorizzata nel servizio di modelli di AI Platform Prediction. Per creare una versione, passa al servizio un modello addestrato serializzato (come modello salvato). Quando crei una versione, puoi anche fornire codice personalizzato (beta) per gestire le previsioni.
Job
Interagisci con i servizi di AI Platform Prediction avviando richieste e job. Le richieste sono normali richieste API web che restituiscono una risposta il più rapidamente possibile. I job sono operazioni a lunga esecuzione che vengono elaborate in modo asincrono. AI Platform Prediction offre job di addestramento e job di previsione in batch. Invii una richiesta per avviare il job e ricevi una risposta rapida che ne verifica lo stato. Dopodiché puoi richiedere lo stato periodicamente per monitorare l'avanzamento del job.

Pacchettizzazione, staging, esportazione e deployment dei modelli

Sposti modelli e dati, in particolare tra il tuo ambiente locale e Cloud Storage e tra Cloud Storage e i servizi AI Platform Prediction. Questa documentazione utilizza i seguenti termini per indicare operazioni specifiche del processo.

Pacchetto
Pacchi l'applicazione di addestramento in modo che il servizio di addestramento AI Platform Prediction possa installarla in ogni istanza di addestramento. Se pacchettizzi l'applicazione, la trasformi in un pacchetto della distribuzione Python standard. Quando esegui il deployment del codice personalizzato per le previsioni (beta), pacchettizzi anche il codice per la gestione delle previsioni.
Fase
Esegui la gestione temporanea del pacchetto dell'applicazione di addestramento in un bucket Cloud Storage a cui ha accesso il tuo progetto. In questo modo, il servizio di addestramento può accedere al pacchetto e copiarlo in tutte le istanze di addestramento. Esegui la messa in scena di un modello salvato addestrato altrove in un bucket Cloud Storage a cui il tuo progetto ha accesso. In questo modo, il servizio di previsione online può accedere al modello ed eseguirne il deployment. Se esegui il deployment di codice personalizzato per la previsione (beta), esegui anche il commit del pacchetto di codice personalizzato in Cloud Storage in modo che il servizio di previsione online possa accedervi durante il deployment.
Esporta
Nel contesto dei modelli di machine learning, questa documentazione utilizza il termine esportazione per indicare il processo di serializzazione del modello di calcolo e delle impostazioni in un file. Utilizza il modello e gli oggetti salvati per l'esportazione.
Esegui il deployment
Esegui il deploy di una versione del modello quando crei una risorsa di versione. Specifichi un modello esportato (una directory del modello salvata) e una risorsa modello a cui assegnare la versione, che viene ospitata da AI Platform Prediction in modo da potervi inviare le previsioni. Se esegui il deployment di codice personalizzato per la previsione (beta), devi anche fornire un pacchetto di codice personalizzato durante il deployment.

Passaggi successivi