Vertex AI per gli utenti di AI Platform

Vertex AI riunisce AI Platform e AutoML in un'unica interfaccia. Questa pagina mette a confronto Vertex AI e AI Platform per gli utenti che hanno dimestichezza con AI Platform.

Addestramento personalizzato

Con Vertex AI, puoi addestrare i modelli con AutoML o eseguire addestramento personalizzato, un flusso di lavoro più simile all'AI Platform Training.

Attività AI Platform Training Vertex AI
Seleziona la versione del framework di machine learning da utilizzare Gli utenti della console Google Cloud impostano il nome e la versione del framework.
Versioni di runtime: quando invii un job di addestramento, specifica il numero di una versione di runtime che includa il framework e la relativa versione che preferisci. Container predefiniti: quando invii un job di addestramento personalizzato, specifica l'URI di Artifact Registry di un container predefinito che corrisponde al tuo framework e alla relativa versione.
Invia un job di addestramento utilizzando un container personalizzato Crea il tuo container personalizzato, ospitalo su Artifact Registry e utilizzalo per eseguire l'app di addestramento.
Imposta la regione Google Cloud da utilizzare Specifica il nome di una regione quando invii un job di addestramento a un endpoint globale (ml.googleapis.com). Invia il job di addestramento personalizzato a un endpoint regionale, ad esempio us-central1-aiplatform.googleapis.com. Non esiste un endpoint globale. Alcune regioni disponibili in AI Platform non sono disponibili in Vertex AI. Consulta l'elenco delle regioni supportate nella pagina Località.
Specifica le configurazioni delle macchine per l'addestramento distribuito Specifica le configurazioni con nomi che fanno riferimento a ruoli specifici del cluster di addestramento (masterConfig, workerConfig, parameterServerConfig e evaluatorConfig). La configurazione è un elenco generico: specifica le configurazioni delle macchine in CustomJobSpec.workerPoolSpecs[].
Invia un job di addestramento utilizzando un pacchetto Python I campi relativi al tuo pacchetto Python sono di primo livello all'interno di TrainingInput. I campi relativi al tuo pacchetto Python sono organizzati all'interno di pythonPackageSpec.
Specifica i tipi di macchina
Invio di un job di ottimizzazione degli iperparametri Invia un job di addestramento con una configurazione hyperparameters. Indipendentemente dal fatto che un job di addestramento venga inviato con o senza ottimizzazione degli iperparametri, viene creata una risorsa API TrainingJob. Invia un job di ottimizzazione degli iperparametri con una configurazione studySpec. Viene creata una risorsa API di primo livello (HyperparameterTuningJob). I job di addestramento personalizzati inviati senza ottimizzazione degli iperparametri creano una risorsa API CustomJob di primo livello.
Crea una pipeline di addestramento per orchestrare i job di addestramento con altre operazioni Nessuna risorsa API integrata per l'orchestrazione. Utilizza AI Platform Pipelines, Kubeflow o un altro strumento di orchestrazione. Crea una risorsa TrainingPipeline per orchestrare un job di addestramento con il deployment del modello.

Previsione

Attività AI Platform Prediction Vertex AI
Seleziona la versione del framework di machine learning da utilizzare Gli utenti della console Google Cloud impostano il nome e la versione del framework.
Versioni di runtime: quando esegui il deployment di un modello, specifica il numero di una versione di runtime che includa il framework e la relativa versione che preferisci. Container predefiniti: quando esegui il deployment di un modello, specifica l'URI di Artifact Registry di un contenitore predefinito che corrisponde al tuo framework e alla relativa versione. Utilizza l'opzione multiregionale corrispondente all'endpoint regionale, ad esempio us-docker.pkg.dev per un endpoint us-central1.
Eseguire codice personalizzato con la previsione Utilizza routine di previsione personalizzate. Utilizza routine di previsione personalizzate su Vertex AI.
Imposta la regione Google Cloud da utilizzare Specifica il nome di una regione quando crei un modello su un endpoint API globale (ml.googleapis.com). Crea il tuo modello su un endpoint regionale, ad esempio us-central1-aiplatform.googleapis.com. Non esiste un endpoint globale. Alcune regioni disponibili in AI Platform non sono disponibili in Vertex AI. Consulta l'elenco delle regioni supportate nella pagina Località.
Memorizzare gli artefatti del modello Gli artefatti del modello vengono archiviati in Cloud Storage. Non è associata alcuna risorsa API per gli elementi del modello. È disponibile spazio di archiviazione dei modelli gestito per gli artefatti del modello ed è associato alla risorsa Model.
Puoi comunque eseguire il deployment dei modelli archiviati in Cloud Storage senza utilizzare un set di dati gestito da Vertex AI.
Deployment del modello Esegui il deployment di un modello direttamente per renderlo disponibile per le previsioni online. Crea un oggetto Endpoint, che fornisce risorse per la pubblicazione di previsioni online. Poi esegui il deployment del modello nell'endpoint. Per richiedere le previsioni, chiami il metodo predict().
Richiedere previsioni batch Puoi richiedere previsioni batch sui modelli archiviati in Cloud Storage e specificare una versione di runtime nella richiesta. In alternativa, puoi richiedere previsioni batch sui modelli di cui è stato eseguito il deployment e utilizzare la versione di runtime specificata durante il deployment del modello. Carichi il modello su Vertex AI e poi specifichi un container predefinito o un container personalizzato per pubblicare le previsioni.
Richieste di previsione online La struttura JSON include un elenco di istanze. La struttura JSON include un elenco di istanze e un campo per i parametri.
Specifica i tipi di macchina Specifica qualsiasi tipo di macchina disponibile quando crei una versione. I tipi di macchine di previsione online legacy di AI Platform (MLS1) non sono supportati. Sono disponibili solo tipi di macchine Compute Engine .
Deployment modelli Crea una risorsa modello e poi una risorsa versione. Crea una risorsa modello, una risorsa endpoint ed esegui il deployment del modello nell'endpoint. Specifica la suddivisione del traffico nell'endpoint.

Vertex Explainable AI

Puoi ottenere le attribuzioni delle funzionalità per i modelli tabulari e di immagini sia in AI Explanations per AI Platform sia in Vertex Explainable AI.

Attività AI Explanations per AI Platform Vertex Explainable AI
Ottenere le attribuzioni delle caratteristiche per i modelli tabulari Utilizza il valore di Shapley campionato o i gradienti integrati per ottenere le attribuzioni delle funzionalità per i modelli tabulari.
Ottenere attribuzioni delle caratteristiche per i modelli di immagini Utilizza i gradienti integrati o XRAI per ottenere le attribuzioni delle funzionalità per i modelli di immagini.