Questa pagina mostra come addestrare un modello di rilevamento degli oggetti AutoML da un set di dati di immagini utilizzando la console Google Cloud o l'API Vertex AI.
Addestra un modello AutoML
Google Cloud console
Nella console Google Cloud , nella sezione Vertex AI, vai alla pagina Set di dati.
Fai clic sul nome del set di dati che vuoi utilizzare per addestrare il modello per aprire la pagina dei dettagli.
Fai clic su Addestra nuovo modello.
Per il metodo di addestramento, seleziona
AutoML.Nella sezione Scegli dove utilizzare il modello, scegli la posizione di hosting del modello:
Cloud, Edge o Vertex AI Vision.Fai clic su Continua.
Inserisci un nome per il modello.
Se vuoi impostare manualmente la suddivisione dei dati di addestramento, espandi Opzioni avanzate e seleziona un'opzione di suddivisione dei dati. Scopri di più.
Fai clic su Inizia addestramento.
L'addestramento del modello può richiedere molte ore, a seconda delle dimensioni e della complessità dei dati e del budget di addestramento, se ne hai specificato uno. Puoi chiudere questa scheda e tornarci in un secondo momento. Riceverai un'email al termine dell'addestramento del modello.
API
Seleziona la scheda di seguito per la tua lingua o il tuo ambiente:
REST
Prima di utilizzare i dati della richiesta, apporta le seguenti sostituzioni:
- LOCATION: la regione in cui si trova il set di dati e viene creato il modello. Ad esempio,
us-central1
. - PROJECT: il tuo ID progetto
- TRAININGPIPELINE_DISPLAYNAME: obbligatorio. Un nome visualizzato per trainingPipeline.
- DATASET_ID: il numero ID del set di dati da utilizzare per il training.
fractionSplit
: (Facoltativo). Una delle varie opzioni di divisione possibili per i tuoi dati. PerfractionSplit
, la somma dei valori deve essere pari a 1. Ad esempio:-
{"trainingFraction": "0.7","validationFraction": "0.15","testFraction": "0.15"}
-
- MODEL_DISPLAYNAME*: un nome visualizzato per il modello caricato (creato) da TrainingPipeline.
- MODEL_DESCRIPTION*: una descrizione del modello.
- modelToUpload.labels*: qualsiasi insieme di coppie chiave-valore per organizzare i tuoi
modelli. Ad esempio:
- "env": "prod"
- "tier": "backend"
- MODELTYPE†: il tipo di modello ospitato su cloud da addestrare. Le opzioni
sono:
CLOUD_1
: un modello ideale per l'utilizzo in Google Cloud e che non può essere esportato. Rispetto ai modelli CLOUD_HIGH_ACCURACY_1 e CLOUD_LOW_LATENCY_1 precedenti, si prevede una qualità di previsione superiore e una latenza inferiore.CLOUD_HIGH_ACCURACY_1
: un modello ideale per l'utilizzo in Google Cloud e che non può essere esportato. Questo modello dovrebbe avere una latenza maggiore, ma anche una qualità di previsione superiore rispetto ad altri modelli cloud.CLOUD_LOW_LATENCY_1
: un modello ideale per l'utilizzo in Google Cloud e che non può essere esportato. Questo modello dovrebbe avere una latenza bassa, ma potrebbe avere una qualità di previsione inferiore rispetto ad altri modelli cloud.
- NODE_HOUR_BUDGET†: il costo di addestramento effettivo sarà uguale o inferiore a questo valore. Per i modelli cloud, il budget deve essere compreso tra 20.000 e 900.000 ore nodo (incluse). Il valore predefinito è 216.000,che rappresenta un giorno di tempo totale di esecuzione, supponendo che vengano utilizzati 9 nodi.
- PROJECT_NUMBER: Il numero di progetto generato automaticamente per il tuo progetto
* | La descrizione del file schema specificata in trainingTaskDefinition descrive l'utilizzo di questo campo. |
† | Il file schema specificato in trainingTaskDefinition dichiara e descrive questo
campo. |
Metodo HTTP e URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/trainingPipelines
Corpo JSON della richiesta:
{ "displayName": "TRAININGPIPELINE_DISPLAYNAME", "inputDataConfig": { "datasetId": "DATASET_ID", "fractionSplit": { "trainingFraction": "DECIMAL", "validationFraction": "DECIMAL", "testFraction": "DECIMAL" } }, "modelToUpload": { "displayName": "MODEL_DISPLAYNAME", "description": "MODEL_DESCRIPTION", "labels": { "KEY": "VALUE" } }, "trainingTaskDefinition": "gs://google-cloud-aiplatform/schema/trainingjob/definition/automl_image_object_detection_1.0.0.yaml", "trainingTaskInputs": { "modelType": ["MODELTYPE"], "budgetMilliNodeHours": NODE_HOUR_BUDGET } }
Per inviare la richiesta, scegli una di queste opzioni:
curl
Salva il corpo della richiesta in un file denominato request.json
,
quindi esegui il comando seguente:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/trainingPipelines"
PowerShell
Salva il corpo della richiesta in un file denominato request.json
,
quindi esegui il comando seguente:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/trainingPipelines" | Select-Object -Expand Content
La risposta contiene informazioni sulle specifiche e sul TRAININGPIPELINE_ID.
Java
Prima di provare questo esempio, segui le istruzioni di configurazione di Java nella guida rapida di Vertex AI per l'utilizzo delle librerie client. Per ulteriori informazioni, consulta la documentazione di riferimento dell'API Vertex AI Java.
Per autenticarti in Vertex AI, configura le Credenziali predefinite dell'applicazione. Per ulteriori informazioni, consulta Configura l'autenticazione per un ambiente di sviluppo locale.
Node.js
Prima di provare questo esempio, segui le istruzioni di configurazione di Node.js nella guida rapida di Vertex AI per l'utilizzo delle librerie client. Per ulteriori informazioni, consulta la documentazione di riferimento dell'API Vertex AI Node.js.
Per autenticarti in Vertex AI, configura le Credenziali predefinite dell'applicazione. Per ulteriori informazioni, consulta Configura l'autenticazione per un ambiente di sviluppo locale.
Python
Per scoprire come installare o aggiornare l'SDK Vertex AI Python, consulta Installare l'SDK Vertex AI Python. Per saperne di più, consulta la documentazione di riferimento dell'API Python.
Controllare la suddivisione dei dati utilizzando REST
Puoi controllare come vengono suddivisi i dati di addestramento tra i set di addestramento,
convalida e test. Quando utilizzi l'API Vertex AI, utilizza l'oggetto Split
per determinare la suddivisione dei dati. L'oggetto Split
può essere incluso nell'oggetto InputConfig
come uno dei vari tipi di oggetti, ognuno dei quali fornisce un modo diverso per
dividere i dati di addestramento. Puoi selezionare un solo metodo.
-
FractionSplit
:- TRAINING_FRACTION: La frazione dei dati di addestramento da utilizzare per il set di addestramento.
- VALIDATION_FRACTION: la frazione dei dati di addestramento da utilizzare per il set di convalida. Non utilizzato per i dati video.
- TEST_FRACTION: La frazione dei dati di addestramento da utilizzare per il set di test.
Se viene specificata una delle frazioni, devono essere specificate tutte. La somma delle frazioni deve essere pari a 1,0. I valori predefiniti per le frazioni variano a seconda del tipo di dati. Scopri di più.
"fractionSplit": { "trainingFraction": TRAINING_FRACTION, "validationFraction": VALIDATION_FRACTION, "testFraction": TEST_FRACTION },
-
FilterSplit
: - TRAINING_FILTER: Gli elementi di dati che corrispondono a questo filtro vengono utilizzati per il set di training.
- VALIDATION_FILTER: gli elementi di dati che corrispondono a questo filtro vengono utilizzati per il set di convalida. Deve essere "-" per i dati video.
- TEST_FILTER: Gli elementi di dati che corrispondono a questo filtro vengono utilizzati per il set di test.
Questi filtri possono essere utilizzati con l'etichetta ml_use
o con qualsiasi etichetta che applichi ai tuoi dati. Scopri di più sull'utilizzo
dell'etichetta ml-use
e di altre etichette
per filtrare i dati.
L'esempio seguente mostra come utilizzare l'oggetto filterSplit
con l'etichetta ml_use
, con il set di convalida
incluso:
"filterSplit": { "trainingFilter": "labels.aiplatform.googleapis.com/ml_use=training", "validationFilter": "labels.aiplatform.googleapis.com/ml_use=validation", "testFilter": "labels.aiplatform.googleapis.com/ml_use=test" }