Questa pagina mostra come addestrare un modello di rilevamento di oggetti AutoML da un set di dati di immagini utilizzando la console Google Cloud o l'API Vertex AI.
Addestramento di un modello AutoML
Console Google Cloud
Nella console Google Cloud, nella sezione Vertex AI, vai alla pagina Set di dati.
Fai clic sul nome del set di dati che vuoi utilizzare per addestrare il modello per aprire la relativa pagina dei dettagli.
Fai clic su Addestra nuovo modello.
Per il metodo di addestramento, seleziona
AutoML.Nella sezione Scegli dove utilizzare il modello, scegli la posizione dell'host del modello:
Cloud, Edge o Vertex AI Vision.Fai clic su Continua.
Inserisci un nome per il modello.
Se vuoi impostare manualmente la suddivisione dei dati di addestramento, espandi Opzioni avanzate e seleziona un'opzione di suddivisione dei dati. Scopri di più.
Fai clic su Inizia addestramento.
L'addestramento del modello può richiedere molte ore, a seconda delle dimensioni e della complessità dei dati e del budget di addestramento, se ne hai specificato uno. Puoi chiudere questa scheda e tornarci in un secondo momento. Riceverai un'email al completamento dell'addestramento del modello.
API
Seleziona la scheda di seguito relativa alla tua lingua o al tuo ambiente:
REST
Prima di utilizzare i dati della richiesta, apporta le seguenti sostituzioni:
- LOCATION: regione in cui si trova il set di dati e viene creato il modello. Ad esempio,
us-central1
. - PROJECT: il tuo ID progetto.
- TRAININGPIPELINE_DISPLAYNAME: obbligatorio. Un nome visualizzato per trainingPipeline.
- DATASET_ID: il numero ID del set di dati da utilizzare per l'addestramento.
fractionSplit
: facoltativo. Una delle varie possibili opzioni di suddivisione per l'utilizzo del machine learning per i tuoi dati. PerfractionSplit
, la somma dei valori deve essere uguale a 1. Ad esempio:-
{"trainingFraction": "0.7","validationFraction": "0.15","testFraction": "0.15"}
-
- MODEL_DISPLAYNAME*: un nome visualizzato per il modello caricato (creato) da TrainingPipeline.
- MODEL_DESCRIPTION*: una descrizione del modello.
- modelToUpload.labels*: qualsiasi insieme di coppie chiave-valore per organizzare i modelli. Ad esempio:
- "env": "prod"
- "tier": "backend"
- MODELTYPE†: il tipo di modello ospitato su cloud da addestrare. Le opzioni
sono:
CLOUD_1
: un modello più adatto per l'utilizzo in Google Cloud e che non può essere esportato. Rispetto ai modelli CLOUD_HIGH_ACCURACY_1 e CLOUD_LOW_LATENCY_1 sopra indicati, dovrebbe avere una qualità di previsione superiore e una latenza inferiore.CLOUD_HIGH_ACCURACY_1
: un modello più adatto per l'utilizzo in Google Cloud e che non può essere esportato. Questo modello dovrebbe avere una latenza più elevata, ma anche una qualità di previsione superiore rispetto ad altri modelli cloud.CLOUD_LOW_LATENCY_1
: un modello più adatto per l'utilizzo in Google Cloud e che non può essere esportato. Questo modello dovrebbe avere una bassa latenza, ma potrebbe avere una qualità di previsione inferiore rispetto ad altri modelli cloud.
- NODE_HOUR_BUDGET†: il costo effettivo della formazione sarà uguale o inferiore a questo valore. Per i modelli cloud, il budget deve essere compreso tra 20.000 e 900.000 milli ore nodo (inclusive). Il valore predefinito è 216.000,che rappresenta un giorno in tempo totale di esecuzione, supponendo che vengano utilizzati 9 nodi.
- PROJECT_NUMBER: il numero di progetto generato automaticamente del progetto
* | La descrizione del file dello schema specificata in trainingTaskDefinition descrive
l'utilizzo di questo campo. |
† | Il file dello schema specificato in trainingTaskDefinition dichiara e descrive questo
campo. |
Metodo HTTP e URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/trainingPipelines
Corpo JSON della richiesta:
{ "displayName": "TRAININGPIPELINE_DISPLAYNAME", "inputDataConfig": { "datasetId": "DATASET_ID", "fractionSplit": { "trainingFraction": "DECIMAL", "validationFraction": "DECIMAL", "testFraction": "DECIMAL" } }, "modelToUpload": { "displayName": "MODEL_DISPLAYNAME", "description": "MODEL_DESCRIPTION", "labels": { "KEY": "VALUE" } }, "trainingTaskDefinition": "gs://google-cloud-aiplatform/schema/trainingjob/definition/automl_image_object_detection_1.0.0.yaml", "trainingTaskInputs": { "modelType": ["MODELTYPE"], "budgetMilliNodeHours": NODE_HOUR_BUDGET } }
Per inviare la richiesta, scegli una delle seguenti opzioni:
curl
Salva il corpo della richiesta in un file denominato request.json
,
quindi esegui il comando seguente:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/trainingPipelines"
PowerShell
Salva il corpo della richiesta in un file denominato request.json
,
quindi esegui il comando seguente:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/trainingPipelines" | Select-Object -Expand Content
La risposta contiene informazioni sulle specifiche e sul TRAININGPIPELINE_ID.
Java
Prima di provare questo esempio, segui le istruzioni di configurazione Java riportate nella guida rapida all'utilizzo delle librerie client di Vertex AI. Per ulteriori informazioni, consulta la documentazione di riferimento dell'API Java di Vertex AI.
Per autenticarti a Vertex AI, configura le Credenziali predefinite dell'applicazione. Per maggiori informazioni, consulta Configurare l'autenticazione per un ambiente di sviluppo locale.
Node.js
Prima di provare questo esempio, segui le istruzioni di configurazione Node.js riportate nella guida rapida all'utilizzo delle librerie client di Vertex AI. Per ulteriori informazioni, consulta la documentazione di riferimento dell'API Node.js di Vertex AI.
Per autenticarti a Vertex AI, configura le Credenziali predefinite dell'applicazione. Per maggiori informazioni, consulta Configurare l'autenticazione per un ambiente di sviluppo locale.
Python
Per scoprire come installare o aggiornare l'SDK Vertex AI per Python, consulta Installare l'SDK Vertex AI per Python. Per saperne di più, consulta la documentazione di riferimento dell'API Python.
Controllare la suddivisione dei dati utilizzando REST
Puoi controllare la modalità di suddivisione dei dati di addestramento tra i set di addestramento, convalida e test. Quando utilizzi l'API Vertex AI, utilizza
l'oggetto Split
per determinare
la suddivisione dei dati. L'oggetto Split
può essere incluso nell'oggetto InputConfig
come uno di diversi tipi di oggetti, ognuno dei quali fornisce un modo diverso per suddividere i dati di addestramento. Puoi selezionare un solo metodo.
-
FractionSplit
:- TRAINING_FRACTION: la frazione dei dati di addestramento da utilizzare per il set di addestramento.
- VALIDATION_FRACTION: la frazione dei dati di addestramento da utilizzare per il set di convalida. Non utilizzato per i dati video.
- TEST_FRACTION: la frazione dei dati di addestramento da utilizzare per il set di test.
Se viene specificata una delle frazioni, devono essere specificate tutte. La somma delle frazioni deve essere pari a 1,0. I valori predefiniti per le frazioni variano a seconda del tipo di dati. Scopri di più.
"fractionSplit": { "trainingFraction": TRAINING_FRACTION, "validationFraction": VALIDATION_FRACTION, "testFraction": TEST_FRACTION },
-
FilterSplit
: - TRAINING_FILTER: gli elementi di dati corrispondenti a questo filtro vengono utilizzati per il set di addestramento.
- VALIDATION_FILTER: gli elementi di dati corrispondenti a questo filtro vengono utilizzati per l'insieme di convalida. Deve essere "-" per i dati video.
- TEST_FILTER: gli elementi di dati corrispondenti a questo filtro vengono utilizzati per l'insieme di test.
Questi filtri possono essere utilizzati con l'etichetta ml_use
o con qualsiasi etichetta applicata ai dati. Scopri di più sull'utilizzo
dell'etichetta ml-use
e di altre etichette
per filtrare i dati.
L'esempio seguente mostra come utilizzare l'oggetto filterSplit
con l'etichetta ml_use
, con il set di convalida incluso:
"filterSplit": { "trainingFilter": "labels.aiplatform.googleapis.com/ml_use=training", "validationFilter": "labels.aiplatform.googleapis.com/ml_use=validation", "testFilter": "labels.aiplatform.googleapis.com/ml_use=test" }