Registra automaticamente i dati in un'esecuzione dell'esperimento

Il logging automatico è una funzionalità dell'SDK Vertex AI che registra automaticamente parametri e metriche delle esecuzioni di addestramento dei modelli in Vertex AI Experiments. In questo modo puoi risparmiare tempo ed evitare di dover registrare manualmente questi dati. Al momento, il logging automatico supporta solo il logging dei parametri e delle metriche.

Dati di registrazione automatica

Esistono due opzioni per il logging automatico dei dati in Vertex AI Experiments.

  1. Consenti all'SDK Vertex AI di creare automaticamente le risorse ExperimentRun.
  2. Specifica la risorsa ExperimentRun in cui vuoi scrivere i parametri e le metriche registrati automaticamente.

Creato automaticamente

L'SDK Vertex AI per Python gestisce la creazione delle risorse ExperimentRun. Le risorse ExperimentRun create automaticamente avranno un nome di esecuzione nel seguente formato: {ml-framework-name}-{timestamp}-{uid}, ad esempio: "tensorflow-2023-01-04-16-09-20-86a88".

L'esempio seguente utilizza il metodo init, dalle funzioni del pacchetto aiplatform.

Python

from typing import Optional, Union

from google.cloud import aiplatform


def autologging_with_auto_run_creation_sample(
    experiment_name: str,
    project: str,
    location: str,
    experiment_tensorboard: Optional[Union[str, aiplatform.Tensorboard]] = None,
):
    aiplatform.init(
        experiment=experiment_name,
        project=project,
        location=location,
        experiment_tensorboard=experiment_tensorboard,
    )

    aiplatform.autolog()

    # Your model training code goes here

    aiplatform.autolog(disable=True)

  • experiment_name: fornisci un nome per l'esperimento. Puoi trovare il tuo elenco di esperimenti nella console Google Cloud selezionando Esperimenti nel riquadro di navigazione della sezione.
  • experiment_tensorboard: (Facoltativo) Fornisci un nome per l'istanza Vertex AI TensorBoard.
  • project: il tuo ID progetto. Puoi trovare questi ID progetto nella pagina di benvenuto della console Google Cloud.
  • location: consulta l'elenco delle località disponibili

Specificato dall'utente

Fornisci i tuoi nomi ExperimentRun e registra le metriche e i parametri di più esecuzioni di addestramento del modello nella stessa esecuzione ExperimentRun. Eventuali metriche del modello all'esecuzione corrente impostate chiamando aiplatform.start_run("your-run-name") fino a quando aiplatform.end_run() non viene chiamato.

L'esempio seguente utilizza il metodo init, dalle funzioni del pacchetto aiplatform.

Python

from typing import Optional, Union

from google.cloud import aiplatform


def autologging_with_manual_run_creation_sample(
    experiment_name: str,
    run_name: str,
    project: str,
    location: str,
    experiment_tensorboard: Optional[Union[str, aiplatform.Tensorboard]] = None,
):
    aiplatform.init(
        experiment=experiment_name,
        project=project,
        location=location,
        experiment_tensorboard=experiment_tensorboard,
    )

    aiplatform.autolog()

    aiplatform.start_run(run=run_name)

    # Your model training code goes here

    aiplatform.end_run()

    aiplatform.autolog(disable=True)

  • experiment_name: fornisci il nome dell'esperimento.
  • run_name: fornisci un nome per l'esecuzione dell'esperimento. Puoi trovare l'elenco degli esperimenti nella console Google Cloud selezionando Esperimenti nel riquadro di navigazione della sezione.
  • project: il tuo ID progetto. Puoi trovare questi ID progetto nella pagina di benvenuto della console Google Cloud.
  • location: consulta l'elenco delle località disponibili
  • experiment_tensorboard: (Facoltativo) Fornisci un nome per l'istanza Vertex AI TensorBoard.

Il logging automatico dell'SDK Vertex AI utilizza il logging automatico di MLFlow nella sua implementazione. Quando il logging automatico è attivo, le metriche e i parametri di valutazione dei seguenti framework vengono registrati in ExperimentRun.

  • Fastai
  • Gluone
  • Keras
  • LightGBM
  • PyTorch Lightning
  • Scikit-learn
  • Spark
  • Statsmodels
  • XGBoost

Visualizzare i parametri e le metriche registrati automaticamente

Utilizza l'SDK Vertex AI per Python per confrontare le esecuzioni e recuperare i dati delle esecuzioni. La console Google Cloud offre un modo semplice per confrontare queste esecuzioni.

Esempio di notebook pertinente

Blog post