Como científico de datos, este un flujo de trabajo común: entrenar un modelo de forma local (en mi notebook), registrar los parámetros, registrar las métricas de serie temporal de entrenamiento en Vertex AI TensorBoard y registrar las métricas de evaluación.
Como científico de datos, quiero poder reutilizar el código de procesamiento previo de datos que otras personas dentro de mi empresa escribieron para simplificar y estandarizar toda la transformación de datos compleja que hacemos. Quiero poder hacer lo siguiente:
- Usar una biblioteca de procesamiento previo de datos de Python para limpiar un conjunto de datos en la memoria (un Dataframe de Pandas) en un notebook.
- Entrenar un modelo con Keras (de nuevo en un notebook)
Notebook: experimentación de modelos con datos procesados previamente
En el notebook “Compila el linaje de Vertex AI Experiment para el entrenamiento personalizado”, aprenderás a integrar el código de procesamiento previo en Vertex AI Experiments. Además, compilarás el linaje del experimento que te permite registrar, analizar, depurar y auditar los metadatos y artefactos producidos a lo largo de tu recorrido por el AA.
Puedes ver el linaje de artefactos en la consola de Google Cloud.