Las tareas de entrenamiento personalizadas (recursos CustomJob
en la API de Vertex AI) son la forma básica de ejecutar tu código de entrenamiento de aprendizaje automático (ML) personalizado en Vertex AI.
Antes de enviar una tarea
Antes de crear un CustomJob
en Vertex AI, debes crear una aplicación de entrenamiento de Python o una imagen de contenedor personalizada para definir el código de entrenamiento y las dependencias que quieras ejecutar en Vertex AI.
Te recomendamos que uses la función autopackaging de la CLI de Google Cloud, que se describe en una sección posterior de esta guía, para crear una imagen de contenedor Docker a partir del código de tu máquina local, transferir esta imagen de contenedor a Artifact Registry y crear un CustomJob
. Todo ello con un solo comando.
De lo contrario, debes crear manualmente una aplicación de entrenamiento de Python o una imagen de contenedor personalizada.
Si no sabes cuál de estas opciones elegir, consulta los requisitos de los códigos de formación para obtener más información.
Qué incluye una tarea personalizada
Cuando creas un trabajo personalizado, especificas los ajustes que necesita Vertex AI para ejecutar tu código de entrenamiento, como los siguientes:
- Un grupo de trabajadores
para el entrenamiento de un solo nodo (
WorkerPoolSpec
) o varios grupos de trabajadores para el entrenamiento distribuido - Ajustes opcionales para configurar la programación de trabajos (
Scheduling
), definir determinadas variables de entorno para el código de entrenamiento, usar una cuenta de servicio personalizada y usar el peering de redes de VPC
En los grupos de trabajadores, puede especificar los siguientes ajustes:
- Tipos de máquinas y aceleradores
- Configuración del tipo de código de entrenamiento que ejecuta el grupo de trabajadores: una aplicación de entrenamiento de Python (
PythonPackageSpec
) o un contenedor personalizado (ContainerSpec
).
También puedes configurar tareas personalizadas para que se ejecuten en un recurso persistente en lugar de crear recursos de computación durante el inicio de la tarea. Para obtener más información sobre los recursos persistentes, consulta el artículo Descripción general de los recursos persistentes.
Configurar el entrenamiento distribuido
Puedes configurar un CustomJob
para el entrenamiento distribuido especificando varios grupos de trabajadores.
La mayoría de los ejemplos de esta página muestran trabajos de entrenamiento de una sola réplica con un solo grupo de trabajadores. Para modificarlos para el entrenamiento distribuido, haz lo siguiente:
- Usa tu primer grupo de trabajadores para configurar tu réplica principal y define el número de réplicas en 1.
- Añade más grupos de trabajadores para configurar réplicas de trabajadores, réplicas de servidores de parámetros o réplicas de evaluadores si tu framework de aprendizaje automático admite estas tareas de clúster adicionales para el entrenamiento distribuido.
Más información sobre el entrenamiento distribuido
Crear un CustomJob
Para crear un CustomJob
,
sigue las instrucciones de una de las siguientes pestañas,
en función de la herramienta que quieras usar. Si usas la CLI de gcloud, puedes usar un solo comando para empaquetar automáticamente el código de entrenamiento en tu máquina local en una imagen de contenedor Docker, enviar la imagen de contenedor a Artifact Registry y crear un CustomJob
. En otras opciones se da por hecho que ya has creado una aplicación de entrenamiento de Python o una imagen de contenedor personalizada.
gcloud
En los siguientes ejemplos se usa el comando gcloud ai custom-jobs create
.
Si tu código de entrenamiento está en tu ordenador local, te recomendamos que sigas la sección Con empaquetado automático. Si ya has creado una aplicación de entrenamiento de Python o una imagen de contenedor personalizada, ve a la sección Sin empaquetado automático.
Con empaquetado automático
Si tienes código de entrenamiento en tu ordenador local, puedes usar un solo comando para hacer lo siguiente:
- Crea una imagen Docker personalizada basada en tu código.
- Envía la imagen a Artifact Registry.
- Inicia una
CustomJob
basada en la imagen.
El resultado es similar a la creación de un CustomJob
con cualquier otro contenedor personalizado. Puedes usar esta versión del comando si te resulta útil en tu flujo de trabajo.
Antes de empezar
Como esta versión del comando compila y envía una imagen de Docker, debes realizar la siguiente configuración en tu ordenador local:
Si usas Linux, configura Docker para que puedas ejecutarlo sin
sudo
.Enable the Artifact Registry API.
Roles required to enable APIs
To enable APIs, you need the Service Usage Admin IAM role (
roles/serviceusage.serviceUsageAdmin
), which contains theserviceusage.services.enable
permission. Learn how to grant roles.Configura la autenticación de Docker para poder enviar imágenes Docker a Artifact Registry:
gcloud auth configure-docker
Compila y envía la imagen Docker, y crea un CustomJob
El siguiente comando crea una imagen de Docker basada en una imagen de contenedor de entrenamiento prediseñada y en tu código Python local, envía la imagen a Artifact Registry y crea un CustomJob
.
gcloud ai custom-jobs create \
--region=LOCATION \
--display-name=JOB_NAME \
--worker-pool-spec=machine-type=MACHINE_TYPE,replica-count=REPLICA_COUNT,executor-image-uri=EXECUTOR_IMAGE_URI,local-package-path=WORKING_DIRECTORY,script=SCRIPT_PATH
Haz los cambios siguientes:
LOCATION: la región en la que se ejecutará el contenedor o el paquete de Python.
JOB_NAME: obligatorio. Nombre visible de la
CustomJob
.MACHINE_TYPE: el tipo de máquina. Consulta los tipos de máquinas disponibles para el entrenamiento.
REPLICA_COUNT: número de réplicas de trabajadores que se deben usar. En la mayoría de los casos, asigna el valor
1
a tu primer grupo de trabajadores.EXECUTOR_IMAGE_URI: el URI de la imagen del contenedor que ejecuta el código proporcionado. Consulta los contenedores precompilados disponibles para el entrenamiento.
Esta imagen actúa como imagen base de la nueva imagen Docker que vas a crear con este comando.
WORKING_DIRECTORY: un directorio de tu sistema de archivos local que contiene la secuencia de comandos del punto de entrada que ejecuta tu código de entrenamiento (consulta el siguiente elemento de la lista).
Puedes usar el directorio principal de la secuencia de comandos o un directorio de nivel superior. Puede que quieras usar un directorio de nivel superior para especificar un nombre de módulo de Python completo (consulta el siguiente elemento de la lista). También puedes usar un directorio de nivel superior si contiene un archivo
requirements.txt
osetup.py
. Para obtener más información, consulta Instalar dependencias.Ten en cuenta que, aunque especifiques un directorio de nivel superior, este comando solo copiará el directorio principal de tu secuencia de comandos del punto de entrada en la imagen de Docker.
SCRIPT_PATH: la ruta, relativa a WORKING_DIRECTORY en tu sistema de archivos local, de la secuencia de comandos que es el punto de entrada de tu código de entrenamiento. Puede ser una secuencia de comandos de Python (que termina en
.py
) o una secuencia de comandos de Bash.Por ejemplo, si quiere ejecutar
/hello-world/trainer/task.py
y WORKING_DIRECTORY es/hello-world
, utilicetrainer/task.py
para este valor.Utiliza
python-module
en lugar descript
.También puedes sustituir
script=SCRIPT_PATH
porpython-module=PYTHON_MODULE
para especificar el nombre de un módulo de Python en WORKING_DIRECTORY que se ejecutará como punto de entrada para el entrenamiento. Por ejemplo, en lugar descript=trainer/task.py
, puedes especificarpython-module=trainer.task
.En este caso, el contenedor Docker resultante carga el código como un módulo en lugar de como una secuencia de comandos. Probablemente quieras usar esta opción si tu secuencia de comandos del punto de entrada importa otros módulos de Python en WORKING_DIRECTORY.
Instalar dependencias
Cuando usas el empaquetado automático, puedes instalar dependencias de Python en tu contenedor de las mismas formas que cuando usas el comando local-run
de la CLI de gcloud. Para obtener información sobre las distintas formas de instalar dependencias de Python, consulta la sección Instalar dependencias de la guía del comando local-run
.
La sintaxis para especificar dependencias es ligeramente diferente cuando se usa el empaquetado automático en comparación con el comando local-run
. En lugar de usar marcas de línea de comandos para especificar las dependencias, debes usar opciones en el valor de la marca --worker-pool-spec
. Además, los valores de estas opciones deben separarse con puntos y comas en lugar de comas. En concreto, la sintaxis:
En lugar de la marca
--local-package-path
del comandolocal-run
, usa la opciónlocal-package-path
en el valor de la marca--worker-pool-spec
. Si el directorio de trabajo que especifiques con esta opción contiene un archivorequirements.txt
osetup.py
, el empaquetado automático instalará las dependencias en función de este archivo.En el ejemplo anterior se muestra esta sintaxis.
(Opcional) En lugar de la marca
--requirements
, usa la opciónrequirements
en el valor de la marca--worker-pool-spec
. En lugar de separar las dependencias de PyPI con comas, usa puntos y comas.(Opcional) En lugar de la marca
--extra-packages
, usa la opciónextra-packages
en el valor de la marca--worker-pool-spec
. En lugar de separar las dependencias locales con comas, usa puntos y comas.(Opcional) En lugar de la marca
--extra-dirs
, usa la opciónextra-dirs
en el valor de la marca--worker-pool-spec
. En lugar de separar las rutas de directorio con comas, utiliza puntos y comas.
En el siguiente ejemplo se muestra cómo instalar dependencias usando todas las técnicas opcionales. Puedes especificar cualquier subconjunto de ellos. Para mostrar la sintaxis de punto y coma, en el ejemplo se especifican dos valores para cada opción. Para reducir la longitud del ejemplo, se han sustituido otras opciones de --worker-pool-spec
por [...]
.
gcloud ai custom-jobs create \
--region=LOCATION \
--display-name=JOB_NAME \
--worker-pool-spec=[...],requirements=PYPI_DEP_1;PYPI_DEP_2,extra-packages=LOCAL_DEP_1;LOCAL_DEP_2,extra-dirs=EXTRA_DIR_1;EXTRA_DIR_2
Para obtener información sobre los valores adecuados para estos marcadores de posición, consulta "Instalar dependencias" en la guía del comando local-run
.
Sin empaquetado automático
Si no usas el empaquetado automático, puedes crear un CustomJob
con un comando similar a uno de los siguientes. En función de si has creado una aplicación de entrenamiento de Python o una imagen de contenedor personalizada, elige una de las siguientes pestañas:
Aplicación de entrenamiento de Python
gcloud ai custom-jobs create \
--region=LOCATION \
--display-name=JOB_NAME \
--python-package-uris=PYTHON_PACKAGE_URIS \
--worker-pool-spec=machine-type=MACHINE_TYPE,replica-count=REPLICA_COUNT,executor-image-uri=EXECUTOR_IMAGE_URI,python-module=PYTHON_MODULE
Haz los cambios siguientes:
- LOCATION: la región en la que se ejecutará el contenedor o el paquete de Python.
-
JOB_NAME: obligatorio. Nombre visible de la
CustomJob
. - PYTHON_PACKAGE_URIS: lista separada por comas de URIs de Cloud Storage que especifican los archivos del paquete de Python que son el programa de entrenamiento y sus paquetes dependientes. El número máximo de URIs de paquetes es 100.
- MACHINE_TYPE: el tipo de máquina. Consulta los tipos de máquinas disponibles para el entrenamiento.
-
REPLICA_COUNT: número de réplicas de trabajadores que se deben usar. En la mayoría de los casos, asigna el valor
1
a tu primer grupo de trabajadores. - EXECUTOR_IMAGE_URI: el URI de la imagen del contenedor que ejecuta el código proporcionado. Consulta los contenedores precompilados disponibles para el entrenamiento.
- PYTHON_MODULE: nombre del módulo de Python que se va a ejecutar después de instalar los paquetes.
Imagen de contenedor personalizada
gcloud ai custom-jobs create \
--region=LOCATION \
--display-name=JOB_NAME \
--worker-pool-spec=machine-type=MACHINE_TYPE,replica-count=REPLICA_COUNT,container-image-uri=CUSTOM_CONTAINER_IMAGE_URI
Haz los cambios siguientes:
- LOCATION: la región en la que se ejecutará el contenedor o el paquete de Python.
-
JOB_NAME: obligatorio. Nombre visible de la
CustomJob
. - MACHINE_TYPE: el tipo de máquina. Consulta los tipos de máquinas disponibles para el entrenamiento.
-
REPLICA_COUNT: número de réplicas de trabajadores que se deben usar. En la mayoría de los casos, asigna el valor
1
a tu primer grupo de trabajadores. - CUSTOM_CONTAINER_IMAGE_URI: URI de una imagen de contenedor en Artifact Registry o Docker Hub que se va a ejecutar en cada réplica de trabajador.
Preparación distribuida
Para llevar a cabo el entrenamiento distribuido, especifica la marca --worker-pool-spec
varias veces, una por cada grupo de trabajadores.
Si usas el empaquetado automático, solo debes especificar local-package-path
,
script
y otras opciones relacionadas con el empaquetado automático en el primer grupo de trabajadores.
Omite los campos relacionados con tu código de entrenamiento en los grupos de trabajadores posteriores, que usarán el mismo contenedor de entrenamiento creado por el empaquetado automático.
Por ejemplo, el siguiente comando adapta un ejemplo anterior de empaquetado automático para usar un segundo grupo de trabajadores:
gcloud ai custom-jobs create \
--region=LOCATION \
--display-name=JOB_NAME \
--worker-pool-spec=machine-type=MACHINE_TYPE,replica-count=REPLICA_COUNT,executor-image-uri=EXECUTOR_IMAGE_URI,local-package-path=WORKING_DIRECTORY,script=SCRIPT_PATH \
--worker-pool-spec=machine-type=SECOND_POOL_MACHINE_TYPE,replica-count=SECOND_POOL_REPLICA_COUNT
Si no utilizas el empaquetado automático, especifica cada grupo de trabajadores por completo e independientemente. No omitas ningún campo.
Los siguientes comandos adaptan los ejemplos anteriores para usar un segundo grupo de trabajadores:
Aplicación de entrenamiento de Python
gcloud ai custom-jobs create \
--region=LOCATION \
--display-name=JOB_NAME \
--python-package-uris=PYTHON_PACKAGE_URIS \
--worker-pool-spec=machine-type=MACHINE_TYPE,replica-count=REPLICA_COUNT,executor-image-uri=EXECUTOR_IMAGE_URI,python-module=PYTHON_MODULE \
--worker-pool-spec=machine-type=SECOND_POOL_MACHINE_TYPE,replica-count=SECOND_POOL_REPLICA_COUNT,executor-image-uri=SECOND_POOL_EXECUTOR_IMAGE_URI,python-module=SECOND_POOL_PYTHON_MODULE
Imagen de contenedor personalizada
gcloud ai custom-jobs create \
--region=LOCATION \
--display-name=JOB_NAME \
--worker-pool-spec=machine-type=MACHINE_TYPE,replica-count=REPLICA_COUNT,container-image-uri=CUSTOM_CONTAINER_IMAGE_URI \
--worker-pool-spec=machine-type=SECOND_POOL_MACHINE_TYPE,replica-count=SECOND_POOL_REPLICA_COUNT,container-image-uri=SECOND_POOL_CUSTOM_CONTAINER_IMAGE_URI
Configuración avanzada
Si quieres especificar opciones de configuración que no estén disponibles en los ejemplos anteriores, puedes usar la marca --config
para especificar la ruta a un archivo config.yaml
en tu entorno local que contenga los campos de CustomJobSpec
. Por ejemplo:
gcloud ai custom-jobs create \
--region=LOCATION \
--display-name=JOB_NAME \
--config=config.yaml
Consulta un ejemplo de config.yaml
archivo.
Consola
En la Google Cloud consola, no puedes crear un recurso CustomJob
directamente.
Sin embargo, puedes crear un recurso TrainingPipeline
que cree un CustomJob
.
En las siguientes instrucciones se describe cómo crear un TrainingPipeline
que cree un CustomJob
y no haga nada más. Si quieres usar TrainingPipeline
funciones adicionales, como entrenar con un conjunto de datos gestionado o crear un recurso Model
al final del entrenamiento, consulta el artículo Crear canalizaciones de entrenamiento.
En la Google Cloud consola, en la sección Vertex AI, ve a la página Flujos de procesamiento de entrenamiento.
Haz clic en
Crear para abrir el panel Entrenar modelo nuevo.En el paso Método de entrenamiento, especifica los siguientes ajustes:
En la lista desplegable Conjunto de datos, selecciona Sin conjunto de datos gestionado.
Selecciona Entrenamiento personalizado (avanzado).
Haz clic en Continuar.
En el paso Detalles del modelo, elija Entrenar nuevo modelo o Entrenar nueva versión. Si seleccionas Entrenar nuevo modelo, introduce el nombre que quieras MODEL_NAME para tu modelo. Haz clic en Continuar.
En el paso Contenedor de entrenamiento, especifique los siguientes ajustes:
Selecciona si quieres usar un contenedor prediseñado o un contenedor personalizado para el entrenamiento.
En función de lo que elijas, haz una de las siguientes acciones:
Si quieres usar un contenedor prediseñado para el entrenamiento, proporciona a Vertex AI la información que necesita para usar el paquete de entrenamiento que has subido a Cloud Storage:
Usa las listas desplegables Framework del modelo y Versión del framework del modelo para especificar el contenedor prediseñado que quieras usar.
En el campo Ubicación del paquete, especifica el URI de Cloud Storage de la aplicación de entrenamiento de Python que has creado y subido. Este archivo suele terminar con
.tar.gz
.En el campo Módulo de Python, introduce el nombre del módulo del punto de entrada de tu aplicación de entrenamiento.
Si quieres usar un contenedor personalizado para el entrenamiento, en el campo Imagen de contenedor, especifica el URI de Artifact Registry o Docker Hub de la imagen de contenedor.
En el campo Directorio de salida del modelo, puedes especificar el URI de Cloud Storage de un directorio de un segmento al que tengas acceso. No es necesario que el directorio ya exista.
Este valor se transfiere a Vertex AI en el campo
baseOutputDirectory
de la API, que define varias variables de entorno a las que puede acceder tu aplicación de entrenamiento cuando se ejecuta.Opcional: En el campo Arguments (Argumentos), puedes especificar los argumentos que Vertex AI debe usar cuando empiece a ejecutar tu código de entrenamiento. La longitud máxima de todos los argumentos combinados es de 100.000 caracteres. El comportamiento de estos argumentos varía en función del tipo de contenedor que utilices:
Si usas un contenedor precompilado, Vertex AI pasará los argumentos como marcas de línea de comandos a tu módulo de Python.
Si usas un contenedor personalizado, Vertex AI sustituye la instrucción
CMD
de tu contenedor por losargumentos.
Haz clic en Continuar.
En el paso Ajuste de hiperparámetros, asegúrate de que la casilla Habilitar ajuste de hiperparámetros no esté marcada. Haz clic en Continuar.
En el paso Computación y precios, especifica los siguientes ajustes:
En la lista desplegable Región, selecciona una región que admita el entrenamiento personalizado.
En la sección Grupo de trabajadores 0, especifica los recursos de computación que quieres usar para el entrenamiento.
Si especificas aceleradores, asegúrate de que el tipo de acelerador que elijas esté disponible en la región seleccionada.
Si quieres llevar a cabo un entrenamiento distribuido, haz clic en Añadir más grupos de trabajo y especifica un conjunto adicional de recursos de computación para cada grupo de trabajo adicional que quieras.
Haz clic en Continuar.
En el paso Contenedor de predicción, selecciona Sin contenedor de predicción.
Haz clic en Iniciar entrenamiento para iniciar la canalización de entrenamiento personalizado.
REST
Antes de usar los datos de la solicitud, haz las siguientes sustituciones:
- LOCATION: la región en la que se ejecutará el contenedor o el paquete de Python.
- PROJECT_ID: tu ID de proyecto.
-
JOB_NAME: obligatorio. Nombre visible de la
CustomJob
. - Define el trabajo de entrenamiento personalizado:
- MACHINE_TYPE: el tipo de máquina. Consulta los tipos de máquinas disponibles para el entrenamiento.
- ACCELERATOR_TYPE: (opcional). Tipo de acelerador que se va a asociar al trabajo.
- ACCELERATOR_COUNT: (opcional). Número de aceleradores que se deben asociar a la tarea.
- DISK_TYPE: (opcional). Tipo de disco de arranque que se va a usar en la tarea. Puede ser
pd-standard
(valor predeterminado) opd-ssd
. Más información sobre los tipos de discos - DISK_SIZE: (opcional). Tamaño en GB del disco de arranque que se va a usar en la tarea. El valor predeterminado es 100.
-
REPLICA_COUNT: número de réplicas de trabajadores que se deben usar. En la mayoría de los casos, asigna el valor
1
a tu primer grupo de trabajadores. - Si tu aplicación de entrenamiento se ejecuta en un contenedor personalizado, especifica lo siguiente:
- CUSTOM_CONTAINER_IMAGE_URI: URI de una imagen de contenedor en Artifact Registry o Docker Hub que se va a ejecutar en cada réplica de trabajador. /li>
- CUSTOM_CONTAINER_COMMAND: (opcional). El comando que se invoca cuando se inicia el contenedor. Este comando anula el punto de entrada predeterminado del contenedor.
- CUSTOM_CONTAINER_ARGS: (opcional). Los argumentos que se deben transferir al iniciar el contenedor.
- Si tu aplicación de entrenamiento es un paquete de Python que se ejecuta en un contenedor prediseñado,
especifica lo siguiente:
- EXECUTOR_IMAGE_URI: el URI de la imagen del contenedor que ejecuta el código proporcionado. Consulta los contenedores precompilados disponibles para el entrenamiento.
- PYTHON_PACKAGE_URIS: lista separada por comas de URIs de Cloud Storage que especifican los archivos del paquete de Python que son el programa de entrenamiento y sus paquetes dependientes. El número máximo de URIs de paquetes es 100.
- PYTHON_MODULE: nombre del módulo de Python que se va a ejecutar después de instalar los paquetes.
- PYTHON_PACKAGE_ARGS: (opcional). Argumentos de línea de comandos que se van a transferir al módulo de Python.
- Consulta las opciones de programación de trabajos.
- TIMEOUT: (opcional). Tiempo máximo de ejecución del trabajo.
- Especifica el LABEL_NAME y el LABEL_VALUE de las etiquetas que quieras aplicar a este trabajo personalizado.
Método HTTP y URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/customJobs
Cuerpo JSON de la solicitud:
{ "displayName": "JOB_NAME", "jobSpec": { "workerPoolSpecs": [ { "machineSpec": { "machineType": MACHINE_TYPE, "acceleratorType": ACCELERATOR_TYPE, "acceleratorCount": ACCELERATOR_COUNT }, "replicaCount": REPLICA_COUNT, "diskSpec": { "bootDiskType": DISK_TYPE, "bootDiskSizeGb": DISK_SIZE }, // Union field task can be only one of the following: "containerSpec": { "imageUri": CUSTOM_CONTAINER_IMAGE_URI, "command": [ CUSTOM_CONTAINER_COMMAND ], "args": [ CUSTOM_CONTAINER_ARGS ] }, "pythonPackageSpec": { "executorImageUri": EXECUTOR_IMAGE_URI, "packageUris": [ PYTHON_PACKAGE_URIS ], "pythonModule": PYTHON_MODULE, "args": [ PYTHON_PACKAGE_ARGS ] } // End of list of possible types for union field task. } // Specify one workerPoolSpec for single replica training, or multiple workerPoolSpecs // for distributed training. ], "scheduling": { "timeout": TIMEOUT } }, "labels": { LABEL_NAME_1": LABEL_VALUE_1, LABEL_NAME_2": LABEL_VALUE_2 } }
Para enviar tu solicitud, elige una de estas opciones:
curl
Guarda el cuerpo de la solicitud en un archivo llamado request.json
y ejecuta el siguiente comando:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/customJobs"
PowerShell
Guarda el cuerpo de la solicitud en un archivo llamado request.json
y ejecuta el siguiente comando:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/customJobs" | Select-Object -Expand Content
La respuesta contiene información sobre las especificaciones, así como el elemento JOB_ID.
Java
Antes de probar este ejemplo, sigue las Java instrucciones de configuración de la guía de inicio rápido de Vertex AI con bibliotecas de cliente. Para obtener más información, consulta la documentación de referencia de la API Java de Vertex AI.
Para autenticarte en Vertex AI, configura las credenciales predeterminadas de la aplicación. Para obtener más información, consulta el artículo Configurar la autenticación en un entorno de desarrollo local.
Node.js
Antes de probar este ejemplo, sigue las Node.js instrucciones de configuración de la guía de inicio rápido de Vertex AI con bibliotecas de cliente. Para obtener más información, consulta la documentación de referencia de la API Node.js de Vertex AI.
Para autenticarte en Vertex AI, configura las credenciales predeterminadas de la aplicación. Para obtener más información, consulta el artículo Configurar la autenticación en un entorno de desarrollo local.
Python
Para saber cómo instalar o actualizar el SDK de Vertex AI para Python, consulta Instalar el SDK de Vertex AI para Python. Para obtener más información, consulta la documentación de referencia de la API Python.
Siguientes pasos
- Descubre cómo identificar los cuellos de botella del rendimiento del entrenamiento para entrenar modelos más rápido y a un coste menor con Cloud Profiler.
- Consulta Crear flujos de procesamiento de entrenamiento para obtener información sobre cómo crear flujos de procesamiento de entrenamiento para ejecutar aplicaciones de entrenamiento personalizadas en Vertex AI.
- Consulta cómo programar trabajos de entrenamiento personalizados en función de la disponibilidad de los recursos.