En este documento se describe cómo ajustar un modelo de Gemini mediante el ajuste fino supervisado.
Antes de empezar
Antes de empezar, debe preparar un conjunto de datos de ajuste fino supervisado. Los requisitos varían en función del caso práctico.
- Preparar un conjunto de datos de texto para el ajuste: Ajuste de texto
- Prepara un conjunto de datos de imágenes para el ajuste: Ajuste de imágenes
- Prepara un conjunto de datos de documentos para el ajuste: Ajuste de documentos
- Prepara un conjunto de datos de audio para el ajuste: Ajuste de audio.
- Prepara un conjunto de datos de vídeo para el ajuste: Ajuste de vídeo
Modelos admitidos
Los siguientes modelos de Gemini admiten el ajuste supervisado:
Crear una tarea de ajuste
Puedes crear una tarea de ajuste fino supervisado mediante la consola de Google Cloud , el SDK de IA generativa de Google, el SDK de Vertex AI para Python, la API REST o Colab Enterprise:
Consola
Para ajustar un modelo de texto con el ajuste fino supervisado mediante la consola Google Cloud , sigue estos pasos:
En la sección Vertex AI de la Google Cloud consola, ve a la página Vertex AI Studio.
Haz clic en Crear modelo ajustado.
En Detalles del modelo, configura lo siguiente:
- En el campo Nombre del modelo ajustado, introduce un nombre para el nuevo modelo ajustado (hasta 128 caracteres).
- En el campo Modelo base, selecciona
gemini-2.5-flash
. - En el campo desplegable Región, selecciona la región en la que se ejecuta el trabajo de ajuste de la canalización y en la que se implementa el modelo ajustado.
En Ajuste, configura lo siguiente:
- En el campo Número de épocas, introduce el número de pasos que se deben ejecutar para ajustar el modelo.
- En el campo Tamaño del adaptador, introduce el tamaño del adaptador que quieras usar para ajustar el modelo.
- En el campo Multiplicador de tasa de aprendizaje, introduce el tamaño del paso en cada iteración. El valor predeterminado es 1. .
Opcional: Para inhabilitar los puntos de control intermedios y usar solo el último, haz clic en el interruptor Exportar solo el último punto de control.
Haz clic en Continuar.
Se abrirá la página Conjunto de datos de ajuste.
Para subir un archivo de conjunto de datos, selecciona una de las siguientes opciones:
- Si aún no ha subido ningún conjunto de datos, seleccione el botón de radio Subir archivo a Cloud Storage.
- En el campo Seleccionar archivo JSONL, haz clic en Examinar y selecciona el archivo de tu conjunto de datos.
- En el campo Ubicación del conjunto de datos, haga clic en Examinar y seleccione el segmento de Cloud Storage en el que quiera almacenar el archivo del conjunto de datos.
- Si el archivo del conjunto de datos ya está en un segmento de Cloud Storage, selecciona el botón de radio Archivo en Cloud Storage.
- En el campo Ruta del archivo de Cloud Storage, haz clic en Examinar y selecciona el segmento de Cloud Storage en el que se encuentra el archivo del conjunto de datos.
(Opcional) Para obtener métricas de validación durante el entrenamiento, haz clic en el interruptor Habilitar validación del modelo.
- En el archivo Validation dataset (Conjunto de datos de validación), introduce la ruta de Cloud Storage de tu conjunto de datos de validación.
Haz clic en Iniciar ajuste.
Tu nuevo modelo aparece en la sección Modelos ajustados de Gemini Pro de la página Ajustar y destilar. Cuando el modelo haya terminado de ajustarse, el Estado será Correcto.
SDK de Google Gen AI
SDK de Vertex AI para Python
REST
Para crear un trabajo de ajuste de un modelo, envía una solicitud POST mediante el método tuningJobs.create
. Algunos parámetros no son compatibles con todos los modelos. Asegúrate de incluir solo los parámetros aplicables al modelo que estés ajustando.
(Opcional) (Vista previa) Incluye el evaluationConfig
para ejecutar una evaluación automáticamente con el servicio de evaluación de IA generativa una vez que se haya completado el trabajo de ajuste. Esta configuración de evaluación está disponible en la región us-central1
.
Antes de usar los datos de la solicitud, haz las siguientes sustituciones:
- PROJECT_ID: tu ID de proyecto.
- TUNING_JOB_REGION: la región en la que se ejecuta el trabajo de ajuste. También es la región predeterminada en la que se sube el modelo ajustado.
- BASE_MODEL: nombre del modelo base que se va a ajustar.
- TRAINING_DATASET_URI: URI de Cloud Storage de tu conjunto de datos de entrenamiento. El conjunto de datos debe tener el formato de un archivo JSONL. Para obtener los mejores resultados, proporcione entre 100 y 500 ejemplos. Para obtener más información, consulta el artículo Acerca de los conjuntos de datos de ajuste supervisado .
- VALIDATION_DATASET_URIOpcional: URI de Cloud Storage del archivo del conjunto de datos de validación.
- EPOCH_COUNTOpcional: número de pases completos que realiza el modelo en todo el conjunto de datos de entrenamiento durante el entrenamiento. No lo defina para usar el valor recomendado rellenado previamente.
- ADAPTER_SIZEOpcional: el tamaño del adaptador que se debe usar en la tarea de ajuste. El tamaño del adaptador influye en el número de parámetros entrenables de la tarea de ajuste. Un tamaño de adaptador mayor implica que el modelo puede aprender tareas más complejas, pero requiere un conjunto de datos de entrenamiento más grande y tiempos de entrenamiento más largos.
- LEARNING_RATE_MULTIPLIER: opcional. Es un multiplicador que se aplica a la tasa de aprendizaje recomendada. Si no lo define, se usará el valor recomendado.
- EXPORT_LAST_CHECKPOINT_ONLYOpcional: Asigna el valor
true
para usar solo el último punto de control. - METRIC_SPECOpcional: una o varias
especificaciones de métricas que estés usando
para llevar a cabo una evaluación con el servicio de evaluación de IA generativa. Puede usar las siguientes especificaciones de métricas:
"pointwise_metric_spec"
,"pairwise_metric_spec"
,"exact_match_spec"
,"bleu_spec"
y"rouge_spec"
. - METRIC_SPEC_FIELD_NAMEOpcional: los campos obligatorios de la especificación de métrica que elijas. Por ejemplo,
"metric_prompt_template"
- METRIC_SPEC_FIELD_NAME_CONTENTOpcional: el contenido del campo
de la especificación de métrica que hayas elegido. Por ejemplo, puedes usar el siguiente contenido de campo para una
evaluación punto a punto:
"Evaluate the fluency of this sentence: {response}. Give score from 0 to 1. 0 - not fluent at all. 1 - very fluent."
- CLOUD_STORAGE_BUCKETOpcional: el segmento de Cloud Storage en el que se almacenarán los resultados de una evaluación realizada por el servicio de evaluación de la IA generativa.
- TUNED_MODEL_DISPLAYNAMEOpcional: nombre visible del modelo ajustado. Si no se define, se genera un nombre aleatorio.
- KMS_KEY_NAMEOpcional: identificador de recurso de Cloud KMS de la clave de cifrado gestionada por el cliente que se usa para proteger un recurso. La clave tiene el formato
projects/my-project/locations/my-region/keyRings/my-kr/cryptoKeys/my-key
. La clave debe estar en la misma región en la que se cree el recurso de computación. Para obtener más información, consulta Claves de cifrado gestionadas por el cliente (CMEK). - SERVICE_ACCOUNTOpcional: la cuenta de servicio con la que se ejecuta la carga de trabajo tuningJob. Si no se especifica, se usa el agente del servicio de ajuste fino seguro de Vertex AI del proyecto. Consulta Ajustar el agente de servicio. Si tienes previsto usar una cuenta de servicio gestionada por el cliente, debes asignar el rol
roles/aiplatform.tuningServiceAgent
a la cuenta de servicio. También debes asignar el rol Agente de servicio de ajusteroles/iam.serviceAccountTokenCreator
a la cuenta de servicio gestionada por el cliente.
Método HTTP y URL:
POST https://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/tuningJobs
Cuerpo JSON de la solicitud:
{ "baseModel": "BASE_MODEL", "supervisedTuningSpec" : { "trainingDatasetUri": "TRAINING_DATASET_URI", "validationDatasetUri": "VALIDATION_DATASET_URI", "hyperParameters": { "epochCount": "EPOCH_COUNT", "adapterSize": "ADAPTER_SIZE", "learningRateMultiplier": "LEARNING_RATE_MULTIPLIER" }, "exportLastCheckpointOnly": EXPORT_LAST_CHECKPOINT_ONLY, "evaluationConfig": { "metrics": [ { "aggregation_metrics": ["AVERAGE", "STANDARD_DEVIATION"], "METRIC_SPEC": { "METRIC_SPEC_FIELD_NAME": METRIC_SPEC_FIELD_CONTENT } }, ], "outputConfig": { "gcs_destination": { "output_uri_prefix": "CLOUD_STORAGE_BUCKET" } }, }, }, "tunedModelDisplayName": "TUNED_MODEL_DISPLAYNAME", "encryptionSpec": { "kmsKeyName": "KMS_KEY_NAME" }, "serviceAccount": "SERVICE_ACCOUNT" }
Para enviar tu solicitud, elige una de estas opciones:
curl
Guarda el cuerpo de la solicitud en un archivo llamado request.json
y ejecuta el siguiente comando:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/tuningJobs"
PowerShell
Guarda el cuerpo de la solicitud en un archivo llamado request.json
y ejecuta el siguiente comando:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/tuningJobs" | Select-Object -Expand Content
Deberías recibir una respuesta JSON similar a la siguiente.
Comando curl de ejemplo
PROJECT_ID=myproject
LOCATION=global
curl \
-X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
"https://${LOCATION}-aiplatform.googleapis.com/v1/projects/${PROJECT_ID}/locations/${LOCATION}/tuningJobs" \
-d \
$'{
"baseModel": "gemini-2.5-flash",
"supervisedTuningSpec" : {
"training_dataset_uri": "gs://cloud-samples-data/ai-platform/generative_ai/gemini/text/sft_train_data.jsonl",
"validation_dataset_uri": "gs://cloud-samples-data/ai-platform/generative_ai/gemini/text/sft_validation_data.jsonl"
},
"tunedModelDisplayName": "tuned_gemini"
}'
Colab Enterprise
Puedes crear un trabajo de ajuste de modelos en Vertex AI mediante el panel lateral de Colab Enterprise. El panel lateral añade los fragmentos de código pertinentes a tu cuaderno. A continuación, modifica los fragmentos de código y ejecútalos para crear tu tarea de ajuste. Para obtener más información sobre cómo usar el panel lateral con tus trabajos de ajuste de Vertex AI, consulta Interactuar con Vertex AI para ajustar un modelo.
-
En la consola, ve a la página Mis cuadernos de Colab Enterprise. Google Cloud
-
En el menú Región, selecciona la región que contiene tu cuaderno.
-
Haz clic en el cuaderno que quieras abrir. Si aún no has creado ningún cuaderno, crea uno.
-
A la derecha del cuaderno, en el panel lateral, haz clic en el botón
Ajuste.El panel lateral despliega la pestaña Ajustes.
-
Haz clic en el botón Ajustar un modelo de Gemini.
Colab Enterprise añade celdas de código a tu cuaderno para ajustar un modelo de Gemini.
-
En tu cuaderno, busca la celda de código que almacena los valores de los parámetros. Usarás estos parámetros para interactuar con Vertex AI.
-
Actualiza los valores de los siguientes parámetros:
-
PROJECT_ID
: el ID del proyecto en el que se encuentra tu cuaderno. -
REGION
: la región en la que se encuentra tu cuaderno. -
TUNED_MODEL_DISPLAY_NAME
: el nombre del modelo ajustado.
-
-
En la siguiente celda de código, actualiza los parámetros de ajuste del modelo:
-
source_model
: el modelo de Gemini que quieras usar. Por ejemplo,gemini-2.0-flash-001
. -
train_dataset
: la URL de tu conjunto de datos de entrenamiento. -
validation_dataset
: URL de su conjunto de datos de validación. - Ajusta los parámetros restantes según sea necesario.
-
-
Ejecuta las celdas de código que el panel lateral ha añadido a tu cuaderno.
-
Después de ejecutar la última celda de código, haz clic en el botón
Ver trabajo de ajuste que aparece. -
En el panel lateral se muestra información sobre el trabajo de ajuste del modelo.
- En la pestaña Monitor se muestran las métricas de ajuste cuando están listas.
- La pestaña Conjunto de datos muestra un resumen y métricas sobre el conjunto de datos una vez que se ha procesado.
- La pestaña Detalles muestra información sobre tu trabajo de ajuste, como el método de ajuste y el modelo base (modelo de origen) que has usado.
-
Una vez que se haya completado el trabajo de ajuste, puedes ir directamente desde la pestaña Detalles del ajuste a una página donde puedes probar tu modelo. Haz clic en Probar.
La consola se abre en la página Chat de texto de Vertex AI, donde puedes probar tu modelo. Google Cloud
Ajustar hiperparámetros
Te recomendamos que envíes tu primera tarea de ajuste sin cambiar los hiperparámetros. El valor predeterminado es el valor recomendado según nuestros resultados de pruebas comparativas para obtener la mejor calidad de salida del modelo.
- Épocas: número de pases completos que realiza el modelo por todo el conjunto de datos de entrenamiento durante el entrenamiento. Vertex AI ajusta automáticamente el valor predeterminado al tamaño de tu conjunto de datos de entrenamiento. Este valor se basa en los resultados de las comparativas para optimizar la calidad de los resultados del modelo.
- Tamaño del adaptador: el tamaño del adaptador que se va a usar en la tarea de ajuste. El tamaño del adaptador influye en el número de parámetros entrenables de la tarea de ajuste. Un tamaño de adaptador mayor implica que el modelo puede aprender tareas más complejas, pero requiere un conjunto de datos de entrenamiento más grande y tiempos de entrenamiento más largos.
- Multiplicador de la tasa de aprendizaje: multiplicador que se aplica a la tasa de aprendizaje recomendada. Puedes aumentar el valor para que la convergencia sea más rápida o disminuirlo para evitar el sobreajuste.
Para consultar las prácticas recomendadas de la optimización supervisada, lee la entrada de blog Supervised Fine Tuning for Gemini: A best practices guide (Optimización supervisada de Gemini: guía de prácticas recomendadas).
Ver una lista de trabajos de ajuste
Puedes ver una lista de las tareas de ajuste de tu proyecto actual mediante laGoogle Cloud consola, el SDK de IA generativa de Google, el SDK de Vertex AI para Python o enviando una solicitud GET con el método tuningJobs
.
Consola
Para ver tus tareas de ajuste en la Google Cloud consola, ve a la página Vertex AI Studio.
Tus trabajos de ajuste de Gemini se muestran en la tabla de la sección Modelos ajustados de Gemini Pro.
SDK de Google Gen AI
SDK de Vertex AI para Python
REST
Para ver una lista de tareas de ajuste de modelos, envía una solicitud GET mediante el método tuningJobs.list
.
Antes de usar los datos de la solicitud, haz las siguientes sustituciones:
- PROJECT_ID: .
- TUNING_JOB_REGION: la región en la que se ejecuta el trabajo de ajuste. También es la región predeterminada en la que se sube el modelo ajustado.
Método HTTP y URL:
GET https://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/tuningJobs
Para enviar tu solicitud, elige una de estas opciones:
curl
Ejecuta el comando siguiente:
curl -X GET \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
"https://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/tuningJobs"
PowerShell
Ejecuta el comando siguiente:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method GET `
-Headers $headers `
-Uri "https://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/tuningJobs" | Select-Object -Expand Content
Deberías recibir una respuesta JSON similar a la siguiente.
Obtener los detalles de una tarea de ajuste
Puedes obtener los detalles de una tarea de ajuste en tu proyecto actual mediante laGoogle Cloud consola, el SDK de IA generativa de Google, el SDK de Vertex AI para Python o enviando una solicitud GET con el método tuningJobs
.
Consola
Para ver los detalles de un modelo ajustado en la Google Cloud consola, ve a la página Vertex AI Studio.
En la tabla Modelos ajustados de Gemini Pro, busca tu modelo y haz clic en Detalles.
Se muestran los detalles de tu modelo.
SDK de Google Gen AI
SDK de Vertex AI para Python
REST
Para ver una lista de tareas de ajuste de modelos, envía una solicitud GET mediante el método tuningJobs.get
y especifica el TuningJob_ID
.
Antes de usar los datos de la solicitud, haz las siguientes sustituciones:
- PROJECT_ID: .
- TUNING_JOB_REGION: la región en la que se ejecuta el trabajo de ajuste. También es la región predeterminada en la que se sube el modelo ajustado.
- TUNING_JOB_ID: ID del trabajo de ajuste.
Método HTTP y URL:
GET https://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/tuningJobs/TUNING_JOB_ID
Para enviar tu solicitud, elige una de estas opciones:
curl
Ejecuta el comando siguiente:
curl -X GET \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
"https://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/tuningJobs/TUNING_JOB_ID"
PowerShell
Ejecuta el comando siguiente:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method GET `
-Headers $headers `
-Uri "https://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/tuningJobs/TUNING_JOB_ID" | Select-Object -Expand Content
Deberías recibir una respuesta JSON similar a la siguiente.
Cancelar una tarea de ajuste
Puedes cancelar una tarea de ajuste en tu proyecto actual mediante la consola o el SDK de Vertex AI para Python, o bien enviando una solicitud POST con el método tuningJobs
. Google Cloud
REST
Para ver una lista de tareas de ajuste de modelos, envía una solicitud GET mediante el método tuningJobs.cancel
y especifica el TuningJob_ID
.
Antes de usar los datos de la solicitud, haz las siguientes sustituciones:
- PROJECT_ID: .
- TUNING_JOB_REGION: la región en la que se ejecuta el trabajo de ajuste. También es la región predeterminada en la que se sube el modelo ajustado.
- TUNING_JOB_ID: ID del trabajo de ajuste.
Método HTTP y URL:
POST https://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/tuningJobs/TUNING_JOB_ID:cancel
Para enviar tu solicitud, elige una de estas opciones:
curl
Ejecuta el comando siguiente:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d "" \
"https://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/tuningJobs/TUNING_JOB_ID:cancel"
PowerShell
Ejecuta el comando siguiente:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-Uri "https://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/tuningJobs/TUNING_JOB_ID:cancel" | Select-Object -Expand Content
Deberías recibir una respuesta JSON similar a la siguiente.
SDK de Vertex AI para Python
Consola
Para cancelar una tarea de ajuste en la Google Cloud consola, ve a la página Vertex AI Studio.
En la tabla Modelos ajustados de Gemini Pro, haga clic en
Gestionar ejecución.Haz clic en Cancelar.
Evaluar el modelo optimizado
Si no has configurado el servicio de evaluación de IA generativa para que se ejecute automáticamente después del trabajo de ajuste, puedes interactuar con el endpoint del modelo ajustado de la misma forma que con el modelo Gemini base. Para ello, usa el SDK de Vertex AI para Python o el SDK de IA generativa de Google, o bien envía una solicitud POST con el método generateContent
.
En el caso de los modelos de pensamiento, como Gemini 2.5 Flash, te recomendamos que asignes un presupuesto de pensamiento de 0 para desactivar el pensamiento en las tareas ajustadas y así optimizar el rendimiento y la rentabilidad. Durante el ajuste fino supervisado, el modelo aprende a imitar la verdad fundamental en el conjunto de datos de ajuste, omitiendo el proceso de pensamiento. Por lo tanto, el modelo ajustado puede gestionar la tarea sin tener que pensar en el presupuesto de forma eficaz.
En el siguiente ejemplo, se le pide a un modelo que responda a la pregunta "¿Por qué el cielo es azul?".
Consola
Para ver los detalles de un modelo ajustado en la Google Cloud consola, ve a la página Vertex AI Studio.
En la tabla Modelos ajustados de Gemini Pro, selecciona Probar.
Se abrirá una página en la que podrás crear una conversación con tu modelo ajustado.
SDK de Google Gen AI
SDK de Vertex AI para Python
from vertexai.generative_models import GenerativeModel
sft_tuning_job = sft.SupervisedTuningJob("projects/<PROJECT_ID>/locations/<TUNING_JOB_REGION>/tuningJobs/<TUNING_JOB_ID>")
tuned_model = GenerativeModel(sft_tuning_job.tuned_model_endpoint_name)
print(tuned_model.generate_content(content))
REST
Para probar un modelo ajustado con una petición, envía una solicitud POST y especifica el TUNED_ENDPOINT_ID
.
Antes de usar los datos de la solicitud, haz las siguientes sustituciones:
- PROJECT_ID: .
- TUNING_JOB_REGION: la región en la que se ejecuta el trabajo de ajuste. También es la región predeterminada en la que se sube el modelo ajustado.
- ENDPOINT_ID: el ID del endpoint del modelo ajustado de la API GET.
- TEMPERATURE:
La temperatura se usa para el muestreo durante la generación de respuestas, que se produce cuando se aplican
topP
ytopK
. La temperatura controla el grado de aleatoriedad en la selección de tokens. Las temperaturas más bajas son adecuadas para las peticiones que requieren una respuesta menos abierta o creativa, mientras que las temperaturas más altas pueden dar lugar a resultados más diversos o creativos. Una temperatura de0
significa que siempre se seleccionan los tokens con la probabilidad más alta. En este caso, las respuestas a una petición determinada son mayormente deterministas, pero sigue siendo posible que haya una pequeña variación.Si el modelo devuelve una respuesta demasiado genérica o demasiado corta, o bien una respuesta alternativa, prueba a aumentar la temperatura.
- TOP_P:
Top-P cambia la forma en que el modelo selecciona los tokens de salida. Los tokens se seleccionan
de más probable a menos probable hasta que la suma de sus probabilidades
sea igual al valor de top-P. Por ejemplo, si los tokens A, B y C tienen una probabilidad de 0,3, 0,2 y 0,1, y el valor de top_p es
0.5
, el modelo seleccionará A o B como el siguiente token usando la temperatura y excluirá C como candidato.Especifica un valor más bajo para obtener respuestas menos aleatorias y un valor más alto para obtener respuestas más aleatorias.
- TOP_K:
Top-K cambia la forma en que el modelo selecciona los tokens de salida. Un valor de K superior de
1
significa que el siguiente token seleccionado es el más probable de todos los tokens del vocabulario del modelo (también llamado decodificación voraz), mientras que un valor de K superior de3
significa que el siguiente token se selecciona de entre los tres tokens más probables mediante la temperatura.En cada paso de selección de tokens, se muestrean los K tokens principales con las probabilidades más altas. Después, los tokens se filtran en función de la probabilidad P máxima y el token final se selecciona mediante un muestreo de temperatura.
Especifica un valor más bajo para obtener respuestas menos aleatorias y un valor más alto para obtener respuestas más aleatorias.
- MAX_OUTPUT_TOKENS:
Número máximo de tokens que se pueden generar en la respuesta. Un token tiene aproximadamente cuatro caracteres. 100 tokens corresponden aproximadamente a entre 60 y 80 palabras.
Especifica un valor inferior para las respuestas más cortas y un valor superior para las respuestas que puedan ser más largas.
Método HTTP y URL:
POST https://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/endpoints/ENDPOINT_ID:generateContent
Cuerpo JSON de la solicitud:
{ "contents": [ { "role": "USER", "parts": { "text" : "Why is sky blue?" } } ], "generation_config": { "temperature":TEMPERATURE, "topP": TOP_P, "topK": TOP_K, "maxOutputTokens": MAX_OUTPUT_TOKENS } }
Para enviar tu solicitud, elige una de estas opciones:
curl
Guarda el cuerpo de la solicitud en un archivo llamado request.json
y ejecuta el siguiente comando:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/endpoints/ENDPOINT_ID:generateContent"
PowerShell
Guarda el cuerpo de la solicitud en un archivo llamado request.json
y ejecuta el siguiente comando:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/endpoints/ENDPOINT_ID:generateContent" | Select-Object -Expand Content
Deberías recibir una respuesta JSON similar a la siguiente.
Eliminar un modelo ajustado
Para eliminar un modelo ajustado, sigue estos pasos:
REST
Llama al método models.delete
.
Antes de usar los datos de la solicitud, haz las siguientes sustituciones:
- PROJECT_ID: .
- REGION: la región en la que se encuentra el modelo ajustado.
- MODEL_ID: el modelo que se va a eliminar.
Método HTTP y URL:
DELETE https://REGION-aiplatform.googleapis.com/v1beta1/projects/PROJECT_ID/locations/REGION/models/MODEL_ID
Para enviar tu solicitud, elige una de estas opciones:
curl
Ejecuta el comando siguiente:
curl -X DELETE \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
"https://REGION-aiplatform.googleapis.com/v1beta1/projects/PROJECT_ID/locations/REGION/models/MODEL_ID"
PowerShell
Ejecuta el comando siguiente:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method DELETE `
-Headers $headers `
-Uri "https://REGION-aiplatform.googleapis.com/v1beta1/projects/PROJECT_ID/locations/REGION/models/MODEL_ID" | Select-Object -Expand Content
Deberías recibir un código de estado que indique que la operación se ha realizado correctamente (2xx) y una respuesta vacía.
SDK de Vertex AI para Python
from google.cloud import aiplatform
aiplatform.init(project=PROJECT_ID, location=LOCATION)
# To find out which models are available in Model Registry
models = aiplatform.Model.list()
model = aiplatform.Model(MODEL_ID)
model.delete()
Métricas de ajuste y validación
Puedes configurar una tarea de ajuste de modelos para recoger y generar informes sobre las métricas de ajuste y evaluación de modelos, que se pueden visualizar en Vertex AI Studio.
Para ver los detalles de un modelo ajustado en la Google Cloud consola, ve a la página Vertex AI Studio.
En la tabla Afinar y destilar, haga clic en el nombre del modelo ajustado del que quiera ver las métricas.
Las métricas de ajuste aparecen en la pestaña Monitor.
Métricas de ajuste de modelos
El trabajo de ajuste del modelo recoge automáticamente las siguientes métricas de ajuste de Gemini 2.0 Flash
:
/train_total_loss
: pérdida del conjunto de datos de ajuste en un paso de entrenamiento./train_fraction_of_correct_next_step_preds
: la precisión del token en un paso de entrenamiento. Una predicción consta de una secuencia de tokens. Esta métrica mide la precisión de los tokens predichos en comparación con la verdad fundamental del conjunto de datos de ajuste./train_num_predictions
: número de tokens previstos en un paso de entrenamiento.
Métricas de validación del modelo
Puedes configurar una tarea de ajuste de modelo para recoger las siguientes métricas de validación
de Gemini 2.0 Flash
:
/eval_total_loss
: pérdida del conjunto de datos de validación en un paso de validación./eval_fraction_of_correct_next_step_preds
: la precisión del token en un paso de validación. Una predicción consta de una secuencia de tokens. Esta métrica mide la precisión de los tokens predichos en comparación con los datos verificados del conjunto de datos de validación./eval_num_predictions
: número de tokens previstos en un paso de validación.
Las visualizaciones de métricas están disponibles después de que se inicie el trabajo de ajuste. Se actualizará en tiempo real a medida que avance la optimización. Si no especifica un conjunto de datos de validación al crear el trabajo de ajuste, solo estarán disponibles las visualizaciones de las métricas de ajuste.
Siguientes pasos
Consulta información sobre cómo implementar un modelo de Gemini ajustado.
Para saber cómo se puede usar el ajuste fino supervisado en una solución que cree una base de conocimientos de IA generativa, consulta Solución de inicio rápido: base de conocimientos de IA generativa.
Consulta cómo ajustar modelos de IA generativa con el ajuste supervisado de Vertex AI.