O ajuste fino supervisionado é uma boa opção quando você tem uma tarefa bem definida com dados rotulados disponíveis. Ele é particularmente eficaz para aplicativos específicos de domínio em que a linguagem ou o conteúdo é significativamente diferente dos dados para os quais o modelo grande foi originalmente treinado. É possível ajustar os tipos de dados texto, imagem, áudio e documento.
O ajuste de detalhes supervisionado adapta o comportamento do modelo com um conjunto de dados rotulado. Esse processo ajusta os pesos do modelo para minimizar a diferença entre as previsões e os rótulos reais. Por exemplo, ele pode melhorar o desempenho do modelo para os seguintes tipos de tarefas:
- Classificação
- Resumo
- Respostas a perguntas extrativas
- Chat
Para uma discussão sobre os principais casos de uso de ajuste, confira a postagem do blog Centenas de organizações estão ajustando os modelos do Gemini. Confira os casos de uso favoritos deles.
Para saber mais, consulte Quando usar o ajuste supervisionado de detalhes para o Gemini.
Modelos compatíveis
Os seguintes modelos do Gemini são compatíveis com ajuste supervisionado:
Gemini 2.0 Flash-Lite
Gemini 2.0 Flash
Gemini 1.5 Flash
Gemini 1.5 Pro
Limitações
Flash-Lite
Especificação | Valor |
---|---|
Máximo de tokens de treinamento de entrada e saída | 131.072 |
Tokens de veiculação de entrada e saída máximos | 131.072 |
Tamanho máximo do conjunto de dados de validação | 5.000 exemplos |
Tamanho máximo do arquivo do conjunto de dados de treinamento | 1 GB para JSONL |
Tamanho máximo do conjunto de dados de treinamento | 1 milhão de exemplos somente de texto ou 300 mil exemplos multimodais |
Tamanho do adaptador | Os valores aceitos são 1, 2, 4 e 8. |
Gemini 2.0 Flash
Especificação | Valor |
---|---|
Máximo de tokens de treinamento de entrada e saída | 131.072 |
Tokens de veiculação de entrada e saída máximos | 131.072 |
Tamanho máximo do conjunto de dados de validação | 5.000 exemplos |
Tamanho máximo do arquivo do conjunto de dados de treinamento | 1 GB para JSONL |
Tamanho máximo do conjunto de dados de treinamento | 1 milhão de exemplos somente de texto ou 300 mil exemplos multimodais |
Tamanho do adaptador | Os valores aceitos são 1, 2, 4 e 8. |
Gemini 1.5 Flash
Especificação | Valor |
---|---|
Máximo de tokens de treinamento de entrada e saída | 131.072 |
Tokens de veiculação de entrada e saída máximos | 131.072 |
Tamanho máximo do conjunto de dados de validação | 5.000 exemplos |
Tamanho máximo do arquivo do conjunto de dados de treinamento | 1 GB para JSONL |
Tamanho máximo do conjunto de dados de treinamento | 1 milhão de exemplos somente de texto ou 300 mil exemplos multimodais |
Tamanho do adaptador | Os valores aceitos são 1, 4 e 8 (o padrão é 8). |
Gemini 1.5 Pro
Especificação | Valor |
---|---|
Máximo de tokens de treinamento de entrada e saída | 32.768 |
Máximo de tokens de veiculação de entrada e saída | 32.768 |
Tamanho máximo do conjunto de dados de validação | 5.000 exemplos |
Tamanho máximo do arquivo do conjunto de dados de treinamento | 1 GB para JSONL |
Tamanho máximo do conjunto de dados de treinamento | 1 milhão de exemplos somente de texto ou 300 mil exemplos multimodais |
Tamanho do adaptador | Os valores aceitos são 1 e 4 (o padrão é 4). O uso de valores mais altos (por exemplo, 8 ou 16) resulta em falha. |
Problemas conhecidos
- Um modelo Gemini ajustado não pode ser excluído do Vertex AI Model Registry. No entanto, enquanto estiver inativo, ele não vai gerar custos de inferência.
- A aplicação da geração controlada ao enviar solicitações de inferência para modelos ajustados do Gemini pode resultar na redução da qualidade do modelo devido ao desajuste de dados durante o ajuste e a inferência. Durante o ajuste, a geração controlada não é aplicada. Portanto, o modelo ajustado não consegue processar bem a geração controlada no momento da inferência. O ajuste fino supervisionado personaliza de maneira eficaz o modelo para gerar uma saída estruturada. Portanto, não é necessário aplicar a geração controlada ao fazer solicitações de inferência em modelos ajustados.
Casos de uso do ajuste de detalhes supervisionado
Os modelos de fundação funcionam bem quando a saída ou a tarefa esperada pode ser definida de maneira clara e concisa em um prompt e ele produza a saída esperada de maneira consistente. Se você quiser que um modelo aprenda algo nichado ou específico que se desloque dos padrões gerais, convém ajustar esse modelo. Por exemplo, é possível usar o ajuste de modelo para ensinar o modelo a seguir:
- Estruturas ou formatos específicos para gerar resultados.
- Comportamentos específicos, como quando fornecer uma resposta final ou detalhada.
- Resultados personalizados específicos para tipos específicos de entradas.
Os exemplos a seguir são casos de uso difíceis de capturar apenas com instruções imediatas:
Classificação: a resposta esperada é uma palavra ou frase específica.
Ajustar o modelo pode impedir que ele gere respostas detalhadas.
Resumo: o resumo segue um formato específico. Por exemplo, talvez seja necessário remover informações de identificação pessoal (PII, na sigla em inglês) em um resumo do chat.
Essa formatação de substituição dos nomes dos falantes por
#Person1
e#Person2
é difícil de descrever, e o modelo de fundação pode não produzir naturalmente essa resposta.Resposta de pergunta extrativa: a pergunta é sobre um contexto e a resposta é uma substring do contexto.
:
A resposta "Último máximo glacial" é uma frase específica do contexto.
Chat: você precisa personalizar a resposta do modelo para seguir um perfil, um papel ou um personagem.
Também é possível ajustar um modelo nas seguintes situações:
- As solicitações não produzem os resultados esperados com consistência suficiente.
- A tarefa é muito complicada de ser definida em um prompt. Por exemplo, você quer que o modelo faça clonagem de comportamento para um comportamento difícil de articular em um prompt.
- Você tem uma intuição complexa sobre uma tarefa que é difícil de formalizar em um comando.
- Você quer reduzir a duração do contexto removendo os exemplos de poucas fotos.
Configurar uma região do job de ajuste
Os dados do usuário, como o conjunto de dados transformado e o modelo ajustado, são armazenados na região do job de ajuste. Durante o ajuste, a computação pode ser descarregada para outras regiões US
ou EU
para aceleradores disponíveis. Esse processo é transparente para os usuários.
Se você usar o SDK da Vertex AI, poderá especificar a região na inicialização. Por exemplo:
import vertexai vertexai.init(project='myproject', location='us-central1')
Se você criar um job de ajuste supervisionado enviando uma solicitação POST com o método
tuningJobs.create
, use o URL para especificar a região onde o job de ajuste de detalhes será executado. Por exemplo, no URL a seguir, você especifica uma região substituindo as duas instâncias deTUNING_JOB_REGION
pela região em que o job é executado.https://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/tuningJobs
Se você usa o console do Google Cloud, selecione o nome da região no campo suspenso Região na página Detalhes do modelo. Essa é a mesma página em que você seleciona o modelo base e um nome de modelo ajustado.
Cota
A cota é aplicada ao número de jobs de ajuste simultâneos. Todo projeto tem
uma cota padrão para executar pelo menos um job de ajuste. Essa é uma cota global
compartilhada por todas as regiões disponíveis e modelos compatíveis. Se você quiser executar mais jobs simultaneamente, solicite uma cota extra para Global concurrent tuning jobs
.
Preços
Confira os preços para ajustar modelos do Gemini aqui: Preços da Vertex AI.
Os tokens de treinamento são calculados pelo número total de tokens no conjunto de dados de treinamento, multiplicado pelo número de períodos. Para todos os modelos, após o ajuste, os custos de inferência para o modelo ajustado ainda se aplicam. O preço de inferência é o mesmo para cada versão estável do Gemini. Para mais informações, consulte os preços da Vertex AI e Versões de modelo estáveis do Gemini disponíveis.