A partir de 29 de abril de 2025, os modelos Gemini 1.5 Pro e Gemini 1.5 Flash não estarão disponíveis em projetos que não os usaram antes, incluindo novos projetos. Para mais detalhes, consulte Versões e ciclo de vida do modelo.
Mantenha tudo organizado com as coleções
Salve e categorize o conteúdo com base nas suas preferências.
Esta página fornece pré-requisitos e instruções detalhadas para ajustar
o Gemini em dados de texto usando o aprendizado supervisionado. Para conferir exemplos de ajuste de texto
de casos de uso de classificação, análise de sentimento e extração,
consulte Ajuste de modelos de texto do Gemini.
Casos de uso
O ajuste fino permite adaptar os modelos básicos do Gemini para tarefas especializadas.
Confira alguns casos de uso de texto:
Extrair informações estruturadas de chats: transforme conversas com várias mensagens em dados organizados ajustando um modelo para identificar os principais atributos e gerar saídas em um formato estruturado, como JSONL.
Categorização de documentos: ajuste um modelo para classificar com precisão documentos longos em categorias predefinidas, permitindo a organização e a recuperação eficientes de informações.
Seguir instruções: melhore a capacidade de um modelo de compreender e executar instruções, o que leva a uma conclusão de tarefas mais precisa e confiável.
Análise automática de código: use o ajuste fino para criar um modelo capaz de fornecer análises úteis de código, identificar possíveis problemas e sugerir melhorias.
Resumo: gere resumos concisos e informativos de textos longos ajustando um modelo para capturar a essência do conteúdo.
Geração de código e DSL: ajuste um modelo para gerar código em várias linguagens de programação ou em linguagens específicas de domínio (DSLs, na sigla em inglês), automatizando tarefas de programação repetitivas.
Melhoria no desempenho da RAG: melhore a utilidade e a precisão dos sistemas de geração aumentada de recuperação (RAG, na sigla em inglês) ajustando o modelo de linguagem.
Formato do conjunto de dados
O fileUri do conjunto de dados pode ser o URI de um arquivo em um bucket do Cloud Storage ou um URL HTTP ou HTTPS disponível publicamente.
Confira a seguir um exemplo de conjunto de dados de texto.
{"systemInstruction":{"role":"system","parts":[{"text":"You are a pirate dog named Captain Barktholomew."}]},"contents":[{"role":"user","parts":[{"text":"Hi"}]},{"role":"model","parts":[{"text":"Argh! What brings ye to my ship?"}]},{"role":"user","parts":[{"text":"What's your name?"}]},{"role":"model","parts":[{"text":"I be Captain Barktholomew, the most feared pirate dog of the seven seas."}]}]}
Conjuntos de dados de amostra
Use os conjuntos de dados de exemplo a seguir para aprender a ajustar um modelo do Gemini. Para usar esses conjuntos de dados, especifique os URIs nos
parâmetros aplicáveis ao criar um job de ajuste fino supervisionado de modelo de texto.
Para usar o conjunto de dados de ajuste de amostra, especifique o local da seguinte maneira:
[[["Fácil de entender","easyToUnderstand","thumb-up"],["Meu problema foi resolvido","solvedMyProblem","thumb-up"],["Outro","otherUp","thumb-up"]],[["Difícil de entender","hardToUnderstand","thumb-down"],["Informações incorretas ou exemplo de código","incorrectInformationOrSampleCode","thumb-down"],["Não contém as informações/amostras de que eu preciso","missingTheInformationSamplesINeed","thumb-down"],["Problema na tradução","translationIssue","thumb-down"],["Outro","otherDown","thumb-down"]],["Última atualização 2025-08-25 UTC."],[],[],null,["# Text tuning\n\nThis page provides prerequisites and detailed instructions for fine-tuning\nGemini on text data using supervised learning. For text tuning examples\nof classification, sentiment analysis, and extraction use cases,\nsee [Model tuning for Gemini text models](/vertex-ai/generative-ai/docs/models/tune_gemini/tune-gemini-learn).\n\nUse cases\n---------\n\nFine-tuning lets you adapt base Gemini models for specialized tasks.\nHere are some text use cases:\n\n- **Extracting structured information from chats**: Transform multi-turn conversations into organized data by fine-tuning a model to identify key attributes and output them in a structured format like JSONL.\n- **Document categorization**: Fine-tune a model to accurately classify lengthy documents into predefined categories, enabling efficient organization and retrieval of information.\n- **Instruction following**: Enhance a model's ability to comprehend and execute instructions, leading to more accurate and reliable task completion.\n- **Automated code review**: Use fine-tuning to create a model capable of providing insightful code reviews, identifying potential issues, and suggesting improvements.\n- **Summarization**: Generate concise and informative summaries of long texts by fine-tuning a model to capture the essence of the content.\n- **Code and DSL generation**: Fine-tune a model to generate code in various programming languages or domain-specific languages (DSLs), automating repetitive coding tasks.\n- **Improved RAG performance**: Enhance the helpfulness and accuracy of Retrieval-Augmented Generation (RAG) systems by fine-tuning the underlying language model.\n\nDataset format\n--------------\n\nThe `fileUri` for your dataset can be the URI for a file in a Cloud Storage\nbucket, or it can be a publicly available HTTP or HTTPS URL.\n\nThe following is an example of a text dataset.\n\nTo see the generic format example, see\n[Dataset example for Gemini](/vertex-ai/generative-ai/docs/models/gemini-supervised-tuning-prepare#dataset-example). \n\n {\n \"systemInstruction\": {\n \"role\": \"system\",\n \"parts\": [\n {\n \"text\": \"You are a pirate dog named Captain Barktholomew.\"\n }\n ]\n },\n \"contents\": [\n {\n \"role\": \"user\",\n \"parts\": [\n {\n \"text\": \"Hi\"\n }\n ]\n },\n {\n \"role\": \"model\",\n \"parts\": [\n {\n \"text\": \"Argh! What brings ye to my ship?\"\n }\n ]\n },\n {\n \"role\": \"user\",\n \"parts\": [\n {\n \"text\": \"What's your name?\"\n }\n ]\n },\n {\n \"role\": \"model\",\n \"parts\": [\n {\n \"text\": \"I be Captain Barktholomew, the most feared pirate dog of the seven seas.\"\n }\n ]\n }\n ]\n }\n\n### Sample datasets\n\nYou can use the following sample datasets to learn how to tune a\nGemini model. To use these datasets, specify the URIs in the\napplicable parameters when creating a text model supervised fine-tuning job.\n\nTo use the sample tuning dataset, specify its location as follows: \n\n \"training_dataset_uri\": \"gs://cloud-samples-data/ai-platform/generative_ai/gemini-2_0/text/sft_train_data.jsonl\",\n\nTo use the sample validation dataset, specify its location as follows: \n\n \"validation_dataset_uri\": \"gs://cloud-samples-data/ai-platform/generative_ai/gemini-2_0/text/sft_validation_data.jsonl\",\n\nWhat's next\n-----------\n\n- To start tuning, see [Tune Gemini models by using supervised fine-tuning](/vertex-ai/generative-ai/docs/models/gemini-use-supervised-tuning).\n- To learn how supervised fine-tuning can be used in a solution that builds a generative AI knowledge base, see [Jump Start Solution: Generative AI knowledge base](/architecture/ai-ml/generative-ai-knowledge-base)."]]