A partir de 29 de abril de 2025, os modelos Gemini 1.5 Pro e Gemini 1.5 Flash não estarão disponíveis em projetos que não os usaram antes, incluindo novos projetos. Para mais detalhes, consulte Versões e ciclo de vida do modelo.
Mantenha tudo organizado com as coleções
Salve e categorize o conteúdo com base nas suas preferências.
Não há uma maneira certa ou errada de projetar um prompt, mas há estratégias comuns que podem ser usadas para afetar as respostas do modelo. Testes e avaliações rigorosos continuam sendo
crucial para otimizar o desempenho do modelo.
Os modelos de linguagem grandes (LLM) são treinados com grandes quantidades de dados de texto para aprender os padrões e
as relações entre unidades de linguagem. Quando recebem algum texto (o prompt), os modelos de idioma podem prever o que provavelmente virá em seguida, como uma sofisticada ferramenta de preenchimento automático. Portanto, ao projetar solicitações, considere os diferentes fatores que podem influenciar o que um modelo prevê em seguida.
Fluxo de trabalho da engenharia de comando
A engenharia de comando é um processo iterativo e conduzido por testes que pode melhorar o desempenho do modelo.
Ao criar comandos, é importante definir com clareza os objetivos e os resultados esperados de cada um deles e testá-los sistematicamente para identificar áreas de melhoria.
O diagrama a seguir mostra o fluxo de trabalho da engenharia de comando:
Como criar um comando eficaz
Há dois aspectos de um comando que afetam a eficácia dele: conteúdo e estrutura.
Conteúdo:
Para concluir uma tarefa, o modelo precisa de todas as informações relevantes associadas a ela. Essas informações podem incluir instruções, exemplos, informações contextuais e assim por diante. Para detalhes, consulte Componentes de um comando.
Estrutura:
Mesmo quando todas as informações necessárias são fornecidas no comando, transmitir a estrutura das informações ajuda o modelo a analisá-las. Coisas como a ordenação, a rotulagem e o uso de delimitadores podem afetar a qualidade das respostas. Para ver um exemplo da estrutura de comandos, consulte Exemplo de modelo de comando.
Componentes de um comando
A tabela a seguir mostra os componentes essenciais e opcionais de um comando:
Componente
Descrição
Exemplo
Objetivo
O que você quer que o modelo alcance. Seja específico e inclua todos os objetivos centrais. Também chamados de "missão" ou "meta".
Seu objetivo é ajudar os estudantes com problemas de matemática sem dar diretamente a resposta.
Instruções
Instruções detalhadas sobre como realizar a tarefa em questão. Também chamada de "tarefas", "etapas" ou "direções".
Entenda o que o problema está perguntando.
Entenda onde o estudante estagnou.
Dê uma dica na próxima etapa do problema.
Componentes opcionais
Instruções do sistema
Diretivas técnicas ou ambientais que podem envolver o controle ou a alteração do comportamento do modelo em um conjunto de tarefas. Para muitas APIs de modelo, as instruções do sistema são especificadas em um parâmetro dedicado.
As instruções do sistema estão disponíveis apenas no Gemini 1.5 Pro.
Você é especialista em programação com especialização em código de renderização para interfaces front-end. Ao
descrever um componente de um site que quero criar, retorne o HTML e o CSS necessários
para isso. Não forneça uma
explicação para esse código. Ofereça também algumas sugestões de design de interface.
Persona
Quem ou o que o modelo está representando. Também chamado de "papel" ou "visão".
Aqui, você dá aulas de matemática para ajudar os estudantes com o dever de casa dessa matéria.
Restrições
Restrições sobre o que o modelo precisa aderir ao gerar uma resposta, incluindo o que o modelo pode e não pode fazer. Também chamadas de "proteções", "limites" ou "controles".
Não dê a resposta diretamente para o estudante. Em vez disso, dê dicas na próxima etapa para resolver o problema. Se o estudante estiver completamente perdido, apresente as etapas detalhadas para resolver o problema.
Tom
O tom da resposta. Também é possível especificar um perfil para influenciar o estilo e o tom. Também chamado de "estilo", "voz" ou "clima".
Responda de maneira casual e técnica.
Contexto
Qualquer informação que o modelo precisa consultar para realizar a tarefa em questão.
Também chamado de "contexto", "documentos" ou "dados de entrada".
Uma cópia dos planos de aula de matemática do estudante.
Exemplos few-shot
Exemplos de como será a resposta a um determinado comando. Também chamados de "exemplares" ou "amostras".
input: Estou tentando calcular quantas bolas de golfe cabem em uma caixa com volume de um metro cúbico. Converti um metro cúbico em centímetros cúbicos e o dividi pelo volume de uma bola de golfe em centímetros cúbicos, mas o sistema diz que minha resposta está errada. output: As bolas de golfe são esferas e não podem ser acomodadas em um espaço com eficiência perfeita. Seus cálculos consideram a eficiência máxima de acomodação das esferas.
Etapas de raciocínio
Peça ao modelo para explicar o raciocínio dele. Às vezes, isso pode melhorar a capacidade de raciocínio do modelo. Também chamadas de "etapas de pensamento".
Explique seu raciocínio passo a passo.
Formato da resposta
O formato em que você quer que a resposta esteja. Por exemplo, é possível solicitar que o modelo gere a resposta em JSON, tabela, Markdown, parágrafo, lista com marcadores, palavras-chave, pitch rápido de venda e assim por diante. Também chamado de "estrutura", "apresentação" ou "layout".
Formate sua resposta em Markdown.
Recapitulação
Repetir de maneira concisa os pontos principais do comando no final dele, especialmente as restrições e o formato da resposta.
Não forneça a resposta. Em vez disso, dê dicas. Sempre formate sua resposta no formato Markdown.
Salvaguardas
Baseia as perguntas na missão do bot. Também chamadas de "regras de segurança".
N/A
Dependendo das tarefas específicas em questão, você pode optar por incluir ou excluir alguns componentes opcionais. Também é possível ajustar a ordenação dos componentes e verificar como isso pode afetar a resposta.
Exemplo de modelo de comando
O modelo de comando a seguir mostra um exemplo de como é um comando bem estruturado:
<OBJECTIVE_AND_PERSONA>
You are a [insert a persona, such as a "math teacher" or "automotive expert"]. Your task is to...
</OBJECTIVE_AND_PERSONA>
<INSTRUCTIONS>
To complete the task, you need to follow these steps:
1.
2.
...
</INSTRUCTIONS>
------------- Optional Components ------------
<CONSTRAINTS>
Dos and don'ts for the following aspects
1. Dos
2. Don'ts
</CONSTRAINTS>
<CONTEXT>
The provided context
</CONTEXT>
<OUTPUT_FORMAT>
The output format must be
1.
2.
...
</OUTPUT_FORMAT>
<FEW_SHOT_EXAMPLES>
Here we provide some examples:
1. Example #1
Input:
Thoughts:
Output:
...
</FEW_SHOT_EXAMPLES>
<RECAP>
Re-emphasize the key aspects of the prompt, especially the constraints, output format, etc.
</RECAP>
Práticas recomendadas
Confira algumas práticas recomendadas para o design de comandos:
[[["Fácil de entender","easyToUnderstand","thumb-up"],["Meu problema foi resolvido","solvedMyProblem","thumb-up"],["Outro","otherUp","thumb-up"]],[["Difícil de entender","hardToUnderstand","thumb-down"],["Informações incorretas ou exemplo de código","incorrectInformationOrSampleCode","thumb-down"],["Não contém as informações/amostras de que eu preciso","missingTheInformationSamplesINeed","thumb-down"],["Problema na tradução","translationIssue","thumb-down"],["Outro","otherDown","thumb-down"]],["Última atualização 2025-08-29 UTC."],[],[],null,["# Overview of prompting strategies\n\n| To see an example of prompt design,\n| run the \"Intro to Prompt Design\" notebook in one of the following\n| environments:\n|\n| [Open in Colab](https://colab.research.google.com/github/GoogleCloudPlatform/generative-ai/blob/main/gemini/prompts/intro_prompt_design.ipynb)\n|\n|\n| \\|\n|\n| [Open in Colab Enterprise](https://console.cloud.google.com/vertex-ai/colab/import/https%3A%2F%2Fraw.githubusercontent.com%2FGoogleCloudPlatform%2Fgenerative-ai%2Fmain%2Fgemini%2Fprompts%2Fintro_prompt_design.ipynb)\n|\n|\n| \\|\n|\n| [Open\n| in Vertex AI Workbench](https://console.cloud.google.com/vertex-ai/workbench/deploy-notebook?download_url=https%3A%2F%2Fraw.githubusercontent.com%2FGoogleCloudPlatform%2Fgenerative-ai%2Fmain%2Fgemini%2Fprompts%2Fintro_prompt_design.ipynb)\n|\n|\n| \\|\n|\n| [View on GitHub](https://github.com/GoogleCloudPlatform/generative-ai/blob/main/gemini/prompts/intro_prompt_design.ipynb)\n\nWhile there's no right or wrong way to design a prompt, there are common strategies that\nyou can use to affect the model's responses. Rigorous testing and evaluation remain crucial for\noptimizing model performance.\n\nLarge language models (LLM) are trained on vast amounts of text data to learn the patterns and\nrelationships between units of language. When given some text (the prompt), language models can\npredict what is likely to come next, like a sophisticated autocompletion tool. Therefore, when\ndesigning prompts, consider the different factors that can influence what a model predicts comes\nnext.\n\n### Prompt engineering workflow\n\nPrompt engineering is a test-driven and iterative process that can enhance model performance.\nWhen creating prompts, it is important to clearly define the objectives and expected outcomes for\neach prompt and systematically test them to identify areas of improvement.\n\nThe following diagram shows the prompt engineering workflow:\n\nHow to create an effective prompt\n---------------------------------\n\nThere are two aspects of a prompt that ultimately affect its effectiveness:\n*content* and *structure*.\n\n- **Content:**\n\n In order to complete a task, the model needs all of the relevant information associated with\n the task. This information can include instructions, examples, contextual information, and so\n on. For details, see [Components of a prompt](#components-of-a-prompt).\n- **Structure:**\n\n Even when all the required information is provided in the prompt, giving the information\n structure helps the model parse the information. Things like the ordering, labeling, and the use\n of delimiters can all affect the quality of responses. For an example of prompt structure, see\n [Sample prompt template](#sample-prompt-template).\n\nComponents of a prompt\n----------------------\n\nThe following table shows the essential and optional components of a prompt:\n\nDepending on the specific tasks at hand, you might choose to include or exclude some of the\noptional components. You can also adjust the ordering of the components and check how that can\naffect the response.\n\nSample prompt template\n----------------------\n\nThe following prompt template shows you an example of what a well-structured prompt might look\nlike:\n\nBest practices\n--------------\n\nPrompt design best practices include the following:\n\n- [Give clear and specific instructions](/vertex-ai/generative-ai/docs/learn/prompts/clear-instructions)\n- [Include few-shot examples](/vertex-ai/generative-ai/docs/learn/prompts/few-shot-examples)\n- [Assign a role](/vertex-ai/generative-ai/docs/learn/prompts/assign-role)\n- [Add contextual information](/vertex-ai/generative-ai/docs/learn/prompts/contextual-information)\n- [Use system instructions](/vertex-ai/generative-ai/docs/learn/prompts/system-instructions)\n- [Structure prompts](/vertex-ai/generative-ai/docs/learn/prompts/structure-prompts)\n- [Instruct the model to explain its reasoning](/vertex-ai/generative-ai/docs/learn/prompts/explain-reasoning)\n- [Break down complex tasks](/vertex-ai/generative-ai/docs/learn/prompts/break-down-prompts)\n- [Experiment with parameter values](/vertex-ai/generative-ai/docs/learn/prompts/adjust-parameter-values)\n- [Prompt iteration strategies](/vertex-ai/generative-ai/docs/learn/prompts/prompt-iteration)\n\nPrompt health checklist\n-----------------------\n\nIf a prompt is not performing as expected, use the following\nchecklist to identify potential issues and improve the prompt's performance.\n\n### Writing issues\n\n- **Typos:** Check keywords that define the task (for example, *sumarize* instead of *summarize*), technical terms, or names of entities, as misspellings can lead to poor performance.\n- **Grammar:** If a sentence is difficult to parse, contains run-on fragments, has mismatched subjects and verbs, or feels structurally awkward, the model may not properly understand the prompt.\n- **Punctuation:** Check your use of commas, periods, quotes, and other separators, as incorrect punctuation can cause the model to misinterpret the prompt.\n- **Use of undefined jargon:** Avoid using domain-specific terms, acronyms, or initialisms as if they have a universal meaning unless they are explicitly defined in the prompt.\n- **Clarity:** If you find yourself wondering about the scope, the specific steps to take, or the implicit assumptions being made, the prompt is likely unclear.\n- **Ambiguity:** Avoid using subjective or relative qualifiers that lack a concrete, measurable definition. Instead, provide objective constraints (for example, \"write a summary of 3 sentences or less\" instead of \"write a brief summary\").\n- **Missing key information:** If the task requires knowledge of a specific document, company policy, user history, or dataset, make sure that information is explicitly included within the prompt.\n- **Poor word choice:** Check the prompt for unnecessarily complex, vague, or verbose phrasing, as it could confuse the model.\n- **Secondary review:** If the model continues to perform poorly, have another person review your prompt.\n\n### Issues with instructions and examples\n\n- **Overt manipulation:** Remove language outside of the core task from the prompt that attempts to influence performance using emotional appeals, flattery, or artificial pressure. While first generation foundation models showed improvement in some circumstances with instructions like \"very bad things will happen if you don't get this correct\", foundation model performance will no longer improve and in many cases will get worse.\n- **Conflicting instructions and examples:** Check for this by auditing the prompt for logical contradictions or mismatches between instructions or an instruction and an example.\n- **Redundant instructions and examples:** Look through the prompt and examples to see if the exact same instruction or concept is stated multiple times in slightly different ways without adding new information or nuance.\n- **Irrelevant instructions and examples:** Check to see if all of the instructions and examples are essential to the core task. If any instructions or examples can be removed without diminishing the model's ability to perform the core task, they might be irrelevant.\n- **Use of [\"few-shot\"](/vertex-ai/generative-ai/docs/learn/prompts/few-shot-examples)\n examples:** If the task is complex, requires a specific format, or has a nuanced tone, make sure there are concrete, illustrative examples that show a sample input and the corresponding output.\n- **Missing output format specification:** Avoid leaving the model to guess the structure of the output; instead, use a clear, explicit instruction to specify the format and show the output structure in your few-shot examples.\n- **Missing role definition:** If you are going to ask the model to act in a specific role, make sure that role is defined in the system instructions.\n\n### Prompt and system design issues\n\n- **Underspecified task:** Ensure that the prompt's instructions provide a clear path for handling edge cases and unexpected inputs, and provide instructions for handling missing data rather than assuming inserted data will always be present and well-formed.\n- **Task outside of model capabilities:** Avoid using prompts that ask the model to perform a task for which it has a known, fundamental limitation.\n- **Too many tasks:** If the prompt asks the model to perform several distinct cognitive actions in a single pass (for example, 1. Summarize, 2. Extract entities, 3. Translate, and 4. Draft an email), it is likely trying to accomplish too much. Break the requests into separate prompts.\n- **Non-standard data format:** When model outputs must be machine-readable or follow a specific format, use a widely recognized standard like JSON, XML, Markdown or YAML that can be parsed by common libraries. If your use case requires a non-standard format, consider asking the model to output to a common format and then using code to convert the output.\n- **Incorrect Chain of Thought (CoT) order:** Avoid providing examples that show the model generating its final, structured answer before it has completed its step-by-step reasoning.\n- **Conflicting internal references:** Avoid writing a prompt with non-linear logic or conditionals that require the model to piece together fragmented instructions from multiple different places in the prompt.\n- **Prompt injection risk:** Check if there are explicit safeguards surrounding untrusted user input that is inserted into the prompt, as this can be a major security risk.\n\nWhat's next\n-----------\n\n- Explore examples of prompts in the [Prompt gallery](/vertex-ai/generative-ai/docs/prompt-gallery).\n- Learn how to optimize prompts for use with [Google models](/vertex-ai/generative-ai/docs/learn/models) by using the [Vertex AI prompt optimizer (Preview)](/vertex-ai/generative-ai/docs/learn/prompts/prompt-optimizer).\n- Learn about [responsible AI best practices and Vertex AI's safety filters](/vertex-ai/generative-ai/docs/learn/responsible-ai)."]]