A partir de 29 de abril de 2025, os modelos Gemini 1.5 Pro e Gemini 1.5 Flash não estarão disponíveis em projetos que não os usaram antes, incluindo novos projetos. Para mais detalhes, consulte Versões e ciclo de vida do modelo.
Guia de início rápido: enviar comandos de texto para o Gemini usando o Vertex AI Studio
Mantenha tudo organizado com as coleções
Salve e categorize o conteúdo com base nas suas preferências.
Use o Vertex AI Studio para criar, testar e gerenciar comandos para os modelos de linguagem grandes (LLMs) Gemini do Google e modelos de terceiros. O Vertex AI Studio é compatível com alguns
modelos de terceiros oferecidos na Vertex AI como modelos como um
serviço (MaaS), como os modelos Claude da
Anthropic e Llama da Meta.
Neste guia de início rápido, você fará as seguintes tarefas:
Envie esses comandos para a API Gemini usando exemplos da
galeria de comandos de IA generativa, incluindo o seguinte:
Um comando de texto de resumo
Um comando de geração de código
Ver o código usado para gerar as respostas
Antes de começar a fazer perguntas no Vertex AI Studio
Neste guia de início rápido, você precisa concluir as etapas a seguir para configurar um
projeto doGoogle Cloud e ativar a API Vertex AI.
Sign in to your Google Cloud account. If you're new to
Google Cloud,
create an account to evaluate how our products perform in
real-world scenarios. New customers also get $300 in free credits to
run, test, and deploy workloads.
In the Google Cloud console, on the project selector page,
select or create a Google Cloud project.
Um comando é um pedido em linguagem natural enviado a um modelo de linguagem que gera uma resposta. Os comandos podem conter perguntas, instruções, informações contextuais, exemplos de poucos disparos e entrada parcial para que o modelo conclua. Depois que o modelo recebe um comando, dependendo do tipo de modelo usado, ele pode gerar texto, embeddings, código, imagens, vídeos, músicas e mais.
Os comandos de amostra na galeria de comandos do Vertex AI Studio
são pré-criados para ajudar a demonstrar os recursos do modelo. Cada comando é
pré-configurado com um modelo e valores de parâmetro especificados. Dessa maneira, basta abrir o comando
de amostra e clicar em Enviar para gerar uma resposta.
Testar o modelo Gemini Flash usando um comando de texto de resumo
Enviar um comando de texto de resumo para a API Gemini na Vertex AI. Uma tarefa de resumo extrai as informações mais importantes do texto. É possível fornecer
informações no comando para ajudar o modelo a criar um resumo ou pedir que ele
crie um resumo por conta própria.
Este comando de exemplo inclui um arquivo de áudio e pede um resumo do conteúdo do arquivo em uma lista com marcadores.
No painel de configurações, o valor padrão do modelo está definido como
Gemini-2.0-flash-001. Para escolher outro modelo do Gemini, clique em Mudar modelo.
Clique em Enviar para gerar o resumo.
A saída é mostrada na resposta.
Para conferir o código da API Vertex AI usado para gerar o resumo
da transcrição, clique em Criar com código > Receber código.
No painel Receber código, escolha seu idioma preferido para receber o código de amostra do comando ou abra o código Python em um notebook do Colab Enterprise.
Testar o modelo Gemini Flash usando um comando de geração de código
Enviar um comando de geração de código para a API Gemini na Vertex AI. Uma tarefa de geração de código usa uma descrição de linguagem natural para escrever código.
Este exemplo de comando inclui uma instrução do sistema
que informa ao modelo como responder e alguns métodos Java incompletos.
No painel de configurações, o valor padrão do modelo está definido como
Gemini-2.0-flash-001. Para escolher outro modelo do Gemini, clique em Mudar modelo.
Para concluir cada método gerando código nas áreas marcadas com
<WRITE CODE HERE>, clique em Enviar .
A saída é mostrada na resposta.
Para conferir o código da API Vertex AI usado para gerar o resumo
da transcrição, clique em Criar com código > Receber código.
No painel Receber código, escolha seu idioma preferido para receber o código de amostra do comando ou abra o código Python em um notebook do Colab Enterprise.
[[["Fácil de entender","easyToUnderstand","thumb-up"],["Meu problema foi resolvido","solvedMyProblem","thumb-up"],["Outro","otherUp","thumb-up"]],[["Difícil de entender","hardToUnderstand","thumb-down"],["Informações incorretas ou exemplo de código","incorrectInformationOrSampleCode","thumb-down"],["Não contém as informações/amostras de que eu preciso","missingTheInformationSamplesINeed","thumb-down"],["Problema na tradução","translationIssue","thumb-down"],["Outro","otherDown","thumb-down"]],["Última atualização 2025-08-25 UTC."],[],[],null,["# Quickstart: Send text prompts to Gemini using Vertex AI Studio\n\nYou can use Vertex AI Studio to design, test, and manage prompts for\nGoogle's [Gemini](/vertex-ai/generative-ai/docs/overview) large language models\n(LLMs) and third-party models. Vertex AI Studio supports certain\nthird-party models that are offered on Vertex AI as [models as a\nservice (MaaS)](/vertex-ai/generative-ai/docs/partner-models/use-partner-models), such as\nAnthropic's Claude models and Meta's Llama models.\n| **Note:** On your initial use for third-party models, Vertex AI prompts you to accept the third-party's terms and conditions. You must do this once for each third-party provider to start using their models.\n\nIn this quickstart, you:\n\n- Send these prompts to the Gemini API using samples from the generative AI prompt gallery, including the following:\n - A summarization text prompt\n - A code generation prompt\n- View the code used to generate the responses\n\nBefore you begin prompting in Vertex AI Studio\n----------------------------------------------\n\nThis quickstart requires you to complete the following steps to set up a\nGoogle Cloud project and enable the Vertex AI API.\n\n- Sign in to your Google Cloud account. If you're new to Google Cloud, [create an account](https://console.cloud.google.com/freetrial) to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.\n- In the Google Cloud console, on the project selector page,\n select or create a Google Cloud project.\n\n | **Note**: If you don't plan to keep the resources that you create in this procedure, create a project instead of selecting an existing project. After you finish these steps, you can delete the project, removing all resources associated with the project.\n\n [Go to project selector](https://console.cloud.google.com/projectselector2/home/dashboard)\n-\n [Verify that billing is enabled for your Google Cloud project](/billing/docs/how-to/verify-billing-enabled#confirm_billing_is_enabled_on_a_project).\n\n-\n\n\n Enable the Vertex AI API.\n\n\n [Enable the API](https://console.cloud.google.com/flows/enableapi?apiid=aiplatform.googleapis.com)\n\n- In the Google Cloud console, on the project selector page,\n select or create a Google Cloud project.\n\n | **Note**: If you don't plan to keep the resources that you create in this procedure, create a project instead of selecting an existing project. After you finish these steps, you can delete the project, removing all resources associated with the project.\n\n [Go to project selector](https://console.cloud.google.com/projectselector2/home/dashboard)\n-\n [Verify that billing is enabled for your Google Cloud project](/billing/docs/how-to/verify-billing-enabled#confirm_billing_is_enabled_on_a_project).\n\n-\n\n\n Enable the Vertex AI API.\n\n\n [Enable the API](https://console.cloud.google.com/flows/enableapi?apiid=aiplatform.googleapis.com)\n\n\u003cbr /\u003e\n\nSample prompts in Vertex AI Studio\n----------------------------------\n\nA prompt is a natural language request submitted to a language model that\ngenerates a response. Prompts can contain questions, instructions, contextual\ninformation, [few-shot examples](/vertex-ai/generative-ai/docs/learn/prompts/introduction-prompt-design#few-shot-examples),\nand partial input for the model to complete. After the model receives a prompt,\ndepending on the type of model used, it can generate text, embeddings, code,\nimages, videos, music, and more.\n\nThe sample prompts in Vertex AI Studio [prompt gallery](/vertex-ai/generative-ai/docs/prompt-gallery)\nare predesigned to help demonstrate model capabilities. Each prompt is\npreconfigured with specified model and parameter values so you can open the\nsample prompt and click **Submit** to generate a response.\n\nTest the Gemini flash model using a summarization text prompt\n-------------------------------------------------------------\n\nSend a summarization text prompt to the Gemini API in Vertex AI. A summarization\ntask extracts the most important information from text. You can provide\ninformation in the prompt to help the model create a summary, or ask the model\nto create a summary on its own.\n\n1. Go to the **Prompt gallery** page from the Vertex AI\n section in the Google Cloud console. \n\n [Go to prompt gallery](https://console.cloud.google.com/vertex-ai/studio/prompt-gallery)\n\n2. In the **Tasks** drop-down menu, select **Summarize**.\n\n3. Open the **Audio summarization** card.\n\n This sample prompt includes an audio file and requests a summary of the file\n contents in a bulleted list.\n\n4. Notice that in the settings panel, the model's default value is set to\n **Gemini-2.0-flash-001** . You can choose a different Gemini model\n by clicking **Switch model**.\n\n5. Click **Submit** to generate the summary.\n\n The output is displayed in the response.\n6. To view the Vertex AI API code used to generate the transcript\n summary, click **Build with code** \\\u003e **Get code**.\n\n In the **Get code** panel, you can choose your preferred language to get the\n sample code for the prompt, or you can open the Python code in a\n Colab Enterprise notebook.\n\nTest the Gemini flash model using a code generation prompt\n----------------------------------------------------------\n\nSend a code generation prompt to the Gemini API in Vertex AI. A code generation task generates code\nusing a natural language description.\n\n1. Go to the **Prompt gallery** page from the Vertex AI\n section in the Google Cloud console. \n\n [Go to prompt gallery](https://console.cloud.google.com/vertex-ai/studio/prompt-gallery)\n\n2. In the **Tasks** drop-down menu, select **Code**.\n\n3. Open the **Generate code from comments** card.\n\n This sample prompt includes a [system instruction](/vertex-ai/generative-ai/docs/learn/prompts/system-instruction-introduction)\n that tells the model how to respond and some incomplete Java methods.\n\n4. Notice that in the settings panel, the model's default value is set to\n **Gemini-2.0-flash-001** . You can choose a different Gemini model\n by clicking **Switch model**.\n\n5. To complete each method by generating code in the areas marked\n `\u003cWRITE CODE HERE\u003e`, click **Submit** .\n\n The output is displayed in the response.\n6. To view the Vertex AI API code used to generate the transcript\n summary, click **Build with code** \\\u003e **Get code**.\n\n In the **Get code** panel, you can choose your preferred language to get the\n sample code for the prompt, or you can open the Python code in a\n Colab Enterprise notebook.\n\nDiscover what's next with prompts\n---------------------------------\n\n- See an [introduction to prompt design](/vertex-ai/generative-ai/docs/learn/prompts/introduction-prompt-design).\n- Learn about [designing multimodal prompts](/vertex-ai/generative-ai/docs/multimodal/design-multimodal-prompts) and [chat prompts](/vertex-ai/generative-ai/docs/chat/chat-prompts)."]]