A partir de 29 de abril de 2025, os modelos Gemini 1.5 Pro e Gemini 1.5 Flash não estarão disponíveis em projetos que não os usaram antes, incluindo novos projetos. Para mais detalhes, consulte Versões e ciclo de vida do modelo.
Migrar seu aplicativo para o Gemini 2 com a API Gemini na Vertex AI
Mantenha tudo organizado com as coleções
Salve e categorize o conteúdo com base nas suas preferências.
Este guia mostra como migrar aplicativos de IA generativa dos modelos Gemini 1.x e PaLM para os modelos Gemini 2.
Por que migrar para o Gemini 2?
O Gemini 2 oferece melhorias significativas no desempenho em relação aos modelos Gemini 1.x e PaLM, além de novos recursos. Além disso, cada versão do modelo tem o próprio período de suporte e disponibilidade.
Atualizar a maioria dos aplicativos de IA generativa para o Gemini 2 não exige uma reengenharia significativa de comandos ou código. No entanto, alguns aplicativos exigem mudanças imediatas, e essas mudanças são difíceis de prever sem executar uma solicitação pelo Gemini 2 primeiro. Portanto, recomendamos testar o Gemini 2 antes da migração.
As mudanças significativas no código são necessárias apenas para determinadas mudanças importantes ou para usar novos recursos do Gemini 2.
Para qual modelo do Gemini 2 devo migrar?
Ao escolher um modelo do Gemini 2 para migrar, considere os recursos necessários para seu aplicativo e o custo deles.
Para conferir uma visão geral dos recursos do modelo do Gemini 2, consulte Gemini 2. Para ter uma visão geral de todos os modelos do Google, consulte Modelos do Google.
Para comparar os modelos disponíveis do Gemini, consulte a tabela a seguir.
Aprovações de governança, InfoSec e regulamentares: solicite de forma proativa as aprovações necessárias para o Gemini 2 às partes interessadas de segurança da informação (InfoSec), risco e compliance. Cubra as restrições de compliance e risco específicas do domínio, especialmente em setores altamente regulamentados, como saúde e serviços financeiros. Os controles de segurança do Gemini são diferentes entre os modelos do Gemini 2.
Diferenças de preços com base na modalidade e na tokenização: confira os preços do Gemini 2 para todas as modalidades (texto, código, imagens, fala) no seu app. Para mais informações, consulte a página de preços da IA generativa. A entrada e a saída de texto do Gemini 2 são cobradas por token, enquanto a entrada e a saída de texto do Gemini 1 são cobradas por caractere.
Ajuste de detalhes supervisionado: se o aplicativo do Gemini usar o ajuste de detalhes supervisionado, envie um novo job de ajuste com o Gemini 2. Recomendamos que você comece com os hiperparâmetros de ajuste padrão em vez de reutilizar os valores usados nas versões anteriores do Gemini. O serviço de ajuste foi otimizado para o Gemini 2. Portanto, a reutilização de valores de hiperparâmetros anteriores pode não gerar os melhores resultados.
Teste de regressão: há três tipos principais de teste de regressão envolvidos no upgrade para os modelos do Gemini 2:
Testes de regressão de código: testes de regressão de uma perspectiva de engenharia de software e DevOps. Esse tipo de teste de regressão é sempre necessário.
Testes de regressão de desempenho do modelo: testes de regressão de uma perspectiva de ciência de dados ou aprendizado de máquina. Isso significa garantir que o novo modelo Gemini 2 ofereça saídas de qualidade pelo menos tão alta quanto as do modelo de produção atual. Os testes de regressão de desempenho do modelo são apenas avaliações feitas como parte de uma mudança no sistema ou no modelo subjacente. O teste de regressão de desempenho do modelo se divide em:
Teste de desempenho do modelo off-line: avaliação da qualidade das saídas do modelo em um ambiente de experimentação dedicado com base em várias métricas de qualidade da saída do modelo.
Teste de desempenho de modelo on-line: avaliação da qualidade das saídas do modelo em uma implantação on-line ativa com base no feedback implícito ou explícito do usuário.
Teste de carga: avaliar como o aplicativo lida com grandes volumes de solicitações de inferência. Esse tipo de teste de regressão é necessário para aplicativos que exigem throughput provisionado.
Documentar os requisitos de avaliação e teste do modelo
Etapa 2: documentar os requisitos de avaliação e teste
Prepare-se para repetir as avaliações relevantes desde que você criou o aplicativo pela primeira vez, além de todas as avaliações relevantes que você fez desde então.
Se você achar que as avaliações atuais não abrangem ou medem adequadamente a amplitude das tarefas que o aplicativo executa, projete e prepare outras avaliações.
Se a sua proposta envolve RAG, uso de ferramentas, fluxos de trabalho de agentes complexos ou cadeias de comandos, verifique se os dados de avaliação atuais permitem avaliar cada componente de forma independente. Caso contrário, colete exemplos de entrada e saída para cada componente.
Se o aplicativo tiver um impacto muito grande ou fizer parte de um sistema maior voltado ao usuário em tempo real, inclua a avaliação on-line.
Upgrades e testes de código
Etapa 3: atualizar e testar o código
Se o aplicativo Gemini 1.x usar o SDK da Vertex AI, considere fazer upgrade para o SDK da IA generativa. Os novos recursos do Gemini 2 só estão disponíveis no SDK da IA generativa. No entanto, não é necessário mudar para o SDK da IA generativa se o app exigir apenas recursos disponíveis no SDK da Vertex AI.
Recurso / aspecto
SDK da Gen AI
SDK da Vertex AI
Foco principal
Otimizado para modelos do Gemini e novos recursos de IA generativa.
Plataforma mais ampla da Vertex AI, incluindo fluxos de trabalho de ML convencionais.
Suporte a recursos do Gemini 2
Suporte total a todos os novos recursos do Gemini 2.
Suporte limitado; novos recursos não são adicionados.
Recomendação
Recomendado para novos aplicativos ou ao usar recursos avançados do Gemini 2.
Adequado se o app só usa recursos comuns aos dois SDKs e já está integrado.
Recomendamos que você migre para o SDK da IA generativa ao fazer upgrade para o Gemini 2.0. Se você optar por usar o SDK da Gen AI, o processo de configuração será diferente do SDK da Vertex AI. Para mais informações, acesse o SDK da IA generativa do Google.
Defina variáveis de ambiente para usar o SDK da IA generativa com a Vertex AI:
# Replace the `GOOGLE_CLOUD_PROJECT` and `GOOGLE_CLOUD_LOCATION` values# with appropriate values for your project.exportGOOGLE_CLOUD_PROJECT=GOOGLE_CLOUD_PROJECTexportGOOGLE_CLOUD_LOCATION=globalexportGOOGLE_GENAI_USE_VERTEXAI=True
fromgoogleimportgenaifromgoogle.genai.typesimportHttpOptionsclient=genai.Client(http_options=HttpOptions(api_version="v1"))response=client.models.generate_content(model="gemini-2.5-flash",contents="How does AI work?",)print(response.text)# Example response:# Okay, let's break down how AI works. It's a broad field, so I'll focus on the ...# Here's a simplified overview:# ...
Substitua GOOGLE_CLOUD_PROJECT pelo ID do projeto do Google Cloud e GOOGLE_CLOUD_LOCATION pelo local do projeto do Google Cloud (por exemplo, us-central1).
SDK da Vertex AI
Se você reutilizar o SDK da Vertex AI, o processo de configuração será o mesmo para os modelos 1.0, 1.5 e 2.0. Para mais informações, consulte Introdução ao SDK da Vertex AI para Python.
Instalar o SDK
pipinstall--upgrade--quietgoogle-cloud-aiplatform
Confira a seguir um exemplo de código curto que usa o SDK da Vertex AI para Python:
importvertexaifromvertexai.generative_modelsimportGenerativeModel# TODO(developer): Update and un-comment below line# PROJECT_ID = "your-project-id"vertexai.init(project=PROJECT_ID,location="us-central1")model=GenerativeModel("gemini-2.0-flash-001")response=model.generate_content("What's a good name for a flower shop that specializes in selling bouquets of dried flowers?")print(response.text)# Example response:# **Emphasizing the Dried Aspect:**# * Everlasting Blooms# * Dried & Delightful# * The Petal Preserve# ...
Substitua PROJECT_ID pelo ID do projeto do Google Cloud e LOCATION pelo local do projeto do Google Cloud (por exemplo, us-central1). Em seguida, mude o ID do modelo de gemini-1.5-flash-002 para gemini-2.0-flash.
Mudar as chamadas do Gemini
Mude o código de previsão para usar o Gemini 2. Isso significa, no mínimo, mudar o nome do endpoint específico do modelo para um modelo do Gemini 2 em que você carrega o modelo.
A mudança exata do código vai variar de acordo com a forma como você implementou o aplicativo originalmente, especialmente se você usou o SDK da IA generativa ou o SDK da Vertex AI.
Depois de fazer as mudanças no código, realize testes de regressão e outros testes de software no código para garantir que ele seja executado. O objetivo desse teste é avaliar se o código funciona corretamente. Não é para avaliar a qualidade das respostas do modelo.
Parâmetro de amostragem de token Top-K: os modelos após gemini-1.0-pro-vision não oferecem suporte à alteração do parâmetro Top-K.
Nesta etapa, concentre-se apenas nas mudanças no código. Talvez seja necessário fazer outras mudanças, mas aguarde até iniciar a avaliação e considere o seguinte ajuste com base nos resultados da avaliação:
Se você estiver mudando da recuperação dinâmica, talvez seja necessário testar instruções do sistema para controlar quando a Pesquisa Google é usada (por exemplo, "Only generate queries for the Google Search tool if the user asks about sports. Don't generate queries for any other topic."), mas aguarde a avaliação antes de fazer mudanças no comando.
Se você usou o parâmetro Top-K, ajuste outros parâmetros de amostragem de token, como Top-P, para obter resultados semelhantes.
Avaliação off-line
Etapa 4: realizar a avaliação off-line
Repita a avaliação que você fez quando desenvolveu e lançou o aplicativo, qualquer outra avaliação off-line que você fez após o lançamento e qualquer outra avaliação identificada na etapa 1. Se você achar que a avaliação não captura totalmente a amplitude e a profundidade do seu aplicativo, faça uma avaliação mais detalhada.
Se o aplicativo usa o ajuste fino, faça uma avaliação off-line antes de ajustar o modelo novamente com o Gemini 2. A qualidade de saída aprimorada do Gemini 2 pode significar que seu aplicativo não precisa mais de um modelo ajustado.
Avalie os resultados da avaliação e ajuste os comandos e hiperparâmetros do Gemini 2
Etapa 5: avaliar os resultados e ajustar os comandos
Se a avaliação off-line mostrar uma queda no desempenho com o Gemini 2, repita o processo no seu aplicativo da seguinte forma até que a performance do Gemini corresponda ao modelo mais antigo:
Se o seu aplicativo já usa o ajuste fino, tente ajustar o Gemini 2.
Se o app for afetado pela recuperação dinâmica e pelas mudanças de top-k, tente alterar o comando e os parâmetros de amostragem de token.
Teste de carga
Etapa 6: realizar testes de carga
Se o aplicativo exigir uma taxa de transferência mínima, faça testes de carga para garantir que a versão Gemini 2 atenda aos requisitos de throughput.
O teste de carga precisa acontecer antes da avaliação on-line, porque ela exige a exposição do Gemini 2 ao tráfego de produção. Use a instrumentação de teste de carga atual para realizar esta etapa.
Se o aplicativo já atende aos requisitos de throughput, considere usar a capacidade de processamento provisionada. Você vai precisar de mais throughput provisionado de curto prazo para cobrir o teste de carga enquanto o pedido de throughput provisionado atual continua veiculando o tráfego de produção.
Avaliação on-line
Etapa 7: realizar a avaliação on-line
Só prossiga para a avaliação on-line se a avaliação off-line mostrar uma qualidade de saída adequada do Gemini e se o app exigir uma avaliação on-line.
A avaliação on-line é um caso especial de teste on-line. Tente usar as ferramentas e os procedimentos atuais da sua organização para a avaliação on-line. Exemplo:
Se a sua organização realiza testes A/B regularmente, faça um teste A/B que avalie a implementação atual do seu aplicativo em comparação com a versão 2 do Gemini.
Se a sua organização realiza implantações canário regularmente, faça isso com o Gemini 2 e meça as diferenças no comportamento do usuário.
A avaliação on-line também pode ser feita criando novos recursos de feedback e medição no seu aplicativo. Diferentes recursos de feedback e medição são adequados para diferentes aplicativos. Exemplo:
Adicionar botões de polegar para cima e para baixo ao lado das saídas do modelo e comparar as taxas de polegar para cima e para baixo entre um modelo mais antigo e o Gemini 2.
Mostre aos usuários o modelo mais antigo e as saídas do Gemini 2 lado a lado e peça para eles escolherem o favorito.
Monitorar com que frequência os usuários substituem ou ajustam manualmente o modelo mais antigo em comparação com as saídas do Gemini 2.
Esses tipos de mecanismos de feedback geralmente exigem a execução de uma versão do Gemini 2 do aplicativo em paralelo à versão atual. Essa implantação paralela às vezes é chamada de "modo sombra" ou "implantação azul-verde".
Se os resultados da avaliação on-line forem significativamente diferentes dos resultados da avaliação off-line, a avaliação off-line não vai capturar os principais aspectos do ambiente ativo ou da experiência do usuário. Use os resultados da avaliação on-line para criar uma nova avaliação off-line que cubra a lacuna exposta pela avaliação on-line e volte para a etapa 3.
Quando a avaliação mostrar que o Gemini 2 atende ou excede a performance de um modelo mais antigo, desative a versão atual do seu aplicativo em favor da versão do Gemini 2. Siga os procedimentos atuais da sua organização para o lançamento da produção.
Se você estiver usando a taxa de transferência provisionada, mude a ordem para o modelo Gemini 2 escolhido. Se você estiver lançando seu aplicativo de forma incremental, use a capacidade provisionada de curto prazo para atender aos requisitos de capacidade de dois modelos diferentes do Gemini.
Como melhorar o desempenho do modelo
Ao concluir a migração, use as dicas a seguir para maximizar a performance do modelo Gemini 2:
Teste um modelo mais eficiente. Por exemplo, se você avaliou o Gemini 2.0 Flash-Lite, teste o Gemini 2.0 Flash.
Examine os resultados da avaliação automatizada para garantir que eles correspondam ao julgamento humano, especialmente os resultados que usam um modelo de juiz. Verifique se as instruções do modelo de avaliação não contêm inconsistências ou ambiguidades.
Uma maneira de melhorar as instruções do modelo de julgamento é testar as instruções com vários humanos isoladamente e verificar se os julgamentos são consistentes. Se as pessoas interpretarem as instruções de forma diferente e emitirem julgamentos diferentes, as instruções do modelo de julgamento serão ambíguas.
Examine as saídas de avaliação para procurar padrões que mostrem tipos específicos de falhas. O agrupamento de falhas em diferentes modelos, tipos ou categorias fornece dados de avaliação mais direcionados, o que facilita o ajuste das instruções para corrigir esses erros.
Avalie de forma independente os diferentes componentes de IA generativa.
Se precisar de ajuda, o Google Cloud oferece pacotes de suporte para atender às suas necessidades, como cobertura 24 horas, suporte por telefone e acesso a um gerente de suporte técnico. Para mais informações, consulte o Suporte do Google Cloud.
[[["Fácil de entender","easyToUnderstand","thumb-up"],["Meu problema foi resolvido","solvedMyProblem","thumb-up"],["Outro","otherUp","thumb-up"]],[["Difícil de entender","hardToUnderstand","thumb-down"],["Informações incorretas ou exemplo de código","incorrectInformationOrSampleCode","thumb-down"],["Não contém as informações/amostras de que eu preciso","missingTheInformationSamplesINeed","thumb-down"],["Problema na tradução","translationIssue","thumb-down"],["Outro","otherDown","thumb-down"]],["Última atualização 2025-07-09 UTC."],[],[]]