Gemini 2

Os modelos Gemini 2 são os modelos mais recentes do Google com suporte na Vertex AI. Esta página aborda os seguintes modelos:

Para informações sobre o modelo de pré-lançamento do Gemini 2.5 Pro, acesse a documentação do Gemini 2.5 Pro.

Modelos

2.0 Flash

O Gemini 2.0 Flash é o modelo mais recente da família Gemini disponível para todos. É o modelo de trabalho para todas as tarefas diárias e oferece desempenho aprimorado e suporte à API Live em tempo real.

O Gemini 2.0 Flash apresenta os seguintes recursos novos e aprimorados:

  • API Multimodal Live:essa nova API permite interações de voz e vídeo bidirecionais de baixa latência com o Gemini.
  • Qualidade:performance aprimorada na maioria dos comparativos de mercado de qualidade.
  • Melhoria nos recursos de agente:o 2.0 Flash oferece melhorias na compreensão multimodal, programação, acompanhamento de instruções complexas e chamada de função. Essas melhorias funcionam juntas para oferecer experiências mais autônomas.
  • Novas modalidades:o Flash 2.0 apresenta recursos integrados de geração de imagens e conversão de texto em fala controlável, permitindo a edição de imagens, a criação de artes localizadas e a narrativa expressiva.

Recursos do Gemini 2.0 Flash:

  • Entrada multimodal
  • Saída de texto (disponibilidade geral) / saída multimodal (visualização particular)
  • Otimizadores de comandos
  • Geração controlada
  • Chamadas de função
  • Embasamento com a Pesquisa Google
  • Execução do código
  • Token de contagem

Use este ID de modelo para usar o Gemini 2.0 Flash com o SDK da IA generativa: gemini-2.0-flash

Disponibilidade do recurso

Os seguintes recursos estão disponíveis para o Gemini 2.0 Flash:

Recurso Nível de disponibilidade
Geração de texto Disponibilidade geral
Embasamento com a Pesquisa Google Disponibilidade geral
SDK da Gen AI Disponibilidade geral
API Multimodal Live Pré-lançamento público
Detecção de caixa delimitadora Pré-lançamento público
Geração de imagens Pré-lançamento particular
Geração de fala Pré-lançamento particular
  • Disponível de forma geral:esse recurso está disponível publicamente e tem suporte para uso em código de produção.
  • Pré-lançamento público:esse recurso está disponível publicamente em uma capacidade reduzida. Não use recursos lançados como uma prévia pública no código de produção, porque o nível de suporte e a funcionalidade desse recurso podem mudar sem aviso.
  • Prévia particular:esse recurso está disponível apenas para usuários listados em uma lista de permissões aprovada. Não use recursos lançados como uma prévia privada no código de produção, porque o nível de suporte e a funcionalidade desse recurso podem mudar sem aviso.

Preços

Informações sobre os preços do Gemini 2.0 Flash estão disponíveis na nossa página de preços.

Cotas e limitações

Os recursos de GA no Gemini 2.0 Flash usam a cota compartilhada dinâmica.

O embasamento na Pesquisa Google no Gemini 2.0 Flash está sujeito a limitação de taxa.

2.0 Flash-Lite

O Gemini 2.0 Flash-Lite é nosso modelo Flash mais rápido e econômico.

O Gemini 2.0 Flash-Lite inclui:

  • Entrada multimodal, saída de texto
  • Janela de contexto de entrada com 1 milhão de tokens
  • Janela de contexto de saída de 8 mil tokens

O 2.0 Flash-Lite não inclui os seguintes recursos:

  • Geração de saída multimodal
  • Integração com a API Multimodal Live
  • Modo de pensamento
  • Uso da ferramenta integrada

Use este ID de modelo para usar o Gemini 2.0 Flash-Lite com o SDK da IA generativa: gemini-2.0-flash-lite

2.5 Pro

O Gemini 2.5 Pro Preview é nosso modelo de raciocínio Gemini mais avançado, especialmente para compreensão multimodal, programação e conhecimento geral. A prévia do Gemini 2.5 Pro está disponível como um modelo de pré-lançamento na Vertex AI.

Recursos da prévia do Gemini 2.5 Pro:

  • Pensamento e raciocínio
  • Entrada multimodal
  • Saída de texto
  • Otimizadores de comandos
  • Geração controlada
  • Chamada de função (exceto chamada de função compositiva)
  • Embasamento com a Pesquisa Google
  • Execução do código
  • Token de contagem

Use este ID de modelo para usar a prévia do Gemini 2.5 Pro com o SDK da Gen AI: gemini-2.5-pro-preview-03-25

Cotas e limitações

A pré-lançamento do Gemini 2.5 Pro tem uma taxa limitada a 20 consultas por minuto (QPM) durante o período de pré-lançamento.

O embasamento com a Pesquisa Google na versão de pré-lançamento do Gemini 2.5 Pro está sujeito a limitação de taxa.

SDK do Google Gen AI

O SDK da IA generativa oferece uma interface unificada para o Gemini 2 pela API Gemini Developer e pela API Gemini na Vertex AI. Com poucas exceções, o código executado em uma plataforma é executado nas duas. Isso significa que você pode criar protótipos de um aplicativo usando a API para desenvolvedores e migrar o aplicativo para a Vertex AI sem reescrever o código.

O SDK está disponível para todos os usuários no Python. O suporte para Go está em pré-lançamento, e o suporte para Java e JavaScript será disponibilizado em breve.

Você pode começar a usar o SDK como mostrado.

Gen AI SDK for Python

Instalar

pip install --upgrade google-genai
Para saber mais, consulte a documentação de referência do SDK.

Defina variáveis de ambiente para usar o SDK da IA generativa com a Vertex AI:

# Replace the `GOOGLE_CLOUD_PROJECT` and `GOOGLE_CLOUD_LOCATION` values
# with appropriate values for your project.
export GOOGLE_CLOUD_PROJECT=GOOGLE_CLOUD_PROJECT
export GOOGLE_CLOUD_LOCATION=us-central1
export GOOGLE_GENAI_USE_VERTEXAI=True

from google import genai
from google.genai.types import HttpOptions

client = genai.Client(http_options=HttpOptions(api_version="v1"))
response = client.models.generate_content(
    model="gemini-2.0-flash-001",
    contents="How does AI work?",
)
print(response.text)
# Example response:
# Okay, let's break down how AI works. It's a broad field, so I'll focus on the ...
#
# Here's a simplified overview:
# ...