Gemini 2

Los modelos de Gemini 2 son los modelos de Google más recientes que se admiten en Vertex AI. En esta página, se analizan los siguientes modelos:

Si buscas información sobre nuestro Gemini 2.5 Pro Preview, visita nuestra documentación de Gemini 2.5 Pro Preview.

Modelos

2.0 Flash

Gemini 2.0 Flash es nuestro modelo más reciente disponible de forma general en la familia Gemini. Es nuestro modelo de trabajo para todas las tareas diarias, tiene un rendimiento mejorado y admite la API en vivo en tiempo real.

Gemini 2.0 Flash presenta las siguientes funciones nuevas y mejoradas:

  • API de Multimodal Live: Esta nueva API habilita interacciones de voz y video bidireccionales de baja latencia con Gemini.
  • Calidad: Se mejoró el rendimiento en la mayoría de las comparativas de calidad.
  • Capacidades de agente mejoradas: 2.0 Flash ofrece mejoras en la comprensión multimodal, la programación, el seguimiento de instrucciones complejas y las llamadas a funciones. Estas mejoras funcionan en conjunto para ofrecer mejores experiencias de agentes.
  • Nuevas modalidades: Flash 2.0 presenta capacidades de generación de imágenes integradas y texto a voz controlable, lo que permite la edición de imágenes, la creación de material gráfico localizado y la narración expresiva.

Funciones de Gemini 2.0 Flash:

  • Entrada multimodal
  • Salida de texto (disponibilidad general) / salida multimodal (vista previa privada)
  • Optimizadores de instrucciones
  • Generación controlada
  • Llamada a función
  • Fundamentación con la Búsqueda de Google
  • Ejecución de código
  • Cuenta el token

Usa este ID de modelo para usar Gemini 2.0 Flash con el SDK de Gen AI: gemini-2.0-flash

Disponibilidad de las características

Las siguientes funciones están disponibles para Gemini 2.0 Flash:

Función Nivel de disponibilidad
Generación de texto Disponible de manera general
Grounding with Google Search Disponible de manera general
SDK de Gen AI Disponible de manera general
API de Multimodal Live Versión preliminar pública
Detección de cuadros de límite Versión preliminar pública
Generación de imágenes Versión preliminar privada
Generación de voz Versión preliminar privada
  • Disponibilidad general: Esta función está disponible de forma pública y es compatible con el uso en código a nivel de producción.
  • Versión preliminar pública: Esta función está disponible públicamente en una capacidad reducida. No uses funciones que se hayan lanzado como versión preliminar pública en el código de producción, ya que el nivel de compatibilidad y la funcionalidad de esa función pueden cambiar sin previo aviso.
  • Versión preliminar privada: Esta función solo está disponible para los usuarios que figuran en una lista de entidades permitidas aprobada. No uses funciones que se lanzan como una vista preliminar privada en el código de producción, ya que el nivel de compatibilidad y la funcionalidad de esa función pueden cambiar sin previo aviso.

Precios

La información sobre los precios de Gemini 2.0 Flash está disponible en nuestra página de precios.

Cuotas y limitaciones

Las funciones de GA en Gemini 2.0 Flash usan una cuota compartida dinámica.

La verificación de la conexión a tierra con la Búsqueda de Google en Gemini 2.0 Flash está sujeta al límite de frecuencia.

2.0 Flash-Lite

Gemini 2.0 Flash-Lite es nuestro modelo de Flash más rápido y rentable.

Gemini 2.0 Flash-Lite incluye lo siguiente:

  • Entrada multimodal, salida de texto
  • Ventana de contexto de entrada de 1 millón de tokens
  • Ventana de contexto de salida de 8,000 tokens

2.0 Flash-Lite no incluye las siguientes funciones:

  • Generación de resultados multimodales
  • Integración con la API de Multimodal Live
  • Modo de pensamiento
  • Uso de herramientas integradas

Usa este ID de modelo para usar Gemini 2.0 Flash-Lite con el SDK de Gen AI: gemini-2.0-flash-lite

2.5 Pro

Gemini 2.5 Pro Preview es nuestro modelo de Gemini de razonamiento más avanzado, especialmente para la comprensión multimodal, la programación y el conocimiento del mundo. La versión preliminar de Gemini 2.5 Pro está disponible como modelo preliminar en Vertex AI.

Funciones de la versión preliminar de Gemini 2.5 Pro:

  • Pensamiento y razonamiento
  • Entrada multimodal
  • Salida de texto
  • Optimizadores de instrucciones
  • Generación controlada
  • Llamadas a función (sin incluir llamadas a función de composición)
  • Fundamentación con la Búsqueda de Google
  • Ejecución de código
  • Cuenta el token

Usa este ID de modelo para usar la vista previa pro de Gemini 2.5 con el SDK de Gen AI: gemini-2.5-pro-preview-03-25

Cuotas y limitaciones

La versión preliminar de Gemini 2.5 Pro tiene una limitación de frecuencia de 20 consultas por minuto (QPM) durante su período de vista previa.

La verificación de la conexión a tierra con la Búsqueda de Google en la versión preliminar de Gemini 2.5 Pro está sujeta al límite de frecuencia.

Google Gen AI SDK

El SDK de IA generativa proporciona una interfaz unificada a Gemini 2 a través de la API para desarrolladores de Gemini y la API de Gemini en Vertex AI. Con algunas excepciones, el código que se ejecuta en una plataforma se ejecutará en ambas. Esto significa que puedes crear prototipos de una aplicación con la API para desarrolladores y, luego, migrar la aplicación a Vertex AI sin reescribir el código.

El SDK está disponible de forma general en Python. La compatibilidad con Go está en versión preliminar, y la compatibilidad con Java y JavaScript estará disponible próximamente.

Puedes comenzar a usar el SDK como se muestra.

Gen AI SDK for Python

Instalar

pip install --upgrade google-genai
Para obtener más información, consulta la documentación de referencia del SDK.

Establece variables de entorno para usar el SDK de Gen AI con Vertex AI:

# Replace the `GOOGLE_CLOUD_PROJECT` and `GOOGLE_CLOUD_LOCATION` values
# with appropriate values for your project.
export GOOGLE_CLOUD_PROJECT=GOOGLE_CLOUD_PROJECT
export GOOGLE_CLOUD_LOCATION=us-central1
export GOOGLE_GENAI_USE_VERTEXAI=True

from google import genai
from google.genai.types import HttpOptions

client = genai.Client(http_options=HttpOptions(api_version="v1"))
response = client.models.generate_content(
    model="gemini-2.0-flash-001",
    contents="How does AI work?",
)
print(response.text)
# Example response:
# Okay, let's break down how AI works. It's a broad field, so I'll focus on the ...
#
# Here's a simplified overview:
# ...