Les modèles Gemini 2 sont les derniers modèles Google compatibles avec Vertex AI. Cette page présente les modèles suivants:
Pour en savoir plus sur notre modèle Gemini 2.5 Pro Experimental, consultez la documentation Gemini 2.5 Pro Experimental.
Modèles
2.0 Flash
Gemini 2.0 Flash est notre tout dernier modèle disponible dans la famille Gemini. Il s'agit de notre modèle de base pour toutes les tâches quotidiennes. Il offre des performances améliorées et est compatible avec l'API Live en temps réel.
Gemini 2.0 Flash introduit les nouvelles fonctionnalités suivantes:
- API Multimodal Live:cette nouvelle API permet des interactions vocales et vidéo bidirectionnelles à faible latence avec Gemini.
- Qualité:performances améliorées pour la plupart des critères de référence de qualité.
- Amélioration des fonctionnalités d'agentivité:2.0 Flash améliore la compréhension multimodale, le codage, le suivi d'instructions complexes et l'appel de fonctions. Ces améliorations fonctionnent ensemble pour offrir de meilleures expériences d'agent.
- Nouvelles modalités:Flash 2.0 introduit la génération d'images intégrée et des fonctionnalités de synthèse vocale contrôlées, ce qui permet de modifier des images, de créer des illustrations localisées et de raconter des histoires expressives.
Fonctionnalités de Gemini 2.0 Flash:
- Entrée multimodale
- Sortie textuelle (disponibilité générale) / sortie multimodale (aperçu privé)
- Optimiseurs de requêtes
- Génération contrôlée
- Appel de fonction
- Ancrage avec la recherche Google
- Exécution du code
- Jeton de comptage
Utilisez cet ID de modèle pour utiliser Gemini 2.0 Flash avec le SDK Gen AI: gemini-2.0-flash
Fonctionnalités disponibles
Les fonctionnalités suivantes sont disponibles pour Gemini 2.0 Flash:
Fonctionnalité | Niveau de disponibilité |
---|---|
Génération de texte | Disponibilité générale |
Ancrage avec la recherche Google | Disponibilité générale |
SDK Gen AI | Disponibilité générale |
API Multimodal Live | Version Preview publique |
Détection de cadre de délimitation | Version Preview publique |
Génération d'images | Version Preview privée |
Génération de la parole | Version Preview privée |
- Disponibilité générale:cette fonctionnalité est disponible publiquement et peut être utilisée dans le code de production.
- Preview publique:cette fonctionnalité est disponible publiquement dans une capacité réduite. N'utilisez pas les fonctionnalités publiées en version preview publique dans le code de production, car le niveau d'assistance et les fonctionnalités de cette fonctionnalité peuvent changer sans avertissement.
- Preview privée:cette fonctionnalité n'est disponible que pour les utilisateurs figurant sur une liste d'autorisation approuvée. N'utilisez pas de fonctionnalités publiées en version preview privée dans le code de production, car le niveau d'assistance et les fonctionnalités de cette fonctionnalité peuvent changer sans avertissement.
Tarifs
Pour en savoir plus sur les tarifs de Gemini 2.0 Flash, consultez la page des tarifs.
Quotas et limites
Les fonctionnalités GA de Gemini 2.0 Flash utilisent un quota partagé dynamique.
L'ancrage avec la recherche Google dans Gemini 2.0 Flash est soumis à une limitation de débit.
2.0 Flash-Lite
Gemini 2.0 Flash-Lite est notre modèle Flash le plus rapide et le plus économique.
Gemini 2.0 Flash-Lite inclut:
- Entrée multimodale, sortie textuelle
- Fenêtre de contexte d'entrée de 1 million de jetons
- Fenêtre de contexte de sortie de 8 000 jetons
2.0 Flash-Lite n'inclut pas les fonctionnalités suivantes:
- Génération de sorties multimodales
- Intégration à l'API Multimodal Live
- Mode de réflexion
- Utilisation des outils intégrés
Utilisez cet ID de modèle pour utiliser Gemini 2.0 Flash-Lite avec le SDK Gen AI: gemini-2.0-flash-lite
2.5 Pro Experimental
Gemini 2.5 Pro Experimental est notre modèle Gemini de raisonnement le plus avancé, en particulier pour la compréhension multimodale, le codage et la connaissance du monde. Gemini 2.5 Pro Experimental est disponible en tant que modèle expérimental dans Vertex AI.
Fonctionnalités de Gemini 2.5 Pro Experimental:
- Pensée et raisonnement
- Entrée multimodale
- Sortie textuelle
- Optimiseurs de requêtes
- Génération contrôlée
- Appel de fonction (à l'exception de l'appel de fonction compositionnel)
- Ancrage avec la recherche Google
- Exécution du code
- Jeton de comptage
Utilisez cet ID de modèle pour utiliser Gemini 2.5 Pro Experimental avec le SDK Gen AI: gemini-2.5-pro-exp-03-25
Quotas et limites
Gemini 2.5 Pro Experimental est limité à 10 requêtes par minute (RPM) pendant la phase expérimentale.
L'ancrage dans la recherche Google dans Gemini 2.5 Pro Experimental est soumis à une limitation de débit.
SDK Google Gen AI
Le SDK Gen AI fournit une interface unifiée à Gemini 2.0 via l'API Gemini Developer et l'API Gemini sur Vertex AI. À quelques exceptions près, le code qui s'exécute sur une plate-forme s'exécute sur les deux. Cela signifie que vous pouvez créer un prototype d'application à l'aide de l'API pour les développeurs, puis migrer l'application vers Vertex AI sans réécrire votre code.
Le SDK est disponible pour tous les utilisateurs en Python. La prise en charge de Go est en version preview, et celle de Java et JavaScript sera bientôt disponible.
Vous pouvez commencer à utiliser le SDK comme indiqué.
Gen AI SDK for Python
Installer
pip install --upgrade google-genai
Définissez des variables d'environnement pour utiliser le SDK Gen AI avec Vertex AI:
# Replace the `GOOGLE_CLOUD_PROJECT` and `GOOGLE_CLOUD_LOCATION` values # with appropriate values for your project. export GOOGLE_CLOUD_PROJECT=GOOGLE_CLOUD_PROJECT export GOOGLE_CLOUD_LOCATION=us-central1 export GOOGLE_GENAI_USE_VERTEXAI=True