Cette page fournit une comparaison du texte AutoML et Gemini pour aider les utilisateurs de texte AutoML à comprendre comment utiliser Gemini.
Consultez les tableaux qui s'appliquent à votre cas d'utilisation et passez en revue les modifications susceptibles d'avoir un impact sur votre workflow.
Utilisation générale
Ces différences s'appliquent à tous les utilisateurs de Gemini.
Opération | Texte AutoML | Gemini |
---|---|---|
Formats de données d'entraînement | Vous pouvez utiliser des fichiers CSV ou JSON Lines, à l'exception de l'extraction d'entités textuelles, pour inclure des extraits de texte intégrés ou pour faire référence à des documents de type TXT . L'extraction d'entités n'accepte que les fichiers JSON Lines. |
Vous ne pouvez utiliser que des fichiers JSON Lines. Chaque ligne du fichier doit représenter un seul exemple d'entraînement. Vous pouvez télécharger un exemple d'ensemble de données pour affiner les modèles Gemini. Les fichiers doivent être stockés dans Cloud Storage. |
Annotations d'ensembles de données |
Les annotations sont regroupées dans un objet AnnotationSet .
Vous pouvez utiliser différents ensembles d'annotations avec le même ensemble de données.
|
Les annotations d'ensemble de données ne sont pas applicables avec Gemini. |
Importation d'un ensemble de données | Spécifiez les valeurs d'utilisation de ML dans une colonne facultative pour CSV, sur la même ligne que les données, ou en tant que tag dans JSON Lines dans le même objet JSON que les données. Si vous ne spécifiez pas de valeurs d'utilisation de ML, vos données sont automatiquement divisées pour l'entraînement, les tests et la validation. Pour l'analyse des sentiments, les fichiers CSV doivent inclure la valeur maximale du sentiment dans la dernière colonne de chaque ligne. |
Vous devez disposer de deux fichiers JSONL distincts, un pour l'entraînement et un pour la validation. Le fichier de validation est facultatif. Le fichier de validation doit contenir entre 10 et 256 exemples. |
Coûts de stockage | Lorsque vous créez un ensemble de données, les données sont chargées dans Cloud Storage dans votre projet. Ce stockage vous est facturé. En savoir plus. | Lorsque vous créez un ensemble de données, les données sont chargées dans Cloud Storage dans votre projet. Ce stockage vous est facturé. En savoir plus |
Ajout d'étiquettes aux données |
Vous devez utiliser une URL pour fournir des instructions d'étiquetage. Les annotations font partie de l'objet Dataset et ne peuvent pas être manipulées à l'aide de l'API.
|
L'étiquetage des données n'est pas applicable avec Gemini. |
Déploiement du modèle |
Créez un objet de point de terminaison qui fournit des ressources permettant de diffuser des prédictions en ligne. Déployez ensuite le modèle sur le point de terminaison.
Pour demander des prédictions, appelez la méthode predict() .
|
Après avoir optimisé Gemini, le modèle est stocké dans Vertex AI Model Registry et un point de terminaison est automatiquement créé. Les prédictions en ligne à partir du modèle réglé peuvent être demandées à l'aide du SDK Python, de l'API REST ou de la console. Pour demander des prédictions, commencez par récupérer le point de terminaison réglé, puis utilisez la méthode generate_content() . |
Utilisez un numéro de projet ou un ID de projet |
project-number et project-id fonctionnent tous deux dans l'IA Vertex.
|
Gemini utilise project-id . |
Scores de confiance | Le texte AutoML accepte les scores de confiance. | Gemini n'est pas compatible avec les scores de confiance. |
Utilisateurs de l'API
Pour en savoir plus sur l'API, consultez la documentation de référence de l'API de réglage Vertex AI - IA générative.
Opération ou entité | Texte AutoML | Gemini |
---|---|---|
Création de modèle |
Vous devez créer un objet TrainingPipeline qui renvoie une tâche d'entraînement.
|
Vous créez un job de réglage supervisé qui renvoie le job de réglage. |
Utiliser la bibliothèque cliente | Il existe différents clients API pour chaque ressource API. | Vous pouvez créer un job de réglage supervisé pour Gemini à l'aide du SDK Python, de l'API REST ou de la console. |
Effectuer une requête de prédiction |
Pour demander des prédictions, appelez la méthode predict() sur la ressource de point de terminaison.
|
Pour demander des prédictions, vous devez d'abord extraire le point de terminaison réglé, puis utiliser la méthode generate_content . |
Point de terminaison de prédiction en ligne | Dans la commande suivante, remplacez REGION par la région dans laquelle se trouve le modèle de prédiction.REGION-aiplatform.googleapis.com .
Exemple :us-central1-aiplatform.googleapis.com |
Dans la commande suivante, remplacez TUNING_JOB_REGION par la région dans laquelle votre job de réglage s'exécute.TUNING_JOB_REGION-aiplatform.googleapis.com .
Exemple :us-central1-aiplatform.googleapis.com |
Fichiers de schéma et de définition | Certains champs de requête et de réponse sont définis dans les fichiers de schéma et de définition. Les formats de données sont définis à l'aide de fichiers de schéma prédéfinis. Cela offre plus de flexibilité pour l'API et les formats de données. | Le corps de la requête, les paramètres du modèle et le corps de la réponse sont les mêmes que pour les modèles Gemini non réglés. Consultez les exemples de requêtes. |
Nom d'hôte | aiplatform.googleapis.com |
aiplatform.googleapis.com |
Nom d'hôte régional | Obligatoire. Exemple :us-central1-aiplatform.googleapis.com |
Obligatoire. Exemple :us-central1-aiplatform.googleapis.com |
Étape suivante
Pour commencer à utiliser le réglage, consultez la page Réglage des modèles pour les modèles textuels Gemini