Ce document décrit la conception de Gemini pour Google Cloud en termes de capacités, de limites et de risques associés à l'IA générative.
Capacités et risques des grands modèles de langage
Les grands modèles de langage (LLM) peuvent effectuer de nombreuses tâches utiles, par exemple :
- traduire des langues ;
- résumer du texte ;
- générer du code et des contenus créatifs ;
- alimenter des chatbots et des assistants virtuels ;
- compléter les moteurs de recherche et les systèmes de recommandation.
Parallèlement, l'évolution des capacités techniques des LLM peut entraîner une mauvaise application, une utilisation abusive et des conséquences inattendues ou imprévues.
Les LLM peuvent générer des résultats inattendus, y compris du texte offensant, insensible ou incorrect. En raison de l'incroyable polyvalence des LLM, il peut être difficile de prédire exactement les types de résultats involontaires ou imprévus qu'ils pourraient produire.
Compte tenu de ces risques et de ces complexités, Gemini pour Google Cloud est conçu en appliquant les principes de Google concernant l'IA. Toutefois, il est important que les utilisateurs comprennent certaines limites de Gemini pour Google Cloud afin de s'en servir de façon sécurisée et responsable.
Limites de Gemini pour Google Cloud
Voici quelques-unes des limites que vous pouvez rencontrer lorsque vous utilisez Gemini pour Google Cloud :
Cas particuliers : les cas particuliers font référence à des situations inhabituelles, rares ou exceptionnelles qui ne sont pas bien représentées dans les données d'entraînement. Ces cas peuvent limiter les performances des modèles Gemini (par exemple, confiance excessive du modèle, mauvaise interprétation du contexte ou sorties inappropriées).
Hallucinations du modèle, ancrage et factualité : les modèles Gemini peuvent manquer d'ancrage et de factualité dans les connaissances réelles, les propriétés physiques ou la compréhension précise. Cette limitation peut conduire à des hallucinations du modèle, c'est-à-dire des instances dans lesquelles Gemini pour Google Cloud peut générer des résultats qui semblent plausibles, mais qui sont en fait incorrects, non pertinents, inappropriés ou absurdes. Les hallucinations peuvent également inclure la fabrication de liens vers des pages Web qui n'existent pas et n'ont jamais existé. Pour en savoir plus, consultez Rédiger de meilleurs prompts pour Gemini dans Google Cloud.
Qualité et réglage des données : la qualité, la précision et le biais des données de prompt saisies dans Gemini pour Google Cloudpeuvent avoir un impact significatif sur ses performances. Si les utilisateurs saisissent des prompts inexacts ou incorrects, Gemini pour Google Cloudpeut renvoyer des réponses non optimales ou fausses.
Amplification des biais : les modèles de langage peuvent amplifier par inadvertance les biais existants dans leurs données d'entraînement, ce qui peut se traduire par un renforcement supplémentaire des préjugés sociétaux et du traitement inégal de certains groupes.
Qualité du langage : bien que Gemini pour Google Cloudoffre des capacités multilingues impressionnantes sur les critères de référence que nous avons évalués, la majorité de nos benchmarks (y compris toutes les évaluations de l'équité) sont en anglais américain.
Les modèles de langage peuvent fournir une qualité de service incohérente à différents utilisateurs. Par exemple, la génération de texte peut ne pas être aussi efficace pour certains dialectes ou variantes de langues, car ils sont sous-représentés dans les données d'entraînement. Les performances peuvent être inférieures pour les langues autres que l'anglais ou pour les langues anglaises moins représentées.
Analyses comparatives et sous-groupes d'équité : les analyses d'équité des modèles Gemini apportées par Google Research ne fournissent pas un compte exhaustif des différents risques potentiels. Par exemple, nous nous concentrons sur les biais en fonction du genre, de l'origine ethnique, de la philosophie et de la culture, mais nous n'effectuons l'analyse que sur les données en anglais américain et les résultats du modèle.
Expertise de domaine limitée : les modèles Gemini ont été entraînés sur la technologie Google Cloud , mais ils peuvent ne pas posséder les connaissances nécessaires pour fournir des réponses précises et détaillées sur des sujets hautement spécialisés ou techniques, ce qui entraîne des informations fictives ou incorrectes.
Lorsque vous utilisez le volet Gemini dans la console Google Cloud , Gemini n'a pas conscience du contexte de votre environnement spécifique. Il ne peut donc pas répondre à des questions telles que "Quand ai-je créé une VM pour la dernière fois ?"
Dans certains cas, Gemini pour Google Cloud envoie un segment spécifique de votre contexte au modèle pour recevoir une réponse adaptée. Par exemple, lorsque vous cliquez sur le bouton Résoudre les problèmes liés aux suggestions sur la page du service Error Reporting.
Filtrage de sécurité et de toxicité dans Gemini
Les prompts et réponses de Gemini pour Google Cloud sont vérifiés par rapport à une liste complète d'attributs de sécurité, selon le cas d'utilisation. Ces attributs de sécurité visent à filtrer les contenus qui enfreignent notre Règlement sur l'utilisation acceptable. Si un résultat est considéré comme dangereux, la réponse sera bloquée.