Vertex AI propose une suite d'API pour vous aider à créer vos propres applications de génération augmentée par récupération (RAG) ou votre propre moteur de recherche. Cette page présente ces API.
Récupération et génération
La génération augmentée par récupération (RAG) est une méthodologie qui permet aux grands modèles de langage (LLM) de générer des réponses ancrées dans la source de données de votre choix. Le processus RAG comporte deux étapes :
- Récupération : obtenir rapidement les faits les plus pertinents peut être un problème de recherche courant. Avec le RAG, vous pouvez récupérer rapidement les faits importants pour générer une réponse.
- Génération : le LLM utilise les faits récupérés pour générer une réponse ancrée.
Vertex AI propose des options pour les deux étapes afin de répondre aux besoins de différents développeurs.
Récupération
Choisissez la méthode de récupération la mieux adaptée à vos besoins :
Vertex AI Search : Vertex AI Search est un moteur de récupération d'informations de qualité Google Search qui peut être un composant de toute application d'IA générative utilisant vos données d'entreprise. Vertex AI Search fonctionne comme un moteur de recherche sémantique et par mots clés prêt à l'emploi pour la RAG. Il peut traiter différents types de documents et dispose de connecteurs vers divers systèmes sources, y compris BigQuery et de nombreux systèmes tiers.
Pour en savoir plus, consultez Vertex AI Search.
Créez votre propre système de récupération : si vous souhaitez créer votre recherche sémantique, vous pouvez vous appuyer sur les API Vertex AI pour les composants de votre système RAG personnalisé. Cette suite d'API fournit des implémentations de haute qualité pour l'analyse de documents, la génération d'embeddings, la recherche vectorielle et le classement sémantique. L'utilisation de ces API de niveau inférieur vous offre une flexibilité totale dans la conception de votre récupérateur, tout en vous permettant de réduire les délais de commercialisation et d'obtenir une qualité élevée en vous appuyant sur les API Vertex AI de niveau inférieur.
Pour en savoir plus, consultez Créer votre propre génération augmentée par récupération.
Utiliser une récupération existante : vous pouvez utiliser votre recherche existante comme récupérateur pour la génération ancrée. Vous pouvez également utiliser les API Vertex pour le RAG afin d'améliorer la qualité de votre recherche existante. Pour en savoir plus, consultez la Présentation de l'ancrage.
Vertex AI RAG Engine : Vertex AI RAG Engine fournit un environnement d'exécution entièrement géré pour l'orchestration RAG, ce qui permet aux développeurs de créer des RAG à utiliser dans des contextes de production et d'entreprise.
Pour en savoir plus, consultez la présentation du moteur RAG de Vertex AI dans la documentation sur l'IA générative sur Vertex AI.
Recherche Google : lorsque vous utilisez l'ancrage avec la recherche Google pour votre modèle Gemini, Gemini utilise la recherche Google et génère une sortie ancrée sur les résultats de recherche pertinents. Cette méthode de récupération ne nécessite aucune gestion et vous permet d'accéder à l'ensemble des connaissances mondiales disponibles pour Gemini.
Pour en savoir plus, consultez Ancrage avec la recherche Google dans la documentation sur l'IA générative sur Vertex AI.
Génération
Choisissez la méthode de génération qui correspond le mieux à vos besoins :
Ancrer avec vos données : générez des réponses bien ancrées à la requête d'un utilisateur. L'API de génération ancrée utilise des modèles Gemini spécialisés et affinés. Elle permet de réduire efficacement les hallucinations et de fournir des réponses ancrées dans vos sources ou des sources tierces, y compris des références au contenu d'aide sur l'ancrage.
Pour en savoir plus, consultez Générer des réponses ancrées avec RAG.
Vous pouvez également ancrer les réponses dans vos données Vertex AI Search à l'aide de l'IA générative sur Vertex AI. Pour en savoir plus, consultez Ancrer avec vos données.
Ancrer avec la recherche Google : Gemini est le modèle le plus performant de Google et offre un ancrage prêt à l'emploi avec la recherche Google. Vous pouvez l'utiliser pour créer votre propre solution de génération ancrée entièrement personnalisée.
Pour en savoir plus, consultez Ancrage avec la recherche Google dans la documentation sur l'IA générative sur Vertex AI.
Model Garden : si vous souhaitez avoir un contrôle total et choisir le modèle de votre choix, vous pouvez utiliser n'importe quel modèle de Vertex AI Model Garden pour la génération.
Créez votre propre génération augmentée par récupération
Le développement d'un système RAG personnalisé pour l'ancrage offre flexibilité et contrôle à chaque étape du processus. Vertex AI propose une suite d'API pour vous aider à créer vos propres solutions de recherche. L'utilisation de ces API vous offre une flexibilité totale dans la conception de votre application RAG, tout en vous permettant de réduire les délais de commercialisation et d'obtenir une qualité élevée en vous appuyant sur ces API Vertex AI de niveau inférieur.
Analyseur de mise en page Document AI L'analyseur de mise en page Document AI transforme les documents de différents formats en représentations structurées, ce qui rend le contenu tel que les paragraphes, les tableaux, les listes et les éléments structurels tels que les titres, les en-têtes et les pieds de page accessibles. Il crée également des segments contextuels qui facilitent la récupération d'informations dans une gamme d'applications d'IA générative et de découverte.
Pour en savoir plus, consultez Analyseur de mise en page Document AI dans la documentation Document AI.
API Embeddings : les API Embeddings Vertex AI vous permettent de créer des embeddings pour des entrées textuelles ou multimodales. Les embeddings sont des vecteurs de nombres à virgule flottante conçus pour capturer la signification de leur entrée. Vous pouvez utiliser les embeddings pour optimiser la recherche sémantique à l'aide de Vector Search.
Pour en savoir plus, consultez Embeddings de texte et Embeddings multimodaux dans la documentation sur l'IA générative sur Vertex AI.
Vector Search Le moteur de récupération est un élément clé de votre application RAG ou de recherche. Vertex AI Vector Search est un moteur de récupération qui peut effectuer des recherches dans des milliards d'éléments sémantiquement similaires ou présentant des relations sémantiques à grande échelle, avec un nombre élevé de requêtes par seconde (RPS), un taux de rappel élevé, une faible latence et une meilleure rentabilité. Il peut effectuer des recherches sur des embeddings denses et est compatible avec la recherche par mot clé d'embeddings creux et la recherche hybride en Preview publique.
Pour en savoir plus, consultez la présentation de Vertex AI Vector Search dans la documentation Vertex AI.
L'API Ranking L'API Ranking prend en entrée une liste de documents et les reclasse en fonction de leur pertinence par rapport à une requête donnée. Par rapport aux embeddings qui examinent uniquement la similarité sémantique entre un document et une requête, l'API Ranking peut vous fournir un score plus précis sur la façon dont un document répond à une requête donnée.
Pour en savoir plus, consultez Améliorer la qualité de la recherche et de la RAG avec l'API Ranking.
L'API de génération ancrée. Utilisez l'API de génération ancrée pour générer des réponses bien ancrées à la requête d'un utilisateur. Les sources d'ancrage peuvent être vos datastores Vertex AI Search, des données personnalisées que vous fournissez ou la recherche Google.
Pour en savoir plus, consultez Générer des réponses ancrées.
L'API de génération de contenu. Utilisez l'API Generate Content pour générer des réponses bien ancrées à la requête d'un utilisateur. Les sources d'ancrage peuvent être vos data stores Vertex AI Search ou la recherche Google.
Pour en savoir plus, consultez Ancrer avec la recherche Google ou Ancrer avec vos données.
API Check Grounding L'API Check Grounding détermine le degré d'ancrage d'un texte donné dans un ensemble de textes de référence donné. L'API peut générer des citations à partir du texte de référence pour indiquer où le texte donné est étayé par les textes de référence. L'API peut, entre autres, être utilisée pour évaluer l'ancrage des réponses d'un système RAG. De plus, en tant que fonctionnalité expérimentale, l'API génère également des citations contradictoires qui montrent les points de désaccord entre le texte donné et les textes de référence.
Pour en savoir plus, consultez Vérifier l'ancrage.
Workflow : générer des réponses ancrées à partir de données non structurées
Voici un workflow qui explique comment intégrer les API Vertex AI RAG pour générer des réponses ancrées à partir de données non structurées.
- Importez vos documents non structurés, tels que des fichiers PDF, des fichiers HTML ou des images avec du texte, dans un emplacement Cloud Storage.
- Traitez les documents importés à l'aide de l'analyseur de mise en page. L'analyseur de mise en page décompose les documents non structurés en blocs et transforme le contenu non structuré en sa représentation structurée. L'analyseur de mise en page extrait également les annotations des blocs.
- Créez des embeddings de texte pour les blocs à l'aide de l'API Vertex AI Text Embeddings.
- Indexez et récupérez les embeddings de blocs à l'aide de Vector Search.
- Classez les blocs à l'aide de l'API Ranking et déterminez les blocs les mieux classés.
- Générez des réponses ancrées en fonction des blocs les mieux classés à l'aide de l'API de génération ancrée ou de l'API de génération de contenu.
Si vous avez généré les réponses à l'aide d'un modèle de génération de réponses autre que les modèles Google, vous pouvez vérifier l'ancrage de ces réponses à l'aide de la méthode check grounding.