Choix de la base de données vectorielle dans le moteur de RAG Vertex AI

Cette page vous présente les bases de données vectorielles compatibles avec le moteur RAG Vertex AI. Vous pouvez également découvrir comment connecter une base de données vectorielle (magasin de vecteurs) à votre corpus RAG.

Un problème courant avec les LLM est qu'ils ne comprennent pas les connaissances privées, c'est-à-dire les données de votre organisation. Avec le moteur RAG Vertex AI, vous pouvez enrichir le contexte LLM avec des informations privées supplémentaires, car le modèle peut réduire les hallucinations et répondre aux questions plus précisément.

Les bases de données vectorielles jouent un rôle crucial dans la récupération des applications RAG. Les bases de données vectorielles offrent un moyen spécialisé de stocker et d'interroger des embeddings vectoriels, qui sont des représentations mathématiques de texte ou d'autres données qui capturent la signification et les relations sémantiques. Les embeddings vectoriels permettent aux systèmes RAG de trouver rapidement et précisément les informations les plus pertinentes dans une vaste base de connaissances, même lorsqu'ils traitent des requêtes complexes ou nuancées. Lorsqu'elles sont combinées à un modèle d'embedding, les bases de données vectorielles peuvent aider à surmonter les limites des LLM et à fournir des réponses plus précises, pertinentes et complètes.

Bases de données vectorielles compatibles

Lorsque vous créez un corpus RAG, le moteur RAG Vertex AI propose RagManagedDb comme base de données vectorielle par défaut, qui ne nécessite aucun provisionnement ni gestion supplémentaires. Pour que le moteur RAG Vertex AI crée et gère automatiquement la base de données vectorielle, consultez Créer un corpus RAG.

En plus de l'RagManagedDb par défaut, le moteur RAG Vertex AI vous permet de provisionner et d'utiliser votre base de données vectorielle dans votre corpus RAG. Dans ce cas, vous êtes responsable du cycle de vie et de la scalabilité de votre base de données vectorielle.

Comparer les options de base de données vectorielle

Ce tableau liste les bases de données vectorielles disponibles dans le moteur RAG de Vertex AI et fournit des liens vers des pages expliquant comment les utiliser dans votre corpus RAG.

Pour identifier la base de données vectorielle qui répond à vos besoins, utilisez ce tableau pour comparer les options de base de données vectorielle:

Base de données vectorielle Description Avantages Inconvénients Métriques de distance compatibles avec le moteur RAG Vertex AI Type de recherche Étape de lancement dans le moteur RAG Vertex AI Prêt pour la production Application idéale
RagManagedDb (default) RagManagedDb est un service de base de données évolutif distribué à l'échelle régionale qui offre une cohérence et une haute disponibilité.

RagManagedDb peut être utilisé pour une recherche vectorielle.
  • Aucune configuration n'est requise. Convient pour un démarrage rapide et les cas d'utilisation à petite échelle.
  • Disponibilité cohérente et élevée.
  • Latence faible.
  • Excellent pour les charges de travail transactionnelles.
  • La capacité est volontairement limitée.
  • Non recommandé pour les cas d'utilisation à grande échelle.
cosine KNN Aperçu
  • PoC rapide
  • Chatbots
  • Applications RAG
Vector Search Vector Search est le service de base de données vectorielle de Vertex AI.

Vector Search est optimisé pour les tâches de machine learning et s'intègre à d'autres Google Cloud services.
  • Vector Search s'intègre à Vertex AI et à d'autres Google Cloud services.
  • L'infrastructure Google Cloud est compatible avec l'évolutivité et la fiabilité.
  • Utilise un modèle de paiement à l'usage.
  • Cohérent à terme, ce qui signifie que les mises à jour ne sont pas immédiatement prises en compte.
  • Nouveau service avec des fonctionnalités en constante évolution.
  • Dépendance vis-à-vis d'un fournisseur avec Google Cloud.
  • Peut s'avérer coûteux selon vos cas d'utilisation.
cosine

dot-product
ANN DG
  • Documents volumineux
  • RAG à l'échelle de l'entreprise
  • Gérer l'infrastructure de base de données vectorielle
  • Clients Google Cloud existants ou personnes souhaitant utiliser plusieurs Google Cloud services
Vertex AI Feature Store

Vertex AI Feature Store est un service géré permettant d'organiser, de stocker et de diffuser des fonctionnalités de machine learning.

Vertex AI Feature Store est optimisé pour les tâches de machine learning et s'intègre à d'autres Google Cloud services.

  • Vertex AI Feature Store s'intègre à Vertex AI et à d'autres services Google Cloud .
  • L'infrastructure Google Cloud est compatible avec l'évolutivité et la fiabilité.
  • Exploite l'infrastructure BigQuery existante comme Vertex AI Feature Store, ce qui offre une solution économique et évolutive.
  • Les modifications ne sont disponibles dans la boutique en ligne qu'après la synchronisation manuelle.
  • Dépendance vis-à-vis d'un fournisseur avec Google Cloud.
cosine

dot-product

L2 squared
ANN Aperçu
  • Documents volumineux
  • RAG à l'échelle de l'entreprise
  • Gérer l'infrastructure de base de données vectorielle
  • Clients Google Cloud existants ou clients souhaitant utiliser plusieurs Google Cloud services
Weaviate Weaviate est une base de données vectorielle Open Source axée sur la flexibilité et la modularité.

Weaviate est compatible avec différents types de données et offre des fonctionnalités de graphiques intégrées.
  • Weaviate propose une solution Open Source et une communauté dynamique.
  • Ils sont très flexibles et personnalisables.
  • Compatible avec différents types et modules de données pour différentes modalités, telles que le texte et les images.
  • Vous pouvez choisir parmi les fournisseurs cloud tels que Google Cloud, AWS et Azure.
  • Cohérent à terme, ce qui signifie que les mises à jour ne sont pas immédiatement prises en compte.
  • La configuration et la gestion peuvent être plus complexes.
  • Les performances peuvent varier en fonction de la configuration.
cosine

dot-product

L2 squared

hamming

manhattan
Compatibilité avec les ANN et la recherche hybride Aperçu
  • Documents volumineux
  • RAG à l'échelle de l'entreprise
  • Gérer l'infrastructure de base de données vectorielle
  • Clients Weaviate existants
Pignon de pin Pinecone est une base de données vectorielle cloud native entièrement gérée, conçue pour une recherche de similarité hautes performances.
  • Lancez-vous rapidement.
  • Excellente évolutivité et performances
  • Concentrez-vous sur la recherche vectorielle avec des fonctionnalités avancées telles que le filtrage et la recherche de métadonnées.
  • Vous pouvez choisir parmi les fournisseurs cloud tels que Google Cloud, AWS et Azure.
  • Cohérent à terme, ce qui signifie que les mises à jour ne sont pas immédiatement prises en compte.
  • Peut s'avérer plus coûteux que d'autres options.
  • Les quotas et les limites limitent l'échelle et les performances.
  • Contrôle limité sur l'infrastructure sous-jacente.
cosine

euclidean

dot-product
ANN DG
  • Documents volumineux
  • RAG à l'échelle de l'entreprise
  • Gérer l'infrastructure de base de données vectorielle
  • Clients Pinecone existants

Étape suivante