Ancrer avec vos données

Cette page explique comment ancrer les réponses à l'aide de vos données provenant de Vertex AI Search (version preview).

Ancrer Gemini sur vos données

Si vous souhaitez effectuer une génération augmentée par récupération (RAG), associez votre modèle aux données de votre site Web ou à vos ensembles de documents, puis utilisez l'ancrage avec Vertex AI Search.

L'ancrage sur vos données est compatible avec un maximum de 10 sources de données Vertex AI Search et peut être combiné à l'ancrage avec la recherche Google.

Modèles compatibles

Cette section liste les modèles compatibles avec l'ancrage avec vos données. Pour découvrir comment chaque modèle génère des réponses fondées, suivez ces instructions:

  1. Essayez un modèle listé dans ce tableau dans la console Google Cloud.

  2. Cliquez sur le bouton Ancrage pour l'activer.

  3. Cliquez sur Personnaliser. Le volet Personnaliser l'ancrage s'affiche.

  4. Sélectionnez Vertex AI Search.

  5. Dans la section Ancrage avec Vertex AI Search, saisissez le chemin d'accès du data store Vertex AI. Si vous ne disposez pas d'un data store Vertex AI, créez-en un. Pour en savoir plus, consultez Créer un entrepôt de données.

  6. Cliquez sur Enregistrer.

Modèle Description Essayer un modèle
Gemini 1.5 Pro
Saisie de texte uniquement Essayer le modèle Gemini 1.5 Pro
Gemini 1.5 Flash
Saisie de texte uniquement Essayer le modèle Gemini 1.5 Flash
Gemini 1.0 Pro
Saisie de texte uniquement Essayer le modèle Gemini 1.0 Pro
Gemini 2.0 Flash
Texte, code, images, audio, vidéo, vidéo avec audio, PDF Essayer le modèle Gemini 2.0 Flash

Prérequis

Avant de pouvoir ancrer la sortie du modèle sur vos données, procédez comme suit:

  1. Activez Vertex AI Agent Builder et activez l'API.
  2. Créez une source de données et une application Vertex AI Agent Builder.

Pour en savoir plus, consultez la Présentation de Vertex AI Search.

Activer Vertex AI Agent Builder

  1. Dans la console Google Cloud, accédez à la page Agent Builder.

    Agent Builder

  2. Lisez et acceptez les conditions d'utilisation, puis cliquez sur Continuer et activer l'API.

Vertex AI Agent Builder est disponible dans l'emplacement global ou dans les emplacements multirégionaux eu et us. Pour en savoir plus, consultez la page Emplacements Vertex AI Agent Builder.

Créer un datastore dans Vertex AI Agent Builder

Pour créer un datastore dans Vertex AI Agent Builder, vous pouvez choisir de l'ancrer avec des données de site Web ou des documents.

Site Web

  1. Ouvrez la page Créer un Datastore dans la console Google Cloud.

  2. Dans la zone Contenu de site Web, cliquez sur Sélectionner.
    Le volet Spécifier les sites Web de votre data store s'affiche.

  3. Si l'option Indexation avancée de sites Web n'est pas cochée, cochez la case Indexation avancée de sites Web pour l'activer.
    Le volet Configurer votre datastore s'affiche.

  4. Dans la section Spécifier les formats d'URL à indexer, procédez comme suit:

    • Ajoutez les URL des sites à inclure.
    • Facultatif: Ajoutez des URL pour Sites à exclure.
  5. Cliquez sur Continuer.

  6. Dans le volet Configurer votre data store,

    1. Sélectionnez une valeur dans la liste Emplacement de votre data store.
    2. Saisissez un nom dans le champ Nom de votre data store. L'ID est généré. Utilisez cet ID lorsque vous générez vos réponses étayées avec votre data store. Pour en savoir plus, consultez Générer des réponses fondées avec votre entrepôt de données.
    3. Cliquez sur Créer.

Documents

  1. Ouvrez la page Créer un Datastore dans la console Google Cloud.

  2. Dans la zone Cloud Storage, cliquez sur Sélectionner.
    Le volet Importer des données depuis Cloud Storage s'affiche.

  3. Dans la section Documents non structurés (PDF, HTML, TXT, etc.), sélectionnez Documents non structurés (PDF, HTML, TXT, etc.).

  4. Sélectionnez une option de fréquence de synchronisation.

  5. Sélectionnez une option Sélectionnez un dossier ou un fichier à importer, puis saisissez le chemin d'accès dans le champ.

  6. Cliquez sur Continuer.
    Le volet Configurer votre data store s'affiche.

  7. Dans le volet Configurer votre data store,

    1. Sélectionnez une valeur dans la liste Emplacement de votre data store.
    2. Saisissez un nom dans le champ Nom de votre data store. L'ID est généré.
    3. Pour sélectionner des options d'analyse et de segmentation pour vos documents, développez la section Options de traitement des documents. Pour en savoir plus sur les différents analyseurs, consultez Analyser des documents.
    4. Cliquez sur Créer.
  8. Cliquez sur Créer.

Générer des réponses fondées sur votre datastore

Suivez les instructions ci-dessous pour ancrer un modèle avec vos données. Un maximum de 10 data stores est accepté.

Si vous ne connaissez pas votre ID de data store, procédez comme suit :

  1. Dans la console Google Cloud, accédez à la page Vertex AI Agent Builder et cliquez sur Data stores (Datastores de données) dans le menu de navigation.

    Accéder à la page "Datastores"

  2. Cliquez sur le nom de votre data store.

  3. Sur la page Données de votre data store, obtenez l'ID du data store.

Console

Pour ancrer la sortie de votre modèle sur Vertex AI Agent Builder à l'aide de Vertex AI Studio dans la console Google Cloud, procédez comme suit :

  1. Dans la console Google Cloud, accédez à la page Vertex AI Studio Freeform.

    Accéder à "Forme libre"

  2. Pour activer l'ancrage, cliquez sur le bouton Ancrage.
  3. Cliquez sur Personnaliser.
    1. Sélectionnez Vertex AI Search comme source.
    2. À l'aide de ce format de chemin d'accès, remplacez l'ID de projet et l'ID du data store par les vôtres:

      projects/project_id/locations/global/collections/default_collection/dataStores/data_store_id.

  4. Cliquez sur Enregistrer.
  5. Saisissez votre requête dans la zone de texte, puis cliquez sur Envoyer.

Vos réponses aux requêtes sont basées sur Vertex AI Agent Builder.

Gen AI SDK for Python

Installer

pip install --upgrade google-genai
Pour en savoir plus, consultez la Documentation de référence du SDK.

Définissez des variables d'environnement pour utiliser le SDK Gen AI avec Vertex AI:

# Replace the `GOOGLE_CLOUD_PROJECT` and `GOOGLE_CLOUD_LOCATION` values
# with appropriate values for your project.
export GOOGLE_CLOUD_PROJECT=GOOGLE_CLOUD_PROJECT
export GOOGLE_CLOUD_LOCATION=us-central1
export GOOGLE_GENAI_USE_VERTEXAI=True

from google import genai
from google.genai.types import (
    GenerateContentConfig,
    HttpOptions,
    Retrieval,
    Tool,
    VertexAISearch,
)

client = genai.Client(http_options=HttpOptions(api_version="v1"))

# Load Data Store ID from Vertex AI Search
# datastore = "projects/111111111111/locations/global/collections/default_collection/dataStores/data-store-id"

response = client.models.generate_content(
    model="gemini-2.0-flash-001",
    contents="How do I make an appointment to renew my driver's license?",
    config=GenerateContentConfig(
        tools=[
            # Use Vertex AI Search Tool
            Tool(
                retrieval=Retrieval(
                    vertex_ai_search=VertexAISearch(
                        datastore=datastore,
                    )
                )
            )
        ],
    ),
)

print(response.text)
# Example response:
# 'The process for making an appointment to renew your driver's license varies depending on your location. To provide you with the most accurate instructions...'

REST

Pour tester une requête de texte à l'aide de l'API Vertex AI, envoyez une requête POST au point de terminaison du modèle de l'éditeur.

Avant d'utiliser les données de requête, effectuez les remplacements suivants :

  • LOCATION : région dans laquelle traiter la requête.
  • PROJECT_ID : l'ID de votre projet.
  • MODEL_ID : ID du modèle multimodal.
  • TEXT : instructions textuelles à inclure dans la requête.

Méthode HTTP et URL :

POST https://LOCATION-aiplatform.googleapis.com/v1beta1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/MODEL_ID:generateContent

Corps JSON de la requête :

{
  "contents": [{
    "role": "user",
    "parts": [{
      "text": "TEXT"
    }]
  }],
  "tools": [{
    "retrieval": {
      "vertexAiSearch": {
        "datastore": projects/PROJECT_ID/locations/global/collections/default_collection/dataStores/DATA_STORE_ID
      }
    }
  }],
  "model": "projects/PROJECT_ID/locations/LOCATION/publishers/google/models/MODEL_ID"
}

Pour envoyer votre requête, développez l'une des options suivantes :

Vous devriez recevoir une réponse JSON de ce type :

{
  "candidates": [
    {
      "content": {
        "role": "model",
        "parts": [
          {
            "text": "You can make an appointment on the website https://dmv.gov/"
          }
        ]
      },
      "finishReason": "STOP",
      "safetyRatings": [
        "..."
      ],
      "groundingMetadata": {
        "retrievalQueries": [
          "How to make appointment to renew driving license?"
        ],
        "groundingChunks": [
          {
            "retrievedContext": {
              "uri": "https://vertexaisearch.cloud.google.com/grounding-api-redirect/AXiHM.....QTN92V5ePQ==",
              "title": "dmv"
            }
          }
        ],
        "groundingSupport": [
          {
            "segment": {
              "startIndex": 25,
              "endIndex": 147
            },
            "segment_text": "ipsum lorem ...",
            "supportChunkIndices": [1, 2],
            "confidenceScore": [0.9541752, 0.97726375]
          },
          {
            "segment": {
              "startIndex": 294,
              "endIndex": 439
            },
            "segment_text": "ipsum lorem ...",
            "supportChunkIndices": [1],
            "confidenceScore": [0.9541752, 0.9325467]
          }
        ]
      }
    }
  ],
  "usageMetadata": {
    "..."
  }
}

Comprendre votre réponse

Si la requête de votre modèle est correctement ancrée dans les magasins de données Vertex AI Search à l'aide de Vertex AI Studio ou de l'API, les réponses du modèle incluent des métadonnées avec des citations et des liens sources. Si la pertinence de la source est faible ou que des informations incomplètes apparaissent dans la réponse du modèle, les métadonnées peuvent ne pas être fournies, et la réponse de la requête ne sera pas ancrée.

Étape suivante

  • Pour savoir comment envoyer des requêtes d'invite de chat, consultez la section Chat multi-échanges.
  • Pour en savoir plus sur les bonnes pratiques d'IA responsable et les filtres de sécurité de Vertex AI, consultez Bonnes pratiques de sécurité.