En esta página se explica cómo puedes fundamentar las respuestas usando tus datos de Vertex AI Search.
Basar Gemini en tus datos
Si quieres usar la generación aumentada por recuperación (RAG), conecta tu modelo a los datos de tu sitio web o a tus conjuntos de documentos y, a continuación, usa Fundamentos con Vertex AI Search.
La fundamentación con tus datos admite un máximo de 10 fuentes de datos de Vertex AI Search y se puede combinar con la fundamentación con la Búsqueda de Google.
Modelos admitidos
En esta sección se enumeran los modelos que admiten la fundamentación con tus datos.
- Gemini 2.5 Flash-Lite
- Gemini 2.5 Flash con audio nativo de la API Live (versión preliminar)
- Gemini 2.0 Flash con la API Live (versión preliminar)
- Gemini 2.5 Pro
- Gemini 2.5 Flash
- Gemini 2.0 Flash
Requisitos previos
Para poder basar la salida del modelo en tus datos, haz lo siguiente:
En la consola de Google Cloud , ve a la página Gestión de identidades y accesos y busca el permiso
discoveryengine.servingConfigs.search
, que es necesario para que funcione el servicio de grounding.Habilita Aplicaciones de IA y activa la API.
Crea una fuente de datos de aplicaciones de IA y una aplicación.
Consulta la introducción a Vertex AI Search para obtener más información.
Habilitar aplicaciones de IA
En la Google Cloud consola, ve a la página Aplicaciones de IA.
Lee y acepta los términos del servicio y, a continuación, haz clic en Continuar y activar la API.
Aplicaciones de IA está disponible en la ubicación global
o en las multirregiones eu
y us
. Para obtener más información, consulta Ubicaciones de las aplicaciones de IA.
Crear un almacén de datos en Aplicaciones de IA
Para crear un almacén de datos en Aplicaciones de IA, puedes elegir entre usar datos de sitios web o documentos.
Sitio web
Abre la página Crear almacén de datos desde la Google Cloud consola.
En el cuadro Contenido del sitio web, haga clic en Seleccionar.
Se muestra el panel Especificar los sitios web de su almacén de datos.Si la opción Indexación avanzada de sitios web no está marcada, selecciónala para activarla.
Se mostrará el panel Configurar tu almacén de datos.En la sección Especificar patrones de URL que se deben indexar, haga lo siguiente:
- Añade URLs en Sitios que incluir.
- Opcional: Añada URLs en Sitios que excluir.
Haz clic en Continuar.
En el panel Configurar el almacén de datos,
- Selecciona un valor de la lista Ubicación de tu almacén de datos.
- Escribe un nombre en el campo Nombre de tu almacén de datos. Se genera el ID. Usa este ID cuando generes tus respuestas fundamentadas con tu almacén de datos. Para obtener más información, consulta Generar respuestas fundamentadas con tu almacén de datos.
- Haz clic en Crear.
Redactar documentos
Abre la página Crear almacén de datos desde la Google Cloud consola.
En el cuadro Cloud Storage, haz clic en Seleccionar.
Se muestra el panel Importar datos de Cloud Storage.En la sección Documentos no estructurados (PDF, HTML, TXT y más), selecciona Documentos no estructurados (PDF, HTML, TXT y más).
Selecciona una opción de Frecuencia de sincronización.
Selecciona la opción Seleccionar una carpeta o un archivo que quieras importar e introduce la ruta en el campo.
Haga clic en Continuar.
Se mostrará el panel Configurar el almacén de datos.En el panel Configurar el almacén de datos,
- Selecciona un valor de la lista Ubicación de tu almacén de datos.
- Escribe un nombre en el campo Nombre de tu almacén de datos. Se genera el ID.
- Para seleccionar las opciones de análisis y fragmentación de tus documentos, despliega la sección Opciones de procesamiento de documentos. Para obtener más información sobre los distintos analizadores, consulta Analizar documentos.
- Haz clic en Crear.
Haz clic en Crear.
Generar respuestas fundamentadas con tu almacén de datos
Sigue estas instrucciones para fundamentar un modelo con tus datos. Se admite un máximo de 10 almacenes de datos.
Si no sabes cuál es el ID de tu almacén de datos, sigue estos pasos:
En la Google Cloud consola, ve a la página Aplicaciones de IA y, en el menú de navegación, haz clic en Almacenes de datos.
Haga clic en el nombre del almacén de datos.
En la página Datos de su almacén de datos, obtenga el ID del almacén de datos.
Consola
Para basar la salida de tu modelo en aplicaciones de IA con Vertex AI Studio en la Google Cloud consola, sigue estos pasos:
- En la Google Cloud consola, ve a la página Vertex AI Studio Freeform.
- Para activar la función de grounding, haz clic en el interruptor Grounding: tus datos.
- Haz clic en Personalizar.
- Selecciona Vertex AI Search como fuente.
- Con este formato de ruta, sustituya el ID de proyecto de su almacén de datos y el ID del almacén de datos:
projects/project_id/locations/global/collections/default_collection/dataStores/data_store_id.
- Haz clic en Guardar.
- Escribe tu petición en el cuadro de texto y haz clic en Enviar.
Las respuestas a tus peticiones se basan en las aplicaciones de IA.
Python
Antes de probar este ejemplo, sigue las Python instrucciones de configuración de la guía de inicio rápido de Vertex AI con bibliotecas de cliente. Para obtener más información, consulta la documentación de referencia de la API Python de Vertex AI.
Para autenticarte en Vertex AI, configura las credenciales predeterminadas de la aplicación. Para obtener más información, consulta el artículo Configurar la autenticación en un entorno de desarrollo local.
REST
Para probar una petición de texto con la API de Vertex AI, envía una solicitud POST al endpoint del modelo de editor.
Antes de usar los datos de la solicitud, haz las siguientes sustituciones:
- LOCATION: la región en la que se procesará la solicitud.
- PROJECT_ID: tu ID de proyecto.
- MODEL_ID: ID del modelo multimodal.
- TEXT: las instrucciones de texto que se deben incluir en la petición.
Método HTTP y URL:
POST https://LOCATION-aiplatform.googleapis.com/v1beta1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/MODEL_ID:generateContent
Cuerpo JSON de la solicitud:
{ "contents": [{ "role": "user", "parts": [{ "text": "TEXT" }] }], "tools": [{ "retrieval": { "vertexAiSearch": { "datastore": projects/PROJECT_ID/locations/global/collections/default_collection/dataStores/DATA_STORE_ID } } }], "model": "projects/PROJECT_ID/locations/LOCATION/publishers/google/models/MODEL_ID" }
Para enviar tu solicitud, despliega una de estas opciones:
Deberías recibir una respuesta JSON similar a la siguiente:
{ "candidates": [ { "content": { "role": "model", "parts": [ { "text": "You can make an appointment on the website https://dmv.gov/" } ] }, "finishReason": "STOP", "safetyRatings": [ "..." ], "groundingMetadata": { "retrievalQueries": [ "How to make appointment to renew driving license?" ], "groundingChunks": [ { "retrievedContext": { "uri": "https://vertexaisearch.cloud.google.com/grounding-api-redirect/AXiHM.....QTN92V5ePQ==", "title": "dmv" } } ], "groundingSupport": [ { "segment": { "startIndex": 25, "endIndex": 147 }, "segment_text": "ipsum lorem ...", "supportChunkIndices": [1, 2], "confidenceScore": [0.9541752, 0.97726375] }, { "segment": { "startIndex": 294, "endIndex": 439 }, "segment_text": "ipsum lorem ...", "supportChunkIndices": [1], "confidenceScore": [0.9541752, 0.9325467] } ] } } ], "usageMetadata": { "..." } }
Entender tu respuesta
La respuesta de ambas APIs incluye el texto generado por el LLM, que se denomina candidato. Si la petición de tu modelo se basa correctamente en tu fuente de datos, las respuestas incluirán metadatos de fundamentación, que identifican las partes de la respuesta que se han derivado de tus datos. Sin embargo, hay varios motivos por los que es posible que no se proporcionen estos metadatos y que la respuesta a la petición no se base en ellos. Entre estos motivos se incluyen la baja relevancia de la fuente o la información incompleta en la respuesta del modelo.
A continuación, se muestra un desglose de los datos de salida:
- Rol: indica el remitente de la respuesta fundamentada. Como la respuesta siempre contiene texto fundamentado, el rol siempre es
model
. - Texto: la respuesta fundamentada generada por el LLM.
- Metadatos de fundamentación: información sobre la fuente de fundamentación, que contiene los siguientes elementos:
- Fragmentos de fundamentación: lista de resultados de tu índice que respaldan la respuesta.
- Fuentes: información sobre una afirmación específica de la respuesta que se puede usar para mostrar citas:
- Segmento: parte de la respuesta del modelo que se basa en un fragmento de información.
- Índice del fragmento de información de base: índice de los fragmentos de información de base de la lista de fragmentos de información de base que corresponde a esta reclamación.
- Puntuaciones de confianza: número entre 0 y 1 que indica el grado de fundamentación de la afirmación en el conjunto de fragmentos de fundamentación proporcionado. No disponible en Gemini 2.5 y versiones posteriores.
Siguientes pasos
- Para saber cómo enviar solicitudes de peticiones de chat, consulta Conversación de varios turnos.
- Para obtener información sobre las prácticas recomendadas de la IA responsable y los filtros de seguridad de Vertex AI, consulta el artículo Prácticas recomendadas de seguridad.