Questa pagina introduce l'integrazione di Vertex AI Search con Vertex AI RAG Engine.
Vertex AI Search fornisce una soluzione per recuperare e gestire i dati all'interno delle applicazioni RAG di Vertex AI. Utilizzando Vertex AI Search come backend di recupero, puoi migliorare le prestazioni, la scalabilità e la facilità di integrazione.
Prestazioni e scalabilità migliorate: Vertex AI Search è progettato per gestire grandi volumi di dati con una latenza eccezionalmente bassa. Ciò si traduce in tempi di risposta più rapidi e prestazioni migliorate per le tue applicazioni RAG, soprattutto quando si tratta di basi di conoscenza complesse o estese.
Gestione dei dati semplificata: importa i dati da varie origini, come siti web, set di dati BigQuery e bucket Cloud Storage, per semplificare il processo di importazione dei dati.
Integrazione perfetta: Vertex AI fornisce un'integrazione integrata con Vertex AI Search, che ti consente di selezionare Vertex AI Search come backend del corpus per la tua applicazione RAG. Ciò semplifica il processo di integrazione e contribuisce a garantire una compatibilità ottimale tra i componenti.
Migliore qualità dell'output dell'LLM: utilizzando le funzionalità di recupero di Vertex AI Search, puoi contribuire a garantire che la tua applicazione RAG recuperi le informazioni più pertinenti dal tuo corpus, il che porta a output più accurati e informativi generati dall'LLM.
Vertex AI Search
Vertex AI Search combina il recupero approfondito di informazioni, l'elaborazione del linguaggio naturale e le funzionalità più recenti per l'elaborazione di modelli linguistici di grandi dimensioni (LLM), il che aiuta a comprendere l'intenzione dell'utente e a restituire i risultati più pertinenti per l'utente.
Con Vertex AI Search, puoi creare un'applicazione di ricerca di qualità Google utilizzando i dati che controlli.
Configura Vertex AI Search
Per configurare una ricerca Vertex AI, segui questi passaggi:
Utilizza Vertex AI Search come backend di recupero per Vertex AI RAG Engine
Una volta configurato Vertex AI Search, segui questi passaggi per impostarlo come backend di recupero per l'applicazione RAG.
Imposta Vertex AI Search come backend di recupero per creare un corpus RAG
Questi esempi di codice mostrano come configurare Vertex AI Search come backend di recupero per un corpus RAG.
REST
Per utilizzare la riga di comando per creare un corpus RAG:
Crea un corpus RAG
Sostituisci le seguenti variabili utilizzate nell'esempio di codice:
- PROJECT_ID: l'ID del tuo progetto Google Cloud .
- LOCATION: la regione in cui elaborare la richiesta.
- DISPLAY_NAME: il nome visualizzato del corpus RAG che vuoi creare.
- ENGINE_NAME: il nome completo della risorsa del motore di ricerca Vertex AI o del datastore Vertex AI Search.
curl -X POST \ -H "Authorization: Bearer $(gcloud auth print-access-token)" \ -H "Content-Type: application/json" \ "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/ragCorpora" \ -d '{ "display_name" : "DISPLAY_NAME", "vertex_ai_search_config" : { "serving_config": "ENGINE_NAME/servingConfigs/default_search" } }'
Monitorare i progressi
Sostituisci le seguenti variabili utilizzate nell'esempio di codice:
- PROJECT_ID: l'ID del tuo progetto Google Cloud .
- LOCATION: la regione in cui elaborare la richiesta.
- OPERATION_ID: l'ID dell'operazione di creazione del corpus RAG.
curl -X GET \ -H "Authorization: Bearer $(gcloud auth print-access-token)" \ -H "Content-Type: application/json" \ "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/operations/OPERATION_ID"
Python
Prima di provare questo esempio, segui le istruzioni di configurazione di Python nella guida rapida di Vertex AI per l'utilizzo delle librerie client. Per ulteriori informazioni, consulta la documentazione di riferimento dell'API Vertex AI Python.
Per autenticarti in Vertex AI, configura le Credenziali predefinite dell'applicazione. Per ulteriori informazioni, consulta Configura l'autenticazione per un ambiente di sviluppo locale.
Recuperare i contesti utilizzando l'API RAG
Dopo la creazione del corpus RAG, i contesti pertinenti possono essere recuperati da
Vertex AI Search tramite l'API RetrieveContexts
.
REST
Questo esempio di codice mostra come recuperare i contesti utilizzando REST.
Sostituisci le seguenti variabili utilizzate nell'esempio di codice:
- PROJECT_ID: l'ID del tuo progetto Google Cloud .
- LOCATION: la regione in cui elaborare la richiesta.
- RAG_CORPUS_RESOURCE: il nome della risorsa del corpus RAG.
Formato:
projects/{project}/locations/{location}/ragCorpora/{rag_corpus}.
- TEXT: il testo della query per ottenere contesti pertinenti.
curl -X POST \
-H "Content-Type: application/json" \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION:retrieveContexts" \
-d '{
"vertex_rag_store": {
"rag_resources": {
"rag_corpus": "RAG_CORPUS_RESOURCE"
}
},
"query": {
"text": "TEXT"
}
}'
Python
Per scoprire come installare o aggiornare l'SDK Vertex AI Python, consulta Installare l'SDK Vertex AI Python. Per saperne di più, consulta la documentazione di riferimento dell'API Python.
Genera contenuti utilizzando l'API Gemini di Vertex AI
REST
Per generare contenuti utilizzando i modelli Gemini, chiama l'API
Vertex AI GenerateContent
. Se specifichi RAG_CORPUS_RESOURCE
nella richiesta, i dati vengono recuperati automaticamente da Vertex AI Search.
Sostituisci le seguenti variabili utilizzate nellcodice campione:
- PROJECT_ID: l'ID del tuo progetto Google Cloud .
- LOCATION: la regione in cui elaborare la richiesta.
- MODEL_ID: modello LLM per la generazione di contenuti. Ad
esempio,
gemini-2.0-flash
. - GENERATION_METHOD: metodo LLM per la generazione di contenuti.
Ad esempio,
generateContent
,streamGenerateContent
. - INPUT_PROMPT: il testo inviato al LLM per la generazione di contenuti. Prova a utilizzare un prompt pertinente ai documenti in Vertex AI Search.
- RAG_CORPUS_RESOURCE: il nome della risorsa del corpus RAG. Formato:
projects/{project}/locations/{location}/ragCorpora/{rag_corpus}
. SIMILARITY_TOP_K: (facoltativo) il numero di contesti principali da recuperare.
curl -X POST \ -H "Authorization: Bearer $(gcloud auth print-access-token)" \ -H "Content-Type: application/json" \ "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/MODEL_ID:GENERATION_METHOD" \ -d '{ "contents": { "role": "user", "parts": { "text": "INPUT_PROMPT" } }, "tools": { "retrieval": { "disable_attribution": false, "vertex_rag_store": { "rag_resources": { "rag_corpus": "RAG_CORPUS_RESOURCE" }, "similarity_top_k": SIMILARITY_TOP_K } } } }'
Python
Per scoprire come installare o aggiornare l'SDK Vertex AI Python, consulta Installare l'SDK Vertex AI Python. Per saperne di più, consulta la documentazione di riferimento dell'API Python.