本頁面列出 Vertex AI 中支援 Vertex AI RAG Engine 的 Gemini 模型、自行部署模型,以及含有受管理 API 的模型。
Gemini 模型
下表列出支援 Vertex AI RAG 引擎的 Gemini 型號及其版本:
自行部署的模型
Vertex AI RAG 引擎支援 Model Garden 中的所有模型。
搭配自行部署的開放式模型端點使用 Vertex AI RAG 引擎。
替換程式碼範例中使用的變數:
- PROJECT_ID:您的專案 ID。
- LOCATION:處理要求的區域。
ENDPOINT_ID:端點 ID。
# Create a model instance with your self-deployed open model endpoint rag_model = GenerativeModel( "projects/PROJECT_ID/locations/LOCATION/endpoints/ENDPOINT_ID", tools=[rag_retrieval_tool] )
在 Vertex AI 上使用含有受管理 API 的模型
在 Vertex AI 上,支援 Vertex AI RAG 引擎的管理式 API 模型包括:
以下程式碼範例示範如何使用 Gemini GenerateContent
API 建立生成式模型例項。您可以在模型資訊卡中找到模型 ID /publisher/meta/models/llama-3.1-405B-instruct-maas
。
替換程式碼範例中使用的變數:
- PROJECT_ID:您的專案 ID。
- LOCATION:處理要求的區域。
RAG_RETRIEVAL_TOOL:RAG 檢索工具。
# Create a model instance with Llama 3.1 MaaS endpoint rag_model = GenerativeModel( "projects/PROJECT_ID/locations/LOCATION/publisher/meta/models/llama-3.1-405B-instruct-maas", tools=RAG_RETRIEVAL_TOOL )
以下程式碼範例示範如何使用與 OpenAI 相容的 ChatCompletions
API 產生模型回應。
替換程式碼範例中使用的變數:
- PROJECT_ID:您的專案 ID。
- LOCATION:處理要求的區域。
- MODEL_ID:用於產生內容的大型語言模型。例如:
meta/llama-3.1-405b-instruct-maas
。 - INPUT_PROMPT:傳送至大型語言模型的文字,用於產生內容。使用與 Vertex AI Search 中文件相關的提示。
- RAG_CORPUS_ID:RAG 語料庫資源的 ID。
- ROLE:您的角色。
- USER:您的使用者名稱。
CONTENT:您的內容。
# Generate a response with Llama 3.1 MaaS endpoint response = client.chat.completions.create( model="MODEL_ID", messages=[{"ROLE": "USER", "content": "CONTENT"}], extra_body={ "extra_body": { "google": { "vertex_rag_store": { "rag_resources": { "rag_corpus": "RAG_CORPUS_ID" }, "similarity_top_k": 10 } } } }, )