A partir de 29 de abril de 2025, os modelos Gemini 1.5 Pro e Gemini 1.5 Flash não estarão disponíveis em projetos que não os usaram antes, incluindo novos projetos. Para mais detalhes, consulte Versões e ciclo de vida do modelo.
Modelos com suporte do mecanismo de RAG da Vertex AI
Mantenha tudo organizado com as coleções
Salve e categorize o conteúdo com base nas suas preferências.
Nesta página, listamos os modelos do Gemini, os modelos autodeployados e os modelos com APIs gerenciadas na Vertex AI que são compatíveis com o mecanismo RAG da Vertex AI.
Modelos do Gemini
A tabela a seguir lista os modelos do Gemini e as versões que
são compatíveis com o mecanismo de RAG da Vertex AI:
Os modelos do Gemini ajustados não são compatíveis quando usam o mecanismo de RAG da Vertex AI.
Modelos autoimplantados
O mecanismo RAG da Vertex AI é compatível com todos os modelos no
Model Garden.
Usar o mecanismo de RAG da Vertex AI com endpoints de modelo aberto autônomos.
Substitua as variáveis usadas no exemplo de código:
PROJECT_ID: o ID do projeto.
LOCATION: a região para processar sua solicitação.
ENDPOINT_ID: o ID do endpoint.
# Create a model instance with your self-deployed open model endpointrag_model=GenerativeModel("projects/PROJECT_ID/locations/LOCATION/endpoints/ENDPOINT_ID",tools=[rag_retrieval_tool])
Modelos com APIs gerenciadas na Vertex AI
Os modelos com APIs gerenciadas na Vertex AI que oferecem suporte ao
mecanismo de RAG da Vertex AI incluem o seguinte:
O exemplo de código a seguir demonstra como usar a API
GenerateContent do Gemini para criar uma instância de modelo generativo. O ID do modelo, /publisher/meta/models/llama-3.1-405B-instruct-maas, pode ser encontrado no card do modelo.
Substitua as variáveis usadas no exemplo de código:
PROJECT_ID: o ID do projeto.
LOCATION: a região para processar sua solicitação.
RAG_RETRIEVAL_TOOL: sua ferramenta de recuperação de RAG.
# Create a model instance with Llama 3.1 MaaS endpointrag_model=GenerativeModel("projects/PROJECT_ID/locations/LOCATION/publisher/meta/models/llama-3.1-405B-instruct-maas",tools=RAG_RETRIEVAL_TOOL)
O exemplo de código a seguir demonstra como usar a API ChatCompletions compatível com a OpenAI para gerar uma resposta do modelo.
Substitua as variáveis usadas no exemplo de código:
PROJECT_ID: o ID do projeto.
LOCATION: a região para processar sua solicitação.
MODEL_ID: modelo LLM para geração de conteúdo. Por exemplo, meta/llama-3.1-405b-instruct-maas.
INPUT_PROMPT: o texto enviado ao LLM para geração de conteúdo. Use um comando relevante para os documentos na Vertex AI Search.
RAG_CORPUS_ID: o ID do recurso de corpus RAG.
ROLE: sua função.
USER: seu nome de usuário.
CONTENT: seu conteúdo.
# Generate a response with Llama 3.1 MaaS endpointresponse=client.chat.completions.create(model="MODEL_ID",messages=[{"ROLE":"USER","content":"CONTENT"}],extra_body={"extra_body":{"google":{"vertex_rag_store":{"rag_resources":{"rag_corpus":"RAG_CORPUS_ID"},"similarity_top_k":10}}}},)
[[["Fácil de entender","easyToUnderstand","thumb-up"],["Meu problema foi resolvido","solvedMyProblem","thumb-up"],["Outro","otherUp","thumb-up"]],[["Difícil de entender","hardToUnderstand","thumb-down"],["Informações incorretas ou exemplo de código","incorrectInformationOrSampleCode","thumb-down"],["Não contém as informações/amostras de que eu preciso","missingTheInformationSamplesINeed","thumb-down"],["Problema na tradução","translationIssue","thumb-down"],["Outro","otherDown","thumb-down"]],["Última atualização 2025-08-29 UTC."],[],[],null,["# Vertex AI RAG Engine supported models\n\n| The [VPC-SC security controls](/vertex-ai/generative-ai/docs/security-controls) and\n| CMEK are supported by Vertex AI RAG Engine. Data residency and AXT security controls aren't\n| supported.\n\nThis page lists Gemini models, self-deployed models, and models with\nmanaged APIs on Vertex AI that support Vertex AI RAG Engine.\n\nGemini models\n-------------\n\nThe following table lists the Gemini models and their versions that\nsupport Vertex AI RAG Engine:\n\n- [Gemini 2.5 Flash-Lite](/vertex-ai/generative-ai/docs/models/gemini/2-5-flash-lite)\n- [Gemini 2.5 Pro](/vertex-ai/generative-ai/docs/models/gemini/2-5-pro)\n- [Gemini 2.5 Flash](/vertex-ai/generative-ai/docs/models/gemini/2-5-flash)\n- [Gemini 2.0 Flash](/vertex-ai/generative-ai/docs/models/gemini/2-0-flash)\n\nFine-tuned Gemini models are unsupported when the Gemini\nmodels use Vertex AI RAG Engine.\n\nSelf-deployed models\n--------------------\n\nVertex AI RAG Engine supports all models in\n[Model Garden](/vertex-ai/generative-ai/docs/model-garden/explore-models).\n\nUse Vertex AI RAG Engine with your self-deployed open model endpoints.\n\nReplace the variables used in the code sample:\n\n- **\u003cvar translate=\"no\"\u003ePROJECT_ID\u003c/var\u003e**: Your project ID.\n- **\u003cvar translate=\"no\"\u003eLOCATION\u003c/var\u003e**: The region to process your request.\n- **\u003cvar translate=\"no\"\u003eENDPOINT_ID\u003c/var\u003e**: Your endpoint ID.\n\n # Create a model instance with your self-deployed open model endpoint\n rag_model = GenerativeModel(\n \"projects/\u003cvar translate=\"no\"\u003ePROJECT_ID\u003c/var\u003e/locations/\u003cvar translate=\"no\"\u003eLOCATION\u003c/var\u003e/endpoints/\u003cvar translate=\"no\"\u003eENDPOINT_ID\u003c/var\u003e\",\n tools=[rag_retrieval_tool]\n )\n\nModels with managed APIs on Vertex AI\n-------------------------------------\n\nThe models with managed APIs on Vertex AI that support\nVertex AI RAG Engine include the following:\n\n- [Mistral on Vertex AI](/vertex-ai/generative-ai/docs/partner-models/mistral)\n- [Llama 3.1 and 3.2](/vertex-ai/generative-ai/docs/partner-models/llama)\n\nThe following code sample demonstrates how to use the Gemini\n`GenerateContent` API to create a generative model instance. The model ID,\n`/publisher/meta/models/llama-3.1-405B-instruct-maas`, is found in the\n[model card](/vertex-ai/generative-ai/docs/model-garden/explore-models).\n\nReplace the variables used in the code sample:\n\n- **\u003cvar translate=\"no\"\u003ePROJECT_ID\u003c/var\u003e**: Your project ID.\n- **\u003cvar translate=\"no\"\u003eLOCATION\u003c/var\u003e**: The region to process your request.\n- **\u003cvar translate=\"no\"\u003eRAG_RETRIEVAL_TOOL\u003c/var\u003e**: Your RAG retrieval tool.\n\n # Create a model instance with Llama 3.1 MaaS endpoint\n rag_model = GenerativeModel(\n \"projects/\u003cvar translate=\"no\"\u003ePROJECT_ID\u003c/var\u003e/locations/\u003cvar translate=\"no\"\u003eLOCATION\u003c/var\u003e/publisher/meta/models/llama-3.1-405B-instruct-maas\",\n tools=\u003cvar translate=\"no\"\u003e\u003cspan class=\"devsite-syntax-n\"\u003eRAG_RETRIEVAL_TOOL\u003c/span\u003e\u003c/var\u003e\n )\n\nThe following code sample demonstrates how to use the OpenAI compatible\n`ChatCompletions` API to generate a model response.\n\nReplace the variables used in the code sample:\n\n- **\u003cvar translate=\"no\"\u003ePROJECT_ID\u003c/var\u003e**: Your project ID.\n- **\u003cvar translate=\"no\"\u003eLOCATION\u003c/var\u003e**: The region to process your request.\n- **\u003cvar translate=\"no\"\u003eMODEL_ID\u003c/var\u003e** : LLM model for content generation. For example, `meta/llama-3.1-405b-instruct-maas`.\n- **\u003cvar translate=\"no\"\u003eINPUT_PROMPT\u003c/var\u003e**: The text sent to the LLM for content generation. Use a prompt relevant to the documents in Vertex AI Search.\n- **\u003cvar translate=\"no\"\u003eRAG_CORPUS_ID\u003c/var\u003e**: The ID of the RAG corpus resource.\n- **\u003cvar translate=\"no\"\u003eROLE\u003c/var\u003e**: Your role.\n- **\u003cvar translate=\"no\"\u003eUSER\u003c/var\u003e**: Your username.\n- **\u003cvar translate=\"no\"\u003eCONTENT\u003c/var\u003e**: Your content.\n\n # Generate a response with Llama 3.1 MaaS endpoint\n response = client.chat.completions.create(\n model=\"\u003cvar translate=\"no\"\u003eMODEL_ID\u003c/var\u003e\",\n messages=[{\"\u003cvar translate=\"no\"\u003eROLE\u003c/var\u003e\": \"\u003cvar translate=\"no\"\u003eUSER\u003c/var\u003e\", \"content\": \"\u003cvar translate=\"no\"\u003eCONTENT\u003c/var\u003e\"}],\n extra_body={\n \"extra_body\": {\n \"google\": {\n \"vertex_rag_store\": {\n \"rag_resources\": {\n \"rag_corpus\": \"\u003cvar translate=\"no\"\u003eRAG_CORPUS_ID\u003c/var\u003e\"\n },\n \"similarity_top_k\": 10\n }\n }\n }\n },\n )\n\nWhat's next\n-----------\n\n- [Use Embedding models with Vertex AI RAG Engine](/vertex-ai/generative-ai/docs/use-embedding-models)."]]