A partir de 29 de abril de 2025, os modelos Gemini 1.5 Pro e Gemini 1.5 Flash não estarão disponíveis em projetos que não os usaram antes, incluindo novos projetos. Para mais detalhes, consulte Versões e ciclo de vida do modelo.
Visão geral do banco de memória do Vertex AI Agent Engine
Mantenha tudo organizado com as coleções
Salve e categorize o conteúdo com base nas suas preferências.
Com o Memory Bank do Vertex AI Agent Engine, é possível gerar memórias de longo prazo de forma dinâmica com base nas conversas dos usuários com seu agente. As memórias de longo prazo são informações personalizadas que podem ser acessadas em várias sessões de um usuário específico. O agente pode usar as memórias para personalizar as respostas ao usuário e criar continuidade entre sessões.
Os recursos do Memory Bank incluem:
Armazenamento persistente de memórias que podem ser acessadas de vários ambientes. É possível usar as sessões e o Memory Bank do Vertex AI Agent Engine com o agente implantado no Vertex AI Agent Engine, no seu ambiente local ou com outras opções de implantação.
Extração de memórias de sessões com base em modelos de linguagem grandes (LLMs).
As recordações são geradas remotamente de forma assíncrona, então o agente não precisa esperar que elas sejam geradas.
Recuperação de recordações com base na pesquisa de similaridade e no escopo de um usuário.
Se você usar o Memory Bank do Vertex AI Agent Engine com o Agent Development Kit, o agente vai ler e gravar automaticamente memórias de longo prazo para você.
O Memory Bank se integra às sessões do Vertex AI Agent Engine para gerar memórias de sessões armazenadas usando o seguinte processo:
(Sessões) CreateSession: no início de cada conversa, crie uma nova sessão. O histórico de conversas usado pelo agente é limitado a essa sessão. Uma sessão contém a sequência cronológica de mensagens e ações (SessionEvents) de uma interação entre um usuário e seu agente. Todas as sessões precisam ter um User ID. As recordações extraídas (consulte GenerateMemories) dessa sessão são mapeadas para esse usuário.
(Sessões) AppendEvent: à medida que o usuário interage com o agente, os eventos (como mensagens do usuário, respostas do agente, ações de ferramentas) são enviados para as sessões. Os eventos mantêm o histórico de conversas e criam um registro que pode ser usado para gerar recordações.
(Sessões) ListEvents: à medida que o usuário interage com o agente, ele recupera o histórico da conversa.
(Banco de recordações) Gerar ou criar recordações:
GenerateMemories: em um intervalo especificado (como o fim de cada sessão ou de cada turno), o agente pode acionar a geração de memórias usando o histórico de conversas. Os fatos sobre o usuário são extraídos automaticamente do histórico de conversa para que fiquem disponíveis em sessões atuais ou futuras.
CreateMemory: seu agente pode gravar memórias diretamente no banco de memória. Por exemplo, o agente pode decidir quando uma memória deve ser gravada e quais informações devem ser salvas (memória como uma ferramenta). Use CreateMemory quando quiser que seu agente tenha mais controle sobre quais fatos são extraídos.
(Banco de memória) RetrieveMemories: à medida que o usuário interage com o agente, ele pode recuperar as memórias salvas sobre esse usuário. Você pode recuperar todas as recordações (recuperação simples) ou apenas as mais relevantes para a conversa atual (recuperação por pesquisa de similaridade). Em seguida, você pode inserir as recordações recuperadas no comando.
Guias de início rápido
Comece a usar o Memory Bank com os seguintes guias de início rápido:
Guia de início rápido usando a API REST: siga o guia de início rápido da API REST para fazer chamadas de API diretamente para as sessões do Vertex AI Agent Engine e o Memory Bank.
Além das responsabilidades de segurança descritas na responsabilidade compartilhada da Vertex AI, considere o risco de injeção de comandos e envenenamento da memória que podem afetar seu agente ao usar memórias de longo prazo. A contaminação da memória ocorre quando informações falsas são armazenadas no banco de memória. O agente pode operar com essas informações falsas ou maliciosas em sessões futuras.
Para reduzir o risco de envenenamento de memória, faça o seguinte:
Model Armor: use o Model Armor para inspecionar os comandos enviados ao Memory Bank ou do seu agente.
Testes adversários: teste proativamente seu aplicativo de LLM para detectar vulnerabilidades de injeção de comandos simulando ataques. Isso é conhecido como "red teaming".
Execução em sandbox: se o agente tiver a capacidade de executar ou interagir com sistemas externos ou críticos, essas ações deverão ser realizadas em um ambiente em sandbox com controle de acesso rigoroso e revisão humana.
[[["Fácil de entender","easyToUnderstand","thumb-up"],["Meu problema foi resolvido","solvedMyProblem","thumb-up"],["Outro","otherUp","thumb-up"]],[["Difícil de entender","hardToUnderstand","thumb-down"],["Informações incorretas ou exemplo de código","incorrectInformationOrSampleCode","thumb-down"],["Não contém as informações/amostras de que eu preciso","missingTheInformationSamplesINeed","thumb-down"],["Problema na tradução","translationIssue","thumb-down"],["Outro","otherDown","thumb-down"]],["Última atualização 2025-08-25 UTC."],[],[],null,["# Vertex AI Agent Engine Memory Bank overview\n\n| **Preview**\n|\n|\n| This feature is subject to the \"Pre-GA Offerings Terms\" in the General Service Terms section\n| of the [Service Specific Terms](/terms/service-terms#1).\n|\n| Pre-GA features are available \"as is\" and might have limited support.\n|\n| For more information, see the\n| [launch stage descriptions](/products#product-launch-stages).\n\nVertex AI Agent Engine Memory Bank lets you dynamically generate long-term memories based on users' conversations with your agent. Long-term memories are personalized information that can be accessed across multiple sessions for a particular user. The agent can use the memories to personalize responses to the user and create cross-session continuity.\n\nFeatures of Memory Bank include the following:\n\n- Persistent storage of memories that can be accessed from multiple environments. You can use Vertex AI Agent Engine Sessions and Memory Bank with your deployed agent on Vertex AI Agent Engine Runtime, from your local environment, or with other deployment options.\n\n- Large language model (LLM)-based extraction of memories from conversation history.\n\n- Memories are remotely generated asynchronously, so the agent doesn't need to wait for memories to be generated.\n\n- Similarity search-based retrieval of memories scoped to an identity ([`scope`](/vertex-ai/generative-ai/docs/agent-engine/memory-bank/fetch-memories#scope-based)).\n\n- If you use Vertex AI Agent Engine Memory Bank with Agent Development Kit, your agent can orchestrate calls to read and write long-term memories using Memory Bank.\n\nYou can use Memory Bank with Vertex AI Agent Engine Sessions to generate memories from stored sessions using the following process:\n\n1. **(Sessions) `CreateSession`** : At the start of each conversation, create a new session. The conversation history used by the agent is scoped to this session. A session contains the chronological sequence of messages and actions (`SessionEvents`) for an interaction between a user and your agent. All sessions must have a user ID; the extracted memories (see `GenerateMemories`) for this session are mapped to this user.\n\n2. **(Sessions) `AppendEvent`**: As the user interacts with the agent, events (such as user messages, agent responses, tool actions) are uploaded to Sessions. The events persist conversation history and create a record of the conversation that can be used to generate memories.\n\n3. **(Sessions) `ListEvents`**: As the user interacts with the agent, the agent retrieves the conversation history.\n\n4. **(Memory Bank)** Generate or create memories:\n\n - **`GenerateMemories`**: At a specified interval (such as the end of every session or the end of every turn), the agent can trigger memories to be generated using conversation history. Facts about the user are automatically extracted from the conversation history so that they're available for current or future sessions.\n\n - **`CreateMemory`** : Your agent can write memories directly to Memory Bank. For example, the agent can decide when a memory should be written and what information should be saved (memory-as-a-tool). Use `CreateMemory` when you want your agent to have more control over what facts are extracted.\n\n5. **(Memory Bank) `RetrieveMemories`**: As the user interacts with your agent, the agent can retrieve memories saved about that user. You can either retrieve all memories (simple retrieval) or only the most relevant memories to the current conversation (similarity search retrieval). Then you can insert the retrieved memories into your prompt.\n\nQuickstarts\n-----------\n\nGet started with Memory Bank using the following quickstarts:\n\n- [**Quickstart using REST API**](/vertex-ai/generative-ai/docs/agent-engine/memory-bank/quickstart-api): Follow the REST API quickstart to make API calls directly to Vertex AI Agent Engine Sessions and Memory Bank.\n\n- [**Quickstart using Agent Development Kit (ADK)**](/vertex-ai/generative-ai/docs/agent-engine/memory-bank/quickstart-adk): Follow the Agent Development Kit (ADK) quickstart if you want your ADK agent to orchestrate calls to Vertex AI Agent Engine Sessions and Memory Bank for you.\n\nSecurity risks of prompt injection\n----------------------------------\n\nIn addition to the security responsibilities outlined in [Vertex AI shared responsibility](/vertex-ai/docs/shared-responsibility), consider the risk of prompt injection and memory poisoning that can affect your agent when using long-term memories. Memory poisoning occurs when false information is stored in Memory Bank. The agent may then operate on this false or malicious information in future sessions.\n\nTo mitigate the risk of memory poisoning, you can do the following:\n\n- **Model Armor** : Use [Model Armor](/security-command-center/docs/model-armor-overview) to inspect prompts being sent to Memory Bank or from your agent.\n\n- **Adversarial testing**: Proactively test your LLM application for prompt injection vulnerabilities by simulating attacks. This is typically known as \"red teaming.\"\n\n- **Sandbox execution**: If the agent has the ability to execute or interact with external or critical systems, these actions should be performed in a sandboxed environment with strict access control and human review.\n\nFor more information, see [Google's Approach for Secure AI Agents](https://research.google/pubs/an-introduction-to-googles-approach-for-secure-ai-agents/).\n\nWhat's next\n-----------\n\n- [Set up Memory Bank](/vertex-ai/generative-ai/docs/agent-engine/memory-bank/set-up).\n- [Quickstart with Agent Development Kit](/vertex-ai/generative-ai/docs//agent-engine/memory-bank/quickstart-adk).\n- [Quickstart with Vertex AI Agent Engine SDK](/vertex-ai/generative-ai/docs//agent-engine/memory-bank/quickstart-api)."]]