Com o banco de memória do Vertex AI Agent Engine, é possível gerar memórias de longo prazo de forma dinâmica com base nas conversas dos usuários com seu agente. As memórias de longo prazo são informações personalizadas que podem ser acessadas em várias sessões de um usuário específico. O agente pode usar as memórias para personalizar as respostas ao usuário e criar continuidade entre sessões.
Os recursos do Memory Bank incluem:
Armazenamento persistente de memórias que podem ser acessadas de vários ambientes. É possível usar as sessões e o Memory Bank do Vertex AI Agent Engine com o agente implantado no Vertex AI Agent Engine, no seu ambiente local ou com outras opções de implantação.
Extração de memórias de sessões com base em modelos de linguagem grandes (LLMs).
As recordações são geradas remotamente de forma assíncrona, então o agente não precisa esperar que elas sejam geradas.
Recuperação de recordações com escopo para um usuário com base na pesquisa de similaridade.
Se você usar o banco de memória do Vertex AI Agent Engine com o Agent Development Kit, seu agente vai ler e gravar automaticamente memórias de longo prazo para você.
O Memory Bank se integra às sessões do mecanismo de agente da Vertex AI para gerar memórias de sessões armazenadas usando o seguinte processo:
(Sessões)
CreateSession
: no início de cada conversa, crie uma nova sessão. O histórico de conversas usado pelo agente é limitado a essa sessão. Uma sessão contém a sequência cronológica de mensagens e ações (SessionEvents
) de uma interação entre um usuário e seu agente. Todas as sessões precisam ter um User ID. As recordações extraídas (consulteGenerateMemories
) dessa sessão são mapeadas para esse usuário.(Sessões)
AppendEvent
: à medida que o usuário interage com o agente, os eventos (como mensagens do usuário, respostas do agente, ações de ferramentas) são enviados para as sessões. Os eventos mantêm o histórico de conversas e criam um registro que pode ser usado para gerar recordações.(Sessões)
ListEvents
: à medida que o usuário interage com o agente, ele recupera o histórico de conversas.(Banco de memórias) Gerar ou criar recordações:
GenerateMemories
: em um intervalo especificado (como o fim de cada sessão ou de cada turno), o agente pode acionar a geração de memórias usando o histórico de conversas. Os fatos sobre o usuário são extraídos automaticamente do histórico de conversa para que fiquem disponíveis em sessões atuais ou futuras.CreateMemory
: seu agente pode gravar memórias diretamente no banco de memória. Por exemplo, o agente pode decidir quando uma memória deve ser escrita e quais informações devem ser salvas (memória como uma ferramenta). UseCreateMemory
quando quiser que o agente tenha mais controle sobre quais fatos são extraídos.
(Banco de memória)
RetrieveMemories
: à medida que o usuário interage com o agente, ele pode recuperar as memórias salvas sobre esse usuário. Você pode recuperar todas as recordações (recuperação simples) ou apenas as mais relevantes para a conversa atual (recuperação por pesquisa de similaridade). Em seguida, você pode inserir as recordações recuperadas no comando.
Guias de início rápido
Comece a usar o Memory Bank com os seguintes guias de início rápido:
Guia de início rápido usando a API REST: siga o guia de início rápido da API REST para fazer chamadas de API diretamente para as sessões do Vertex AI Agent Engine e o Memory Bank.
Guia de início rápido usando o Agent Development Kit (ADK): siga o guia de início rápido do ADK se quiser que o agente ADK orquestre chamadas para sessões e Memory Bank do Vertex AI Agent Engine.
Considerações sobre segurança
Além das responsabilidades de segurança descritas na responsabilidade compartilhada da Vertex AI, considere o risco de injeção de comandos e envenenamento da memória que podem afetar seu agente ao usar memórias de longo prazo. A contaminação da memória ocorre quando informações falsas são armazenadas no banco de memória. O agente pode operar com essas informações falsas ou maliciosas em sessões futuras.
Para reduzir o risco de envenenamento de memória, faça o seguinte:
Model Armor: use o Model Armor para inspecionar os comandos enviados ao Memory Bank ou do seu agente.
Testes adversários: teste proativamente seu aplicativo de LLM para detectar vulnerabilidades de injeção de comandos simulando ataques. Isso é conhecido como "red teaming".
Execução em sandbox: se o agente tiver a capacidade de executar ou interagir com sistemas externos ou críticos, essas ações deverão ser realizadas em um ambiente em sandbox com controle de acesso rigoroso e revisão humana.
Para mais informações, consulte Abordagem do Google para agentes de IA seguros.