El banco de memoria de Vertex AI Agent Engine te permite generar de forma dinámica recuerdos a largo plazo basados en las conversaciones de los usuarios con tu agente. Los recuerdos a largo plazo son información personalizada a la que se puede acceder en varias sesiones para un usuario en particular. El agente puede usar las memorias para personalizar las respuestas al usuario y crear continuidad entre sesiones.
Las funciones de Memory Bank incluyen lo siguiente:
Almacenamiento persistente de recuerdos a los que se puede acceder desde varios entornos. Puedes usar las sesiones y el banco de memoria de Vertex AI Agent Engine con tu agente implementado en Vertex AI Agent Engine, desde tu entorno local o con otras opciones de implementación.
Extracción de recuerdos de sesiones basada en modelos de lenguaje grandes (LLM).
Los recuerdos se generan de forma remota y asíncrona, por lo que el agente no necesita esperar a que se generen.
Recuperación de recuerdos basada en la búsqueda de similitud y con alcance para un usuario.
Si usas el banco de memoria de Vertex AI Agent Engine con el Kit de desarrollo de agentes, tu agente leerá y escribirá automáticamente recuerdos a largo plazo por ti.
Memory Bank se integra con las sesiones de Vertex AI Agent Engine para generar recuerdos a partir de las sesiones almacenadas con el siguiente proceso:
(Sesiones)
CreateSession
: Al inicio de cada conversación, crea una sesión nueva. El historial de conversaciones que usa el agente se limita a esta sesión. Una sesión contiene la secuencia cronológica de mensajes y acciones (SessionEvents
) para una interacción entre un usuario y tu agente. Todas las sesiones deben tener un ID de usuario. Los recuerdos extraídos (consultaGenerateMemories
) para esta sesión se asignan a este usuario.(Sesiones)
AppendEvent
: A medida que el usuario interactúa con el agente, los eventos (como los mensajes del usuario, las respuestas del agente y las acciones de herramientas) se suben a Sesiones. Los eventos conservan el historial de conversaciones y crean un registro de la conversación que se puede usar para generar recuerdos.(Sesiones)
ListEvents
: A medida que el usuario interactúa con el agente, este recupera el historial de conversaciones.(Banco de memoria) Generar o crear recuerdos:
GenerateMemories
: En un intervalo especificado (como el final de cada sesión o el final de cada turno), el agente puede activar la generación de recuerdos a partir del historial de conversaciones. Los datos sobre el usuario se extraen automáticamente del historial de conversación para que estén disponibles en sesiones actuales o futuras.CreateMemory
: Tu agente puede escribir recuerdos directamente en el Banco de memoria. Por ejemplo, el agente puede decidir cuándo se debe escribir un recuerdo y qué información se debe guardar (memoria como herramienta). UsaCreateMemory
cuando quieras que tu agente tenga más control sobre qué hechos se extraen.
(Banco de memoria)
RetrieveMemories
: A medida que el usuario interactúa con tu agente, este puede recuperar recuerdos guardados sobre ese usuario. Puedes recuperar todos los recuerdos (recuperación simple) o solo los más relevantes para la conversación actual (recuperación por búsqueda de similitud). Luego, puedes insertar los recuerdos recuperados en tu instrucción.
Guías de inicio rápido
Comienza a usar Memory Bank con las siguientes guías de inicio rápido:
Guía de inicio rápido con la API de REST: Sigue la guía de inicio rápido de la API de REST para realizar llamadas a la API directamente a las sesiones y al banco de memoria de Vertex AI Agent Engine.
Guía de inicio rápido con el Kit de desarrollo de agentes (ADK): Sigue la guía de inicio rápido del Kit de desarrollo de agentes (ADK) si deseas que tu agente de ADK coordine las llamadas a las sesiones de Vertex AI Agent Engine y al banco de memoria por ti.
Consideraciones de seguridad
Además de las responsabilidades de seguridad que se describen en Responsabilidad compartida de Vertex AI, considera el riesgo de inyección de instrucciones y contaminación de la memoria que pueden afectar a tu agente cuando usa recuerdos a largo plazo. El envenenamiento de la memoria se produce cuando se almacena información falsa en Memory Bank. Luego, el agente puede operar con esta información falsa o maliciosa en sesiones futuras.
Para mitigar el riesgo de contaminación de la memoria, puedes hacer lo siguiente:
Model Armor: Usa Model Armor para inspeccionar las instrucciones que se envían a Memory Bank o desde tu agente.
Pruebas adversarias: Realiza pruebas de forma proactiva en tu aplicación de LLM para detectar vulnerabilidades de inyección de instrucciones simulando ataques. Esto se conoce comúnmente como "red teaming".
Ejecución en zona de pruebas: Si el agente tiene la capacidad de ejecutar o interactuar con sistemas externos o críticos, estas acciones deben realizarse en un entorno de zona de pruebas con un control de acceso estricto y revisión humana.
Para obtener más información, consulta El enfoque de Google para los agentes de IA seguros.