Mit Sammlungen den Überblick behalten
Sie können Inhalte basierend auf Ihren Einstellungen speichern und kategorisieren.
Mit der Speicherbank der Vertex AI Agent Engine können Sie dynamisch Langzeitgedächtnisse basierend auf den Unterhaltungen der Nutzer mit Ihrem Agent generieren. Langzeitspeicher sind personalisierte Informationen, auf die in mehreren Sitzungen für einen bestimmten Nutzer zugegriffen werden kann. Der Agent kann die Erinnerungen verwenden, um Antworten an den Nutzer zu personalisieren und die Kontinuität zwischen Sitzungen zu gewährleisten.
Die Memory Bank bietet folgende Funktionen:
Dauerhafter Speicher von Erinnerungen, auf die von mehreren Umgebungen aus zugegriffen werden kann. Sie können Vertex AI Agent Engine-Sitzungen und die Memory Bank mit Ihrem bereitgestellten Agent in Vertex AI Agent Engine, in Ihrer lokalen Umgebung oder mit anderen Bereitstellungsoptionen verwenden.
LLM-basierte Extraktion von Erinnerungen aus Sitzungen.
Erinnerungen werden asynchron remote generiert, sodass der Agent nicht darauf warten muss.
Abrufen von Erinnerungen basierend auf der Ähnlichkeitssuche, die auf einen Nutzer beschränkt ist.
Wenn Sie die Speicherbank der Vertex AI Agent Engine mit dem Agent Development Kit verwenden, liest und schreibt Ihr Agent automatisch Langzeitinformationen für Sie.
Die Speicherbank wird in Vertex AI Agent Engine-Sitzungen eingebunden, um Erinnerungen aus gespeicherten Sitzungen zu generieren. Dazu wird folgender Prozess verwendet:
(Sitzungen) CreateSession: Erstellen Sie zu Beginn jeder Unterhaltung eine neue Sitzung. Der vom Agent verwendete Unterhaltungsverlauf ist auf diese Sitzung beschränkt. Eine Sitzung enthält die chronologische Reihenfolge von Nachrichten und Aktionen (SessionEvents) für eine Interaktion zwischen einem Nutzer und Ihrem Agent. Für alle Sitzungen muss eine Nutzer-ID vorhanden sein. Die für diese Sitzung extrahierten Erinnerungen (siehe GenerateMemories) werden diesem Nutzer zugeordnet.
(Sitzungen) AppendEvent: Wenn der Nutzer mit dem Agent interagiert, werden Ereignisse (z. B. Nutzernachrichten, Agent-Antworten, Tool-Aktionen) in „Sitzungen“ hochgeladen. Die Ereignisse speichern den Unterhaltungsverlauf und erstellen einen Datensatz der Unterhaltung, der zum Generieren von Erinnerungen verwendet werden kann.
(Sitzungen) ListEvents: Wenn der Nutzer mit dem Agent interagiert, ruft der Agent den Unterhaltungsverlauf ab.
(Memory Bank) Erinnerungen generieren oder erstellen:
GenerateMemories: In einem bestimmten Intervall (z. B. am Ende jeder Sitzung oder am Ende jeder Runde) kann der Agent mithilfe des Unterhaltungsverlaufs die Generierung von Erinnerungen auslösen. Fakten über den Nutzer werden automatisch aus dem Unterhaltungsverlauf extrahiert, sodass sie für aktuelle oder zukünftige Sitzungen verfügbar sind.
CreateMemory: Ihr Agent kann Erinnerungen direkt in die Memory Bank schreiben. Der Agent kann beispielsweise entscheiden, wann ein Speicher geschrieben werden soll und welche Informationen gespeichert werden sollen (Speicher als Tool). Verwenden Sie CreateMemory, wenn Ihr Agent mehr Kontrolle darüber haben soll, welche Fakten extrahiert werden.
(Memory Bank) RetrieveMemories: Wenn der Nutzer mit Ihrem Agent interagiert, kann der Agent gespeicherte Erinnerungen zu diesem Nutzer abrufen. Sie können entweder alle Erinnerungen abrufen (einfacher Abruf) oder nur die für die aktuelle Unterhaltung relevantesten Erinnerungen (Abruf per Ähnlichkeitssuche). Anschließend können Sie die abgerufenen Erinnerungen in Ihren Prompt einfügen.
Kurzanleitungen
Erste Schritte mit Memory Bank mithilfe der folgenden Kurzanleitungen:
Kurzanleitung zur Verwendung der REST API: Folgen Sie der Kurzanleitung zur REST API, um API-Aufrufe direkt an Vertex AI Agent Engine-Sitzungen und Memory Bank zu senden.
Kurzanleitung für das Agent Development Kit (ADK): Folgen Sie der Kurzanleitung für das Agent Development Kit (ADK), wenn Ihr ADK-Agent Aufrufe an Vertex AI Agent Engine Sessions und Memory Bank für Sie orchestrieren soll.
Sicherheitsrisiken von Prompt Injection
Zusätzlich zu den Sicherheitsverantwortlichkeiten, die unter Vertex AI – Geteilte Verantwortung beschrieben sind, sollten Sie das Risiko von Prompt-Injection und Memory Poisoning berücksichtigen, das Ihren Agent bei der Verwendung von Langzeitspeichern beeinträchtigen kann. Memory Poisoning tritt auf, wenn falsche Informationen im Memory Bank gespeichert werden. Der Agent kann dann in zukünftigen Sitzungen auf diese falschen oder schädlichen Informationen reagieren.
So verringern Sie das Risiko von Memory Poisoning:
Model Armor: Mit Model Armor können Sie Prompts prüfen, die an Memory Bank oder von Ihrem Agent gesendet werden.
Adversarial Testing: Testen Sie Ihre LLM-Anwendung proaktiv auf Sicherheitslücken durch Prompt-Injection, indem Sie Angriffe simulieren. Dies wird in der Regel als „Red Teaming“ bezeichnet.
Sandbox-Ausführung: Wenn der Agent die Möglichkeit hat, externe oder kritische Systeme auszuführen oder mit ihnen zu interagieren, sollten diese Aktionen in einer Sandbox-Umgebung mit strenger Zugriffssteuerung und manueller Überprüfung ausgeführt werden.
[[["Leicht verständlich","easyToUnderstand","thumb-up"],["Mein Problem wurde gelöst","solvedMyProblem","thumb-up"],["Sonstiges","otherUp","thumb-up"]],[["Schwer verständlich","hardToUnderstand","thumb-down"],["Informationen oder Beispielcode falsch","incorrectInformationOrSampleCode","thumb-down"],["Benötigte Informationen/Beispiele nicht gefunden","missingTheInformationSamplesINeed","thumb-down"],["Problem mit der Übersetzung","translationIssue","thumb-down"],["Sonstiges","otherDown","thumb-down"]],["Zuletzt aktualisiert: 2025-08-25 (UTC)."],[],[],null,["# Vertex AI Agent Engine Memory Bank overview\n\n| **Preview**\n|\n|\n| This feature is subject to the \"Pre-GA Offerings Terms\" in the General Service Terms section\n| of the [Service Specific Terms](/terms/service-terms#1).\n|\n| Pre-GA features are available \"as is\" and might have limited support.\n|\n| For more information, see the\n| [launch stage descriptions](/products#product-launch-stages).\n\nVertex AI Agent Engine Memory Bank lets you dynamically generate long-term memories based on users' conversations with your agent. Long-term memories are personalized information that can be accessed across multiple sessions for a particular user. The agent can use the memories to personalize responses to the user and create cross-session continuity.\n\nFeatures of Memory Bank include the following:\n\n- Persistent storage of memories that can be accessed from multiple environments. You can use Vertex AI Agent Engine Sessions and Memory Bank with your deployed agent on Vertex AI Agent Engine Runtime, from your local environment, or with other deployment options.\n\n- Large language model (LLM)-based extraction of memories from conversation history.\n\n- Memories are remotely generated asynchronously, so the agent doesn't need to wait for memories to be generated.\n\n- Similarity search-based retrieval of memories scoped to an identity ([`scope`](/vertex-ai/generative-ai/docs/agent-engine/memory-bank/fetch-memories#scope-based)).\n\n- If you use Vertex AI Agent Engine Memory Bank with Agent Development Kit, your agent can orchestrate calls to read and write long-term memories using Memory Bank.\n\nYou can use Memory Bank with Vertex AI Agent Engine Sessions to generate memories from stored sessions using the following process:\n\n1. **(Sessions) `CreateSession`** : At the start of each conversation, create a new session. The conversation history used by the agent is scoped to this session. A session contains the chronological sequence of messages and actions (`SessionEvents`) for an interaction between a user and your agent. All sessions must have a user ID; the extracted memories (see `GenerateMemories`) for this session are mapped to this user.\n\n2. **(Sessions) `AppendEvent`**: As the user interacts with the agent, events (such as user messages, agent responses, tool actions) are uploaded to Sessions. The events persist conversation history and create a record of the conversation that can be used to generate memories.\n\n3. **(Sessions) `ListEvents`**: As the user interacts with the agent, the agent retrieves the conversation history.\n\n4. **(Memory Bank)** Generate or create memories:\n\n - **`GenerateMemories`**: At a specified interval (such as the end of every session or the end of every turn), the agent can trigger memories to be generated using conversation history. Facts about the user are automatically extracted from the conversation history so that they're available for current or future sessions.\n\n - **`CreateMemory`** : Your agent can write memories directly to Memory Bank. For example, the agent can decide when a memory should be written and what information should be saved (memory-as-a-tool). Use `CreateMemory` when you want your agent to have more control over what facts are extracted.\n\n5. **(Memory Bank) `RetrieveMemories`**: As the user interacts with your agent, the agent can retrieve memories saved about that user. You can either retrieve all memories (simple retrieval) or only the most relevant memories to the current conversation (similarity search retrieval). Then you can insert the retrieved memories into your prompt.\n\nQuickstarts\n-----------\n\nGet started with Memory Bank using the following quickstarts:\n\n- [**Quickstart using REST API**](/vertex-ai/generative-ai/docs/agent-engine/memory-bank/quickstart-api): Follow the REST API quickstart to make API calls directly to Vertex AI Agent Engine Sessions and Memory Bank.\n\n- [**Quickstart using Agent Development Kit (ADK)**](/vertex-ai/generative-ai/docs/agent-engine/memory-bank/quickstart-adk): Follow the Agent Development Kit (ADK) quickstart if you want your ADK agent to orchestrate calls to Vertex AI Agent Engine Sessions and Memory Bank for you.\n\nSecurity risks of prompt injection\n----------------------------------\n\nIn addition to the security responsibilities outlined in [Vertex AI shared responsibility](/vertex-ai/docs/shared-responsibility), consider the risk of prompt injection and memory poisoning that can affect your agent when using long-term memories. Memory poisoning occurs when false information is stored in Memory Bank. The agent may then operate on this false or malicious information in future sessions.\n\nTo mitigate the risk of memory poisoning, you can do the following:\n\n- **Model Armor** : Use [Model Armor](/security-command-center/docs/model-armor-overview) to inspect prompts being sent to Memory Bank or from your agent.\n\n- **Adversarial testing**: Proactively test your LLM application for prompt injection vulnerabilities by simulating attacks. This is typically known as \"red teaming.\"\n\n- **Sandbox execution**: If the agent has the ability to execute or interact with external or critical systems, these actions should be performed in a sandboxed environment with strict access control and human review.\n\nFor more information, see [Google's Approach for Secure AI Agents](https://research.google/pubs/an-introduction-to-googles-approach-for-secure-ai-agents/).\n\nWhat's next\n-----------\n\n- [Set up Memory Bank](/vertex-ai/generative-ai/docs/agent-engine/memory-bank/set-up).\n- [Quickstart with Agent Development Kit](/vertex-ai/generative-ai/docs//agent-engine/memory-bank/quickstart-adk).\n- [Quickstart with Vertex AI Agent Engine SDK](/vertex-ai/generative-ai/docs//agent-engine/memory-bank/quickstart-api)."]]