Panoramica di Memory Bank di Vertex AI Agent Engine

Memory Bank di Vertex AI Agent Engine ti consente di generare dinamicamente ricordi a lungo termine in base alle conversazioni degli utenti con il tuo agente. I ricordi a lungo termine sono informazioni personalizzate a cui un determinato utente può accedere in più sessioni. L'agente può utilizzare i ricordi per personalizzare le risposte all'utente e creare una continuità tra le sessioni.

Le funzionalità di Banca della Memoria includono:

  • Archiviazione permanente dei ricordi a cui è possibile accedere da più ambienti. Puoi utilizzare Sessioni e Memory Bank di Vertex AI Agent Engine con l'agente di cui è stato eseguito il deployment su Vertex AI Agent Engine, dal tuo ambiente locale o con altre opzioni di deployment.

  • Estrazione dei ricordi dalle sessioni basata su modelli linguistici di grandi dimensioni (LLM).

  • I ricordi vengono generati in remoto in modo asincrono, quindi l'agente non deve attendere la generazione dei ricordi.

  • Recupero di ricordi basato sulla ricerca per somiglianza con ambito limitato a un utente.

  • Se utilizzi la banca di memoria di Vertex AI Agent Engine con Agent Development Kit, l'agente legge e scrive automaticamente le memorie a lungo termine.

Panoramica concettuale di Vertex AI Agent Engine Memory Bank

Memory Bank si integra con le sessioni di Vertex AI Agent Engine per generare ricordi dalle sessioni archiviate utilizzando il seguente processo:

  1. (Sessioni) CreateSession: all'inizio di ogni conversazione, crea una nuova sessione. La cronologia delle conversazioni utilizzata dall'agente è limitata a questa sessione. Una sessione contiene la sequenza cronologica di messaggi e azioni (SessionEvents) per un'interazione tra un utente e il tuo agente. Tutte le sessioni devono avere un ID utente; i ricordi estratti (vedi GenerateMemories) per questa sessione vengono mappati a questo utente.

  2. (Sessioni) AppendEvent: man mano che l'utente interagisce con l'agente, gli eventi (ad esempio messaggi dell'utente, risposte dell'agente, azioni degli strumenti) vengono caricati in Sessioni. Gli eventi mantengono la cronologia delle conversazioni e creano un record della conversazione che può essere utilizzato per generare ricordi.

  3. (Sessioni) ListEvents: man mano che l'utente interagisce con l'agente, quest'ultimo recupera la cronologia delle conversazioni.

  4. (Banca dei ricordi) Generare o creare ricordi:

    • GenerateMemories: a un intervallo specificato (ad esempio alla fine di ogni sessione o di ogni turno), l'agente può attivare la generazione di ricordi utilizzando la cronologia delle conversazioni. I fatti relativi all'utente vengono estratti automaticamente dalla cronologia delle conversazioni in modo che siano disponibili per le sessioni attuali o future.

    • CreateMemory: il tuo agente può scrivere ricordi direttamente in Memory Bank. Ad esempio, l'agente può decidere quando scrivere un ricordo e quali informazioni salvare (memoria come strumento). Utilizza CreateMemory quando vuoi che l'agente abbia un maggiore controllo sui fatti estratti.

  5. (Memory Bank) RetrieveMemories: man mano che l'utente interagisce con l'agente, quest'ultimo può recuperare i ricordi salvati sull'utente. Puoi recuperare tutti i ricordi (recupero semplice) o solo quelli più pertinenti alla conversazione corrente (recupero tramite ricerca di similarità). Poi puoi inserire i ricordi recuperati nel prompt.

Guide rapide

Inizia a utilizzare Memory Bank con le seguenti guide rapide:

Considerazioni sulla sicurezza

Oltre alle responsabilità in materia di sicurezza descritte in Responsabilità condivisa di Vertex AI, considera il rischio di prompt injection e memory poisoning che possono influire sul tuo agente quando utilizzi le memorie a lungo termine. L'avvelenamento della memoria si verifica quando vengono memorizzate informazioni false in Memory Bank. L'agente potrebbe quindi operare su queste informazioni false o dannose nelle sessioni future.

Per ridurre il rischio di memory poisoning, puoi procedere nel seguente modo:

  • Model Armor: utilizza Model Armor per esaminare i prompt inviati a Memory Bank o dal tuo agente.

  • Test avversariale: testa in modo proattivo la tua applicazione LLM per verificare la presenza di vulnerabilità di prompt injection simulando attacchi. Questa procedura è in genere nota come "red teaming".

  • Esecuzione in sandbox: se l'agente ha la possibilità di eseguire o interagire con sistemi esterni o critici, queste azioni devono essere eseguite in un ambiente sandbox con un rigoroso controllo dell'accesso e una revisione umana.

Per ulteriori informazioni, consulta L'approccio di Google per gli agenti di AI sicuri.