Memory Bank di Vertex AI Agent Engine ti consente di generare dinamicamente ricordi a lungo termine in base alle conversazioni degli utenti con il tuo agente. I ricordi a lungo termine sono informazioni personalizzate a cui un determinato utente può accedere in più sessioni. L'agente può utilizzare i ricordi per personalizzare le risposte all'utente e creare una continuità tra le sessioni.
Le funzionalità di Banca della Memoria includono:
Archiviazione permanente dei ricordi a cui è possibile accedere da più ambienti. Puoi utilizzare Sessioni e Memory Bank di Vertex AI Agent Engine con l'agente di cui è stato eseguito il deployment su Vertex AI Agent Engine, dal tuo ambiente locale o con altre opzioni di deployment.
Estrazione dei ricordi dalle sessioni basata su modelli linguistici di grandi dimensioni (LLM).
I ricordi vengono generati in remoto in modo asincrono, quindi l'agente non deve attendere la generazione dei ricordi.
Recupero di ricordi basato sulla ricerca per somiglianza con ambito limitato a un utente.
Se utilizzi la banca di memoria di Vertex AI Agent Engine con Agent Development Kit, l'agente legge e scrive automaticamente le memorie a lungo termine.
Memory Bank si integra con le sessioni di Vertex AI Agent Engine per generare ricordi dalle sessioni archiviate utilizzando il seguente processo:
(Sessioni)
CreateSession
: all'inizio di ogni conversazione, crea una nuova sessione. La cronologia delle conversazioni utilizzata dall'agente è limitata a questa sessione. Una sessione contiene la sequenza cronologica di messaggi e azioni (SessionEvents
) per un'interazione tra un utente e il tuo agente. Tutte le sessioni devono avere un ID utente; i ricordi estratti (vediGenerateMemories
) per questa sessione vengono mappati a questo utente.(Sessioni)
AppendEvent
: man mano che l'utente interagisce con l'agente, gli eventi (ad esempio messaggi dell'utente, risposte dell'agente, azioni degli strumenti) vengono caricati in Sessioni. Gli eventi mantengono la cronologia delle conversazioni e creano un record della conversazione che può essere utilizzato per generare ricordi.(Sessioni)
ListEvents
: man mano che l'utente interagisce con l'agente, quest'ultimo recupera la cronologia delle conversazioni.(Banca dei ricordi) Generare o creare ricordi:
GenerateMemories
: a un intervallo specificato (ad esempio alla fine di ogni sessione o di ogni turno), l'agente può attivare la generazione di ricordi utilizzando la cronologia delle conversazioni. I fatti relativi all'utente vengono estratti automaticamente dalla cronologia delle conversazioni in modo che siano disponibili per le sessioni attuali o future.CreateMemory
: il tuo agente può scrivere ricordi direttamente in Memory Bank. Ad esempio, l'agente può decidere quando scrivere un ricordo e quali informazioni salvare (memoria come strumento). UtilizzaCreateMemory
quando vuoi che l'agente abbia un maggiore controllo sui fatti estratti.
(Memory Bank)
RetrieveMemories
: man mano che l'utente interagisce con l'agente, quest'ultimo può recuperare i ricordi salvati sull'utente. Puoi recuperare tutti i ricordi (recupero semplice) o solo quelli più pertinenti alla conversazione corrente (recupero tramite ricerca di similarità). Poi puoi inserire i ricordi recuperati nel prompt.
Guide rapide
Inizia a utilizzare Memory Bank con le seguenti guide rapide:
Guida rapida che utilizza l'API REST: segui la guida rapida all'API REST per effettuare chiamate API direttamente a Sessioni e Memory Bank di Vertex AI Agent Engine.
Guida rapida all'utilizzo di Agent Development Kit (ADK): segui la guida rapida di Agent Development Kit (ADK) se vuoi che l'agente ADK orchestri le chiamate a Sessioni di Vertex AI Agent Engine e Memory Bank per te.
Considerazioni sulla sicurezza
Oltre alle responsabilità in materia di sicurezza descritte in Responsabilità condivisa di Vertex AI, considera il rischio di prompt injection e memory poisoning che possono influire sul tuo agente quando utilizzi le memorie a lungo termine. L'avvelenamento della memoria si verifica quando vengono memorizzate informazioni false in Memory Bank. L'agente potrebbe quindi operare su queste informazioni false o dannose nelle sessioni future.
Per ridurre il rischio di memory poisoning, puoi procedere nel seguente modo:
Model Armor: utilizza Model Armor per esaminare i prompt inviati a Memory Bank o dal tuo agente.
Test avversariale: testa in modo proattivo la tua applicazione LLM per verificare la presenza di vulnerabilità di prompt injection simulando attacchi. Questa procedura è in genere nota come "red teaming".
Esecuzione in sandbox: se l'agente ha la possibilità di eseguire o interagire con sistemi esterni o critici, queste azioni devono essere eseguite in un ambiente sandbox con un rigoroso controllo dell'accesso e una revisione umana.
Per ulteriori informazioni, consulta L'approccio di Google per gli agenti di AI sicuri.