Memorystore for Redis supporta l'archiviazione e le query sui dati vettoriali. Questa pagina fornisce informazioni sulla ricerca di vettori su Memorystore for Redis.
La ricerca di vettori su Memorystore per Redis è compatibile con il framework LLM open source LangChain. L'utilizzo della ricerca vettoriale con LangChain ti consente di creare soluzioni per i seguenti casi d'uso:
- Retrieval Augmented Generation (RAG)
- Cache LLM
- Motore per suggerimenti
- Ricerca semantica
- Ricerca di immagini simili
Il vantaggio dell'utilizzo di Memorystore per archiviare i dati dell'IA generativa, rispetto ad altri database Google Cloud, è la velocità di Memorystore. La ricerca vettoriale su Memorystore per Redis sfrutta le query multithread, con un conseguente elevato throughput delle query (QPS) a bassa latenza.
Memorystore fornisce anche due approcci di ricerca distinti per aiutarti a trovare il giusto equilibrio tra velocità e accuratezza. L'opzione HNSW (Hierarchical Navigable Small World) offre risultati rapidi e approssimativi, ideale per set di dati di grandi dimensioni in cui è sufficiente una corrispondenza molto ravvicinata. Se hai bisogno di una precisione assoluta, l'approccio "FLAT" produce risposte esatte, anche se l'elaborazione potrebbe richiedere un po' più di tempo.
Se vuoi ottimizzare la tua applicazione per le velocità di lettura/scrittura dei dati vettoriali più elevate, Memorystore for Redis è probabilmente l'opzione migliore per te.