Memorystore para Redis admite el almacenamiento y la consulta de datos vectoriales. En esta página, se proporciona información sobre la búsqueda vectorial en Memorystore para Redis.
La búsqueda de vectores en Memorystore para Redis es compatible con el framework de LLM de código abierto LangChain. El uso de la búsqueda de vectores con LangChain te permite compilar soluciones para los siguientes casos de uso:
- Generación mejorada por recuperación (RAG)
- Caché de LLM
- Motor de recomendaciones
- Búsqueda semántica
- Búsqueda de similitud de imágenes
La ventaja de usar Memorystore para almacenar tus datos de IA generativa, en comparación con otras bases de datos de Google Cloud, es la velocidad de Memorystore. La búsqueda de vectores en Memorystore para Redis aprovecha las consultas de varios subprocesos, lo que genera una alta capacidad de procesamiento de consultas (QPS) con baja latencia.
Memorystore también proporciona dos enfoques de búsqueda distintos para ayudarte a encontrar el equilibrio adecuado entre velocidad y precisión. La opción HNSW (mundo pequeño navegable jerárquico) ofrece resultados rápidos y aproximados, ideal para grandes conjuntos de datos en los que una coincidencia cercana es suficiente. Si necesitas precisión absoluta, el enfoque "FLAT" produce respuestas exactas, aunque el procesamiento puede tardar un poco más.
Si deseas optimizar tu aplicación para obtener las velocidades de lectura y escritura de datos vectoriales más rápidas, es probable que Memorystore para Redis sea la mejor opción para ti.