Acerca de la búsqueda vectorial

Memorystore para Redis admite el almacenamiento y la consulta de datos vectoriales. En esta página, se proporciona información sobre la búsqueda vectorial en Memorystore para Redis.

La búsqueda de vectores en Memorystore para Redis es compatible con el framework de LLM de código abierto LangChain. El uso de la búsqueda de vectores con LangChain te permite crear soluciones para lo siguiente: en los siguientes casos de uso:

  • Generación mejorada por recuperación (RAG)
  • Caché de LLM
  • Motor de recomendaciones
  • Búsqueda semántica
  • Búsqueda de similitud de imágenes

La ventaja de usar Memorystore para almacenar los datos de la IA generativa a otras bases de datos de Google Cloud es la velocidad de Memorystore. La búsqueda de vectores en Memorystore para Redis aprovecha las consultas de varios subprocesos, lo que genera una alta capacidad de procesamiento de consultas (QPS) con baja latencia.

Memorystore también proporciona dos enfoques de búsqueda distintos para ayudarte a encontrar el equilibrio correcto entre velocidad y precisión. La opción HNSW (mundo pequeño navegable jerárquico) ofrece resultados rápidos y aproximados, ideal para grandes conjuntos de datos en los que una coincidencia cercana es suficiente. Si necesitas precisión absoluta, el enfoque "FLAT" produce respuestas exactas, aunque el procesamiento puede tardar un poco más.

Si deseas optimizar tu aplicación para obtener las velocidades de lectura y escritura de datos vectoriales más rápidas, es probable que Memorystore para Redis sea la mejor opción para ti.