Acerca de la búsqueda vectorial

Memorystore for Valkey admite el almacenamiento y las consultas de datos vectoriales. En esta página se proporciona información sobre la búsqueda de vectores en Memorystore for Valkey.

La búsqueda vectorial en Memorystore para Valkey es compatible con el framework de LLM de código abierto LangChain. Si usas la búsqueda vectorial con LangChain, puedes crear soluciones para los siguientes casos prácticos:

  • Generación aumentada por recuperación (RAG)
  • Caché de LLM
  • Motor de recomendaciones
  • Búsqueda semántica
  • Búsqueda de imágenes similares

La ventaja de usar Memorystore para almacenar tus datos de IA generativa, en comparación con otras bases de datos, es la velocidad de Memorystore. Google Cloud La búsqueda vectorial en Memorystore para Valkey aprovecha las consultas multihilo, lo que da como resultado un alto rendimiento de las consultas (consultas por segundo) con una latencia baja.

Memorystore también ofrece dos enfoques de búsqueda distintos para ayudarte a encontrar el equilibrio adecuado entre velocidad y precisión. La opción HNSW (Hierarchical Navigable Small World) ofrece resultados rápidos y aproximados, ideales para conjuntos de datos grandes en los que una coincidencia cercana es suficiente. Si necesitas una precisión absoluta, el enfoque "FLAT" ofrece respuestas exactas, aunque el proceso puede tardar un poco más.

Si quieres optimizar tu aplicación para que lea y escriba datos vectoriales a la mayor velocidad posible, Memorystore for Valkey es probablemente la mejor opción.