Sobre a pesquisa vetorial

O Memorystore para Redis é compatível com o armazenamento e a consulta de dados de vetores. Nesta página, você encontra informações sobre a pesquisa vetorial no Memorystore para Redis.

A pesquisa de vetores no Memorystore para Redis é compatível com a estrutura de LLM de código aberto LangChain. Usar a pesquisa de vetores com o LangChain permite criar soluções para os seguintes casos de uso:

  • Geração aumentada de recuperação (RAG)
  • Cache de LLM
  • Mecanismo de recomendação
  • Pesquisa semântica
  • Pesquisa por similaridade de imagens

A vantagem de usar o Memorystore para armazenar seus dados de IA generativa é a velocidade dele. A pesquisa de vetores no Memorystore para Redis usa consultas multithread, resultando em alta capacidade de processamento de consultas (QPS) com baixa latência.

O Memorystore também oferece duas abordagens de pesquisa distintas para ajudar você a encontrar o equilíbrio certo entre velocidade e precisão. A opção HNSW (Hierarchical Navigable Small World) oferece resultados rápidos e aproximados, ideal para grandes conjuntos de dados em que uma correspondência próxima é suficiente. Se você precisar de precisão absoluta, a abordagem "FLAT" produz respostas exatas, embora possa levar um pouco mais de tempo para processar.

Se você quiser otimizar seu aplicativo para as velocidades mais rápidas de leitura e gravação de dados de vetor, o Memorystore para Redis provavelmente será a melhor opção.