Mantenha tudo organizado com as coleções
Salve e categorize o conteúdo com base nas suas preferências.
O Memorystore para Redis é compatível com o armazenamento e a consulta de dados de vetores. Nesta página, você encontra informações sobre a pesquisa vetorial no Memorystore para Redis.
A pesquisa de vetores no Memorystore para Redis é compatível com a estrutura de LLM de código aberto LangChain.
Usar a pesquisa de vetores com o LangChain permite criar soluções para os seguintes
casos de uso:
Geração aumentada de recuperação (RAG)
Cache de LLM
Mecanismo de recomendação
Pesquisa semântica
Pesquisa por similaridade de imagens
A vantagem de usar o Memorystore para armazenar seus dados de IA generativa é a velocidade dele. A pesquisa
de vetores no Memorystore para Redis usa consultas multithread, resultando em
alta capacidade de processamento de consultas (QPS) com baixa latência.
O Memorystore também oferece duas abordagens de pesquisa distintas para ajudar você a encontrar o equilíbrio certo entre velocidade e precisão. A opção HNSW (Hierarchical Navigable Small World) oferece resultados rápidos e aproximados, ideal para grandes conjuntos de dados em que uma correspondência próxima é suficiente. Se você precisar de precisão absoluta, a abordagem "FLAT" produz respostas exatas, embora possa levar um pouco mais de tempo para processar.
Se você quiser otimizar seu aplicativo para as velocidades mais rápidas de leitura e gravação de dados de vetor, o Memorystore para Redis provavelmente será a melhor opção.
[[["Fácil de entender","easyToUnderstand","thumb-up"],["Meu problema foi resolvido","solvedMyProblem","thumb-up"],["Outro","otherUp","thumb-up"]],[["Difícil de entender","hardToUnderstand","thumb-down"],["Informações incorretas ou exemplo de código","incorrectInformationOrSampleCode","thumb-down"],["Não contém as informações/amostras de que eu preciso","missingTheInformationSamplesINeed","thumb-down"],["Problema na tradução","translationIssue","thumb-down"],["Outro","otherDown","thumb-down"]],["Última atualização 2025-08-19 UTC."],[],[],null,["# About vector search\n\nMemorystore for Redis supports storing and querying vector data. This page provides\ninformation about vector search on Memorystore for Redis.\n| **Important:** To use vector search, your instance must use Redis version 7.2 or newer. To use this feature, either [create](/memorystore/docs/redis/create-manage-instances) or [upgrade](/memorystore/docs/redis/upgrade-redis-version) your instance to Redis version 7.2.\n\nVector search on Memorystore for Redis is compatible with the open-source LLM\nframework [LangChain](https://python.langchain.com/docs/get_started/introduction).\nUsing vector search with LangChain lets you build solutions for the following\nuse cases:\n\n- Retrieval Augmented Generation (RAG)\n- LLM cache\n- Recommendation engine\n- Semantic search\n- Image similarity search\n\nThe advantage of using Memorystore to store your generative AI data is Memorystore's speed. Vector\nsearch on Memorystore for Redis leverages multi-threaded queries, resulting in\nhigh query throughput (QPS) at low latency.\n\nMemorystore also provides two distinct search approaches to help you find the right balance between speed and accuracy. The HNSW (Hierarchical Navigable Small World) option delivers fast, approximate results - ideal for large datasets where a close match is sufficient. If you require absolute precision, the 'FLAT' approach produces exact answers, though it may take slightly longer to process.\n\nIf you want to optimize your application for the fastest vector data read and write\nspeeds, Memorystore for Redis is likely the best option for you."]]