Mantenha tudo organizado com as coleções
Salve e categorize o conteúdo com base nas suas preferências.
O Memorystore para Valkey é compatível com o armazenamento e a consulta de dados vetoriais. Nesta página, você encontra informações sobre a pesquisa vetorial no Memorystore para Valkey.
A pesquisa de vetores no Memorystore for Valkey é compatível com o framework de LLM de código aberto LangChain.
Usar a pesquisa de vetores com o LangChain permite criar soluções para os seguintes
casos de uso:
Geração aumentada de recuperação (RAG)
Cache de LLM
Mecanismo de recomendação
Pesquisa semântica
Pesquisa por similaridade de imagens
A vantagem de usar o Memorystore para armazenar seus dados de IA generativa, em vez de outros bancos de dados Google Cloud , é a velocidade do Memorystore. A pesquisa
vetorial no Memorystore para Valkey usa consultas multithread, resultando em
alta taxa de transferência de consultas (QPS) com baixa latência.
O Memorystore também oferece duas abordagens de pesquisa distintas para ajudar você a encontrar o equilíbrio certo entre velocidade e precisão. A opção HNSW (Hierarchical Navigable Small World) oferece resultados rápidos e aproximados, ideal para grandes conjuntos de dados em que uma correspondência próxima é suficiente. Se você precisar de precisão absoluta, a abordagem "FLAT" produz respostas exatas, embora possa levar um pouco mais de tempo para processar.
Se você quiser otimizar seu aplicativo para as velocidades mais rápidas de leitura e gravação de dados de vetor, o Memorystore para Valkey provavelmente é a melhor opção.
[[["Fácil de entender","easyToUnderstand","thumb-up"],["Meu problema foi resolvido","solvedMyProblem","thumb-up"],["Outro","otherUp","thumb-up"]],[["Difícil de entender","hardToUnderstand","thumb-down"],["Informações incorretas ou exemplo de código","incorrectInformationOrSampleCode","thumb-down"],["Não contém as informações/amostras de que eu preciso","missingTheInformationSamplesINeed","thumb-down"],["Problema na tradução","translationIssue","thumb-down"],["Outro","otherDown","thumb-down"]],["Última atualização 2025-08-19 UTC."],[],[],null,["# About vector search\n\nMemorystore for Valkey supports storing and querying vector data. This page provides\ninformation about vector search on Memorystore for Valkey.\n| **Important:** To use vector search, your instance must be created after the feature launch date of September 13, 2024. If your instance was created prior to this date, you will need to [create](/memorystore/docs/valkey/create-instances) a new instance to use this feature.\n\nVector search on Memorystore for Valkey is compatible with the open-source LLM\nframework [LangChain](https://python.langchain.com/docs/get_started/introduction).\nUsing vector search with LangChain lets you build solutions for the following\nuse cases:\n\n- Retrieval Augmented Generation (RAG)\n- LLM cache\n- Recommendation engine\n- Semantic search\n- Image similarity search\n\nThe advantage of using Memorystore to store your Gen AI data, as opposed\nto other Google Cloud databases is Memorystore's speed. Vector\nsearch on Memorystore for Valkey leverages multi-threaded queries, resulting in\nhigh query throughput (QPS) at low latency.\n\nMemorystore also provides two distinct search approaches to help you find the right balance between speed and accuracy. The HNSW (Hierarchical Navigable Small World) option delivers fast, approximate results - ideal for large datasets where a close match is sufficient. If you require absolute precision, the 'FLAT' approach produces exact answers, though it may take slightly longer to process.\n\nIf you want to optimize your application for the fastest vector data read and write\nspeeds, Memorystore for Valkey is likely the best option for you."]]