Mit Sammlungen den Überblick behalten
Sie können Inhalte basierend auf Ihren Einstellungen speichern und kategorisieren.
Memorystore for Redis unterstützt das Speichern und Abfragen von Vektordaten. Auf dieser Seite finden Sie Informationen zur Vektorsuche in Memorystore for Redis.
Die Vektorsuche in Memorystore for Redis ist mit dem Open-Source-LLM-Framework LangChain kompatibel.
Mit der Vektorsuche mit LangChain können Sie Lösungen für die folgenden Anwendungsfälle erstellen:
Retrieval-Augmented Generation (RAG)
LLM-Cache
Empfehlungssystem
Semantische Suche
Suche nach ähnlichen Bildern
Der Vorteil der Verwendung von Memorystore zum Speichern Ihrer generativen KI-Daten ist die Geschwindigkeit von Memorystore. Die Vektorsuche in Memorystore for Redis nutzt Multithread-Abfragen, was zu einem hohen Abfragedurchsatz (QPS) bei niedriger Latenz führt.
Memorystore bietet außerdem zwei verschiedene Suchansätze, mit denen Sie das richtige Gleichgewicht zwischen Geschwindigkeit und Genauigkeit finden können. Die Option „HNSW“ (Hierarchical Navigable Small World) liefert schnelle, ungefähre Ergebnisse, die sich ideal für große Datensätze eignen, bei denen eine enge Übereinstimmung ausreicht. Wenn Sie absolute Präzision benötigen, liefert der Ansatz „FLAT“ genaue Antworten, die Verarbeitung kann jedoch etwas länger dauern.
Wenn Sie Ihre Anwendung für die schnellsten Lese- und Schreibgeschwindigkeiten für Vektordaten optimieren möchten, ist Memorystore for Redis wahrscheinlich die beste Option für Sie.
[[["Leicht verständlich","easyToUnderstand","thumb-up"],["Mein Problem wurde gelöst","solvedMyProblem","thumb-up"],["Sonstiges","otherUp","thumb-up"]],[["Schwer verständlich","hardToUnderstand","thumb-down"],["Informationen oder Beispielcode falsch","incorrectInformationOrSampleCode","thumb-down"],["Benötigte Informationen/Beispiele nicht gefunden","missingTheInformationSamplesINeed","thumb-down"],["Problem mit der Übersetzung","translationIssue","thumb-down"],["Sonstiges","otherDown","thumb-down"]],["Zuletzt aktualisiert: 2025-08-19 (UTC)."],[],[],null,["# About vector search\n\nMemorystore for Redis supports storing and querying vector data. This page provides\ninformation about vector search on Memorystore for Redis.\n| **Important:** To use vector search, your instance must use Redis version 7.2 or newer. To use this feature, either [create](/memorystore/docs/redis/create-manage-instances) or [upgrade](/memorystore/docs/redis/upgrade-redis-version) your instance to Redis version 7.2.\n\nVector search on Memorystore for Redis is compatible with the open-source LLM\nframework [LangChain](https://python.langchain.com/docs/get_started/introduction).\nUsing vector search with LangChain lets you build solutions for the following\nuse cases:\n\n- Retrieval Augmented Generation (RAG)\n- LLM cache\n- Recommendation engine\n- Semantic search\n- Image similarity search\n\nThe advantage of using Memorystore to store your generative AI data is Memorystore's speed. Vector\nsearch on Memorystore for Redis leverages multi-threaded queries, resulting in\nhigh query throughput (QPS) at low latency.\n\nMemorystore also provides two distinct search approaches to help you find the right balance between speed and accuracy. The HNSW (Hierarchical Navigable Small World) option delivers fast, approximate results - ideal for large datasets where a close match is sufficient. If you require absolute precision, the 'FLAT' approach produces exact answers, though it may take slightly longer to process.\n\nIf you want to optimize your application for the fastest vector data read and write\nspeeds, Memorystore for Redis is likely the best option for you."]]