Mit Sammlungen den Überblick behalten
Sie können Inhalte basierend auf Ihren Einstellungen speichern und kategorisieren.
Memorystore for Valkey unterstützt das Speichern und Abfragen von Vektordaten. Auf dieser Seite finden Sie Informationen zur Vektorsuche in Memorystore for Valkey.
Die Vektorsuche in Memorystore for Valkey ist mit dem Open-Source-LLM-Framework LangChain kompatibel.
Mit der Vektorsuche mit LangChain können Sie Lösungen für die folgenden Anwendungsfälle erstellen:
Retrieval-Augmented Generation (RAG)
LLM-Cache
Empfehlungssystem
Semantische Suche
Suche nach ähnlichen Bildern
Der Vorteil von Memorystore zum Speichern Ihrer Daten für generative KI im Vergleich zu anderen Google Cloud Datenbanken ist die Geschwindigkeit von Memorystore. Die Vektorsuche in Memorystore for Valkey nutzt Multithread-Abfragen, was zu einem hohen Abfragedurchsatz (QPS) bei niedriger Latenz führt.
Memorystore bietet außerdem zwei verschiedene Suchansätze, mit denen Sie das richtige Gleichgewicht zwischen Geschwindigkeit und Genauigkeit finden können. Die Option „HNSW“ (Hierarchical Navigable Small World) liefert schnelle, ungefähre Ergebnisse, die sich ideal für große Datensätze eignen, bei denen eine enge Übereinstimmung ausreicht. Wenn Sie absolute Präzision benötigen, liefert der Ansatz „FLAT“ genaue Antworten, die Verarbeitung kann jedoch etwas länger dauern.
Wenn Sie Ihre Anwendung für die schnellsten Lese- und Schreibgeschwindigkeiten für Vektordaten optimieren möchten, ist Memorystore for Valkey wahrscheinlich die beste Option für Sie.
[[["Leicht verständlich","easyToUnderstand","thumb-up"],["Mein Problem wurde gelöst","solvedMyProblem","thumb-up"],["Sonstiges","otherUp","thumb-up"]],[["Schwer verständlich","hardToUnderstand","thumb-down"],["Informationen oder Beispielcode falsch","incorrectInformationOrSampleCode","thumb-down"],["Benötigte Informationen/Beispiele nicht gefunden","missingTheInformationSamplesINeed","thumb-down"],["Problem mit der Übersetzung","translationIssue","thumb-down"],["Sonstiges","otherDown","thumb-down"]],["Zuletzt aktualisiert: 2025-08-19 (UTC)."],[],[],null,["# About vector search\n\nMemorystore for Valkey supports storing and querying vector data. This page provides\ninformation about vector search on Memorystore for Valkey.\n| **Important:** To use vector search, your instance must be created after the feature launch date of September 13, 2024. If your instance was created prior to this date, you will need to [create](/memorystore/docs/valkey/create-instances) a new instance to use this feature.\n\nVector search on Memorystore for Valkey is compatible with the open-source LLM\nframework [LangChain](https://python.langchain.com/docs/get_started/introduction).\nUsing vector search with LangChain lets you build solutions for the following\nuse cases:\n\n- Retrieval Augmented Generation (RAG)\n- LLM cache\n- Recommendation engine\n- Semantic search\n- Image similarity search\n\nThe advantage of using Memorystore to store your Gen AI data, as opposed\nto other Google Cloud databases is Memorystore's speed. Vector\nsearch on Memorystore for Valkey leverages multi-threaded queries, resulting in\nhigh query throughput (QPS) at low latency.\n\nMemorystore also provides two distinct search approaches to help you find the right balance between speed and accuracy. The HNSW (Hierarchical Navigable Small World) option delivers fast, approximate results - ideal for large datasets where a close match is sufficient. If you require absolute precision, the 'FLAT' approach produces exact answers, though it may take slightly longer to process.\n\nIf you want to optimize your application for the fastest vector data read and write\nspeeds, Memorystore for Valkey is likely the best option for you."]]