Vektorsuche

Memorystore for Redis unterstützt das Speichern und Abfragen von Vektordaten. Auf dieser Seite finden Sie Informationen zur Vektorsuche in Memorystore for Redis.

Die Vektorsuche in Memorystore for Redis ist mit dem Open-Source-LLM-Framework LangChain kompatibel. Mit der Vektorsuche mit LangChain können Sie Lösungen für die folgenden Anwendungsfälle erstellen:

  • Retrieval-Augmented Generation (RAG)
  • LLM-Cache
  • Empfehlungssystem
  • Semantische Suche
  • Suche nach ähnlichen Bildern

Der Vorteil der Verwendung von Memorystore zum Speichern Ihrer generativen KI-Daten ist die Geschwindigkeit von Memorystore. Die Vektorsuche in Memorystore for Redis nutzt Multithread-Abfragen, was zu einem hohen Abfragedurchsatz (QPS) bei niedriger Latenz führt.

Memorystore bietet außerdem zwei verschiedene Suchansätze, mit denen Sie das richtige Gleichgewicht zwischen Geschwindigkeit und Genauigkeit finden können. Die Option „HNSW“ (Hierarchical Navigable Small World) liefert schnelle, ungefähre Ergebnisse, die sich ideal für große Datensätze eignen, bei denen eine enge Übereinstimmung ausreicht. Wenn Sie absolute Präzision benötigen, liefert der Ansatz „FLAT“ genaue Antworten, die Verarbeitung kann jedoch etwas länger dauern.

Wenn Sie Ihre Anwendung für die schnellsten Lese- und Schreibgeschwindigkeiten für Vektordaten optimieren möchten, ist Memorystore for Redis wahrscheinlich die beste Option für Sie.