Vektorsuche

Memorystore for Valkey unterstützt das Speichern und Abfragen von Vektordaten. Auf dieser Seite finden Sie Informationen zur Vektorsuche in Memorystore for Valkey.

Die Vektorsuche in Memorystore for Valkey ist mit dem Open-Source-LLM-Framework LangChain kompatibel. Mit der Vektorsuche mit LangChain können Sie Lösungen für die folgenden Anwendungsfälle erstellen:

  • Retrieval-Augmented Generation (RAG)
  • LLM-Cache
  • Empfehlungssystem
  • Semantische Suche
  • Suche nach ähnlichen Bildern

Der Vorteil von Memorystore zum Speichern Ihrer Daten für generative KI im Vergleich zu anderen Google Cloud Datenbanken ist die Geschwindigkeit von Memorystore. Die Vektorsuche in Memorystore for Valkey nutzt Multithread-Abfragen, was zu einem hohen Abfragedurchsatz (QPS) bei niedriger Latenz führt.

Memorystore bietet außerdem zwei verschiedene Suchansätze, mit denen Sie das richtige Gleichgewicht zwischen Geschwindigkeit und Genauigkeit finden können. Die Option „HNSW“ (Hierarchical Navigable Small World) liefert schnelle, ungefähre Ergebnisse, die sich ideal für große Datensätze eignen, bei denen eine enge Übereinstimmung ausreicht. Wenn Sie absolute Präzision benötigen, liefert der Ansatz „FLAT“ genaue Antworten, die Verarbeitung kann jedoch etwas länger dauern.

Wenn Sie Ihre Anwendung für die schnellsten Lese- und Schreibgeschwindigkeiten für Vektordaten optimieren möchten, ist Memorystore for Valkey wahrscheinlich die beste Option für Sie.