Tentang penelusuran vektor

Memorystore for Redis mendukung penyimpanan dan pembuatan kueri data vektor. Halaman ini memberikan informasi tentang penelusuran vektor di Memorystore for Redis.

Penelusuran vektor di Memorystore for Redis kompatibel dengan framework LLM open source LangChain. Dengan penelusuran vektor menggunakan LangChain, Anda dapat membangun solusi untuk kasus penggunaan berikut:

  • Retrieval-Augmented Generation (RAG)
  • Cache LLM
  • Mesin pemberi saran
  • Penelusuran semantik
  • Penelusuran kemiripan gambar

Keuntungan menggunakan Memorystore untuk menyimpan data AI generatif Anda adalah kecepatan Memorystore. Penelusuran vektor di Memorystore for Redis memanfaatkan kueri multi-thread, sehingga menghasilkan throughput kueri (QPS) yang tinggi dengan latensi rendah.

Memorystore juga menyediakan dua pendekatan penelusuran yang berbeda untuk membantu Anda menemukan keseimbangan yang tepat antara kecepatan dan akurasi. Opsi HNSW (Hierarchical Navigable Small World) memberikan hasil perkiraan yang cepat - ideal untuk set data besar di mana kecocokan terdekat sudah cukup. Jika Anda memerlukan presisi absolut, pendekatan 'FLAT' menghasilkan jawaban yang tepat, meskipun pemrosesannya mungkin memerlukan waktu yang sedikit lebih lama.

Jika Anda ingin mengoptimalkan aplikasi untuk kecepatan baca dan tulis data vektor tercepat, Memorystore for Redis kemungkinan merupakan opsi terbaik untuk Anda.