Auf dieser Seite finden Sie die Dokumentation für AlloyDB Omni Version 15.7.0. Unter Dokumentationsversionen für AlloyDB Omni können Sie eine andere Version auswählen.
Generative KI-Anwendungen mit AlloyDB AI erstellen
Mit Sammlungen den Überblick behalten
Sie können Inhalte basierend auf Ihren Einstellungen speichern und kategorisieren.
AlloyDB AI ist eine Suite von Funktionen, die in AlloyDB for PostgreSQL und AlloyDB Omni enthalten sind und mit denen Sie die semantischen und prädiktiven Möglichkeiten von ML-Modellen (maschinelles Lernen) auf Ihre Daten anwenden können. Auf dieser Seite finden Sie eine Übersicht über die KI-Funktionen, die auf maschinellem Lernen basieren und über AlloyDB verfügbar sind.
Vektoren speichern, indexieren und abfragen
Die Standarderweiterung pgvector von PostgreSQL wird für AlloyDB angepasst und als vector bezeichnet.
Es unterstützt das Speichern generierter Einbettungen in einer Vektorspalte. Außerdem wird die Unterstützung für die Skalarquantisierung zum Erstellen von IVF-Indexen hinzugefügt. Sie können auch einen IVFFlat-Index oder HSNW-Index erstellen, der mit dem Stock pgvector verfügbar ist.
Weitere Informationen zum Speichern von Vektoren finden Sie unter Vektoren speichern.
Neben der benutzerdefinierten vector-Erweiterung enthält AlloyDB die alloydb_scann-Erweiterung, die einen hocheffizienten Nearest-Neighbor-Index mit dem ScaNN-Algorithmus implementiert.
Sie können Ihre Indexe so optimieren, dass ein Gleichgewicht zwischen Abfragen pro Sekunde (Queries per Second, QPS) und Abruf mit Ihren Abfragen besteht. Weitere Informationen zum Optimieren von Indexen finden Sie unter Leistung von Vektorabfragen optimieren.
Einbettungen und Textvorhersagen generieren
AlloyDB AI erweitert die PostgreSQL-Syntax um zwei Funktionen zum Abfragen von Modellen mit der Erweiterung google_ml_integration:
Vorhersagen aufrufen, um ein Modell mithilfe von SQL innerhalb einer Transaktion aufzurufen.
Mit der Funktion embedding() können Sie Vertex AI-Modelle abfragen. Mit der Funktion google_ml.embedding() können Sie registrierte Vertex AI-Modelle, gehostete Modelle und Modelle von Drittanbietern abfragen.
Anschließend können Sie diese Vektoreinbettungen als Eingaben auf pgvector-Funktionen anwenden. Dazu gehören Methoden zum Vergleichen und Sortieren von Textbeispielen anhand ihrer relativen semantischen Entfernung.
[[["Leicht verständlich","easyToUnderstand","thumb-up"],["Mein Problem wurde gelöst","solvedMyProblem","thumb-up"],["Sonstiges","otherUp","thumb-up"]],[["Schwer verständlich","hardToUnderstand","thumb-down"],["Informationen oder Beispielcode falsch","incorrectInformationOrSampleCode","thumb-down"],["Benötigte Informationen/Beispiele nicht gefunden","missingTheInformationSamplesINeed","thumb-down"],["Problem mit der Übersetzung","translationIssue","thumb-down"],["Sonstiges","otherDown","thumb-down"]],["Zuletzt aktualisiert: 2025-04-11 (UTC)."],[[["\u003cp\u003eAlloyDB AI provides machine learning capabilities to AlloyDB for PostgreSQL and AlloyDB Omni, allowing users to apply ML models to their data.\u003c/p\u003e\n"],["\u003cp\u003eThe \u003ccode\u003evector\u003c/code\u003e extension, a customized version of \u003ccode\u003epgvector\u003c/code\u003e, is available for storing embeddings, and supports scalar quantization features as well as \u003ccode\u003eIVFFlat\u003c/code\u003e and \u003ccode\u003eHSNW\u003c/code\u003e indexes.\u003c/p\u003e\n"],["\u003cp\u003eAlloyDB includes the \u003ccode\u003ealloydb_scann\u003c/code\u003e extension, which implements a highly efficient nearest-neighbor index using the ScaNN algorithm, and is usable with PostgreSQL 15.\u003c/p\u003e\n"],["\u003cp\u003eThe \u003ccode\u003egoogle_ml_integration\u003c/code\u003e extension lets users utilize the \u003ccode\u003eInvoke predictions\u003c/code\u003e to call a model within a SQL transaction, or \u003ccode\u003eGenerate embeddings\u003c/code\u003e functions to use an LLM to translate text prompts into numerical vectors.\u003c/p\u003e\n"],["\u003cp\u003eAlloyDB Omni integrates with Vertex AI, enabling applications to invoke predictions using models from the Vertex AI Model Garden and generate embeddings using \u003ccode\u003etext-embedding-005\u003c/code\u003e LLM.\u003c/p\u003e\n"]]],[],null,[]]