Generative KI – Übersicht
In diesem Dokument werden die von BigQuery ML unterstützten Funktionen für generative künstliche Intelligenz (KI) beschrieben. Mit diesen Features können Sie KI-Aufgaben in BigQuery ML mithilfe von vortrainierten Vertex AI-Modellen und integrierten BigQuery ML-Modellen ausführen.
Zu den unterstützten Aufgaben gehören folgende:
- Text generieren, einschließlich strukturierter Daten
- Werte eines bestimmten Typs nach Zeile generieren
- Texteinbettungen generieren
- Prognosezeitreihe
Wenn Sie auf ein Vertex AI-Modell zugreifen, um eine dieser Funktionen auszuführen, erstellen Sie in BigQuery ML ein Remote-Modell, das den Endpunkt des Vertex AI-Modells darstellt. Nachdem Sie ein Remote-Modell für das Vertex AI-Modell erstellt haben, das Sie verwenden möchten, können Sie die Funktionalität dieses Modells nutzen. Dazu führen Sie eine BigQuery ML-Funktion für das Remote-Modell aus.
Mit diesem Ansatz können Sie die Funktionen dieser Vertex AI-Modelle in SQL-Abfragen verwenden, um BigQuery-Daten zu analysieren.
Workflow
Sie können Remote-Modelle über Vertex AI-Modelle und Remote-Modelle über Cloud AI-Dienste zusammen mit BigQuery ML-Funktionen zum Ausführen komplexer Datenanalyse- und generativer KI-Aufgaben verwenden.
Das folgende Diagramm zeigt einige typische Workflows, in denen Sie diese Funktionen zusammen verwenden können:
Textgenerierung
Die Textgenerierung ist eine Form der generativen KI, bei der Text entweder auf Grundlage eines Prompts oder einer Datenanalyse generiert wird. Sie können Text sowohl mit Text- als auch mit multimodalen Daten generieren.
Typische Anwendungsfälle für die Textgenerierung:
- Erstellung von Creative-Inhalten
- Code wird generiert.
- Chat- oder E-Mail-Antworten generieren
- Brainstorming, z. B. Vorschläge für zukünftige Produkte oder Dienstleistungen.
- Personalisierung von Inhalten, z. B. Produktvorschläge
- Daten werden klassifiziert, indem Inhalten ein oder mehrere Labels zugewiesen werden, um sie in Kategorien zu sortieren.
- Identifizieren Sie die wichtigsten in den Inhalten ausgedrückten Sentiments.
- Die wichtigsten Ideen oder Eindrücke zusammenfassen, die durch die Inhalte vermittelt werden.
- Identifizieren einer oder mehrerer wichtiger Entitäten in Text- oder visuellen Daten.
- Übersetzung von Text- oder Audiodaten in eine andere Sprache.
- Generiert Text, der mit dem gesprochenen Inhalt in Audiodaten übereinstimmt.
- Untertitel für visuelle Daten oder Antworten auf Fragen zu visuellen Daten
Die Datenanreicherung ist ein gängiger nächster Schritt nach der Textgenerierung. Dabei werden die Erkenntnisse aus der ersten Analyse durch die Kombination mit zusätzlichen Daten erweitert. So können Sie beispielsweise Bilder von Haushaltsgegenständen analysieren, um Text für eine design_type
-Spalte zu generieren, sodass der SKU der Haushaltsgegenstände eine Beschreibung wie mid-century modern
oder farmhouse
zugeordnet ist.
Unterstützte Modelle
Für Aufgaben mit generativer KI können Sie in BigQuery ML Remote-Modelle verwenden, um auf Modelle zu verweisen, die in Vertex AI bereitgestellt oder gehostet werden. Sie können die folgenden Arten von Remote-Modellen erstellen:
Remote-Modelle über eines der folgenden vortrainierten Vertex AI-Modelle:
gemini-2.0-flash-lite-001
(Vorschau)gemini-2.0-flash-001
gemini-1.5-flash
gemini-1.5-pro
Remote-Modelle über die folgenden Partnermodelle:
Modelle zur Textgenerierung verwenden
Nachdem Sie ein Remote-Modell erstellt haben, können Sie über die Funktion ML.GENERATE_TEXT
oder AI.GENERATE_TABLE
(Vorabversion) mit diesem Modell interagieren:
- Bei Remote-Modellen, die auf den Gemini 1.5- oder 2.0-Modellen basieren, können Sie mit der Funktion
ML.GENERATE_TEXT
Folgendes tun:- Text, Bilder, Audio, Video oder PDF-Inhalte aus einer Objekttabelle mit einem Prompt analysieren, den Sie als Funktionsargument angeben
- Text aus einem Prompt generieren, den Sie in einer Abfrage angeben, oder aus einer Spalte in einer Standardtabelle
- Bei Remote-Modellen, die auf den Modellen Gemini 1.5 Flash, Gemini 1.5 Pro oder Gemini Flash 2.0 basieren, können Sie mit der Funktion
AI.GENERATE_TABLE
strukturierte Daten aus einem Prompt generieren, den Sie in einer Abfrage oder einer Spalte in einer Standardtabelle angeben. Die Antwort des Modells wird basierend auf einem von Ihnen angegebenen SQL-Schema formatiert. - Bei allen anderen Arten von Remote-Modellen können Sie die
ML.GENERATE_TEXT
-Funktion mit einem Prompt verwenden, den Sie in einer Abfrage oder einer Spalte in einer Standardtabelle angeben.
Schutzmaßnahmen und Sicherheitsattribute
Sie können Fundierung und Sicherheitsattribute verwenden, wenn Sie Gemini-Modelle mit der Funktion ML.GENERATE_TEXT
verwenden, wenn Sie eine Standardtabelle als Eingabe verwenden. Mit der Fundierung kann das Gemini-Modell zusätzliche Informationen aus dem Internet verwenden, um spezifischere und faktischere Antworten zu generieren. Mit Sicherheitsattributen kann das Gemini-Modell die zurückgegebenen Antworten anhand der von Ihnen angegebenen Attribute filtern.
Überwachte Abstimmung
Wenn Sie ein Remote-Modell erstellen, das auf eines der folgenden Modelle verweist, können Sie optional gleichzeitig die überwachte Abstimmung konfigurieren:
gemini-1.5-pro-002
gemini-1.5-flash-002
Alle Inferenzen treten in Vertex AI auf. Die Ergebnisse werden in BigQuery gespeichert.
Mit den folgenden Themen können Sie die Textgenerierung in BigQuery ML ausprobieren:
- Text mit einem Gemini-Modell und der Funktion
ML.GENERATE_TEXT
generieren - Bilder mit einem Gemini-Modell analysieren
- Generieren Sie Text mithilfe der Funktion
ML.GENERATE_TEXT
und Ihren Daten. - Formatierten Text mithilfe der Funktion
AI.GENERATE_TABLE
mit Ihren Daten generieren - Optimieren Sie ein Modell mit Ihren Daten.
Generative AI-Funktionen
Sie können generative KI-Funktionen mit Gemini-Modellen verwenden, um Text in einer BigQuery-Tabelle zu analysieren. Für jede Zeile in der Tabelle generieren diese Funktionen eine Ausgabe mit einem bestimmten Typ.
Die folgenden KI-Funktionen sind verfügbar:
AI.GENERATE
, was einenSTRING
-Wert generiertAI.GENERATE_BOOL
AI.GENERATE_DOUBLE
AI.GENERATE_INT
Einbettung
Einbettungen sind hochdimensionale numerische Vektoren, die eine bestimmte Entität darstellen, z. B. einen Text oder eine Audiodatei. Durch das Generieren von Einbettungen können Sie die Semantik Ihrer Daten so erfassen, dass sich die Daten leichter analysieren und vergleichen lassen.
Typische Anwendungsfälle für die Generierung von Einbettungen:
- Mit Retrieval-Augmented Generation (RAG) können Modellantworten auf Nutzeranfragen durch Verweisen auf zusätzliche Daten aus einer vertrauenswürdigen Quelle ergänzt werden. RAG bietet eine bessere Faktenrichtigkeit und Antwortkonsistenz sowie Zugriff auf Daten, die aktueller sind als die Trainingsdaten des Modells.
- Multimodale Suche Beispielsweise kann Text als Eingabe für die Bildsuche verwendet werden.
- Semantische Suche, um ähnliche Elemente für Empfehlungen, Substitution und Datensatzdeduplizierung zu finden
- Erstellen von Einbettungen für ein K-Means-Modell zum Clustering.
Unterstützte Modelle
Die folgenden Modelle werden unterstützt:
- Für Texteinbettungen können Sie die Vertex AI-Modelle
text-embedding
undtext-multilingual-embedding
verwenden. - Für multimodale Einbettungen, die Text, Bilder und Videos in denselben semantischen Bereich einbetten können, können Sie das Vertex AI-Modell
multimodalembedding
verwenden. - Zum Erstellen von Einbettungen für strukturierte Daten aus unabhängigen und identisch verteilten Zufallsvariablen (IID) können Sie ein BigQuery ML-Modell für die Hauptkomponentenanalyse (PCA) oder ein Autoencoder-Modell verwenden.
- Um Einbettungen für Nutzer- oder Artikeldaten zu erstellen, können Sie ein BigQuery ML-Modell zur Matrixfaktorisierung verwenden.
Für eine kleinere, schlanke Texteinbettung sollten Sie ein vortrainiertes TensorFlow-Modell verwenden, z. B. NNLM, SWIVEL oder BERT.
Modelle zur Generierung von Einbettungen verwenden
Nachdem Sie das Modell erstellt haben, können Sie über die Funktion ML.GENERATE_EMBEDDING
mit diesem Modell interagieren. ML.GENERATE_EMBEDDING
funktioniert für alle unterstützten Modelltypen mit Daten in Standardtabellen. Bei multimodalen Einbettungsmodellen funktioniert ML.GENERATE_EMBEDDING
auch mit visuellen Inhalten in Objekttabellen.
Bei Remote-Modellen erfolgt die gesamte Inferenz in Vertex AI. Bei anderen Modelltypen erfolgt die gesamte Inferenz in BigQuery. Die Ergebnisse werden in BigQuery gespeichert.
Mit den folgenden Themen können Sie die Textgenerierung in BigQuery ML ausprobieren:
- Text-Embeddings mit der Funktion
ML.GENERATE_EMBEDDING
generieren - Bild-Embeddings mit der Funktion
ML.GENERATE_EMBEDDING
generieren - Video-Embeddings mit der Funktion
ML.GENERATE_EMBEDDING
generieren - Multimodale Einbettungen generieren und suchen
- Semantische Suche und Retrieval Augmented Generation durchführen
Prognosen
Mit Prognosen können Sie Verlaufsdaten analysieren, um fundierte Vorhersagen über zukünftige Trends zu treffen. Sie können das integrierte Zeitreihenmodell TimesFM (Vorabversion) von BigQuery ML verwenden, um Prognosen zu erstellen, ohne ein eigenes Modell erstellen zu müssen. Das integrierte TimesFM-Modell arbeitet mit der Funktion AI.FORECAST
, um Prognosen auf der Grundlage Ihrer Daten zu erstellen.
Preise
Ihnen werden die Rechenressourcen in Rechnung gestellt, die Sie zum Ausführen von Abfragen in Modellen verwenden. Remote-Modelle führen Aufrufe an Vertex AI-Modelle aus. Daher fallen für Abfragen an Remote-Modelle auch Gebühren von Vertex AI an.
Weitere Informationen finden Sie unter BigQuery ML-Preise.
Nächste Schritte
- Eine Einführung in KI und ML in BigQuery finden Sie unter Einführung in KI und ML in BigQuery.
- Weitere Informationen zum Ausführen von Inferenzen für Modelle von maschinellem Lernen finden Sie unter Modellinferenz – Übersicht.