Multimodale Einbettungen generieren und suchen
In dieser Anleitung wird gezeigt, wie Sie mit BigQuery und Vertex AI multimodale Einbettungen für Bilder und Text generieren und diese Einbettungen dann für eine semantische Text-zu-Bild-Suche verwenden.
In dieser Anleitung werden die folgenden Aufgaben behandelt:
- Erstellen einer BigQuery-Objekttabelle für Bilddaten in einem Cloud Storage-Bucket.
- Bilddaten mit einem Colab Enterprise-Notebook in BigQuery untersuchen.
- BigQuery ML-Remote-Modell erstellen, das auf das
Vertex AI-Basismodell
multimodalembedding
abzielt. - Mit dem Remote-Modell und der Funktion
ML.GENERATE_EMBEDDING
Einbettungen aus den Bildern in der Objekttabelle generieren. - Beheben Sie alle Fehler bei der Einbettungserstellung.
- Optional: Vektorindex erstellen, um die Bildeinbettungen zu indexieren.
- Erstellen einer Texteinbettung für einen bestimmten Suchstring.
- Mit der Funktion
VECTOR_SEARCH
eine semantische Suche nach Bildeinbettungen durchführen, die der Texteinbettung ähneln - Ergebnisse in einem Notebook visualisieren
In dieser Anleitung werden die öffentlichen Kunstbilder aus dem The Metropolitan Museum of Art verwendet, die im öffentlichen Cloud Storage gcs-public-data--met
-Bucket verfügbar sind.
Erforderliche Berechtigungen
Zum Ausführen dieser Anleitung benötigen Sie die folgenden IAM-Berechtigungen (Identity and Access Management):
Zum Erstellen einer Verbindung benötigen Sie die Rolle „BigQuery-Verbindungsadministrator“ (
roles/bigquery.connectionAdmin
).Zum Erteilen von Berechtigungen für das Dienstkonto der Verbindung benötigen Sie die folgende
resourcemanager.projects.setIamPolicy
-Berechtigung:Zum Erstellen und Ausführen von Notebooks benötigen Sie folgende IAM-Berechtigungen:
resourcemanager.projects.get
resourcemanager.projects.list
bigquery.config.get
bigquery.jobs.create
bigquery.readsessions.create
bigquery.readsessions.getData
bigquery.readsessions.update
resourcemanager.projects.get
resourcemanager.projects.list
dataform.locations.get
dataform.locations.list
dataform.repositories.create
dataform.repositories.list
dataform.collections.create
dataform.collections.list
aiplatform.notebookRuntimeTemplates.apply
aiplatform.notebookRuntimeTemplates.get
aiplatform.notebookRuntimeTemplates.list
aiplatform.notebookRuntimeTemplates.getIamPolicy
aiplatform.notebookRuntimes.assign
aiplatform.notebookRuntimes.get
aiplatform.notebookRuntimes.list
aiplatform.operations.list
Sie können diese Berechtigungen über die folgenden IAM-Rollen abrufen:
- BigQuery Read Session-Nutzer (
roles/bigquery.readSessionUser
) - BigQuery Studio User (
roles/bigquery.studioUser
)
Die in dieser Anleitung erforderlichen IAM-Berechtigungen für die verbleibenden BigQuery-Vorgänge sind in den folgenden beiden Rollen enthalten:
- BigQuery-Dateneditor (
roles/bigquery.dataEditor
), um Modelle, Tabellen und Indexe zu erstellen. - BigQuery-Nutzer (
roles/bigquery.user
), um BigQuery-Jobs auszuführen.
- BigQuery-Dateneditor (
Kosten
In diesem Dokument verwenden Sie die folgenden kostenpflichtigen Komponenten von Google Cloud:
- BigQuery ML: You incur costs for the data that you process in BigQuery.
- Vertex AI: You incur costs for calls to the Vertex AI service that's represented by the remote model.
Mit dem Preisrechner können Sie eine Kostenschätzung für Ihre voraussichtliche Nutzung vornehmen.
Weitere Informationen zu den Preisen von BigQuery finden Sie unter BigQuery: Preise in der BigQuery-Dokumentation.
Weitere Informationen zu den Preisen für Vertex AI finden Sie auf der Seite Vertex AI: Preise.
Hinweise
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
-
Make sure that billing is enabled for your Google Cloud project.
-
Enable the BigQuery, BigQuery Connection, and Vertex AI APIs.
Dataset erstellen
Erstellen Sie ein BigQuery-Dataset zum Speichern Ihres ML-Modells.
Console
Rufen Sie in der Google Cloud Console die Seite BigQuery auf.
Klicken Sie im Bereich Explorer auf den Namen Ihres Projekts.
Klicken Sie auf
Aktionen ansehen > Dataset erstellen.Führen Sie auf der Seite Dataset erstellen die folgenden Schritte aus:
Geben Sie unter Dataset-ID
bqml_tutorial
ein.Wählen Sie als Standorttyp die Option Mehrere Regionen und dann USA (mehrere Regionen in den USA) aus.
Übernehmen Sie die verbleibenden Standardeinstellungen unverändert und klicken Sie auf Dataset erstellen.
bq
Wenn Sie ein neues Dataset erstellen möchten, verwenden Sie den Befehl bq mk
mit dem Flag --location
. Eine vollständige Liste der möglichen Parameter finden Sie in der bq mk --dataset
-Befehlsreferenz.
Erstellen Sie ein Dataset mit dem Namen
bqml_tutorial
, wobei der Datenspeicherort aufUS
und die Beschreibung aufBigQuery ML tutorial dataset
festgelegt ist:bq --location=US mk -d \ --description "BigQuery ML tutorial dataset." \ bqml_tutorial
Anstelle des Flags
--dataset
verwendet der Befehl die verkürzte Form-d
. Wenn Sie-d
und--dataset
auslassen, wird standardmäßig ein Dataset erstellt.Prüfen Sie, ob das Dataset erstellt wurde:
bq ls
API
Rufen Sie die Methode datasets.insert
mit einer definierten Dataset-Ressource auf.
{ "datasetReference": { "datasetId": "bqml_tutorial" } }
BigQuery DataFrames
Bevor Sie dieses Beispiel ausprobieren, folgen Sie den Schritten zur Einrichtung von BigQuery DataFrames in der BigQuery-Kurzanleitung: BigQuery DataFrames verwenden. Weitere Informationen finden Sie in der Referenzdokumentation zu BigQuery DataFrames.
Richten Sie zur Authentifizierung bei BigQuery die Standardanmeldedaten für Anwendungen ein. Weitere Informationen finden Sie unter ADC für eine lokale Entwicklungsumgebung einrichten.
Verbindung herstellen
Erstellen Sie eine Cloud-Ressourcenverbindung und rufen Sie die Dienstkonto-ID der Verbindung ab. Erstellen Sie die Verbindung in demselben Standort wie dem des von Ihnen im vorherigen Schritt erstellten Datasets.
Sie können diesen Schritt überspringen, wenn Sie entweder eine Standardverbindung konfiguriert haben oder die Rolle „BigQuery-Administrator“ haben.
Erstellen Sie eine Cloud-Ressourcenverbindung für das Remote-Modell und rufen Sie das Dienstkonto der Verbindung ab. Erstellen Sie die Verbindung am selben Speicherort wie das Dataset, das Sie im vorherigen Schritt erstellt haben.
Wählen Sie eine der folgenden Optionen aus:
Console
Rufen Sie die Seite BigQuery auf.
Klicken Sie im Bereich Explorer auf
Daten hinzufügen:Das Dialogfeld Daten hinzufügen wird geöffnet.
Wählen Sie im Bereich Filtern nach im Abschnitt Datenquellentyp die Option Geschäftsanwendungen aus.
Alternativ können Sie im Feld Nach Datenquellen suchen
Vertex AI
eingeben.Klicken Sie im Abschnitt Empfohlene Datenquellen auf Vertex AI.
Klicken Sie auf die Lösungsübersichtskarte Vertex AI-Modelle: BigQuery Federation.
Wählen Sie in der Liste Verbindungstyp die Option Remote-Modelle in Vertex AI, Remote-Funktionen und BigLake (Cloud-Ressource) aus.
Geben Sie im Feld Verbindungs-ID einen Namen für die Verbindung ein.
Klicken Sie auf Verbindung erstellen.
Klicken Sie auf Zur Verbindung.
Kopieren Sie im Bereich Verbindungsinformationen die Dienstkonto-ID zur Verwendung in einem späteren Schritt.
bq
Erstellen Sie in einer Befehlszeilenumgebung eine Verbindung:
bq mk --connection --location=REGION --project_id=PROJECT_ID \ --connection_type=CLOUD_RESOURCE CONNECTION_ID
Der Parameter
--project_id
überschreibt das Standardprojekt.Ersetzen Sie dabei Folgendes:
REGION
: Ihre VerbindungsregionPROJECT_ID
: Ihre Google Cloud -Projekt-IDCONNECTION_ID
: eine ID für Ihre Verbindung
Wenn Sie eine Verbindungsressource herstellen, erstellt BigQuery ein eindeutiges Systemdienstkonto und ordnet es der Verbindung zu.
Fehlerbehebung:Wird der folgende Verbindungsfehler angezeigt, aktualisieren Sie das Google Cloud SDK:
Flags parsing error: flag --connection_type=CLOUD_RESOURCE: value should be one of...
Rufen Sie die Dienstkonto-ID ab und kopieren Sie sie zur Verwendung in einem späteren Schritt:
bq show --connection PROJECT_ID.REGION.CONNECTION_ID
Die Ausgabe sieht in etwa so aus:
name properties 1234.REGION.CONNECTION_ID {"serviceAccountId": "connection-1234-9u56h9@gcp-sa-bigquery-condel.iam.gserviceaccount.com"}
Terraform
Verwenden Sie die Ressource google_bigquery_connection
:
Richten Sie zur Authentifizierung bei BigQuery die Standardanmeldedaten für Anwendungen ein. Weitere Informationen finden Sie unter Authentifizierung für Clientbibliotheken einrichten.
Im folgenden Beispiel wird eine Cloud-Ressourcenverbindung mit dem Namen my_cloud_resource_connection
in der Region US
erstellt:
Führen Sie die Schritte in den folgenden Abschnitten aus, um Ihre Terraform-Konfiguration auf ein Google Cloud -Projekt anzuwenden.
Cloud Shell vorbereiten
- Rufen Sie Cloud Shell auf.
-
Legen Sie das Standardprojekt Google Cloud fest, auf das Sie Ihre Terraform-Konfigurationen anwenden möchten.
Sie müssen diesen Befehl nur einmal pro Projekt und in jedem beliebigen Verzeichnis ausführen.
export GOOGLE_CLOUD_PROJECT=PROJECT_ID
Umgebungsvariablen werden überschrieben, wenn Sie in der Terraform-Konfigurationsdatei explizite Werte festlegen.
Verzeichnis vorbereiten
Jede Terraform-Konfigurationsdatei muss ein eigenes Verzeichnis haben (auch als Stammmodul bezeichnet).
-
Erstellen Sie in Cloud Shell ein Verzeichnis und eine neue Datei in diesem Verzeichnis. Der Dateiname muss die Erweiterung
.tf
haben, z. B.main.tf
. In dieser Anleitung wird die Datei alsmain.tf
bezeichnet.mkdir DIRECTORY && cd DIRECTORY && touch main.tf
-
Wenn Sie einer Anleitung folgen, können Sie den Beispielcode in jedem Abschnitt oder Schritt kopieren.
Kopieren Sie den Beispielcode in das neu erstellte
main.tf
.Kopieren Sie optional den Code aus GitHub. Dies wird empfohlen, wenn das Terraform-Snippet Teil einer End-to-End-Lösung ist.
- Prüfen und ändern Sie die Beispielparameter, die auf Ihre Umgebung angewendet werden sollen.
- Speichern Sie die Änderungen.
-
Initialisieren Sie Terraform. Dies ist nur einmal für jedes Verzeichnis erforderlich.
terraform init
Fügen Sie optional die Option
-upgrade
ein, um die neueste Google-Anbieterversion zu verwenden:terraform init -upgrade
Änderungen anwenden
-
Prüfen Sie die Konfiguration und prüfen Sie, ob die Ressourcen, die Terraform erstellen oder aktualisieren wird, Ihren Erwartungen entsprechen:
terraform plan
Korrigieren Sie die Konfiguration nach Bedarf.
-
Wenden Sie die Terraform-Konfiguration an. Führen Sie dazu den folgenden Befehl aus und geben Sie
yes
an der Eingabeaufforderung ein:terraform apply
Warten Sie, bis Terraform die Meldung „Apply complete“ anzeigt.
- Öffnen Sie Ihr Google Cloud Projekt, um die Ergebnisse aufzurufen. Rufen Sie in der Google Cloud Console Ihre Ressourcen in der Benutzeroberfläche auf, um sicherzustellen, dass Terraform sie erstellt oder aktualisiert hat.
Dem Dienstkonto der Verbindung Berechtigungen gewähren
Weisen Sie dem Dienstkonto der Verbindung die entsprechenden Rollen für den Zugriff auf die Cloud Storage- und Vertex AI-Dienste zu. Sie müssen diese Rollen in demselben Projekt gewähren, das Sie im Abschnitt Vorbereitung erstellt oder ausgewählt haben. Die Zuweisung der Rollen in einem anderen Projekt führt zu dem Fehler bqcx-1234567890-xxxx@gcp-sa-bigquery-condel.iam.gserviceaccount.com does not have the permission to access resource
.
So weisen Sie die entsprechenden Rollen zu:
Zur Seite IAM & Verwaltung.
Klicken Sie auf
Zugriff gewähren.Geben Sie im Feld Neue Hauptkonten die Dienstkonto-ID ein, die Sie zuvor kopiert haben.
Wählen Sie im Feld Rolle auswählen die Option Vertex AI und dann Vertex AI-Nutzer aus.
Klicken Sie auf Weitere Rolle hinzufügen.
Wählen Sie im Feld Rolle auswählen die Option Cloud Storage und dann Storage-Objekt-Betrachter aus.
Klicken Sie auf Speichern.
Objekttabelle erstellen
Erstellen Sie eine Objekttabelle für die Kunstbilder im öffentlichen Cloud Storage-gcs-public-data--met
-Bucket.
Mit der Objekttabelle können Sie die Bilder analysieren, ohne sie aus Cloud Storage zu verschieben.
Rufen Sie in der Google Cloud Console die Seite BigQuery auf.
Führen Sie im Abfrageeditor folgende Abfrage aus:
CREATE OR REPLACE EXTERNAL TABLE `bqml_tutorial.met_images` WITH CONNECTION `LOCATION.CONNECTION_ID` OPTIONS ( object_metadata = 'SIMPLE', uris = ['gs://gcs-public-data--met/*'] );
Ersetzen Sie Folgendes:
LOCATION
: Standort der VerbindungCONNECTION_ID
ist die ID Ihrer BigQuery-Verbindung.Wenn Sie sich Verbindungsdetails in der Google Cloud Console ansehen, ist dies der Wert im letzten Abschnitt der voll qualifizierten Verbindungs-ID, der unter Verbindungs-ID angezeigt wird, z. B.
projects/myproject/locations/connection_location/connections/myconnection
.
Bilddaten analysieren
Erstellen Sie ein Colab Enterprise-Notebook in BigQuery, um die Bilddaten zu analysieren.
Rufen Sie in der Google Cloud Console die Seite BigQuery auf.
Notebook einrichten:
- Fügen Sie dem Notebook eine Codezelle hinzu.
Kopieren Sie den folgenden Code in die Codezelle:
#@title Set up credentials from google.colab import auth auth.authenticate_user() print('Authenticated') PROJECT_ID='PROJECT_ID' from google.cloud import bigquery client = bigquery.Client(PROJECT_ID)
Ersetzen Sie
PROJECT_ID
durch den Namen des Projekts, das Sie für diese Anleitung verwenden.Führen Sie die Codezelle aus.
Tabellenanzeige aktivieren:
- Fügen Sie dem Notebook eine Codezelle hinzu.
Kopieren Sie den folgenden Code in die Codezelle:
#@title Enable data table display %load_ext google.colab.data_table
Führen Sie die Codezelle aus.
Funktion zum Anzeigen der Bilder erstellen:
- Fügen Sie dem Notebook eine Codezelle hinzu.
Kopieren Sie den folgenden Code in die Codezelle:
#@title Util function to display images import io from PIL import Image import matplotlib.pyplot as plt import tensorflow as tf def printImages(results): image_results_list = list(results) amt_of_images = len(image_results_list) fig, axes = plt.subplots(nrows=amt_of_images, ncols=2, figsize=(20, 20)) fig.tight_layout() fig.subplots_adjust(hspace=0.5) for i in range(amt_of_images): gcs_uri = image_results_list[i][0] text = image_results_list[i][1] f = tf.io.gfile.GFile(gcs_uri, 'rb') stream = io.BytesIO(f.read()) img = Image.open(stream) axes[i, 0].axis('off') axes[i, 0].imshow(img) axes[i, 1].axis('off') axes[i, 1].text(0, 0, text, fontsize=10) plt.show()
Führen Sie die Codezelle aus.
Bilder anzeigen:
- Fügen Sie dem Notebook eine Codezelle hinzu.
Kopieren Sie den folgenden Code in die Codezelle:
#@title Display Met images inspect_obj_table_query = """ SELECT uri, content_type FROM bqml_tutorial.met_images WHERE content_type = 'image/jpeg' Order by uri LIMIT 10; """ printImages(client.query(inspect_obj_table_query))
Führen Sie die Codezelle aus.
Die Antwort sollte in etwa so aussehen:
Speichern Sie das Notebook als
met-image-analysis
.
Remote-Modell erstellen
Erstellen Sie ein Remote-Modell, das ein gehostetes multimodales Einbettungsmodell von Vertex AI darstellt:
Rufen Sie in der Google Cloud Console die Seite BigQuery auf.
Führen Sie im Abfrageeditor folgende Abfrage aus:
CREATE OR REPLACE MODEL `bqml_tutorial.multimodal_embedding_model` REMOTE WITH CONNECTION `LOCATION.CONNECTION_ID` OPTIONS (ENDPOINT = 'multimodalembedding@001');
Ersetzen Sie Folgendes:
LOCATION
: Standort der VerbindungCONNECTION_ID
ist die ID Ihrer BigQuery-Verbindung.Wenn Sie sich Verbindungsdetails in der Google Cloud Console ansehen, ist dies der Wert im letzten Abschnitt der voll qualifizierten Verbindungs-ID, der unter Verbindungs-ID angezeigt wird, z. B.
projects/myproject/locations/connection_location/connections/myconnection
.
Die Abfrage dauert mehrere Sekunden. Anschließend wird das Modell
multimodal_embedding_model
imbqml_tutorial
-Dataset des Bereichs Explorer angezeigt. Da die Abfrage eineCREATE MODEL
-Anweisung zum Erstellen eines Modells verwendet, gibt es keine Abfrageergebnisse.
Bildeinbettungen generieren
Generieren Sie mit der Funktion ML.GENERATE_EMBEDDING
Einbettungen aus den Bildern in der Objekttabelle. Schreiben Sie sie in einem folgenden Schritt dann zur Verwendung in eine Tabelle. Die Generierung der Einbettung ist ein teurer Vorgang. Daher verwendet die Abfrage eine Unterabfrage, einschließlich der LIMIT
-Klausel, um die Generierung der Einbettung auf 10.000 Bilder zu beschränken, anstatt das vollständige Dataset von 601.294 Bildern einzubetten. Dies trägt auch dazu bei, die Anzahl der Bilder unter dem Limit von 25.000 für die ML.GENERATE_EMBEDDING
-Funktion zu halten. Diese Abfrage dauert ca. 40 Minuten.
Rufen Sie in der Google Cloud Console die Seite BigQuery auf.
Führen Sie im Abfrageeditor folgende Abfrage aus:
CREATE OR REPLACE TABLE `bqml_tutorial.met_image_embeddings` AS SELECT * FROM ML.GENERATE_EMBEDDING( MODEL `bqml_tutorial.multimodal_embedding_model`, (SELECT * FROM `bqml_tutorial.met_images` WHERE content_type = 'image/jpeg' LIMIT 10000))
Fehler bei der Generierung von Einbettungen beheben
Prüfen Sie, ob Fehler bei der Generierung von Einbettungen aufgetreten sind, und beheben Sie sie. Die Generierung von Einbettungen kann aufgrund von Kontingenten für generative KI in Vertex AI oder der Nichtverfügbarkeit von Diensten fehlschlagen.
Die Funktion ML.GENERATE_EMBEDDING
gibt Fehlerdetails in der Spalte ml_generate_embedding_status
zurück. Diese Spalte ist leer, wenn die Einbettung erfolgreich generiert wurde. Andernfalls enthält sie eine Fehlermeldung.
Rufen Sie in der Google Cloud Console die Seite BigQuery auf.
Führen Sie im Abfrageeditor die folgende Abfrage aus, um zu prüfen, ob Fehler bei der Generierung von Einbettungen aufgetreten sind:
SELECT DISTINCT(ml_generate_embedding_status), COUNT(uri) AS num_rows FROM bqml_tutorial.met_image_embeddings GROUP BY 1;
Wenn Zeilen mit Fehlern zurückgegeben werden, entfernen Sie alle Zeilen, in denen die Einbettungserstellung fehlgeschlagen ist:
DELETE FROM `bqml_tutorial.met_image_embeddings` WHERE ml_generate_embedding_status = 'A retryable error occurred: RESOURCE_EXHAUSTED error from remote service/endpoint.';
Vektorindex erstellen
Optional können Sie die Anweisung CREATE VECTOR INDEX
verwenden, um den Vektorindex met_images_index
für die Spalte ml_generate_embedding_result
der Tabelle met_images_embeddings
zu erstellen.
Mit einem Vektorindex können Sie eine Vektorsuche schneller durchführen, mit dem Kompromiss, dass der Recall reduziert wird und somit ungefähre Ergebnisse zurückgegeben werden.
Rufen Sie in der Google Cloud Console die Seite BigQuery auf.
Führen Sie im Abfrageeditor folgende Abfrage aus:
CREATE OR REPLACE VECTOR INDEX `met_images_index` ON bqml_tutorial.met_image_embeddings(ml_generate_embedding_result) OPTIONS ( index_type = 'IVF', distance_type = 'COSINE');
Der Vektorindex wird asynchron erstellt. Um zu prüfen, ob der Vektorindex erstellt wurde, fragen Sie die Ansicht
INFORMATION_SCHEMA.VECTOR_INDEXES
ab und bestätigen, dass der Wertcoverage_percentage
größer als0
ist und der Wertlast_refresh_time
nichtNULL
ist:SELECT table_name, index_name, index_status, coverage_percentage, last_refresh_time, disable_reason FROM bqml_tutorial.INFORMATION_SCHEMA.VECTOR_INDEXES WHERE index_name = 'met_images_index';
Einbettung für den Suchtext generieren
Wenn Sie nach Bildern suchen möchten, die einem bestimmten Textsuchstring entsprechen, müssen Sie zuerst eine Texteinbettung für diesen String erstellen. Verwenden Sie dasselbe Remote-Modell, um die Texteinbettung zu erstellen, die Sie zum Erstellen der Bildeinbettungen verwendet haben, und schreiben Sie die Texteinbettung dann zur Verwendung in einem folgenden Schritt in eine Tabelle. Der Suchstring ist pictures of white or cream colored dress from victorian era
.
Rufen Sie in der Google Cloud Console die Seite BigQuery auf.
Führen Sie im Abfrageeditor folgende Abfrage aus:
CREATE OR REPLACE TABLE `bqml_tutorial.search_embedding` AS SELECT * FROM ML.GENERATE_EMBEDDING( MODEL `bqml_tutorial.multimodal_embedding_model`, ( SELECT 'pictures of white or cream colored dress from victorian era' AS content ) );
Semantische Text-zu-Bild-Suche durchführen
Verwenden Sie die VECTOR_SEARCH
-Funktion, um eine semantische Suche nach Bildern durchzuführen, die am besten dem durch die Texteinbettung repräsentierten Suchstring entsprechen.
Rufen Sie in der Google Cloud Console die Seite BigQuery auf.
Führen Sie im Abfrageeditor die folgende Abfrage aus, um eine semantische Suche durchzuführen und die Ergebnisse in eine Tabelle zu schreiben:
CREATE OR REPLACE TABLE `bqml_tutorial.vector_search_results` AS SELECT base.uri AS gcs_uri, distance FROM VECTOR_SEARCH( TABLE `bqml_tutorial.met_image_embeddings`, 'ml_generate_embedding_result', TABLE `bqml_tutorial.search_embedding`, 'ml_generate_embedding_result', top_k => 3);
Semantische Suchergebnisse visualisieren
Semantische Suchergebnisse mit einem Notebook visualisieren
Rufen Sie in der Google Cloud Console die Seite BigQuery auf.
Öffnen Sie das Notebook
met-image-analysis
, das Sie zuvor erstellt haben.Vektorsuchergebnisse visualisieren:
- Fügen Sie dem Notebook eine Codezelle hinzu.
Kopieren Sie den folgenden Code in die Codezelle:
query = """ SELECT * FROM `bqml_tutorial.vector_search_results` ORDER BY distance; """ printImages(client.query(query))
Führen Sie die Codezelle aus.
Die Antwort sollte in etwa so aussehen:
Bereinigen
- In the Google Cloud console, go to the Manage resources page.
- In the project list, select the project that you want to delete, and then click Delete.
- In the dialog, type the project ID, and then click Shut down to delete the project.