Text mit der Funktion ML.underStand_TEXT verstehen

In diesem Dokument wird beschrieben, wie Sie die Funktion ML.UNDERSTAND_TEXT mit einem Remote-Modell verwenden, um für Text aus einer BigQuery-Standardtabelle eine Natural Language Text-Analysefunktion auszuführen.

Weitere Informationen zur Modellinferenz in BigQuery ML finden Sie unter Modellinferenz.

Informationen zu den unterstützten Modelltypen jeder SQL-Anweisung und -Funktion sowie zu allen unterstützten SQL-Anweisungen und -Funktionen für jeden Modelltyp finden Sie unter End-to-End-Nutzerpfad für jedes Modell.

Erforderliche Berechtigungen

  • Zum Erstellen einer Verbindung benötigen Sie die Mitgliedschaft in der folgenden Rolle:

    • roles/bigquery.connectionAdmin
  • Zum Erteilen von Berechtigungen für das Dienstkonto der Verbindung benötigen Sie die folgende Berechtigung:

    • resourcemanager.projects.setIamPolicy
  • Zum Erstellen des Modells mit BigQuery ML benötigen Sie die folgenden Berechtigungen:

    • bigquery.jobs.create
    • bigquery.models.create
    • bigquery.models.getData
    • bigquery.models.updateData
    • bigquery.models.updateMetadata
  • Zum Ausführen von Inferenzen benötigen Sie die folgenden Berechtigungen:

    • bigquery.tables.getData für die Tabelle
    • bigquery.models.getData für das Modell
    • bigquery.jobs.create

Hinweise

  1. Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
  2. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Go to project selector

  3. Make sure that billing is enabled for your Google Cloud project.

  4. Enable the BigQuery, BigQuery Connection API, and Cloud Natural Language API APIs.

    Enable the APIs

  5. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Go to project selector

  6. Make sure that billing is enabled for your Google Cloud project.

  7. Enable the BigQuery, BigQuery Connection API, and Cloud Natural Language API APIs.

    Enable the APIs

  8. Dataset erstellen

    Erstellen Sie ein BigQuery-Dataset, das Ihre Ressourcen enthält:

    Console

    1. Rufen Sie in der Google Cloud Console die Seite BigQuery auf.

      Zur Seite "BigQuery"

    2. Klicken Sie im Bereich Explorer auf den Namen Ihres Projekts.

    3. Klicken Sie auf Aktionen ansehen > Dataset erstellen.

    4. Führen Sie auf der Seite Dataset erstellen die folgenden Schritte aus:

      • Geben Sie für Dataset-ID einen Namen für das Dataset ein.

      • Wählen Sie unter Standorttyp einen Standort für das Dataset aus.

      • Klicken Sie auf Dataset erstellen.

    bq

    1. Wenn Sie ein neues Dataset erstellen möchten, verwenden Sie den Befehl bq mk mit dem Flag --location:

      bq --location=LOCATION mk -d DATASET_ID

      Ersetzen Sie Folgendes:

      • LOCATION: Speicherort des Datasets.
      • DATASET_ID: der Name des zu erstellenden Datasets.
    2. Prüfen Sie, ob das Dataset erstellt wurde:

      bq ls

    Verbindung herstellen

    Sie können diesen Schritt überspringen, wenn Sie entweder eine Standardverbindung konfiguriert haben oder die Rolle „BigQuery-Administrator“ haben.

    Erstellen Sie eine Cloud-Ressourcenverbindung für das Remote-Modell und rufen Sie das Dienstkonto der Verbindung ab. Erstellen Sie die Verbindung am selben Speicherort wie das Dataset, das Sie im vorherigen Schritt erstellt haben.

    Wählen Sie eine der folgenden Optionen aus:

    Console

    1. Rufen Sie die Seite BigQuery auf.

      BigQuery aufrufen

    2. Klicken Sie im Bereich Explorer auf Daten hinzufügen:

      Das UI-Element „Daten hinzufügen“

      Das Dialogfeld Daten hinzufügen wird geöffnet.

    3. Wählen Sie im Bereich Filtern nach im Abschnitt Datenquellentyp die Option Geschäftsanwendungen aus.

      Alternativ können Sie im Feld Nach Datenquellen suchen Vertex AI eingeben.

    4. Klicken Sie im Abschnitt Empfohlene Datenquellen auf Vertex AI.

    5. Klicken Sie auf die Lösungsübersichtskarte Vertex AI-Modelle: BigQuery Federation.

    6. Wählen Sie in der Liste Verbindungstyp die Option Remote-Modelle in Vertex AI, Remote-Funktionen und BigLake (Cloud-Ressource) aus.

    7. Geben Sie im Feld Verbindungs-ID einen Namen für die Verbindung ein.

    8. Klicken Sie auf Verbindung erstellen.

    9. Klicken Sie auf Zur Verbindung.

    10. Kopieren Sie im Bereich Verbindungsinformationen die Dienstkonto-ID zur Verwendung in einem späteren Schritt.

    bq

    1. Erstellen Sie in einer Befehlszeilenumgebung eine Verbindung:

      bq mk --connection --location=REGION --project_id=PROJECT_ID \
          --connection_type=CLOUD_RESOURCE CONNECTION_ID

      Der Parameter --project_id überschreibt das Standardprojekt.

      Ersetzen Sie dabei Folgendes:

      • REGION: Ihre Verbindungsregion
      • PROJECT_ID: Ihre Google Cloud -Projekt-ID
      • CONNECTION_ID: eine ID für Ihre Verbindung

      Wenn Sie eine Verbindungsressource herstellen, erstellt BigQuery ein eindeutiges Systemdienstkonto und ordnet es der Verbindung zu.

      Fehlerbehebung:Wird der folgende Verbindungsfehler angezeigt, aktualisieren Sie das Google Cloud SDK:

      Flags parsing error: flag --connection_type=CLOUD_RESOURCE: value should be one of...
      
    2. Rufen Sie die Dienstkonto-ID ab und kopieren Sie sie zur Verwendung in einem späteren Schritt:

      bq show --connection PROJECT_ID.REGION.CONNECTION_ID

      Die Ausgabe sieht in etwa so aus:

      name                          properties
      1234.REGION.CONNECTION_ID     {"serviceAccountId": "connection-1234-9u56h9@gcp-sa-bigquery-condel.iam.gserviceaccount.com"}
      

    Terraform

    Verwenden Sie die Ressource google_bigquery_connection:

    Richten Sie zur Authentifizierung bei BigQuery die Standardanmeldedaten für Anwendungen ein. Weitere Informationen finden Sie unter Authentifizierung für Clientbibliotheken einrichten.

    Im folgenden Beispiel wird eine Cloud-Ressourcenverbindung mit dem Namen my_cloud_resource_connection in der Region US erstellt:

    
    # This queries the provider for project information.
    data "google_project" "default" {}
    
    # This creates a cloud resource connection in the US region named my_cloud_resource_connection.
    # Note: The cloud resource nested object has only one output field - serviceAccountId.
    resource "google_bigquery_connection" "default" {
      connection_id = "my_cloud_resource_connection"
      project       = data.google_project.default.project_id
      location      = "US"
      cloud_resource {}
    }

    Führen Sie die Schritte in den folgenden Abschnitten aus, um Ihre Terraform-Konfiguration auf ein Google Cloud -Projekt anzuwenden.

    Cloud Shell vorbereiten

    1. Rufen Sie Cloud Shell auf.
    2. Legen Sie das Standardprojekt Google Cloud fest, auf das Sie Ihre Terraform-Konfigurationen anwenden möchten.

      Sie müssen diesen Befehl nur einmal pro Projekt und in jedem beliebigen Verzeichnis ausführen.

      export GOOGLE_CLOUD_PROJECT=PROJECT_ID

      Umgebungsvariablen werden überschrieben, wenn Sie in der Terraform-Konfigurationsdatei explizite Werte festlegen.

    Verzeichnis vorbereiten

    Jede Terraform-Konfigurationsdatei muss ein eigenes Verzeichnis haben (auch als Stammmodul bezeichnet).

    1. Erstellen Sie in Cloud Shell ein Verzeichnis und eine neue Datei in diesem Verzeichnis. Der Dateiname muss die Erweiterung .tf haben, z. B. main.tf. In dieser Anleitung wird die Datei als main.tf bezeichnet.
      mkdir DIRECTORY && cd DIRECTORY && touch main.tf
    2. Wenn Sie einer Anleitung folgen, können Sie den Beispielcode in jedem Abschnitt oder Schritt kopieren.

      Kopieren Sie den Beispielcode in das neu erstellte main.tf.

      Kopieren Sie optional den Code aus GitHub. Dies wird empfohlen, wenn das Terraform-Snippet Teil einer End-to-End-Lösung ist.

    3. Prüfen und ändern Sie die Beispielparameter, die auf Ihre Umgebung angewendet werden sollen.
    4. Speichern Sie die Änderungen.
    5. Initialisieren Sie Terraform. Dies ist nur einmal für jedes Verzeichnis erforderlich.
      terraform init

      Fügen Sie optional die Option -upgrade ein, um die neueste Google-Anbieterversion zu verwenden:

      terraform init -upgrade

    Änderungen anwenden

    1. Prüfen Sie die Konfiguration und prüfen Sie, ob die Ressourcen, die Terraform erstellen oder aktualisieren wird, Ihren Erwartungen entsprechen:
      terraform plan

      Korrigieren Sie die Konfiguration nach Bedarf.

    2. Wenden Sie die Terraform-Konfiguration an. Führen Sie dazu den folgenden Befehl aus und geben Sie yes an der Eingabeaufforderung ein:
      terraform apply

      Warten Sie, bis Terraform die Meldung „Apply complete“ anzeigt.

    3. Öffnen Sie Ihr Google Cloud Projekt, um die Ergebnisse aufzurufen. Rufen Sie in der Google Cloud Console Ihre Ressourcen in der Benutzeroberfläche auf, um sicherzustellen, dass Terraform sie erstellt oder aktualisiert hat.

    Zugriff auf das Dienstkonto gewähren

    Wählen Sie eine der folgenden Optionen aus:

    Console

    1. Zur Seite IAM & Verwaltung.

      IAM & Verwaltung aufrufen

    2. Klicken Sie auf Hinzufügen.

      Das Dialogfeld Principals hinzufügen wird geöffnet.

    3. Geben Sie im Feld Neue Hauptkonten die Dienstkonto-ID ein, die Sie zuvor kopiert haben.

    4. Wählen Sie im Feld Rolle auswählen die Option Dienstnutzung und dann Nutzer der Dienstnutzung aus.

    5. Klicken Sie auf Weitere Rolle hinzufügen.

    6. Wählen Sie im Feld Rolle auswählen die Option BigQuery aus und wählen Sie dann BigQuery Connection User aus.

    7. Klicken Sie auf Speichern.

    gcloud

    Führen Sie den Befehl gcloud projects add-iam-policy-binding aus:

    gcloud projects add-iam-policy-binding 'PROJECT_NUMBER' --member='serviceAccount:MEMBER' --role='roles/serviceusage.serviceUsageConsumer' --condition=None
    gcloud projects add-iam-policy-binding 'PROJECT_NUMBER' --member='serviceAccount:MEMBER' --role='roles/bigquery.connectionUser' --condition=None
    

    Dabei gilt:

    • PROJECT_NUMBER: Ihre Projektnummer.
    • MEMBER: Die Dienstkonto-ID, die Sie zuvor kopiert haben.

    Wird die Berechtigung nicht erteilt, wird ein Fehler ausgegeben.

    Modell erstellen

    Erstellen Sie ein Remote-Modell mit einem REMOTE_SERVICE_TYPE von CLOUD_AI_NATURAL_LANGUAGE_V1:

    CREATE OR REPLACE MODEL
    `PROJECT_ID.DATASET_ID.MODEL_NAME`
    REMOTE WITH CONNECTION {DEFAULT | `PROJECT_ID.REGION.CONNECTION_ID`}
    OPTIONS (REMOTE_SERVICE_TYPE = 'CLOUD_AI_NATURAL_LANGUAGE_V1');

    Dabei gilt:

    • PROJECT_ID: Ihre Projekt-ID.
    • DATASET_ID ist die ID des Datasets, das das Modell enthalten soll. Dieses Dataset muss sich am selben Standort wie die von Ihnen verwendete Verbindung befinden.
    • MODEL_NAME ist der Name des Modells.
    • REGION ist die Region, die von der Verbindung verwendet wird.
    • CONNECTION_ID: die Verbindungs-ID, z. B. myconnection.

      Wenn Sie sich Verbindungsdetails in der Google Cloud Console ansehen, ist die Verbindungs-ID der Wert im letzten Abschnitt der voll qualifizierten Verbindungs-ID, der unter Verbindungs-ID angezeigt wird, z. B. projects/myproject/locations/connection_location/connections/myconnection.

    Text verstehen

    Text mit der ML.UNDERSTAND_TEXT-Funktion verstehen:

    SELECT *
    FROM ML.UNDERSTAND_TEXT(
      MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`,
      { TABLE PROJECT_ID.DATASET_ID.TABLE_NAME | (QUERY) },
      STRUCT('FEATURE_NAME' AS nlu_option
      [, 'FLATTEN_JSON_OUTPUT' AS flatten_json_output])
    );

    Ersetzen Sie Folgendes:

    • PROJECT_ID: Ihre Projekt-ID.
    • DATASET_ID ist die ID des Datasets, das das Modell enthält.
    • MODEL_NAME ist der Name des Modells.
    • TABLE_NAME ist der Name der Tabelle, die den zu analysierenden Text in einer Spalte mit dem Namen text_content enthält. Wenn sich der Text in einer Spalte mit einem anderen Namen befindet, geben Sie text_content als Alias für diese Spalte an.
    • QUERY: eine Abfrage, die den zu beschreibenden Text in einer Spalte namens text_content enthält. Wenn sich der Text in einer Spalte mit einem anderen Namen befindet, geben Sie text_content als Alias für diese Spalte an.
    • FEATURE_NAME ist der Name eines unterstützten Natural Language API-Features.
    • FLATTEN_JSON_OUTPUT: ein BOOL-Wert, der bestimmt, ob der von der Funktion zurückgegebene JSON-Inhalt in separate Spalten geparst wird.

    Beispiel 1

    Im folgenden Beispiel wird der Text in der Spalte text_content der Tabelle geprüft und die vorherrschende Stimmung im Text ermittelt:

    SELECT * FROM ML.UNDERSTAND_TEXT(
      MODEL `mydataset.mynlpmodel`,
      TABLE mydataset.mytable,
      STRUCT('analyze_sentiment' AS nlu_option)
    );

    Beispiel 2

    Im folgenden Beispiel wird der Text in der Spalte comment der Tabelle geprüft und es werden syntaktische Informationen zum Text bereitgestellt:

    SELECT * FROM ML.UNDERSTAND_TEXT(
      MODEL `mydataset.mynlpmodel`,
      (SELECT comment AS text_content from mydataset.mytable),
      STRUCT('analyze_syntax' AS nlu_option)
    );

    Nächste Schritte

    Testen Sie das Notebook Unstrukturierte Datenanalysen mit BigQuery ML und vortrainierten Vertex AI-Modellen.