Dokumente mit der Funktion ML.PROCESS_DOCUMENT verarbeiten
Dieses Dokument beschreibt, wie die Funktion ML.PROCESS_DOCUMENT
mit einem Remote-Modell verwendet wird, um nützliche Erkenntnisse aus Dokumenten in eine Objekttabelle zu extrahieren.
Unterstützte Standorte
Sie müssen das in diesem Verfahren verwendete Remote-Modell entweder in der Multiregion US
oder EU
erstellen. Sie müssen die ML.PROCESS_DOCUMENT
-Funktion in derselben Region wie das Remote-Modell ausführen.
Erforderliche Rollen
Zum Erstellen eines Remote-Modells und zum Verarbeiten von Dokumenten benötigen Sie die folgenden IAM-Rollen (Identity and Access Management) auf Projektebene:
- Dokumentprozessor erstellen: Document AI-Bearbeiter (
roles/documentai.editor
) - BigQuery-Datasets, -Tabellen und -Modelle erstellen und verwenden: BigQuery-Dateneditor (
roles/bigquery.dataEditor
) BigQuery-Verbindungen erstellen, delegieren und verwenden: BigQuery-Verbindungsadministrator (
roles/bigquery.connectionsAdmin
)Wenn Sie keine Standardverbindung konfiguriert haben, können Sie eine erstellen und festlegen, wenn Sie die
CREATE MODEL
-Anweisung ausführen. Dazu benötigen Sie die Rolle „BigQuery Admin“ (roles/bigquery.admin
) für Ihr Projekt. Weitere Informationen finden Sie unter Standardverbindung konfigurieren.Dem Dienstkonto der Verbindung Berechtigungen erteilen: Projekt-IAM-Administrator (
roles/resourcemanager.projectIamAdmin
)BigQuery-Jobs erstellen: BigQuery-Jobnutzer (
roles/bigquery.jobUser
)
Diese vordefinierten Rollen enthalten die Berechtigungen, die zum Ausführen der Aufgaben in diesem Dokument erforderlich sind. Erweitern Sie den Abschnitt Erforderliche Berechtigungen, um die erforderlichen Berechtigungen anzuzeigen:
Erforderliche Berechtigungen
- Dataset erstellen:
bigquery.datasets.create
- Verbindung erstellen, delegieren und verwenden:
bigquery.connections.*
- Dienstkontoberechtigungen festlegen:
resourcemanager.projects.getIamPolicy
undresourcemanager.projects.setIamPolicy
- Modell erstellen und Inferenz ausführen:
bigquery.jobs.create
bigquery.models.create
bigquery.models.getData
bigquery.models.updateData
bigquery.models.updateMetadata
- Objekttabelle erstellen:
bigquery.tables.create
undbigquery.tables.update
- Dokumentprozessor erstellen:
documentai.processors.create
documentai.processors.update
documentai.processors.delete
Sie können diese Berechtigungen auch mit benutzerdefinierten Rollen oder anderen vordefinierten Rollen erhalten.
Hinweise
- Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
-
Make sure that billing is enabled for your Google Cloud project.
-
Enable the BigQuery, BigQuery Connection API, and Document AI APIs.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
-
Make sure that billing is enabled for your Google Cloud project.
-
Enable the BigQuery, BigQuery Connection API, and Document AI APIs.
Rufen Sie in der Google Cloud Console die Seite BigQuery auf.
Klicken Sie im Bereich Explorer auf den Namen Ihres Projekts.
Klicken Sie auf
Aktionen ansehen > Dataset erstellen.Führen Sie auf der Seite Dataset erstellen die folgenden Schritte aus:
Geben Sie für Dataset-ID einen Namen für das Dataset ein.
Wählen Sie unter Standorttyp einen Standort für das Dataset aus.
Klicken Sie auf Dataset erstellen.
Wenn Sie ein neues Dataset erstellen möchten, verwenden Sie den Befehl
bq mk
mit dem Flag--location
:bq --location=LOCATION mk -d DATASET_ID
Ersetzen Sie Folgendes:
LOCATION
: Speicherort des Datasets.DATASET_ID
: der Name des zu erstellenden Datasets.
Prüfen Sie, ob das Dataset erstellt wurde:
bq ls
Rufen Sie die Seite BigQuery auf.
Klicken Sie im Bereich Explorer auf
Daten hinzufügen:Das Dialogfeld Daten hinzufügen wird geöffnet.
Wählen Sie im Bereich Filtern nach im Abschnitt Datenquellentyp die Option Geschäftsanwendungen aus.
Alternativ können Sie im Feld Nach Datenquellen suchen
Vertex AI
eingeben.Klicken Sie im Abschnitt Empfohlene Datenquellen auf Vertex AI.
Klicken Sie auf die Lösungsübersichtskarte Vertex AI-Modelle: BigQuery Federation.
Wählen Sie in der Liste Verbindungstyp die Option Remote-Modelle in Vertex AI, Remote-Funktionen und BigLake (Cloud-Ressource) aus.
Geben Sie im Feld Verbindungs-ID einen Namen für die Verbindung ein.
Klicken Sie auf Verbindung erstellen.
Klicken Sie auf Zur Verbindung.
Kopieren Sie im Bereich Verbindungsinformationen die Dienstkonto-ID zur Verwendung in einem späteren Schritt.
Erstellen Sie in einer Befehlszeilenumgebung eine Verbindung:
bq mk --connection --location=REGION --project_id=PROJECT_ID \ --connection_type=CLOUD_RESOURCE CONNECTION_ID
Der Parameter
--project_id
überschreibt das Standardprojekt.Ersetzen Sie dabei Folgendes:
REGION
: Ihre VerbindungsregionPROJECT_ID
: Ihre Google Cloud -Projekt-IDCONNECTION_ID
: eine ID für Ihre Verbindung
Wenn Sie eine Verbindungsressource herstellen, erstellt BigQuery ein eindeutiges Systemdienstkonto und ordnet es der Verbindung zu.
Fehlerbehebung:Wird der folgende Verbindungsfehler angezeigt, aktualisieren Sie das Google Cloud SDK:
Flags parsing error: flag --connection_type=CLOUD_RESOURCE: value should be one of...
Rufen Sie die Dienstkonto-ID ab und kopieren Sie sie zur Verwendung in einem späteren Schritt:
bq show --connection PROJECT_ID.REGION.CONNECTION_ID
Die Ausgabe sieht in etwa so aus:
name properties 1234.REGION.CONNECTION_ID {"serviceAccountId": "connection-1234-9u56h9@gcp-sa-bigquery-condel.iam.gserviceaccount.com"}
- Rufen Sie Cloud Shell auf.
-
Legen Sie das Standardprojekt Google Cloud fest, auf das Sie Ihre Terraform-Konfigurationen anwenden möchten.
Sie müssen diesen Befehl nur einmal pro Projekt und in jedem beliebigen Verzeichnis ausführen.
export GOOGLE_CLOUD_PROJECT=PROJECT_ID
Umgebungsvariablen werden überschrieben, wenn Sie in der Terraform-Konfigurationsdatei explizite Werte festlegen.
-
Erstellen Sie in Cloud Shell ein Verzeichnis und eine neue Datei in diesem Verzeichnis. Der Dateiname muss die Erweiterung
.tf
haben, z. B.main.tf
. In dieser Anleitung wird die Datei alsmain.tf
bezeichnet.mkdir DIRECTORY && cd DIRECTORY && touch main.tf
-
Wenn Sie einer Anleitung folgen, können Sie den Beispielcode in jedem Abschnitt oder Schritt kopieren.
Kopieren Sie den Beispielcode in das neu erstellte
main.tf
.Kopieren Sie optional den Code aus GitHub. Dies wird empfohlen, wenn das Terraform-Snippet Teil einer End-to-End-Lösung ist.
- Prüfen und ändern Sie die Beispielparameter, die auf Ihre Umgebung angewendet werden sollen.
- Speichern Sie die Änderungen.
-
Initialisieren Sie Terraform. Dies ist nur einmal für jedes Verzeichnis erforderlich.
terraform init
Fügen Sie optional die Option
-upgrade
ein, um die neueste Google-Anbieterversion zu verwenden:terraform init -upgrade
-
Prüfen Sie die Konfiguration und prüfen Sie, ob die Ressourcen, die Terraform erstellen oder aktualisieren wird, Ihren Erwartungen entsprechen:
terraform plan
Korrigieren Sie die Konfiguration nach Bedarf.
-
Wenden Sie die Terraform-Konfiguration an. Führen Sie dazu den folgenden Befehl aus und geben Sie
yes
an der Eingabeaufforderung ein:terraform apply
Warten Sie, bis Terraform die Meldung „Apply complete“ anzeigt.
- Öffnen Sie Ihr Google Cloud Projekt, um die Ergebnisse aufzurufen. Rufen Sie in der Google Cloud Console Ihre Ressourcen in der Benutzeroberfläche auf, um sicherzustellen, dass Terraform sie erstellt oder aktualisiert hat.
Zur Seite IAM & Verwaltung.
Klicken Sie auf
Zugriff gewähren.Das Dialogfeld Principals hinzufügen wird geöffnet.
Geben Sie im Feld Neue Hauptkonten die Dienstkonto-ID ein, die Sie zuvor kopiert haben.
Wählen Sie im Feld Rolle auswählen die Option Document AI und dann Document AI-Betrachter aus.
Klicken Sie auf Weitere Rolle hinzufügen.
Wählen Sie im Feld Rolle auswählen die Option Cloud Storage und dann Storage-Objekt-Betrachter aus.
Klicken Sie auf Speichern.
PROJECT_NUMBER
: Ihre Projektnummer.MEMBER
: Die Dienstkonto-ID, die Sie zuvor kopiert haben.PROJECT_ID
: Ihre Projekt-ID.DATASET_ID
ist die ID des Datasets, das das Modell enthalten soll.MODEL_NAME
ist der Name des Modells.REGION
ist die Region, die von der Verbindung verwendet wird.CONNECTION_ID
: die Verbindungs-ID, z. B.myconnection
.Wenn Sie sich Verbindungsdetails in der Google Cloud Console ansehen, ist die Verbindungs-ID der Wert im letzten Abschnitt der voll qualifizierten Verbindungs-ID, der unter Verbindungs-ID angezeigt wird, z. B.
projects/myproject/locations/connection_location/connections/myconnection
.PROCESSOR_ID
: die Prozessor-ID des Dokuments. Um diesen Wert zu ermitteln, sehen Sie sich die Prozessordetails an und suchen Sie dann im Abschnitt Allgemeine Informationen nach der Zeile ID.PROJECT_ID
: Ihre Projekt-ID.DATASET_ID
ist die ID des Datasets, das das Modell enthält.MODEL_NAME
ist der Name des Modells.OBJECT_TABLE_NAME
: der Name der Objekttabelle, die die URIs der zu verarbeitenden Dokumente enthält.PROCESS_OPTIONS
: Die JSON-Konfiguration, die angibt, wie Dokumente verarbeitet werden sollen. Damit können Sie beispielsweise die Aufteilung von Dokumenten für den Layout-Parser angeben.PROJECT_ID
: Ihre Projekt-ID.DATASET_ID
ist die ID des Datasets, das das Modell enthält.MODEL_NAME
ist der Name des Modells.OBJECT_TABLE_NAME
: der Name der Objekttabelle, die die URIs der zu verarbeitenden Dokumente enthält.FILTERS
: Bedingungen zum Herausfiltern der Dokumente, die Sie in den Spalten der Objekttabelle verarbeiten möchten.NUM_DOCUMENTS
: Die maximale Anzahl der Dokumente, die Sie verarbeiten möchten.PROCESS_OPTIONS
: die JSON-Konfiguration, die die Konfiguration definiert, z. B. die Chunking-Konfiguration für den Layout-Parser- Weitere Informationen zur Modellinferenz in BigQuery ML finden Sie unter Modellinferenz.
- Informationen zu den unterstützten SQL-Anweisungen und -Funktionen für die einzelnen Modelltypen finden Sie unter End-to-End-Nutzerpfad für jedes Modell.
Prozessor erstellen
Erstellen Sie einen Prozessor in Document AI, um die Dokumente zu verarbeiten. Der Prozessor muss einen unterstützten Typ haben.
Dataset erstellen
Sie müssen das Dataset, die Verbindung und den Dokumentprozessor in derselben Region erstellen.
Erstellen Sie ein BigQuery-Dataset, das Ihre Ressourcen enthält:
Console
bq
Verbindung herstellen
Sie können diesen Schritt überspringen, wenn Sie entweder eine Standardverbindung konfiguriert haben oder die Rolle „BigQuery-Administrator“ haben.
Erstellen Sie eine Cloud-Ressourcenverbindung für das Remote-Modell und rufen Sie das Dienstkonto der Verbindung ab. Erstellen Sie die Verbindung am selben Speicherort wie das Dataset, das Sie im vorherigen Schritt erstellt haben.
Wählen Sie eine der folgenden Optionen aus:
Console
bq
Terraform
Verwenden Sie die Ressource google_bigquery_connection
:
Richten Sie zur Authentifizierung bei BigQuery die Standardanmeldedaten für Anwendungen ein. Weitere Informationen finden Sie unter Authentifizierung für Clientbibliotheken einrichten.
Im folgenden Beispiel wird eine Cloud-Ressourcenverbindung mit dem Namen my_cloud_resource_connection
in der Region US
erstellt:
Führen Sie die Schritte in den folgenden Abschnitten aus, um Ihre Terraform-Konfiguration auf ein Google Cloud -Projekt anzuwenden.
Cloud Shell vorbereiten
Verzeichnis vorbereiten
Jede Terraform-Konfigurationsdatei muss ein eigenes Verzeichnis haben (auch als Stammmodul bezeichnet).
Änderungen anwenden
Zugriff auf das Dienstkonto gewähren
Wählen Sie eine der folgenden Optionen aus:
Console
gcloud
Führen Sie den Befehl gcloud projects add-iam-policy-binding
aus:
gcloud projects add-iam-policy-binding 'PROJECT_NUMBER' --member='serviceAccount:MEMBER' --role='roles/documentai.viewer' --condition=None gcloud projects add-iam-policy-binding 'PROJECT_NUMBER' --member='serviceAccount:MEMBER' --role='roles/storage.objectViewer' --condition=None
Dabei gilt:
Wird die Berechtigung nicht erteilt, wird der Fehler Permission denied
ausgegeben.
Modell erstellen
Erstellen Sie ein Remote-Modell mit einem REMOTE_SERVICE_TYPE
von CLOUD_AI_DOCUMENT_V1
:
CREATE OR REPLACE MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME` REMOTE WITH CONNECTION {DEFAULT | `PROJECT_ID.REGION.CONNECTION_ID`} OPTIONS ( REMOTE_SERVICE_TYPE = 'CLOUD_AI_DOCUMENT_V1', DOCUMENT_PROCESSOR = 'PROCESSOR_ID' );
Dabei gilt:
Klicken Sie nach dem Erstellen des Modells im Abfrageergebnis auf Zum Modell, um die Spalten der Modellausgabe aufzurufen. Die Ausgabespalten werden im Abschnitt Labels auf dem Tab Schema angezeigt.
Objekttabelle erstellen
Erstellen Sie eine Objekttabelle für eine Reihe von Dokumenten in Cloud Storage. Die Dokumente in der Objekttabelle müssen einen unterstützten Typ haben.
Dokumente verarbeiten
Verarbeiten Sie alle Dokumente mit der Funktion ML.PROCESS_DOCUMENT
:
SELECT * FROM ML.PROCESS_DOCUMENT( MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`, TABLE `PROJECT_ID.DATASET_ID.OBJECT_TABLE_NAME` [, PROCESS_OPTIONS => ( JSON 'PROCESS_OPTIONS')] );
Ersetzen Sie Folgendes:
Alternativ können Sie einige der Dokumente mit der Funktion ML.PROCESS_DOCUMENT
verarbeiten:
SELECT * FROM ML.PROCESS_DOCUMENT( MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`, (SELECT * FROM `PROJECT_ID.DATASET_ID.OBJECT_TABLE_NAME` WHERE FILTERS LIMIT NUM_DOCUMENTS ) [, PROCESS_OPTIONS => ( JSON 'PROCESS_OPTIONS')] );
Ersetzen Sie Folgendes:
Beispiele
Beispiel 1
Im folgenden Beispiel wird der Kostenparser verwendet, um die in der Tabelle documents
dargestellten Dokumente zu verarbeiten:
SELECT * FROM ML.PROCESS_DOCUMENT( MODEL `myproject.mydataset.expense_parser`, TABLE `myproject.mydataset.documents` );
Diese Abfrage gibt die geparsten Ausgabenberichte zurück, einschließlich der Währung, des Gesamtbetrags, des Belegdatums und der Positionen in den Kostenberichten. Die Spalte ml_process_document_result
enthält die Rohausgabe des Kostenparsers und die Spalte ml_process_document_status
enthält alle Fehler, die von der Dokumentverarbeitung zurückgegeben werden.
Beispiel 2
Das folgende Beispiel zeigt, wie Sie die Objekttabelle filtern, um die zu verarbeitenden Dokumente auszuwählen und die Ergebnisse anschließend in eine neue Tabelle zu schreiben:
CREATE TABLE `myproject.mydataset.expense_details` AS SELECT uri, content_type, receipt_date, purchase_time, total_amount, currency FROM ML.PROCESS_DOCUMENT( MODEL `myproject.mydataset.expense_parser`, (SELECT * FROM `myproject.mydataset.expense_reports` WHERE uri LIKE '%restaurant%'));