Auf dieser Seite wird beschrieben, wie Sie Nutzerereignisdaten aus früheren Ereignissen im Bulk in Vertex AI Search for Commerce importieren. Nutzerereignisdaten sind für das Trainieren von Modellen erforderlich. Nachdem Sie die Echtzeitereigniserfassung eingerichtet haben, kann es einige Zeit dauern, bis genügend Nutzerereignisdaten aufgezeichnet wurden, um Ihre Modelle zu trainieren. Durch den Import von Verlaufsdaten kann der Prozess beschleunigt werden.
Die Importverfahren auf dieser Seite gelten sowohl für Empfehlungen als auch für die Suche. Nach dem Import von Daten können beide Dienste diese Ereignisse verwenden. Sie müssen also die Daten nicht zweimal importieren, wenn Sie beide Dienste nutzen.
Sie können Ereignisse aus folgenden Quellen importieren:
- Cloud Storage.
- BigQuery:
- BigQuery für Google Analytics 360-Ereignisse.
- BigQuery für Google Analytics 4-Ereignisse.
- Ereignisse inline mit der Methode
userEvents.import
Allgemeine Tipps für den Einstieg
- Prüfen Sie, ob die Daten vollständig aus Google Analytics 4 in BigQuery importiert wurden.
- Prüfen Sie den Importstatus in der Konsole und sehen Sie sich die Debug- oder Fehlerdaten zur Fehlerbehebung an.
- Lesen Sie vor dem Importieren von Verlaufsnutzerereignisdaten die Best Practices zum Aufzeichnen von Nutzerereignissen und den Abschnitt Hinweis auf dieser Seite.
- Durch den Import von Verlaufskatalogdaten können Nutzerereignisse weiter optimiert und die Modellgenauigkeit verbessert werden.
Tutorials
In diesen Anleitungen wird beschrieben, wie Sie Nutzerereignisse aus verschiedenen Quellen importieren.
Ereignisse aus Cloud Storage importieren
In dieser Anleitung erfahren Sie, wie Sie Nutzerereignisse aus Cloud Storage importieren.
Klicken Sie auf Anleitung, um eine detaillierte Anleitung für diese Aufgabe direkt im Cloud Shell-Editor zu erhalten:
Ereignisse aus BigQuery importieren
In dieser Anleitung wird gezeigt, wie Sie Nutzerereignisse aus BigQuery importieren.
Klicken Sie auf Anleitung, um eine detaillierte Anleitung für diese Aufgabe direkt im Cloud Shell-Editor zu erhalten:
Ereignisse inline importieren
In dieser Anleitung wird gezeigt, wie Sie Nutzerereignisdaten inline importieren.
Klicken Sie auf Anleitung, um eine detaillierte Anleitung für diese Aufgabe direkt im Cloud Shell-Editor zu erhalten:
Hinweise
Damit Importfehler vermieden werden und um dafür zu sorgen, dass ausreichend Daten für qualitativ hochwertige Ergebnisse vorhanden sind, beachten Sie bitte die folgenden Hinweise, bevor Sie Ihre Nutzerereignisse importieren.
Sehen Sie sich die Best Practices zum Aufzeichnen von Nutzerereignissen an.
Das Format des Nutzerereignisses hängt vom Typ des Nutzerereignisses ab. Das Format, das beim Erstellen von Tabellen für jeden Ereignistyp angegeben werden muss, finden Sie unter Nutzerereignistypen und Beispielschema.
Für Empfehlungen und die Suche gelten unterschiedliche Mindestanforderungen an Daten. Achten Sie darauf, dass Ihre Nutzerereignisse die Anforderungen des Dienstes erfüllen, den Sie verwenden möchten:
Anforderungen an Nutzerereignisse und Best Practices für Such- und Empfehlungsanforderungen.
Wenn Sie Empfehlungsmodelle verwenden, sehen Sie sich auch die Anforderungen an Nutzerereignisdaten an. Hier sind zusätzliche Anforderungen aufgeführt, jeweils in Abhängigkeit von den verwendeten Empfehlungsmodelltypen und Optimierungszielen.
Überlegungen zum Ereignisimport
In diesem Abschnitt werden die Methoden, die für den Batch-Import Ihrer historischen Nutzerereignisse verwendet werden können, sowie einige der zugehörigen Methoden und Einschränkungen erläutert.
Cloud Storage | Beschreibung |
Importieren Sie Daten im JSON-Format aus Dateien, die in einen Cloud Storage-Bucket geladen wurden. Jede Datei kann maximal 2 GB groß sein und es können bis zu 100 Dateien gleichzeitig importiert werden. Der Import kann mit der Google Cloud -Konsole oder mit curl erfolgen. Verwendet das JSON-Datenformat Product , das benutzerdefinierte Attribute zulässt.
|
---|---|---|
Wann er genutzt wird | Wenn Sie in einem einzigen Schritt größere Datenmengen laden müssen. | |
Beschränkungen | Wenn sich Ihre Daten in Google Analytics oder Merchant Center befinden, können sie nur nach BigQuery exportiert werden und erfordern dann den zusätzlichen Schritt, sie dann in Cloud Storage zu importieren. | |
BigQuery | Beschreibung | Importieren Sie Daten aus einer zuvor geladenen BigQuery-Tabelle, die das Vertex AI Search for Commerce-Schema verwendet. Kann mit der Google Cloud -Konsole oder mit curl ausgeführt werden. |
Wann er genutzt wird | Wenn Sie auch Analysedaten verwenden oder Ereignisdaten vor dem Import vorverarbeiten. | |
Beschränkungen | Erfordert den zusätzlichen Schritt, eine BigQuery-Tabelle zu erstellen, die dem Schema von Vertex AI Search for Commerce zugeordnet ist. Beachten Sie auch, dass bei einer großen Anzahl an Nutzerereignissen BigQuery mehr Kosten verursacht als Cloud Storage. | |
BigQuery mit Analytics 360 | Beschreibung | Importieren Sie bereits vorhandene Daten aus Analytics 360 in Vertex AI Search for Commerce. |
Wann er genutzt wird | Wenn Sie Analytics 360 verwenden und Conversions für Empfehlungen oder Suchanfragen erfassen. Es ist keine zusätzliche Schemazuordnung erforderlich. | |
Beschränkungen | Es ist nur eine Teilmenge von Attributen verfügbar, sodass einige erweiterte Funktionen von Vertex AI Search for Commerce nicht verwendet werden können. Wenn Sie die Suche verwenden, ist das Tracking von Impressionen in Google Analytics erforderlich. | |
BigQuery mit Google Analytics 4 | Beschreibung | Importieren Sie bereits vorhandene Daten aus Google Analytics 4 in Vertex AI Search for Commerce. |
Wann er genutzt wird | Wenn Sie Google Analytics 4 verwenden und Conversions für Empfehlungen oder Suchanfragen verfolgen. Es ist keine zusätzliche Schemazuordnung erforderlich. | |
Beschränkungen |
Es ist nur eine Teilmenge von Attributen verfügbar, sodass einige erweiterte Funktionen von Vertex AI Search for Commerce nicht verwendet werden können.
Wenn Sie die Suche verwenden möchten, müssen Sie Schlüssel/Wert-Paare für Ereignisparameter für das Tracking einrichten. Der empfohlene Schlüssel ist search_query .
|
|
Inline-Import | Beschreibung |
Importieren Sie mit einem Aufruf der Methode userEvents.import .
|
Wann er genutzt wird | Wenn Sie den erhöhten Datenschutz durch eine durchgehende Authentifizierung auf dem Backend haben und in der Lage sein möchten, einen Backend-Import auszuführen. | |
Beschränkungen | In der Regel ist dies komplizierter als ein Webimport. |
Nutzerereignisse aus Cloud Storage importieren
Sie können Nutzerereignisse aus Cloud Storage mit der Google Cloud -Konsole oder mit der Methode userEvents.import
importieren.
Console
-
Rufen Sie in der Search for Commerce Console die Seite Daten auf.
Zur Seite „Daten“ - Klicken Sie auf Importieren, um das Feld Daten importieren zu öffnen.
- Wählen Sie Nutzerereignisse aus.
- Wählen Sie Google Cloud Storage als Datenquelle aus.
- Wählen Sie Schema für Nutzerereignisse in Retail als Schema aus.
- Geben Sie den Cloud Storage-Speicherort Ihrer Daten ein.
- Klicken Sie auf Importieren.
curl
Mit der Methode userEvents.import
können Sie Ihre Nutzerereignisse importieren.
Erstellen Sie eine Datendatei für die Eingabeparameter für den Import. Verwenden Sie das Objekt
GcsSource
, um auf Ihren Cloud Storage-Bucket zu verweisen.Sie können mehrere Dateien oder nur eine bereitstellen.
- INPUT_FILE: Eine oder mehrere Dateien in Cloud Storage, die Ihre Nutzerereignisdaten enthalten. Beispiele für jedes Format von Nutzerereignistypen finden Sie unter Nutzerereignisse. Jedes Nutzerereignis muss sich in einer eigenen Zeile ohne Zeilenumbruch befinden.
- ERROR_DIRECTORY: Ein Cloud Storage-Verzeichnis für Fehlerinformationen zum Import.
Die Felder der Eingabedatei müssen das Format
gs://<bucket>/<path-to-file>/
haben. Das Fehlerverzeichnis muss das Formatgs://<bucket>/<folder>/
haben. Wenn das Fehlerverzeichnis nicht vorhanden ist, wird es von Vertex AI Search for Commerce erstellt. Der Bucket muss bereits vorhanden sein.{ "inputConfig":{ "gcsSource": { "inputUris": ["INPUT_FILE_1", "INPUT_FILE_2"], }, "errorsConfig":{"gcsPrefix":"ERROR_DIRECTORY"} }
Sie können Ihre Kataloginformationen importieren. Dazu senden Sie eine
POST
-Anfrage an die REST-MethodeuserEvents:import
und geben den Namen der Datendatei an.export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json curl -X POST \ -v \ -H "Content-Type: application/json; charset=utf-8" \ -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \ --data @./DATA_FILE.json \ "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import" } }'
Nutzerereignisse aus BigQuery importieren
Sie können Nutzerereignisse aus BigQuery mit der Google Cloud -Konsole oder mit der Methode userEvents.import
importieren.
BigQuery-Zugriff einrichten
Folgen Sie der Anleitung unter Zugriff auf Ihr BigQuery-Dataset einrichten, um Ihrem Vertex AI Search for Commerce-Dienstkonto die für den Import erforderliche Mindestrolle BigQuery-Nutzer und die zusätzliche Rolle BigQuery-Datenbearbeiter für Ihr BigQuery-Dataset zuzuweisen. Die Rolle BigQuery-Dateninhaber ist nicht erforderlich.
Nutzerereignisse aus BigQuery importieren
Sie können Nutzerereignisse über die Commerce-Konsole oder die Methode userEvents.import
importieren.
Console
-
Rufen Sie in der Search for Commerce Console die Seite Daten auf.
Zur Seite „Daten“ - Klicken Sie auf Importieren, um das Feld Daten importieren zu öffnen.
- Wählen Sie Nutzerereignisse aus.
- Wählen Sie BigQuery als Datenquelle aus.
-
Wählen Sie das Datenschema aus.
- Google Analytics 4: Für Google Analytics 4-Ereignisse verwenden.
- Google Analytics 360: Für Google Analytics 360-Ereignisse verwenden, es sei denn, Sie importieren nur Startseitenaufrufe aus Google Analytics 360. In diesem Fall verwenden Sie das Schema für Einzelhandelsnutzerereignisse.
- Schema für Nutzerereignisse im Einzelhandel: Damit lassen sich Ereignisse aus anderen Quellen als Google Analytics importieren und nur Startseitenaufrufe aus Google Analytics 360 importieren.
- Geben Sie die BigQuery-Tabelle an, wo sich die Daten befinden.
- Optional: Geben Sie den Speicherort eines Cloud Storage-Bucket in Ihrem Projekt als temporären Speicherort für Ihre Daten ein.
Wenn kein Speicherort angegeben ist, wird ein Standardspeicherort verwendet. Wenn Sie einen Speicherort angeben, müssen sich BigQuery und der Cloud Storage-Bucket in derselben Region befinden. - Optional: Geben Sie unter Erweiterte Optionen einblenden den Speicherort eines Cloud Storage-Bucket in Ihrem Projekt als temporären Speicherort für Ihre Daten ein.
Wenn keine Angabe erfolgt, wird ein Standardspeicherort verwendet. Wenn Sie einen Speicherort angeben, müssen sich BigQuery und der Cloud Storage-Bucket in derselben Region befinden. - Klicken Sie auf Importieren.
curl
Importieren Sie die Nutzerereignisse, indem Sie die Daten für die Ereignisse in den Aufruf der Methode userEvents.import
aufnehmen. userEvents.import
API-Referenz ansehen
Der Wert, den Sie für dataSchema
angeben, hängt davon ab, was Sie importieren:
user_event_ga4
: Für Google Analytics 4-Ereignisse verwenden.user_event_ga360
: Für Google Analytics 360-Ereignisse verwenden, es sei denn, Sie importieren nur Aufrufe der Startseite aus Google Analytics 360. In diesem Fall verwenden Sieuser_event
.user_event
: Hiermit können Sie Ereignisse aus anderen Quellen als Google Analytics importieren und nur Startseitenaufrufe aus Google Analytics 360 importieren.
export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
curl \
-v \
-X POST \
-H "Content-Type: application/json; charset=utf-8" \
-H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \
"https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import" \
--data '{
"inputConfig": {
"bigQuerySource": {
"datasetId": "DATASET_ID",
"tableId": "TABLE_ID",
"dataSchema": "SCHEMA_TYPE"
}
}
}'
Google Analytics 360-Nutzerereignisse mit BigQuery importieren
Sie können Analytics 360-Nutzerereignisse importieren, wenn Sie Analytics 360 in BigQuery integriert haben und erweiterte E-Commerce-Berichte verwenden.
In den folgenden Verfahren wird davon ausgegangen, dass Sie mit der Verwendung von BigQuery und Analytics 360 vertraut sind.
Hinweise
Bevor Sie mit den nächsten Schritten beginnen, müssen Sie Folgendes tun:
- Sie verwenden erweiterte E-Commerce-Berichte.
- Sie haben BigQuery mit Analytics 360 verknüpft.
Datenquelle prüfen
Achten Sie darauf, dass die zu importierenden Nutzerereignisdaten in einer BigQuery-Tabelle, auf die Sie Zugriff haben, korrekt formatiert sind.
Achten Sie darauf, dass die Tabelle den Namen
project_id:ga360_export_dataset.ga_sessions_YYYYMMDD
hat.Weitere Informationen zum Tabellenformat und zur Benennung finden Sie in der Google Analytics-Dokumentation.
Wählen Sie in der BigQuery Google Cloud Console im Bereich Explorer die Tabelle aus, um deren Vorschau aufzurufen.
Prüfen Sie, ob:
Die Spalte
clientId
hat einen gültigen Wert, z. B.123456789.123456789
.Beachten Sie, dass sich dieser Wert vom vollständigen _ga-Cookiewert unterscheidet, der ein Format wie
GA1.3.123456789.123456789
hat.die Spalte
hits.transaction.currencyCode
einen gültigen Währungscode hat.Wenn Sie
search
-Ereignisse importieren möchten, prüfen Sie, ob eine Spaltehits.page.searchKeyword
oderhits.customVariable.searchQuery
vorhanden ist.Für Vertex AI Search for Commerce sind sowohl
searchQuery
als auchproductDetails
erforderlich, um eine Liste von Suchergebnissen zurückzugeben. In Analytics 360 werden Suchanfragen und Produktimpressionen jedoch nicht in einem Ereignis gespeichert. Damit Vertex AI Search for Commerce funktioniert, müssen Sie ein Tag in der Datenschicht oder ein JavaScript-Pixel erstellen, um beide Arten von Nutzerereignissen aus Google Analytics-Quellen importieren zu können:searchQuery
, das aus dem Parametersearch_term
oder ausview_search_results
-Ereignissen gelesen wird, wird entweder aushits.page.searchKeyword
oder aushits.customVariables.customVarValue
abgeleitet, wennhits.customVariables.customVarName
searchQuery
ist.- Die Produktimpression
productDetails
, die aus dem Parameteritems
des Ereignissesview_item_list
gelesen wird, stammt aushits.product
, wennhits.product.isImpressions
den WertTRUE
hat.
Prüfen Sie die Konsistenz der Artikel-IDs zwischen dem hochgeladenen Katalog und der Analytics 360-Nutzerereignistabelle.
Verwenden Sie die Produkt-ID aus der Spalte
hits.product.productSKU
in der BigQuery-Tabellenvorschau und verwenden Sie die Methodeproduct.get
, um sicherzustellen, dass sich das gleiche Produkt in Ihrem hochgeladenen Katalog befindet.export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json curl \ -v \ -X GET \ -H "Content-Type: application/json; charset=utf-8" \ -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \ "https://retail.googleapis.com/v2/projects/PROJECT_NUMBER/locations/global/catalogs/default_catalog/branches/default_branch/products/PRODUCT_ID"
Analytics 360-Ereignisse importieren
Sie können Google Analytics 360-Ereignisse über die Commerce-Konsole oder die userEvents.import
-Methode importieren.
Console
-
Rufen Sie in der Search for Commerce Console die Seite Daten auf.
Zur Seite „Daten“ - Klicken Sie auf Importieren, um das Feld Daten importieren zu öffnen.
- Wählen Sie Nutzerereignisse aus.
- Wählen Sie BigQuery als Datenquelle aus.
-
Wählen Sie das Datenschema aus.
- Google Analytics 4: Für Google Analytics 4-Ereignisse verwenden.
- Google Analytics 360: Für Google Analytics 360-Ereignisse verwenden, es sei denn, Sie importieren nur Startseitenaufrufe aus Google Analytics 360. In diesem Fall verwenden Sie das Schema für Einzelhandelsnutzerereignisse.
- Schema für Nutzerereignisse im Einzelhandel: Damit lassen sich Ereignisse aus anderen Quellen als Google Analytics importieren und nur Startseitenaufrufe aus Google Analytics 360 importieren.
- Geben Sie die BigQuery-Tabelle an, wo sich die Daten befinden.
- Optional: Geben Sie den Speicherort eines Cloud Storage-Bucket in Ihrem Projekt als temporären Speicherort für Ihre Daten ein.
Wenn kein Speicherort angegeben ist, wird ein Standardspeicherort verwendet. Wenn Sie einen Speicherort angeben, müssen sich BigQuery und der Cloud Storage-Bucket in derselben Region befinden. - Optional: Geben Sie unter Erweiterte Optionen einblenden den Speicherort eines Cloud Storage-Bucket in Ihrem Projekt als temporären Speicherort für Ihre Daten ein.
Wenn keine Angabe erfolgt, wird ein Standardspeicherort verwendet. Wenn Sie einen Speicherort angeben, müssen sich BigQuery und der Cloud Storage-Bucket in derselben Region befinden. - Klicken Sie auf Importieren.
REST
Importieren Sie die Nutzerereignisse, indem Sie die Daten für die Ereignisse in den Aufruf der Methode userEvents.import
aufnehmen.
Verwenden Sie für dataSchema
den Wert user_event_ga360
.
export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
curl \\
-v \\
-X POST \\
-H "Content-Type: application/json; charset=utf-8" \\
-H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \\
"https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import" \\
--data '{
"inputConfig": {
"bigQuerySource": {
"datasetId": "some_ga360_export_dataset",
"tableId": "ga_sessions_YYYYMMDD",
"dataSchema": "user_event_ga360"
}
}
}'
Java
Analytics 360-Startseitenaufrufe mit BigQuery importieren
In Analytics 360 werden Ereignisse für die Startseitenansicht nicht von anderen Ereignissen für Seitenaufrufe unterschieden. Das bedeutet, dass Ereignisse vom Typ „home-page-view“ nicht als Ereignisse mit den anderen Ereignistypen (z. B. „detail-page-view“) in Google Analytics 360-Ereignisse importieren importiert werden.
Im Folgenden wird beschrieben, wie Sie Ereignisse für Aufrufe der Startseite aus Ihren Analytics 360-Daten extrahieren und in Vertex AI Search for Commerce importieren. Dazu werden die Aufrufe der Startseite (identifiziert durch den Startseitenpfad) in eine neue BigQuery-Tabelle extrahiert und dann Daten aus dieser neuen Tabelle in Vertex AI Search for Commerce importiert.
So importieren Sie Ereignisse vom Typ „Seitenaufruf der Startseite“ aus Analytics 360 in Vertex AI Search for Commerce:
Erstellen Sie ein BigQuery-Dataset oder sorgen Sie dafür, dass Sie ein BigQuery-Dataset haben, dem Sie eine Tabelle hinzufügen können.
Dieses Dataset kann sich in Ihrem Vertex AI Search for Commerce-Projekt oder in dem Projekt befinden, in dem sich Ihre Analytics 360-Daten befinden. Dies ist das Zieldataset, in das Sie die Ereignisse vom Typ „Homepage-Aufruf“ aus Analytics 360 kopieren.
So erstellen Sie eine BigQuery-Tabelle im Dataset:
Ersetzen Sie die Variablen im folgenden SQL-Code so:
target_project_id::Das Projekt, in dem sich das Dataset aus Schritt 1 befindet.
target_dataset::Der Dataset-Name aus Schritt 1.
CREATE TABLE TARGET_PROJECT_ID.TARGET_DATASET.ga_homepage ( eventType STRING NOT NULL, visitorId STRING NOT NULL, userId STRING, eventTime STRING NOT NULL );
Kopieren Sie das SQL-Codebeispiel.
Öffnen Sie in der Google Cloud Console die Seite „BigQuery“.
Wählen Sie das Zielprojekt aus, falls es noch nicht ausgewählt ist.
Fügen Sie das SQL-Codebeispiel in den Bereich Editor ein.
Klicken Sie auf
Ausführen und warten Sie, bis die Abfrage ausgeführt wurde.
Wenn Sie diesen Code ausführen, wird eine Tabelle im Format
target_project_id:target_dataset.ga_homepage_YYYYMMDD
erstellt, z. B.my-project:view_events.ga_homepage_20230115
.Kopieren Sie die Ereignisse der Analytics 360-Startseitenansicht aus Ihrer Analytics 360-Datentabelle in die Tabelle, die Sie im vorherigen Schritt 2 erstellt haben.
Ersetzen Sie die Variablen im folgenden SQL-Beispielcode so:
source_project_id::Die ID des Projekts, das die Analytics 360-Daten in einer BigQuery-Tabelle enthält.
source_dataset::Das Dataset im Quellprojekt, das die Analytics 360-Daten in einer BigQuery-Tabelle enthält.
source_table::Die Tabelle im Quellprojekt, die die Analytics 360-Daten enthält.
target_project_id::dieselbe Zielprojekt-ID wie im vorherigen Schritt 2.
target_dataset::Dasselbe Ziel-Dataset wie im vorherigen Schritt 2.
path:Dies ist der Pfad zur Startseite. Normalerweise ist dies
/
, z. B.example.com/
für die Startseite. Wenn die Startseite jedochexamplepetstore.com/index.html
ist, lautet der Pfad/index.html
.
INSERT INTO `TARGET_PROJECT_ID.TARGET_DATASET.ga_homepage(eventType,visitorId,userID,eventTime)` SELECT "home-page-view" as eventType, clientId as visitorId, userId, CAST(FORMAT_TIMESTAMP("%Y-%m-%dT%H:%M:%SZ",TIMESTAMP_SECONDS(visitStartTime)) as STRING) AS eventTime FROM `SOURCE_PROJECT_ID.SOURCE_DATASET.SOURCE_TABLE`, UNNEST(hits) as hits WHERE hits.page.pagePath = "PATH" AND visitorId is NOT NULL;
Kopieren Sie das SQL-Codebeispiel.
Öffnen Sie in der Google Cloud Console die Seite „BigQuery“.
Wählen Sie das Zielprojekt aus, falls es noch nicht ausgewählt ist.
Fügen Sie das SQL-Codebeispiel in den Bereich Editor ein.
Klicken Sie auf
Ausführen und warten Sie, bis die Abfrage ausgeführt wurde.
Folgen Sie der Anleitung unter Nutzerereignisse aus BigQuery importieren, um die Ereignisse vom Typ „home-page-view“ aus der Zieltabelle zu importieren. Wenn Sie das Schema während des Imports in der Konsole auswählen, wählen Sie Schema für Nutzerereignisse in Retail aus. Wenn Sie den Import über
userEvents.import
vornehmen, geben Sieuser_event
für den WertdataSchema
an.Löschen Sie die Tabelle und das Dataset, die Sie in den Schritten 1 und 2 erstellt haben.
Google Analytics 4-Nutzerereignisse mit BigQuery importieren
Sie können Google Analytics 4-Nutzerereignisse importieren, wenn Sie Google Analytics 4 in BigQuery integriert haben und Google Analytics-E-Commerce verwenden.
In den folgenden Verfahren wird davon ausgegangen, dass Sie mit der Verwendung von BigQuery und Google Analytics 4 vertraut sind.
Hinweise
Bevor Sie mit den nächsten Schritten beginnen, müssen Sie Folgendes tun:
- Sie verwenden Google Analytics E-Commerce.
- Sie haben BigQuery mit Google Analytics 4 verknüpft.
Datenquelle prüfen
So bereiten Sie Ihre Nutzerereignisdaten für den Import vor:
Eine Tabelle mit den Google Analytics 4-Feldern, die von Vertex AI Search for Commerce verwendet werden, und den entsprechenden Vertex AI Search for Commerce-Feldern finden Sie unter Google Analytics 4-Felder für Nutzerereignisse.
Eine Liste aller Google Analytics-Ereignisparameter finden Sie in der Referenzdokumentation zu Google Analytics-Ereignissen.
Achten Sie darauf, dass die zu importierenden Nutzerereignisdaten in einer BigQuery-Tabelle, auf die Sie Zugriff haben, korrekt formatiert sind.
- Das Dataset sollte den Namen
analytics_PROPERTY_ID
haben. - Die Tabelle sollte den Namen
events_YYYYMMDD
haben.
Informationen zu den Tabellennamen und zum Format finden Sie in der Google Analytics-Dokumentation.
- Das Dataset sollte den Namen
Wählen Sie in der BigQuery Google Cloud -Konsole im Bereich Explorer das Dataset aus und suchen Sie nach der Tabelle mit den Nutzerereignissen, die Sie importieren möchten.
Prüfen Sie, ob:
Die Spalte
event_params.key
hat einencurrency
-Schlüssel und der zugehörige Stringwert ist ein gültiger Währungscode.Wenn Sie
search
-Ereignisse importieren möchten, prüfen Sie, ob die Spalteevent.event_params.key
einensearch_term
-Schlüssel und einen zugehörigen Wert enthält.Für Vertex AI Search for Commerce sind sowohl
searchQuery
als auchproductDetails
erforderlich, um eine Liste mit Suchergebnissen zurückzugeben. In Google Analytics 4 werden Suchanfragen und Produktimpressionen jedoch nicht in einem einzigen Ereignis gespeichert. Damit Vertex AI Search for Commerce funktioniert, müssen Sie ein Tag in der Datenschicht oder über ein JavaScript-Pixel erstellen, um beide Arten von Nutzerereignissen aus Google Analytics-Quellen importieren zu können:searchQuery
, die aus dem Parametersearch_term
oder ausview_search_results
-Ereignissen gelesen wird.productDetails
: Der Produkt-Impression, der aus dem Parameteritems
des Ereignissesview_item_list
gelesen wird.
Informationen zu
search
in Google Analytics 4 finden Sie in der Google Analytics-Dokumentation untersearch
.
Prüfen Sie die Konsistenz der Artikel-IDs zwischen dem hochgeladenen Katalog und der Google Analytics 4-Nutzerereignistabelle.
Wenn Sie prüfen möchten, ob ein Produkt in der Google Analytics 4-Nutzertabelle auch in Ihrem hochgeladenen Katalog vorhanden ist, kopieren Sie eine Produkt-ID aus der Spalte
event.items.item_id
in der BigQuery-Tabellenvorschau und verwenden Sie die Methodeproduct.get
, um zu prüfen, ob diese Produkt-ID in Ihrem hochgeladenen Katalog vorhanden ist.export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json curl \ -v \ -X GET \ -H "Content-Type: application/json; charset=utf-8" \ -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \ "https://retail.googleapis.com/v2/projects/PROJECT_NUMBER/locations/global/catalogs/default_catalog/branches/default_branch/products/PRODUCT_ID"
Google Analytics 4-Ereignisse importieren
Sie können Google Analytics 4-Ereignisse über die Search for Commerce Console oder die userEvents.import
-Methode importieren.
Die Konsole verwenden
-
Rufen Sie in der Search for Commerce Console die Seite Daten auf.
Zur Seite „Daten“ - Klicken Sie auf Importieren, um das Feld Daten importieren zu öffnen.
- Wählen Sie Nutzerereignisse aus.
- Wählen Sie BigQuery als Datenquelle aus.
-
Wählen Sie das Datenschema aus.
- Google Analytics 4: Für Google Analytics 4-Ereignisse verwenden.
- Google Analytics 360: Für Google Analytics 360-Ereignisse verwenden, es sei denn, Sie importieren nur Startseitenaufrufe aus Google Analytics 360. In diesem Fall verwenden Sie das Schema für Einzelhandelsnutzerereignisse.
- Schema für Nutzerereignisse im Einzelhandel: Damit lassen sich Ereignisse aus anderen Quellen als Google Analytics importieren und nur Startseitenaufrufe aus Google Analytics 360 importieren.
- Geben Sie die BigQuery-Tabelle an, wo sich die Daten befinden.
- Optional: Geben Sie den Speicherort eines Cloud Storage-Bucket in Ihrem Projekt als temporären Speicherort für Ihre Daten ein.
Wenn kein Speicherort angegeben ist, wird ein Standardspeicherort verwendet. Wenn Sie einen Speicherort angeben, müssen sich BigQuery und der Cloud Storage-Bucket in derselben Region befinden. - Optional: Geben Sie unter Erweiterte Optionen einblenden den Speicherort eines Cloud Storage-Bucket in Ihrem Projekt als temporären Speicherort für Ihre Daten ein.
Wenn keine Angabe erfolgt, wird ein Standardspeicherort verwendet. Wenn Sie einen Speicherort angeben, müssen sich BigQuery und der Cloud Storage-Bucket in derselben Region befinden. - Klicken Sie auf Importieren.
API verwenden
Importieren Sie die Nutzerereignisse, indem Sie die Daten für die Ereignisse in den Aufruf der Methode userEvents.import
aufnehmen. userEvents.import
API-Referenz ansehen
Verwenden Sie für dataSchema
den Wert user_event_ga4
.
export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
curl \\
-v \\
-X POST \\
-H "Content-Type: application/json; charset=utf-8" \\
-H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \\
"https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import" \\
--data '{
"inputConfig": {
"bigQuerySource": {
"projectId": "PROJECT_ID",
"datasetId": "DATASET_ID",
"tableId": "TABLE_ID",
"dataSchema": "user_event_ga4"
}
}
}'
Nutzerereignisse inline importieren
Sie können Nutzerereignisse inline importieren, indem Sie die Daten für die Ereignisse in Ihren Aufruf der Methode userEvents.import
aufnehmen.
Der einfachste Weg dafür ist, Ihre Nutzerereignisdaten in eine JSON-Datei einzufügen und diese in curl bereitzustellen.
Informationen zu den Formaten der Nutzerereignistypen finden Sie unter Nutzerereignisse.
curl
Erstellen Sie die JSON-Datei:
{ "inputConfig": { "userEventInlineSource": { "userEvents": [ \{ "<userEvent1>" \}, \{ "<userEvent2>" \}, \.... \] \} } }
Rufen Sie die Methode POST auf:
curl -X POST \ -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \ -H "Content-Type: application/json; charset=utf-8" \ --data @./data.json \ "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import"
Java
Historische Katalogdaten
Sie können auch Katalogdaten importieren, die in Ihren bisherigen Nutzerereignissen angezeigt werden. Diese Katalogdaten können hilfreich sein, da frühere Produktinformationen zur Anreicherung der Erfassung von Nutzerereignissen verwendet werden können, was wiederum die Modellgenauigkeit verbessern kann.
Weitere Informationen finden Sie unter Historische Katalogdaten importieren.
Importierte Ereignisse ansehen
Messwerte zur Ereignisintegration finden Sie in der Search for Commerce-Konsole auf der Seite Daten auf dem Tab Ereignisse. Auf dieser Seite werden alle Ereignisse angezeigt, die im letzten Jahr geschrieben oder importiert wurden. Nach erfolgreicher Datenaufnahme kann es bis zu 24 Stunden dauern, bis Messwerte angezeigt werden.