Bisherige Nutzerereignisse importieren

Auf dieser Seite wird gezeigt, wie Sie Nutzerereignisdaten aus früheren Ereignissen im Bulk importieren. Vertex AI Search for Retail-Modelle benötigen Nutzerereignisdaten für das Training.

Nachdem Sie die Echtzeitereigniserfassung eingerichtet haben, kann es einige Zeit dauern, bis genügend Nutzerereignisdaten aufgezeichnet wurden, um Ihre Modelle zu trainieren. Sie können das erste Modelltraining beschleunigen, indem Sie Nutzerereignisdaten aus früheren Ereignissen im Bulk importieren. Informieren Sie sich dazu über die Best Practices zum Aufzeichnen von Nutzerereignissen und lesen Sie den Abschnitt Hinweis auf dieser Seite.

Die Importverfahren auf dieser Seite gelten sowohl für Empfehlungen als auch für die Suche. Nach dem Import von Daten können beide Dienste diese Ereignisse verwenden. Sie müssen also die Daten nicht zweimal importieren, wenn Sie beide Dienste nutzen.

Sie haben folgende Möglichkeiten:

Anleitung zum Importieren von Ereignissen aus Cloud Storage

In dieser Anleitung erfahren Sie, wie Sie Nutzerereignisse aus Cloud Storage importieren.


Klicken Sie auf Anleitung, um eine detaillierte Anleitung für diese Aufgabe direkt im Cloud Shell-Editor zu erhalten:

Anleitung


Anleitung zum Importieren von Ereignissen aus BigQuery

In dieser Anleitung wird gezeigt, wie Sie Nutzerereignisse aus BigQuery importieren.


Klicken Sie auf Anleitung, um eine detaillierte Anleitung für diese Aufgabe direkt im Cloud Shell-Editor zu erhalten:

Anleitung


Anleitung zum Importieren von Ereignissen inline

In dieser Anleitung wird gezeigt, wie Sie Nutzerereignisdaten inline importieren.


Klicken Sie auf Anleitung, um eine detaillierte Anleitung für diese Aufgabe direkt im Cloud Shell-Editor zu erhalten:

Anleitung


Hinweise

Damit Importfehler vermieden werden und um dafür zu sorgen, dass ausreichend Daten für qualitativ hochwertige Ergebnisse vorhanden sind, beachten Sie bitte die folgenden Hinweise, bevor Sie Ihre Nutzerereignisse importieren.

Überlegungen zum Ereignisimport

In diesem Abschnitt werden die Methoden, die für den Batch-Import Ihrer historischen Nutzerereignisse verwendet werden können, sowie einige der zugehörigen Methoden und Einschränkungen erläutert.

Cloud Storage Beschreibung Importieren Sie Daten im JSON-Format aus Dateien, die in einen Cloud Storage-Bucket geladen wurden. Jede Datei kann maximal 2 GB groß sein und es können bis zu 100 Dateien gleichzeitig importiert werden. Der Import kann mit der Google Cloud Console oder mit cURL erfolgen. Verwendet das JSON-Datenformat Product, das benutzerdefinierte Attribute zulässt.
Wann er genutzt wird Wenn Sie in einem einzigen Schritt größere Datenmengen laden müssen.
Beschränkungen Wenn sich Ihre Daten in Google Analytics oder Merchant Center befinden, können sie nur nach BigQuery exportiert werden und erfordern dann den zusätzlichen Schritt, sie dann in Cloud Storage zu importieren.
BigQuery Beschreibung Importieren Sie Daten aus einer zuvor geladenen BigQuery-Tabelle, die das Vertex AI Search for Retail-Schema verwendet. Kann mit der Google Cloud Console oder mit cURL ausgeführt werden.
Wann er genutzt wird Wenn Sie auch Analysedaten verwenden oder Ereignisdaten vor dem Import vorverarbeiten.
Beschränkungen Erfordert den zusätzlichen Schritt, eine BigQuery-Tabelle zu erstellen, die dem Vertex AI Search for Retail-Schema zugeordnet ist. Beachten Sie auch, dass bei einer großen Anzahl an Nutzerereignissen BigQuery mehr Kosten verursacht als Cloud Storage.
BigQuery mit Analytics 360 Beschreibung Importieren Sie bereits vorhandene Daten aus Analytics 360 in Vertex AI Search für den Einzelhandel.
Wann er genutzt wird Wenn Sie Analytics 360 verwenden und Conversions für Empfehlungen oder Suchanfragen verfolgen. Es ist keine zusätzliche Schemazuordnung erforderlich.
Beschränkungen Es ist nur eine Teilmenge von Attributen verfügbar, sodass einige erweiterte Vertex AI Search for Retail-Features nicht verwendet werden können. Wenn Sie die Google Suche verwenden möchten, ist das Tracking von Impressionen in Google Analytics erforderlich.
BigQuery mit Google Analytics 4 Beschreibung Importieren Sie bereits vorhandene Daten aus Google Analytics 4 in Vertex AI Search für den Einzelhandel.
Wann er genutzt wird Wenn Sie Google Analytics 4 verwenden und Conversions für Empfehlungen oder Suchanfragen verfolgen. Es ist keine zusätzliche Schemazuordnung erforderlich.
Beschränkungen Es ist nur eine Teilmenge von Attributen verfügbar, sodass einige erweiterte Vertex AI Search for Retail-Features nicht verwendet werden können. Wenn Sie die Suche verwenden möchten, müssen Sie Schlüssel/Wert-Paare für Ereignisparameter zum Tracking einrichten. Der empfohlene Schlüssel ist search_query.
Inline-Import Beschreibung Importieren Sie mit einem Aufruf der Methode userEvents.import.
Wann er genutzt wird Wenn Sie den erhöhten Datenschutz durch eine durchgehende Authentifizierung auf dem Backend haben und in der Lage sein möchten, einen Backend-Import auszuführen.
Beschränkungen In der Regel ist dies komplizierter als ein Webimport.

Nutzerereignisse aus Cloud Storage importieren

Sie können Nutzerereignisse aus Cloud Storage mit der Google Cloud Console oder mit der Methode userEvents.import importieren.

Console

  1. Rufen Sie in der Search for Retail-Konsole die Seite Daten auf.

    Zur Seite „Daten“
  2. Klicken Sie auf Importieren, um das Feld Daten importieren zu öffnen.
  3. Wählen Sie Nutzerereignisse aus.
  4. Wählen Sie Google Cloud Storage als Datenquelle aus.
  5. Wählen Sie als Schema Schema für Nutzerereignisse im Einzelhandel aus.
  6. Geben Sie den Cloud Storage-Speicherort Ihrer Daten ein.
  7. Klicken Sie auf Importieren.

cURL

Mit der Methode userEvents.import können Sie Ihre Nutzerereignisse importieren.

  1. Erstellen Sie eine Datendatei für die Eingabeparameter für den Import. Verwenden Sie das Objekt GcsSource, um auf Ihren Cloud Storage-Bucket zu verweisen.

    Sie können mehrere Dateien oder nur eine bereitstellen.

    • INPUT_FILE: Eine oder mehrere Dateien in Cloud Storage, die Ihre Nutzerereignisdaten enthalten. Beispiele für jedes Format von Nutzerereignistypen finden Sie unter Nutzerereignisse. Jedes Nutzerereignis muss sich in einer eigenen Zeile ohne Zeilenumbruch befinden.
    • ERROR_DIRECTORY: Ein Cloud Storage-Verzeichnis für Fehlerinformationen zum Import.

    Die Felder der Eingabedatei müssen das Format gs://<bucket>/<path-to-file>/ haben. Das Fehlerverzeichnis muss das Format gs://<bucket>/<folder>/ haben. Wenn das Fehlerverzeichnis nicht vorhanden ist, wird es von Vertex AI Search for Retail erstellt. Der Bucket muss bereits vorhanden sein.

    {
    "inputConfig":{
     "gcsSource": {
       "inputUris": ["INPUT_FILE_1", "INPUT_FILE_2"],
      },
      "errorsConfig":{"gcsPrefix":"ERROR_DIRECTORY"}
    }
  2. Sie können Ihre Kataloginformationen importieren. Dazu senden Sie eine POST-Anfrage an die REST-Methode userEvents:import und geben den Namen der Datendatei an.

    export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
    
    curl -X POST \
         -v \
         -H "Content-Type: application/json; charset=utf-8" \
         -H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \
         --data @./DATA_FILE.json \
      "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import"
      }
    }'

Nutzerereignisse aus BigQuery importieren

Sie können Nutzerereignisse aus BigQuery mit der Google Cloud Console oder mit der Methode userEvents.import importieren.

BigQuery-Zugriff einrichten

Folgen Sie der Anleitung unter Zugriff auf Ihr BigQuery-Dataset einrichten, um Ihrem Vertex AI Search for Retail-Dienstkonto die Rolle BigQuery-Dateninhaber für Ihr BigQuery-Dataset zuzuweisen.

Nutzerereignisse aus BigQuery importieren

Sie können 360-Ereignisse über die Retail-Konsole oder die Methode userEvents.import importieren.

Console

  1. Rufen Sie in der Search for Retail-Konsole die Seite Daten auf.

    Zur Seite „Daten“
  2. Klicken Sie auf Importieren, um das Feld Daten importieren zu öffnen.
  3. Wählen Sie Nutzerereignisse aus.
  4. Wählen Sie BigQuery als Datenquelle aus.
  5. Wählen Sie das Datenschema aus.

  6. Geben Sie die BigQuery-Tabelle an, wo sich die Daten befinden.
  7. Optional: Geben Sie den Speicherort eines Cloud Storage-Bucket in Ihrem Projekt als temporären Speicherort für Ihre Daten ein.
    Wenn Sie keinen Speicherort angeben, wird ein Standardspeicherort verwendet. Wenn Sie einen Speicherort angeben, müssen sich BigQuery und der Cloud Storage-Bucket in derselben Region befinden.
  8. Optional: Geben Sie unter Erweiterte Optionen anzeigen den Speicherort eines Cloud Storage-Bucket in Ihrem Projekt als temporären Speicherort für Ihre Daten ein.

    Wenn keine Angabe erfolgt, wird ein Standardspeicherort verwendet. Wenn Sie einen Speicherort angeben, müssen sich BigQuery und der Cloud Storage-Bucket in derselben Region befinden.
  9. Klicken Sie auf Importieren.

curl

Importieren Sie die Nutzerereignisse, indem Sie die Daten für die Ereignisse in den Aufruf der Methode userEvents.import aufnehmen. Weitere Informationen finden Sie in der userEvents.import API-Referenz.

Der Wert, den Sie für dataSchema angeben, hängt davon ab, was Sie importieren:

export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json

curl \
-v \
-X POST \
-H "Content-Type: application/json; charset=utf-8" \
-H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \
"https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import" \
--data '{
  "inputConfig": {
    "bigQuerySource": {
      "datasetId": "DATASET_ID",
      "tableId": "TABLE_ID",
      "dataSchema": "SCHEMA_TYPE"
  }
}
}'

Analytics 360-Nutzerereignisse mit BigQuery importieren

Sie können Analytics 360-Nutzerereignisse importieren, wenn Sie Analytics 360 in BigQuery integriert haben und erweiterte E-Commerce-Berichte verwenden.

In den folgenden Verfahren wird davon ausgegangen, dass Sie mit der Verwendung von BigQuery und Analytics 360 vertraut sind.

Hinweise

Bevor Sie mit den nächsten Schritten beginnen, müssen Sie Folgendes tun:

Datenquelle prüfen

  1. Achten Sie darauf, dass die zu importierenden Nutzerereignisdaten in einer BigQuery-Tabelle, auf die Sie Zugriff haben, korrekt formatiert sind.

    Achten Sie darauf, dass die Tabelle den Namen project_id:ga360_export_dataset.ga_sessions_YYYYMMDD hat.

    Weitere Informationen zum Tabellenformat und zur Benennung finden Sie in der Google Analytics-Dokumentation.

  2. Wählen Sie in der Google Cloud Console von BigQuery im Bereich Explorer die Tabelle aus, um deren Vorschau aufzurufen.

    Prüfen Sie, ob:

    1. die Spalte clientId einen gültigen Wert hat, z. B. 123456789.123456789.

      Beachten Sie, dass sich dieser Wert vom vollständigen _ga-Cookiewert unterscheidet, der ein Format wie GA1.3.123456789.123456789 hat.

    2. die Spalte hits.transaction.currencyCode einen gültigen Währungscode hat.

    3. Wenn Sie search-Ereignisse importieren möchten, prüfen Sie, ob eine Spalte hits.page.searchKeyword oder hits.customVariable.searchQuery vorhanden ist.

      Für Vertex AI Search für den Einzelhandel sind sowohl searchQuery als auch productDetails erforderlich, um eine Liste mit Suchergebnissen zurückzugeben. In Analytics 360 werden Suchanfragen und Produktimpressionen jedoch nicht in einem Ereignis gespeichert. Damit Vertex AI Search for Retail funktioniert, müssen Sie ein Tag in der Datenschicht oder ein JavaScript-Pixel erstellen, um beide Arten von Nutzerereignissen aus Google Analytics-Quellen importieren zu können:

      • searchQuery, der aus dem Parameter search_term oder aus view_search_results-Ereignissen gelesen wird, wird entweder aus hits.page.searchKeyword oder aus hits.customVariables.customVarValue abgeleitet, wenn hits.customVariables.customVarName searchQuery ist.
      • productDetails, die Produktimpression, die aus dem Parameter items des Ereignisses view_item_list gelesen wird, wird aus hits.product übernommen, wenn hits.product.isImpressions den Wert TRUE hat.
  3. Prüfen Sie die Konsistenz der Artikel-IDs zwischen dem hochgeladenen Katalog und der Analytics 360-Nutzerereignistabelle.

    Verwenden Sie die Produkt-ID aus der Spalte hits.product.productSKU in der BigQuery-Tabellenvorschau und verwenden Sie die Methode product.get, um sicherzustellen, dass sich das gleiche Produkt in Ihrem hochgeladenen Katalog befindet.

    export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
    
       curl \
         -v \
         -X GET \
         -H "Content-Type: application/json; charset=utf-8" \
         -H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \
         "https://retail.googleapis.com/v2/projects/PROJECT_NUMBER/locations/global/catalogs/default_catalog/branches/default_branch/products/PRODUCT_ID"

Analytics 360-Ereignisse importieren

Sie können Google Analytics 360-Ereignisse über die Search for Retail-Konsole oder die Methode userEvents.import importieren.

Console

  1. Rufen Sie in der Search for Retail-Konsole die Seite Daten auf.

    Zur Seite „Daten“
  2. Klicken Sie auf Importieren, um das Feld Daten importieren zu öffnen.
  3. Wählen Sie Nutzerereignisse aus.
  4. Wählen Sie BigQuery als Datenquelle aus.
  5. Wählen Sie das Datenschema aus.

  6. Geben Sie die BigQuery-Tabelle an, wo sich die Daten befinden.
  7. Optional: Geben Sie den Speicherort eines Cloud Storage-Bucket in Ihrem Projekt als temporären Speicherort für Ihre Daten ein.
    Wenn Sie keinen Speicherort angeben, wird ein Standardspeicherort verwendet. Wenn Sie einen Speicherort angeben, müssen sich BigQuery und der Cloud Storage-Bucket in derselben Region befinden.
  8. Optional: Geben Sie unter Erweiterte Optionen anzeigen den Speicherort eines Cloud Storage-Bucket in Ihrem Projekt als temporären Speicherort für Ihre Daten ein.

    Wenn keine Angabe erfolgt, wird ein Standardspeicherort verwendet. Wenn Sie einen Speicherort angeben, müssen sich BigQuery und der Cloud Storage-Bucket in derselben Region befinden.
  9. Klicken Sie auf Importieren.

REST

Importieren Sie die Nutzerereignisse, indem Sie die Daten für die Ereignisse in den Aufruf der Methode userEvents.import aufnehmen.

Verwenden Sie für dataSchema den Wert user_event_ga360.

export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
curl \\
  -v \\
  -X POST \\
  -H "Content-Type: application/json; charset=utf-8" \\
  -H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \\
  "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import" \\
  --data '{
    "inputConfig": {
      "bigQuerySource": {
        "datasetId": "some_ga360_export_dataset",
        "tableId": "ga_sessions_YYYYMMDD",
        "dataSchema": "user_event_ga360"
    }
  }
}'

Java

public static String importUserEventsFromBigQuerySource()
    throws IOException, InterruptedException, ExecutionException {
  UserEventServiceClient userEventsClient = getUserEventServiceClient();

  BigQuerySource bigQuerySource = BigQuerySource.newBuilder()
      .setProjectId(PROJECT_ID)
      .setDatasetId(DATASET_ID)
      .setTableId(TABLE_ID)
      .setDataSchema("user_event")
      .build();

  UserEventInputConfig inputConfig = UserEventInputConfig.newBuilder()
      .setBigQuerySource(bigQuerySource)
      .build();

  ImportUserEventsRequest importRequest = ImportUserEventsRequest.newBuilder()
      .setParent(DEFAULT_CATALOG_NAME)
      .setInputConfig(inputConfig)
      .build();

  String operationName = userEventsClient
      .importUserEventsAsync(importRequest).getName();

  userEventsClient.shutdownNow();
  userEventsClient.awaitTermination(2, TimeUnit.SECONDS);

  return operationName;
}

Analytics 360-Startseitenaufrufe mit BigQuery importieren

In Analytics 360 werden Ereignisse für den Seitenaufruf der Startseite nicht von anderen Seitenaufruf-Ereignissen unterschieden. Das bedeutet, dass Ereignisse vom Typ „startseitenaufruf“ nicht wie die anderen Ereignistypen (z. B. „detailseitenaufruf“) unter Google Analytics 360-Ereignisse importieren importiert werden.

Im Folgenden wird beschrieben, wie Sie Ereignisse für die Startseitenaufrufe aus Ihren Analytics 360-Daten extrahieren und in die Vertex AI Search for Retail-Lösung importieren. Kurz gesagt, werden die Aufrufe der Startseite der Nutzer (anhand des Pfads zur Startseite identifiziert) in eine neue BigQuery-Tabelle extrahiert und dann Daten aus dieser neuen Tabelle in die Vertex AI Search for Retail-Lösung importiert.

So importieren Sie Ereignisse für die Startseitenaufrufe aus Analytics 360 in Vertex AI Search for Retail:

  1. Erstellen Sie ein BigQuery-Dataset oder prüfen Sie, ob Sie ein BigQuery-Dataset haben, dem Sie eine Tabelle hinzufügen können.

    Dieser Datensatz kann sich in Ihrem Vertex AI Search for Retail-Projekt oder in dem Projekt befinden, in dem sich Ihre Analytics 360-Daten befinden. Dies ist der Zieldatensatz, in den Sie die Analytics 360-Ereignisse vom Typ „Startseitenaufruf“ kopieren.

  2. So erstellen Sie eine BigQuery-Tabelle im Dataset:

    1. Ersetzen Sie die Variablen im folgenden SQL-Code so:

      • target_project_id::Das Projekt, in dem sich das Dataset aus Schritt 1 befindet.

      • target_dataset::Der Name des Datasets aus Schritt 1.

      CREATE TABLE TARGET_PROJECT_ID.TARGET_DATASET.ga_homepage (
       eventType STRING NOT NULL,
       visitorId STRING NOT NULL,
       userId STRING,
       eventTime STRING NOT NULL
      );
    2. Kopieren Sie das SQL-Codebeispiel.

    3. Öffnen Sie in der Google Cloud Console die Seite "BigQuery".

      Zur Seite "BigQuery"

    4. Wählen Sie das Zielprojekt aus, falls es noch nicht ausgewählt ist.

    5. Fügen Sie das SQL-Codebeispiel in den Bereich Editor ein.

    6. Klicken Sie auf Ausführen und warten Sie, bis die Abfrage abgeschlossen ist.

    Wenn Sie diesen Code ausführen, wird eine Tabelle im Format target_project_id:target_dataset.ga_homepage_YYYYMMDD erstellt, z. B. my-project:view_events.ga_homepage_20230115.

  3. Kopieren Sie die Analytics 360-Ereignisse für die Aufrufe der Startseite aus Ihrer Analytics 360-Datentabelle in die Tabelle, die Sie in Schritt 2 erstellt haben.

    1. Ersetzen Sie die Variablen im folgenden SQL-Beispielcode so:

      • source_project_id::Die ID des Projekts, das die Analytics 360-Daten in einer BigQuery-Tabelle enthält.

      • source_dataset::Das Dataset im Quellprojekt, das die Analytics 360-Daten in einer BigQuery-Tabelle enthält.

      • source_table::Die Tabelle im Quellprojekt, die die Analytics 360-Daten enthält.

      • target_project_id::Die gleiche Zielprojekt-ID wie in Schritt 2.

      • target_dataset::Dasselbe Ziel-Dataset wie in Schritt 2.

      • path:Dies ist der Pfad zur Startseite. Normalerweise ist das /, z. B. wenn die Startseite example.com/ ist. Wenn die Startseite jedoch examplepetstore.com/index.html lautet, lautet der Pfad /index.html.

      INSERT INTO `TARGET_PROJECT_ID.TARGET_DATASET.ga_homepage(eventType,visitorId,userID,eventTime)`
      
      SELECT
        "home-page-view" as eventType,
        clientId as visitorId,
        userId,
        CAST(FORMAT_TIMESTAMP("%Y-%m-%dT%H:%M:%SZ",TIMESTAMP_SECONDS(visitStartTime)) as STRING) AS eventTime
      
      FROM
        `SOURCE_PROJECT_ID.SOURCE_DATASET.SOURCE_TABLE`, UNNEST(hits) as hits
      
      WHERE hits.page.pagePath = "PATH" AND visitorId is NOT NULL;
    2. Kopieren Sie das SQL-Codebeispiel.

    3. Öffnen Sie in der Google Cloud Console die Seite "BigQuery".

      Zur Seite "BigQuery"

    4. Wählen Sie das Zielprojekt aus, falls es noch nicht ausgewählt ist.

    5. Fügen Sie das SQL-Codebeispiel in den Bereich Editor ein.

    6. Klicken Sie auf Ausführen und warten Sie, bis die Abfrage abgeschlossen ist.

  4. Folgen Sie der Anleitung unter Nutzerereignisse aus BigQuery importieren, um die Ereignisse vom Typ „Startseitenaufruf“ aus der Zieltabelle zu importieren. Wenn Sie die Konsole zum Importieren verwenden, wählen Sie bei der Schemaauswahl Schema für Nutzerereignisse in Retail aus. Wenn Sie userEvents.import zum Importieren verwenden, geben Sie user_event für den dataSchema-Wert an.

  5. Löschen Sie die Tabelle und das Dataset, die Sie in Schritt 1 und 2 erstellt haben.

Google Analytics 4-Nutzerereignisse mit BigQuery importieren

Sie können Google Analytics 4-Nutzerereignisse importieren, wenn Sie Google Analytics 4 in BigQuery integriert haben und Google Analytics-E-Commerce-Berichte verwenden.

In den folgenden Verfahren wird davon ausgegangen, dass Sie mit der Verwendung von BigQuery und Google Analytics 4 vertraut sind.

Hinweise

Bevor Sie mit den nächsten Schritten beginnen, müssen Sie Folgendes tun:

Datenquelle prüfen

So sorgen Sie dafür, dass Ihre Nutzerereignisdaten für den Import vorbereitet sind:

Eine Tabelle mit Google Analytics 4-Feldern, die in Vertex AI Search for Retail verwendet werden, und den zugehörigen Vertex AI Search for Retail-Feldern, finden Sie unter Google Analytics 4-Felder für Nutzerereignisse.

Eine Liste aller Google Analytics-Ereignisparameter finden Sie in der Referenzdokumentation zu Google Analytics-Ereignissen.

  1. Achten Sie darauf, dass die zu importierenden Nutzerereignisdaten in einer BigQuery-Tabelle, auf die Sie Zugriff haben, korrekt formatiert sind.

    • Das Dataset sollte den Namen analytics_PROPERTY_ID haben.
    • Die Tabelle sollte den Namen events_YYYYMMDD haben.

    Informationen zu Tabellennamen und -format finden Sie in der Google Analytics-Dokumentation.

  2. Wählen Sie in der Google Cloud Console von BigQuery im Bereich Explorer das Dataset und dann die Tabelle mit den Nutzerereignissen aus, die Sie importieren möchten.

    Prüfen Sie, ob:

    1. die Spalte event_params.key einen Schlüssel currency hat und der zugehörige Stringwert ein gültiger Währungscode ist.

    2. Wenn Sie search-Ereignisse importieren möchten, prüfen Sie, ob die Spalte event.event_params.key einen search_term-Schlüssel und einen zugehörigen Wert hat.

      Für Vertex AI Search für den Einzelhandel sind sowohl searchQuery als auch productDetails erforderlich, um eine Liste mit Suchergebnissen zurückzugeben. In Google Analytics 4 werden Suchanfragen und Produktimpressionen dagegen nicht in einem Ereignis gespeichert. Damit Vertex AI Search for Retail funktioniert, müssen Sie ein Tag in der Datenschicht oder über ein JavaScript-Pixel erstellen, um beide Arten von Nutzerereignissen aus Google Analytics-Quellen importieren zu können:

      • searchQuery, der aus dem Parameter search_term oder aus view_search_results-Ereignissen gelesen wird.
      • productDetails, die Produktimpression, die aus dem Parameter items des Ereignisses view_item_list gelesen wird.

      Informationen zu search in Google Analytics 4 finden Sie in der Google Analytics-Dokumentation unter search.

  3. Prüfen Sie die Konsistenz der Artikel-IDs zwischen dem hochgeladenen Katalog und der Google Analytics 4-Nutzerereignistabelle.

    Wenn Sie prüfen möchten, ob ein Produkt in der Google Analytics 4-Nutzertabelle auch in Ihrem hochgeladenen Katalog enthalten ist, kopieren Sie eine Produkt-ID aus der Spalte event.items.item_id in der BigQuery-Tabellenvorschau und verwenden Sie die Methode product.get, um zu prüfen, ob diese Produkt-ID in Ihrem hochgeladenen Katalog enthalten ist.

    export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
    
       curl \
         -v \
         -X GET \
         -H "Content-Type: application/json; charset=utf-8" \
         -H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \
         "https://retail.googleapis.com/v2/projects/PROJECT_NUMBER/locations/global/catalogs/default_catalog/branches/default_branch/products/PRODUCT_ID"

BigQuery-Zugriff einrichten

Folgen Sie der Anleitung unter Zugriff auf Ihr BigQuery-Dataset einrichten, um Ihrem Vertex AI Search for Retail-Dienstkonto die Rolle BigQuery-Dateninhaber für Ihr BigQuery-Dataset zuzuweisen.

Google Analytics 4-Ereignisse importieren

Sie können Google Analytics 4-Ereignisse über die Search Console für Einzelhandel oder die Methode userEvents.import importieren.

Google Analytics 4-Ereignisse über die Console importieren

  1. Rufen Sie in der Search for Retail-Konsole die Seite Daten auf.

    Zur Seite „Daten“
  2. Klicken Sie auf Importieren, um das Feld Daten importieren zu öffnen.
  3. Wählen Sie Nutzerereignisse aus.
  4. Wählen Sie BigQuery als Datenquelle aus.
  5. Wählen Sie das Datenschema aus.

  6. Geben Sie die BigQuery-Tabelle an, wo sich die Daten befinden.
  7. Optional: Geben Sie den Speicherort eines Cloud Storage-Bucket in Ihrem Projekt als temporären Speicherort für Ihre Daten ein.
    Wenn Sie keinen Speicherort angeben, wird ein Standardspeicherort verwendet. Wenn Sie einen Speicherort angeben, müssen sich BigQuery und der Cloud Storage-Bucket in derselben Region befinden.
  8. Optional: Geben Sie unter Erweiterte Optionen anzeigen den Speicherort eines Cloud Storage-Bucket in Ihrem Projekt als temporären Speicherort für Ihre Daten ein.

    Wenn keine Angabe erfolgt, wird ein Standardspeicherort verwendet. Wenn Sie einen Speicherort angeben, müssen sich BigQuery und der Cloud Storage-Bucket in derselben Region befinden.
  9. Klicken Sie auf Importieren.

Google Analytics 4-Ereignisse über die API importieren

Importieren Sie die Nutzerereignisse, indem Sie die Daten für die Ereignisse in den Aufruf der Methode userEvents.import aufnehmen. Weitere Informationen finden Sie in der userEvents.import API-Referenz.

Verwenden Sie für dataSchema den Wert user_event_ga4.

export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
curl \\
  -v \\
  -X POST \\
  -H "Content-Type: application/json; charset=utf-8" \\
  -H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \\
  "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import" \\
  --data '{
    "inputConfig": {
      "bigQuerySource": {
        "projectId": "PROJECT_ID",
        "datasetId": "DATASET_ID",
        "tableId": "TABLE_ID",
        "dataSchema": "user_event_ga4"
    }
  }
}'

Nutzerereignisse inline importieren

Sie importieren Nutzerereignisse inline, indem Sie die Daten für die Ereignisse in Ihren Aufruf der Methode userEvents.import aufnehmen.

Der einfachste Weg dafür ist, Ihre Nutzerereignisdaten in eine JSON-Datei einzufügen und diese in cURL bereitzustellen.

Informationen zu den Formaten der Nutzerereignistypen finden Sie unter Nutzerereignisse.

curl

  1. Erstellen Sie die JSON-Datei:

    {
      "inputConfig": {
        "userEventInlineSource": {
          "userEvents": [
            {
              <userEvent1>>
            },
            {
              <userEvent2>
            },
            ....
          ]
        }
      }
    }
    
  2. Rufen Sie die Methode POST auf:

    curl -X POST \
         -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \
         -H "Content-Type: application/json; charset=utf-8" \
         --data @./data.json \
      "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import"
    

Java

public static String importUserEventsFromInlineSource(
    List<UserEvent> userEventsToImport)
    throws IOException, InterruptedException, ExecutionException {
  UserEventServiceClient userEventsClient = getUserEventServiceClient();

  UserEventInlineSource inlineSource = UserEventInlineSource.newBuilder()
      .addAllUserEvents(userEventsToImport)
      .build();

  UserEventInputConfig inputConfig = UserEventInputConfig.newBuilder()
      .setUserEventInlineSource(inlineSource)
      .build();

  ImportUserEventsRequest importRequest = ImportUserEventsRequest.newBuilder()
      .setParent(DEFAULT_CATALOG_NAME)
      .setInputConfig(inputConfig)
      .build();

  String operationName = userEventsClient
      .importUserEventsAsync(importRequest).getName();

  userEventsClient.shutdownNow();
  userEventsClient.awaitTermination(2, TimeUnit.SECONDS);

  return operationName;
}

Historische Katalogdaten

Sie können auch die Verlaufskatalogdaten importieren, die in Ihren Verlaufsnutzerereignissen angezeigt werden. Diese vergangenen Katalogdaten können hilfreich sein, da frühere Produktinformationen zur Anreicherung der Nutzerereignisse verwendet werden können, was die Modellgenauigkeit möglicherweise noch verbessert.

Weitere Informationen finden Sie unter Historische Katalogdaten importieren.

Importierte Ereignisse ansehen

Messwerte zur Ereignisintegration finden Sie in der Retail-Konsole auf der Seite Daten auf dem Tab Ereignisse. Auf dieser Seite werden alle Ereignisse angezeigt, die im letzten Jahr geschrieben oder importiert wurden. Nach der erfolgreichen Datenaufnahme kann es bis zu 24 Stunden dauern, bis Messwerte angezeigt werden.

Zur Seite "Daten"

Nächste Schritte