Importare gli eventi utente storici

Questa pagina descrive come importare in blocco i dati sugli eventi utente da eventi passati in Vertex AI Search per il commercio. I dati sugli eventi utente sono necessari per l'addestramento dei modelli. Dopo aver configurato la registrazione degli eventi in tempo reale, potrebbe essere necessario un periodo di tempo considerevole per registrare un volume sufficiente di dati sugli eventi utente per addestrare i modelli. L'importazione dei dati storici può accelerare il processo.

Le procedure di importazione descritte in questa pagina si applicano sia ai consigli sia alla ricerca. Dopo l'importazione, entrambi i servizi possono utilizzare questi eventi, quindi non è necessario importare gli stessi dati due volte se utilizzi entrambi i servizi.

Puoi importare eventi da:

Suggerimenti generali per iniziare

Tutorial

Questi tutorial mostrano come importare gli eventi utente da varie origini.

Importa eventi da Cloud Storage

Questo tutorial mostra come importare gli eventi utente da Cloud Storage.


Per seguire le indicazioni dettagliate per questa attività direttamente nell'editor di Cloud Shell, fai clic su Procedura guidata:

Procedura guidata


Importare eventi da BigQuery

Questo tutorial mostra come importare gli eventi utente da BigQuery.


Per seguire le indicazioni dettagliate per questa attività direttamente nell'editor di Cloud Shell, fai clic su Procedura guidata:

Procedura guidata


Importare gli eventi in linea

Questo tutorial mostra come importare i dati degli eventi utente in linea.


Per seguire le indicazioni dettagliate per questa attività direttamente nell'editor di Cloud Shell, fai clic su Procedura guidata:

Procedura guidata


Prima di iniziare

Per evitare errori di importazione e verificare che siano presenti dati sufficienti per generare risultati validi, esamina le seguenti informazioni prima di importare gli eventi utente.

Considerazioni sull'importazione degli eventi

Questa sezione descrive i metodi che possono essere utilizzati per l'importazione batch degli eventi utente storici, quando potresti utilizzare ciascun metodo e alcune delle relative limitazioni.

Cloud Storage Descrizione Importa i dati in formato JSON dai file caricati in un bucket Cloud Storage. Ogni file deve avere dimensioni pari o inferiori a 2 GB e possono essere importati fino a 100 file alla volta. L'importazione può essere eseguita utilizzando la console Google Cloud o curl. Utilizza il formato dei dati JSON Product, che consente attributi personalizzati.
Quando utilizzarlo Se devi caricare volumi di dati più elevati in un unico passaggio.
Limitazioni Se i dati si trovano in Google Analytics o Merchant Center, possono essere esportati solo in BigQuery e richiedono il passaggio aggiuntivo dell'importazione in Cloud Storage.
BigQuery Descrizione Importa i dati da una tabella BigQuery caricata in precedenza che utilizza lo schema di Vertex AI Search for Commerce. Può essere eseguita utilizzando la console Google Cloud o curl.
Quando utilizzarlo Se utilizzi anche Analytics o elabori i dati degli eventi prima di importarli.
Limitazioni Richiede il passaggio aggiuntivo di creazione di una tabella BigQuery che corrisponda allo schema di Vertex AI Search for Commerce. Se hai un volume elevato di eventi utente, tieni presente anche che BigQuery è una risorsa più costosa di Cloud Storage.
BigQuery con Analytics 360 Descrizione Importa i dati preesistenti da Analytics 360 in Vertex AI Search per il commercio.
Quando utilizzarlo Se hai Analytics 360 e monitori le conversioni per consigli o ricerche. Non è necessaria alcuna mappatura dello schema aggiuntiva.
Limitazioni È disponibile solo un sottoinsieme di attributi, pertanto non è possibile utilizzare alcune funzionalità avanzate di Vertex AI Search for Commerce. Il monitoraggio delle impressioni in Google Analytics è obbligatorio se prevedi di utilizzare la ricerca.
BigQuery con Google Analytics 4 Descrizione Importa i dati preesistenti da Google Analytics 4 in Vertex AI Search per il commercio.
Quando utilizzarlo Se hai Google Analytics 4 e monitori le conversioni per consigli o ricerche. Non è necessaria alcuna mappatura dello schema aggiuntiva.
Limitazioni È disponibile solo un sottoinsieme di attributi, pertanto non è possibile utilizzare alcune funzionalità avanzate di Vertex AI Search for Commerce. Se prevedi di utilizzare la ricerca, devi configurare le coppie chiave-valore dei parametri evento per il monitoraggio; la chiave consigliata è search_query.
Importazione in linea Descrizione Importa utilizzando una chiamata al metodo userEvents.import.
Quando utilizzarlo Se vuoi rafforzare la privacy facendo in modo che l'intera procedura di autenticazione avvenga sul backend, sempre che tu possa eseguire importazioni nel backend.
Limitazioni Di solito più complicato di un'importazione web.

Importa eventi utente da Cloud Storage

Importa gli eventi utente da Cloud Storage utilizzando la console Google Cloud o il metodo userEvents.import.

Console

  1. Vai alla pagina Dati nella console Search for commerce.

    Vai alla pagina Dati
  2. Fai clic su Importa per aprire il riquadro Importa dati.
  3. Scegli Eventi utente.
  4. Seleziona Google Cloud Storage come origine dati.
  5. Scegli Schema eventi utente retail come schema.
  6. Inserisci la posizione Cloud Storage dei tuoi dati.
  7. Fai clic su Importa.

curl

Utilizza il metodo userEvents.import per importare gli eventi utente.

  1. Crea un file di dati per i parametri di input per l'importazione. Utilizza l'oggetto GcsSource per indirizzare il bucket Cloud Storage.

    Puoi fornire più file o solo uno.

    • INPUT_FILE: uno o più file in Cloud Storage contenenti i dati degli eventi utente. Consulta la sezione Informazioni sugli eventi utente per esempi di ciascun formato del tipo di evento utente. Assicurati che ogni evento utente si trovi su una singola riga, senza interruzioni di riga.
    • ERROR_DIRECTORY: una directory Cloud Storage per informazioni sugli errori relativi all'importazione.

    I campi del file di input devono essere nel formato gs://<bucket>/<path-to-file>/. La directory degli errori deve essere nel formato gs://<bucket>/<folder>/. Se la directory degli errori non esiste, Vertex AI Search for Commerce la crea. Il bucket deve esistere già.

    {
    "inputConfig":{
     "gcsSource": {
       "inputUris": ["INPUT_FILE_1", "INPUT_FILE_2"],
      },
      "errorsConfig":{"gcsPrefix":"ERROR_DIRECTORY"}
    }
  2. Importa le informazioni del catalogo inviando una richiesta POST al metodo REST userEvents:import, fornendo il nome del file di dati.

    export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
    
    curl -X POST \
         -v \
         -H "Content-Type: application/json; charset=utf-8" \
         -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \
         --data @./DATA_FILE.json \
      "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import"
      }
    }'

Importare eventi utente da BigQuery

Importa gli eventi utente da BigQuery utilizzando la Google Cloud console o il metodo userEvents.import.

Configurare l'accesso a BigQuery

Segui le istruzioni riportate in Configurazione dell'accesso al set di dati BigQuery per concedere al tuo account di servizio Vertex AI Search for commerce il ruolo Utente BigQuery minimo richiesto per l'importazione e il ruolo aggiuntivo Editor dati BigQuery per il tuo set di dati BigQuery. Il ruolo Proprietario dati BigQuery non è necessario.

Importare gli eventi utente da BigQuery

Puoi importare gli eventi utente utilizzando la console di ricerca per il commercio o il metodo userEvents.import.

Console

  1. Vai alla pagina Dati nella console Search for commerce.

    Vai alla pagina Dati
  2. Fai clic su Importa per aprire il riquadro Importa dati.
  3. Scegli Eventi utente.
  4. Seleziona BigQuery come origine dati.
  5. Seleziona lo schema dei dati.

  6. Inserisci la tabella BigQuery in cui si trovano i dati.
  7. (Facoltativo) Inserisci la posizione di un bucket Cloud Storage nel tuo progetto come posizione temporanea per i dati.
    Se non specificata, viene utilizzata una posizione predefinita. Se specificati, BigQuery e il bucket Cloud Storage devono trovarsi nella stessa regione.
  8. (Facoltativo) In Mostra opzioni avanzate, inserisci la posizione di un bucket Cloud Storage nel tuo progetto come posizione temporanea per i tuoi dati.

    Se non specificata, viene utilizzata una posizione predefinita. Se specificati, BigQuery e il bucket Cloud Storage devono trovarsi nella stessa regione.
  9. Fai clic su Importa.

curl

Importa gli eventi utente includendo i dati degli eventi nella chiamata al metodo userEvents.import. Consulta il riferimento API userEvents.import.

Il valore specificato per dataSchema dipende da ciò che stai importando:

export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json

curl \
-v \
-X POST \
-H "Content-Type: application/json; charset=utf-8" \
-H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \
"https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import" \
--data '{
  "inputConfig": {
    "bigQuerySource": {
      "datasetId": "DATASET_ID",
      "tableId": "TABLE_ID",
      "dataSchema": "SCHEMA_TYPE"
  }
}
}'

Importare eventi utente di Analytics 360 con BigQuery

Puoi importare gli eventi utente di Analytics 360 se hai integrato Analytics 360 con BigQuery e utilizzi E-commerce avanzato.

Le seguenti procedure presuppongono che tu abbia familiarità con l'utilizzo di BigQuery e Analytics 360.

Prima di iniziare

Prima di procedere con i passaggi successivi, assicurati che:

Controllare l'origine dati

  1. Assicurati che i dati sugli eventi utente che importerai siano formattati correttamente in una tabella BigQuery a cui hai accesso.

    Assicurati che la tabella si chiami project_id:ga360_export_dataset.ga_sessions_YYYYMMDD.

    Per saperne di più sul formato e sulla denominazione delle tabelle, consulta la documentazione di Google Analytics.

  2. Nella console BigQuery Google Cloud , seleziona la tabella dal riquadro Explorer per visualizzarne l'anteprima.

    Verifica che:

    1. La colonna clientId ha un valore valido, ad esempio 123456789.123456789.

      Tieni presente che questo valore è diverso dal valore completo del cookie _ga (che ha un formato come GA1.3.123456789.123456789).

    2. La colonna hits.transaction.currencyCode ha un codice valuta valido.

    3. Se prevedi di importare eventi search, verifica che sia presente una colonna hits.page.searchKeyword o hits.customVariable.searchQuery.

      Mentre Vertex AI Search for commerce richiede sia searchQuery sia productDetails per restituire un elenco di risultati di ricerca, Analytics 360 non memorizza le query di ricerca e le impressioni dei prodotti in un unico evento. Affinché Vertex AI Search for Commerce funzioni, devi creare un tag nel livello dati o un pixel JavaScript per poter importare entrambi i tipi di eventi utente dalle origini Google Analytics:

      • searchQuery, che viene letto dal parametro search_term o dagli eventi view_search_results, deriva da hits.page.searchKeyword o da hits.customVariables.customVarValue se hits.customVariables.customVarName è searchQuery.
      • productDetails, l'impressione del prodotto letta dal parametro items dell'evento view_item_list, viene presa da hits.product se hits.product.isImpressions è TRUE.
  3. Controlla la coerenza degli ID articolo tra il catalogo caricato e la tabella degli eventi utente di Analytics 360.

    Utilizzando qualsiasi ID prodotto della colonna hits.product.productSKU nell'anteprima della tabella BigQuery, utilizza il metodo product.get per assicurarti che lo stesso prodotto sia presente nel catalogo caricato.

    export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
    
       curl \
         -v \
         -X GET \
         -H "Content-Type: application/json; charset=utf-8" \
         -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \
         "https://retail.googleapis.com/v2/projects/PROJECT_NUMBER/locations/global/catalogs/default_catalog/branches/default_branch/products/PRODUCT_ID"

Importare gli eventi di Analytics 360

Puoi importare gli eventi di Google Analytics 360 utilizzando il metodo Cerca nella console commerciante o userEvents.import.

Console

  1. Vai alla pagina Dati nella console Search for commerce.

    Vai alla pagina Dati
  2. Fai clic su Importa per aprire il riquadro Importa dati.
  3. Scegli Eventi utente.
  4. Seleziona BigQuery come origine dati.
  5. Seleziona lo schema dei dati.

  6. Inserisci la tabella BigQuery in cui si trovano i dati.
  7. (Facoltativo) Inserisci la posizione di un bucket Cloud Storage nel tuo progetto come posizione temporanea per i dati.
    Se non specificata, viene utilizzata una posizione predefinita. Se specificati, BigQuery e il bucket Cloud Storage devono trovarsi nella stessa regione.
  8. (Facoltativo) In Mostra opzioni avanzate, inserisci la posizione di un bucket Cloud Storage nel tuo progetto come posizione temporanea per i tuoi dati.

    Se non specificata, viene utilizzata una posizione predefinita. Se specificati, BigQuery e il bucket Cloud Storage devono trovarsi nella stessa regione.
  9. Fai clic su Importa.

REST

Importa gli eventi utente includendo i dati degli eventi nella chiamata al metodo userEvents.import.

Per dataSchema, utilizza il valore user_event_ga360.

export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
curl \\
  -v \\
  -X POST \\
  -H "Content-Type: application/json; charset=utf-8" \\
  -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \\
  "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import" \\
  --data '{
    "inputConfig": {
      "bigQuerySource": {
        "datasetId": "some_ga360_export_dataset",
        "tableId": "ga_sessions_YYYYMMDD",
        "dataSchema": "user_event_ga360"
    }
  }
}'

Java

public static String importUserEventsFromBigQuerySource()
    throws IOException, InterruptedException, ExecutionException {
  UserEventServiceClient userEventsClient = getUserEventServiceClient();

  BigQuerySource bigQuerySource = BigQuerySource.newBuilder()
      .setProjectId(PROJECT_ID)
      .setDatasetId(DATASET_ID)
      .setTableId(TABLE_ID)
      .setDataSchema("user_event")
      .build();

  UserEventInputConfig inputConfig = UserEventInputConfig.newBuilder()
      .setBigQuerySource(bigQuerySource)
      .build();

  ImportUserEventsRequest importRequest = ImportUserEventsRequest.newBuilder()
      .setParent(DEFAULT_CATALOG_NAME)
      .setInputConfig(inputConfig)
      .build();

  String operationName = userEventsClient
      .importUserEventsAsync(importRequest).getName();

  userEventsClient.shutdownNow();
  userEventsClient.awaitTermination(2, TimeUnit.SECONDS);

  return operationName;
}

Importare le visualizzazioni della home page di Analytics 360 con BigQuery

In Analytics 360, gli eventi di visualizzazione della home page non si distinguono dagli altri eventi di visualizzazione di pagina. Ciò significa che gli eventi home-page-view non vengono importati come eventi con gli altri tipi di eventi (ad esempio detail-page-view) in Importa gli eventi di Analytics 360.

La seguente procedura spiega come estrarre gli eventi di visualizzazione della home page dai dati di Analytics 360 e importarli in Vertex AI Search per il commercio. In breve, questa operazione viene eseguita estraendo le visualizzazioni della home page degli utenti (identificate dal percorso della home page) in una nuova tabella BigQuery e poi importando i dati da questa nuova tabella in Vertex AI Search per il commercio.

Per importare gli eventi di visualizzazione della home page da Analytics 360 in Vertex AI Search per il commercio:

  1. Crea un set di dati BigQuery o assicurati di averne uno disponibile a cui puoi aggiungere una tabella.

    Questo set di dati può trovarsi nel tuo progetto Vertex AI Search for Commerce o nel progetto in cui sono presenti i tuoi dati di Analytics 360. È il set di dati di destinazione in cui copierai gli eventi di visualizzazione della home page di Analytics 360.

  2. Crea una tabella BigQuery nel set di dati nel seguente modo:

    1. Sostituisci le variabili nel seguente codice SQL come indicato di seguito.

      • target_project_id: il progetto in cui si trova il set di dati del passaggio 1.

      • target_dataset: il nome del set di dati del passaggio 1.

      CREATE TABLE TARGET_PROJECT_ID.TARGET_DATASET.ga_homepage (
       eventType STRING NOT NULL,
       visitorId STRING NOT NULL,
       userId STRING,
       eventTime STRING NOT NULL
      );
    2. Copia l'esempio di codice SQL.

    3. Apri la pagina BigQuery nella console Google Cloud .

      Vai alla pagina BigQuery

    4. Se non è già selezionato, seleziona il progetto di destinazione.

    5. Nel riquadro Editor, incolla il codice SQL di esempio.

    6. Fai clic su Esegui e attendi il completamento dell'esecuzione della query.

    L'esecuzione di questo codice crea una tabella nel formato target_project_id:target_dataset.ga_homepage_YYYYMMDD, ad esempio my-project:view_events.ga_homepage_20230115.

  3. Copia gli eventi di visualizzazione della home page di Analytics 360 dalla tabella dei dati di Analytics 360 nella tabella creata nel precedente passaggio 2.

    1. Sostituisci le variabili nel seguente codice di esempio SQL come segue:

      • source_project_id::l'ID del progetto che contiene i dati di Analytics 360 in una tabella BigQuery.

      • source_dataset: il set di dati nel progetto di origine che contiene i dati di Analytics 360 in una tabella BigQuery.

      • source_table: la tabella nel progetto di origine che contiene i dati di Analytics 360.

      • target_project_id::lo stesso ID progetto di destinazione del passaggio 2 precedente.

      • target_dataset: lo stesso set di dati di destinazione del passaggio 2 precedente.

      • path: è il percorso alla home page. Di solito è /, ad esempio se la home page è example.com/. Tuttavia, se la home page è come examplepetstore.com/index.html, il percorso è /index.html.

      INSERT INTO `TARGET_PROJECT_ID.TARGET_DATASET.ga_homepage(eventType,visitorId,userID,eventTime)`
      
      SELECT
        "home-page-view" as eventType,
        clientId as visitorId,
        userId,
        CAST(FORMAT_TIMESTAMP("%Y-%m-%dT%H:%M:%SZ",TIMESTAMP_SECONDS(visitStartTime)) as STRING) AS eventTime
      
      FROM
        `SOURCE_PROJECT_ID.SOURCE_DATASET.SOURCE_TABLE`, UNNEST(hits) as hits
      
      WHERE hits.page.pagePath = "PATH" AND visitorId is NOT NULL;
    2. Copia l'esempio di codice SQL.

    3. Apri la pagina BigQuery nella console Google Cloud .

      Vai alla pagina BigQuery

    4. Se non è già selezionato, seleziona il progetto di destinazione.

    5. Nel riquadro Editor, incolla il codice SQL di esempio.

    6. Fai clic su Esegui e attendi il completamento dell'esecuzione della query.

  4. Segui le istruzioni riportate in Importa eventi utente da BigQuery per importare gli eventi di visualizzazione della home page dalla tabella di destinazione. Durante la selezione dello schema, se importi utilizzando la console, seleziona Schema eventi utente retail; se importi utilizzando userEvents.import, specifica user_event per il valore dataSchema.

  5. Elimina la tabella e il set di dati che hai creato nei passaggi 1 e 2.

Importare eventi utente di Google Analytics 4 con BigQuery

Puoi importare gli eventi utente di Google Analytics 4 se hai integrato Google Analytics 4 con BigQuery e utilizzi l'e-commerce di Google Analytics.

Le seguenti procedure presuppongono che tu abbia familiarità con l'utilizzo di BigQuery e Google Analytics 4.

Prima di iniziare

Prima di procedere con i passaggi successivi, assicurati che:

Controllare l'origine dati

Per assicurarti che i dati sugli eventi utente siano pronti per l'importazione, segui questi passaggi.

Per una tabella dei campi Google Analytics 4 utilizzati da Vertex AI Search per il commercio e dei campi di Vertex AI Search per il commercio a cui vengono mappati, consulta Campi degli eventi utente di Google Analytics 4.

Per tutti i parametri evento di Google Analytics, consulta la documentazione di riferimento sugli eventi di Google Analytics.

  1. Assicurati che i dati sugli eventi utente che importerai siano formattati correttamente in una tabella BigQuery a cui hai accesso.

    • Il set di dati deve essere denominato analytics_PROPERTY_ID.
    • La tabella deve essere denominata events_YYYYMMDD.

    Per informazioni sui nomi e sul formato delle tabelle, consulta la documentazione di Google Analytics.

  2. Nella console BigQuery Google Cloud , seleziona il set di dati dal riquadro Explorer e trova la tabella degli eventi utente che prevedi di importare.

    Verifica che:

    1. La colonna event_params.key ha una chiave currency e il valore stringa associato è un codice valuta valido.

    2. Se prevedi di importare eventi search, controlla che la colonna event.event_params.key abbia una chiave search_term e un valore associato.

      Mentre Vertex AI Search for commerce richiede sia searchQuery sia productDetails per restituire un elenco di risultati di ricerca, Google Analytics 4 non memorizza le query di ricerca e le impressioni dei prodotti in un unico evento. Affinché Vertex AI Search for Commerce funzioni, devi creare un tag nel livello dati o da un pixel JavaScript per poter importare entrambi i tipi di eventi utente dalle origini Google Analytics:

      • searchQuery, che viene letto dal parametro search_term o dagli eventi view_search_results.
      • productDetails, l'impressione del prodotto letta dal parametro items dell'evento view_item_list.

      Per informazioni su search in Google Analytics 4, consulta search nella documentazione di Google Analytics.

  3. Verifica la coerenza degli ID articolo tra il catalogo caricato e la tabella degli eventi utente di Google Analytics 4.

    Per assicurarti che un prodotto nella tabella degli utenti di Google Analytics 4 sia presente anche nel catalogo caricato, copia un ID prodotto dalla colonna event.items.item_id nell'anteprima della tabella BigQuery e utilizza il metodo product.get per verificare se l'ID prodotto è presente nel catalogo caricato.

    export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
    
       curl \
         -v \
         -X GET \
         -H "Content-Type: application/json; charset=utf-8" \
         -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \
         "https://retail.googleapis.com/v2/projects/PROJECT_NUMBER/locations/global/catalogs/default_catalog/branches/default_branch/products/PRODUCT_ID"

Importare gli eventi Google Analytics 4

Puoi importare gli eventi Google Analytics 4 utilizzando la console di ricerca per il commercio o il metodo userEvents.import.

Utilizzare la console

  1. Vai alla pagina Dati nella console Search for commerce.

    Vai alla pagina Dati
  2. Fai clic su Importa per aprire il riquadro Importa dati.
  3. Scegli Eventi utente.
  4. Seleziona BigQuery come origine dati.
  5. Seleziona lo schema dei dati.

  6. Inserisci la tabella BigQuery in cui si trovano i dati.
  7. (Facoltativo) Inserisci la posizione di un bucket Cloud Storage nel tuo progetto come posizione temporanea per i dati.
    Se non specificata, viene utilizzata una posizione predefinita. Se specificati, BigQuery e il bucket Cloud Storage devono trovarsi nella stessa regione.
  8. (Facoltativo) In Mostra opzioni avanzate, inserisci la posizione di un bucket Cloud Storage nel tuo progetto come posizione temporanea per i tuoi dati.

    Se non specificata, viene utilizzata una posizione predefinita. Se specificati, BigQuery e il bucket Cloud Storage devono trovarsi nella stessa regione.
  9. Fai clic su Importa.

Utilizzare l'API

Importa gli eventi utente includendo i dati degli eventi nella chiamata al metodo userEvents.import. Consulta il riferimento API userEvents.import.

Per dataSchema, utilizza il valore user_event_ga4.

export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
curl \\
  -v \\
  -X POST \\
  -H "Content-Type: application/json; charset=utf-8" \\
  -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \\
  "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import" \\
  --data '{
    "inputConfig": {
      "bigQuerySource": {
        "projectId": "PROJECT_ID",
        "datasetId": "DATASET_ID",
        "tableId": "TABLE_ID",
        "dataSchema": "user_event_ga4"
    }
  }
}'

Importa eventi utente in linea

Puoi importare gli eventi utente in linea includendo i dati degli eventi nella chiamata al metodo userEvents.import.

Il modo più semplice per farlo è inserire i dati degli eventi utente in un file JSON e fornire il file a curl.

Per i formati dei tipi di eventi utente, consulta Informazioni sugli eventi utente.

curl

  1. Crea il file JSON:

    {
      "inputConfig": {
        "userEventInlineSource": {
          "userEvents": [
            \{
              "<userEvent1>"
            \},
            \{
              "<userEvent2>"
            \},
            \....
          \]
        \}
      }
    }
    
  2. Chiama il metodo POST:

    curl -X POST \
         -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \
         -H "Content-Type: application/json; charset=utf-8" \
         --data @./data.json \
      "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import"
    

Java

public static String importUserEventsFromInlineSource(
    List<UserEvent> userEventsToImport)
    throws IOException, InterruptedException, ExecutionException {
  UserEventServiceClient userEventsClient = getUserEventServiceClient();

  UserEventInlineSource inlineSource = UserEventInlineSource.newBuilder()
      .addAllUserEvents(userEventsToImport)
      .build();

  UserEventInputConfig inputConfig = UserEventInputConfig.newBuilder()
      .setUserEventInlineSource(inlineSource)
      .build();

  ImportUserEventsRequest importRequest = ImportUserEventsRequest.newBuilder()
      .setParent(DEFAULT_CATALOG_NAME)
      .setInputConfig(inputConfig)
      .build();

  String operationName = userEventsClient
      .importUserEventsAsync(importRequest).getName();

  userEventsClient.shutdownNow();
  userEventsClient.awaitTermination(2, TimeUnit.SECONDS);

  return operationName;
}

Dati storici del catalogo

Puoi anche importare i dati del catalogo visualizzati negli eventi utente storici. Questi dati del catalogo possono essere utili perché le informazioni sui prodotti passati possono essere utilizzate per arricchire l'acquisizione degli eventi utente, che a sua volta può migliorare l'accuratezza del modello.

Per maggiori dettagli, vedi Importare i dati storici del catalogo.

Visualizzare gli eventi importati

Visualizza le metriche di integrazione degli eventi nella scheda Eventi della pagina Dati della console Search for commerce. Questa pagina mostra tutti gli eventi scritti o importati nell'ultimo anno. Potrebbero essere necessarie fino a 24 ore prima che le metriche vengano visualizzate dopo l'importazione dati.

Vai alla pagina Dati

Passaggi successivi