Importare gli eventi utente storici

Questa pagina descrive come importare collettivamente i dati sugli eventi utente da eventi passati. I modelli di Vertex AI Search per il retail richiedono dati sugli eventi utente per l'addestramento.

Dopo aver configurato la registrazione degli eventi in tempo reale, può essere necessario un tempo considerevole per registrare dati sugli eventi utente sufficienti per addestrare i modelli. Puoi accelerare l'addestramento iniziale del modello importando collettivamente i dati sugli eventi utente da eventi passati. Prima di farlo, consulta le best practice per la registrazione degli eventi utente e la sezione Prima di iniziare in questa pagina.

Le procedure di importazione in questa pagina si applicano sia ai consigli sia alla ricerca. Dopo aver importato i dati, entrambi i servizi possono utilizzare questi eventi, quindi non è necessario importare gli stessi dati due volte se utilizzi entrambi i servizi.

Puoi:

Tutorial sull'importazione di eventi da Cloud Storage

Questo tutorial mostra come importare gli eventi utente da Cloud Storage.


Per seguire le indicazioni dettagliate per questa attività direttamente nell'editor di Cloud Shell, fai clic su Procedura guidata:

Procedura guidata


Tutorial sull'importazione di eventi da BigQuery

Questo tutorial mostra come importare gli eventi utente da BigQuery.


Per seguire le indicazioni dettagliate per questa attività direttamente nell'editor di Cloud Shell, fai clic su Procedura guidata:

Procedura guidata


Tutorial sull'importazione di eventi in linea

Questo tutorial mostra come importare i dati sugli eventi utente in linea.


Per seguire le indicazioni dettagliate per questa attività direttamente nell'editor di Cloud Shell, fai clic su Procedura guidata:

Procedura guidata


Prima di iniziare

Per evitare errori di importazione e assicurarti che siano disponibili dati sufficienti per generare buoni risultati, esamina le seguenti informazioni prima di importare gli eventi utente.

Considerazioni sull'importazione degli eventi

Questa sezione descrive i metodi che possono essere utilizzati per l'importazione collettiva degli eventi utente storici, quando è possibile utilizzare ciascun metodo e alcuni dei relativi limiti.

Cloud Storage Descrizione Importa i dati in formato JSON dai file caricati in un bucket Cloud Storage. Ogni file deve avere dimensioni massime pari a 2 GB e possono essere importati fino a 100 file alla volta. L'importazione può essere eseguita utilizzando la console Google Cloud o cURL. Utilizza il formato di dati JSON Product, che consente attributi personalizzati.
Quando utilizzarli Se hai bisogno di caricare volumi di dati più elevati in un unico passaggio.
Limitazioni Se i dati si trovano in Google Analytics o Merchant Center, possono essere esportati solo in BigQuery e richiedono il passaggio aggiuntivo di importazione in Cloud Storage.
BigQuery Descrizione Importa i dati da una tabella BigQuery caricata in precedenza che utilizza lo schema di ricerca di Vertex AI per la vendita al dettaglio. Può essere eseguita utilizzando la console Google Cloud o cURL.
Quando utilizzarli Se utilizzi anche analisi o preelaborazione dei dati sugli eventi prima di importarli.
Limitazioni Richiede il passaggio aggiuntivo della creazione di una tabella BigQuery che mappa allo schema di Vertex AI Search per il retail. Se hai un volume elevato di eventi utente, tieni presente che BigQuery è una risorsa di costo superiore rispetto a Cloud Storage.
BigQuery con Analytics 360 Descrizione Importa i dati preesistenti da Analytics 360 in Vertex AI Search per il retail.
Quando utilizzarli Se utilizzi Analytics 360 e monitori le conversioni per consigli o ricerche. Non è richiesta alcuna mappatura dello schema aggiuntiva.
Limitazioni È disponibile solo un sottoinsieme di attributi, pertanto alcune funzionalità avanzate di Vertex AI Search for Retail non possono essere utilizzate. Il monitoraggio delle impressioni in Google Analytics è obbligatorio se prevedi di utilizzare la ricerca.
BigQuery con Google Analytics 4 Descrizione Importa i dati preesistenti da Google Analytics 4 in Vertex AI Search per il retail.
Quando utilizzarli Se utilizzi Google Analytics 4 e monitori le conversioni per consigli o ricerche. Non è richiesta alcuna mappatura dello schema aggiuntiva.
Limitazioni È disponibile solo un sottoinsieme di attributi, pertanto alcune funzionalità avanzate di Vertex AI Search per la vendita al dettaglio non possono essere utilizzate. Se prevedi di utilizzare la ricerca, devi configurare le coppie chiave-valore dei parametri evento per il monitoraggio. La chiave consigliata è search_query.
Importazione in linea Descrizione Esegui l'importazione utilizzando una chiamata al metodo userEvents.import.
Quando utilizzarli Se vuoi rafforzare la privacy facendo in modo che l'intera procedura di autenticazione avvenga sul backend, sempre che tu possa eseguire importazioni nel backend.
Limitazioni Di solito è più complicata di un'importazione da web.

Importa eventi utente da Cloud Storage

Importa gli eventi utente da Cloud Storage utilizzando la console Google Cloud o il metodo userEvents.import.

Console

  1. Vai alla pagina Dati> nella console Ricerca per la vendita al dettaglio.

    Vai alla pagina Dati
  2. Fai clic su Importa per aprire il riquadro Importa dati.
  3. Scegli Eventi utente.
  4. Seleziona Google Cloud Storage come origine dati.
  5. Scegli Schema eventi utente retail come schema.
  6. Inserisci la posizione in Cloud Storage dei dati.
  7. Fai clic su Importa.

cURL

Utilizza il metodo userEvents.import per importare gli eventi dell'utente.

  1. Crea un file di dati per i parametri di input per l'importazione. Utilizza l'oggetto GcsSource per fare riferimento al tuo bucket Cloud Storage.

    Puoi fornire più file o solo uno.

    • INPUT_FILE: uno o più file in Cloud Storage contenente i dati sugli eventi utente. Consulta la sezione Informazioni sugli eventi utente per esempi di ciascun formato di tipo di evento utente. Assicurati che ogni evento utente sia su una riga singola, senza interruzioni di riga.
    • ERROR_DIRECTORY: una directory Cloud Storage per le informazioni sugli errori relativi all'importazione.

    I campi del file di input devono essere nel formato gs://<bucket>/<path-to-file>/. La directory degli errori deve essere nel formato gs://<bucket>/<folder>/. Se la directory degli errori non esiste, Vertex AI Search for Retail la crea. Il bucket deve esistere già.

    {
    "inputConfig":{
     "gcsSource": {
       "inputUris": ["INPUT_FILE_1", "INPUT_FILE_2"],
      },
      "errorsConfig":{"gcsPrefix":"ERROR_DIRECTORY"}
    }
  2. Importa le informazioni del catalogo inviando una richiesta POST al metodo REST userEvents:import, fornendo il nome del file di dati.

    export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
    
    curl -X POST \
         -v \
         -H "Content-Type: application/json; charset=utf-8" \
         -H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \
         --data @./DATA_FILE.json \
      "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import"
      }
    }'

Importa eventi utente da BigQuery

Importa gli eventi utente da BigQuery utilizzando la console Google Cloud o il metodo userEvents.import.

Configurare l'accesso a BigQuery

Segui le istruzioni riportate in Configurare l'accesso al set di dati BigQuery per assegnare all'account di servizio Vertex AI Search for Retail il ruolo Proprietario dati BigQuery per il set di dati BigQuery.

Importa gli eventi utente da BigQuery

Puoi importare gli eventi 360 utilizzando la console di ricerca per la vendita al dettaglio o il metodo userEvents.import.

Console

  1. Vai alla pagina Dati> nella console Ricerca per la vendita al dettaglio.

    Vai alla pagina Dati
  2. Fai clic su Importa per aprire il riquadro Importa dati.
  3. Scegli Eventi utente.
  4. Seleziona BigQuery come origine dati.
  5. Seleziona lo schema dei dati.

  6. Inserisci la tabella BigQuery in cui si trovano i dati.
  7. (Facoltativo) Inserisci la posizione di un bucket Cloud Storage nel progetto come posizione temporanea per i dati.
    Se non specificato, viene utilizzata una posizione predefinita. Se specificato, i bucket BigQuery e Cloud Storage devono essere nella stessa regione.
  8. (Facoltativo) In Mostra opzioni avanzate, inserisci la posizione di un bucket Cloud Storage nel tuo progetto come posizione temporanea per i dati.

    Se non specificato, viene utilizzata una posizione predefinita. Se specificato, i bucket BigQuery e Cloud Storage devono trovarsi nella stessa regione.
  9. Fai clic su Importa.

curl

Importa gli eventi utente includendo i dati relativi agli eventi nella chiamata al metodo userEvents.import. Consulta il riferimento all'API userEvents.import.

Il valore specificato per dataSchema dipende da cosa stai importando:

export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json

curl \
-v \
-X POST \
-H "Content-Type: application/json; charset=utf-8" \
-H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \
"https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import" \
--data '{
  "inputConfig": {
    "bigQuerySource": {
      "datasetId": "DATASET_ID",
      "tableId": "TABLE_ID",
      "dataSchema": "SCHEMA_TYPE"
  }
}
}'

Importare gli eventi utente di Analytics 360 con BigQuery

Puoi importare gli eventi utente di Analytics 360 se hai integrato Analytics 360 con BigQuery e utilizzi E-commerce avanzato.

Le procedure riportate di seguito presuppongono che tu abbia dimestichezza con l'utilizzo di BigQuery e Analytics 360.

Prima di iniziare

Prima di procedere con i passaggi successivi, assicurati che:

Controlla l'origine dati

  1. Assicurati che i dati sugli eventi utente da importare siano formattati correttamente in una tabella BigQuery a cui hai accesso.

    Assicurati che la tabella sia denominata project_id:ga360_export_dataset.ga_sessions_YYYYMMDD.

    Per saperne di più sul formato e sulla denominazione delle tabelle, consulta la documentazione di Google Analytics.

  2. Nella console Google Cloud BigQuery, seleziona la tabella dal pannello Explorer per visualizzarne l'anteprima.

    Verifica che:

    1. La colonna clientId ha un valore valido, ad esempio 123456789.123456789.

      Tieni presente che questo valore è diverso dal valore completo del cookie _ga (che ha un formato come GA1.3.123456789.123456789).

    2. La colonna hits.transaction.currencyCode ha un codice valuta valido.

    3. Se prevedi di importare eventi search, verifica che sia presente una colonna hits.page.searchKeyword o hits.customVariable.searchQuery.

      Sebbene Vertex AI Search for Retail richieda sia searchQuery sia productDetails per restituire un elenco di risultati di ricerca, Analytics 360 non memorizza sia le query di ricerca sia le impressioni dei prodotti in un unico evento. Affinché Vertex AI Search for Retail funzioni, devi creare un tag a livello di livello dati o un pixel JavaScript per poter importare entrambi i tipi di eventi utente dalle origini Google Analytics:

      • searchQuery, che viene letto dal parametro search_term o dagli eventi view_search_results, è derivato da hits.page.searchKeyword o da hits.customVariables.customVarValue se hits.customVariables.customVarName è searchQuery.
      • productDetails, l'impressione del prodotto letta dal parametro items dell'evento view_item_list, viene presa da hits.product se hits.product.isImpressions è TRUE.
  3. Controlla la coerenza degli ID articolo tra il catalogo caricato e la tabella degli eventi utente di Analytics 360.

    Utilizza un ID prodotto qualsiasi della colonna hits.product.productSKU nell'anteprima della tabella BigQuery e il metodo product.get per assicurarti che lo stesso prodotto sia presente nel catalogo caricato.

    export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
    
       curl \
         -v \
         -X GET \
         -H "Content-Type: application/json; charset=utf-8" \
         -H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \
         "https://retail.googleapis.com/v2/projects/PROJECT_NUMBER/locations/global/catalogs/default_catalog/branches/default_branch/products/PRODUCT_ID"

Importa gli eventi di Analytics 360

Puoi importare gli eventi di Google Analytics 360 utilizzando la console Search for Retail o il metodo userEvents.import.

Console

  1. Vai alla pagina Dati> nella console Ricerca per la vendita al dettaglio.

    Vai alla pagina Dati
  2. Fai clic su Importa per aprire il riquadro Importa dati.
  3. Scegli Eventi utente.
  4. Seleziona BigQuery come origine dati.
  5. Seleziona lo schema dei dati.

  6. Inserisci la tabella BigQuery in cui si trovano i dati.
  7. (Facoltativo) Inserisci la posizione di un bucket Cloud Storage nel progetto come posizione temporanea per i dati.
    Se non specificato, viene utilizzata una posizione predefinita. Se specificato, i bucket BigQuery e Cloud Storage devono essere nella stessa regione.
  8. (Facoltativo) In Mostra opzioni avanzate, inserisci la posizione di un bucket Cloud Storage nel tuo progetto come posizione temporanea per i dati.

    Se non specificato, viene utilizzata una posizione predefinita. Se specificato, i bucket BigQuery e Cloud Storage devono trovarsi nella stessa regione.
  9. Fai clic su Importa.

REST

Importa gli eventi utente includendo i dati relativi agli eventi nella chiamata al metodo userEvents.import.

Per dataSchema, utilizza il valore user_event_ga360.

export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
curl \\
  -v \\
  -X POST \\
  -H "Content-Type: application/json; charset=utf-8" \\
  -H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \\
  "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import" \\
  --data '{
    "inputConfig": {
      "bigQuerySource": {
        "datasetId": "some_ga360_export_dataset",
        "tableId": "ga_sessions_YYYYMMDD",
        "dataSchema": "user_event_ga360"
    }
  }
}'

Java

public static String importUserEventsFromBigQuerySource()
    throws IOException, InterruptedException, ExecutionException {
  UserEventServiceClient userEventsClient = getUserEventServiceClient();

  BigQuerySource bigQuerySource = BigQuerySource.newBuilder()
      .setProjectId(PROJECT_ID)
      .setDatasetId(DATASET_ID)
      .setTableId(TABLE_ID)
      .setDataSchema("user_event")
      .build();

  UserEventInputConfig inputConfig = UserEventInputConfig.newBuilder()
      .setBigQuerySource(bigQuerySource)
      .build();

  ImportUserEventsRequest importRequest = ImportUserEventsRequest.newBuilder()
      .setParent(DEFAULT_CATALOG_NAME)
      .setInputConfig(inputConfig)
      .build();

  String operationName = userEventsClient
      .importUserEventsAsync(importRequest).getName();

  userEventsClient.shutdownNow();
  userEventsClient.awaitTermination(2, TimeUnit.SECONDS);

  return operationName;
}

Importare le visualizzazioni della home page di Analytics 360 con BigQuery

In Analytics 360, gli eventi di visualizzazione della home page non sono distinta dagli altri eventi di visualizzazione di pagina. Ciò significa che gli eventi di visualizzazione della home page non vengono importati come eventi con gli altri tipi di eventi (ad esempio visualizzazione-pagina-dettagli) in Importare gli eventi di Analytics 360.

La procedura riportata di seguito spiega come estrarre gli eventi di visualizzazione della home page dai dati di Analytics 360 e importarli in Vertex AI Search per il retail. In breve, questo viene fatto estraendo le visualizzazioni della home page degli utenti (identificate dal percorso della home page) in una nuova tabella BigQuery e poi importando i dati da questa nuova tabella in Vertex AI Search per il retail.

Per importare gli eventi di visualizzazione della home page da Analytics 360 in Vertex AI Search for Retail:

  1. Crea un set di dati BigQuery o assicurati di avere un set di dati BigQuery a cui puoi aggiungere una tabella.

    Questo set di dati può trovarsi nel progetto Vertex AI Search for Retail o nel progetto in cui hai i dati di Analytics 360. Si tratta del set di dati di destinazione in cui copierai gli eventi di visualizzazione della home page di Analytics 360.

  2. Crea una tabella BigQuery nel set di dati come segue:

    1. Sostituisci le variabili nel seguente codice SQL come segue.

      • target_project_id: il progetto in cui si trova il set di dati del passaggio 1.

      • target_dataset: il nome del set di dati del passaggio 1.

      CREATE TABLE TARGET_PROJECT_ID.TARGET_DATASET.ga_homepage (
       eventType STRING NOT NULL,
       visitorId STRING NOT NULL,
       userId STRING,
       eventTime STRING NOT NULL
      );
    2. Copia l'esempio di codice SQL.

    3. Apri la pagina BigQuery nella console Google Cloud.

      Vai alla pagina BigQuery

    4. Se non è già selezionato, seleziona il progetto di destinazione.

    5. Nel riquadro Editor, incolla il codice SQL di esempio.

    6. Fai clic su Esegui e attendi il completamento dell'esecuzione della query.

    L'esecuzione di questo codice crea una tabella nel formatotarget_project_id:target_dataset.ga_homepage_YYYYMMDD, ad esempiomy-project:view_events.ga_homepage_20230115.

  3. Copia gli eventi di visualizzazione della home page di Analytics 360 dalla tabella di dati di Analytics 360 nella tabella creata nel passaggio 2 precedente.

    1. Sostituisci le variabili nel seguente codice di esempio SQL come segue:

      • source_project_id::l'ID del progetto che contiene i dati di Analytics 360 in una tabella BigQuery.

      • source_dataset::il set di dati nel progetto di origine che contiene i dati di Analytics 360 in una tabella BigQuery.

      • source_table::la tabella nel progetto di origine che contiene i dati di Analytics 360.

      • target_project_id::lo stesso ID progetto di destinazione del passaggio 2 precedente.

      • target_dataset: lo stesso set di dati di destinazione del precedente passaggio 2.

      • path: è il percorso alla home page. Di solito si tratta di /, ad esempio se la home page è example.com/. Tuttavia, se la home page è simile a examplepetstore.com/index.html, il percorso è /index.html.

      INSERT INTO `TARGET_PROJECT_ID.TARGET_DATASET.ga_homepage(eventType,visitorId,userID,eventTime)`
      
      SELECT
        "home-page-view" as eventType,
        clientId as visitorId,
        userId,
        CAST(FORMAT_TIMESTAMP("%Y-%m-%dT%H:%M:%SZ",TIMESTAMP_SECONDS(visitStartTime)) as STRING) AS eventTime
      
      FROM
        `SOURCE_PROJECT_ID.SOURCE_DATASET.SOURCE_TABLE`, UNNEST(hits) as hits
      
      WHERE hits.page.pagePath = "PATH" AND visitorId is NOT NULL;
    2. Copia l'esempio di codice SQL.

    3. Apri la pagina BigQuery nella console Google Cloud.

      Vai alla pagina BigQuery

    4. Se non è già selezionato, seleziona il progetto di destinazione.

    5. Nel riquadro Editor, incolla il codice SQL di esempio.

    6. Fai clic su Esegui e attendi il completamento dell'esecuzione della query.

  4. Segui le istruzioni riportate in Importa eventi utente da BigQuery per importare gli eventi di visualizzazione della home page dalla tabella di destinazione. Durante la selezione dello schema, se lo importi utilizzando la console, seleziona Schema eventi utente per la vendita al dettaglio; se lo importi utilizzando userEvents.import, specifica user_event per il valore dataSchema.

  5. Elimina la tabella e il set di dati creati nei passaggi 1 e 2.

Importa gli eventi utente di Google Analytics 4 con BigQuery

Puoi importare gli eventi utente di Google Analytics 4 se hai integrato Google Analytics 4 con BigQuery e utilizzi Google Analytics E-commerce.

Le procedure riportate di seguito presuppongono che tu abbia dimestichezza con l'utilizzo di BigQuery e Google Analytics 4.

Prima di iniziare

Prima di procedere con i passaggi successivi, assicurati che:

Controlla l'origine dati

Per assicurarti che i dati sugli eventi utente siano pronti per l'importazione, segui questi passaggi.

Per una tabella dei campi Google Analytics 4 utilizzati da Vertex AI Search per il retail e a quali campi di Vertex AI Search per il retail vengono mappati, consulta Campi evento utente di Google Analytics 4.

Per tutti i parametri evento di Google Analytics, consulta la documentazione di riferimento sugli eventi di Google Analytics.

  1. Assicurati che i dati sugli eventi utente da importare siano formattati correttamente in una tabella BigQuery a cui hai accesso.

    • Il set di dati deve avere il nome analytics_PROPERTY_ID.
    • La tabella deve avere il nome events_YYYYMMDD.

    Per informazioni sui nomi e sul formato delle tabelle, consulta la documentazione di Google Analytics.

  2. Nella console Google Cloud BigQuery, seleziona il set di dati dal riquadro Explorer e individua la tabella degli eventi dell'utente che prevedi di importare.

    Verifica che:

    1. La colonna event_params.key ha una chiave currency e il suo valore di stringa associato è un codice valuta valido.

    2. Se prevedi di importare eventi search, controlla che la colonna event.event_params.key abbia una chiave search_term e un valore associato.

      Sebbene Vertex AI Search per il retail richieda sia searchQuery sia productDetails per restituire un elenco di risultati di ricerca, Google Analytics 4 non memorizza sia le query di ricerca sia le impressioni dei prodotti in un unico evento. Affinché Vertex AI Search for Retail funzioni, devi creare un tag a livello di livello dati o da un pixel JavaScript per poter importare entrambi i tipi di eventi utente dalle origini Google Analytics:

      • searchQuery, che viene letto dal parametro search_term o dagli eventi view_search_results.
      • productDetails, l'impressione del prodotto che viene letta dal parametro items dell'evento view_item_list.

      Per informazioni su search in Google Analytics 4, consulta search nella documentazione di Google Analytics.

  3. Verifica la coerenza degli ID articolo tra il catalogo caricato e la tabella degli eventi utente di Google Analytics 4.

    Per assicurarti che un prodotto nella tabella utente di Google Analytics 4 sia anche nel catalogo caricato, copia un ID prodotto dalla colonna event.items.item_id nell'anteprima della tabella BigQuery e utilizza il metodo product.get per verificare se l'ID prodotto è presente nel catalogo caricato.

    export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
    
       curl \
         -v \
         -X GET \
         -H "Content-Type: application/json; charset=utf-8" \
         -H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \
         "https://retail.googleapis.com/v2/projects/PROJECT_NUMBER/locations/global/catalogs/default_catalog/branches/default_branch/products/PRODUCT_ID"

Configurare l'accesso a BigQuery

Segui le istruzioni riportate in Configurare l'accesso al set di dati BigQuery per assegnare all'account di servizio Vertex AI Search for Retail il ruolo Proprietario dati BigQuery per il set di dati BigQuery.

Importare gli eventi Google Analytics 4

Puoi importare gli eventi di Google Analytics 4 utilizzando la console Search for Retail o il metodo userEvents.import.

Importare gli eventi Google Analytics 4 utilizzando la console

  1. Vai alla pagina Dati> nella console Ricerca per la vendita al dettaglio.

    Vai alla pagina Dati
  2. Fai clic su Importa per aprire il riquadro Importa dati.
  3. Scegli Eventi utente.
  4. Seleziona BigQuery come origine dati.
  5. Seleziona lo schema dei dati.

  6. Inserisci la tabella BigQuery in cui si trovano i dati.
  7. (Facoltativo) Inserisci la posizione di un bucket Cloud Storage nel progetto come posizione temporanea per i dati.
    Se non specificato, viene utilizzata una posizione predefinita. Se specificato, i bucket BigQuery e Cloud Storage devono essere nella stessa regione.
  8. (Facoltativo) In Mostra opzioni avanzate, inserisci la posizione di un bucket Cloud Storage nel tuo progetto come posizione temporanea per i dati.

    Se non specificato, viene utilizzata una posizione predefinita. Se specificato, i bucket BigQuery e Cloud Storage devono trovarsi nella stessa regione.
  9. Fai clic su Importa.

Importare gli eventi Google Analytics 4 utilizzando l'API

Importa gli eventi utente includendo i dati relativi agli eventi nella chiamata al metodo userEvents.import. Consulta il riferimento all'API userEvents.import.

Per dataSchema, utilizza il valore user_event_ga4.

export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
curl \\
  -v \\
  -X POST \\
  -H "Content-Type: application/json; charset=utf-8" \\
  -H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \\
  "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import" \\
  --data '{
    "inputConfig": {
      "bigQuerySource": {
        "projectId": "PROJECT_ID",
        "datasetId": "DATASET_ID",
        "tableId": "TABLE_ID",
        "dataSchema": "user_event_ga4"
    }
  }
}'

Importa gli eventi utente in linea

Puoi importare gli eventi utente in linea includendo i dati relativi agli eventi nella chiamata al metodo userEvents.import.

Il modo più semplice per farlo è inserire i dati sugli eventi utente in un file JSON e fornire il file a cURL.

Per i formati dei tipi di eventi utente, consulta Informazioni sugli eventi utente.

curl

  1. Crea il file JSON:

    {
      "inputConfig": {
        "userEventInlineSource": {
          "userEvents": [
            {
              <userEvent1>>
            },
            {
              <userEvent2>
            },
            ....
          ]
        }
      }
    }
    
  2. Chiama il metodo POST:

    curl -X POST \
         -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \
         -H "Content-Type: application/json; charset=utf-8" \
         --data @./data.json \
      "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import"
    

Java

public static String importUserEventsFromInlineSource(
    List<UserEvent> userEventsToImport)
    throws IOException, InterruptedException, ExecutionException {
  UserEventServiceClient userEventsClient = getUserEventServiceClient();

  UserEventInlineSource inlineSource = UserEventInlineSource.newBuilder()
      .addAllUserEvents(userEventsToImport)
      .build();

  UserEventInputConfig inputConfig = UserEventInputConfig.newBuilder()
      .setUserEventInlineSource(inlineSource)
      .build();

  ImportUserEventsRequest importRequest = ImportUserEventsRequest.newBuilder()
      .setParent(DEFAULT_CATALOG_NAME)
      .setInputConfig(inputConfig)
      .build();

  String operationName = userEventsClient
      .importUserEventsAsync(importRequest).getName();

  userEventsClient.shutdownNow();
  userEventsClient.awaitTermination(2, TimeUnit.SECONDS);

  return operationName;
}

Dati storici del catalogo

Puoi anche importare i dati storici del catalogo visualizzati negli eventi dell'utente storici. Questi dati storici del catalogo possono essere utili perché le informazioni sui prodotti passati possono essere utilizzate per arricchire gli eventi utente, il che può migliorare l'accuratezza del modello.

Per maggiori dettagli, vedi Importare i dati storici del catalogo.

Visualizzare gli eventi importati

Visualizza le metriche di integrazione degli eventi nella scheda Eventi della pagina Dati della console Ricerca per la vendita al dettaglio. Questa pagina mostra tutti gli eventi scritti o importati nell'ultimo anno. Potrebbero essere necessarie fino a 24 ore prima che le metriche vengano visualizzate dopo l'importazione dati.

Vai alla pagina Dati

Passaggi successivi