Importa eventos históricos de usuarios

En esta página, se describe cómo importar datos de eventos de usuario de forma masiva desde eventos anteriores. Los modelos de Vertex AI Search for Retail requieren datos de eventos del usuario para el entrenamiento.

Después de configurar el registro de eventos en tiempo real, puede tomar bastante tiempo en registrar suficientes datos de eventos de usuario para entrenar los modelos. Puedes acelerar el entrenamiento inicial de los modelos mediante la importación masiva de datos de eventos de usuario de eventos pasados. Antes de hacerlo, revisa las prácticas recomendadas para registrar eventos de usuario y la sección Antes de comenzar de esta página.

Los procedimientos de importación de esta página se aplican a ambas recomendaciones y buscar. Después de importar los datos, ambos servicios pueden usar esos eventos, por lo que no necesitas importar dos veces si usas ambos servicios.

Puedes hacer lo siguiente:

Instructivo para importar eventos de Cloud Storage

En este instructivo, se muestra cómo importar eventos de usuario desde Cloud Storage.


Para seguir la guía paso a paso sobre esta tarea directamente en el editor de Cloud Shell, haz clic en Guiarme:

GUIARME


Instructivo para importar eventos de BigQuery

En este instructivo, se muestra cómo importar eventos de usuario desde BigQuery.


Para seguir la guía paso a paso sobre esta tarea directamente en el editor de Cloud Shell, haz clic en Guiarme:

GUIARME


Instructivo para importar eventos intercalados

En este instructivo, se muestra cómo importar datos de eventos de usuario intercalados.


Para seguir la guía paso a paso sobre esta tarea directamente en el editor de Cloud Shell, haz clic en Guiarme:

GUIARME


Antes de comenzar

Para evitar errores de importación y garantizar que haya datos suficientes para generar buenos resultados, revisa la siguiente información antes de importar tu eventos de usuario.

Consideraciones sobre la importación de eventos

En esta sección, se describen los métodos que se pueden usar para importar por lotes tus eventos de usuario históricos, cuándo puedes usar cada método y algunas de sus limitaciones.

Cloud Storage Descripción Importa datos en formato JSON desde archivos cargados en un bucket de Cloud Storage Cada archivo debe ser de 2 GB o menos, y se pueden importar hasta 100 archivos a la vez. La importación se puede realizar con la consola de Google Cloud o cURL. Usa el formato de datos JSON Product, que permite atributos personalizados.
Cuándo usarla Si necesitas que se carguen grandes volúmenes de datos en un solo paso.
Limitaciones Si tus datos están en Google Analytics o Merchant Center, estos solo se pueden exportar a BigQuery y se requiere el paso adicional de importarlos a Cloud Storage.
BigQuery Descripción Importa datos de una tabla de BigQuery cargada con anterioridad que usa el esquema de búsqueda de Vertex AI para venta minorista. Se puede realizar con la consola de Google Cloud o cURL.
Cuándo usarla Si también usas datos de eventos de estadísticas o procesamiento previo antes de importarlos.
Limitaciones Requiere el paso adicional de crear una tabla de BigQuery que se asigna al esquema de Vertex AI Search for Retail. Si tienes un gran volumen de eventos de usuario, también considera que BigQuery es un recurso de mayor costo que Cloud Storage.
BigQuery con Analytics 360 Descripción Importa datos preexistentes de Analytics 360 a Vertex AI Search para venta minorista.
Cuándo usarla Si tienes Analytics 360 y haces un seguimiento de las conversiones de recomendaciones o búsquedas. No se requiere la asignación de esquemas adicionales.
Limitaciones Solo hay un subconjunto de atributos disponible, así que algunos atributos No se pueden usar las funciones de Vertex AI Search for Retail. Seguimiento de impresiones en Se requiere Google Analytics si tienes pensado usar búsqueda.
BigQuery con Google Analytics 4 Descripción Importa datos preexistentes de Google Analytics 4 a Vertex AI Search para venta minorista.
Cuándo usarla Si tienes Google Analytics 4 y haces un seguimiento de las conversiones de recomendaciones o búsquedas. No se requiere la asignación de esquemas adicionales.
Limitaciones Solo hay un subconjunto de atributos disponible, por lo que no se pueden usar algunas funciones avanzadas de Vertex AI Search para venta minorista. Si quieres usar la búsqueda, debes configurar los eventos pares clave-valor de parámetros para el seguimiento; la clave recomendada es search_query
Importación intercalada Descripción Importación mediante una llamada al método userEvents.import.
Cuándo usarla Si deseas la privacidad adicional de que todas las autenticaciones se produzcan en el backend y poder realizar una importación de backend.
Limitaciones Por lo general, es más complicado que una importación web.

Importa eventos de usuario desde Cloud Storage

Importa eventos de usuario desde Cloud Storage con la consola de Google Cloud o el método userEvents.import.

Console

  1. Ve a la página Datos> en la consola de Search for Retail.

    Ir a la página Datos
  2. Haz clic en Importar para abrir el panel Importar datos.
  3. Elige Eventos de usuario.
  4. Selecciona Google Cloud Storage como la fuente de datos.
  5. Elige Retail User Events Schema como esquema.
  6. Ingresa la ubicación de Cloud Storage de tus datos.
  7. Haga clic en Import.

cURL

Usa el método userEvents.import para importar tus eventos de usuario.

  1. Crea un archivo de datos para los parámetros de entrada de la importación. Usa el objeto GcsSource para que apunte a tu bucket de Cloud Storage.

    Puedes proporcionar varios archivos o solo uno.

    • INPUT_FILE: Son los archivos en Cloud Storage que contienen los datos de eventos de tu usuario. Consulta Acerca de los eventos de usuario para ver ejemplos de cada formato de tipo de evento de usuario. Asegúrate de que cada evento de usuario esté en su propia línea única, sin saltos de línea.
    • ERROR_DIRECTORY: Un directorio de Cloud Storage para obtener información sobre los errores de la importación

    Los campos de archivo de entrada deben tener el formato gs://<bucket>/<path-to-file>/. El directorio de errores debe tener el formato gs://<bucket>/<folder>/. Si el directorio de errores no existe, Vertex AI Search for Retail lo crea. El bucket ya debe existir.

    {
    "inputConfig":{
     "gcsSource": {
       "inputUris": ["INPUT_FILE_1", "INPUT_FILE_2"],
      },
      "errorsConfig":{"gcsPrefix":"ERROR_DIRECTORY"}
    }
  2. Importa la información de tu catálogo mediante realiza una solicitud POST a la REST userEvents:import proporcionando el nombre del archivo de datos.

    export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
    
    curl -X POST \
         -v \
         -H "Content-Type: application/json; charset=utf-8" \
         -H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \
         --data @./DATA_FILE.json \
      "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import"
      }
    }'

Importa eventos de usuario desde BigQuery

Importa eventos de usuario desde BigQuery mediante la consola de Google Cloud o el método userEvents.import.

Configura el acceso a BigQuery

Sigue las instrucciones en Configura el acceso a tu conjunto de datos de BigQuery para darle a tu cuenta de servicio de Búsqueda de Vertex AI para venta minorista un rol de propietario de datos de BigQuery para tu conjunto de datos de BigQuery.

Importa tus eventos de usuario desde BigQuery

Puedes importar eventos de 360 con la consola de Search for Retail o el método userEvents.import.

Console

  1. Dirígete a Datos > en la consola de Search for Retail.

    Ir a la página Datos
  2. Haz clic en Importar para abrir el panel Importar datos.
  3. Elige Eventos de usuario.
  4. Selecciona BigQuery como la fuente de datos.
  5. Selecciona el esquema de datos.

  6. Ingresa la tabla de BigQuery donde se encuentran tus datos.
  7. Opcional: Ingresa la ubicación de un bucket de Cloud Storage en tu proyecto como ubicación temporal para tus datos.
    Si no se especifica, se usará la ubicación predeterminada que se usan. Si se especifica, el bucket de BigQuery y Cloud Storage deben estar en la misma región.
  8. Opcional: En Mostrar opciones avanzadas, ingresa la ubicación de una bucket de Cloud Storage en tu proyecto como una ubicación temporal para tus datos.

    Si no se especifica, se usa una ubicación predeterminada. Si se especifica, el bucket de BigQuery y Cloud Storage deben estar en la misma región.
  9. Haga clic en Import.

curl

Para importar los eventos de usuario, incluye los datos de los eventos en tu llamada. al método userEvents.import. Consulta la Referencia de la API de userEvents.import.

El valor que especifiques para dataSchema depende de lo que importes:

export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json

curl \
-v \
-X POST \
-H "Content-Type: application/json; charset=utf-8" \
-H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \
"https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import" \
--data '{
  "inputConfig": {
    "bigQuerySource": {
      "datasetId": "DATASET_ID",
      "tableId": "TABLE_ID",
      "dataSchema": "SCHEMA_TYPE"
  }
}
}'

Importa eventos de usuario de Analytics 360 con BigQuery

Puedes importar eventos de usuario de Analytics 360 si tienes lo siguiente: integrado Analytics 360 con BigQuery y usan Comercio electrónico mejorado.

En los siguientes procedimientos, se supone que estás familiarizado con el uso BigQuery y Analytics 360.

Antes de comenzar

Antes de comenzar con los próximos pasos, asegúrate de lo siguiente:

Verifica tu fuente de datos

  1. Asegúrate de que los datos de eventos del usuario que importarás tengan el formato correcto en una tabla de BigQuery a la que tengas acceso.

    Asegúrate de que la tabla tenga el nombre project_id:ga360_export_dataset.ga_sessions_YYYYMMDD

    Consulta la documentación de Google Analytics para obtener más información el formato y la denominación de la tabla.

  2. En la Consola de Google Cloud de BigQuery, selecciona la tabla del panel Explorador para obtener una vista previa de ella.

    Verifica lo siguiente:

    1. La columna clientId tiene un valor válido, por ejemplo, 123456789.123456789

      Ten en cuenta que este valor es diferente del valor completo de la cookie _ga (que tiene un formato como GA1.3.123456789.123456789).

    2. La columna hits.transaction.currencyCode tiene un código de moneda válido.

    3. Si planeas importar eventos search, verifica que haya una columna hits.page.searchKeyword o hits.customVariable.searchQuery.

      Se admite la importación de eventos search, pero no se asignan desde Analytics 360 de la misma manera que otros tipos de eventos, ya que Analytics 360 no admite de forma nativa el tipo de evento search. Durante la importación, se construyen search eventos de Analytics 360 combinando información de los de búsqueda y, si está presente, las impresiones del producto.

      La búsqueda se deriva de hits.page.searchKeyword, o de hits.customVariables.customVarValue si hits.customVariables.customVarName es searchQuery. La impresión del producto se toma de hits.product si hits.product.isImpressions es TRUE.

  3. Comprueba la coherencia de los ID de elementos entre el catálogo subido y la tabla de eventos del usuario de Analytics 360.

    Con cualquier ID de producto de la columna hits.product.productSKU en la vista previa de la tabla de BigQuery, usa el método product.get para asegurarte de que el mismo producto esté en tu catálogo subido.

    export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
    
       curl \
         -v \
         -X GET \
         -H "Content-Type: application/json; charset=utf-8" \
         -H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \
         "https://retail.googleapis.com/v2/projects/PROJECT_NUMBER/locations/global/catalogs/default_catalog/branches/default_branch/products/PRODUCT_ID"

Importe sus eventos de Analytics 360

Puedes importar eventos de Google Analytics 360 con el Busca en la consola de venta minorista o en el método userEvents.import.

Console

  1. Ve a la página Datos> en la consola de Search for Retail.

    Ir a la página Datos
  2. Haz clic en Importar para abrir el panel Importar datos.
  3. Elige Eventos de usuario.
  4. Selecciona BigQuery como la fuente de datos.
  5. Selecciona el esquema de datos.

  6. Ingresa la tabla de BigQuery donde se encuentran tus datos.
  7. Opcional: Ingresa la ubicación de un bucket de Cloud Storage en tu proyecto como ubicación temporal para tus datos.
    Si no se especifica, se usará la ubicación predeterminada que se usan. Si se especifica, el bucket de BigQuery y Cloud Storage deben estar en la misma región.
  8. Opcional: En Mostrar opciones avanzadas, ingresa la ubicación de una bucket de Cloud Storage en tu proyecto como una ubicación temporal para tus datos.

    Si no se especifica, se usa una ubicación predeterminada. Si se especifica, el bucket de BigQuery y Cloud Storage deben estar en la misma región.
  9. Haga clic en Import.

REST

Importa tus eventos de usuario mediante la inclusión de los datos de los eventos en tu llamada al método userEvents.import.

Para dataSchema, usa el valor user_event_ga360.

export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
curl \\
  -v \\
  -X POST \\
  -H "Content-Type: application/json; charset=utf-8" \\
  -H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \\
  "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import" \\
  --data '{
    "inputConfig": {
      "bigQuerySource": {
        "datasetId": "some_ga360_export_dataset",
        "tableId": "ga_sessions_YYYYMMDD",
        "dataSchema": "user_event_ga360"
    }
  }
}'

Java

public static String importUserEventsFromBigQuerySource()
    throws IOException, InterruptedException, ExecutionException {
  UserEventServiceClient userEventsClient = getUserEventServiceClient();

  BigQuerySource bigQuerySource = BigQuerySource.newBuilder()
      .setProjectId(PROJECT_ID)
      .setDatasetId(DATASET_ID)
      .setTableId(TABLE_ID)
      .setDataSchema("user_event")
      .build();

  UserEventInputConfig inputConfig = UserEventInputConfig.newBuilder()
      .setBigQuerySource(bigQuerySource)
      .build();

  ImportUserEventsRequest importRequest = ImportUserEventsRequest.newBuilder()
      .setParent(DEFAULT_CATALOG_NAME)
      .setInputConfig(inputConfig)
      .build();

  String operationName = userEventsClient
      .importUserEventsAsync(importRequest).getName();

  userEventsClient.shutdownNow();
  userEventsClient.awaitTermination(2, TimeUnit.SECONDS);

  return operationName;
}

Importa tus vistas de la página principal de Analytics 360 con BigQuery

En Analytics 360, los eventos de vista de la página principal para distinguirlos de otros eventos de vista de página. Esto significa que los eventos de vista de la página principal No se importan como eventos con los otros tipos de eventos (como vista de la página de detalles). Consulta Cómo importar tus eventos de Analytics 360.

El siguiente procedimiento explica cómo puedes extraer eventos de vista de página principal de tus datos de Analytics 360 y, luego, importarlos Vertex AI Search para venta minorista. En resumen, esto se hace extrayendo las claves vistas de la casa (identificada por la ruta de la página principal) en una tabla de BigQuery nueva y, luego, importarás los datos de esa tabla nueva a Vertex AI Search for Retail.

Para importar eventos de vista de página principal de Analytics 360 a Vertex AI Search para venta minorista:

  1. Crea un conjunto de datos de BigQuery o asegúrate de tener Conjunto de datos de BigQuery disponible al que puedes agregar una tabla.

    Este conjunto de datos puede estar en tu proyecto de Vertex AI Search for Retail o en el proyecto en el que sus datos de Analytics 360. Es el conjunto de datos objetivo en el que copiarás los eventos de vista de la página principal de Analytics 360.

  2. Crea una tabla de BigQuery en el conjunto de datos de la siguiente manera:

    1. Reemplaza las variables en el siguiente código SQL como se indica a continuación.

      • target_project_id: Es el proyecto en el que se encuentra el conjunto de datos del paso 1. ubicado.

      • target_dataset: Es el nombre del conjunto de datos del paso 1.

      CREATE TABLE TARGET_PROJECT_ID.TARGET_DATASET.ga_homepage (
       eventType STRING NOT NULL,
       visitorId STRING NOT NULL,
       userId STRING,
       eventTime STRING NOT NULL
      );
    2. Copia la muestra de código de SQL.

    3. Abre la página BigQuery en la consola de Google Cloud.

      Ir a la página de BigQuery

    4. Si aún no lo hiciste, selecciona el proyecto de destino.

    5. En el panel Editor, pega la muestra de código de SQL.

    6. Haz clic en Ejecutar y espera a que la consulta termine de ejecutarse.

    Cuando se ejecuta este código, se crea una tabla en el formato target_project_id:target_dataset.ga_homepage_YYYYMMDD, por ejemplo, my-project:view_events.ga_homepage_20230115

  3. Copia los eventos de vista de la página principal de Analytics 360 desde tu de datos de Analytics 360 en la tabla creada en el el paso 2 anterior.

    1. Reemplaza las variables en el siguiente código de ejemplo de SQL de la siguiente manera:

      • source_project_id: Es el ID del proyecto que contiene los datos de Analytics 360 en una tabla de BigQuery.

      • source_dataset: Es el conjunto de datos en el proyecto de origen que contiene los datos de Analytics 360 en un en la tabla de BigQuery.

      • source_table: Es la tabla del proyecto de origen que contiene los datos de Analytics 360.

      • target_project_id: Es el mismo ID del proyecto de destino que en las el paso 2 anterior.

      • target_dataset: Es el mismo conjunto de datos de destino que en el ejemplo anterior. Paso 2:

      • path: Es la ruta de acceso a la página principal. Por lo general, es / durante por ejemplo, si la página principal es example.com/. Sin embargo, si la página principal es como examplepetstore.com/index.html, la ruta es /index.html.

      INSERT INTO `TARGET_PROJECT_ID.TARGET_DATASET.ga_homepage(eventType,visitorId,userID,eventTime)`
      
      SELECT
        "home-page-view" as eventType,
        clientId as visitorId,
        userId,
        CAST(FORMAT_TIMESTAMP("%Y-%m-%dT%H:%M:%SZ",TIMESTAMP_SECONDS(visitStartTime)) as STRING) AS eventTime
      
      FROM
        `SOURCE_PROJECT_ID.SOURCE_DATASET.SOURCE_TABLE`, UNNEST(hits) as hits
      
      WHERE hits.page.pagePath = "PATH" AND visitorId is NOT NULL;
    2. Copia la muestra de código de SQL.

    3. Abre la página BigQuery en la consola de Google Cloud.

      Ir a la página de BigQuery

    4. Si aún no está seleccionado, elige el proyecto de destino.

    5. En el panel Editor, pega la muestra de código de SQL.

    6. Haz clic en Ejecutar y espera a que la consulta termine de ejecutarse.

  4. Sigue las instrucciones que se indican en Importa eventos de usuario desde BigQuery para importar los eventos de vista de página principal de la tabla de destino. Durante la selección del esquema, si si importas con la consola, selecciona Esquema de eventos de usuario de venta minorista si importas con userEvents.import, especifica user_event para el valor dataSchema.

  5. Borra la tabla y el conjunto de datos que creaste en los pasos 1 y 2.

Importa eventos de usuario de Google Analytics 4 con BigQuery

Puedes importar eventos de usuario de Google Analytics 4 si tienes lo siguiente: integramos Google Analytics 4 con BigQuery y usamos Comercio electrónico de Google Analytics.

En los siguientes procedimientos, se da por sentado que estás familiarizado con el uso de BigQuery y Google Analytics 4.

Antes de comenzar

Antes de comenzar con los próximos pasos, asegúrate de lo siguiente:

Verifica tu fuente de datos

A fin de asegurarte de que tus datos de eventos de usuario estén preparados para la importación, sigue estos pasos: pasos.

Para una tabla de campos de Google Analytics 4 que Vertex AI Search for Retail usa y a qué campos de Vertex AI Search for Retail se asignan, Consulta Campos de eventos de usuario de Google Analytics 4.

Para ver todos los parámetros de eventos de Google Analytics, consulta la documentación de referencia de los eventos de Google Analytics.

  1. Asegúrate de que los datos de eventos del usuario que importarás tengan el formato correcto en una tabla de BigQuery a la que tengas acceso.

    • El conjunto de datos debe llamarse analytics_PROPERTY_ID.
    • La tabla debe llamarse events_YYYYMMDD.

    Para obtener información sobre los nombres y el formato de las tablas, consulta la Documentación de Google Analytics

  2. En la Consola de Google Cloud de BigQuery, selecciona el conjunto de datos del panel Explorador y busca la tabla de usuarios eventos que planeas importar.

    Verifica lo siguiente:

    1. La columna event_params.key tiene una clave currency y que está asociada string es un código de moneda válido.

    2. Si planeas importar eventos search, verifica que la columna event.event_params.key tenga una clave search_term y un valor asociado.

      Se admite la importación de eventos de search, pero los eventos de search no se asignan de Google Analytics 4, de la misma manera que lo hacen otros tipos de eventos porque Google Analytics 4 no admite de forma nativa Tipo de evento search de Vertex AI Search for Retail. Durante la importación, Los eventos search se construyen a partir de Google Analytics 4 combinando información de la view_item_list y el parámetro search_term.

      Para obtener información sobre search en Google Analytics 4, consulta search en la documentación de Google Analytics.

  3. Verifica la coherencia de los IDs de artículo entre el catálogo subido y la Tabla de eventos de usuarios de Google Analytics 4.

    Para asegurarte de que un producto de la tabla de usuarios de Google Analytics 4 sea del catálogo que subiste, copia el ID del producto del Columna event.items.item_id en la vista previa de la tabla de BigQuery y usa el método product.get para verificar si ese ID del producto se encuentra en el catálogo que subiste.

    export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
    
       curl \
         -v \
         -X GET \
         -H "Content-Type: application/json; charset=utf-8" \
         -H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \
         "https://retail.googleapis.com/v2/projects/PROJECT_NUMBER/locations/global/catalogs/default_catalog/branches/default_branch/products/PRODUCT_ID"

Configura el acceso a BigQuery

Sigue las instrucciones que se indican en Configurar el acceso al conjunto de datos de BigQuery para darle a tu Un rol de propietario de datos de BigQuery para la cuenta de servicio de Vertex AI Search for Retail conjunto de datos de BigQuery.

Importa tus eventos de Google Analytics 4

Puedes importar eventos de Google Analytics 4 con el Busca en la consola de venta minorista o en el método userEvents.import.

Importa eventos de Google Analytics 4 con la consola

  1. Dirígete a Datos > en la consola de Search for Retail.

    Ir a la página Datos
  2. Haz clic en Importar para abrir el panel Importar datos.
  3. Elige Eventos de usuario.
  4. Selecciona BigQuery como la fuente de datos.
  5. Selecciona el esquema de datos.

  6. Ingresa la tabla de BigQuery donde se encuentran tus datos.
  7. Opcional: Ingresa la ubicación de un bucket de Cloud Storage en tu proyecto como ubicación temporal para tus datos.
    Si no se especifica, se usará la ubicación predeterminada que se usan. Si se especifica, el bucket de BigQuery y Cloud Storage deben estar en la misma región.
  8. Opcional: En Mostrar opciones avanzadas, ingresa la ubicación de una bucket de Cloud Storage en tu proyecto como una ubicación temporal para tus datos.

    Si no se especifica, se usa una ubicación predeterminada. Si se especifica, el bucket de BigQuery y Cloud Storage deben estar en la misma región.
  9. Haga clic en Import.

Importa eventos de Google Analytics 4 con la API

Importa tus eventos de usuario mediante la inclusión de los datos de los eventos en tu llamada al método userEvents.import. Consulta la referencia de la API de userEvents.import.

Para dataSchema, usa el valor user_event_ga4.

export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
curl \\
  -v \\
  -X POST \\
  -H "Content-Type: application/json; charset=utf-8" \\
  -H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \\
  "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import" \\
  --data '{
    "inputConfig": {
      "bigQuerySource": {
        "projectId": "PROJECT_ID",
        "datasetId": "DATASET_ID",
        "tableId": "TABLE_ID",
        "dataSchema": "user_event_ga4"
    }
  }
}'

Importa eventos de usuario de forma intercalada

Para importar eventos de usuario intercalados, incluye los datos de los eventos en tu llamada al método userEvents.import.

La manera más sencilla de hacerlo es colocar los datos de eventos de usuario en un archivo JSON y proporcionar el archivo a cURL.

Para conocer los formatos de los tipos de eventos del usuario, consulta Acerca de los eventos del usuario.

curl

  1. Crea el archivo JSON:

    {
      "inputConfig": {
        "userEventInlineSource": {
          "userEvents": [
            {
              <userEvent1>>
            },
            {
              <userEvent2>
            },
            ....
          ]
        }
      }
    }
    
  2. Llama al método POST:

    curl -X POST \
         -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \
         -H "Content-Type: application/json; charset=utf-8" \
         --data @./data.json \
      "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import"
    

Java

public static String importUserEventsFromInlineSource(
    List<UserEvent> userEventsToImport)
    throws IOException, InterruptedException, ExecutionException {
  UserEventServiceClient userEventsClient = getUserEventServiceClient();

  UserEventInlineSource inlineSource = UserEventInlineSource.newBuilder()
      .addAllUserEvents(userEventsToImport)
      .build();

  UserEventInputConfig inputConfig = UserEventInputConfig.newBuilder()
      .setUserEventInlineSource(inlineSource)
      .build();

  ImportUserEventsRequest importRequest = ImportUserEventsRequest.newBuilder()
      .setParent(DEFAULT_CATALOG_NAME)
      .setInputConfig(inputConfig)
      .build();

  String operationName = userEventsClient
      .importUserEventsAsync(importRequest).getName();

  userEventsClient.shutdownNow();
  userEventsClient.awaitTermination(2, TimeUnit.SECONDS);

  return operationName;
}

Datos históricos de catálogos

También puedes importar los datos históricos del catálogo que aparecen en tus eventos de usuario históricos. Estos datos históricos del catálogo pueden ser útiles la información de productos anteriores se puede usar para enriquecer de eventos de usuario, lo que puede mejorar la exactitud del modelo.

Para obtener más detalles, consulta Importa datos del catálogo histórico.

Cómo ver los eventos importados

Consulta las métricas de integración de eventos en la pestaña Eventos de la consola de Search for Retail Datos. En esta página, se muestran todos los eventos que se escribieron o importaron en el último año. Las métricas pueden ocupar hasta 24 horas en aparecer luego de una transferencia de datos exitosa.

Ir a la página Datos

¿Qué sigue?