Cette page explique comment importer des données d'événements utilisateur passés de façon groupée. Les modèles Vertex AI Search pour le commerce nécessitent des données d'événement utilisateur pour l'entraînement.
Une fois que vous avez configuré l'enregistrement des événements en temps réel, l'enregistrement des données d'événements utilisateur nécessaires à l'entraînement de vos modèles peut prendre un temps considérable. Vous pouvez accélérer l'entraînement initial du modèle en important de façon groupée les données d'événements utilisateur passés. Avant cela, consultez les bonnes pratiques pour enregistrer des événements utilisateur et la section Avant de commencer de la présente page.
Les procédures d'importation décrites sur cette page s'appliquent à la fois aux recommandations et à la recherche. Une fois que vous avez importé des données, les deux services peuvent utiliser ces événements. Vous n'avez donc pas besoin d'importer les mêmes données deux fois si vous utilisez les deux services.
Vous pouvez :
- Importer des événements à partir de Cloud Storage.
- Importer des événements à partir de BigQuery.
- Importer des événements Google Analytics 360 à partir de BigQuery.
- Importer des événements Google Analytics 4 à partir de BigQuery
- Importer des événements de manière intégrée avec la méthode
userEvents.import
.
Importer des événements depuis Cloud Storage
Ce tutoriel explique comment importer des événements utilisateur depuis Cloud Storage.
Pour obtenir des instructions détaillées sur cette tâche directement dans l'éditeur Cloud Shell, cliquez sur Visite guidée :
Tutoriel Importer des événements depuis BigQuery
Ce tutoriel explique comment importer des événements utilisateur depuis BigQuery.
Pour obtenir des instructions détaillées sur cette tâche directement dans l'éditeur Cloud Shell, cliquez sur Visite guidée :
Tutoriel Importer des événements de manière intégrée
Ce tutoriel explique comment importer des données d'événements utilisateur de manière intégrée.
Pour obtenir des instructions détaillées sur cette tâche directement dans l'éditeur Cloud Shell, cliquez sur Visite guidée :
Avant de commencer
Pour éviter les erreurs d'importation et vous assurer qu'il y a suffisamment de données pour générer de bons résultats, consultez les informations suivantes avant d'importer vos événements utilisateur.
Passez en revue les bonnes pratiques pour l'enregistrement des événements utilisateur.
La mise en forme des événements utilisateur varie en fonction du type d'événement utilisateur. Consultez la section Types d'événements utilisateur et exemple de schéma pour connaître le format à spécifier lors de la création de tables pour chaque type d'événement.
Les exigences minimales relatives aux données pour les recommandations et la recherche sont différentes. Assurez-vous que vos événements utilisateur répondent aux exigences du service que vous prévoyez d'utiliser :
Consultez la section Exigences et bonnes pratiques concernant les événements utilisateur pour connaître les exigences applicables à la recherche et aux recommandations.
Si vous utilisez des modèles de recommandation, consultez également la section Exigences relatives aux données des événements utilisateur, qui répertorie les exigences supplémentaires en fonction du type de modèle de recommandation et de l'objectif d'optimisation que vous prévoyez d'utiliser.
Remarques concernant l'importation d'événements
Cette section décrit les méthodes pouvant être utilisées pour l'importation par lot de votre historique d'événements utilisateur, les cas de figure dans lesquels vous pouvez les utiliser et certaines de leurs limitations.
Cloud Storage | Description |
Importer des données au format JSON à partir de fichiers chargés dans un bucket Cloud Storage. Chaque fichier doit avoir une taille inférieure ou égale à 2 Go, et vous pouvez importer jusqu'à 100 fichiers à la fois. L'importation peut être effectuée à l'aide de la console Google Cloud ou de cURL. Utilise le format de données JSON Product , qui permet d'utiliser des attributs personnalisés.
|
---|---|---|
Contexte d'utilisation | Si vous avez besoin de charger des volumes de données importants en une seule étape. | |
Limites | Si vos données se trouvent dans Google Analytics ou Merchant Center, elles ne peuvent être exportées que vers BigQuery et nécessitent donc une étape supplémentaire d'importation vers Cloud Storage. | |
BigQuery | Description | Importer des données à partir d'une table BigQuery précédemment chargée qui utilise le schéma Vertex AI Search for retail. Peut être effectué à l'aide de la console Google Cloud ou de cURL. |
Contexte d'utilisation | Si vous appliquez également des fonctions analytiques ou un prétraitement des données d'événement avant l'importation. | |
Limites | Nécessite l'étape supplémentaire de la création d'une table BigQuery mappée sur le schéma Retail de Vertex AI Search. Si vous avez un volume élevé d'événements utilisateur, pensez également que BigQuery est une ressource moins coûteuse que Cloud Storage. | |
BigQuery avec Analytics 360 | Description | Importer des données préexistantes depuis Analytics 360 vers Vertex AI Search pour le commerce |
Contexte d'utilisation | Si vous utilisez Analytics 360 et que vous assurez le suivi des conversions pour les recommandations ou les recherches. Aucun mappage de schéma supplémentaire n'est requis. | |
Limites | Seul un sous-ensemble d'attributs est disponible. Par conséquent, certaines fonctionnalités avancées de Vertex AI Search pour le commerce ne peuvent pas être utilisées. Le suivi des impressions dans Google Analytics est requis si vous prévoyez d'utiliser la recherche. | |
BigQuery avec Google Analytics 4 | Description | Importer des données préexistantes depuis Google Analytics 4 vers Vertex AI Search pour le commerce |
Contexte d'utilisation | Si vous utilisez Google Analytics 4 et que vous assurez le suivi des conversions pour les recommandations ou les recherches. Aucun mappage de schéma supplémentaire n'est requis. | |
Limites |
Seul un sous-ensemble d'attributs est disponible. Par conséquent, certaines fonctionnalités avancées de Vertex AI Search pour le commerce ne peuvent pas être utilisées.
Si vous prévoyez d'utiliser la recherche, vous devez configurer des paires clé-valeur pour le suivi des paramètres d'événement. La clé recommandée est search_query .
|
|
Importation intégrée | Description |
Importer à l'aide d'un appel à la méthode userEvents.import
|
Contexte d'utilisation | Si vous souhaitez améliorer la confidentialité de l'ensemble des processus d'authentification sur le backend et être en mesure d'effectuer une importation backend. | |
Limites | Généralement plus complexe qu'une importation Web. |
Importer des événements utilisateur depuis Cloud Storage
Importez des événements utilisateur à partir de Cloud Storage en utilisant la console Google Cloud ou la méthode userEvents.import
.
Console
-
Accédez à la page Données> dans la console de la recherche pour le commerce.
Accéder à la page "Données" - Cliquez sur Importer pour ouvrir le panneau Importer les données.
- Sélectionnez Événements utilisateur.
- Sélectionnez Google Cloud Storage comme source de données.
- Sélectionnez Schéma Retail pour les événements utilisateur comme schéma.
- Saisissez l'emplacement Cloud Storage de vos données.
- Cliquez sur Importer.
cURL
Utilisez la méthode userEvents.import
pour importer vos événements utilisateur.
Créez un fichier de données pour les paramètres d'entrée de l'importation. Utilisez l'objet
GcsSource
pour pointer vers votre bucket Cloud Storage.Vous pouvez fournir plusieurs fichiers ou un seul.
- INPUT_FILE : un ou plusieurs fichiers Cloud Storage contenant vos données d'événements utilisateur. Pour obtenir des exemples de chaque type d'événement utilisateur, consultez la section À propos des événements utilisateur. Assurez-vous que chaque événement utilisateur figure sur une ligne unique, sans saut de ligne.
- ERROR_DIRECTORY : répertoire Cloud Storage contenant des informations sur les erreurs d'importation.
Les champs du fichier d'entrée doivent être au format
gs://<bucket>/<path-to-file>/
. Le répertoire d'erreur doit être au formatgs://<bucket>/<folder>/
. Si le répertoire d'erreur n'existe pas, Vertex AI Search pour le commerce le crée. Le bucket doit déjà exister.{ "inputConfig":{ "gcsSource": { "inputUris": ["INPUT_FILE_1", "INPUT_FILE_2"], }, "errorsConfig":{"gcsPrefix":"ERROR_DIRECTORY"} }
Importez vos informations de catalogue en envoyant une requête
POST
à la méthode RESTuserEvents:import
, en fournissant le nom du fichier de données.export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json curl -X POST \ -v \ -H "Content-Type: application/json; charset=utf-8" \ -H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \ --data @./DATA_FILE.json \ "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import" } }'
Importer des événements utilisateur depuis BigQuery
Importez des événements utilisateur à partir de BigQuery en utilisant la console Google Cloud ou la méthode userEvents.import
.
Configurer l'accès à BigQuery
Suivez les instructions de la section Configurer l'accès à votre ensemble de données BigQuery pour attribuer à votre compte de service Vertex AI Search for retail le rôle Propriétaire de données BigQuery pour votre ensemble de données BigQuery.
Importer vos événements utilisateur depuis BigQuery
Vous pouvez importer des événements 360 à l'aide de la console Search for Retail ou de la méthode userEvents.import
.
Console
-
Accédez à la page Données> dans la console de la recherche pour le commerce.
Accéder à la page "Données" - Cliquez sur Importer pour ouvrir le panneau Importer les données.
- Sélectionnez Événements utilisateur.
- Sélectionnez BigQuery comme source de données.
-
Sélectionnez le schéma de données.
- Google Analytics 4: à utiliser pour les événements Google Analytics 4.
- Google Analytics 360: à utiliser pour les événements Google Analytics 360, sauf si vous importez uniquement des événements "vues de la page d'accueil" à partir de Google Analytics 360 (dans ce cas, utilisez le schéma des événements utilisateur dans le commerce).
- Schéma des événements utilisateur dans le commerce: utilisez-le pour importer des événements à partir d'autres sources que Google Analytics et pour importer uniquement des événements de vue de la page d'accueil à partir de Google Analytics 360.
- Renseignez la table BigQuery dans laquelle se trouvent vos données.
- Facultatif: saisissez l'emplacement d'un bucket Cloud Storage de votre projet en tant qu'emplacement temporaire pour vos données.
Si cet emplacement n'est pas spécifié, un emplacement par défaut est utilisé. Si vous spécifiez un emplacement, BigQuery et le bucket Cloud Storage doivent se trouver dans la même région. - Facultatif: Sous Afficher les options avancées, saisissez l'emplacement d'un bucket Cloud Storage de votre projet en tant qu'emplacement temporaire pour vos données.
Si aucun emplacement n'est spécifié, un emplacement par défaut est utilisé. Si vous spécifiez un emplacement, BigQuery et le bucket Cloud Storage doivent se trouver dans la même région. - Cliquez sur Importer.
curl
Importez les événements utilisateur en incluant les données des événements dans votre appel à la méthode userEvents.import
. Consultez la documentation de référence de l'API userEvents.import
.
La valeur que vous spécifiez pour dataSchema
dépend de ce que vous importez:
user_event_ga4
: à utiliser pour les événements Google Analytics 4.user_event_ga360
: à utiliser pour les événements Google Analytics 360, sauf si vous n'importez que des vues de la page d'accueil à partir de Google Analytics 360 (dans ce cas, utilisezuser_event
).user_event
: à utiliser pour importer des événements à partir d'autres sources que Google Analytics et pour importer uniquement des événements "vues de la page d'accueil" à partir de Google Analytics 360.
export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
curl \
-v \
-X POST \
-H "Content-Type: application/json; charset=utf-8" \
-H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \
"https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import" \
--data '{
"inputConfig": {
"bigQuerySource": {
"datasetId": "DATASET_ID",
"tableId": "TABLE_ID",
"dataSchema": "SCHEMA_TYPE"
}
}
}'
Importer des événements utilisateur Analytics 360 avec BigQuery
Vous pouvez importer des événements utilisateur Analytics 360 si vous avez intégré Analytics 360 à BigQuery et que vous utilisez la fonctionnalité d'e-commerce amélioré.
Les procédures suivantes supposent que vous maîtrisez BigQuery et Analytics 360.
Avant de commencer
Avant de commencer les étapes suivantes, assurez-vous que :
- Vous utilisez la fonction d'e-commerce amélioré.
- Vous avez associé BigQuery à Analytics 360.
Vérifier votre source de données
Assurez-vous que les données d'événement utilisateur que vous allez importer sont correctement formatées dans une table BigQuery à laquelle vous avez accès.
Assurez-vous que la table est nommée
project_id:ga360_export_dataset.ga_sessions_YYYYMMDD
.Pour en savoir plus sur le format et le nom des tables, consultez la documentation Google Analytics.
Dans la console Google Cloud pour BigQuery, sélectionnez la table dans le panneau Explorateur pour la prévisualiser.
Vérifiez les points suivants :
La colonne
clientId
possède une valeur valide (par exemple,123456789.123456789
).Notez que cette valeur est différente de la valeur complète du cookie "_ga" (dont le format est similaire à
GA1.3.123456789.123456789
).La colonne
hits.transaction.currencyCode
contient un code de devise valide.Si vous envisagez d'importer des événements
search
, vérifiez qu'une colonnehits.page.searchKeyword
ouhits.customVariable.searchQuery
est présente.Bien que Vertex AI Search for retail nécessite à la fois
searchQuery
etproductDetails
pour renvoyer une liste de résultats de recherche, Analytics 360 ne stocke pas à la fois les requêtes de recherche et les impressions de produits dans un même événement. Pour que Vertex AI Search pour le commerce fonctionne, vous devez créer une balise au niveau de la couche de données ou un pixel JavaScript afin de pouvoir importer les deux types d'événements utilisateur à partir de sources Google Analytics:searchQuery
, qui est lu à partir du paramètresearch_term
ou des événementsview_search_results
, est dérivé dehits.page.searchKeyword
ou dehits.customVariables.customVarValue
sihits.customVariables.customVarName
estsearchQuery
.productDetails
, l'impression produit lue à partir du paramètreitems
de l'événementview_item_list
, est extraite dehits.product
sihits.product.isImpressions
estTRUE
.
Vérifiez la cohérence des ID d'article entre le catalogue importé et la table des événements utilisateur Analytics 360.
À l'aide de n'importe quel ID produit de la colonne
hits.product.productSKU
de l'aperçu de la table BigQuery, utilisez la méthodeproduct.get
pour vous assurer que le même produit se trouve dans votre catalogue importé.export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json curl \ -v \ -X GET \ -H "Content-Type: application/json; charset=utf-8" \ -H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \ "https://retail.googleapis.com/v2/projects/PROJECT_NUMBER/locations/global/catalogs/default_catalog/branches/default_branch/products/PRODUCT_ID"
Importer vos événements Analytics 360
Vous pouvez importer des événements Google Analytics 360 à l'aide de la console Search for Retail ou de la méthode userEvents.import
.
Console
-
Accédez à la page Données> dans la console de la recherche pour le commerce.
Accéder à la page "Données" - Cliquez sur Importer pour ouvrir le panneau Importer les données.
- Sélectionnez Événements utilisateur.
- Sélectionnez BigQuery comme source de données.
-
Sélectionnez le schéma de données.
- Google Analytics 4: à utiliser pour les événements Google Analytics 4.
- Google Analytics 360: à utiliser pour les événements Google Analytics 360, sauf si vous importez uniquement des événements "vues de la page d'accueil" à partir de Google Analytics 360 (dans ce cas, utilisez le schéma des événements utilisateur dans le commerce).
- Schéma des événements utilisateur dans le commerce: utilisez-le pour importer des événements à partir d'autres sources que Google Analytics et pour importer uniquement des événements de vue de la page d'accueil à partir de Google Analytics 360.
- Renseignez la table BigQuery dans laquelle se trouvent vos données.
- Facultatif: saisissez l'emplacement d'un bucket Cloud Storage de votre projet en tant qu'emplacement temporaire pour vos données.
Si cet emplacement n'est pas spécifié, un emplacement par défaut est utilisé. Si vous spécifiez un emplacement, BigQuery et le bucket Cloud Storage doivent se trouver dans la même région. - Facultatif: Sous Afficher les options avancées, saisissez l'emplacement d'un bucket Cloud Storage de votre projet en tant qu'emplacement temporaire pour vos données.
Si aucun emplacement n'est spécifié, un emplacement par défaut est utilisé. Si vous spécifiez un emplacement, BigQuery et le bucket Cloud Storage doivent se trouver dans la même région. - Cliquez sur Importer.
REST
Importez les événements utilisateur en incluant les données des événements dans votre appel à la méthode userEvents.import
.
Pour dataSchema
, utilisez la valeur user_event_ga360
.
export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
curl \\
-v \\
-X POST \\
-H "Content-Type: application/json; charset=utf-8" \\
-H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \\
"https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import" \\
--data '{
"inputConfig": {
"bigQuerySource": {
"datasetId": "some_ga360_export_dataset",
"tableId": "ga_sessions_YYYYMMDD",
"dataSchema": "user_event_ga360"
}
}
}'
Java
Importer vos vues de page d'accueil Analytics 360 avec BigQuery
Dans Analytics 360, les événements de page vue d'accueil ne sont pas distingués des autres événements de page vue. Cela signifie que les événements "home-page-view" ne sont pas importés en tant qu'événements avec les autres types d'événements (tels que "detail-page-view") dans Importer vos événements Analytics 360.
La procédure suivante explique comment extraire des événements de vue de la page d'accueil à partir de vos données Analytics 360 et les importer dans Vertex AI Search for retail. En résumé, cela se fait en extrayant les vues de la page d'accueil des utilisateurs (identifiées par le chemin d'accès à la page d'accueil) dans une nouvelle table BigQuery, puis en important les données de cette nouvelle table dans la recherche Vertex AI pour le commerce.
Pour importer des événements de vue de la page d'accueil depuis Analytics 360 dans Vertex AI Search pour le commerce:
Créez un ensemble de données BigQuery ou assurez-vous d'en avoir un disponible auquel vous pouvez ajouter une table.
Cet ensemble de données peut se trouver dans votre projet Vertex AI Search pour le commerce ou dans le projet dans lequel se trouvent vos données Analytics 360. Il s'agit du jeu de données cible dans lequel vous allez copier les événements de consultation de la page d'accueil Analytics 360.
Créez une table BigQuery dans l'ensemble de données comme suit:
Remplacez les variables dans le code SQL suivant comme suit.
target_project_id::projet dans lequel se trouve l'ensemble de données de l'étape 1.
target_dataset::nom de l'ensemble de données de l'étape 1.
CREATE TABLE TARGET_PROJECT_ID.TARGET_DATASET.ga_homepage ( eventType STRING NOT NULL, visitorId STRING NOT NULL, userId STRING, eventTime STRING NOT NULL );
Copiez l'exemple de code SQL.
Ouvrez la page BigQuery dans la console Google Cloud.
Si ce n'est pas déjà fait, sélectionnez le projet cible.
Dans le volet Éditeur, collez l'exemple de code SQL.
Cliquez sur
Run (Exécuter) et attendez la fin de l'exécution de la requête.
L'exécution de ce code crée une table au format
target_project_id:target_dataset.ga_homepage_YYYYMMDD
(par exemple,my-project:view_events.ga_homepage_20230115
).Copiez les événements de vue de la page d'accueil Analytics 360 de votre table de données Analytics 360 dans la table créée à l'étape 2 précédente.
Remplacez les variables dans l'exemple de code SQL suivant comme suit:
source_project_id::ID du projet contenant les données Analytics 360 dans une table BigQuery.
source_dataset::ensemble de données du projet source contenant les données Analytics 360 dans une table BigQuery.
source_table::table du projet source contenant les données Analytics 360.
target_project_id::même ID de projet cible que dans l'étape 2 précédente.
target_dataset::même ensemble de données cible que dans l'étape 2 précédente.
path:chemin d'accès à la page d'accueil. Il s'agit généralement de
/
, par exemple si la page d'accueil estexample.com/
. Toutefois, si la page d'accueil est semblable àexamplepetstore.com/index.html
, le chemin d'accès est/index.html
.
INSERT INTO `TARGET_PROJECT_ID.TARGET_DATASET.ga_homepage(eventType,visitorId,userID,eventTime)` SELECT "home-page-view" as eventType, clientId as visitorId, userId, CAST(FORMAT_TIMESTAMP("%Y-%m-%dT%H:%M:%SZ",TIMESTAMP_SECONDS(visitStartTime)) as STRING) AS eventTime FROM `SOURCE_PROJECT_ID.SOURCE_DATASET.SOURCE_TABLE`, UNNEST(hits) as hits WHERE hits.page.pagePath = "PATH" AND visitorId is NOT NULL;
Copiez l'exemple de code SQL.
Ouvrez la page BigQuery dans la console Google Cloud.
Si ce n'est pas déjà fait, sélectionnez le projet cible.
Dans le volet Éditeur, collez l'exemple de code SQL.
Cliquez sur
Run (Exécuter) et attendez la fin de l'exécution de la requête.
Suivez les instructions de la section Importer des événements utilisateur depuis BigQuery pour importer les événements de vue de la page d'accueil à partir de la table cible. Lors de la sélection du schéma, si vous importez à l'aide de la console, sélectionnez Schéma d'événement utilisateur Retail. Si vous importez à l'aide de
userEvents.import
, spécifiezuser_event
pour la valeurdataSchema
.Supprimez la table et l'ensemble de données que vous avez créés aux étapes 1 et 2.
Importer des événements utilisateur Google Analytics 4 avec BigQuery
Vous pouvez importer des événements utilisateur Google Analytics 4 si vous avez intégré Google Analytics 4 à BigQuery et que vous utilisez Google Analytics Ecommerce.
Les procédures suivantes supposent que vous maîtrisez BigQuery et Google Analytics 4.
Avant de commencer
Avant de commencer les étapes suivantes, assurez-vous que :
- Vous utilisez E-commerce Google Analytics.
- Vous avez associé BigQuery à Google Analytics 4.
Vérifier votre source de données
Pour vous assurer que vos données d'événement utilisateur sont prêtes à être importées, procédez comme suit.
Pour obtenir un tableau des champs Google Analytics 4 utilisés par Vertex AI Search pour le commerce et les champs Vertex AI Search pour le commerce auxquels ils sont mappés, consultez Champs d'événement utilisateur Google Analytics 4.
Pour connaître tous les paramètres d'événement Google Analytics, consultez la documentation de référence sur les événements Google Analytics.
Assurez-vous que les données d'événement utilisateur que vous allez importer sont correctement formatées dans une table BigQuery à laquelle vous avez accès.
- L'ensemble de données doit être nommé
analytics_PROPERTY_ID
. - La table doit être nommée
events_YYYYMMDD
.
Pour en savoir plus sur les noms et le format des tables, consultez la documentation Google Analytics.
- L'ensemble de données doit être nommé
Dans la console Google Cloud pour BigQuery, sélectionnez l'ensemble de données dans le panneau Explorer, puis recherchez la table des événements utilisateur que vous prévoyez d'importer.
Vérifiez les points suivants :
La colonne
event_params.key
contient une clécurrency
et sa valeur de chaîne associée est un code de devise valide.Si vous envisagez d'importer des événements
search
, vérifiez que la colonneevent.event_params.key
comporte une clésearch_term
et une valeur associée.Alors que Retail Search Vertex AI nécessite à la fois
searchQuery
etproductDetails
pour renvoyer une liste de résultats de recherche, Google Analytics 4 ne stocke pas à la fois les requêtes de recherche et les impressions de produits dans un même événement. Pour que Vertex AI Search pour le commerce fonctionne, vous devez créer une balise au niveau de la couche de données ou à partir d'un pixel JavaScript afin de pouvoir importer les deux types d'événements utilisateur à partir de sources Google Analytics:searchQuery
, qui est lu à partir du paramètresearch_term
ou des événementsview_search_results
.productDetails
, l'impression du produit lue à partir du paramètreitems
de l'événementview_item_list
.
Pour en savoir plus sur
search
dans Google Analytics 4, consultezsearch
dans la documentation Google Analytics.
Vérifiez la cohérence des ID d'article entre le catalogue importé et la table des événements utilisateur Google Analytics 4.
Pour vous assurer qu'un produit de la table des utilisateurs Google Analytics 4 se trouve également dans votre catalogue importé, copiez un ID produit de la colonne
event.items.item_id
dans l'aperçu de la table BigQuery, puis utilisez la méthodeproduct.get
pour vérifier si cet ID produit se trouve dans votre catalogue importé.export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json curl \ -v \ -X GET \ -H "Content-Type: application/json; charset=utf-8" \ -H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \ "https://retail.googleapis.com/v2/projects/PROJECT_NUMBER/locations/global/catalogs/default_catalog/branches/default_branch/products/PRODUCT_ID"
Configurer l'accès à BigQuery
Suivez les instructions de la section Configurer l'accès à votre ensemble de données BigQuery pour attribuer à votre compte de service Vertex AI Search for retail le rôle Propriétaire de données BigQuery pour votre ensemble de données BigQuery.
Importer vos événements Google Analytics 4
Vous pouvez importer des événements Google Analytics 4 à l'aide de la console Search for Retail ou de la méthode userEvents.import
.
Importer des événements Google Analytics 4 à l'aide de la console
-
Accédez à la page Données> dans la console de la recherche pour le commerce.
Accéder à la page "Données" - Cliquez sur Importer pour ouvrir le panneau Importer les données.
- Sélectionnez Événements utilisateur.
- Sélectionnez BigQuery comme source de données.
-
Sélectionnez le schéma de données.
- Google Analytics 4: à utiliser pour les événements Google Analytics 4.
- Google Analytics 360: à utiliser pour les événements Google Analytics 360, sauf si vous importez uniquement des événements "vues de la page d'accueil" à partir de Google Analytics 360 (dans ce cas, utilisez le schéma des événements utilisateur dans le commerce).
- Schéma des événements utilisateur dans le commerce: utilisez-le pour importer des événements à partir d'autres sources que Google Analytics et pour importer uniquement des événements de vue de la page d'accueil à partir de Google Analytics 360.
- Renseignez la table BigQuery dans laquelle se trouvent vos données.
- Facultatif: saisissez l'emplacement d'un bucket Cloud Storage de votre projet en tant qu'emplacement temporaire pour vos données.
Si cet emplacement n'est pas spécifié, un emplacement par défaut est utilisé. Si vous spécifiez un emplacement, BigQuery et le bucket Cloud Storage doivent se trouver dans la même région. - Facultatif: Sous Afficher les options avancées, saisissez l'emplacement d'un bucket Cloud Storage de votre projet en tant qu'emplacement temporaire pour vos données.
Si aucun emplacement n'est spécifié, un emplacement par défaut est utilisé. Si vous spécifiez un emplacement, BigQuery et le bucket Cloud Storage doivent se trouver dans la même région. - Cliquez sur Importer.
Importer des événements Google Analytics 4 à l'aide de l'API
Importez les événements utilisateur en incluant les données des événements dans votre appel à la méthode userEvents.import
. Consultez la documentation de référence de l'API userEvents.import
.
Pour dataSchema
, utilisez la valeur user_event_ga4
.
export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
curl \\
-v \\
-X POST \\
-H "Content-Type: application/json; charset=utf-8" \\
-H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \\
"https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import" \\
--data '{
"inputConfig": {
"bigQuerySource": {
"projectId": "PROJECT_ID",
"datasetId": "DATASET_ID",
"tableId": "TABLE_ID",
"dataSchema": "user_event_ga4"
}
}
}'
Importer des événements utilisateur de manière intégrée
Vous pouvez importer des événements utilisateur de manière intégrée en incluant les données associées aux événements dans votre appel à la méthode userEvents.import
.
Le moyen le plus simple consiste à placer vos données d'événements utilisateur dans un fichier JSON et à fournir ce fichier à cURL.
Pour connaître les formats des types d'événements utilisateur, consultez la section À propos des événements utilisateur.
curl
Créez le fichier JSON :
{ "inputConfig": { "userEventInlineSource": { "userEvents": [ { <userEvent1>> }, { <userEvent2> }, .... ] } } }
Appelez la méthode POST :
curl -X POST \ -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \ -H "Content-Type: application/json; charset=utf-8" \ --data @./data.json \ "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import"
Java
Historique de données de catalogue
Vous pouvez également importer l'historique des données de catalogue qui apparaissent dans votre historique d'événements utilisateur. Cet historique des données de catalogue peut être utile, car les informations sur les produits passés peuvent être utilisées pour enrichir les événements utilisateur, ce qui peut améliorer la précision du modèle.
Pour en savoir plus, consultez la page Importer l'historique des données de catalogue.
Afficher les événements importés
Consultez les métriques d'intégration des événements dans l'onglet Événements de la page Données de la console Search for Retail. Cette page présente tous les événements écrits ou importés au cours de l'année précédente. Les métriques peuvent mettre jusqu'à 24 heures à s'afficher après l'ingestion des données.