このページでは、過去のイベントからユーザー イベントデータを一括インポートする方法について説明します。 小売業向け Vertex AI Search のモデルには、トレーニングにユーザー イベントデータが必要です。
イベントの記録の設定後、モデルのトレーニングに十分なユーザー イベント データが記録されるまでに、かなりの時間がかかる場合があります。過去のイベントからユーザー イベントデータを一括インポートすることで、初期のモデル トレーニングを高速化できます。操作を行う前に、ユーザー イベントの記録に関するおすすめの方法と、このページの始める前にをご覧ください。
このページのインポート手順は、レコメンデーションと検索の両方に適用されます。データをいったんインポートすると、両方のサービスでこれらのイベントを使用できるようになります。そのため、両方のサービスを使用する場合、同じデータを 2 回インポートする必要はありません。
次のことが可能です。
- Cloud Storage からイベントをインポートする。
- BigQuery からイベントをインポートする。
- BigQuery から Google アナリティクス 360 のイベントをインポートする。
- BigQuery から Google アナリティクス 4 のイベントをインポートする。
userEvents.import
メソッドを使って、インラインでイベントをインポートする。
Cloud Storage チュートリアルからイベントをインポートする
このチュートリアルでは、Cloud Storage からユーザー イベントをインポートする方法を説明します。
このタスクを Cloud Shell エディタで直接行う際の順を追ったガイダンスについては、[ガイドを表示] をクリックしてください。
BigQuery チュートリアルからイベントをインポートする
このチュートリアルでは、BigQuery からユーザー イベントをインポートする方法を説明します。
このタスクを Cloud Shell エディタで直接行う際の順を追ったガイダンスについては、[ガイドを表示] をクリックしてください。
イベントのインライン チュートリアルをインポートする
このチュートリアルでは、ユーザー イベントデータをインラインでインポートする方法を説明します。
このタスクを Cloud Shell エディタで直接行う際の順を追ったガイダンスについては、[ガイドを表示] をクリックしてください。
始める前に
インポート エラーを回避し、良好な結果を生成する十分なデータがあることを確認するには、ユーザー イベントをインポートする前に次の情報を確認します。
ユーザー イベントの記録に関するベスト プラクティスを確認します。
ユーザー イベントの形式は、ユーザー イベント タイプによって異なります。各イベントタイプの表を作成するときに指定する形式については、ユーザー イベント タイプとサンプル スキーマをご覧ください。
レコメンデーションと検索では、最小データ要件が異なります。ユーザー イベントが、使用するサービスの要件を満たしていることを確認してください。
検索とレコメンデーションの要件については、ユーザー イベントの要件とベスト プラクティスをご覧ください。
また、レコメンデーション モデルを使用する場合は、ユーザー イベント データの要件もご覧ください。使用する予定のレコメンデーション モデルのタイプと最適化目標に応じた追加の要件を示しています。
イベントのインポートに関する考慮事項
このセクションでは、過去のユーザー イベントの一括インポートに使用できる手段、各手段を使用するタイミング、その制限事項について説明します。
Cloud Storage | 説明 |
Cloud Storage バケットに読み込まれたファイルから JSON 形式のデータをインポートします。各ファイルは 2 GB 以下である必要があります。一度にインポートできるファイル数は最大で 100 個です。インポートは、Google Cloud コンソールまたは cURL を使用して行うことができます。カスタム属性を許可する Product JSON データ形式を使用します。 |
---|---|---|
使うタイミング | 1 回のステップで大量のデータを読み取る必要がある場合。 | |
制限事項 | データが Google アナリティクスや Merchant Center にある場合、データは BigQuery にのみエクスポートでき、Cloud Storage にインポートする追加の手順が必要になります。 | |
BigQuery | 説明 | 小売業向け Vertex AI Search スキーマを使用する、以前に読み込まれた BigQuery テーブルからデータをインポートします。Google Cloud コンソールまたは cURL を使用して実行できます。 |
使うタイミング | インポートする前に分析やイベントデータの前処理も使用している場合。 | |
制限事項 | 小売業向け Vertex AI Searchl スキーマにマッピングされる BigQuery テーブルを作成する追加のステップが必要です。ユーザー イベント数が多い場合は、BigQuery が Cloud Storage より費用の高いリソースとなることも考慮してください。 | |
BigQuery とアナリティクス 360 | 説明 | 既存のデータをアナリティクス 360 から小売業向け Vertex AI Search にインポートします。 |
使うタイミング | アナリティクス 360 を使用していて、最適化案や検索の変換をトラッキングする場合。追加のスキーマ マッピングは必要ありません。 | |
制限事項 | 一部の属性のみが使用可能で、いくつかの高度な小売業向け Vertex AI Search の機能は使用できません。検索を使用する場合は、Google アナリティクスでインプレッションを追跡する必要があります。 | |
Google アナリティクス 4 を使用したBigQuery | 説明 | 既存のデータを Google アナリティクスから 小売業向け Vertex AI Searchl にインポートします。 |
使うタイミング | Google アナリティクス 4 を使用していて、最適化案や検索の変換をトラッキングする場合。追加のスキーマ マッピングは必要ありません。 | |
制限事項 |
一部の属性のみが使用可能で、いくつかの高度な小売業向け Vertex AI Search の機能は使用できません。
検索を使用する場合は、トラッキング用にイベント パラメータの Key-Value ペアを設定する必要があります。推奨されるキーは search_query です。
|
|
インライン インポート | 説明 |
userEvents.import メソッドの呼び出しを使用してインポートします。 |
使うタイミング | すべての認証をバックエンドで行ってプライバシーを強化し、バックエンドのインポートを実行できる場合。 | |
制限事項 | 通常、ウェブ インポートよりも複雑です。 |
Cloud Storage からユーザー イベントをインポート
Cloud Storage からユーザー イベントは、Google Cloud コンソールまたは userEvents.import
メソッドを使用してインポートします。
コンソール
-
Search for Retail コンソールの [データ] ページに移動します。
[データ] ページに移動 - [インポート] をクリックして [インポート データ] パネルを開きます。
- [User events] を選択します。
- データソースとして [Google Cloud Storage] を選択します。
- スキーマとして [Retail ユーザー イベント スキーマ] を選択します。
- データの Cloud Storage のロケーションを入力します。
- [インポート] をクリックします。
cURL
ユーザー イベントは、userEvents.import
メソッドを使用してインポートします。
インポートの入力パラメータのデータファイルを作成します。Cloud Storage バケットを指定するには、
GcsSource
オブジェクトを使用します。複数のファイルを指定することも、1 つを指定することもできます。
- INPUT_FILE: ユーザー イベント データが格納されている Cloud Storage 内の 1 つまたは複数のファイル。各ユーザー イベント タイプのフォーマットの例については、ユーザー イベントについてをご覧ください。各ユーザー イベントは、改行がないそれ自体の単一の行であることを確認してください。
- ERROR_DIRECTORY: インポートに関するエラー情報用の Cloud Storage ディレクトリ。
入力ファイルのフィールドは
gs://<bucket>/<path-to-file>/
の形式にする必要があります。エラー ディレクトリは、gs://<bucket>/<folder>/
の形式にする必要があります。 エラー ディレクトリが存在しない場合は、小売業向け Vertex AI Search によって作成されます。バケットはすでに存在している必要があります。{ "inputConfig":{ "gcsSource": { "inputUris": ["INPUT_FILE_1", "INPUT_FILE_2"], }, "errorsConfig":{"gcsPrefix":"ERROR_DIRECTORY"} }
カタログ情報をインポートするには、
userEvents:import
REST メソッドに対してPOST
リクエストを実行し、データファイルの名前を指定します。export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json curl -X POST \ -v \ -H "Content-Type: application/json; charset=utf-8" \ -H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \ --data @./DATA_FILE.json \ "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import" } }'
BigQuery からデータをインポートする
BigQuery からユーザー イベントは、Google Cloud コンソールか userEvents.import
メソッドを使用してインポートします。
BigQuery アクセスを設定する
BigQuery データセットへのアクセスの設定の手順に沿って、小売業向け Vertex AI Serach のサービス アカウントに、BigQuery データセットに対する BigQuery データオーナーロールを付与します。
BigQuery からユーザー イベントをインポートする
360 件のイベントは、Search for Retail コンソールまたは userEvents.import
メソッドを使用してインポートできます。
コンソール
-
Search for Retail コンソールの [データ] ページに移動します。
[データ] ページに移動 - [インポート] をクリックして [インポート データ] パネルを開きます。
- [User events] を選択します。
- データソースとして [BigQuery] を選択します。
-
データスキーマを選択します。
- Google アナリティクス 4: Google アナリティクス 4 のイベントに使用します。
- Google アナリティクス 360: Google アナリティクス 360 のイベントに使用します。ただし、Google アナリティクス 360 のホームページ ビューのみをインポートする場合は除きます。その場合は、Retail ユーザー イベント スキーマを使用します。
- Retail ユーザー イベント スキーマ: Google アナリティクス以外のソースからイベントをインポートする場合と、Google アナリティクス 360 のホームページ ビューのみをインポートする場合に使用します。
- データが配置される BigQuery テーブルを入力します。
- 省略可: データの一時的なロケーションとして、プロジェクト内の Cloud Storage バケットのロケーションを入力します。
指定されていない場合、デフォルトのロケーションが使用されます。指定されている場合、BigQuery と Cloud Storage バケットは同じリージョン内に存在する必要があります。 - 省略可: [詳細設定を表示] で、データの一時的なロケーションとして、プロジェクト内の Cloud Storage バケットのロケーションを入力します。
指定しない場合、デフォルトのロケーションが使用されます。指定する場合、BigQuery と Cloud Storage バケットは同じリージョン内に存在する必要があります。 - [インポート] をクリックします。
curl
ユーザー イベントをインポートするには、userEvents.import
メソッドの呼び出しにイベントのデータを含めます。userEvents.import
API リファレンスをご覧ください。
dataSchema
に指定する値は、インポートする内容によって異なります。
user_event_ga4
: Google アナリティクス 4 のイベントに使用します。user_event_ga360
: Google アナリティクス 360 のイベントに使用します。ただし、Google アナリティクス 360 からホームページビューのみをインポートする場合は除きます。その場合は、user_event
を使用します。user_event
: Google アナリティクス以外のソースからイベントをインポートする場合と、Google アナリティクス 360 のホームページ ビューのみをインポートする場合に使用します。
export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
curl \
-v \
-X POST \
-H "Content-Type: application/json; charset=utf-8" \
-H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \
"https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import" \
--data '{
"inputConfig": {
"bigQuerySource": {
"datasetId": "DATASET_ID",
"tableId": "TABLE_ID",
"dataSchema": "SCHEMA_TYPE"
}
}
}'
BigQuery でアナリティクス 360 のユーザー イベントをインポートする
アナリティクス 360 を BigQuery と統合して拡張 e コマースを使用している場合は、アナリティクス 360 のユーザー イベントをインポートできます。
以下の手順は、BigQuery とアナリティクス 360 の使用に精通していることを前提とします。
始める前に
次の手順を開始する前に、以下の点をご確認ください。
- 拡張 e コマースを使用している。
- BigQuery がアナリティクス 360 にリンクされている。
データソースを確認する
インポートするユーザー イベントデータが、アクセス権のある BigQuery テーブルで正しくフォーマットされていることを確認してください。
テーブルが
project_id:ga360_export_dataset.ga_sessions_YYYYMMDD
という名前であることを確認してください。テーブルの形式と命名について詳しくは、Google アナリティクスのドキュメントをご覧ください。
BigQuery Google Cloud コンソール で、[エクスプローラ] パネルからテーブルを選択してテーブルをプレビューします。
以下を確認します。
clientId
列に有効な値(たとえば、123456789.123456789
)がある。この値は、完全な _ga Cookie 値(
GA1.3.123456789.123456789
のような形式)とは異なります。hits.transaction.currencyCode
列に有効な通貨コードがある。search
イベントをインポートする予定の場合は、hits.page.searchKeyword
列またはhits.customVariable.searchQuery
列が存在することを確認します。search
イベントのインポートはサポートされますが、アナリティクス 360 から他のイベントタイプと同様にはマッピングされません。これは、search
イベントタイプがアナリティクス 360 でネイティブにサポートされていないためです。インポートの際、search
イベントは、検索クエリからの情報と、存在する場合は商品のインプレッションを組み合わせることによって、アナリティクス 360 から作成されます。検索クエリは
hits.page.searchKeyword
から派生します。hits.customVariables.customVarName
がsearchQuery
の場合はhits.customVariables.customVarValue
から派生します。hits.product.isImpressions
がTRUE
の場合、商品のインプレッションはhits.product
から取得されます。
アップロードされたカタログとアナリティクス 360 のユーザー イベント テーブルとのアイテム ID の整合性を確認します。
BigQuery テーブル プレビューの
hits.product.productSKU
列の任意の商品 ID を使用して、アップロードしたカタログに同じ商品が含まれていることを確認するために、product.get
メソッドを使用します。export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json curl \ -v \ -X GET \ -H "Content-Type: application/json; charset=utf-8" \ -H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \ "https://retail.googleapis.com/v2/projects/PROJECT_NUMBER/locations/global/catalogs/default_catalog/branches/default_branch/products/PRODUCT_ID"
アナリティクス 360 のイベントをインポートする
Search for Retail コンソールまたは userEvents.import
メソッドを使用して、Google アナリティクス 360 のイベントをインポートできます。
Console
-
Search for Retail コンソールの [データ] ページに移動します。
[データ] ページに移動 - [インポート] をクリックして [インポート データ] パネルを開きます。
- [User events] を選択します。
- データソースとして [BigQuery] を選択します。
-
データスキーマを選択します。
- Google アナリティクス 4: Google アナリティクス 4 のイベントに使用します。
- Google アナリティクス 360: Google アナリティクス 360 のイベントに使用します。ただし、Google アナリティクス 360 のホームページ ビューのみをインポートする場合は除きます。その場合は、Retail ユーザー イベント スキーマを使用します。
- Retail ユーザー イベント スキーマ: Google アナリティクス以外のソースからイベントをインポートする場合と、Google アナリティクス 360 のホームページ ビューのみをインポートする場合に使用します。
- データが配置される BigQuery テーブルを入力します。
- 省略可: データの一時的なロケーションとして、プロジェクト内の Cloud Storage バケットのロケーションを入力します。
指定されていない場合、デフォルトのロケーションが使用されます。指定されている場合、BigQuery と Cloud Storage バケットは同じリージョン内に存在する必要があります。 - 省略可: [詳細設定を表示] で、データの一時的なロケーションとして、プロジェクト内の Cloud Storage バケットのロケーションを入力します。
指定しない場合、デフォルトのロケーションが使用されます。指定する場合、BigQuery と Cloud Storage バケットは同じリージョン内に存在する必要があります。 - [インポート] をクリックします。
REST
ユーザー イベントをインポートするには、userEvents.import
メソッドの呼び出しにイベントのデータを含めます。
dataSchema
の場合は、user_event_ga360
の値を使用します。
export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
curl \\
-v \\
-X POST \\
-H "Content-Type: application/json; charset=utf-8" \\
-H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \\
"https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import" \\
--data '{
"inputConfig": {
"bigQuerySource": {
"datasetId": "some_ga360_export_dataset",
"tableId": "ga_sessions_YYYYMMDD",
"dataSchema": "user_event_ga360"
}
}
}'
Java
BigQuery でアナリティクス 360 のホームページ ビューをインポートする
アナリティクス 360 では、ホームページ ビュー イベントは他のページビュー イベントと区別されません。つまり、アナリティクス 360 のイベントをインポートするでは、ホームページ ビュー イベントは、他のイベントタイプ(詳細ページビューなど)のイベントとしてインポートされません。
次の手順では、アナリティクス 360 のデータからホームページ ビュー イベントを抽出し、小売業向け Vertex AI Search にインポートする方法について説明します。これを行うには、ホームページのユーザーのビュー(ホームページのパスで識別)を新しい BigQuery テーブルに抽出してから、その新しいテーブルから小売業向け Vertex AI Search にデータをインポートします。
アナリティクス 360 から小売業向け Vertex AI Search のホームページ ビュー イベントをインポートするには:
BigQuery データセットを作成するか、テーブルを追加できる BigQuery データセットがあることを確認します。
このデータセットは、小売業向け Vertex AI Search のプロジェクトまたはアナリティクス 360 のデータが存在するプロジェクトに配置できます。これは、アナリティクス 360 のホームページ ビュー イベントをコピーするターゲット データセットです。
次のように、データセットに BigQuery テーブルを作成します。
次の SQL コードの変数を次のように置き換えます。
target_project_id: ステップ 1 のデータセットが配置されているプロジェクト。
target_dataset: ステップ 1 のデータセット名。
CREATE TABLE TARGET_PROJECT_ID.TARGET_DATASET.ga_homepage ( eventType STRING NOT NULL, visitorId STRING NOT NULL, userId STRING, eventTime STRING NOT NULL );
SQL コードサンプルをコピーします。
Google Cloud コンソールで [BigQuery] ページを開きます。
まだ選択していない場合は、ターゲット プロジェクトを選択します。
[エディタ] ペインに、SQL コードサンプルを貼り付けます。
[
実行] をクリックし、クエリの実行が完了するまで待ちます。
このコードを実行すると、
target_project_id:target_dataset.ga_homepage_YYYYMMDD
形式のテーブルが作成されます(例、my-project:view_events.ga_homepage_20230115
)。アナリティクス 360 のデータテーブルから、前のステップ 2 で作成したテーブルにアナリティクス 360 のホームページ ビュー イベントをコピーします。
次の SQL サンプルコードの変数を次のように置き換えます。
source_project_id: BigQuery テーブルにアナリティクス 360 データを含むプロジェクトの ID。
source_dataset: BigQuery テーブルにアナリティクス 360 データを含むソース プロジェクトのデータセット。
source_table: アナリティクス 360 のデータを含むソース プロジェクトのテーブル。
target_project_id: 前のステップ 2 と同じターゲット プロジェクト ID。
target_dataset: 前のステップ 2 と同じターゲット データセット。
path: ホームページへのパスです。通常、これは
/
です。たとえば、ホームページがexample.com/
の場合、ただし、ホームページがexamplepetstore.com/index.html
の場合、パスは/index.html
です。
INSERT INTO `TARGET_PROJECT_ID.TARGET_DATASET.ga_homepage(eventType,visitorId,userID,eventTime)` SELECT "home-page-view" as eventType, clientId as visitorId, userId, CAST(FORMAT_TIMESTAMP("%Y-%m-%dT%H:%M:%SZ",TIMESTAMP_SECONDS(visitStartTime)) as STRING) AS eventTime FROM `SOURCE_PROJECT_ID.SOURCE_DATASET.SOURCE_TABLE`, UNNEST(hits) as hits WHERE hits.page.pagePath = "PATH" AND visitorId is NOT NULL;
SQL コードサンプルをコピーします。
Google Cloud コンソールで [BigQuery] ページを開きます。
まだ選択していない場合は、ターゲット プロジェクトを選択します。
[エディタ] ペインに、SQL コードサンプルを貼り付けます。
[
実行] をクリックし、クエリの実行が完了するまで待ちます。
BigQuery からユーザー イベントをインポートするの手順に沿って、ターゲット テーブルからホームページ ビューのイベントをインポートします。スキーマの選択中に、コンソールを使用してインポートする場合は、[小売ユーザー イベント スキーマ] を選択します。
userEvents.import
を使用してインポートする場合は、dataSchema
値にuser_event
を指定します。手順 1 と 2 で作成したテーブルとデータセットを削除します。
BigQuery で Google アナリティクス 4 のユーザー イベントをインポートする
Google アナリティクス 4 を BigQuery と統合して Google アナリティクスの e コマースを使用している場合は、Google アナリティクス 4 のユーザー イベントをインポートできます。
以下の手順は、BigQuery と Google アナリティクス 4 の使用に精通していることを前提とします。
始める前に
次の手順を開始する前に、以下の点をご確認ください。
- Google アナリティクスの e コマース を使用している。
- Google アナリティクス 4 に BigQuery がリンクされています。
データソースを確認する
ユーザー イベントデータがインポート用に準備されていることを確認するには、次の手順を行います。
小売業向け Vertex AI Search が使用する Google アナリティクス 4 フィールドと、それらがマッピングされる小売業向け Vertex AI Search のフィールドの表については、Google アナリティクス 4 のユーザー イベント フィールドをご覧ください。
すべての Google アナリティクス イベント パラメータについては、Google アナリティクス イベントのリファレンス ドキュメントをご覧ください。
インポートするユーザー イベントデータが、アクセス権のある BigQuery テーブルで正しくフォーマットされていることを確認してください。
- データセットは
analytics_PROPERTY_ID
という名前である必要があります。 - テーブルは
events_YYYYMMDD
という名前である必要があります。
テーブルの名前と形式の詳細については、Google アナリティクスのドキュメントをご覧ください。
- データセットは
BigQuery Google Cloud コンソールで、[エクスプローラ] パネルからデータセットを選択し、インポートするユーザー イベントのテーブルを見つけます。
以下を確認します。
event_params.key
列にcurrency
キーがあり、関連付けられた文字列値が有効な通貨コードである。search
イベントをインポートする予定の場合は、event.event_params.key
列にsearch_term
キーおよび関連する値があることを確認します。search
イベントのインポートはサポートされますが、search
イベントは他のイベントタイプと同様に Google アナリティクス 4 からマッピングされません。これは、小売向け Vertex AI Search のsearch
イベントタイプが Google アナリティクス 4 でネイティブにサポートされていないためです。インポートの際、view_item_list
パラメータとsearch_term
パラメータからの情報を組み合わせることにより、Google アナリティクス 4 からsearch
イベントが構築されます。Google アナリティクス 4 での
search
についての詳細は、Google アナリティクス ドキュメントのsearch
をご覧ください。
アップロードされたカタログと Google アナリティクス 4 のユーザー イベント テーブルとのアイテム ID の整合性を確認します。
Google アナリティクス 4 のユーザー テーブルのプロダクトがアップロードされたカタログにも含まれるようにするには、BigQuery テーブル プレビューの
event.items.item_id
列からプロダクト ID をコピーし、product.get
メソッドを使用して、アップロードしたカタログに商品 ID があるかどうかを確認します。export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json curl \ -v \ -X GET \ -H "Content-Type: application/json; charset=utf-8" \ -H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \ "https://retail.googleapis.com/v2/projects/PROJECT_NUMBER/locations/global/catalogs/default_catalog/branches/default_branch/products/PRODUCT_ID"
BigQuery アクセスを設定する
BigQuery データセットへのアクセスの設定の手順に沿って、小売業向け Vertex AI Serach のサービス アカウントに、BigQuery データセットに対する BigQuery データオーナーロールを付与します。
Google アナリティクス 4 のイベントをインポートする
Search for Retail コンソールまたは userEvents.import
メソッドを使用して、Google アナリティクス 4 のイベントをインポートできます。
コンソールを使用して Google アナリティクス 4 のイベントをインポートする
-
Search for Retail コンソールの [データ] ページに移動します。
[データ] ページに移動 - [インポート] をクリックして [インポート データ] パネルを開きます。
- [User events] を選択します。
- データソースとして [BigQuery] を選択します。
-
データスキーマを選択します。
- Google アナリティクス 4: Google アナリティクス 4 のイベントに使用します。
- Google アナリティクス 360: Google アナリティクス 360 のイベントに使用します。ただし、Google アナリティクス 360 のホームページ ビューのみをインポートする場合は除きます。その場合は、Retail ユーザー イベント スキーマを使用します。
- Retail ユーザー イベント スキーマ: Google アナリティクス以外のソースからイベントをインポートする場合と、Google アナリティクス 360 のホームページ ビューのみをインポートする場合に使用します。
- データが配置される BigQuery テーブルを入力します。
- 省略可: データの一時的なロケーションとして、プロジェクト内の Cloud Storage バケットのロケーションを入力します。
指定されていない場合、デフォルトのロケーションが使用されます。指定されている場合、BigQuery と Cloud Storage バケットは同じリージョン内に存在する必要があります。 - 省略可: [詳細設定を表示] で、データの一時的なロケーションとして、プロジェクト内の Cloud Storage バケットのロケーションを入力します。
指定しない場合、デフォルトのロケーションが使用されます。指定する場合、BigQuery と Cloud Storage バケットは同じリージョン内に存在する必要があります。 - [インポート] をクリックします。
API を使用して Google アナリティクス 4 のイベントをインポートする
ユーザー イベントをインポートするには、userEvents.import
メソッドの呼び出しにイベントのデータを含めます。userEvents.import
API リファレンスをご覧ください。
dataSchema
の場合は、user_event_ga4
の値を使用します。
export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
curl \\
-v \\
-X POST \\
-H "Content-Type: application/json; charset=utf-8" \\
-H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \\
"https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import" \\
--data '{
"inputConfig": {
"bigQuerySource": {
"projectId": "PROJECT_ID",
"datasetId": "DATASET_ID",
"tableId": "TABLE_ID",
"dataSchema": "user_event_ga4"
}
}
}'
ユーザー イベントをインラインでインポートする
ユーザー イベントをインラインでインポートするには、userEvents.import
メソッドの呼び出しにイベントのデータを含めます。
最も簡単な方法は、ユーザー イベントデータを JSON ファイルに追加し、ファイルを cURL に提供することです。
ユーザー イベント タイプのフォーマットについては、ユーザー イベントについてをご覧ください。
curl
JSON ファイルを作成します。
{ "inputConfig": { "userEventInlineSource": { "userEvents": [ { <userEvent1>> }, { <userEvent2> }, .... ] } } }
POST メソッドを呼び出します。
curl -X POST \ -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \ -H "Content-Type: application/json; charset=utf-8" \ --data @./data.json \ "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import"
Java
過去のカタログ データ
過去のユーザー イベントに表示される過去のカタログ データをインポートすることもできます。この過去のカタログ データは、過去の商品情報を使用してユーザー イベントを強化し、モデルの精度を向上させることができるために役立ちます。
詳しくは、過去のカタログ データをインポートするをご覧ください。
インポートしたイベントを表示する
Search for Retail コンソールの [データ] ページの [イベント] タブでイベント統合指標を表示します。このページには、去年に書き込みまたはインポートされたすべてのイベントが表示されます。データの取り込みが成功した後、指標が表示されるまでには、最長で 24 時間かかることがあります。
次のステップ
- ユーザー イベントの記録を開始する。
- ユーザー イベントを管理する。