Mengimpor peristiwa pengguna historis

Halaman ini menjelaskan cara mengimpor data peristiwa pengguna dari peristiwa sebelumnya secara massal ke Vertex AI Search untuk commerce. Data peristiwa pengguna diperlukan untuk melatih model. Setelah Anda menyiapkan perekaman peristiwa real-time, diperlukan waktu yang cukup lama untuk merekam data peristiwa pengguna yang memadai untuk melatih model Anda. Mengimpor data historis dapat mempercepat prosesnya.

Prosedur impor di halaman ini berlaku untuk rekomendasi dan penelusuran. Setelah Anda mengimpor data, kedua layanan dapat menggunakan peristiwa tersebut, sehingga Anda tidak perlu mengimpor data yang sama dua kali jika Anda menggunakan kedua layanan.

Anda dapat mengimpor acara dari:

Tips umum untuk memulai

Tutorial

Tutorial ini menunjukkan cara mengimpor peristiwa pengguna dari berbagai sumber.

Mengimpor peristiwa dari Cloud Storage

Tutorial ini menunjukkan cara mengimpor peristiwa pengguna dari Cloud Storage.


Untuk mengikuti panduan langkah demi langkah tugas ini langsung di Cloud Shell Editor, klik Pandu saya:

Pandu saya


Mengimpor peristiwa dari BigQuery

Tutorial ini menunjukkan cara mengimpor peristiwa pengguna dari BigQuery.


Untuk mengikuti panduan langkah demi langkah tugas ini langsung di Cloud Shell Editor, klik Pandu saya:

Pandu saya


Mengimpor peristiwa secara inline

Tutorial ini menunjukkan cara mengimpor data peristiwa pengguna secara inline.


Untuk mengikuti panduan langkah demi langkah tugas ini langsung di Cloud Shell Editor, klik Pandu saya:

Pandu saya


Sebelum memulai

Untuk menghindari error impor dan memverifikasi bahwa ada cukup data untuk menghasilkan hasil yang baik, tinjau informasi berikut sebelum mengimpor peristiwa pengguna Anda.

Pertimbangan impor acara

Bagian ini menjelaskan metode yang dapat digunakan untuk mengimpor secara batch peristiwa pengguna historis Anda, kapan Anda dapat menggunakan setiap metode, dan beberapa batasannya.

Cloud Storage Deskripsi Mengimpor data dalam format JSON dari file yang dimuat di bucket Cloud Storage. Ukuran setiap file tidak boleh lebih dari 2 GB, dan hingga 100 file sekaligus dapat diimpor. Impor dapat dilakukan menggunakan konsol Google Cloud atau curl. Menggunakan format data JSON Product, yang memungkinkan atribut kustom.
Kapan digunakan Jika Anda perlu memuat volume data yang lebih tinggi dalam satu langkah.
Batasan Jika data Anda ada di Google Analytics atau Merchant Center, data tersebut hanya dapat diekspor ke BigQuery dan memerlukan langkah tambahan untuk mengimpornya ke Cloud Storage.
BigQuery Deskripsi Mengimpor data dari tabel BigQuery yang dimuat sebelumnya yang menggunakan skema Vertex AI Search untuk e-commerce. Dapat dilakukan menggunakan konsol Google Cloud atau curl.
Kapan digunakan Jika Anda juga menggunakan analisis atau memproses data peristiwa sebelum mengimpornya.
Batasan Memerlukan langkah tambahan untuk membuat tabel BigQuery yang dipetakan ke skema Vertex AI Search untuk commerce. Jika Anda memiliki volume tinggi peristiwa pengguna, pertimbangkan juga bahwa BigQuery adalah resource dengan biaya lebih tinggi daripada Cloud Storage.
BigQuery dengan Analytics 360 Deskripsi Mengimpor data yang sudah ada dari Analytics 360 ke Vertex AI Search untuk commerce.
Kapan digunakan Jika Anda memiliki Analytics 360 dan melacak konversi untuk rekomendasi atau penelusuran. Tidak diperlukan pemetaan skema tambahan.
Batasan Hanya sebagian kecil atribut yang tersedia, sehingga beberapa fitur Vertex AI Search untuk commerce tingkat lanjut tidak dapat digunakan. Tracking tayangan iklan di Google Analytics diperlukan jika Anda berencana menggunakan penelusuran.
BigQuery dengan Google Analytics 4 Deskripsi Mengimpor data yang sudah ada dari Google Analytics 4 ke Vertex AI Search untuk commerce.
Kapan digunakan Jika Anda memiliki Google Analytics 4 dan melacak konversi untuk rekomendasi atau penelusuran. Tidak diperlukan pemetaan skema tambahan.
Batasan Hanya sebagian kecil atribut yang tersedia, sehingga beberapa fitur Vertex AI Search untuk commerce tingkat lanjut tidak dapat digunakan. Jika Anda berencana menggunakan penelusuran, Anda perlu menyiapkan key-value pair parameter peristiwa untuk pelacakan; kunci yang direkomendasikan adalah search_query.
Impor inline Deskripsi Impor menggunakan panggilan ke metode userEvents.import.
Kapan digunakan Jika Anda menginginkan peningkatan privasi dengan melakukan semua autentikasi di backend dan dapat melakukan impor backend.
Batasan Biasanya lebih rumit daripada impor web.

Mengimpor peristiwa pengguna dari Cloud Storage

Mengimpor peristiwa pengguna dari Cloud Storage menggunakan konsol Google Cloud atau metode userEvents.import.

Konsol

  1. Buka halaman Data> di konsol Search for Commerce.

    Buka halaman Data
  2. Klik Impor untuk membuka panel Impor Data.
  3. Pilih Peristiwa pengguna.
  4. Pilih Google Cloud Storage sebagai sumber data.
  5. Pilih Skema Peristiwa Pengguna Retail sebagai skema.
  6. Masukkan lokasi Cloud Storage data Anda.
  7. Klik Import.

curl

Gunakan metode userEvents.import untuk mengimpor peristiwa pengguna.

  1. Buat file data untuk parameter input impor. Gunakan objek GcsSource untuk mengarahkan ke bucket Cloud Storage Anda.

    Anda dapat memberikan beberapa file, atau hanya satu.

    • INPUT_FILE: File di Cloud Storage yang berisi data peristiwa pengguna Anda. Lihat Tentang peristiwa pengguna untuk mengetahui contoh format setiap jenis peristiwa pengguna. Pastikan setiap peristiwa pengguna berada di satu barisnya sendiri, tanpa jeda baris.
    • ERROR_DIRECTORY: Direktori Cloud Storage untuk informasi error tentang impor.

    Kolom file input harus dalam format gs://<bucket>/<path-to-file>/. Direktori error harus dalam format gs://<bucket>/<folder>/. Jika direktori error tidak ada, Vertex AI Search untuk commerce akan membuatnya. Bucket harus sudah ada.

    {
    "inputConfig":{
     "gcsSource": {
       "inputUris": ["INPUT_FILE_1", "INPUT_FILE_2"],
      },
      "errorsConfig":{"gcsPrefix":"ERROR_DIRECTORY"}
    }
  2. Impor informasi katalog Anda dengan membuat permintaan POST ke metode REST userEvents:import, dengan memberikan nama file data.

    export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
    
    curl -X POST \
         -v \
         -H "Content-Type: application/json; charset=utf-8" \
         -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \
         --data @./DATA_FILE.json \
      "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import"
      }
    }'

Mengimpor peristiwa pengguna dari BigQuery

Impor peristiwa pengguna dari BigQuery menggunakan Google Cloud konsol atau metode userEvents.import.

Menyiapkan akses BigQuery

Ikuti petunjuk di Menyiapkan akses ke set data BigQuery Anda untuk memberikan akun layanan Vertex AI Search for Commerce peran BigQuery User minimum yang diperlukan agar impor berhasil dan peran BigQuery Data Editor tambahan untuk set data BigQuery Anda. Peran BigQuery Data Owner tidak diperlukan.

Mengimpor peristiwa pengguna dari BigQuery

Anda dapat mengimpor peristiwa pengguna menggunakan konsol Penelusuran untuk e-commerce atau metode userEvents.import.

Konsol

  1. Buka halaman Data> di konsol Search for Commerce.

    Buka halaman Data
  2. Klik Impor untuk membuka panel Impor Data.
  3. Pilih Peristiwa pengguna.
  4. Pilih BigQuery sebagai sumber data.
  5. Pilih skema data.

  6. Masukkan tabel BigQuery tempat data Anda berada.
  7. Opsional: Masukkan lokasi bucket Cloud Storage di project Anda sebagai lokasi sementara untuk data Anda.
    Jika tidak ditentukan, lokasi default akan digunakan. Jika ditentukan, bucket BigQuery dan Cloud Storage harus berada di region yang sama.
  8. Opsional: Di bagian Tampilkan opsi lanjutan, masukkan lokasi bucket Cloud Storage di project Anda sebagai lokasi sementara untuk data Anda.

    Jika tidak ditentukan, lokasi default akan digunakan. Jika ditentukan, bucket BigQuery dan Cloud Storage harus berada di region yang sama.
  9. Klik Import.

curl

Impor peristiwa pengguna dengan menyertakan data untuk peristiwa dalam panggilan ke metode userEvents.import. Lihat referensi API userEvents.import.

Nilai yang Anda tentukan untuk dataSchema bergantung pada apa yang Anda impor:

export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json

curl \
-v \
-X POST \
-H "Content-Type: application/json; charset=utf-8" \
-H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \
"https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import" \
--data '{
  "inputConfig": {
    "bigQuerySource": {
      "datasetId": "DATASET_ID",
      "tableId": "TABLE_ID",
      "dataSchema": "SCHEMA_TYPE"
  }
}
}'

Mengimpor peristiwa pengguna Analytics 360 dengan BigQuery

Anda dapat mengimpor peristiwa pengguna Analytics 360 jika telah mengintegrasikan Analytics 360 dengan BigQuery dan menggunakan E-commerce yang Disempurnakan.

Prosedur berikut mengasumsikan bahwa Anda sudah memahami cara menggunakan BigQuery dan Analytics 360.

Sebelum memulai

Sebelum Anda memulai langkah berikutnya, pastikan:

Periksa sumber data Anda

  1. Pastikan data peristiwa pengguna yang akan Anda impor diformat dengan benar dalam tabel BigQuery yang dapat Anda akses.

    Pastikan tabel diberi nama project_id:ga360_export_dataset.ga_sessions_YYYYMMDD.

    Lihat dokumentasi Google Analytics untuk mengetahui informasi selengkapnya tentang format dan penamaan tabel.

  2. Di konsol Google Cloud BigQuery, pilih tabel dari panel Explorer untuk melihat pratinjau tabel.

    Pastikan bahwa:

    1. Kolom clientId memiliki nilai yang valid—misalnya, 123456789.123456789.

      Perhatikan bahwa nilai ini berbeda dengan nilai cookie _ga lengkap (yang memiliki format seperti GA1.3.123456789.123456789).

    2. Kolom hits.transaction.currencyCode memiliki kode mata uang yang valid.

    3. Jika Anda berencana mengimpor peristiwa search, periksa apakah ada kolom hits.page.searchKeyword atau hits.customVariable.searchQuery.

      Meskipun Vertex AI Search untuk e-commerce memerlukan searchQuery dan productDetails untuk menampilkan daftar hasil penelusuran, Analytics 360 tidak menyimpan kueri penelusuran dan tayangan produk dalam satu peristiwa. Agar Vertex AI Search untuk e-commerce berfungsi, Anda perlu membuat tag di lapisan data atau Piksel JavaScript agar dapat mengimpor kedua jenis peristiwa pengguna dari sumber Google Analytics:

      • searchQuery, yang dibaca dari parameter search_term, atau dari peristiwa view_search_results, berasal dari hits.page.searchKeyword, atau dari hits.customVariables.customVarValue jika hits.customVariables.customVarName adalah searchQuery.
      • productDetails, tayangan produk yang dibaca dari parameter items peristiwa view_item_list, diambil dari hits.product jika hits.product.isImpressions adalah TRUE.
  3. Periksa konsistensi ID item antara katalog yang diupload dan tabel peristiwa pengguna Analytics 360.

    Dengan menggunakan ID produk apa pun dari kolom hits.product.productSKU di pratinjau tabel BigQuery, gunakan metode product.get untuk memastikan produk yang sama ada di katalog yang Anda upload.

    export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
    
       curl \
         -v \
         -X GET \
         -H "Content-Type: application/json; charset=utf-8" \
         -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \
         "https://retail.googleapis.com/v2/projects/PROJECT_NUMBER/locations/global/catalogs/default_catalog/branches/default_branch/products/PRODUCT_ID"

Mengimpor peristiwa Analytics 360

Anda dapat mengimpor peristiwa Google Analytics 360 menggunakan konsol Penelusuran untuk e-commerce atau metode userEvents.import.

Konsol

  1. Buka halaman Data> di konsol Search for Commerce.

    Buka halaman Data
  2. Klik Impor untuk membuka panel Impor Data.
  3. Pilih Peristiwa pengguna.
  4. Pilih BigQuery sebagai sumber data.
  5. Pilih skema data.

  6. Masukkan tabel BigQuery tempat data Anda berada.
  7. Opsional: Masukkan lokasi bucket Cloud Storage di project Anda sebagai lokasi sementara untuk data Anda.
    Jika tidak ditentukan, lokasi default akan digunakan. Jika ditentukan, bucket BigQuery dan Cloud Storage harus berada di region yang sama.
  8. Opsional: Di bagian Tampilkan opsi lanjutan, masukkan lokasi bucket Cloud Storage di project Anda sebagai lokasi sementara untuk data Anda.

    Jika tidak ditentukan, lokasi default akan digunakan. Jika ditentukan, bucket BigQuery dan Cloud Storage harus berada di region yang sama.
  9. Klik Import.

REST

Impor peristiwa pengguna dengan menyertakan data untuk peristiwa dalam panggilan ke metode userEvents.import.

Untuk dataSchema, gunakan nilai user_event_ga360.

export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
curl \\
  -v \\
  -X POST \\
  -H "Content-Type: application/json; charset=utf-8" \\
  -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \\
  "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import" \\
  --data '{
    "inputConfig": {
      "bigQuerySource": {
        "datasetId": "some_ga360_export_dataset",
        "tableId": "ga_sessions_YYYYMMDD",
        "dataSchema": "user_event_ga360"
    }
  }
}'

Java

public static String importUserEventsFromBigQuerySource()
    throws IOException, InterruptedException, ExecutionException {
  UserEventServiceClient userEventsClient = getUserEventServiceClient();

  BigQuerySource bigQuerySource = BigQuerySource.newBuilder()
      .setProjectId(PROJECT_ID)
      .setDatasetId(DATASET_ID)
      .setTableId(TABLE_ID)
      .setDataSchema("user_event")
      .build();

  UserEventInputConfig inputConfig = UserEventInputConfig.newBuilder()
      .setBigQuerySource(bigQuerySource)
      .build();

  ImportUserEventsRequest importRequest = ImportUserEventsRequest.newBuilder()
      .setParent(DEFAULT_CATALOG_NAME)
      .setInputConfig(inputConfig)
      .build();

  String operationName = userEventsClient
      .importUserEventsAsync(importRequest).getName();

  userEventsClient.shutdownNow();
  userEventsClient.awaitTermination(2, TimeUnit.SECONDS);

  return operationName;
}

Mengimpor tayangan halaman beranda Analytics 360 dengan BigQuery

Di Analytics 360, peristiwa tampilan halaman beranda tidak dibedakan dari peristiwa tampilan halaman lainnya. Artinya, peristiwa home-page-view tidak diimpor sebagai peristiwa dengan jenis peristiwa lainnya (seperti detail-page-view) di Mengimpor peristiwa Analytics 360.

Prosedur berikut menjelaskan cara mengekstrak peristiwa penayangan halaman beranda dari data Analytics 360 dan mengimpornya ke Vertex AI Search for commerce. Singkatnya, hal ini dilakukan dengan mengekstrak tampilan pengguna di halaman beranda (diidentifikasi oleh jalur halaman beranda) ke dalam tabel BigQuery baru, lalu mengimpor data dari tabel baru tersebut ke Vertex AI Search untuk commerce.

Untuk mengimpor peristiwa tampilan halaman beranda dari Analytics 360 ke Vertex AI Search untuk e-commerce:

  1. Buat set data BigQuery atau pastikan Anda memiliki set data BigQuery yang tersedia yang dapat Anda tambahi tabel.

    Set data ini dapat berada di project Vertex AI Search for commerce Anda atau di project tempat Anda memiliki data Analytics 360. Dataset target tempat Anda akan menyalin peristiwa penayangan halaman beranda Analytics 360.

  2. Buat tabel BigQuery di set data sebagai berikut:

    1. Ganti variabel dalam kode SQL berikut seperti di bawah ini.

      • target_project_id: Project tempat set data dari langkah 1 berada.

      • target_dataset: Nama set data dari langkah 1.

      CREATE TABLE TARGET_PROJECT_ID.TARGET_DATASET.ga_homepage (
       eventType STRING NOT NULL,
       visitorId STRING NOT NULL,
       userId STRING,
       eventTime STRING NOT NULL
      );
    2. Salin contoh kode SQL.

    3. Buka halaman BigQuery di konsol Google Cloud .

      Buka halaman BigQuery

    4. Jika belum dipilih, pilih project target.

    5. Di panel Editor, tempel contoh kode SQL.

    6. Klik Run dan tunggu hingga kueri selesai dijalankan.

    Menjalankan kode ini akan membuat tabel dalam format target_project_id:target_dataset.ga_homepage_YYYYMMDD—misalnya, my-project:view_events.ga_homepage_20230115.

  3. Salin peristiwa tampilan halaman beranda Analytics 360 dari tabel data Analytics 360 ke tabel yang dibuat pada langkah 2 sebelumnya.

    1. Ganti variabel dalam kode contoh SQL berikut sebagai berikut:

      • source_project_id: ID project yang berisi data Analytics 360 dalam tabel BigQuery.

      • source_dataset: Set data dalam project sumber yang berisi data Analytics 360 dalam tabel BigQuery.

      • source_table: Tabel dalam project sumber yang berisi data Analytics 360.

      • target_project_id: Target project ID yang sama seperti di langkah 2 sebelumnya.

      • target_dataset: Set data target yang sama seperti pada langkah 2 sebelumnya.

      • path: Ini adalah jalur ke halaman beranda. Biasanya ini adalah /—misalnya, jika halaman beranda adalah example.com/. Namun, jika halaman beranda seperti examplepetstore.com/index.html, jalur adalah /index.html.

      INSERT INTO `TARGET_PROJECT_ID.TARGET_DATASET.ga_homepage(eventType,visitorId,userID,eventTime)`
      
      SELECT
        "home-page-view" as eventType,
        clientId as visitorId,
        userId,
        CAST(FORMAT_TIMESTAMP("%Y-%m-%dT%H:%M:%SZ",TIMESTAMP_SECONDS(visitStartTime)) as STRING) AS eventTime
      
      FROM
        `SOURCE_PROJECT_ID.SOURCE_DATASET.SOURCE_TABLE`, UNNEST(hits) as hits
      
      WHERE hits.page.pagePath = "PATH" AND visitorId is NOT NULL;
    2. Salin contoh kode SQL.

    3. Buka halaman BigQuery di konsol Google Cloud .

      Buka halaman BigQuery

    4. Jika belum dipilih, pilih project target.

    5. Di panel Editor, tempel contoh kode SQL.

    6. Klik Run dan tunggu hingga kueri selesai dijalankan.

  4. Ikuti petunjuk di Mengimpor peristiwa pengguna dari BigQuery untuk mengimpor peristiwa home-page-view dari tabel target. Selama pemilihan skema, jika Anda mengimpor menggunakan konsol, pilih Skema Peristiwa Pengguna Retail; jika Anda mengimpor menggunakan userEvents.import, tentukan user_event untuk nilai dataSchema.

  5. Hapus tabel dan set data yang Anda buat di langkah 1 dan 2.

Mengimpor peristiwa pengguna Google Analytics 4 dengan BigQuery

Anda dapat mengimpor peristiwa pengguna Google Analytics 4 jika telah mengintegrasikan Google Analytics 4 dengan BigQuery dan menggunakan E-commerce Google Analytics.

Prosedur berikut mengasumsikan Anda sudah memahami cara menggunakan BigQuery dan Google Analytics 4.

Sebelum memulai

Sebelum Anda memulai langkah berikutnya, pastikan:

Periksa sumber data Anda

Untuk memastikan data peristiwa pengguna Anda siap diimpor, ikuti langkah-langkah berikut.

Untuk melihat tabel kolom Google Analytics 4 yang digunakan Vertex AI Search for Commerce dan kolom Vertex AI Search for Commerce yang dipetakan, lihat Kolom peristiwa pengguna Google Analytics 4.

Untuk semua parameter peristiwa Google Analytics, lihat dokumentasi referensi Peristiwa Google Analytics.

  1. Pastikan data peristiwa pengguna yang akan Anda impor diformat dengan benar dalam tabel BigQuery yang dapat Anda akses.

    • Set data harus diberi nama analytics_PROPERTY_ID.
    • Tabel harus diberi nama events_YYYYMMDD.

    Untuk mengetahui informasi tentang nama dan format tabel, lihat dokumentasi Google Analytics.

  2. Di konsol Google Cloud BigQuery, pilih set data dari panel Explorer dan temukan tabel peristiwa pengguna yang ingin Anda impor.

    Pastikan bahwa:

    1. Kolom event_params.key memiliki kunci currency dan nilai string terkaitnya adalah kode mata uang yang valid.

    2. Jika Anda berencana mengimpor peristiwa search, periksa apakah kolom event.event_params.key memiliki kunci search_term dan nilai terkait.

      Meskipun Vertex AI Search untuk e-commerce memerlukan searchQuery dan productDetails untuk menampilkan daftar hasil penelusuran, Google Analytics 4 tidak menyimpan kueri penelusuran dan tayangan produk dalam satu peristiwa. Agar Vertex AI Search untuk e-commerce berfungsi, Anda perlu membuat tag di lapisan data atau dari Piksel JavaScript agar dapat mengimpor kedua jenis peristiwa pengguna dari sumber Google Analytics:

      • searchQuery, yang dibaca dari parameter search_term, atau dari peristiwa view_search_results.
      • productDetails, tayangan produk yang dibaca dari parameter items peristiwa view_item_list.

      Untuk mendapatkan informasi tentang search di Google Analytics 4, lihat search di dokumentasi Google Analytics.

  3. Periksa konsistensi ID item antara katalog yang diupload dan tabel peristiwa pengguna Google Analytics 4.

    Untuk memastikan bahwa produk dalam tabel pengguna Google Analytics 4 juga ada dalam katalog yang Anda upload, salin ID produk dari kolom event.items.item_id dalam pratinjau tabel BigQuery dan gunakan metode product.get untuk memeriksa apakah ID produk tersebut ada dalam katalog yang Anda upload.

    export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
    
       curl \
         -v \
         -X GET \
         -H "Content-Type: application/json; charset=utf-8" \
         -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \
         "https://retail.googleapis.com/v2/projects/PROJECT_NUMBER/locations/global/catalogs/default_catalog/branches/default_branch/products/PRODUCT_ID"

Mengimpor peristiwa Google Analytics 4

Anda dapat mengimpor peristiwa Google Analytics 4 menggunakan Search for commerce console atau metode userEvents.import.

Menggunakan konsol

  1. Buka halaman Data> di konsol Search for Commerce.

    Buka halaman Data
  2. Klik Impor untuk membuka panel Impor Data.
  3. Pilih Peristiwa pengguna.
  4. Pilih BigQuery sebagai sumber data.
  5. Pilih skema data.

  6. Masukkan tabel BigQuery tempat data Anda berada.
  7. Opsional: Masukkan lokasi bucket Cloud Storage di project Anda sebagai lokasi sementara untuk data Anda.
    Jika tidak ditentukan, lokasi default akan digunakan. Jika ditentukan, bucket BigQuery dan Cloud Storage harus berada di region yang sama.
  8. Opsional: Di bagian Tampilkan opsi lanjutan, masukkan lokasi bucket Cloud Storage di project Anda sebagai lokasi sementara untuk data Anda.

    Jika tidak ditentukan, lokasi default akan digunakan. Jika ditentukan, bucket BigQuery dan Cloud Storage harus berada di region yang sama.
  9. Klik Import.

Menggunakan API

Impor peristiwa pengguna dengan menyertakan data untuk peristiwa dalam panggilan ke metode userEvents.import. Lihat referensi API userEvents.import.

Untuk dataSchema, gunakan nilai user_event_ga4.

export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
curl \\
  -v \\
  -X POST \\
  -H "Content-Type: application/json; charset=utf-8" \\
  -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \\
  "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import" \\
  --data '{
    "inputConfig": {
      "bigQuerySource": {
        "projectId": "PROJECT_ID",
        "datasetId": "DATASET_ID",
        "tableId": "TABLE_ID",
        "dataSchema": "user_event_ga4"
    }
  }
}'

Mengimpor peristiwa pengguna secara inline

Anda dapat mengimpor peristiwa pengguna secara inline dengan menyertakan data untuk peristiwa dalam panggilan ke metode userEvents.import.

Cara termudah untuk melakukannya adalah dengan memasukkan data peristiwa pengguna ke dalam file JSON dan memberikan file tersebut ke curl.

Untuk format jenis peristiwa pengguna, lihat Tentang peristiwa pengguna.

curl

  1. Buat file JSON:

    {
      "inputConfig": {
        "userEventInlineSource": {
          "userEvents": [
            \{
              "<userEvent1>"
            \},
            \{
              "<userEvent2>"
            \},
            \....
          \]
        \}
      }
    }
    
  2. Panggil metode POST:

    curl -X POST \
         -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \
         -H "Content-Type: application/json; charset=utf-8" \
         --data @./data.json \
      "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import"
    

Java

public static String importUserEventsFromInlineSource(
    List<UserEvent> userEventsToImport)
    throws IOException, InterruptedException, ExecutionException {
  UserEventServiceClient userEventsClient = getUserEventServiceClient();

  UserEventInlineSource inlineSource = UserEventInlineSource.newBuilder()
      .addAllUserEvents(userEventsToImport)
      .build();

  UserEventInputConfig inputConfig = UserEventInputConfig.newBuilder()
      .setUserEventInlineSource(inlineSource)
      .build();

  ImportUserEventsRequest importRequest = ImportUserEventsRequest.newBuilder()
      .setParent(DEFAULT_CATALOG_NAME)
      .setInputConfig(inputConfig)
      .build();

  String operationName = userEventsClient
      .importUserEventsAsync(importRequest).getName();

  userEventsClient.shutdownNow();
  userEventsClient.awaitTermination(2, TimeUnit.SECONDS);

  return operationName;
}

Data katalog historis

Anda juga dapat mengimpor data katalog yang muncul di peristiwa pengguna historis. Data katalog ini dapat bermanfaat karena informasi produk sebelumnya dapat digunakan untuk memperkaya pengambilan peristiwa pengguna, yang pada gilirannya dapat meningkatkan akurasi model.

Untuk mengetahui detail selengkapnya, lihat Mengimpor data katalog historis.

Melihat acara yang diimpor

Lihat metrik integrasi acara di tab Acara di halaman Data pada konsol Penelusuran untuk e-commerce. Halaman ini menampilkan semua peristiwa yang ditulis atau diimpor pada tahun lalu. Metrik dapat memerlukan waktu hingga 24 jam untuk muncul setelah penyerapan data berhasil.

Buka halaman Data

Langkah berikutnya