Tetap teratur dengan koleksi
Simpan dan kategorikan konten berdasarkan preferensi Anda.
Untuk impor batch, Vertex AI Feature Store (Lama) dapat mengimpor data dari tabel di
BigQuery atau file di Cloud Storage.
Gunakan tabel BigQuery jika Anda perlu mengimpor seluruh set data dan tidak memerlukan filter partisi.
Gunakan tampilan BigQuery jika Anda perlu mengimpor subset set data tertentu. Opsi ini lebih hemat waktu dan memungkinkan Anda mengimpor pilihan tertentu dari seluruh set data, termasuk beberapa tabel yang dihasilkan dari data.
Data yang terdapat dalam file yang diimpor dari Cloud Storage harus dalam format AVRO atau CSV.
Untuk impor streaming, Anda perlu memberikan nilai fitur yang akan diimpor dalam permintaan API.
Persyaratan data sumber ini tidak berlaku. Untuk mengetahui informasi selengkapnya, lihat referensi writeFeatureValues API.
Setiap item (atau baris) harus mematuhi persyaratan berikut:
Anda harus memiliki kolom untuk ID entitas, dan nilainya harus berjenis
STRING. Kolom ini berisi ID entitas yang menjadi tujuan nilai fitur.
Jenis nilai data sumber Anda harus cocok dengan jenis nilai fitur
tujuan di featurestore. Misalnya, nilai boolean harus diimpor ke fitur yang berjenis BOOL.
Semua kolom harus memiliki header yang berjenis STRING. Tidak ada pembatasan pada nama header.
Untuk tabel BigQuery dan tampilan BigQuery, header kolomnya adalah nama kolom.
Untuk AVRO, header kolom ditentukan oleh skema AVRO yang terkait
dengan data biner.
Untuk file CSV, header kolom adalah baris pertama.
Jika Anda menyediakan kolom untuk stempel waktu pembuatan fitur, gunakan salah satu format stempel waktu berikut:
Untuk tabel BigQuery dan tampilan BigQuery, stempel waktu harus berada di kolom TIMESTAMP.
Untuk Avro, stempel waktu harus berjenis panjang dan logis timestamp-micros.
Untuk file CSV, stempel waktu harus dalam format RFC 3339.
File CSV tidak boleh menyertakan jenis data array. Gunakan Avro atau BigQuery.
Untuk jenis array, Anda tidak dapat menyertakan nilai null dalam array. Meskipun demikian, Anda dapat
menyertakan array kosong.
Stempel waktu nilai fitur
Untuk impor batch, Vertex AI Feature Store (Lama) memerlukan stempel waktu
yang disediakan pengguna untuk nilai fitur yang diimpor. Anda dapat menentukan stempel waktu tertentu untuk setiap nilai atau menentukan stempel waktu yang sama untuk semua nilai:
Jika stempel waktu untuk nilai fitur berbeda, tentukan stempel waktu di kolom dalam data sumber. Setiap baris harus memiliki stempel waktu sendiri yang menunjukkan
kapan nilai fitur dihasilkan. Dalam permintaan impor, Anda menentukan
nama kolom untuk mengidentifikasi kolom stempel waktu.
Jika stempel waktu untuk semua nilai fitur sama, Anda dapat menentukannya sebagai parameter dalam permintaan impor. Anda juga dapat menentukan stempel waktu di
kolom dalam data sumber, dengan setiap baris memiliki stempel waktu yang sama.
Region sumber data
Jika data sumber Anda berada di BigQuery atau Cloud Storage, set data atau bucket sumber harus berada di region yang sama atau di lokasi multi-region yang sama dengan featurestore Anda. Misalnya, featurestore di us-central1 hanya dapat mengimpor data dari bucket Cloud Storage atau set data BigQuery yang berada di us-central1 atau di lokasi multi-region AS. Anda tidak dapat mengimpor data dari, misalnya, us-east1. Selain itu, data
sumber dari bucket region ganda tidak didukung.
[[["Mudah dipahami","easyToUnderstand","thumb-up"],["Memecahkan masalah saya","solvedMyProblem","thumb-up"],["Lainnya","otherUp","thumb-up"]],[["Sulit dipahami","hardToUnderstand","thumb-down"],["Informasi atau kode contoh salah","incorrectInformationOrSampleCode","thumb-down"],["Informasi/contoh yang saya butuhkan tidak ada","missingTheInformationSamplesINeed","thumb-down"],["Masalah terjemahan","translationIssue","thumb-down"],["Lainnya","otherDown","thumb-down"]],["Terakhir diperbarui pada 2025-09-02 UTC."],[],[],null,["# Source data requirements\n\nFor batch import, Vertex AI Feature Store (Legacy) can import data from tables in\nBigQuery or files in Cloud Storage.\n\n- Use BigQuery table if you need to import the entire dataset and don't require partition filters.\n\n- Use BigQuery view if you need to import a specific subset of the dataset. This option is more time-efficient and lets you import specific selections from the entire dataset, including multiple tables generated from the data.\n\n- Data contained in files imported from Cloud Storage must be in AVRO or CSV format.\n\nFor streaming import, you provide the feature values to import in the API request.\nThese source data requirements don't apply. For more information, see the [writeFeatureValues API\nreference](/vertex-ai/docs/reference/rest/v1beta1/projects.locations.featurestores.entityTypes/writeFeatureValues).\n\nEach item (or row) must adhere to the following requirements:\n\n- You must have a column for entity IDs, and the values must be of type\n `STRING`. This column contains the entity IDs that the feature values are\n for.\n\n- Your source data value types must match the value types of the destination\n feature in the featurestore. For example, boolean values must be import into\n a feature that is of type `BOOL`.\n\n- All columns must have a header that are of type `STRING`. There are no\n restrictions on the name of the headers.\n\n - For BigQuery tables and BigQuery views, the column header is the column name.\n - For AVRO, the column header is defined by the AVRO schema that is associated with the binary data.\n - For CSV files, the column header is the first row.\n- If you provide a column for feature generation timestamps, use one of the\n following timestamp formats:\n\n - For BigQuery tables and BigQuery views, timestamps must be in the TIMESTAMP column.\n - For Avro, timestamps must be of type long and logical type timestamp-micros.\n - For CSV files, timestamps must be in the RFC 3339 format.\n- CSV files cannot include array data types. Use Avro or BigQuery\n instead.\n\n- For array types, you cannot include a null value in the array. Though, you can\n include an empty array.\n\nFeature value timestamps\n------------------------\n\nFor batch import, Vertex AI Feature Store (Legacy) requires user-provided\ntimestamps for the imported feature values. You can specify a particular\ntimestamp for each value or specify the same timestamp for all values:\n\n- If the timestamps for feature values are different, specify the timestamps in a column in your source data. Each row must have its own timestamp indicating when the feature value was generated. In your import request, you specify the column name to identify the timestamp column.\n- If the timestamp for all feature values is the same, you can specify it as a parameter in your import request. You can also specify the timestamp in a column in your source data, where each row has the same timestamp.\n\nData source region\n------------------\n\nIf your source data is in either BigQuery or Cloud Storage, the\nsource dataset or bucket must be in the same region or in the same\nmulti-regional location as your featurestore. For example, a featurestore in\n`us-central1` can import data only from Cloud Storage buckets or\nBigQuery datasets that are in `us-central1` or in the US multi-region\nlocation. You can't import data from, for example, `us-east1`. Also, source\ndata from dual-region buckets is not supported.\n\nWhat's next\n-----------\n\n- Learn about [setting up your project](/vertex-ai/docs/featurestore/setup) to use Vertex AI Feature Store (Legacy).\n- Learn how to [batch import feature values](/vertex-ai/docs/featurestore/ingesting-batch)."]]