Mit Sammlungen den Überblick behalten
Sie können Inhalte basierend auf Ihren Einstellungen speichern und kategorisieren.
Für den Batchimport kann der Vertex AI Feature Store (Legacy) Daten aus Tabellen in BigQuery oder Dateien in Cloud Storage importieren.
Verwenden Sie die BigQuery-Tabelle, wenn Sie das gesamte Dataset aufnehmen müssen und keine Partitionsfilter benötigen.
Verwenden Sie eine BigQuery-Ansicht, wenn Sie eine bestimmte Teilmenge des Datasets importieren möchten. Diese Option ist zeitsparender und ermöglicht es Ihnen, bestimmte Auswahlen aus dem gesamten Dataset zu importieren, einschließlich mehrerer Tabellen, die aus den Daten generiert werden.
In Cloud Storage aufgenommene Daten müssen im AVRO- oder CSV-Format sein.
Beim Streamingimport geben Sie die zu importierenden Featurewerte in der API-Anfrage an.
Diese Quelldatenanforderungen gelten nicht. Weitere Informationen finden Sie in der API-Referenz zu writeFeatureValues.
Jedes Element (oder jede Zeile) muss folgende Anforderungen erfüllen:
Sie müssen eine Spalte für Entitäts-IDs haben und die Werte müssen vom Typ STRING sein. Diese Spalte enthält die Entitäts-IDs, für die die Featurewerte gelten.
Die Werttypen Ihrer Quelldaten müssen mit den Werttypen des Zielfeatures im Feature Store übereinstimmen. Boolesche Werte müssen beispielsweise in ein Feature vom Typ BOOL aufgenommen werden.
Alle Spalten müssen eine Überschrift vom Typ STRING haben. Es gibt keine Einschränkungen für den Namen der Überschriften.
Bei BigQuery-Tabellen und BigQuery-Ansichten ist der Spalten-Header der Spaltenname.
Für AVRO wird der Spalten-Header durch das AVRO-Schema definiert, das den Binärdaten zugeordnet ist.
Bei CSV-Dateien ist der Spalten-Header die erste Zeile.
Wenn Sie eine Spalte für Zeitstempel der Generierung von Features angeben, verwenden Sie eines der folgenden Zeitstempelformate:
Bei BigQuery-Tabellen und BigQuery-Ansichten müssen die Zeitstempel in der Spalte TIMESTAMP angegeben werden.
Bei Avro müssen Zeitstempel vom Typ „long“ und von logischem Typ „timestamp-micros“ sein.
Bei CSV-Dateien müssen Zeitstempel das RFC 3339-Format haben.
CSV-Dateien dürfen keine Arraydatentypen enthalten. Verwenden Sie stattdessen Avro oder BigQuery.
Bei Arraytypen können Sie keinen Nullwert in das Array einfügen. Sie können jedoch ein leeres Array einfügen.
Zeitstempel des Featurewerts
Für den Batchimport erfordert Vertex AI Feature Store (Legacy) von Nutzern bereitgestellte Zeitstempel für die importierten Featurewerte. Sie können für jeden Wert einen bestimmten Zeitstempel oder für alle Werte denselben Zeitstempel angeben:
Wenn sich die Zeitstempel für Featurewerte unterscheiden, geben Sie die Zeitstempel in einer Spalte in Ihren Quelldaten an. Jede Zeile muss einen eigenen Zeitstempel haben, der angibt, wann der Featurewert generiert wurde. In der Aufnahmeanfrage geben Sie den Spaltennamen an, um die Zeitstempelspalte zu identifizieren.
Wenn der Zeitstempel für alle Featurewerte identisch ist, können Sie ihn in Ihrer Aufnahmeanfrage als Parameter angeben. Sie können den Zeitstempel auch in einer Spalte in Ihren Quelldaten angeben, wobei jede Zeile denselben Zeitstempel hat.
Region der Datenquelle
Wenn sich Ihre Quelldaten entweder in BigQuery oder Cloud Storage befinden, muss sich das Quell-Dataset oder der Quell-Bucket in derselben Region oder am selben multiregionalen Standort wie Ihr Feature Store befinden. Ein Feature Store in us-central1 kann beispielsweise nur Daten aus Cloud Storage-Buckets oder BigQuery-Datasets aufnehmen, die sich am Standort us-central1 oder am multiregionalen Standort "US" befinden. Sie können keine Daten von beispielsweise us-east1 importieren. Außerdem werden Quelldaten aus Dual-Region-Buckets nicht unterstützt.
[[["Leicht verständlich","easyToUnderstand","thumb-up"],["Mein Problem wurde gelöst","solvedMyProblem","thumb-up"],["Sonstiges","otherUp","thumb-up"]],[["Schwer verständlich","hardToUnderstand","thumb-down"],["Informationen oder Beispielcode falsch","incorrectInformationOrSampleCode","thumb-down"],["Benötigte Informationen/Beispiele nicht gefunden","missingTheInformationSamplesINeed","thumb-down"],["Problem mit der Übersetzung","translationIssue","thumb-down"],["Sonstiges","otherDown","thumb-down"]],["Zuletzt aktualisiert: 2025-09-02 (UTC)."],[],[],null,["# Source data requirements\n\nFor batch import, Vertex AI Feature Store (Legacy) can import data from tables in\nBigQuery or files in Cloud Storage.\n\n- Use BigQuery table if you need to import the entire dataset and don't require partition filters.\n\n- Use BigQuery view if you need to import a specific subset of the dataset. This option is more time-efficient and lets you import specific selections from the entire dataset, including multiple tables generated from the data.\n\n- Data contained in files imported from Cloud Storage must be in AVRO or CSV format.\n\nFor streaming import, you provide the feature values to import in the API request.\nThese source data requirements don't apply. For more information, see the [writeFeatureValues API\nreference](/vertex-ai/docs/reference/rest/v1beta1/projects.locations.featurestores.entityTypes/writeFeatureValues).\n\nEach item (or row) must adhere to the following requirements:\n\n- You must have a column for entity IDs, and the values must be of type\n `STRING`. This column contains the entity IDs that the feature values are\n for.\n\n- Your source data value types must match the value types of the destination\n feature in the featurestore. For example, boolean values must be import into\n a feature that is of type `BOOL`.\n\n- All columns must have a header that are of type `STRING`. There are no\n restrictions on the name of the headers.\n\n - For BigQuery tables and BigQuery views, the column header is the column name.\n - For AVRO, the column header is defined by the AVRO schema that is associated with the binary data.\n - For CSV files, the column header is the first row.\n- If you provide a column for feature generation timestamps, use one of the\n following timestamp formats:\n\n - For BigQuery tables and BigQuery views, timestamps must be in the TIMESTAMP column.\n - For Avro, timestamps must be of type long and logical type timestamp-micros.\n - For CSV files, timestamps must be in the RFC 3339 format.\n- CSV files cannot include array data types. Use Avro or BigQuery\n instead.\n\n- For array types, you cannot include a null value in the array. Though, you can\n include an empty array.\n\nFeature value timestamps\n------------------------\n\nFor batch import, Vertex AI Feature Store (Legacy) requires user-provided\ntimestamps for the imported feature values. You can specify a particular\ntimestamp for each value or specify the same timestamp for all values:\n\n- If the timestamps for feature values are different, specify the timestamps in a column in your source data. Each row must have its own timestamp indicating when the feature value was generated. In your import request, you specify the column name to identify the timestamp column.\n- If the timestamp for all feature values is the same, you can specify it as a parameter in your import request. You can also specify the timestamp in a column in your source data, where each row has the same timestamp.\n\nData source region\n------------------\n\nIf your source data is in either BigQuery or Cloud Storage, the\nsource dataset or bucket must be in the same region or in the same\nmulti-regional location as your featurestore. For example, a featurestore in\n`us-central1` can import data only from Cloud Storage buckets or\nBigQuery datasets that are in `us-central1` or in the US multi-region\nlocation. You can't import data from, for example, `us-east1`. Also, source\ndata from dual-region buckets is not supported.\n\nWhat's next\n-----------\n\n- Learn about [setting up your project](/vertex-ai/docs/featurestore/setup) to use Vertex AI Feature Store (Legacy).\n- Learn how to [batch import feature values](/vertex-ai/docs/featurestore/ingesting-batch)."]]