Die Onlinebereitstellung von Bigtable eignet sich für große Datenmengen (in der Reihenfolge von Terabyte an Daten) mit hoher Datenlanglebigkeit. Es ist mit der Onlinebereitstellung in Vertex AI Feature Store (Legacy) vergleichbar, ist jedoch nicht für die schnelle Anpassung an plötzliche Traffic-Bursts optimiert.
Im Allgemeinen hat die Onlinebereitstellung von Bigtable eine höhere Latenz als die optimierte Onlinebereitstellung, ist jedoch kostengünstiger.
Beachten Sie, dass die Bigtable-Onlinebereitstellung die Verwaltung von Einbettungen nicht unterstützt. Wenn Sie Einbettungen verwalten und bereitstellen möchten, verwenden Sie die Optimierte Onlinebereitstellung.
Führen Sie die folgenden Schritte aus, um die Onlinebereitstellung von Bigtable zu verwenden:
Mit der optimierten Onlinebereitstellung können Sie Features mit Latenzen bereitstellen, die deutlich niedriger sind als die Bigtable-Onlinebereitstellung. Sie bietet eine Architektur für die Onlinebereitstellung, die schneller, skalierbarer und reaktionsschneller auf ein größeres Datenvolumen reagiert. Die optimierte Onlinebereitstellung ist in Szenarien geeignet, in denen Features mit sehr niedrigen Latenzen entscheidend sind.
Mit der optimierten Onlinebereitstellung können Sie Featurewerte entweder von einem öffentlichen Endpunkt oder von einem Private Service Connect-Endpunkt bereitstellen.
Alle Onlinespeicherinstanzen, die für optimierte Onlinebereitstellung erstellt wurden, unterstützen die Verwaltung von Einbettungen.
Optimierte Onlinebereitstellung mit öffentlichem Endpunkt
Standardmäßig können Sie mit einem Onlineshop, der für die optimierte Onlinebereitstellung erstellt wurde, Funktionen mit einem öffentlichen Endpunkt bereitstellen. Führen Sie die folgenden Schritte aus, um die optimierte Onlinebereitstellung mit einem öffentlichen Endpunkt zu verwenden:
Optimierte Onlinebereitstellung mit Private Service Connect-Endpunkt
Ein Private Service Connect-Endpunkt ist ein dedizierter Bereitstellungsendpunkt.
Verwenden Sie einen Private Service Connect-Endpunkt, wenn Sie Features in einem VPC-Netzwerk mit niedrigeren Latenzen als ein öffentlicher Endpunkt bereitstellen möchten. Führen Sie die folgenden Schritte aus, um die optimierte Onlinebereitstellung mit einem Private Service Connect-Endpunkt zu verwenden:
[[["Leicht verständlich","easyToUnderstand","thumb-up"],["Mein Problem wurde gelöst","solvedMyProblem","thumb-up"],["Sonstiges","otherUp","thumb-up"]],[["Schwer verständlich","hardToUnderstand","thumb-down"],["Informationen oder Beispielcode falsch","incorrectInformationOrSampleCode","thumb-down"],["Benötigte Informationen/Beispiele nicht gefunden","missingTheInformationSamplesINeed","thumb-down"],["Problem mit der Übersetzung","translationIssue","thumb-down"],["Sonstiges","otherDown","thumb-down"]],["Zuletzt aktualisiert: 2024-07-26 (UTC)."],[],[],null,["# Online serving types\n\nVertex AI Feature Store offers the following types of online serving that\nyou can use to serve features for online predictions:\n\n- [Bigtable online serving](#bigtable_serving)\n\n- [Optimized online serving](#optimized_serving), where you can choose one of the following configurations:\n\n - [Optimized online serving with public endpoint](#optimized_public)\n\n - [Optimized online serving with Private Service Connect endpoint](#optimized_private)\n\nBigtable online serving\n-----------------------\n\nBigtable online serving is suitable for large data volumes (in the\norder of terabytes of data) with high data durability. It's comparable to\nonline serving in Vertex AI Feature Store (Legacy) but isn't optimized to\nrapidly adjust to sudden bursts of traffic.\n\nGenerally, Bigtable online serving has higher latency than\nOptimized online serving, but is more cost-efficient.\nBigtable online serving supports both\n[scheduled and continuous data sync](/vertex-ai/docs/featurestore/latest/create-featureview#sync_featuredata)\nfor its feature views.\n\nNote that Bigtable online serving doesn't support embeddings management. If\nyou want to manage and serve embeddings, use [Optimized online serving](#optimized_serving).\n\nTo use Bigtable online serving, you need to perform the following steps:\n\n1. [Create an online store for Bigtable online serving.](/vertex-ai/docs/featurestore/latest/create-onlinestore#create_fos_bigtable)\n\n2. [Create a feature view instance.](/vertex-ai/docs/featurestore/latest/create-featureview)\n\n3. [Fetch feature values using Bigtable online serving.](/vertex-ai/docs/featurestore/latest/serve-feature-values#bigtable_serving)\n\nOptimized online serving\n------------------------\n\nOptimized online serving lets you serve features at latencies that are\nsignificantly lower than Bigtable online serving. It provides an online\nserving architecture that's faster, more scalable, and more responsive to\nincreased data volumes. Optimized online serving is suitable in scenarios\nwhere it's critical to serve features at ultra-low latencies.\n\nWith Optimized online serving, you can serve feature values from either\na public endpoint or a Private Service Connect endpoint.\n\nAll online store instances created for Optimized online serving support\nembeddings management.\n\nOptimized online serving supports scheduled data sync, but doesn't support\ncontinuous data sync for feature views. If you want to use continuous data sync\nto sync data from the BigQuery data source to your feature views\nin near real-time, use Bigtable online serving.\n\n### Optimized online serving with public endpoint\n\nBy default, an online store created for Optimized online serving lets you\nserve features with a public endpoint. To use Optimized online serving\nwith a public endpoint, you need to perform the following steps:\n\n1. [Create an online store for Optimized online serving with a public endpoint.](/vertex-ai/docs/featurestore/latest/create-onlinestore#create_fos_optimized_public)\n\n2. [Create a feature view instance.](/vertex-ai/docs/featurestore/latest/create-featureview)\n\n3. [Fetch feature values using Optimized online serving from a public endpoint.](/vertex-ai/docs/featurestore/latest/serve-feature-values#optimized_serving_public)\n\n### Optimized online serving with Private Service Connect endpoint\n\nA Private Service Connect endpoint is a dedicated serving endpoint.\nUse a Private Service Connect endpoint if you want to\nserve features within a VPC network at lower latencies than a\npublic endpoint. To use Optimized online serving\nwith a Private Service Connect endpoint, you need to perform the\nfollowing steps:\n\n1. [Create an online store for Optimized online serving with a Private Service Connect endpoint.](/vertex-ai/docs/featurestore/latest/create-onlinestore#create_fos_optimized_private)\n\n2. [Create a feature view instance.](/vertex-ai/docs/featurestore/latest/create-featureview)\n\n3. [Fetch feature values using Optimized online serving from the Private Service Connect endpoint.](/vertex-ai/docs/featurestore/latest/serve-feature-values#optimized_serving_private)\n\nSet up online serving to serve null feature values or only non-null feature values\n----------------------------------------------------------------------------------\n\nDuring online serving, if you want to serve only the latest feature values,\nincluding null values, you must use the following setup:\n\n1. [Register your feature data source by creating a feature group](/vertex-ai/docs/featurestore/latest/create-featuregroup)\n with the `dense` parameter set to `true`.\n\n2. Choose Bigtable online serving when you [create the online store instance](/vertex-ai/docs/featurestore/latest/create-onlinestore).\n\n3. Use the `cron` parameter to set up scheduled data sync when you\n [create your feature views](/vertex-ai/docs/featurestore/latest/create-featureview).\n\nIf you use any other configuration while setting up your feature data source\nand online serving, Vertex AI Feature Store serves only the\nlatest non-null feature values. If the latest value of a feature is null, then\nVertex AI Feature Store serves the most recent non-null historical\nvalue for the feature. If a non-null historical value isn't available, then\nVertex AI Feature Store serves null as the feature value.\n\nWhat's next\n-----------\n\n- Learn how to [create an online store instance](/vertex-ai/docs/featurestore/latest/create-onlinestore).\n\n- Learn how to [create a feature view](/vertex-ai/docs/featurestore/latest/update-feature).\n\n- Learn how to [serve feature values](/vertex-ai/docs/featurestore/latest/serve-feature-values)."]]