Mit Sammlungen den Überblick behalten
Sie können Inhalte basierend auf Ihren Einstellungen speichern und kategorisieren.
Wenn Sie ein Modell mit einem tabellarischen Workflow trainieren, werden Ihnen die Kosten basierend auf den Kosten der Infrastruktur und den abhängigen Diensten in Rechnung gestellt. Wenn Sie mit diesem Modell Inferenzvorgänge ausführen, werden Ihnen die Kosten basierend auf den Kosten der Infrastruktur in Rechnung gestellt.
Die Kosten für die Infrastruktur hängen von folgenden Faktoren ab:
Die Anzahl der von Ihnen verwendeten Maschinen. Sie können zugehörige Parameter während des Modelltrainings, der Batchinferenz oder der Onlineinferenz festlegen.
Der Maschinentyp, den Sie verwenden. Sie können diesen Parameter während des Modelltrainings, der Batchinferenz oder der Onlineinferenz festlegen.
Die Dauer, für die die Maschinen verwendet werden.
Wenn Sie ein Modell trainieren oder Batchvorhersagen treffen, ist dies eine Messung der Gesamtverarbeitungszeit des Vorgangs.
Bei Onlineinferenzen ist dies ein Maß für die Zeit, die Ihr Modell auf einem Endpunkt bereitgestellt wird.
[[["Leicht verständlich","easyToUnderstand","thumb-up"],["Mein Problem wurde gelöst","solvedMyProblem","thumb-up"],["Sonstiges","otherUp","thumb-up"]],[["Schwer verständlich","hardToUnderstand","thumb-down"],["Informationen oder Beispielcode falsch","incorrectInformationOrSampleCode","thumb-down"],["Benötigte Informationen/Beispiele nicht gefunden","missingTheInformationSamplesINeed","thumb-down"],["Problem mit der Übersetzung","translationIssue","thumb-down"],["Sonstiges","otherDown","thumb-down"]],["Zuletzt aktualisiert: 2025-09-04 (UTC)."],[],[],null,["# Pricing for Tabular Workflows\n\nWhen you train a model using a Tabular Workflow, you are charged based on the cost of the infrastructure and the dependent services. When you make inferences with this model, you are charged based on the cost of the infrastructure.\n\n\u003cbr /\u003e\n\nThe cost of the infrastructure depends on the following factors:\n\n- The number of machines you use. You can set associated parameters during model training, batch inference, or online inference.\n- The type of machines you use. You can set this parameter during model training, batch inference, or online inference.\n- The length of time the machines are in use.\n - If you train a model or make batch inferences, this is a measure of the total processing time of the operation.\n - If you make online inferences, this is a measure of the time that your model is deployed to an endpoint.\n\nTabular Workflows runs multiple dependent services in your project on your\nbehalf: [Dataflow](https://cloud.google.com/dataflow), [BigQuery](https://cloud.google.com/bigquery),\n[Cloud Storage](https://cloud.google.com/storage),\n[Vertex AI Pipelines](/vertex-ai/docs/pipelines/introduction),\n[Vertex AI Training](https://cloud.google.com/vertex-ai#section-9). These services charge you\ndirectly.\n\nExamples of training cost calculation\n-------------------------------------\n\n**Example 1: 110MB dataset in CSV format, trained for one hour with default hardware configuration.**\n\nThe cost breakdown for the default workflow with Architecture Search and\nTraining is as follows:\n\nOptionally, you can enable model distillation to reduce the resulting model size.\nThe cost breakdown is as follows:\n\n**Example 2: 1.84TB dataset in BigQuery, trained for 20 hours with hardware override.**\n\nThe hardware configuration for this example is as follows:\n\nThe cost breakdown for the default workflow with Architecture Search and\nTraining is as follows:"]]