Mit Sammlungen den Überblick behalten
Sie können Inhalte basierend auf Ihren Einstellungen speichern und kategorisieren.
Dieses Dokument enthält die aktuellen Inhaltslimits und Ratenkontingente für die Cloud Data Fusion API.
Ratenkontingente
Die folgenden Ratenkontingente der Cloud Data Fusion API gelten für Cloud Data Fusion API-Anfragen auf Steuerungsebene, zum Beispiel Anfragen zum Erstellen, Aktualisieren oder Löschen von Cloud Data Fusion-Instanzen. Anfragen für andere Google Cloud-Ressourcen wie Compute Engine- oder Cloud Storage-Ressourcen zum Ausführen von Datenverarbeitungspipelines auf Cloud Data Fusion-Instanzen sind davon nicht betroffen. Für Anfragen in Bezug auf Pipelineressourcen können andere Kontingentlimits gelten.
Die Kontingente können sich jederzeit ändern.
Kontingent
Wert
Anfragen pro Minute von einem einzelnen Nutzer in einer Region
600
Die Limits gelten für alle Google Cloud Console-Projekte sowie für alle Anwendungen und IP-Adressen, die dieses Projekt verwenden.
Weitere Google Cloud Kontingente
Ihre Cloud Data Fusion-Instanzen können zum Ausführen von Pipelines andere Google Cloud-Produkte verwenden. Für diese gelten Kontingente auf Projektebene, von denen einige auch die Nutzung von Cloud Data Fusion betreffen.
Dataproc
Cloud Data Fusion setzt Dataproc als Ausführungsumgebung für Pipelines ein.
Die Dataproc-Kontingente gelten für alle ausgeführten Pipelines.
Cloud Logging
Cloud Data Fusion speichert Logs in Logging. Die Logging-Kontingente gelten auch für Cloud Data Fusion-Instanzen.
Zusätzliche Kontingente
Je nachdem, welche Google Cloud Dienste von Ihren Pipelines genutzt werden, gelten unter Umständen folgende zusätzliche Kontingente:
BigQuery: Für das Lesen oder Schreiben von Daten in BigQuery gelten die BigQuery-Kontingente.
Bigtable: Beim Lesen oder Schreiben von Daten in Bigtable gilt das Bigtable-Kontingent.
Cloud Storage: Für das Lesen oder Schreiben von Daten in Cloud Storage gelten die Cloud Storage-Kontingente.
Compute Engine: Für das Lesen oder Schreiben von Daten in Compute Engine gelten die Compute Engine-Kontingente.
Spanner: Für das Lesen oder Schreiben von Daten in Spanner gelten die Spanner-Kontingente.
[[["Leicht verständlich","easyToUnderstand","thumb-up"],["Mein Problem wurde gelöst","solvedMyProblem","thumb-up"],["Sonstiges","otherUp","thumb-up"]],[["Schwer verständlich","hardToUnderstand","thumb-down"],["Informationen oder Beispielcode falsch","incorrectInformationOrSampleCode","thumb-down"],["Benötigte Informationen/Beispiele nicht gefunden","missingTheInformationSamplesINeed","thumb-down"],["Problem mit der Übersetzung","translationIssue","thumb-down"],["Sonstiges","otherDown","thumb-down"]],["Zuletzt aktualisiert: 2025-08-12 (UTC)."],[[["\u003cp\u003eThis document outlines the request quotas for the Cloud Data Fusion API, specifically for control plane operations like creating or modifying instances.\u003c/p\u003e\n"],["\u003cp\u003eThe Cloud Data Fusion API has a quota of 600 requests per minute per user per region, which applies across all applications and IP addresses using a single project.\u003c/p\u003e\n"],["\u003cp\u003eCloud Data Fusion pipelines use other Google Cloud services, such as Dataproc and Logging, which each have their own separate project-level quotas.\u003c/p\u003e\n"],["\u003cp\u003eDepending on the services your pipelines interact with, additional quotas from BigQuery, Bigtable, Cloud Storage, Compute Engine, or Spanner may also apply.\u003c/p\u003e\n"],["\u003cp\u003eThe request quotas apply specifically to the Cloud Data Fusion API and not other Google Cloud resources that are used for pipeline resources.\u003c/p\u003e\n"]]],[],null,["# Quotas and limits\n\nThis document contains current content limits and rate quotas for the\nCloud Data Fusion API.\n\nRate quotas\n-----------\n\nThe following [Cloud Data Fusion API](/data-fusion/docs/reference/rest)\nrate quotas apply to Cloud Data Fusion control plane API requests,\nsuch as requests to create, update, or delete Cloud Data Fusion\ninstances. They do not apply to requests for other Google Cloud\nresources, such as Compute Engine or Cloud Storage\nresources, to run data processing pipelines on Cloud Data Fusion\ninstances (other [quota limits](https://console.cloud.google.com/iam-admin/quotas) may apply to\nrequests for pipeline resources).\n\nQuotas are subject to change.\n\nThese limits apply to each Google Cloud console project and are shared across\nall applications and IP addresses using that project.\n\nOther Google Cloud quotas\n-------------------------\n\nYour Cloud Data Fusion instances can use other Google Cloud\nproducts to run pipelines. These products have project-level quotas, which\ninclude quotas that apply to Cloud Data Fusion use.\n\n### Dataproc\n\nCloud Data Fusion uses Dataproc as the execution\nenvironment for pipelines.\n[Dataproc quota](/dataproc/quotas \"Cloud Dataproc quota\")\napplies to all pipelines that you execute.\n\n### Cloud Logging\n\nCloud Data Fusion saves logs in\n[Logging](/logging \"Stackdriver Logging\"). The\n[Logging quota](/logging/quota-policy \"Stackdriver Logging quota\")\napplies to your Cloud Data Fusion instances.\n\n### Additional quotas\n\nDepending on the Google Cloud services your pipelines use,\nadditional quotas might apply, for example:\n\n- BigQuery---When reading or writing data into BigQuery, the [BigQuery quota](/bigquery/quota-policy) applies.\n- Bigtable---When reading or writing data into Bigtable, the [Bigtable quota](/bigtable/quotas) applies.\n- Cloud Storage---When reading or writing data into Cloud Storage, the [Cloud Storage quota](/storage/quotas) applies.\n- Compute Engine---When reading or writing data into Compute Engine, the [Compute Engine quota](/compute/quotas) applies.\n- Spanner---When reading or writing data into Spanner, the [Spanner quota](/spanner/quotas) applies."]]