Mit Sammlungen den Überblick behalten
Sie können Inhalte basierend auf Ihren Einstellungen speichern und kategorisieren.
In diesem Dokument sind die Kontingente und Systemlimits für AI Applications aufgeführt.
Kontingente geben an, wie viel einer zählbaren, freigegebenen Ressource Sie verwenden können. Kontingente werden von Google Cloud Diensten wie AI Applications definiert.
Systemlimits sind feste Werte, die nicht geändert werden können.
Google Cloud nutzt Kontingente, um Fairness zu gewährleisten und Spitzen bei Ressourcennutzung und -verfügbarkeit zu reduzieren. Ein Kontingent schränkt ein, wie viel von einerGoogle Cloud -Ressource Ihr Google Cloud -Projekt nutzen darf. Kontingente gelten für eine Reihe von Ressourcentypen, einschließlich Hardware, Software und Netzwerkkomponenten. Mit Kontingenten können Sie beispielsweise die Anzahl der API-Aufrufe an einen Dienst, die Anzahl der von Ihrem Projekt gleichzeitig verwendeten Load Balancer oder die Anzahl der Projekte begrenzen, die Sie erstellen können. Die Kontingente sollen eine Überlastung von Diensten verhindern und dadurch die Community derGoogle Cloud -Nutzer schützen. Sie helfen Ihnen auch bei der Verwaltung Ihrer eigenen Google Cloud -Ressourcen.
Das Cloud-Kontingentsystem ermöglicht Folgendes:
Ihren Verbrauch von Google Cloud Produkten und ‑Diensten überwachen
Wenn Sie versuchen, mehr von einer Ressource zu verbrauchen, als das Kontingent zulässt, blockiert das System in den meisten Fällen den Zugriff auf die Ressource. Die Aufgabe, die Sie ausführen möchten, schlägt fehl.
Kontingente gelten in der Regel auf Google Cloud Projektebene. Ihre Nutzung einer Ressource in einem Projekt hat keinen Einfluss auf Ihr verfügbares Kontingent in einem anderen Projekt. Innerhalb eines Google Cloud -Projekts werden die Kontingente für alle Anwendungen und IP-Adressen gemeinsam genutzt.
Für AI Applications-Ressourcen gelten außerdem Systemlimits.
Systemlimits können nicht geändert werden.
Zuteilungskontingente
Die folgenden Kontingente werden im Laufe der Zeit nicht zurückgesetzt. Stattdessen werden sie freigegeben, wenn Sie die Ressource freigeben. Wenn das Standardkontingent nicht ausreicht, können Sie eine Kontingenterhöhung anfordern.
Kontingent
Wert
Anzahl der Dokumente pro Projekt
10.000.000
Anzahl der Datenspeicher pro Projekt
100*
Anzahl der Engines pro Projekt
150†
Anzahl der ausstehenden lang andauernden Importvorgänge pro Projekt
300
Anzahl der ausstehenden lang andauernden Vorgänge zum Bereinigen von Dokumenten pro Projekt
100
Anzahl der Bereitstellungssteuerungen pro Projekt
1.000
Anzahl der Steuerelemente für die Boost-Bereitstellung pro Bereitstellungskonfiguration
100
Anzahl der Filter-Serving-Steuerelemente pro Serving-Konfiguration
100
Anzahl der Weiterleitungssteuerungen pro Bereitstellungskonfiguration
100
Anzahl der Synonym-Bereitstellungssteuerungen pro Bereitstellungskonfiguration
100
Anzahl der Nutzerereignisse pro Projekt
40.000.000.000
Regionale Anzahl von Datenspeichern pro Projekt und Standort für „Global“ oder global
100
Regionale Anzahl der Datenspeicher pro Projekt und Standort für die multiregionale EU oder eu
100
Regionale Anzahl der Datenspeicher pro Projekt und Standort für die multiregionale Region USA oder us
100
Regionale Anzahl der Dokumente pro Projekt und Standort für „Global“ oder global
10.000.000
Regionale Anzahl der Dokumente pro Projekt und Standort für die multiregionale EU oder eu
10.000.000
Regionale Anzahl der Dokumente pro Projekt und Standort für die multiregionale US-Region oder us
10.000.000
Regionale Anzahl von Engines pro Projekt und Standort für Global oder global
150
Regionale Anzahl von Engines pro Projekt und Standort für die EU-Multiregion oder eu
150
Regionale Anzahl von Engines pro Projekt und Standort für die US-Multiregion oder us
150
Regionale Anzahl der Nutzerereignisse pro Projekt und Standort für „Global“ oder global
40.000.000.000
Regionale Anzahl der Nutzerereignisse pro Projekt und Standort für die EU-Multiregion oder eu
40.000.000.000
Regionale Anzahl der Nutzerereignisse pro Projekt und Standort für multiregionale US-Standorte oder us
40.000.000.000
* Aufgrund einer technischen Einschränkung beträgt das maximale Kontingent für Datenspeicher 500 pro Projekt. Wenn Sie weitere Datenspeicher benötigen, verwenden Sie neue Projekte.
† Aus technischen Gründen beträgt das maximale Kontingent für Engines 500 pro Projekt. Wenn Sie mehr Engines benötigen, verwenden Sie neue Projekte.
Ratenkontingente
Für AI Applications API-Anfragen gelten die folgenden Kontingente. Wenn das Standardkontingent nicht ausreicht, können Sie eine Kontingenterhöhung anfordern.
Kontingent
Wert
Vollständige Anfragen pro Minute und Projekt
300
Leseanfragen für die konversationelle Suche pro Minute und Projekt
300
Schreibanfragen für die konversationelle Suche pro Minute und Projekt
300
Dokument-Batchanfragen (z. B. Inline-Import und Bereinigung) pro Minute und Projekt
100
Dokumentieren Sie asynchrone Importanfragen (Cloud Storage, BigQuery usw.) pro Minute und Projekt.
5
Anfragen zum Löschen von Dokumenten pro Minute und Projekt
100
Dokumentleseanfragen pro Minute und Projekt
300
Dokumentschreibanfragen pro Minute und Projekt
12.000
Erstellungsanfragen für Bewertungen pro Tag und Projekt
5
Leseanfragen für die Bewertung pro Minute und Projekt
100
Bewertungsschreibanfragen pro Minute und Projekt
100
LLM-Anfragen (Zusammenfassung der Suche, Suche mit mehreren Anfragen) pro Minute und Projekt
60
Anzahl der ausstehenden FHIR- oder BigQuery-Streaming-Schreibvorgänge pro Minute
6.000
Anzahl der Beispielabfragesätze pro Projekt
100
Ranking API-Anfragen pro Minute und Projekt
500
Empfehlungsanfragen pro Minute und Projekt
60.000
Leseanfragen für Beispielabfragen pro Minute und Projekt
200
Leseanfragen für Beispielanfragesätze pro Minute und Projekt
100
Schreibanfragen für Beispielanfragesätze pro Minute und Projekt
100
Beispiel für Schreibanfragen pro Minute und Projekt
200
Schemaleseanfragen pro Minute und Projekt
100
Schema-Schreibanfragen pro Minute und Projekt
100
Suchanfragen pro Minute und Projekt
300
Batchanfragen für Nutzerereignisse (z. B. Import und Bereinigung) pro Minute und Projekt
100
Anfragen zum Erfassen von Nutzerereignissen pro Minute, Projekt und Nutzer
240
Schreibanfragen für Nutzerereignisse pro Minute und Projekt
60.000
Kontingent für die Indexierung von Webseiten
Wenn Sie einen Datenspeicher mit aktivierter erweiterter Website-Indexierung haben, wird jede von Ihnen indexierte Webseite auf das Kontingent „Anzahl der Dokumente pro Projekt“ in der Liste Zuweisungskontingente angerechnet. Die Anzahl der Seiten in Ihrem Projekt und das Seitenkontingent für dieses Projekt finden Sie auch auf der Seite Daten eines Datenspeichers im Feld Projektseiten im Vergleich zum Kontingent.
Wenn Sie einem Datenspeicher in einem Projekt Websites hinzufügen und die Webseiten auf diesen Websites das Kontingent des Projekts überschreiten, werden die Websites nicht indexiert. Wenn in Ihrem Datenspeicher Websites vorhanden sind, die bereits indexiert sind, werden diese weiterhin wie bisher indexiert. Sie können jederzeit ein Upgrade für Ihr Kontingent anfordern.
Kontingenterhöhung anfordern
Verwenden Sie die Google Cloud Console, um die meisten Kontingente anzupassen.
Weitere Informationen finden Sie unter Kontingentanpassung anfordern.
[[["Leicht verständlich","easyToUnderstand","thumb-up"],["Mein Problem wurde gelöst","solvedMyProblem","thumb-up"],["Sonstiges","otherUp","thumb-up"]],[["Schwer verständlich","hardToUnderstand","thumb-down"],["Informationen oder Beispielcode falsch","incorrectInformationOrSampleCode","thumb-down"],["Benötigte Informationen/Beispiele nicht gefunden","missingTheInformationSamplesINeed","thumb-down"],["Problem mit der Übersetzung","translationIssue","thumb-down"],["Sonstiges","otherDown","thumb-down"]],["Zuletzt aktualisiert: 2025-08-19 (UTC)."],[[["\u003cp\u003eQuotas define the amount of shared resources, like hardware, software, and network components, that a Google Cloud project can use within Vertex AI Agent Builder, and they are set by Google Cloud services to ensure fairness and prevent overloading.\u003c/p\u003e\n"],["\u003cp\u003eSystem limits are fixed constraints on Vertex AI Agent Builder resources that cannot be altered, unlike quotas, which can be increased upon request.\u003c/p\u003e\n"],["\u003cp\u003eThere are two types of quotas detailed: allocation quotas, which are released when the resource is no longer in use and include limits like the number of documents or data stores per project, and request quotas, which apply to API requests and involve limits on requests like document read/write, search, and user events per minute.\u003c/p\u003e\n"],["\u003cp\u003eIndexing web pages in a data store with Advanced website indexing enabled counts towards the "Number of documents per project" quota, and exceeding this quota will prevent new web pages from being indexed, though already indexed pages will continue as before.\u003c/p\u003e\n"],["\u003cp\u003eYou can request increases to most quotas, but system limits cannot be modified, and you can go to the "Request a quota adjustment" page on the Google cloud console for more information.\u003c/p\u003e\n"]]],[],null,["This document lists the quotas and system limits that apply to\nAI Applications.\n\n- *Quotas* specify the amount of a countable, shared resource that you can use. Quotas are defined by Google Cloud services such as AI Applications.\n- *System limits* are fixed values that cannot be changed.\n\nGoogle Cloud uses quotas to help ensure fairness and reduce\nspikes in resource use and availability. A quota restricts how much of a\nGoogle Cloud resource your Google Cloud project can use. Quotas\napply to a range of resource types, including hardware, software, and network\ncomponents. For example, quotas can restrict the number of API calls to a\nservice, the number of load balancers used concurrently by your project, or the\nnumber of projects that you can create. Quotas protect the community of\nGoogle Cloud users by preventing the overloading of services. Quotas also\nhelp you to manage your own Google Cloud resources.\n\nThe Cloud Quotas system does the following:\n\n- Monitors your consumption of Google Cloud products and services\n- Restricts your consumption of those resources\n- Provides a way to [request changes to the quota value](/docs/quotas/help/request_increase) and [automate quota adjustments](/docs/quotas/quota-adjuster)\n\nIn most cases, when you attempt to consume more of a resource than its quota\nallows, the system blocks access to the resource, and the task that\nyou're trying to perform fails.\n\nQuotas generally apply at the Google Cloud project\nlevel. Your use of a resource in one project doesn't affect\nyour available quota in another project. Within a Google Cloud project, quotas\nare shared across all applications and IP addresses.\n\n\nThere are also *system limits* on AI Applications resources.\nSystem limits can't be changed.\n| **Note:** Google Cloud products that use the Discovery Engine API, AI Applications (also known as Vertex AI Search) and Google Agentspace, share quotas. This means that your search and recommendations apps in Vertex AI Search share quotas with your apps in Google Agentspace.\n\nAllocation quotas\n\nThe following quotas don't reset over time. Instead, they're released when you\nrelease the resource. You can [request a quota increase](#request-a-quota-increase)\nif the default quota isn't enough.\n\n| Quota | Value |\n|--------------------------------------------------------------------------|----------------|\n| Total number of data stores per project | 100^\\*^ |\n| Total number of engines per project | 150^†^ |\n| Number of pending import long running operations per project | 300 |\n| Number of pending purge documents long running operations per project | 100 |\n| Number of serving controls per project | 1,000 |\n| Number of boost serving controls per serving config | 100 |\n| Number of filter serving controls per serving config | 100 |\n| Number of redirect serving controls per serving config | 100 |\n| Number of synonym serving controls per serving config | 100 |\n| Regional number of data stores per project per location (Global, US, EU) | 100 |\n| Regional number of documents per project per location (Global, US, EU) | 10,000,000 |\n| Regional number of engines per project per location (Global, US, EU) | 150 |\n| Regional number of user events per project per location (Global, US, EU) | 40,000,000,000 |\n\n\n^\\*^ Due to a technical limitation, the maximum quota for data stores is\n500 per project. If you need more data stores, use new projects.\n\n\n^†^ Due to a technical limitation, the maximum quota for engines is 500\nper project. If you need more engines, use new projects.\n| **Note:** The number of data stores, documents, user events, and engines across all locations can't exceed the total per-project quota for that resource. For example, if you already have 60 data stores in the `eu` multi-region and 40 in the `us` multi-region, you can't create another data store because the overall data store quota for the project is 100.\n\nRate quotas\n\nThe following quotas apply to AI Applications API requests. You can\n[request a quota increase](#request-a-quota-increase) if the default quota\nisn't enough.\n\n| Quota | Value |\n|---------------------------------------------------------------------------------------|--------|\n| Complete query requests per minute per project | 300 |\n| Conversational search read requests per minute per project | 300 |\n| Conversational search write requests per minute per project | 300 |\n| Document batch requests (such as inline import and purge) per minute per project | 100 |\n| Document async import (Cloud Storage, BigQuery, etc.) requests per minute per project | 5 |\n| Document purge requests per minute per project | 100 |\n| Document read requests per minute per project | 300 |\n| Document write requests per minute per project | 12,000 |\n| Evaluation create requests per day per project | 5 |\n| Evaluation read requests per minute per project | 100 |\n| Evaluation write requests per minute per project | 100 |\n| LLM query requests (search summarization, multi-turn search) per minute per project | 60 |\n| Number of pending FHIR or BigQuery streaming writes per minute | 6,000 |\n| Number of sample query sets per project | 100 |\n| Ranking API requests per minute per project | 500 |\n| Recommend requests per minute per project | 60,000 |\n| Sample query read requests per minute per project | 200 |\n| Sample query set read requests per minute per project | 100 |\n| Sample query set write requests per minute per project | 100 |\n| Sample query write requests per minute per project | 200 |\n| Schema read requests per minute per project | 100 |\n| Schema write requests per minute per project | 100 |\n| Regional search requests per minute per project per location (Global, US, EU) | 300 |\n| User event batch requests (such as import and purge) per minute per project | 100 |\n| User event collect requests per minute per project per user | 240 |\n| User event write requests per minute per project | 60,000 |\n\nQuota for web page indexing\n\nWhen you have a data store with\n[Advanced website indexing](/generative-ai-app-builder/docs/about-advanced-features#advanced-website-indexing)\nturned on, every web page that you index counts towards the \"Number of documents\nper project\" quota in the [Allocation quotas](#allocation-quotas) list. You can\nalso see the number of pages in your project and the page quota for that project\nin the **Project pages vs quota** field in the **Data** page for a data store.\n\nIf you add websites to a data store in a project and the web pages in those\nwebsites exceed the project's quota, the websites are not\nindexed. If you have websites in your data store that are already indexed, those\nwebsites continue to be indexed as before. You can request to [upgrade your\nquota](#request-a-quota-increase) at any time.\n\nRequest a quota increase\n\nTo adjust most quotas, use the Google Cloud console.\nFor more information, see\n[Request a quota adjustment](/docs/quotas/help/request_increase)."]]