Diese Seite enthält Details zu den Limits für die Nutzung von Cloud Logging.
Nutzungslimits für Cloud Logging
Für die Nutzung von Cloud Logging gelten folgende Limits. Mit Ausnahme der Limits für die Anzahl der Log-Buckets und ‑Senken sind diese Limits festgelegt. Sie können sie weder erhöhen noch verringern.
Kategorie | Maximalwert |
---|---|
Größe von LogEntry |
256 KB1 |
Größe eines Audit-Logeintrags | 512 KiB |
Anzahl der Label | 64 pro LogEntry |
Länge eines Labelschlüssels für LogEntry |
512 B2 |
Länge eines LogEntry -Labelwerts |
64 KB2 |
Länge einer Abfrage in der Logging-Abfragesprache | 20.000 Zeichen |
Abfrage-Fanout4 | 200 Buckets |
Anzahl der Waschbecken | 200 pro Google Cloud Projekt3 |
Länge eines Aufnahmefilters für eine Senke | 20.000 Zeichen |
Länge eines Ausschlussfilters für eine Senke | 20.000 Zeichen |
Anzahl der Ausschlussfilter | 50 pro Senke |
Anzahl der Log-Buckets | 100 pro Google Cloud Projekt3,4,5 |
Anzahl der benutzerdefinierten indexierten Felder | 20 pro Log-Bucket |
Anzahl der Logansichten | 30 pro Log-Bucket |
Ältester Zeitstempel, der in Log-Buckets gespeichert werden kann6 | Wird durch den standardmäßigen Aufbewahrungszeitraum des Log-Buckets bestimmt. Bei einem benutzerdefinierten Log-Bucket mit der standardmäßigen Aufbewahrungsdauer liegt dieser Wert 30 Tage in der Vergangenheit. |
Zukünftiger Zeitstempel, der in Log-Buckets gespeichert werden kann6 | Bis zu 1 Tag in der Zukunft |
Anzahl der Logbereiche pro Ressource | 100 |
Anzahl der Logansichten und Projekte in einem Logbereich | 100 |
Anzahl der Projekte in einem Logbereich | 5 |
Maximale Anzahl von Analytics-Datenansichten pro Google Cloud Projekt7 | 100 |
Pro Google Cloud Projekt die maximale Anzahl von Analyseansichten pro Region7 | 50 |
Maximale Anzahl von Regionen pro Google Cloud Projekt, in denen Analyseansichten gespeichert werden können7 | 10 |
1 Dieses angenäherte Limit basiert auf internen Datengrößen und nicht auf der tatsächlichen Größe der REST API-Anfrage.
2 Cloud Logging kürzt zu große Labelschlüssel und Werte, wenn deren zugehörigen Logeinträge geschrieben werden.
3 Dieses Limit gilt auch für Abrechnungskonten, Ordner und Organisationen und ist nicht hierarchisch. Wenn Sie beispielsweise mehrereGoogle Cloud -Projekte in einer Organisation haben, können Sie bis zu 200 Senken für jedes Google Cloud -Projekt konfigurieren. Für dieselbe Organisation könnten Sie bis zu 200 Senken auf Organisationsebene konfigurieren.
4 Dieses Limit gibt die maximale Anzahl von Buckets an, die möglicherweise Logeinträge für eine Ressource enthalten. Weitere Informationen finden Sie unter Abfrage gibt einen Fehler zurück.
5 Dieses Limit umfasst Buckets, die bald gelöscht werden.
6 Logeinträge mit Zeitstempeln außerhalb dieser Grenzen werden aus Log-Buckets abgelehnt. Die Logging API akzeptiert Einträge mit älteren Zeitstempeln. Diese Einträge können an Senkenziele weitergeleitet, aber nicht im Logspeicher gespeichert werden. Die Logging API lehnt Einträge mit Zeitstempeln ab, die mehr als einen Tag in der Zukunft liegen, und gibt den Fehler INVALID_ARGUMENT
zurück.
7 Diese Funktion ist in der öffentlichen Vorschau verfügbar.
Kontingente und Limits der Logging API
Für die Nutzung der Logging API gelten die folgenden Limits. Sie können Änderungen an Ihren Logging API-Kontingenten und ‑Limits anfordern. Eine Anleitung dazu finden Sie auf dieser Seite unter Änderungen am Cloud Logging API-Kontingent anfordern.
Kategorie | Höchstwert |
---|---|
API-Nutzung | Ihr Kontingent können Sie im API-Dashboard aufrufen. Wählen Sie dazu eine API und dann Kontingente aus. |
Lebensdauer der API-Seitentoken | 24 Stunden |
Anzahl der aktiven Live-Verfolgungs-Sitzungen | 10 pro Google Cloud Projekt3 |
Anzahl der zurückgegebenen Live-Verfolgungs-Einträge | 60.000 pro Minute |
Anzahl der eingeschränkten Felder | 20 pro Bucket |
Größe eines eingeschränkten Felds | 800 B |
Größe einer entries.write -Anfrage |
10 MB |
Anzahl der entries.write -AnfragenKontingent, das ersetzt wird. Weitere Informationen finden Sie unter Aufnahmekontingente nach Region |
120.000 pro Minute und Google Cloud Projekt1, 3; unbegrenzt nach dem 4. August 2025; Kontingent entfernt nach dem 11. August 2025 |
Rate der entries.write -Anfragen,
nach RegionHinzugefügte Kontingente. Weitere Informationen finden Sie unter Aufnahmekontingente nach Region |
4,8 GB pro Minute und Google Cloud Projekt in den Regionen
asia-east1 ,
asia-northeast1 ,
asia-southeast1 ,
asia-south1 ,
europe-west1 ,
europe-west2 ,
europe-west3 ,
europe-west4 ,
us-central1 ,
us-east4 ,
us-west1
1, 3300 MB pro Minute und Google Cloud Projekt in allen verbleibenden Regionen1, 3 |
Anzahl der entries.list -Anfragen |
60 pro Minute und Google Cloud Projekt2, 3 |
Anzahl der verschiedenen Ressourcennamen in einem einzelnen -Befehl entries.write 4 |
1000 |
Steuerungsanfragen5 pro Minute | 600 |
Kontrollanfragen5 pro Tag | 1.000 pro Google Cloud Projekt |
Anzahl der Google Cloud Projekte oder anderen Ressourcennamen in einer einzelnen entries.list -Anfrage |
100 |
Anzahl gleichzeitiger Kopiervorgänge | 1 pro Google Cloud Projekt3 |
Rate der Exporte in ein Pub/Sub-Thema6 | 60 GB pro Minute und Google Cloud Projekt |
1 Die Verwendung von Ausschlussfiltern reduziert diese Zahl nicht, da der Ausschluss von Logs erst nach dem Aufruf von entries.write
erfolgt.
2Dieser Wert ist die Standardeinstellung.
3 Dieses Limit gilt auch für Abrechnungskonten, Ordner und Organisationen und ist nicht hierarchisch.
4 Im Feld logName
eines Logeintrags wird der Ressourcenname des Logeintrags angegeben.
5 Das tägliche Kontingent für Kontrollanfragen gilt für API-Anfragen zum Erstellen und Aktualisieren von Ausschlüssen und Senken. Das minütliche Kontingent für Steuerungsanfragen gilt für alle Elemente, die auch im täglichen Kontingent für Steuerungsanfragen enthalten sind, sowie für API-Anfragen zum Löschen von Logs und zum Verwalten von logbasierten Messwerten.
6 Wenn die Exportrate das Kontingent überschreitet, wird der Fehler in einem Logeintrag aufgezeichnet. Im Zusammenfassungsfeld wird ein Senkenkonfigurationsfehler angegeben und der Fehlercode wird als topic_over_quota
aufgeführt.
Aufnahmekontingente pro Region
Ab dem 4. August 2025 wird das Datenvolumen, das in eine Aufnahme-Region geschrieben wird, durch Cloud Logging-Kontingente proGoogle Cloud -Projekt begrenzt. Ab dem 4. August 2025 wird die Anzahl der API-entries.write
-Anfragen aus einem Google Cloud -Projekt in Cloud Logging nicht mehr begrenzt. Diese Änderung soll die Isolation verbessern und regionale Ressourcen vor Überlastung durch die Aufnahme schützen.
In der folgenden Tabelle sehen Sie das Standardkontingent für jede Region:
Aufnahmeregion | Standardwert |
---|---|
asia-east1 ,
asia-northeast1 ,
asia-southeast1 ,
asia-south1 ,
europe-west1 ,
europe-west2 ,
europe-west3 ,
europe-west4 ,
us-central1 ,
us-east4 ,
us-west1
|
4, 8 GB pro Minute und Google Cloud Projekt |
Alle verbleibenden Regionen | 300 MB pro Minute und Google Cloud Projekt |
Die Standardwerte für die regionalen Kontingente überschreiten die Aufnahmevolumina der meisten Nutzer. Wenn das Aufnahmevolumen Ihres Projekts aus einer Region in den letzten sechs oder mehr Monaten vor dem 4. August 2025 jedoch nahe am oder über dem Standardkontingent für diese Region liegt, enthält Ihr anfängliches Kontingent eine automatische, einmalige Erhöhung. Daher können Ihre Kontingente höher sein als die Standardwerte in der vorherigen Tabelle.
Sie können Ihre regionalen Kontingente vor dem 4. August 2025 einsehen, aber die Kontingente werden erst nach diesem Datum erzwungen. Informationen zum Überprüfen von Kontingenten finden Sie unter Logging-Kontingente prüfen.
Am 4. August 2025 wird das Kontingent für die Anzahl der entries.write
-Anfragen auf „Unbegrenzt“ geändert.
Am 11. August 2025 wird das Kontingent für die Anzahl der entries.write
-Anfragen entfernt.
Wenn Sie nach dem 4. August 2025 ein regionales Kontingent überschreiten, werden Ihre Schreibanfragen an die Cloud Logging API möglicherweise mit der Fehlermeldung „resource exhausted“ (Ressource erschöpft) abgelehnt. Empfehlungen, mit denen Sie vermeiden können, dass Kontingente überschritten werden, finden Sie unter Logging-Kontingente verwalten und überwachen.
Kontingente für die Cloud Logging API ansehen
So rufen Sie Ihre Kontingente für die Cloud Logging API auf:
-
Rufen Sie in der Google Cloud Console die Seite Kontingente und Systemlimits auf:
Zur Seite Kontingente und Systemlimits
Wenn Sie diese Seite über die Suchleiste suchen, wählen Sie das Ergebnis aus, dessen Zwischenüberschrift IAM & Admin ist.
- Filtern Sie die Liste der Kontingente nach dem Dienst „Cloud Logging API“.
Änderungen am Cloud Logging API-Kontingent anfordern
Über dieGoogle Cloud console können Sie höhere oder niedrigere Logging API-Limits anfordern. Weitere Informationen finden Sie unter Kontingente aufrufen und verwalten.
Wenn die Fehlermeldung Edit is not allowed for this quota
ausgegeben wird, können Sie den Support kontaktieren, um Änderungen am Kontingent anzufordern. Beachten Sie auch, dass die Abrechnung für dasGoogle Cloud -Projekt aktiviert sein muss, damit die Kästchen angeklickt werden können.
Kontingente für die Cloud Logging API verwalten und überwachen
So können Sie Dienstunterbrechungen aufgrund von überschrittenen Kontingenten vermeiden:
- Mit der automatischen Kontingentanpassung können Sie Ihre Kontingentnutzung überwachen und Erhöhungen anfordern. Weitere Informationen finden Sie unter Kontingent anpassen.
- Benachrichtigungen für Kontingente erstellen, um über die Nutzung informiert zu werden. Weitere Informationen finden Sie unter Kontingentbenachrichtigungen einrichten.
Nutzung von entries.list
optimieren
entries.list
wird verwendet, um nach übereinstimmenden Logs zu suchen. Diese Methode ist nicht für den umfangreichen Abruf von Logeinträgen vorgesehen. Wenn Sie Ihr entries.list
-Kontingent regelmäßig ausschöpfen, sollten Sie die folgenden Optionen in Betracht ziehen:
Achten Sie darauf, dass Sie die Cloud Logging API effektiv nutzen. Weitere Informationen finden Sie unter API-Nutzung optimieren.
Wenn Sie im Voraus wissen, dass die Logeinträge, die Sie analysieren möchten, das
entries.list
-Kontingent überschreiten, konfigurieren Sie eine Logsenke, um Ihre Logs an ein unterstütztes Ziel zu exportieren.
- Wenn Sie Logeinträge außerhalb von Logging analysieren möchten, können Sie Logeinträge, die bereits in Logging vorhanden sind, nachträglich in Cloud Storage-Buckets kopieren. Wenn Sie Logs in einen Cloud Storage-Bucket kopieren, können Sie Logeinträge für Prüfer außerhalb von Logging freigeben und Skripts in Cloud Storage ausführen.
Wenn Sie Ihre Logeinträge in Logging zusammenfassen und analysieren möchten, speichern Sie sie in einem Log-Bucket und führen Sie dann ein Upgrade dieses Log-Buckets durch, um Log Analytics zu verwenden. Weitere Informationen zu diesen Schritten finden Sie unter Log-Buckets konfigurieren.
Mit Log Analytics können Sie Ihre Logeinträge mit BigQuery-Standard-SQL abfragen.
Logbasierte Messwerte
Folgende Limits gelten für die Nutzung benutzerdefinierter logbasierter Messwerte. Mit Ausnahme der Anzahl der Messwertdeskriptoren sind diese Limits festgelegt. Sie können sie weder erhöhen noch verringern.
Kategorie | Maximalwert |
---|---|
Anzahl der Labels | 10 pro Messwert |
Länge des Labelwerts | 1.024 B |
Länge der Labelbeschreibung | 800 B |
Länge des Filters1 | 20.000 Zeichen |
Länge der Messwertdeskriptoren | 8.000 B |
Anzahl der Messwertdeskriptoren | 500 pro Google Cloud Projekt2 |
Anzahl der aktiven Zeitachsen3 | 30.000 pro Messwert |
Anzahl der Histogramm-Buckets | 200 pro benutzerdefiniertem Verteilungsmesswert |
Datenaufbewahrung | Cloud Monitoring: Datenaufbewahrung |
1 Jeder logbasierte Messwert enthält einen Filter. Wenn ein Logeintrag mit dem Filter übereinstimmt, wird er gezählt. Filter werden mit der Logging-Abfragesprache definiert.
2 Dieses Limit gilt auch für Abrechnungskonten, Ordner und Organisationen und ist nicht hierarchisch.
3 Eine Zeitachse ist aktiv, wenn Sie in den vergangenen 24 Stunden Datenpunkte darauf geschrieben haben.
Audit-Logging
Die maximalen Größen von Audit-Logs sind in der folgenden Tabelle aufgeführt. Mithilfe dieser Werte können Sie den erforderlichen Speicherplatz in Ihren Senken schätzen.
Audit-Logtyp | Maximalgröße |
---|---|
Administratoraktivität | 512 KiB |
Datenzugriff | 512 KiB |
Systemereignis | 512 KiB |
Richtlinie abgelehnt | 512 KiB |
Aufbewahrungsdauer für Logs
Folgende Aufbewahrungsdauern von Cloud Logging gelten für Log-Buckets, unabhängig davon, welche Arten Logs im Bucket enthalten sind oder ob sie von einem anderen Speicherort kopiert wurden. Die Aufbewahrungsinformationen sind:
Bucket | Standardmäßige Aufbewahrungsdauer | Benutzerdefinierte Aufbewahrung |
---|---|---|
_Required |
400 Tage | Nicht konfigurierbar |
_Default |
30 Tage | Konfigurierbar |
Benutzerdefiniert | 30 Tage | Konfigurierbar |
Bei _Default
- und benutzerdefinierten Log-Buckets können Sie Cloud Logging so konfigurieren, dass die Logs 1–3.650 Tage lang aufbewahrt werden. Informationen zum Festlegen von Aufbewahrungsregeln finden Sie unter Benutzerdefinierte Aufbewahrung konfigurieren.
Preise
Beim Weiterleiten von Logs an ein unterstütztes Ziel fallen für Cloud Logging keine Gebühren an. Es können aber Gebühren am Ziel erhoben werden.
Mit Ausnahme des _Required
-Log-Buckets fallen in Cloud Logging Gebühren für das Streamen von Logs in Log-Buckets und für die Speicherung über den standardmäßigen Aufbewahrungszeitraum des Log-Buckets hinaus an.
Für Cloud Logging fallen keine Gebühren für das Kopieren von Logs, das Erstellen von Log-Bereichen oder Analyseansichten oder für Abfragen an, die über die Seiten Log-Explorer oder Loganalyse ausgegeben werden.
Weitere Informationen finden Sie in folgenden Dokumenten:
- Die Cloud Logging-Abschnitte auf der Seite Google Cloud Observability – Preise.
Kosten für das Weiterleiten von Logdaten an andere Google Cloud -Dienste:
- Gebühren für die Erzeugung von VPC-Flusslogs fallen an, wenn Sie Ihre Virtual Private Cloud-Flusslogs senden und dann von Cloud Logging ausschließen.