Diese Seite enthält Details zu den Limits für die Nutzung von Cloud Logging.
Nutzungslimits für Cloud Logging
Für die Nutzung von Cloud Logging gelten folgende Limits. Mit Ausnahme der Limits für die Anzahl der Protokoll-Buckets und ‑Sinks sind diese Limits festgelegt. Sie können sie weder erhöhen noch verringern.
Kategorie | Maximalwert |
---|---|
Größe eines LogEntry |
256 KB1 |
Größe eines Audit-Logeintrags | 512 KiB |
Anzahl der Label | 64 pro LogEntry |
Länge eines LogEntry -Labelschlüssels |
512 B2 |
Länge eines LogEntry -Labelwerts |
64 KB2 |
Länge einer Logging-Abfrage | 20.000 Zeichen |
Abfragefan-out4 | 200 Buckets |
Anzahl der Waschbecken | 200 pro Google Cloud-Projekt3 |
Länge eines Aufnahmefilters für eine Senke | 20.000 Zeichen |
Länge eines Ausschlussfilters für eine Senke | 20.000 Zeichen |
Anzahl der Ausschlussfilter | 50 pro Senke |
Anzahl der Log-Buckets | 100 pro Google Cloud-Projekt3,4,5 |
Anzahl der benutzerdefinierten indexierten Felder | 20 pro Log-Bucket |
Anzahl der Logansichten | 30 pro Log-Bucket |
Älteste Zeitstempel, die in Log-Buckets gespeichert werden können6 | 30 Tage in der Vergangenheit |
Zeitstempel in der Zukunft, der in Log-Buckets gespeichert werden kann6 | Bis zu 1 Tag in der Zukunft |
Anzahl der Logbereiche pro Ressource | 100 |
Anzahl der Logansichten und Projekte, die in einem Logbereich enthalten sind | 100 |
Anzahl der Projekte, die in einem Logbereich enthalten sind | 5 |
Maximale Anzahl von Analytics-Aufrufen pro Google Cloud-Projekt7 | 100 |
Die maximale Anzahl von Analytics-Aufrufen pro Google Cloud-Projekt und Region7 | 50 |
Maximale Anzahl von Regionen pro Google Cloud-Projekt, in denen Analysedatenansichten gespeichert werden können7 | 10 |
1 Dieses angenäherte Limit basiert auf internen Datengrößen und nicht auf der tatsächlichen Größe der REST API-Anfrage.
2 In Cloud Logging werden zu große Labelschlüssel und Werte abgeschnitten, wenn der zugehörige Logeintrag geschrieben wird.
3 Dieses Limit gilt auch für Abrechnungskonten, Ordner und Organisationen. Es ist nicht hierarchisch. Beispiel: Wenn Sie mehrere Google Cloud-Projekte in einer Organisation haben, können Sie bis zu 200 Senken für jedes Google Cloud-Projekt konfigurieren. Für dieselbe Organisation könnten Sie bis zu 200 Senken auf Organisationsebene konfigurieren.
4: Dies ist die maximale Anzahl von Buckets, die Protokolleinträge für eine Ressource enthalten können. Weitere Informationen finden Sie unter Abfrage gibt einen Fehler zurück.
5 Dieses Limit umfasst Buckets, die bald gelöscht werden.
6 Logeinträge mit Zeitstempeln außerhalb dieser Grenzen werden von Log-Buckets abgelehnt. Die Logging API akzeptiert Einträge mit älteren Zeitstempeln. Diese Einträge können an Senken weitergeleitet, aber nicht im Protokollspeicher gespeichert werden. Die Logging API lehnt Einträge mit Zeitstempeln ab, die mehr als einen Tag in der Zukunft liegen, und gibt den Fehler INVALID_ARGUMENT
zurück.
7Diese Funktion befindet sich in der öffentlichen Vorschau.
Kontingente und Limits der Logging API
Für die Nutzung der Logging API gelten die folgenden Limits. Sie können Änderungen an Ihren Logging API-Kontingenten und -Limits beantragen. Eine Anleitung dazu finden Sie auf dieser Seite unter Änderungen am Cloud Logging API-Kontingent anfordern.
Kategorie | Höchstwert |
---|---|
API-Nutzung | Ihr Kontingent finden Sie im API-Dashboard. Wählen Sie dazu eine API und dann Kontingente aus. |
Lebensdauer der API-Seitentoken | 24 Stunden |
Anzahl der aktiven Live-Verfolgungs-Sitzungen | 10 pro Google Cloud-Projekt3 |
Anzahl der zurückgegebenen Live-Verfolgungs-Einträge | 60.000 pro Minute |
Anzahl der eingeschränkten Felder | 20 pro Bucket |
Größe eines eingeschränkten Felds | 800 B |
Größe einer entries.write -Anfrage |
10 MB |
Anzahl der entries.write -AnfragenDas Kontingent wird ersetzt. Weitere Informationen finden Sie unter Aufnehmekontingente pro Region |
120.000 pro Minute und Google Cloud-Projekt1, 3 |
Häufigkeit von entries.write -Anfragen nach RegionKontingente werden hinzugefügt. Weitere Informationen finden Sie unter Aufnahmekontingente nach Region |
4,8 GB pro Minute und Google Cloud-Projekt in den Regionen
asia-east1 ,
asia-northeast1 ,
asia-southeast1 ,
asia-south1 ,
europe-west1 ,
europe-west2 ,
europe-west3 ,
europe-west4 ,
us-central1 ,
us-east4 ,
us-west1
1, 3300 MB pro Minute und Google Cloud-Projekt in allen anderen Regionen1, 3 |
Anzahl der entries.list -Anfragen |
60 pro Minute und pro Google Cloud-Projekt2, 3 |
Anzahl der verschiedenen Ressourcennamen in einem einzelnen entries.write -Befehl4 |
1000 |
Steueranfragen5 pro Minute | 600 |
Kontrollanfragen5 pro Tag | 1.000 pro Google Cloud-Projekt |
Anzahl der Google Cloud-Projekte oder anderen Ressourcennamen in einer einzelnen entries.list -Anfrage |
100 |
Anzahl gleichzeitiger Kopiervorgänge | 1 pro Google Cloud-Projekt3 |
Häufigkeit von Exporten in ein Pub/Sub-Thema6 | 60 GB pro Minute und Google Cloud-Projekt |
1 Die Verwendung von Ausschlussfiltern reduziert diese Zahl nicht, da Logs nach dem entries.write
-Anfrage ausgeschlossen werden.
2: Dies ist die Standardeinstellung.
3 Dieses Limit gilt auch für Abrechnungskonten, Ordner und Organisationen. Es ist nicht hierarchisch.
4 Das Feld logName
eines Logeintrags gibt den Ressourcennamen des Logeintrags an.
5 Das tägliche Kontingent für Steueranfragen gilt für API-Anfragen zum Erstellen und Aktualisieren von Ausschlüssen und Senken. Das Kontingent für Steuerungsanfragen pro Minute gilt für alle Elemente, die auch im täglichen Kontingent für Steuerungsanfragen enthalten sind, sowie für API-Anfragen zum Löschen von Protokollen und zum Verwalten protokollbasierter Messwerte.
6 Wenn die Exportrate das Kontingent überschreitet, wird der Fehler in einem Logeintrag aufgezeichnet. Im Feld „Zusammenfassung“ wird ein Fehler bei der Senkenkonfiguration angezeigt und der Fehlercode ist als topic_over_quota
aufgeführt.
Aufnahmekontingente pro Region
Ab dem 22. April 2025 begrenzen die Cloud Logging-Kontingente das Volumen der Daten, die in eine Aufnahmeregion geschrieben werden, pro Google Cloud-Projekt. Ab diesem Datum wird die Anzahl der API entries.write
-Anfragen von einem Google Cloud-Projekt in Cloud Logging nicht mehr begrenzt. Mit dieser Änderung soll die Isolierung verbessert und regionale Ressourcen vor einer Überlastung bei der Datenaufnahme geschützt werden.
In der folgenden Tabelle sehen Sie das Standardkontingent für jede Region:
Aufnahmeregion | Standardwert |
---|---|
asia-east1 ,
asia-northeast1 ,
asia-southeast1 ,
asia-south1 ,
europe-west1 ,
europe-west2 ,
europe-west3 ,
europe-west4 ,
us-central1 ,
us-east4 ,
us-west1
|
4, 8 GB pro Minute und Google Cloud-Projekt |
Alle anderen Regionen | 300 MB pro Minute und Google Cloud-Projekt |
Die Standardwerte für die regionalen Kontingente überschreiten die Aufnahmemengen der meisten Nutzer. Wenn das Datenaufnahmevolumen Ihres Projekts aus einer Region in den letzten sechs Monaten vor dem 22. April 2025 jedoch dem Standardkontingent für diese Region entspricht oder es überschreitet, wird Ihr ursprüngliches Kontingent automatisch und einmalig erhöht. Daher sind Ihre Kontingente möglicherweise höher als die Standardwerte in der Tabelle oben.
Sie können Ihre regionalen Kontingente vor dem 22. April 2025 prüfen. Die Kontingente werden jedoch erst nach diesem Datum erzwungen. Informationen zum Überprüfen von Kontingenten finden Sie unter Kontingente für Logging prüfen.
Nach dem 22. April 2025 wird das Kontingent für die Anzahl der entries.write
-Anfragen auf „Unbegrenzt“ geändert.
Wenn Sie nach dem 22. April 2025 ein regionales Kontingent überschreiten, werden Ihre Schreibanfragen an die Cloud Logging API möglicherweise mit der Fehlermeldung „Ressource erschöpft“ abgelehnt. Empfehlungen, wie Sie das Überschreiten von Kontingenten vermeiden können, finden Sie unter Logging-Kontingente verwalten und überwachen.
Kontingente für die Cloud Logging API prüfen
So prüfen Sie Ihre Kontingente für die Cloud Logging API:
-
Rufen Sie in der Google Cloud Console die Seite Kontingente und Systemlimits auf:
Gehen Sie zu Kontingente und Systemlimits.
Wenn Sie diese Seite über die Suchleiste suchen, wählen Sie das Ergebnis aus, dessen Zwischenüberschrift IAM & Admin ist.
- Filtern Sie die Liste der Kontingente für den Cloud Logging API-Dienst.
Änderungen am Cloud Logging API-Kontingent anfordern
In der Google Cloud Console können Sie höhere oder niedrigere Logging API-Limits anfordern. Weitere Informationen finden Sie unter Kontingente aufrufen und verwalten.
Wenn die Fehlermeldung Edit is not allowed for this quota
ausgegeben wird, können Sie den Support kontaktieren, um Änderungen am Kontingent anzufordern. Beachten Sie auch, dass die Abrechnung für das Google Cloud-Projekt aktiviert sein muss, damit die Kästchen angeklickt werden können.
Cloud Logging API-Kontingente verwalten und überwachen
So können Sie Dienstunterbrechungen durch Überschreiten von Kontingenten vermeiden:
- Mit der automatischen Kontingentanpassung können Sie die Kontingentnutzung im Blick behalten und Kontingenterhöhungen anfordern. Weitere Informationen finden Sie unter Kontingentanpassung.
- Erstellen Sie Benachrichtigungen zu Kontingenten, um über die Nutzung informiert zu werden. Weitere Informationen finden Sie unter Kontingentbenachrichtigungen einrichten.
Nutzung von entries.list
optimieren
entries.list
wird in der Regel verwendet, um nach übereinstimmenden Protokollen zu suchen. Diese Methode ist nicht für das Abrufen großer Mengen von Protokolleinträgen geeignet. Wenn Sie Ihr entries.list
-Kontingent regelmäßig aufbrauchen, haben Sie folgende Möglichkeiten:
Achten Sie darauf, dass Sie die Cloud Logging API effizient verwenden. Weitere Informationen finden Sie unter Nutzung der API optimieren.
Wenn Sie im Voraus wissen, dass die Logeinträge, die Sie analysieren möchten, das
entries.list
-Kontingent überschreiten, konfigurieren Sie eine Logsenke, um Ihre Logs an ein unterstütztes Ziel zu exportieren.
- Wenn Sie Logeinträge außerhalb von Logging analysieren möchten, können Sie bereits vorhandene Logeinträge aus Cloud Logging in Cloud Storage-Buckets kopieren. Wenn Sie Protokolle in einen Cloud Storage-Bucket kopieren, können Sie Logeinträge für Prüfer außerhalb von Logging freigeben und Scripts in Cloud Storage ausführen.
Wenn Sie Ihre Logeinträge im Logging-Dashboard zusammenfassen und analysieren möchten, speichern Sie sie in einem Log-Bucket und aktualisieren Sie dieses dann für die Verwendung von Log Analytics. Weitere Informationen zu diesen Schritten finden Sie unter Log-Buckets konfigurieren.
In Log Analytics können Sie Ihre Logeinträge mit BigQuery-Standard-SQL abfragen.
Logbasierte Messwerte
Folgende Limits gelten für die Nutzung benutzerdefinierter logbasierter Messwerte. Mit Ausnahme der Anzahl der Messwertbeschreiber sind diese Limits festgelegt. Sie können sie weder erhöhen noch verringern.
Kategorie | Maximalwert |
---|---|
Anzahl der Labels | 10 pro Messwert |
Länge des Labelwerts | 1.024 B |
Länge der Labelbeschreibung | 800 B |
Länge des Filters1 | 20.000 Zeichen |
Länge der Messwertdeskriptoren | 8.000 B |
Anzahl der Messwertdeskriptoren | 500 pro Google Cloud-Projekt2 |
Anzahl der aktiven Zeitreihen3 | 30.000 pro Messwert |
Anzahl der Histogramm-Buckets | 200 pro benutzerdefiniertem Verteilungsmesswert |
Datenaufbewahrung | Cloud Monitoring: Datenaufbewahrung |
1: Jeder logbasierte Messwert enthält einen Filter. Wenn ein Logeintrag mit dem Filter übereinstimmt, wird er gezählt. Filter werden mithilfe der Logging-Abfragesprache definiert.
2 Dieses Limit gilt auch für Abrechnungskonten, Ordner und Organisationen. Es ist nicht hierarchisch.
3 Eine Zeitachse ist aktiv, wenn Sie in den vergangenen 24 Stunden Datenpunkte darauf geschrieben haben.
Audit-Logging
Die maximalen Größen von Audit-Logs sind in der folgenden Tabelle aufgeführt. Anhand dieser Werte können Sie den benötigten Speicherplatz in Ihren Zielorten schätzen.
Audit-Logtyp | Maximalgröße |
---|---|
Administratoraktivität | 512 KiB |
Datenzugriff | 512 KiB |
Systemereignis | 512 KiB |
Richtlinie abgelehnt | 512 KiB |
Aufbewahrungsdauer für Logs
Folgende Aufbewahrungsdauern von Cloud Logging gelten für Log-Buckets, unabhängig davon, welche Arten Logs im Bucket enthalten sind oder ob sie von einem anderen Speicherort kopiert wurden. Die Aufbewahrungsinformationen sind:
Bucket | Standardmäßige Aufbewahrungsdauer | Benutzerdefinierte Aufbewahrung |
---|---|---|
_Required |
400 Tage | Nicht konfigurierbar |
_Default |
30 Tage | Konfigurierbar |
Benutzerdefiniert | 30 Tage | Konfigurierbar |
Für den _Default
-Log-Bucket und benutzerdefinierte Log-Buckets können Sie Cloud Logging so konfigurieren, dass die Logs 1–3.650 Tage lang aufbewahrt werden. Informationen zum Festlegen von Aufbewahrungsregeln finden Sie unter Benutzerdefinierte Aufbewahrung konfigurieren.
Preise
Für das Weiterleiten von Logs an ein unterstütztes Ziel fallen in Cloud Logging keine Gebühren an. Es können jedoch Gebühren am Ziel erhoben werden.
Mit Ausnahme des _Required
-Log-Buckets fallen in Cloud Logging Kosten für das Streamen von Logs in Log-Buckets und für die Speicherung über die standardmäßige Aufbewahrungsdauer des Log-Buckets hinaus an.
Für das Kopieren von Logs, das Erstellen von Log-Bereichen oder Analyseansichten oder für Abfragen, die über die Seiten Log-Explorer oder Log Analytics gestellt werden, fallen bei Cloud Logging keine Gebühren an.
Weitere Informationen finden Sie in folgenden Dokumenten:
- Preisübersicht für Cloud Logging
Kosten für Zielvorhaben:
- Gebühren für die Erzeugung von VPC-Flusslogs werden berechnet, wenn Sie Ihre Virtual Private Cloud-Flusslogs senden und dann von Cloud Logging ausschließen.