Kontingente und Limits

Diese Seite enthält Details zu den Limits für die Nutzung von Cloud Logging.

Nutzungslimits für Cloud Logging

Für die Nutzung von Cloud Logging gelten folgende Limits. Mit Ausnahme der Limits für die Anzahl der Protokoll-Buckets und ‑Sinks sind diese Limits festgelegt. Sie können sie weder erhöhen noch verringern.

Kategorie Maximalwert
Größe eines LogEntry 256 KB1
Größe eines Audit-Logeintrags 512 KiB
Anzahl der Label 64 pro LogEntry
Länge eines LogEntry-Labelschlüssels 512 B2
Länge eines LogEntry-Labelwerts 64 KB2
Länge einer Logging-Abfrage 20.000 Zeichen
Abfragefan-out4  200 Buckets
Anzahl der Waschbecken 200 pro Google Cloud-Projekt3
Länge eines Aufnahmefilters für eine Senke 20.000 Zeichen
Länge eines Ausschlussfilters für eine Senke 20.000 Zeichen
Anzahl der Ausschlussfilter 50 pro Senke
Anzahl der Log-Buckets 100 pro Google Cloud-Projekt3,4,5
Anzahl der benutzerdefinierten indexierten Felder 20 pro Log-Bucket
Anzahl der Logansichten 30 pro Log-Bucket
Älteste Zeitstempel, die in Log-Buckets gespeichert werden können6 30 Tage in der Vergangenheit
Zeitstempel in der Zukunft, der in Log-Buckets gespeichert werden kann6 Bis zu 1 Tag in der Zukunft
Anzahl der Logbereiche pro Ressource 100
Anzahl der Logansichten und Projekte, die in einem Logbereich enthalten sind 100
Anzahl der Projekte, die in einem Logbereich enthalten sind 5
Maximale Anzahl von Analytics-Aufrufen pro Google Cloud-Projekt7 100
Die maximale Anzahl von Analytics-Aufrufen pro Google Cloud-Projekt und Region7 50
Maximale Anzahl von Regionen pro Google Cloud-Projekt, in denen Analysedatenansichten gespeichert werden können7 10

1 Dieses angenäherte Limit basiert auf internen Datengrößen und nicht auf der tatsächlichen Größe der REST API-Anfrage.
2 In Cloud Logging werden zu große Labelschlüssel und Werte abgeschnitten, wenn der zugehörige Logeintrag geschrieben wird.
3 Dieses Limit gilt auch für Abrechnungskonten, Ordner und Organisationen. Es ist nicht hierarchisch. Beispiel: Wenn Sie mehrere Google Cloud-Projekte in einer Organisation haben, können Sie bis zu 200 Senken für jedes Google Cloud-Projekt konfigurieren. Für dieselbe Organisation könnten Sie bis zu 200 Senken auf Organisationsebene konfigurieren.
4: Dies ist die maximale Anzahl von Buckets, die Protokolleinträge für eine Ressource enthalten können. Weitere Informationen finden Sie unter Abfrage gibt einen Fehler zurück.
5 Dieses Limit umfasst Buckets, die bald gelöscht werden.
6 Logeinträge mit Zeitstempeln außerhalb dieser Grenzen werden von Log-Buckets abgelehnt. Die Logging API akzeptiert Einträge mit älteren Zeitstempeln. Diese Einträge können an Senken weitergeleitet, aber nicht im Protokollspeicher gespeichert werden. Die Logging API lehnt Einträge mit Zeitstempeln ab, die mehr als einen Tag in der Zukunft liegen, und gibt den Fehler INVALID_ARGUMENT zurück.
7Diese Funktion befindet sich in der öffentlichen Vorschau.

Kontingente und Limits der Logging API

Für die Nutzung der Logging API gelten die folgenden Limits. Sie können Änderungen an Ihren Logging API-Kontingenten und -Limits beantragen. Eine Anleitung dazu finden Sie auf dieser Seite unter Änderungen am Cloud Logging API-Kontingent anfordern.

Kategorie Höchstwert
API-Nutzung Ihr Kontingent finden Sie im API-Dashboard. Wählen Sie dazu eine API und dann Kontingente aus.
Lebensdauer der API-Seitentoken 24 Stunden
Anzahl der aktiven Live-Verfolgungs-Sitzungen 10 pro Google Cloud-Projekt3
Anzahl der zurückgegebenen Live-Verfolgungs-Einträge 60.000 pro Minute
Anzahl der eingeschränkten Felder 20 pro Bucket
Größe eines eingeschränkten Felds 800 B
Größe einer entries.write-Anfrage 10 MB
Anzahl der entries.write-Anfragen
Das Kontingent wird ersetzt. Weitere Informationen finden Sie unter Aufnehmekontingente pro Region
120.000 pro Minute und Google Cloud-Projekt1, 3
Häufigkeit von entries.write-Anfragen nach Region
Kontingente werden hinzugefügt. Weitere Informationen finden Sie unter Aufnahmekontingente nach Region
4,8 GB pro Minute und Google Cloud-Projekt in den Regionen asia-east1, asia-northeast1, asia-southeast1, asia-south1, europe-west1, europe-west2, europe-west3, europe-west4, us-central1, us-east4, us-west1 1, 3

300 MB pro Minute und Google Cloud-Projekt in allen anderen Regionen1, 3
Anzahl der entries.list-Anfragen 60 pro Minute und pro Google Cloud-Projekt2, 3
Anzahl der verschiedenen Ressourcennamen in einem
einzelnen entries.write-Befehl4
1000
Steueranfragen5 pro Minute 600
Kontrollanfragen5 pro Tag 1.000 pro Google Cloud-Projekt
Anzahl der Google Cloud-Projekte oder anderen Ressourcennamen in einer
einzelnen entries.list-Anfrage
100
Anzahl gleichzeitiger Kopiervorgänge 1 pro Google Cloud-Projekt3
Häufigkeit von Exporten in ein Pub/Sub-Thema6 60 GB pro Minute und Google Cloud-Projekt

1 Die Verwendung von Ausschlussfiltern reduziert diese Zahl nicht, da Logs nach dem entries.write-Anfrage ausgeschlossen werden.
2: Dies ist die Standardeinstellung.
3 Dieses Limit gilt auch für Abrechnungskonten, Ordner und Organisationen. Es ist nicht hierarchisch.
4 Das Feld logName eines Logeintrags gibt den Ressourcennamen des Logeintrags an.
5 Das tägliche Kontingent für Steueranfragen gilt für API-Anfragen zum Erstellen und Aktualisieren von Ausschlüssen und Senken. Das Kontingent für Steuerungsanfragen pro Minute gilt für alle Elemente, die auch im täglichen Kontingent für Steuerungsanfragen enthalten sind, sowie für API-Anfragen zum Löschen von Protokollen und zum Verwalten protokollbasierter Messwerte.
6 Wenn die Exportrate das Kontingent überschreitet, wird der Fehler in einem Logeintrag aufgezeichnet. Im Feld „Zusammenfassung“ wird ein Fehler bei der Senkenkonfiguration angezeigt und der Fehlercode ist als topic_over_quota aufgeführt.

Aufnahmekontingente pro Region

Ab dem 22. April 2025 begrenzen die Cloud Logging-Kontingente das Volumen der Daten, die in eine Aufnahmeregion geschrieben werden, pro Google Cloud-Projekt. Ab diesem Datum wird die Anzahl der API entries.write-Anfragen von einem Google Cloud-Projekt in Cloud Logging nicht mehr begrenzt. Mit dieser Änderung soll die Isolierung verbessert und regionale Ressourcen vor einer Überlastung bei der Datenaufnahme geschützt werden.

In der folgenden Tabelle sehen Sie das Standardkontingent für jede Region:

Aufnahmeregion Standardwert
asia-east1, asia-northeast1, asia-southeast1, asia-south1, europe-west1, europe-west2, europe-west3, europe-west4, us-central1, us-east4, us-west1 4, 8 GB pro Minute und Google Cloud-Projekt
Alle anderen Regionen 300 MB pro Minute und Google Cloud-Projekt

Die Standardwerte für die regionalen Kontingente überschreiten die Aufnahmemengen der meisten Nutzer. Wenn das Datenaufnahmevolumen Ihres Projekts aus einer Region in den letzten sechs Monaten vor dem 22. April 2025 jedoch dem Standardkontingent für diese Region entspricht oder es überschreitet, wird Ihr ursprüngliches Kontingent automatisch und einmalig erhöht. Daher sind Ihre Kontingente möglicherweise höher als die Standardwerte in der Tabelle oben.

Sie können Ihre regionalen Kontingente vor dem 22. April 2025 prüfen. Die Kontingente werden jedoch erst nach diesem Datum erzwungen. Informationen zum Überprüfen von Kontingenten finden Sie unter Kontingente für Logging prüfen.

Nach dem 22. April 2025 wird das Kontingent für die Anzahl der entries.write-Anfragen auf „Unbegrenzt“ geändert.

Wenn Sie nach dem 22. April 2025 ein regionales Kontingent überschreiten, werden Ihre Schreibanfragen an die Cloud Logging API möglicherweise mit der Fehlermeldung „Ressource erschöpft“ abgelehnt. Empfehlungen, wie Sie das Überschreiten von Kontingenten vermeiden können, finden Sie unter Logging-Kontingente verwalten und überwachen.

Kontingente für die Cloud Logging API prüfen

So prüfen Sie Ihre Kontingente für die Cloud Logging API:

  1. Rufen Sie in der Google Cloud Console die Seite Kontingente und Systemlimits auf:

    Gehen Sie zu Kontingente und Systemlimits.

    Wenn Sie diese Seite über die Suchleiste suchen, wählen Sie das Ergebnis aus, dessen Zwischenüberschrift IAM & Admin ist.

  2. Filtern Sie die Liste der Kontingente für den Cloud Logging API-Dienst.

Änderungen am Cloud Logging API-Kontingent anfordern

In der Google Cloud Console können Sie höhere oder niedrigere Logging API-Limits anfordern. Weitere Informationen finden Sie unter Kontingente aufrufen und verwalten.

Wenn die Fehlermeldung Edit is not allowed for this quota ausgegeben wird, können Sie den Support kontaktieren, um Änderungen am Kontingent anzufordern. Beachten Sie auch, dass die Abrechnung für das Google Cloud-Projekt aktiviert sein muss, damit die Kästchen angeklickt werden können.

Cloud Logging API-Kontingente verwalten und überwachen

So können Sie Dienstunterbrechungen durch Überschreiten von Kontingenten vermeiden:

  • Mit der automatischen Kontingentanpassung können Sie die Kontingentnutzung im Blick behalten und Kontingenterhöhungen anfordern. Weitere Informationen finden Sie unter Kontingentanpassung.
  • Erstellen Sie Benachrichtigungen zu Kontingenten, um über die Nutzung informiert zu werden. Weitere Informationen finden Sie unter Kontingentbenachrichtigungen einrichten.

Nutzung von entries.list optimieren

entries.list wird in der Regel verwendet, um nach übereinstimmenden Protokollen zu suchen. Diese Methode ist nicht für das Abrufen großer Mengen von Protokolleinträgen geeignet. Wenn Sie Ihr entries.list-Kontingent regelmäßig aufbrauchen, haben Sie folgende Möglichkeiten:

  • Achten Sie darauf, dass Sie die Cloud Logging API effizient verwenden. Weitere Informationen finden Sie unter Nutzung der API optimieren.

  • Wenn Sie im Voraus wissen, dass die Logeinträge, die Sie analysieren möchten, das entries.list-Kontingent überschreiten, konfigurieren Sie eine Logsenke, um Ihre Logs an ein unterstütztes Ziel zu exportieren.

  • Wenn Sie Logeinträge außerhalb von Logging analysieren möchten, können Sie bereits vorhandene Logeinträge aus Cloud Logging in Cloud Storage-Buckets kopieren. Wenn Sie Protokolle in einen Cloud Storage-Bucket kopieren, können Sie Logeinträge für Prüfer außerhalb von Logging freigeben und Scripts in Cloud Storage ausführen.
  • Wenn Sie Ihre Logeinträge im Logging-Dashboard zusammenfassen und analysieren möchten, speichern Sie sie in einem Log-Bucket und aktualisieren Sie dieses dann für die Verwendung von Log Analytics. Weitere Informationen zu diesen Schritten finden Sie unter Log-Buckets konfigurieren.

    In Log Analytics können Sie Ihre Logeinträge mit BigQuery-Standard-SQL abfragen.

Logbasierte Messwerte

Folgende Limits gelten für die Nutzung benutzerdefinierter logbasierter Messwerte. Mit Ausnahme der Anzahl der Messwertbeschreiber sind diese Limits festgelegt. Sie können sie weder erhöhen noch verringern.

Kategorie Maximalwert
Anzahl der Labels 10 pro Messwert
Länge des Labelwerts 1.024 B
Länge der Labelbeschreibung 800 B
Länge des Filters1 20.000 Zeichen
Länge der Messwertdeskriptoren 8.000 B
Anzahl der Messwertdeskriptoren 500 pro Google Cloud-Projekt2
Anzahl der aktiven Zeitreihen3 30.000 pro Messwert
Anzahl der Histogramm-Buckets 200 pro benutzerdefiniertem Verteilungsmesswert
Datenaufbewahrung Cloud Monitoring: Datenaufbewahrung

1: Jeder logbasierte Messwert enthält einen Filter. Wenn ein Logeintrag mit dem Filter übereinstimmt, wird er gezählt. Filter werden mithilfe der Logging-Abfragesprache definiert.
2 Dieses Limit gilt auch für Abrechnungskonten, Ordner und Organisationen. Es ist nicht hierarchisch.
3 Eine Zeitachse ist aktiv, wenn Sie in den vergangenen 24 Stunden Datenpunkte darauf geschrieben haben.

Audit-Logging

Die maximalen Größen von Audit-Logs sind in der folgenden Tabelle aufgeführt. Anhand dieser Werte können Sie den benötigten Speicherplatz in Ihren Zielorten schätzen.

Audit-Logtyp Maximalgröße
Administratoraktivität 512 KiB
Datenzugriff 512 KiB
Systemereignis 512 KiB
Richtlinie abgelehnt 512 KiB

Aufbewahrungsdauer für Logs

Folgende Aufbewahrungsdauern von Cloud Logging gelten für Log-Buckets, unabhängig davon, welche Arten Logs im Bucket enthalten sind oder ob sie von einem anderen Speicherort kopiert wurden. Die Aufbewahrungsinformationen sind:

Bucket Standardmäßige Aufbewahrungsdauer Benutzerdefinierte Aufbewahrung
_Required 400 Tage Nicht konfigurierbar
_Default 30 Tage Konfigurierbar
Benutzerdefiniert 30 Tage Konfigurierbar

Für den _Default-Log-Bucket und benutzerdefinierte Log-Buckets können Sie Cloud Logging so konfigurieren, dass die Logs 1–3.650 Tage lang aufbewahrt werden. Informationen zum Festlegen von Aufbewahrungsregeln finden Sie unter Benutzerdefinierte Aufbewahrung konfigurieren.

Preise

Für das Weiterleiten von Logs an ein unterstütztes Ziel fallen in Cloud Logging keine Gebühren an. Es können jedoch Gebühren am Ziel erhoben werden. Mit Ausnahme des _Required-Log-Buckets fallen in Cloud Logging Kosten für das Streamen von Logs in Log-Buckets und für die Speicherung über die standardmäßige Aufbewahrungsdauer des Log-Buckets hinaus an.

Für das Kopieren von Logs, das Erstellen von Log-Bereichen oder Analyseansichten oder für Abfragen, die über die Seiten Log-Explorer oder Log Analytics gestellt werden, fallen bei Cloud Logging keine Gebühren an.

Weitere Informationen finden Sie in folgenden Dokumenten: