Kontingente und Limits

Diese Seite enthält Details zu den Limits für die Nutzung von Cloud Logging.

Nutzungslimits für Cloud Logging

Für die Nutzung von Cloud Logging gelten folgende Limits. Mit Ausnahme der Limits für die Anzahl der Protokoll-Buckets und ‑Sinks sind diese Limits festgelegt. Sie können sie weder erhöhen noch verringern.

Kategorie Maximalwert
Größe eines LogEntry 256 KB1
Größe eines Audit-Logeintrags 512 KiB
Anzahl der Label 64 pro LogEntry
Länge eines LogEntry-Labelschlüssels 512 B2
Länge eines LogEntry-Labelwerts 64 KB2
Länge einer Logging-Abfrage 20.000 Zeichen
Abfragefan-out4  200 Buckets
Anzahl der Waschbecken 200 pro Google Cloud-Projekt3
Länge eines Aufnahmefilters für eine Senke 20.000 Zeichen
Länge eines Ausschlussfilters für eine Senke 20.000 Zeichen
Anzahl der Ausschlussfilter 50 pro Senke
Anzahl der Log-Buckets 100 pro Google Cloud-Projekt3,4,5
Anzahl der benutzerdefinierten indexierten Felder 20 pro Log-Bucket
Anzahl der Logansichten 30 pro Log-Bucket
Älteste Zeitstempel, die in Log-Buckets gespeichert werden können6 30 Tage in der Vergangenheit
Zeitstempel in der Zukunft, der in Log-Buckets gespeichert werden kann6 Bis zu 1 Tag in der Zukunft
Anzahl der Log-Bereiche pro Ressource7 100
Anzahl der Logansichten und Projekte, die in einem Logbereich enthalten sind7 100
Anzahl der Projekte, die in einem Logbereich enthalten sind7 5

1 Dieses angenäherte Limit basiert auf internen Datengrößen und nicht auf der tatsächlichen Größe der REST API-Anfrage.

2 Cloud Logging kürzt zu große Labelschlüssel und Werte, wenn deren zugehörigen Logeinträge geschrieben werden.

3 Dieses Limit gilt auch für Abrechnungskonten, Ordner und Organisationen. Es ist nicht hierarchisch. Beispiel: Wenn Sie mehrere Google Cloud-Projekte in einer Organisation haben, können Sie bis zu 200 Senken für jedes Google Cloud-Projekt konfigurieren. Für dieselbe Organisation könnten Sie bis zu 200 Senken auf Organisationsebene konfigurieren.

4: Dies ist die maximale Anzahl von Buckets, die Protokolleinträge für eine Ressource enthalten können. Weitere Informationen finden Sie unter Abfrage gibt einen Fehler zurück.

5 Dieses Limit umfasst Buckets, die bald gelöscht werden.

6 Logeinträge mit Zeitstempeln außerhalb dieser Grenzen werden von Log-Buckets abgelehnt. Die Logging API akzeptiert Einträge mit älteren Zeitstempeln. Diese Einträge können an Senken weitergeleitet, aber nicht im Protokollspeicher gespeichert werden. Die Logging API lehnt Einträge mit Zeitstempeln ab, die mehr als einen Tag in der Zukunft liegen, und gibt den Fehler INVALID_ARGUMENT zurück.

7 Log-Bereiche befinden sich in der öffentlichen Vorschau.

Kontingente und Limits der Logging API

Für die Nutzung der Logging API gelten die folgenden Limits. Sie können Änderungen an Ihren Logging API-Kontingenten und ‑Limits beantragen. Eine Anleitung dazu finden Sie auf dieser Seite unter Änderungen am Cloud Logging API-Kontingent anfordern.

Kategorie Höchstwert
API-Nutzung Ihr Kontingent können Sie im API-Dashboard aufrufen. Wählen Sie dazu eine API und dann Kontingente aus.
Lebensdauer der API-Seitentoken 24 Stunden
Anzahl der aktiven Live-Verfolgungs-Sitzungen 10 pro Google Cloud-Projekt3
Anzahl der zurückgegebenen Live-Verfolgungs-Einträge 60.000 pro Minute
Anzahl der eingeschränkten Felder 20 pro Bucket
Größe eines eingeschränkten Felds 800 B
Größe einer entries.write-Anfrage 10 MB
Anzahl der entries.write-Anfragen 120.000 pro Minute und Google Cloud-Projekt1, 3
Anzahl der entries.list-Anfragen 60 pro Minute und pro Google Cloud-Projekt2, 3
Anzahl der verschiedenen Ressourcennamen in einem
einzelnen entries.write-Befehl4
1000
Steueranfragen5 pro Minute 600
Kontrollanfragen5 pro Tag 1.000 pro Google Cloud-Projekt
Anzahl der Google Cloud-Projekte oder anderen Ressourcennamen in einer
einzelnen entries.list-Anfrage
100
Anzahl gleichzeitiger Kopiervorgänge 1 pro Google Cloud-Projekt3
Häufigkeit von Exporten in ein Pub/Sub-Thema6 60 GB pro Minute und Google Cloud-Projekt

1 Die Verwendung von Ausschlussfiltern reduziert diese Zahl nicht, da Logs nach dem entries.write-Anfrage ausgeschlossen werden.

2Dieser Wert ist die Standardeinstellung.

3 Dieses Limit gilt auch für Abrechnungskonten, Ordner und Organisationen. Es ist nicht hierarchisch.

4: Im Feld logName eines Logeintrags wird der Ressourcenname des Logeintrags angegeben.

5: Das Tageskontingent für Steueranfragen gilt für API-Anfragen zum Erstellen und Aktualisieren von Ausschlüssen und Senken. Das Kontingent für Steuerungsanfragen pro Minute gilt für alle Elemente, die auch im täglichen Kontingent für Steuerungsanfragen enthalten sind, sowie für API-Anfragen zum Löschen von Protokollen und zum Verwalten protokollbasierter Messwerte.

6 Wenn die Exportrate das Kontingent überschreitet, wird der Fehler in einem Logeintrag aufgezeichnet. Im Feld „Zusammenfassung“ wird ein Fehler bei der Senkenkonfiguration angezeigt und der Fehlercode ist als topic_over_quota aufgeführt.

Änderungen am Cloud Logging API-Kontingent anfordern

In der Google Cloud Console können Sie höhere oder niedrigere Logging API-Limits anfordern. Weitere Informationen finden Sie unter Kontingente aufrufen und verwalten.

Wenn die Fehlermeldung Edit is not allowed for this quota ausgegeben wird, können Sie den Support kontaktieren, um Änderungen am Kontingent anzufordern. Beachten Sie auch, dass die Abrechnung für das Google Cloud-Projekt aktiviert sein muss, damit die Kästchen angeklickt werden können.

Nutzung von entries.list optimieren

entries.list wird in der Regel verwendet, um nach übereinstimmenden Protokollen zu suchen. Diese Methode ist nicht für das Abrufen großer Mengen von Protokolleinträgen geeignet. Wenn Sie Ihr entries.list-Kontingent regelmäßig aufbrauchen, haben Sie folgende Möglichkeiten:

  • Achten Sie darauf, dass Sie die Cloud Logging API effizient verwenden. Weitere Informationen finden Sie unter Nutzung der API optimieren.

  • Wenn Sie im Voraus wissen, dass die zu analysierenden Logeinträge das entries.list-Kontingent überschreiten, konfigurieren Sie eine Logsenke, um Ihre Logs an ein unterstütztes Ziel zu exportieren.

  • Wenn Sie Logeinträge außerhalb von Logging analysieren möchten, können Sie bereits vorhandene Logeinträge aus Cloud Logging in Cloud Storage-Buckets kopieren. Wenn Sie Protokolle in einen Cloud Storage-Bucket kopieren, können Sie Logeinträge für Prüfer außerhalb von Logging freigeben und Scripts in Cloud Storage ausführen.
  • Wenn Sie Ihre Logeinträge im Logging-Dashboard zusammenfassen und analysieren möchten, speichern Sie sie in einem Log-Bucket und führen Sie dann ein Upgrade dieses Log-Buckets auf Log Analytics durch. Weitere Informationen zu diesen Schritten finden Sie unter Log-Buckets konfigurieren.

    Mit Log Analytics können Sie Ihre Logeinträge mit BigQuery-Standard-SQL abfragen.

Logbasierte Messwerte

Folgende Limits gelten für die Nutzung benutzerdefinierter logbasierter Messwerte. Mit Ausnahme der Anzahl der Messwertbeschreiber sind diese Limits festgelegt. Sie können sie weder erhöhen noch verringern.

Kategorie Maximalwert
Anzahl der Labels 10 pro Messwert
Länge des Labelwerts 1.024 B
Länge der Labelbeschreibung 800 B
Länge des Filters1 20.000 Zeichen
Länge der Messwertdeskriptoren 8.000 B
Anzahl der Messwertdeskriptoren 500 pro Google Cloud-Projekt2
Anzahl der aktiven Zeitreihen3 30.000 pro Messwert
Anzahl der Histogramm-Buckets 200 pro benutzerdefiniertem Verteilungsmesswert
Datenaufbewahrung Cloud Monitoring: Datenaufbewahrung

1: Jeder logbasierte Messwert enthält einen Filter. Wenn ein Logeintrag mit dem Filter übereinstimmt, wird er gezählt. Filter werden mithilfe der Logging-Abfragesprache definiert.

2 Dieses Limit gilt auch für Abrechnungskonten, Ordner und Organisationen. Es ist nicht hierarchisch.

3 Eine Zeitachse ist aktiv, wenn Sie in den vergangenen 24 Stunden Datenpunkte darauf geschrieben haben.

Audit-Logging

Die maximalen Größen von Audit-Logs sind in der folgenden Tabelle aufgeführt. Anhand dieser Werte können Sie den benötigten Speicherplatz in Ihren Zielorten schätzen.

Audit-Logtyp Maximalgröße
Administratoraktivität 512 KiB
Datenzugriff 512 KiB
Systemereignis 512 KiB
Richtlinie abgelehnt 512 KiB

Aufbewahrungsdauer für Logs

Folgende Aufbewahrungsdauern von Cloud Logging gelten für Log-Buckets, unabhängig davon, welche Arten Logs im Bucket enthalten sind oder ob sie von einem anderen Speicherort kopiert wurden. Die Aufbewahrungsinformationen sind:

Bucket Standardmäßige Aufbewahrungsdauer Benutzerdefinierte Aufbewahrung
_Required 400 Tage Nicht konfigurierbar
_Default 30 Tage Konfigurierbar
Benutzerdefiniert 30 Tage Konfigurierbar

Für den _Default-Log-Bucket und benutzerdefinierte Log-Buckets können Sie Cloud Logging so konfigurieren, dass die Logs 1–3.650 Tage lang aufbewahrt werden. Informationen zum Festlegen von Aufbewahrungsregeln finden Sie unter Benutzerdefinierte Aufbewahrung konfigurieren.

Preise

Für das Weiterleiten von Logs an ein unterstütztes Ziel fallen in Cloud Logging keine Gebühren an. Es können jedoch Gebühren am Ziel erhoben werden. Mit Ausnahme des _Required-Log-Buckets fallen in Cloud Logging Kosten für das Streamen von Logs in Log-Buckets und für die Speicherung über die standardmäßige Aufbewahrungsdauer des Log-Buckets hinaus an.

Für das Kopieren von Logs, das Definieren von Log-Bereichen oder das Ausführen von Abfragen über die Seiten Log-Explorer oder Log Analytics fallen in Cloud Logging keine Gebühren an.

Weitere Informationen finden Sie in folgenden Dokumenten: