In diesem Dokument wird beschrieben, wie Sie mit der Google Cloud Console Logeinträge abfragen, aufrufen und analysieren. Es stehen zwei Oberflächen zur Verfügung: der Log-Explorer und Log Analytics. Sie können Protokolle mit beiden Oberflächen abfragen, aufrufen und analysieren. Sie verwenden jedoch unterschiedliche Abfragesprachen und haben unterschiedliche Funktionen. Für die Fehlerbehebung und explorative Datenanalyse empfehlen wir den Log-Explorer. Wir empfehlen Ihnen, Log Analytics zu verwenden, um Statistiken und Trends zu generieren. Sie können Ihre Logs abfragen und Ihre Abfragen speichern, indem Sie Logging API-Befehle ausführen. Sie können Ihre Protokolle auch mit der Google Cloud CLI abfragen.
Log-Explorer
Der Logs Explorer soll Ihnen bei der Fehlerbehebung und Leistungsanalyse Ihrer Dienste und Anwendungen helfen. Ein Histogramm zeigt beispielsweise die Fehlerrate an. Wenn Sie einen Anstieg der Fehlerzahl oder etwas Interessantes bemerken, können Sie die entsprechenden Logeinträge suchen und aufrufen. Wenn ein Logeintrag mit einer Fehlergruppe verknüpft ist, wird er mit einem Optionsmenü versehen, über das Sie weitere Informationen zur Fehlergruppe abrufen können.
Die Cloud Logging API, die Google Cloud CLI und der Log-Explorer unterstützen dieselbe Abfragesprache. Um das Erstellen von Abfragen im Log-Explorer zu vereinfachen, können Sie Abfragen erstellen, indem Sie Menüs verwenden, Text eingeben und in einigen Fällen die Optionen verwenden, die bei der Anzeige eines einzelnen Logeintrags angezeigt werden.
Der Log-Explorer unterstützt keine Aggregationsvorgänge wie das Zählen der Anzahl der Logeinträge, die ein bestimmtes Muster enthalten. Wenn Sie Aggregationsvorgänge ausführen möchten, aktivieren Sie Analysen für den Log-Bucket und verwenden Sie dann Log Analytics.
Weitere Informationen zum Suchen und Aufrufen von Logs mit dem Log-Explorer finden Sie unter Logs mit dem Log-Explorer ansehen.
Loganalyse
Mit Log Analytics können Sie Abfragen ausführen, um Ihre Logdaten zu analysieren, und sich dann die Abfrageergebnisse in einem Diagramm anzeigen lassen. Mithilfe von Diagrammen können Sie Muster und Trends in Ihren Protokollen im Zeitverlauf erkennen. Der folgende Screenshot zeigt die Diagrammfunktionen in Log Analytics:
Angenommen, Sie beheben ein Problem und möchten die durchschnittliche Latenz für HTTP-Anfragen an eine bestimmte URL im Zeitverlauf ermitteln. Wenn ein Log-Bucket auf Log Analytics umgestellt wird, können Sie mit SQL Logs abfragen, die in Ihrem Log-Bucket gespeichert sind. Diese SQL-Abfragen können auch Pipe-Syntax enthalten. Wenn Sie Ihre Protokolle gruppieren und aggregieren, können Sie Informationen zu Ihren Protokolldaten gewinnen, die Ihnen helfen, die Fehlerbehebungszeit zu verkürzen.
Mit Log Analytics können Sie Logansichten abfragen.
Logansichten haben ein festes Schema, das der Datenstruktur LogEntry
entspricht.
Sie können auch BigQuery verwenden, um eine Log-Ansicht abzufragen. Angenommen, Sie möchten mit BigQuery URLs in Ihren Logs mit einem öffentlichen Dataset von bekannten schädlichen URLs vergleichen. Damit Ihre Logdaten für BigQuery sichtbar sind, müssen Sie Ihren Bucket auf Log Analytics umstellen und dann ein verknüpftes Dataset erstellen.
Sie können weiterhin Probleme beheben und einzelne Logeinträge in den migrierten Log-Buckets mit dem Log-Explorer aufrufen.
Beschränkungen
Für das Upgrade eines vorhandenen Log-Buckets auf Log Analytics gelten die folgenden Einschränkungen:
- Der Log-Bucket ist entsperrt, es sei denn, es handelt sich um den Bucket
_Required
. - Es gibt keine ausstehenden Updates für den Bucket.
- Der Log-Bucket ist entsperrt, es sei denn, es handelt sich um den Bucket
Bei Log-Buckets, für die ein Upgrade auf Log Analytics durchgeführt wurde, kann die Log Analytics-Unterstützung nicht entfernt werden.
Für Analysen sind nur Logeinträge verfügbar, die nach Abschluss des Upgrades geschrieben wurden.
Sie können die Seite Log Analytics nicht verwenden, um Logansichten abzufragen, wenn für den Log-Bucket Zugriffssteuerungen auf Feldebene konfiguriert sind. Sie können jedoch über die Seite Log-Explorer Abfragen stellen und ein verknüpftes BigQuery-Dataset abfragen. Da in BigQuery keine Zugriffssteuerung auf Feldebene berücksichtigt wird, können Sie bei der Abfrage eines verknüpften Datensatzes alle Felder in den Logeinträgen abfragen.
Wenn Sie mehrere Protokoll-Buckets abfragen, die mit verschiedenen Cloud KMS-Schlüsseln konfiguriert sind, schlägt die Abfrage fehl, es sei denn, die folgenden Einschränkungen sind erfüllt:
- Die Log-Buckets befinden sich am selben Speicherort.
- Ein Ordner oder eine Organisation, die eine übergeordnete Ressource der Protokoll-Buckets ist, wird mit einem Standardschlüssel konfiguriert.
- Der Standardschlüssel befindet sich am selben Speicherort wie die Protokoll-Buckets.
Wenn die vorherigen Einschränkungen erfüllt sind, werden alle temporären Daten, die durch eine Log Analytics-Abfrage generiert werden, mit dem Cloud KMS-Schlüssel des übergeordneten Elements verschlüsselt.
Doppelte Logeinträge werden nicht vor der Ausführung einer Abfrage entfernt. Das Verhalten unterscheidet sich von dem, wenn Sie Logeinträge mit dem Log-Explorer abfragen. Dabei werden doppelte Einträge entfernt, indem die Lognamen, Zeitstempel und Felder für die Einfüge-ID verglichen werden. Weitere Informationen finden Sie unter Fehlerbehebung: In meinen Log Analytics-Ergebnissen sind doppelte Logeinträge enthalten.
Preise
Für das Weiterleiten von Logs an ein unterstütztes Ziel fallen in Cloud Logging keine Gebühren an. Es können jedoch Gebühren am Ziel erhoben werden.
Mit Ausnahme des _Required
-Log-Buckets fallen in Cloud Logging Kosten für das Streamen von Logs in Log-Buckets und für die Speicherung über die standardmäßige Aufbewahrungsdauer des Log-Buckets hinaus an.
Für das Kopieren von Logs, das Definieren von Log-Bereichen oder das Ausführen von Abfragen über die Seiten Log-Explorer oder Log Analytics fallen in Cloud Logging keine Gebühren an.
Weitere Informationen finden Sie in folgenden Dokumenten:
- Preisübersicht für Cloud Logging
Kosten für Zielvorhaben:
- Gebühren für die Erzeugung von VPC-Flusslogs werden berechnet, wenn Sie Ihre Virtual Private Cloud-Flusslogs senden und dann von Cloud Logging ausschließen.
Wenn Sie einen Bucket auf Log Analytics umstellen und dann einen verknüpften Datensatz erstellen, fallen keine BigQuery-Aufnahme- oder Speicherkosten an. Wenn Sie ein verknüpftes Dataset für einen Log-Bucket erstellen, werden Ihre Protokolldaten nicht in BigQuery aufgenommen. Stattdessen erhalten Sie über das verknüpfte Dataset Lesezugriff auf die Protokolldaten, die in Ihrem Protokoll-Bucket gespeichert sind.
BigQuery-Analysegebühren fallen an, wenn Sie SQL-Abfragen auf verknüpfte BigQuery-Datasets ausführen. Dazu gehören die Seite BigQuery Studio, die BigQuery API und das BigQuery-Befehlszeilentool.
Blogs
Weitere Informationen zu Log Analytics finden Sie in den folgenden Blogbeiträgen:
- Eine Übersicht über Log Analytics finden Sie unter Log Analytics in Cloud Logging ist jetzt allgemein verfügbar.
- Informationen zum Erstellen von Diagrammen, die durch Log Analytics-Abfragen generiert werden, und zum Speichern dieser Diagramme in benutzerdefinierten Dashboards finden Sie im Artikel Ankündigung von Log Analytics-Diagrammen und ‑Dashboards in Cloud Logging in der öffentlichen Betaversion.
- Informationen zum Analysieren von Audit-Logs mit Log Analytics finden Sie unter Mit Log Analytics Sicherheitsinformationen aus Audit-Logs gewinnen.
- Wenn Sie Logs an BigQuery weiterleiten und den Unterschied zwischen dieser Lösung und der Verwendung von Log Analytics kennen möchten, lesen Sie den Hilfeartikel Für BigQuery-Exportnutzer zu Log Analytics wechseln.
Nächste Schritte
- Log-Bucket erstellen und für die Verwendung von Log Analytics upgraden
- Vorhandenen Bucket für die Verwendung von Log Analytics upgraden
Logs abfragen und aufrufen:
Beispielabfragen: