Autopilot-Übersicht


Auf dieser Seite wird der Autopilot-Betriebsmodus in Google Kubernetes Engine (GKE) beschrieben. Außerdem erhalten Sie Ressourcen, mit denen Sie Ihre Cluster planen, einrichten und verwalten können.

Diese Seite richtet sich an Administratoren, Architekten und Betreiber, die IT-Lösungen und Systemarchitekturen definieren. Weitere Informationen zu gängigen Rollen und Beispielaufgaben, auf die wir in Google Cloud-Inhalten verweisen, finden Sie unter Häufig verwendete GKE Enterprise-Nutzerrollen und -Aufgaben.

Was ist Autopilot?

GKE Autopilot ist ein Betriebsmodus in GKE, in dem Google Ihre Clusterkonfiguration verwaltet, einschließlich Knoten, Skalierung, Sicherheit und anderer vorkonfigurierter Einstellungen. Autopilot-Cluster sind für die Ausführung der meisten Produktionsarbeitslasten optimiert und stellen Rechenressourcen basierend auf Ihren Kubernetes-Manifesten bereit. Die optimierte Konfiguration folgt den Best Practices und Empfehlungen von GKE für die Einrichtung von Clustern und Arbeitslasten, Skalierbarkeit und Sicherheit. Eine Liste der integrierten Einstellungen finden Sie in der Vergleichstabelle für Autopilot und Standard.

Best Practice:

Verwenden Sie Autopilot für eine vollständig verwaltete Kubernetes-Umgebung.

Preise

In den meisten Fällen zahlen Sie nur für die CPU-, Arbeitsspeicher- und Speicherressourcen, die von Ihren Arbeitslasten bei der Ausführung in GKE Autopilot angefordert werden. Nicht verwendete Kapazitäten auf Ihren Knoten werden Ihnen nicht in Rechnung gestellt, da GKE die Knoten verwaltet. Beachten Sie, dass es Ausnahmen von diesem Preismodell gibt, wenn Sie Pods in bestimmten Computing-Klassen ausführen, durch diese Pods die volle Ressourcenkapazität des Knotens der virtuellen Maschine (VM) verwenden können.

Ihnen werden keine System-Pods, Betriebssystemkosten oder ungeplanten Arbeitslasten in Rechnung gestellt. Ausführliche Preisinformationen finden Sie unter Autopilot-Preise.

Vorteile

  • Fokus auf die Anwendungen: Google verwaltet die Infrastruktur, sodass Sie sich auf das Erstellen und Bereitstellen Ihrer Anwendungen konzentrieren können.
  • Sicherheit: Cluster haben eine standardmäßig gehärtete Konfiguration, wobei viele Sicherheitseinstellungen standardmäßig aktiviert sind. GKE wendet Sicherheitspatches automatisch auf Ihre Knoten an, wenn verfügbar. Dabei werden alle konfigurierten Wartungspläne eingehalten.
  • Preise: Das Preismodell von Autopilot vereinfacht Abrechnungsprognosen und Attributionen.
  • Knotenverwaltung: Google verwaltet Worker-Knoten. Sie müssen also keine neuen Knoten erstellen, um Ihre Arbeitslasten zu berücksichtigen oder automatische Upgrades und Reparaturen zu konfigurieren.
  • Skalierung: Wenn Ihre Arbeitslasten eine hohe Last aufweisen und Sie weitere Pods hinzufügen, um den Traffic zu verarbeiten, z. B. mit dem horizontalen Pod-Autoscaling von Kubernetes, stellt GKE automatisch neue Knoten für diese Pods bereit und erweitert die Ressourcen in Ihren vorhandenen Knoten nach Bedarf automatisch.
  • Planung: Autopilot verwaltet das Pod-Bin-Pack für Sie, sodass Sie sich nicht Gedanken darüber machen müssen, wie viele Pods auf jedem Knoten ausgeführt werden. Sie können die Pod-Platzierung mithilfe von Kubernetes-Mechanismen wie Affinität und Pod-Verteilungstopologie zusätzlich steuern.
  • Ressourcenverwaltung: Wenn Sie Arbeitslasten bereitstellen, ohne Ressourcenwerte wie CPU und Arbeitsspeicher festzulegen, legt Autopilot automatisch vorkonfigurierte Standardwerte fest und ändert Ihre Ressourcenanforderungen auf Arbeitslastebene.
  • Netzwerk: Autopilot aktiviert standardmäßig einige Netzwerksicherheitsfunktionen, z. B. dass der gesamte Pod-Netzwerktraffic durch Ihre Firewallregeln für Virtual Private Cloud geleitet wird, auch wenn der Traffic an andere Pods im Cluster geht.
  • Release-Verwaltung: Alle Autopilot-Cluster sind in einem GKE-Releasekanal registriert. Dadurch wird sichergestellt, dass Ihre Steuerungsebene und Ihre Knoten auf den neuesten qualifizierten Versionen in diesem Kanal ausgeführt werden.
  • Verwaltete Flexibilität: Wenn Ihre Arbeitslasten spezielle Hardware- oder Ressourcenanforderungen haben, wie z. B. hohe CPU- oder Speicheranforderungen, bietet Autopilot vorkonfigurierte Compute-Klassen, die für diese Arbeitslasten entwickelt wurden. Sie fordern die Compute-Klasse in Ihrer Bereitstellung an, anstatt neue Knoten manuell erstellen zu müssen, die von benutzerdefinierten Maschinentypen und Hardware unterstützt werden. Sie können auch GPUs auswählen, um Arbeitslasten wie Batch- oder KI/ML-Anwendungen zu beschleunigen.
  • Geringere betriebliche Komplexität: Autopilot reduziert den Aufwand für die Plattformverwaltung, da Sie die Knoten, die Skalierung und die Planung von Vorgängen nicht ständig überwachen müssen.

Autopilot bietet ein SLA, das sowohl die Steuerungsebene als auch die Rechenkapazität abdeckt, die Ihre Pods verwenden.

Autopilot-Cluster planen

Planen und entwerfen Sie Ihre Google Cloud-Architektur, bevor Sie einen Cluster erstellen. In Autopilot fordern Sie Hardware in Ihren Arbeitslastspezifikationen an. GKE stellt die entsprechende Infrastruktur für die Ausführung dieser Arbeitslasten bereit und verwaltet sie. Wenn Sie beispielsweise Machine-Learning-Arbeitslasten ausführen, können Sie Hardwarebeschleuniger anfordern. Wenn Sie Android-Apps entwickeln, fordern Sie Arm-CPUs an.

Planen und beantragen Sie ein Kontingent für Ihr Google Cloud-Projekt oder Ihre Organisation entsprechend der Größe Ihrer Arbeitslasten. GKE kann nur dann Infrastruktur für Ihre Arbeitslasten bereitstellen, wenn Ihr Projekt ein ausreichendes Kontingent für diese Hardware hat.

Berücksichtigen Sie bei der Planung die folgenden Faktoren:

  • Geschätzte Clustergröße und geschätzter Clusterumfang
  • Arbeitslasttyp
  • Clusterlayout und ‑nutzung
  • Netzwerklayout und ‑konfiguration
  • Sicherheitskonfiguration
  • Clusterverwaltung und ‑wartung
  • Bereitstellung und Verwaltung von Arbeitslasten
  • Logging und Monitoring

In den folgenden Abschnitten finden Sie Informationen und nützliche Ressourcen zu diesen Aspekten.

Netzwerk

Wenn Sie einen Autopilot-Cluster mit öffentlichen Netzwerken erstellen, können Arbeitslasten im Cluster miteinander und mit dem Internet kommunizieren. Dies ist der Standard-Netzwerkmodus. Google Cloud und Kubernetes bieten verschiedene zusätzliche Netzwerkfunktionen und -funktionen, die Sie je nach Anwendungsfall nutzen können, z. B. Cluster mit privatem Netzwerk.

Die Netzwerke in Kubernetes und in der Cloud sind komplex. Machen Sie sich mit den grundlegenden Konzepten von Netzwerken vertraut, bevor Sie mit der Änderung der Standardeinstellungen von Google Cloud beginnen. Die folgende Tabelle bietet Ressourcen, mit denen Sie je nach Anwendungsfall weitere Informationen zum Netzwerk in GKE erhalten können:

Anwendungsfall Ressourcen
Funktionsweise von Netzwerken in Kubernetes und GKE

Nachdem Sie sich mit dem Netzwerkmodell vertraut gemacht haben, berücksichtigen Sie die Anforderungen an die Netzwerk- und Netzwerksicherheit Ihrer Organisation. Wählen Sie GKE- und Google Cloud-Netzwerkfeatures aus, die diese Kriterien erfüllen.

GKE-Netzwerkkonfiguration planen

Wir empfehlen, die Netzwerkkontingente für GKE zu verstehen, z. B. Endpunkte pro Dienst und API-Anfragelimits. Die folgenden Ressourcen helfen Ihnen, bestimmte Aspekte Ihrer Netzwerkeinrichtung zu planen:

Arbeitslasten freigeben
  • Verwenden Sie die Dienste, um Ihre Anwendungen im Internet freizugeben. Damit können Sie eine Anwendung, die in einer Gruppe von Pods ausgeführt wird, als einen einzelnen Netzwerkdienst verfügbar machen.
  • Verwenden Sie Workload Identity Federation for GKE, um Arbeitslasten für die sichere Kommunikation mit Google Cloud APIs zu konfigurieren.
Hochverfügbare verbundene Dienste in mehreren Clustern ausführen Verwenden Sie Multi-Cluster-Dienste (MCS).
Load-Balancing für eingehenden Traffic ausführen
  • Verwenden Sie Ingress für Application Load Balancer, um externen HTTP(S)-Traffic anhand von URIs und Pfaden, z. B. einer komplexen Webanwendung, auf mehrere Dienste zu verteilen.
  • Verwenden Sie zum Erstellen eines externen Passthrough-Network-Load-Balancers einen Load-Balancer-Dienst, um externen Traffic auf einen einzelnen Dienst zu verteilen, z. B. ein Deployment, das einen öffentlichen E-Mail-Server ausführt.
  • Verwenden Sie Ingress für interne Application Load Balancer, um Load-Balancing von internem HTTP(S)-Traffic auf mehrere Dienste basierend auf URIs und Pfaden, z. B. mit einer Webanwendung im Intranet Ihres Unternehmens, zu verteilen.
  • Verwenden Sie einen internen Passthrough-Network-Load-Balancer, um Load-Balancing für internen Traffic auf einen einzelnen Dienst zu verwenden, z. B. mit einem Unternehmens-E-Mail-Server.
Netzwerksicherheit für Cluster konfigurieren
  • Wenn Sie den Zugriff auf Ihren Cluster über das öffentliche Internet steuern oder verhindern möchten, erstellen Sie private Cluster.
  • Wenn Sie den Zugriff auf die Steuerungsebene auf bestimmte IP-Adressbereiche beschränken möchten, verwenden Sie autorisierte Netzwerke auf Steuerungsebene.
  • Verwenden Sie Netzwerkrichtlinien, um den Pod-Traffic zu steuern. Die Durchsetzung von Netzwerkrichtlinien ist mit GKE Dataplane V2 verfügbar (standardmäßig in Autopilot-Clustern aktiviert). Eine Anleitung finden Sie unter Netzwerkrichtlinien.
Kubernetes-Netzwerktraffic beobachten

Standardmäßig verwendet Autopilot GKE Dataplane V2 für Messwerte und Beobachtbarkeit.

  • Konfigurieren Sie Google Managed Service for Prometheus, um die GKE Dataplane V2-Messwerte aufzunehmen. Standardmäßig werden GKE Dataplane V2-Messwerte in GKE Autopilot verfügbar.
  • Konfigurieren Sie mit GKE Dataplane V2 Beobachtbarkeit zusätzliche Tools zur Fehlerbehebung, um auf Visualisierungen, Netzwerkrichtlinienergebnisse und Ablaufdumps zuzugreifen.

Skalierung

Der effektive Betrieb einer Plattform erfordert umfangreiche Planungen und sorgfältige Überlegungen. Sie müssen die Skalierbarkeit Ihres Designs berücksichtigen. Das ist die Fähigkeit Ihrer Cluster, zu wachsen, ohne die Service Level Objectives (SLOs) zu überschreiten. Eine ausführliche Anleitung für Plattformadministratoren und Entwickler finden Sie unter Richtlinien für das Erstellen skalierbarer Cluster.

Sie sollten auch die Kontingente und Limits von GKE berücksichtigen, insbesondere wenn Sie große Cluster mit potenziell Tausenden von Pods ausführen möchten.

Autopilot-Arbeitslasten skalieren

In Autopilot skaliert GKE Ihre Knoten automatisch anhand der Anzahl der Pods in Ihrem Cluster. Wenn in einem Cluster keine Arbeitslasten ausgeführt werden, kann Autopilot den Cluster automatisch auf null Knoten herunterskalieren. Bei den meisten neu erstellten Autopilot-Clustern kann es sein, dass für die ersten bereitgestellten Arbeitslasten mehr Zeit für die Planung nötig ist. Das liegt daran, dass der neue Autopilot-Cluster beim Erstellen mit null nutzbaren Knoten beginnt und wartet, bis Sie eine Arbeitslast bereitstellen, um zusätzliche Knoten bereitzustellen.

Best Practice:

Um die Anzahl der Pods in Ihrem Cluster automatisch zu skalieren, verwenden Sie einen Mechanismus wie das horizontale Pod-Autoscaling von Kubernetes. Damit werden Pods basierend auf den integrierten CPU- und Arbeitsspeichermesswerten oder benutzerdefinierten Messwerten aus Cloud Monitoring skaliert. Informationen zum Konfigurieren der Skalierung anhand verschiedener Messwerte finden Sie unter Pod-Autoscaling anhand von Messwerten optimieren.

Sicherheit

Autopilot-Cluster aktivieren Best Practices und Einstellungen für die Sicherheit automatisch und wenden sie standardmäßig an. Dazu gehören viele Empfehlungen in Clustersicherheit härten und GKE-Sicherheitsübersicht..

Weitere Informationen zu Autopilot-Härtungsmaßnahmen und zur Implementierung Ihrer spezifischen Sicherheitsanforderungen finden Sie unter Sicherheitsmaßnahmen in Autopilot.

Cluster erstellen

Nachdem Sie Ihre Umgebung geplant und Ihre Anforderungen kennen, erstellen Sie einen Autopilot-Cluster. Neue Autopilot-Cluster sind regionale Cluster mit einer öffentlich zugänglichen IP-Adresse. Auf jeden Cluster werden Baseline-Härtungsmaßnahmen sowie automatische Skalierung und andere Features angewendet. Eine vollständige Liste der vorkonfigurierten Features finden Sie unter GKE Autopilot und Standard vergleichen.

Wenn Sie den Cluster ohne öffentliche IP-Adresse erstellen möchten, erstellen Sie stattdessen einen privaten Cluster.

Arbeitslasten in Autopilot bereitstellen

Schreiben Sie ein Kubernetes-Manifest und wenden Sie es auf den Cluster an, um eine Arbeitslast in einem laufenden Autopilot-Cluster bereitzustellen. Standardmäßig sind Autopilot-Cluster für die Ausführung der meisten Produktionsarbeitslasten optimiert.

Klicken Sie auf Anleitung, um einen interaktiven Leitfaden in der Google Cloud Console zum Bereitstellen und Freigeben einer Anwendung zu erhalten:

Anleitung

Einige Ihrer Arbeitslasten haben möglicherweise spezielle Hardwareanforderungen, z. B. ML-Arbeitslasten, die Hardwarebeschleuniger benötigen, oder Tests für mobile Apps, für die die Arm-Architektur erforderlich ist. Autopilot hat vordefinierte Compute-Klassen, die Google Cloud für die Ausführung von Arbeitslasten mit speziellen Computing-Anforderungen konfiguriert hat. Wenn Sie spezifischere Hardwareanforderungen haben, können Sie eigene benutzerdefinierte Compute-Klassen definieren. Fordern Sie beim Bereitstellen dieser spezifischen Arbeitslasten im Manifest eine Compute-Klasse an. Autopilot stellt automatisch Knoten bereit, die von speziellen Maschinen unterstützt werden, verwaltet die Planung und weist Hardware zu.

Die folgende Tabelle enthält einige gängige Anforderungen und gibt Empfehlungen, was Sie tun sollten:

Anwendungsfall Ressourcen
Einzelne Knoteneigenschaften beim Skalieren eines Clusters steuern Stellen Sie eine benutzerdefinierte Compute-Klasse bereit und fordern Sie sie in Ihrem Arbeitslastmanifest an. Weitere Informationen finden Sie unter Benutzerdefinierte Compute-Klassen.
Arm-Arbeitslasten ausführen Fordern Sie in Ihrem Manifest die Compute-Klasse Scale-Out und die Architektur arm64 an. Eine Anleitung finden Sie unter Autopilot-Arbeitslasten in Arm-Architektur bereitstellen.
Beschleunigte KI/ML-Arbeitslasten ausführen Fordern Sie GPUs in Ihrem Manifest an. Eine Anleitung finden Sie unter GPU-Arbeitslasten in Autopilot bereitstellen.
Arbeitslasten ausführen, die eine hohe Rechen- oder Speicherkapazität erfordern Fordern Sie die Compute-Klasse Balanced an. Eine Anleitung finden Sie unter Computing-Klassen für Autopilot-Pods auswählen.
Arbeitslasten ausführen, die eine effizientere horizontale Skalierung der CPU-Kapazität und eines Single-Thread-pro-Kern-Computing erfordern Fordern Sie die Compute-Klasse Scale-Out an. Eine Anleitung finden Sie unter Computing-Klassen für Autopilot-Pods auswählen.
Fehlertolerante Arbeitslasten wie Batchjobs zu geringeren Kosten ausführen Geben Sie Spot-Pods in Ihrem Manifest an. Eine Anleitung finden Sie unter Fehlertolerante Arbeitslasten zu geringeren Kosten in Spot-Pods ausführen. Sie können eine beliebige Compute-Klasse oder Hardwarekonfiguration mit Spot-Pods verwenden.
Arbeitslasten ausführen, die nur minimale Unterbrechungen erfordern, z. B. Spieleserver oder Arbeitswarteschlangen Geben Sie die Annotation cluster-autoscaler.kubernetes.io/safe-to-evict=false in der Pod-Spezifikation an. Pods sind bis zu sieben Tage vor der Bereinigung geschützt, die durch automatische Knotenupgrades oder Herunterskalierungsereignisse verursacht werden. Weitere Informationen finden Sie unter Laufzeit von Autopilot-Pods verlängern.
Lassen Sie Arbeitslasten Bursts über ihre Anfragen hinaus verursachen, wenn nicht verwendete Ressourcen in der Summe der Pod-Ressourcenanfragen auf dem Knoten verfügbar sind. Legen Sie die limits-Ressource höher als requests fest oder legen Sie keine Ressourcenlimits fest. Eine Anleitung finden Sie unter Pod-Bursting in GKE konfigurieren.

Mit Autopilot können Sie CPU-, Arbeitsspeicher- und sitzungsspezifische Speicherressourcen für Ihre Arbeitslasten anfordern. Die zulässigen Bereiche hängen davon ab, ob Sie Ihre Pods auf der Standardplattform für allgemeine Zwecke oder auf einer Computing-Klasse ausführen möchten.

Informationen zu den standardmäßigen Anfragen für Containerressourcen und den zulässigen Ressourcenbereichen finden Sie unter Ressourcenanfragen in Autopilot.

Arbeitslasttrennung

Autopilot-Cluster unterstützen die Verwendung von Knotenselektoren und Knotenaffinität zum Konfigurieren der Arbeitslasttrennung. Die Arbeitslasttrennung ist nützlich, wenn Sie GKE anweisen müssen, Arbeitslasten auf Knoten zu platzieren, die bestimmte Kriterien erfüllen, z. B. benutzerdefinierte Knotenlabels. Sie können GKE beispielsweise anweisen, Gameserver-Pods auf Knoten mit dem Label game-server zu planen und keine anderen Pods auf diesen Knoten zu planen.

Weitere Informationen finden Sie unter Arbeitslasttrennung in GKE konfigurieren.

Pods in bestimmten Zonen mithilfe der zonalen Topologie planen

Wenn Sie Pods in einer bestimmten Google Cloud-Zone platzieren müssen, um beispielsweise auf Informationen zu einem zonalen nichtflüchtigen Compute Engine-Speicher zuzugreifen, lesen Sie die Informationen unter GKE-Pods in bestimmten Zonen platzieren.

Pod-Affinität und Anti-Affinität

Verwenden Sie Pod-Affinität und -Antiaffinität, um Pods auf einem einzelnen Knoten zu platzieren oder andere Pods zu vermeiden. Die Pod-Affinität und -Antiaffinität weist Kubernetes an, eine Planungsentscheidung anhand der Labels von Pods zu treffen, die auf Knoten in einer bestimmten Topologiedomain, z. B. einer bestimmten Region oder Zone, ausgeführt werden. Beispielsweise können Sie GKE anweisen, Frontend-Pods nicht zusammen mit anderen Frontend-Pods auf denselben Knoten zu planen, um die Verfügbarkeit bei einem Ausfall zu verbessern.

Eine Anleitung und weitere Informationen finden Sie unter Pod-Affinität und Anti-Affinität.

In GKE können Sie die Pod-Affinität und Anti-Affinität mit den folgenden Labels in topologyKey verwenden:

  • topology.kubernetes.io/zone
  • kubernetes.io/hostname

Streuungseinschränkungen für Pod-Topologien

Wenn Sie die Verfügbarkeit Ihrer Arbeitslasten verbessern möchten, weil Kubernetes die Anzahl der Pods nach oben und unten skaliert, können Sie Einschränkungen für die Pod-Topologieverteilung festlegen. Damit wird gesteuert, wie Kubernetes Ihre Pods auf Knoten innerhalb einer Topologiedomain verteilt, z. B. eine Region. Sie können Kubernetes beispielsweise anweisen, eine bestimmte Anzahl von Gameserver-Sitzungs-Pods in jeder der drei Google Cloud-Zonen in der Region us-central1 zu platzieren.

Beispiele, weitere Informationen und Anleitungen finden Sie unter Pod-Topologie-Streuungseinschränkungen.

Autopilot-Cluster verwalten und überwachen

In Autopilot verwaltet GKE automatisch Cluster-Upgrades und ‑Wartungen sowohl für die Steuerungsebene als auch für die Worker-Knoten. Autopilot-Cluster haben auch integrierte Funktionen, mit denen Sie Ihre Cluster und Arbeitslasten überwachen können.

Upgrades der GKE-Versionen

Alle Autopilot-Cluster sind in einer GKE-Release-Version registriert. In Release-Versionen verwaltet GKE die Kubernetes-Version des Clusters, wobei je nach Version ein Gleichgewicht zwischen Feature-Verfügbarkeit und Versionsstabilität angestrebt wird. Autopilot-Cluster werden standardmäßig in der Release-Version „Regular“ registriert. Sie können jedoch einen anderen Kanal auswählen, der Ihren Anforderungen an Stabilität und Funktionalität entspricht. Weitere Informationen zu Release-Versionen finden Sie unter Release-Versionen.

GKE startet automatisch Upgrades, überwacht den Fortschritt und pausiert Vorgänge, wenn Probleme auftreten. Sie haben folgende Möglichkeiten, um den Upgrade-Vorgang manuell zu steuern:

  • Wenn Sie festlegen möchten, wann GKE automatische Upgrades ausführen kann, erstellen Sie Wartungsfenster. Beispiel: Sie können das Wartungsfenster auf den Abend vor dem wöchentlichen Zurücksetzen Ihres Mehrspieler-Games festlegen, damit sich Nutzer beim Zurücksetzen ohne Unterbrechung anmelden können.
  • Mit Wartungsausschlüssen können Sie festlegen, wann GKE in einem bestimmten Zeitraum keine automatischen Upgrades starten darf. Beispiel: Sie können einen Wartungsausschluss für die Dauer Ihrer Black Friday- und Cyber Monday-Verkaufsereignisse festlegen, damit Ihre Kunden problemlos einkaufen können.
  • Wenn Sie eine neue Version abrufen möchten, bevor automatische Upgrades beginnen, führen Sie ein manuelles Upgrade der Steuerungsebene durch. GKE gleicht die Knotenversion im Laufe der Zeit mit der Version der Steuerungsebene ab.
  • Informationen zum Abrufen einer Patchversion, die nur in einer neueren Release-Version verfügbar ist, finden Sie unter Patchversionen aus einer neueren Version ausführen. Beispielsweise kann es sein, dass Sie eine bestimmte Patchversion benötigen, um kürzlich erkannte Sicherheitslücken anzusprechen.

Autopilot-Cluster überwachen

Für Autopilot-Cluster sind Cloud Logging, Cloud Monitoring und Google Cloud Managed Service for Prometheus bereits aktiviert.

Autopilot-Cluster erfassen automatisch folgende Arten an Logs und Messwerten, wobei die Best Practices von Google für die Telemetrieerfassung berücksichtigt werden:

Logs für Cloud Logging

  • Systemprotokolle
  • Arbeitslast-Logs
  • Audit-Logs zur Administratoraktivität
  • Audit-Logs zum Datenzugriff

Messwerte für Cloud Monitoring

  • Systemmesswerte
  • Arbeitslastmesswerte (von Managed Service for Prometheus)

Zum Aktivieren von Logging und Monitoring ist keine zusätzliche Konfiguration erforderlich. In der folgenden Tabelle wird beschrieben, wie Sie die erfassten Telemetriedaten entsprechend Ihren Anforderungen verwenden können:

Anwendungsfall Ressourcen
GKE-Logs verstehen und auf sie zugreifen
  • Informationen zu automatisch erfassten Logs finden Sie unter Welche Logs erfasst werden.
  • Informationen zum Zugriff auf die Logs und zur Verwendung der Cloud Logging-Benutzeroberfläche in der Google Cloud Console finden Sie unter GKE-Logs anzeigen.
  • Beispielabfragen, mit denen Sie System- und Arbeitslastprotokolle in Kubernetes filtern können, finden Sie unter Kubernetes-bezogene Abfragen.
  • Beispielabfragen zum Filtern von Audit-Logs für Administratoraktivitäten und Datenzugriff finden Sie unter Informationen zum GKE-Audit-Logging.
  • Informationen zum Konfigurieren von Logs für mehrmandantenfähige Umgebungen, z. B. wenn Teams bestimmte Namespaces in einem einzelnen GKE-Cluster haben, aber jedes Team ein eigenes Google Cloud-Projekt hat, finden Sie unter Mehrmandantenfähiges Logging in GKE.
Leistung Ihrer GKE-Cluster beobachten

Eine effektive Überwachung der Clusterleistung kann Ihnen helfen, die Betriebskosten Ihrer Cluster und Arbeitslasten zu optimieren.

  • Verwenden Sie das GKE-Dashboard in Monitoring, um den Status Ihrer Cluster zu visualisieren. Weitere Informationen finden Sie unter GKE-Cluster beobachten.
  • GKE bietet auch ein Beobachtbarkeits-Dashboard in der Google Cloud Console. Weitere Informationen finden Sie unter Beobachtbarkeitsmesswerte anzeigen.
Sicherheitsstatus Ihrer Cluster überwachen Mit dem Sicherheitsstatus-Dashboard können Sie Ihre laufenden Arbeitslasten anhand von GKE-Best Practices prüfen, nach Sicherheitslücken in Ihren Containerbetriebssystemen und Sprachpaketen suchen und umsetzbare Empfehlungen für Abhilfemaßnahmen erhalten. Weitere Informationen finden Sie unter Das Sicherheitsstatus-Dashboard.

Fehlerbehebung

Informationen zur Fehlerbehebung finden Sie unter Fehlerbehebung bei Autopilot-Clustern.

Nächste Schritte