Übersicht über Google Distributed Cloud (nur Software) für Bare Metal

Mit Google Distributed Cloud können Sie die Infrastruktur und Dienste von Google Cloud auf Ihr Rechenzentrum ausweiten. Wir bieten Google Distributed Cloud sowohl in vernetzten als auch in Konfigurationen mit Air Gap an, die auf von Google bereitgestellter Hardware ausgeführt werden. Wir bieten Google Distributed Cloud auch als reine Softwarelösung (früher Google Distributed Cloud) an, die auf Ihrer eigenen Hardware ausgeführt wird. Die Google Distributed Cloud-Software kann entweder auf VMware oder auf Bare Metal installiert werden. Dieser Leitfaden gilt für Google Distributed Cloud-Software, die direkt auf Ihren Bare-Metal-Maschinen ausgeführt wird.

Die Software von Google Distributed Cloud basiert auf der Google Kubernetes Engine (GKE) und hat ein eigenes Kubernetes-Paket, das GKE für die Verwendung in einer lokalen Umgebung erweitert. Mit Google Distributed Cloud können Sie GKE-Cluster lokal erstellen, verwalten und aktualisieren und dabei Google Cloud-Funktionen verwenden. Außerdem können Sie Containeranwendungen mithilfe der Google-Infrastruktur in großem Maßstab auf Ihren Clustern bereitstellen und betreiben.

Wenn Sie Google Distributed Cloud-Software installieren, können Sie GKE Enterprise verwenden. Das ist eine Enterprise-Stufe für GKE mit leistungsstarken Funktionen zum Steuern, Verwalten und Betreiben von Containerarbeitslasten im großen Maßstab. Weitere Informationen zu GKE Enterprise und den auf Bare Metal verfügbaren Funktionen finden Sie in der technischen Übersicht über GKE Enterprise.

Unterstützte Versionen

Diese Dokumentation deckt alle unterstützten Versionen von Google Distributed Cloud ab. Gegebenenfalls finden Sie in dieser Dokumentation auch begrenzte Informationen zu älteren, nicht mehr unterstützten Versionen. Versionsspezifische Unterschiede bei Anforderungen und Verhalten werden in der Dokumentation erwähnt. Wenn eine neue Funktion verfügbar wird, wird auch die unterstützte Version für die Funktion dokumentiert.

Eine Liste der unterstützten Nebenversionen und verfügbaren Patches finden Sie unter Versionsverwaltung.

Ab Version 1.29 wird für die Dokumentation der vorherigen Nebenversionen kein nummeriertes Verzeichnis mehr erstellt. Archivierte Dokumentationen für Version 1.15 und niedriger finden Sie, indem Sie die Nummer der Nebenversion in die folgende URL einfügen:

https://cloud.google.com/anthos/clusters/docs/bare-metal/VERSION/

Ersetzen Sie VERSION durch eine Nebenversion von 1.6 bis 1.15 und kopieren Sie die URL in die Adressleiste Ihres Browsers.

Warum Google Distributed Cloud on Bare Metal verwenden?

Wenn Sie Google Distributed Cloud-Software auf Bare Metal ausführen, nutzen Sie Ihre vorhandene Unternehmensinfrastruktur und können Anwendungen während ihres gesamten Lebenszyklus modernisieren.

Eigenen Knoten verwenden

Bei einer reinen Softwareinstallation von Google Distributed Cloud auf Bare Metal können Sie Anwendungen direkt auf Ihrer eigenen Hardwareinfrastruktur bereitstellen. So erzielen Sie die beste Leistung und Flexibilität. Sie haben die direkte Kontrolle über Anwendungsskalierung, Sicherheit und Netzwerklatenz. Außerdem profitieren Sie von den Vorteilen von Containeranwendungen über GKE-Komponenten, einschließlich leistungsstarker Funktionen aus der Enterprise-Stufe.

Verbesserte Leistung und niedrigere Kosten

Google Distributed Cloud verwaltet die Bereitstellung und Integrität von Anwendungen über Ihre vorhandenen Unternehmensrechenzentren hinweg – für einen effizienteren Betrieb. Außerdem können Sie Container am Netzwerk-Edge ausführen, sodass Analyseanwendungen mit voller Leistung ausgeführt werden können.

Wenn Sie Google Distributed Cloud auf Bare Metal anstelle von virtuellen Maschinen verwenden, können Sie Anwendungscontainer auf einer Vielzahl von leistungsoptimierten Hardwaretypen wie GPUs und SSDs verwalten. Wenn Sie Google Distributed Cloud auf Bare Metal ausführen, ist auch ein direkter Anwendungszugriff auf die Hardware möglich.

Kompatible Sicherheit

Da Sie Ihre Knotenumgebung steuern, können Sie Ihr Netzwerk, Ihre Hardware und Ihre Anwendungen entsprechend Ihrer Anforderungen optimieren. Entsprechend können Sie die Systemsicherheit direkt steuern, ohne sich um die Kompatibilität mit virtuellen Maschinen und Betriebssystemen kümmern zu müssen.

Bereitstellung der überwachten Anwendung

Google Distributed Cloud bietet erweiterte Überwachung der Integrität und Leistung Ihrer Umgebung. Sie können die Skalierung von Anwendungen einfacher anpassen und trotz Schwankungen bei Arbeitslast und Netzwerkverkehr für Zuverlässigkeit sorgen.

Sie verwalten Monitoring, Logging und Analyse von Clustern und Arbeitslasten über Connect.

Netzwerklatenz und Flexibilität

Da Sie Ihre Netzwerkanforderungen verwalten, kann Ihr Netzwerk für niedrige Latenz optimiert werden. Diese Netzwerkoptimierung kann für die Leistung in kommerziellen Analysen oder Finanzanalysen sowie für andere Unternehmens- oder Netzwerk-Edge-Anwendungen entscheidend sein.

Hochverfügbar

Google Distributed Cloud unterstützt mehrere Steuerungsknoten in einem Cluster. Wenn ein Knoten der Steuerungsebene ausfällt, können Sie Ihre Umgebung weiterhin verwalten.

Sicheres Design und Steuerung

Ihre Infrastruktursicherheit kann an Ihre eigenen Anforderungen angepasst werden, mit nur wenige Verbindungen zu externen Ressourcen. Das Wichtigste ist jedoch, dass es keine zusätzlichen VM-Komplexität gibt, wenn Sicherheitssysteme bereitgestellt werden. Außerdem behalten Sie bei der Interaktion mit vorhandenen Sicherheitssystemen die Kontrolle über das Betriebssystem.

Google Distributed Cloud verwendet schlanke, sichere Verbindungen zu Google APIs. Mit Connect und Cloud Monitoring können Sie Cluster und Anwendungen von einem zentralen Ort aus verwalten. Diese zentralisierte Lösung trägt außerdem dazu bei, dass Ihre Bereitstellungen reibungslos ausgeführt werden. Weiter kann der Google Cloud-Support Probleme so schneller beheben.

Preflight-Prüfung bei der Installation

Mit Google Distributed Cloud werden Ihre GKE-Cluster auf Open-Source- und Enterprise-Linux-Systemen und bei minimaler Hardwareinfrastruktur ausgeführt und sind in Ihrer Umgebung entsprechend flexibel. Außerdem umfasst die Lösung verschiedene Preflight-Prüfungen, um erfolgreiche Konfigurationen und Installationen zu gewährleisten.

Anwendungsbereitstellung und Load-Balancing

Google Distributed Cloud umfasst Load-Balancing-Mechanismen mit Layer 4 und 7 bei der Clustererstellung.

Verbesserte etcd-Zuverlässigkeit

Zum Überwachen der Größe und zum Defragmentieren von etcd-Datenbanken enthalten Google Distributed Cloud-Steuerungsebenen einen etcddefrag-Pod. Der etcddefrag-Pod fordert Speicherplatz von großen etcd-Datenbanken zurück und stellt etcd wieder her, wenn der vorhandene Speicherplatz überschritten wird.

Funktionsweise

Google Distributed Cloud erweitert die Google Kubernetes Engine (GKE), sodass Sie GKE-Cluster lokal auf Ihren eigenen Linux-Servern erstellen können. Sie verwalten diese lokalen Cluster in Google Cloud zusammen mit regulären GKE-Clustern und Clustern in anderen Umgebungen als Teil einer Flotte.

Die herkömmlichen GKE-Cluster werden in Google Cloud ausgeführt, wo die Kubernetes-Steuerungsebene und die Netzwerkinfrastruktur von Google Cloud verwaltet werden. Da Google Distributed Cloud-Cluster in Ihrem Rechenzentrum ausgeführt werden, stellen wir zusätzlich zur GKE-Software Administrator- und Steuerungsebenensoftware bereit. Die in Ihrem Rechenzentrum ausgeführte Software wird im Rahmen der Installations- und Upgradeprozesse heruntergeladen.

Das folgende Diagramm zeigt das vereinfachte Ergebnis einer abgeschlossenen Installation:

Diagramm eines Administratorclusters und eines Nutzerclusters
Google Distributed Cloud-Architektur auf Bare Metal mit einem Administrator- und einem Nutzercluster (zum Vergrößern anklicken)

Schlüsselkomponenten

Die folgenden Komponenten bilden eine reine Softwareinstallation von Google Distributed Cloud auf Bare Metal:

  • Der Administratorcluster besteht aus einem oder mehreren Knoten der Steuerungsebene. Jeder Knoten ist eine physische Maschine, auf der ein unterstütztes Linux-Betriebssystem ausgeführt wird. Die Standardbereitstellung besteht aus einem Administratorcluster, der den Lebenszyklus eines oder mehrerer Nutzercluster über Kubernetes Resource Management (KRM) verwaltet. Jeder Knotencomputer in der Installation hat eine eigene IP-Adresse.

  • In einem Nutzercluster werden die Arbeitslasten ausgeführt, die Ihre Anwendungen implementieren, z. B. in GKE auf Google Cloud. Jeder Nutzercluster besteht aus mindestens einem Knoten der Steuerungsebene und einem Worker-Knoten.

  • Die Administrator-Workstation ist in der Regel ein separater Computer, der die Tools und Clusterartefakte enthält, z. B. Konfigurationsdateien. Clusterersteller und ‑entwickler verwenden diese Tools und Artefakte, um ihre lokalen GKE-Cluster mit den entsprechenden Berechtigungen zu verwalten:

    • Wenn Sie bmctl auf der Administrator-Workstation ausführen, können Sie Cluster erstellen und aktualisieren sowie einige andere Verwaltungsaufgaben ausführen.

    • Wenn Sie kubectl auf der Administrator-Workstation ausführen, können Sie mit Ihren Administrator- und Nutzerclustern interagieren, einschließlich der Bereitstellung und Verwaltung von Arbeitslasten.

  • Die GKE On-Prem API ist die von Google Cloud gehostete API für die Clusterlebenszyklusverwaltung. Sie können die API-Clients (Google Cloud Console, Google Cloud CLI und Terraform) verwenden, um den Lebenszyklus Ihrer lokalen Cluster zu erstellen und zu verwalten. Das ist eine Alternative zur Anmeldung auf der Administrator-Workstation, um Ihre Cluster mit der bmctl CLI zu verwalten.

  • Die Console bietet auch eine Weboberfläche für Ihr Google Cloud-Projekt, u. a. lokale Cluster. In der Console werden wichtige Messwerte zu Ihren Clustern angezeigt, mit denen Sie die Clusterintegrität im Blick behalten können.

  • Clusteradministratoren und ‑entwickler verwenden kubectl, um über virtuelle IP-Adressen (VIPs), die im Rahmen der Clusterkonfiguration angegeben wurden, auf die Clustersteuerungsebenen zuzugreifen. Anwendungsnutzer und ‑entwickler verwenden Dienst- und Ingress-VIPs, um jeweils auf Arbeitslasten zuzugreifen und sie bereitzustellen.

Verbindung zur Flotte herstellen

Alle Nutzercluster (und optional Administratorcluster) sind Mitglieder einer Flotte: einer logischen Gruppierung von Kubernetes-Clustern. Mit Flotten können Sie die Verwaltung von einzelnen Clustern bis hin zu ganzen Clustergruppen optimieren und Ihren Teams helfen, ähnliche Best Practices wie bei Google anzuwenden. Sie können Flottencluster in der Google Cloud Console gemeinsam ansehen und verwalten und flottenfähige GKE Enterprise-Funktionen verwenden, um Ihre Arbeitslasten im großen Maßstab zu verwalten, zu steuern und auszuführen. Eine vollständige Liste der verfügbaren Flottenfunktionen für lokale Umgebungen finden Sie unter GKE Enterprise-Bereitstellungsoptionen.

Die Verbindung jedes Flottenclusters zu Google Cloud wird von einem Connect Agent verwaltet, der im Rahmen der Installation von Google Distributed Cloud bereitgestellt wird. Weitere Informationen zur Funktionsweise dieses Agent finden Sie in der Übersicht zum Connect-Agent.

Die Flottenmitgliedschaft wird auch verwendet, um die Preise für Google Distributed Cloud auf Bare Metal zu verwalten, wie im nächsten Abschnitt beschrieben.

Weitere Informationen zu den GKE Enterprise-Funktionen und dazu, wie sie zusammenarbeiten, finden Sie in der technischen Übersicht zu GKE Enterprise.

Preise

Lokale GKE-Cluster, die mit Google Distributed Cloud erstellt wurden, werden im Rahmen von GKE Enterprise pro vCPU abgerechnet. Sie aktivieren die Enterprise-Stufe, indem Sie die Anthos API in Ihrem Google Cloud-Projekt aktivieren.

Ausführliche Preisinformationen, einschließlich Informationen dazu, wie Sie sich an den Vertrieb wenden, finden Sie unter Google Kubernetes Engine-Preise.

Versionen

Weitere Informationen zu Google Distributed Cloud-Versionen finden Sie in der Richtlinie für die Versionsunterstützung.

Google Distributed Cloud auf Bare Metal

Da GKE-Cluster, die mit der Google Distributed Cloud erstellt wurden, in Ihrer eigenen Infrastruktur ausgeführt werden, sind sie hochgradig konfigurierbar. Nachdem Sie das Bereitstellungsmodell ausgewählt haben, das Ihren spezifischen organisatorischen und Anwendungsfallanforderungen entspricht, können Sie aus einer Reihe unterstützter Load Balancing-Modi, IP-Adressierungsoptionen, Sicherheitsfunktionen und Verbindungsoptionen auswählen. Bei der Einrichtung eines GKE-Clusters auf Bare Metal müssen Sie vor und während der Installation Entscheidungen treffen. Diese Dokumentationsreihe enthält Leitfäden, die Ihrem Team bei der Entscheidung für die richtigen Funktionen und Optionen helfen. Wenden Sie sich an Ihre Netzwerk- und Anwendungsteams, um sicherzustellen, dass Ihre Installation die Anforderungen Ihres Unternehmens erfüllt.