GKE on AWS ist ein verwalteter Dienst, mit dem Sie Kubernetes-Cluster in Ihrem AWS-Konto bereitstellen, betreiben und skalieren können.
Diese Seite richtet sich an Administratoren, Architekten und Betreiber, die IT-Lösungen und Systemarchitekturen gemäß der Unternehmensstrategie und den Anforderungen definieren möchten. Weitere Informationen zu gängigen Rollen und Beispielaufgaben, auf die wir in Google Cloud -Inhalten verweisen, finden Sie unter Häufig verwendete GKE Enterprise-Nutzerrollen und ‑Aufgaben.
Ressourcenverwaltung
GKE on AWS verwendet AWS APIs, um die von Ihrem Cluster benötigten Ressourcen bereitzustellen, einschließlich virtueller Maschinen, verwalteter Laufwerke, Autoscaling-Gruppen, Sicherheitsgruppen und Load Balancer.
Sie können Cluster mit der Google Cloud CLI oder der GKE Multi-Cloud API erstellen, beschreiben und löschen.
Bei AWS authentifizieren
Wenn Sie GKE on AWS einrichten, erstellen Sie in Ihrem AWS-Konto eine AWS IAM-Rolle mit den erforderlichen Berechtigungen. Sie erstellen auch ein Dienstkonto in Ihrem Google Cloud Projekt, um eine Vertrauensstellung für die AWS-IAM-Identitätsföderation herzustellen.Weitere Informationen dazu finden Sie in der Authentifizierungsübersicht.
Ressourcen zu Google Cloud
GKE on AWS verwendet ein Google Cloud -Projekt, um Informationen zur Clusterkonfiguration in Google Cloudzu speichern.
Flotten und Connect
GKE on AWS registriert jeden Cluster bei der Erstellung mit einer Flotte. Connect ermöglicht den Zugriff auf Features zur Cluster- und Arbeitslastverwaltung von Google Cloud. Der Name der Fleet-Mitgliedschaft eines Clusters entspricht dem Clusternamen.
Sie können Features wie Config Management und Cloud Service Mesh in Ihrer Flotte aktivieren.
Clusterarchitektur
GKE on AWS stellt Cluster mit privaten Subnetzen in Ihrer AWS Virtual Private Cloud bereit. Jedes Cluster besteht aus den folgenden Komponenten:
Steuerungsebene: Die Kubernetes-Steuerungsebene verwendet eine Hochverfügbarkeitsarchitektur mit drei Replikaten. Auf jedem Replikat werden alle Kubernetes-Komponenten ausgeführt, einschließlich
kube-apiserver
,kube-controller-manager
,kube-scheduler
undetcd
. Jede Instanzetcd
speichert Daten in einem EBS-Volume und verwendet eine Netzwerkschnittstelle, um mit anderenetcd
-Instanzen zu kommunizieren. Ein Standard-Load-Balancer wird verwendet, um den Traffic auf den Kubernetes API-Endpunktkube-apiserver
zu verteilen.Knotenpools: Ein Knotenpool ist eine Gruppe von Kubernetes-Worker-Knoten mit derselben Konfiguration, einschließlich Instanztyp, Laufwerkskonfiguration und Instanzprofil. Alle Knoten in einem Knotenpool werden im selben Subnetz ausgeführt. Für Hochverfügbarkeit können Sie mehrere Knotenpools in verschiedenen Subnetzen in derselben AWS-Region bereitstellen.
Das folgende Diagramm zeigt ein Beispiel für eine VPC, einen Knotenpool und eine Struktur der Steuerungsebene, einschließlich NAT-Gateway (Network Address Translation) und Load-Balancer. Erstellen Sie diese Infrastruktur mit den Anleitungen AWS-VPC erstellen und Kurzanleitung.
Nächste Schritte
- Sie haben dafür gesorgt, dass die Voraussetzungen erfüllt sind.