Auf dieser Seite wird beschrieben, wie Sie Gemini in einer Air-Gap-Umgebung von Google Distributed Cloud (GDC) einrichten. Dieser Leitfaden richtet sich an Infrastrukturadministratoren, die Systembereitstellungen verwalten. Er enthält Details zur erforderlichen Infrastruktur, zur Hardwareeinrichtung für GPU-Pods und zu den Netzwerkkonfigurationen, die für die Bereitstellung von Gemini erforderlich sind.
Hinweise
Damit Sie die Netzwerkkonfiguration für Gemini einrichten können, muss der Root-Administratorcluster erfolgreich in den Basis-Racks installiert sein. Weitere Informationen finden Sie unter Root-Administratorcluster-Bootstrap.
GPU-Hardware für Gemini konfigurieren
Wenn Sie Gemini in GDC ausführen möchten, müssen Sie die erforderliche Hardware in Form eines GPU-Pods bereitstellen. Ein GPU-Pod besteht aus einem bis acht stromverbrauchenden GPU-Servern und ist die kleinste bereitstellbare Einheit von GPU-fähigen Racks. Jeder GPU-Server befindet sich in einem eigenen Rack und ist sowohl mit einem dedizierten Management-Switch als auch mit zwei gemeinsam genutzten TOR-Switches (Top of Rack) verbunden. Die Anzahl der Server pro Rack hängt vom Strombudget und Ihren Anforderungen ab.
Im folgenden Diagramm sind zwei verschiedene GPU-Pod-Konfigurationen dargestellt:

Abbildung 1. Es werden zwei GPU-Pods angezeigt. Der erste GPU-Pod besteht aus acht GPU-Servern. Der zweite GPU-Pod besteht aus fünf GPU-Servern.
In Abbildung 1 besteht der erste GPU-Pod aus Folgendem:
- Ein dediziertes VPC-Paar (Virtual Private Cloud), das bis zu acht GPU-Server unterstützt. Für zusätzliche Serververbindungen müssen neue GPU-Pods erstellt werden.
- Jede XE9680-GPU im GPU-Pod hat exklusiven Zugriff auf einen TOR-Switch. TORs im GPU-Pod werden nicht mit anderen Rechen- oder Speicherressourcen geteilt.
- Zwei TOR-Switches sind verbunden, um eine Verbindung mit hoher Bandbreite für die GPU-Server bereitzustellen.
- Dieser GPU-Pod besteht aus maximal acht GPU-Servern. Jeder Server befindet sich in einem eigenen Rack.
- Jeder GPU-Server ist sowohl mit einem dedizierten Management-Switch als auch mit den gemeinsam genutzten GPU-TOR-Switches verbunden, die ein VPC-Paar bilden.
In Abbildung 1 hat der zweite GPU-Pod dieselbe Architektur, besteht aber aus fünf statt acht GPU-Servern.
Netzwerk für Gemini einrichten
So konfigurieren Sie Ihr Netzwerk für Gemini in GDC:
Führen Sie eine dynamische Erweiterung des GPU-Pods durch. Folgen Sie der Anleitung unter Dynamische Erweiterung durchführen. Wenn bei der Zonenerweiterung ein Problem auftritt, bei dem
SubcomponentOverride-Ressourcen nicht angewendet werden können, folgen Sie dem OLT-R0003-Runbook.Prüfen Sie, ob die Verbindung erfolgreich hergestellt wurde. Legen Sie die Umgebungsvariable
KUBECONFIGfest, um eine Verbindung zum Administrator-Stammcluster herzustellen:KUBECONFIG=KUBECONFIG_PATHErsetzen Sie
KUBECONFIG_PATHdurch den Pfad zur kubeconfig-Datei des Stammadministratorclusters.Rufen Sie den Status der TOR- und Management-Switches ab:
kubectl --kubeconfig=$KUBECONFIG get torswitch -n gpc-system kubectl --kubeconfig=$KUBECONFIG get managementswitch -n gpc-systemPrüfen Sie die Ausgabe und bestätigen Sie, dass in der Spalte
READYfür beide Switches der WertTrueangezeigt wird:NAME AGE VENDOR SERIAL-NUMBER MANAGEMENT-IP READY OSVERSION CREDENTIAL-NAME LICENSE-NAME aa-aa-torsw01 10h Cisco 005056B4FC41 172.100.1.130 True 10.3(3) aa-aa-torsw01-admin aa-aa-torsw02 10h Cisco 005056B4966C 172.100.1.131 True 10.3(3) aa-aa-torsw02-adminWenn Sie Hardwareprobleme haben, die sich auf die Konfiguration Ihres Netzwerks auswirken, lesen Sie den Abschnitt Hardwarefehler beheben.
Hardwarefehler beheben
Wenn Hardwarefehler bei den Switches in den erweiterten Racks auftreten, führen Sie den Prozess für die Rückgabe und den Ersatz von Switch-Produkten (RMA) für die TOR- und Verwaltungsswitches durch. Folgen Sie der Anleitung unter PNET-R2001.