GKE sur AWS est un service géré qui vous permet de provisionner, d'exploiter et de faire évoluer des clusters Kubernetes dans votre compte AWS.
Cette page s'adresse aux administrateurs, aux architectes et aux opérateurs qui souhaitent définir des solutions IT et une architecture système conformément à la stratégie et aux exigences de l'entreprise. Pour en savoir plus sur les rôles courants et les exemples de tâches que nous citons dans le contenu Google Cloud , consultez la section Rôles utilisateur et tâches courantes de l'utilisateur dans GKE Enterprise.
Gestion des ressources
GKE sur AWS utilise les API AWS pour provisionner les ressources dont votre cluster a besoin, y compris les machines virtuelles, les disques gérés, le groupe d'autocaling, les groupes de sécurité et les équilibreurs de charge.
Vous pouvez créer, décrire et supprimer des clusters avec Google Cloud CLI ou l'API GKE Multi-Cloud.
S'authentifier auprès d'AWS
Lorsque vous configurez GKE sur AWS, vous créez un rôle IAM AWS dans votre compte AWS avec les autorisations requises. Vous créez également un compte de service dans votre Google Cloud projet pour établir une relation d'approbation pour la fédération d'identité IAM AWS.Pour en savoir plus, consultez la section Aperçu de l'authentification.
Ressources sur Google Cloud
GKE sur AWS utilise un projet Google Cloud pour stocker les informations de configuration du cluster sur Google Cloud.
Parcs et Connect
GKE sur AWS enregistre chaque cluster auprès d'un parc lors de sa création. Connect permet d'accéder aux fonctionnalités de gestion des clusters et des charges de travail de Google Cloud. Le nom de l'appartenance à un parc d'un cluster est identique au nom de son cluster.
Vous pouvez activer des fonctionnalités telles que Config Management et Cloud Service Mesh dans votre parc.
Architecture d'un cluster
GKE sur AWS provisionne des clusters à l'aide de sous-réseaux privés dans votre cloud privé virtuel AWS. Chaque cluster se compose des éléments suivants :
Plan de contrôle : le plan de contrôle de Kubernetes utilise une architecture à haute disponibilité avec trois instances dupliquées. Chaque instance dupliquée exécute tous les composants Kubernetes, y compris
kube-apiserver
,kube-controller-manager
,kube-scheduler
etetcd
. Chaque instanceetcd
stocke les données dans un volume EBS et utilise une interface réseau pour communiquer avec d'autres instancesetcd
. Un équilibreur de charge standard permet d'équilibrer le trafic vers le point de terminaison de l'API Kubernetes,kube-apiserver
.Pools de nœuds : un pool de nœuds est un groupe de nœuds de calcul Kubernetes ayant la même configuration, y compris le type d'instance, la configuration du disque et le profil d'instance. Tous les nœuds d'un pool s'exécutent sur le même sous-réseau. Pour assurer une haute disponibilité, vous pouvez provisionner plusieurs pools de nœuds dans différents sous-réseaux de la même région AWS.
Le schéma suivant présente un exemple de structure de VPC, de pool de nœuds et de plan de contrôle, y compris la passerelle NAT et l'équilibreur de charge. Vous créez cette infrastructure en suivant les instructions des pages Créer un VPC AWS et Guide de démarrage rapide.
Étape suivante
- Remplissez les conditions préalables.