Esta documentação é referente à versão mais recente do GKE no Azure, lançada em novembro de 2021. Consulte as Notas de lançamento para mais informações.
Mantenha tudo organizado com as coleções
Salve e categorize o conteúdo com base nas suas preferências.
Arquitetura do GKE no Azure
Os clusters do GKE no Azure são um serviço gerenciado para provisionar,
operar e escalonar clusters do Kubernetes na conta do Azure.
Gerenciamento de recursos
O GKE no Azure usa as APIs do Azure para provisionar os recursos
necessários para o cluster, incluindo máquinas virtuais, discos gerenciados,
conjuntos de escalonamento de máquinas virtuais, grupos
de segurança de rede e balanceadores de carga.
Ao configurar o GKE no Azure, você cria um aplicativo do Azure Active Directory
(Azure AD) e o principal de serviço com as permissões necessárias. Você
também cria um certificado do cliente que a API GKE Multi-cloud usa para se autenticar como
o principal de serviço do aplicativo.
O GKE no Azure usa um projeto do Google Cloud para armazenar informações de configuração
do cluster no Google Cloud.
Frotas e conexão
O GKE no Azure registra cada cluster com uma
frota quando ele é criado.
O Connect permite
o acesso a recursos de clusters e de gerenciamento de cargas de trabalho do Google Cloud. O
nome da associação de frota de um cluster é igual ao nome do cluster.
É possível ativar recursos como o Config Management e
o Anthos Service Mesh na frota.
Arquitetura do cluster
O GKE no Azure provisiona clusters usando sub-redes particulares dentro da
rede virtual do Azure. Um cluster tem os seguintes componentes:
Plano de controle: o plano de controle do Kubernetes usa uma arquitetura de alta
disponibilidade com três réplicas. Cada réplica executa todos os componentes do Kubernetes,
incluindo kube-apiserver, kube-controller-manager, kube-scheduler e
etcd. Cada instância etcd armazena dados em um volume do disco do Azure e usa uma
interface de rede para se comunicar com outras instâncias etcd. Um balanceador de carga
padrão é usado para equilibrar o tráfego para o endpoint da API Kubernetes,
kube-apiserver.
É possível criar um plano de controle em várias zonas ou em uma única
zona. Para mais informações, consulte
Criar um cluster.
Pools de nós: um pool de nós é um grupo de nós de trabalho do Kubernetes
com a mesma configuração, incluindo tipo de instância, configuração de disco
e perfil da instância. Todos os nós em um pool são executados na mesma
sub-rede. Para alta disponibilidade, é possível provisionar vários pools de nós em
diferentes sub-redes na mesma região do Azure.
[[["Fácil de entender","easyToUnderstand","thumb-up"],["Meu problema foi resolvido","solvedMyProblem","thumb-up"],["Outro","otherUp","thumb-up"]],[["Difícil de entender","hardToUnderstand","thumb-down"],["Informações incorretas ou exemplo de código","incorrectInformationOrSampleCode","thumb-down"],["Não contém as informações/amostras de que eu preciso","missingTheInformationSamplesINeed","thumb-down"],["Problema na tradução","translationIssue","thumb-down"],["Outro","otherDown","thumb-down"]],["Última atualização 2024-06-26 UTC."],[],[],null,["# GKE on Azure architecture\n=========================\n\nGKE on Azure is a managed service that helps you provision,\noperate, and scale Kubernetes clusters in your Azure account.\n\nThis page is for Admins and architects and Operators who want to\ndefine IT solutions and system architecture in accordance with company strategy\nand requirements. To learn more about common roles and example tasks that we\nreference in Google Cloud content, see\n[Common GKE user roles and tasks](/kubernetes-engine/enterprise/docs/concepts/roles-tasks).\n\nResource management\n-------------------\n\nGKE on Azure uses Azure APIs to provision the resources\nneeded by your cluster, including virtual machines, managed disks,\nvirtual machine scale set, network\nsecurity groups, and load balancers.\n\nYou can create, describe, and delete clusters with the\n[Google Cloud CLI](/sdk/gcloud/reference/container/azure) or\n[GKE Multi-Cloud API](/kubernetes-engine/multi-cloud/docs/reference/rest).\n\n### Authenticating to Azure\n\nWhen you set up GKE on Azure, you create an Azure Active Directory (Azure AD) application and service principal with the required permissions. You also create a client certificate that the GKE Multi-Cloud API uses to authenticate as the application's service principal.\n\n\u003cbr /\u003e\n\nFor more information about Azure AD and service principals, see\n[Application and service principal objects in Azure Active Directory](https://docs.microsoft.com/en-us/azure/active-directory/develop/app-objects-and-service-principals).\n\n\nFor more information, see\n[Authentication overview](/kubernetes-engine/multi-cloud/docs/azure/concepts/authentication).\n\n### Resources on Google Cloud\n\nGKE on Azure uses a Google Cloud project to store cluster configuration\ninformation on Google Cloud.\n| **Warning:** Soon after you delete a Google Cloud project, any cluster resources in Azure are permanently deleted. To safeguard against the accidental deletion of a Google Cloud project, use [Project liens](/resource-manager/docs/project-liens).\n\nFleets and Connect\n------------------\n\nGKE on Azure registers each cluster with a\n[Fleet](/anthos/multicluster-management/fleets) when it is created.\n[Connect](/anthos/multicluster-management/connect/overview) enables\naccess to cluster and workload management features from Google Cloud. A\ncluster's Fleet membership name is the same as its cluster name.\n\nYou can enable features such as Config Management and\nCloud Service Mesh within your Fleet.\n\nCluster architecture\n--------------------\n\nGKE on Azure provisions clusters using private subnets inside your\nAzure Virtual Network. Each cluster consists of the following components:\n\n- **Control plane** : The Kubernetes control plane uses a high-availability\n architecture with three replicas. Each replica runs all Kubernetes components\n including `kube-apiserver`, `kube-controller-manager`, `kube-scheduler`, and\n `etcd`. Each `etcd` instance stores data in an Azure Disk volume, and uses a\n network interface to communicate with other `etcd` instances. A standard load\n balancer is used to balance traffic to the Kubernetes API endpoint,\n `kube-apiserver`.\n\n\n You can create a control plane in multiple zones, or in a single\n zone. For more information, see\n [Create a cluster](/kubernetes-engine/multi-cloud/docs/azure/how-to/create-cluster).\n- **Node pools**: A node pool is a group of Kubernetes worker nodes\n with the same configuration, including instance type, disk configuration,\n and instance profile. All nodes in a node pool run on the same\n subnet. For high availability, you can provision multiple node pools across\n different subnets in the same Azure region.\n\nWhat's next\n-----------\n\n- Complete the [Prerequisites](/kubernetes-engine/multi-cloud/docs/azure/how-to/prerequisites)."]]