이 문서에서는 kubeception을 사용하는 사용자 클러스터에 Google Distributed Cloud(소프트웨어만 해당)를 설치하기 위한 CPU, RAM, 스토리지 요구사항에 대해 설명합니다. 이 페이지는 회사 전략에 따라 IT 솔루션과 시스템 아키텍처를 정의하는 관리자 및 설계자를 대상으로 합니다. Google Cloud 콘텐츠에서 참조하는 일반적인 역할 및 예시 작업에 대해 자세히 알아보려면 일반 GKE Enterprise 사용자 역할 및 작업을 참조하세요.
이 문서에서는 사용자 클러스터에 Controlplane V2가 사용 설정된 설치의 요구사항을 설명합니다.
여기에 제공된 요구사항은 프로덕션 환경에 적합합니다. 개념 증명 데모에 필요한 최소 CPU, RAM, 스토리지 요구사항은 최소 인프라 설정을 참조하세요.
관리자 워크스테이션의 CPU, RAM, 스토리지 요구사항
관리자 워크스테이션을 만들려면 먼저 관리자 워크스테이션 구성 파일을 작성합니다. 구성 파일에서 vSphere 클러스터, vSphere 리소스 풀, vSphere datastore를 지정합니다.
vSphere 클러스터는 ESXi를 실행하는 물리적 호스트 집합이고 리소스 풀에는 이러한 ESXi 호스트에서 제공되는 리소스 부분에 대한 예약이 포함되어 있습니다.
리소스 풀은 관리자 워크스테이션 및 풀에 속하는 다른 VM의 요구사항을 지원하기에 충분한 CPU 및 RAM을 포함해야 합니다. 마찬가지로 Datastore는 관리자 워크스테이션 및 Datastore를 사용하는 다른 VM의 요구사항을 지원하기에 충분한 스토리지를 포함해야 합니다.
관리자 워크스테이션의 요구사항은 다음과 같습니다.
- vCPU 4개(가상 CPU)
- RAM 8GiB
- 100GiB
Google Distributed Cloud는 CPU 마이크로아키텍처 수준 v3(x86-64-v3) 이상에서 x86-64 vCPU만 지원합니다.
관리자 클러스터의 CPU, RAM, 스토리지 요구사항
관리자 클러스터를 만들려면 먼저 관리자 클러스터 구성 파일을 작성합니다. 구성 파일에서 vSphere 클러스터, vSphere 리소스 풀, vSphere datastore를 지정합니다.
vSphere 클러스터는 ESXi를 실행하는 물리적 호스트 집합이고 리소스 풀에는 이러한 ESXi 호스트에서 제공되는 리소스 부분에 대한 예약이 포함되어 있습니다.
리소스 풀은 관리자 클러스터 및 풀에 속하는 다른 VM의 요구사항을 지원하기에 충분한 CPU 및 RAM을 포함해야 합니다. 마찬가지로 Datastore는 관리자 클러스터 및 Datastore를 사용하는 다른 VM의 요구사항을 지원하기에 충분한 스토리지를 포함해야 합니다.
관리자 클러스터에는 하나 또는 세 개의 노드가 있습니다. 관리자 클러스터의 컨트롤 플레인인 노드는 고가용성(HA) 관리자 클러스터용 3개와 HA가 아닌 관리자 클러스터용 1개입니다.
관리자 클러스터에는 다음과 같은 스토리지 요구사항이 있습니다.
VM 템플릿용 40GiB
etcd 객체 데이터를 저장할 수 있는 100GiB
네트워크 중단 시 로그 및 측정항목을 버퍼링하기 위한 Google Cloud Observability용 240GiB
Prometheus가 사용 설정된 경우 Prometheus가 측정항목 데이터를 저장하기 위한 506GiB
각 노드에 대해 40GiB
다음 표에서는 관리자 클러스터의 노드에 대한 CPU, RAM, 스토리지 요구사항을 보여줍니다.
노드 | 요구사항 | 목적 |
---|---|---|
관리자 클러스터 컨트롤 플레인 |
|
관리자 클러스터의 컨트롤 플레인을 실행합니다. |
* Google Distributed Cloud는 CPU 마이크로아키텍처 수준 v3(x86-64-v3) 이상에서 x86-64 vCPU만 지원합니다.
사용자 클러스터의 CPU, RAM, 스토리지 요구사항
사용자 클러스터를 만들기 전에 사용자 클러스터 구성 파일을 작성합니다. 구성 파일에서 vSphere 클러스터, vSphere 리소스 풀, vSphere datastore를 지정합니다.
vSphere 클러스터는 ESXi를 실행하는 물리적 호스트 집합이고 리소스 풀에는 이러한 ESXi 호스트에서 제공되는 리소스 부분에 대한 예약이 포함되어 있습니다.
리소스 풀은 사용자 클러스터 및 풀에 속하는 다른 VM의 요구사항을 지원하기에 충분한 CPU 및 RAM을 포함해야 합니다. 마찬가지로 Datastore는 사용자 클러스터 및 Datastore를 사용하는 다른 VM의 요구사항을 지원하기에 충분한 스토리지를 포함해야 합니다.
사용자 클러스터에는 다음과 같은 스토리지 요구사항이 있습니다.
각 컨트롤 플레인 노드에 대해 60GiB
각 워커 노드에 대해 40GiB
네트워크 중단 시 로그 및 측정항목을 버퍼링하기 위한 Google Cloud Observability용 240GiB
Prometheus가 사용 설정된 경우 Prometheus가 측정항목 데이터를 저장하기 위한 506GiB
다음 표에서는 사용자 클러스터의 각 컨트롤 플레인 노드에 필요한 CPU, RAM, 스토리지를 보여줍니다. 또한 사용자 클러스터의 각 워커 노드에 대한 기본 CPU, RAM, 스토리지 값을 제공합니다. 워크로드의 요구사항에 따라 워커 노드의 값을 조정할 수 있습니다. 워크로드의 노드에서 사용할 수 있는 CPU 개수 및 RAM 크기를 결정하려면 워크로드에 사용할 수 있는 리소스를 참조하세요.
사용자 클러스터 구성 파일의 nodePools
섹션에서 CPU 및 RAM 값을 지정할 수 있습니다.
노드 | 요구사항 | 목적 |
---|---|---|
컨트롤 플레인 노드 |
VM 하나 또는 세 개. 각 VM의 요구사항은 다음과 같습니다.
|
사용자 클러스터의 컨트롤 플레인을 실행합니다. |
워커 노드 | 다음은 개별 워커 노드의 기본값입니다.
|
사용자 클러스터 워커 노드는 워크로드가 실행되는 가상 머신입니다. 사용자 클러스터 노드에 필요한 리소스는 실행하려는 워크로드에 따라 다릅니다. |
* Google Distributed Cloud는 CPU 마이크로아키텍처 수준 v3(x86-64-v3) 이상에서 x86-64 vCPU만 지원합니다.
CPU, RAM, 스토리지 요구사항의 예시
vSphere 데이터 센터가 2개 있다고 가정합니다.
데이터 센터 1에는 클러스터 1이라는 vSphere 클러스터가 있고 클러스터 1에는 리소스 풀 1이라는 리소스 풀이 있습니다. 클러스터 1에는 ESXi를 실행하는 물리적 호스트가 4개 있습니다.
데이터 센터 2에는 클러스터 2라는 vSphere 클러스터가 있고 클러스터 2에는 리소스 풀 2라는 리소스 풀이 있습니다. 클러스터 2에는 ESXi를 실행하는 물리적 호스트가 8개 있습니다.
관리자 워크스테이션 및 관리자 클러스터를 리소스 풀 1에 배치하도록 결정하고 Datastore 1을 사용합니다.
사용자 클러스터가 리소스 풀 2에 배치되도록 결정하고 Datastore 2를 사용합니다. 사용자 클러스터에서는 Prometheus를 사용 설정하지 않습니다.
이러한 2개 사용자 클러스터를 만듭니다.
각 워커 노드에 vCPU 6개, RAM 16GiB, 스토리지 40GiB가 필요하다고 생각하는 경우의 사용자 클러스터입니다. 이 사용자 클러스터에는 20개의 워커 노드가 있게 됩니다. 이 사용자 클러스터에 대해 HA 컨트롤 플레인이 필요하므로 사용자 클러스터에 3개의 컨트롤 플레인 노드가 있게 됩니다.
각 워커 노드에 vCPU 4개, RAM 8GiB, 스토리지 40GiB가 필요하다고 생각하는 경우의 두 번째 사용자 클러스터입니다. 이 사용자 클러스터에는 8개의 워커 노드가 있게 됩니다. 이 사용자 클러스터에는 HA 컨트롤 플레인이 필요하지 않으므로 사용자 클러스터에 컨트롤 플레인 노드가 하나만 있게 됩니다.
리소스 풀 1 및 Datastore 1의 요구사항
리소스 풀 1에는 클러스터 1의 ESXi 호스트 4개로 제공되는 CPU 및 RAM의 일부가 예약되었습니다. 리소스 풀 1은 관리자 워크스테이션 및 관리자 클러스터의 요구사항을 충족하도록 CPU 및 RAM이 충분해야 합니다. 그리고 Datastore 1은 관리자 워크스테이션 및 관리자 클러스터의 요구사항을 충족하도록 스토리지가 충분해야 합니다.
관리자 클러스터에는 3개의 노드가 있으며 각 노드는 컨트롤 플레인 노드입니다.
관리자 워크스테이션에는 다음과 같이 세 가지 리소스 요구사항이 있습니다.
예시: 관리자 워크스테이션 요구사항 | ||
---|---|---|
vCPU | vCPU 4개 | |
RAM | 8GiB | |
스토리지 | 50GiB |
관리자 클러스터의 리소스 요구사항은 다음과 같습니다.
예시: 관리자 클러스터 요구사항 | ||
---|---|---|
vCPU | 관리자 클러스터 컨트롤 플레인 노드 3개 x vCPU 2개/노드 | vCPU 6개 |
RAM | 관리자 클러스터 컨트롤 플레인 노드 3개 x 4GiB/노드 | 12GiB |
스토리지 |
VM 템플릿용 40GiB + etcd 객체 데이터용 100GiB + Google Cloud Observability용 240GiB + 관리자 클러스터 컨트롤 플레인 노드 3개 x 40GiB/노드 |
500GiB |
다음 표에서는 관리자 워크스테이션 및 관리자 클러스터의 총 CPU, RAM, 스토리지 요구사항을 보여줍니다. 리소스 풀 1 및 Datastore 1에서 이러한 리소스를 제공할 수 있어야 합니다.
예시: 리소스 풀 1 및 Datastore 1의 총 요구사항 | ||
---|---|---|
vCPU | vCPU 29개 | |
RAM | 73GiB | |
스토리지 | 790GiB |
리소스 풀 2 및 Datastore 2의 요구사항
리소스 풀 2에는 클러스터 2의 ESXi 호스트 8개로 제공되는 CPU 및 RAM의 일부가 예약되었습니다. 리소스 풀 2에는 두 사용자 클러스터 모두의 요구사항을 충족하도록 CPU 및 RAM이 충분해야 합니다. 그리고 Datastore 2에는 두 사용자 클러스터 모두의 요구사항을 충족하도록 충분한 스토리지가 있어야 합니다.
첫 번째 사용자 클러스터의 리소스 요구사항은 다음과 같습니다.
예시: 첫 번째 사용자 클러스터 요구사항 | ||
---|---|---|
CPU | 컨트롤 플레인 노드 3개 x vCPU 3개/노드 + 워커 노드 20개 x vCPU 6개/노드 |
vCPU 129개 |
RAM | 컨트롤 플레인 노드 3개 x 5GiB/노드 + 워커 노드 20개 x 16GiB/노드 |
335GiB |
스토리지 |
Google Cloud Observability용 240GiB + 컨트롤 플레인 노드 3개 x 60GiB/노드 + 워커 노드 20개 x 40GiB/노드 |
1,220GiB |
두 번째 사용자 클러스터의 리소스 요구사항은 다음과 같습니다.
예시: 두 번째 사용자 클러스터 요구사항 | ||
---|---|---|
CPU | 컨트롤 플레인 노드 1개 x vCPU 3개/노드 + 워커 노드 8개 x vCPU 4개/노드 |
35vCPUs |
RAM | 컨트롤 플레인 노드 1개 x 5GiB/노드 + 워커 노드 8개 x 8GiB/노드 |
69GiB |
스토리지 |
Google Cloud Observability용 240GiB + 컨트롤 플레인 노드 1개 x 60GiB/노드 + 워커 노드 8개 x 40GiB/노드 |
620GiB |
다음 표에서는 사용자 클러스터 2개의 총 CPU, RAM, 스토리지 요구사항을 보여줍니다. 리소스 풀 2 및 Datastore 2에서 이러한 리소스를 제공할 수 있어야 합니다.
예시: 리소스 풀 2 및 Datastore 2의 총 요구사항 | |
---|---|
CPU | vCPU 164개 |
RAM | 404GiB |
스토리지 | 1,840GiB |
리소스 오버커밋
vSphere는 메모리 오버커밋 및 CPU 오버커밋과 같은 리소스 오버커밋을 지원합니다. 따라서 클러스터의 리소스 풀에서 예약되는 총 리소스가 클러스터의 ESXi 호스트에서 제공되는 물리적 리소스보다 클 수 있습니다.
이 문서에 표시된 요구사항은 예약된 가상 리소스의 요구사항입니다. 개념 증명 데모에 필요한 물리적 리소스에 대한 설명은 최소 인프라 설정을 참조하세요.
리소스 경합 모니터링
리소스 풀 및 Datastore가 구성된 가상 리소스를 지원할 수 있도록 리소스 경합 신호를 모니터링해야 합니다. 자세한 내용은 VM 상태 대시보드 만들기를 참조하세요.
디스크 프로비저닝
다음 표에서는 여러 스토리지 디스크의 VMware 씬 및 씩 디스크 프로비저닝 정책을 보여줍니다.
스토리지 디스크 | 크기 | 디스크 프로비저닝 정책 | |
---|---|---|---|
기본값 | 사용자 선택 | ||
관리자 etcd | 100GB | 가늘게 | 아니요 |
사용자 etcd | 40GB | 가늘게 | 아니요 |
노드 OS/부팅 디스크 | 40GB - 기본값 및 최소 (사용자 구성 가능) |
씩 (느리게 비워짐) |
아니요 |
기타(예: 로그) | 240GB | 가늘게 | 아니요 |
사용자 워크로드 | — | 가늘게 | 예 |