이 페이지에서는 동적 워크로드 스케줄러 및 ProvisioningRequest를 사용하여 GPU가 포함된 대규모 일괄 워크로드의 GPU 가용성을 최적화하는 방법을 보여줍니다.
정의된 GPU 용량 관리 조건으로 오프 피크타임에 실행할 수 있는 대규모 일괄 워크로드에 동적 워크로드 스케줄러를 사용하는 것이 좋습니다. 이러한 워크로드는 딥 러닝 모델 학습이거나 원자적 프로비저닝 모델이 포함된 대량의 GPU가 필요한 시뮬레이션일 수 있습니다. 즉, 모든 리소스가 동시에 생성됩니다.
동적 워크로드 스케줄러 없이 Google Kubernetes Engine(GKE)에서 GPU 워크로드를 실행하려면 GKE Standard 노드 풀에서 GPU 실행을 참조하세요.
동적 워크로드 스케줄러를 사용해야 하는 경우
워크로드가 다음 조건을 모두 충족하는 경우 동적 워크로드 스케줄러를 사용하는 것이 좋습니다.
- 워크로드 실행을 위해 GPU를 요청합니다.
- 예약된 GPU 용량이 제한되거나 없고 GPU 리소스의 획득 가능성을 높이려는 경우
- 워크로드가 시간에 구애받지 않으며 사용 사례는 GKE에서 사용량이 가장 많은 시간 외에 GPU 리소스를 할당하는 경우와 같이 요청된 모든 용량을 얻을 때까지 대기할 수 있습니다.
- 워크로드에 여러 노드가 필요하며 모든 GPU 노드가 프로비저닝되고 동시에 준비될 때까지 실행을 시작할 수 없습니다(예: 분산형 머신러닝 학습).
시작하기 전에
시작하기 전에 다음 태스크를 수행했는지 확인합니다.
- Google Kubernetes Engine API를 사용 설정합니다. Google Kubernetes Engine API 사용 설정
- 이 태스크에 Google Cloud CLI를 사용하려면 gcloud CLI를 설치한 후 초기화합니다. 이전에 gcloud CLI를 설치한 경우
gcloud components update
를 실행하여 최신 버전을 가져옵니다.
- 다음 중 하나가 있어야 합니다.
- 버전 1.28.3-gke.1098000 이상의 기존 Standard 클러스터
- 또는 버전 1.30.3-gke.1451000 이상의 기존 Autopilot 클러스터
- 워크로드 중단을 방지하려면 동적 워크로드 스케줄러를 사용하여 워크로드가 있는 노드 풀에 대한 중단 설정을 구성해야 합니다. 동적 워크로드 스케줄러를 사용할 때는 노드 자동 업그레이드를 영구적으로 사용 중지하는 것이 좋습니다.
- 동적 워크로드 스케줄러의 제한사항을 숙지합니다.
- 클러스터가 올바르게 작동하려면 동적 워크로드 스케줄러를 사용 설정하지 않은 상태에서 노드 풀을 최소 하나 이상 유지해야 합니다.
동적 워크로드 스케줄러에서 노드 풀 사용
다음 세 가지 방법 중 하나를 사용하여 동적 워크로드 스케줄러가 클러스터의 특정 노드 풀에서 작동하도록 지정할 수 있습니다.
노드 풀 만들기
gcloud CLI를 사용하여 동적 워크로드 스케줄러가 사용 설정된 노드 풀을 만듭니다.
gcloud beta container node-pools create NODEPOOL_NAME \
--cluster=CLUSTER_NAME \
--location=LOCATION \
--enable-queued-provisioning \
--accelerator type=GPU_TYPE,count=AMOUNT,gpu-driver-version=DRIVER_VERSION \
--machine-type=MACHINE_TYPE \
--enable-autoscaling \
--num-nodes=0 \
--total-max-nodes TOTAL_MAX_NODES \
--location-policy=ANY \
--reservation-affinity=none \
--no-enable-autorepair
다음을 바꿉니다.
NODEPOOL_NAME
: 선택한 노드 풀의 이름CLUSTER_NAME
: 클러스터의 이름LOCATION
: 클러스터의 Compute Engine 리전입니다(예:us-central1
).GPU_TYPE
: GPU 유형입니다.AMOUNT
: 노드 풀의 노드에 연결할 GPU 수입니다.DRIVER_VERSION
: 설치할 NVIDIA 드라이버 버전입니다. 다음 중 하나일 수 있습니다.default
: GKE 버전의 기본 드라이버 버전을 설치합니다.latest
: GKE 버전에 사용 가능한 최신 드라이버 버전을 설치합니다. Container-Optimized OS를 사용하는 노드에서만 사용할 수 있습니다.
TOTAL_MAX_NODES
: 전체 노드 풀에 대해 자동으로 확장되는 최대 노드 수입니다.MACHINE_TYPE
: 노드의 Compute Engine 머신 유형입니다. Accelerator 최적화 머신 유형을 선택하는 것이 좋습니다.
선택적으로 다음 플래그를 사용할 수 있습니다.
--no-enable-autoupgrade
: 권장. 노드 자동 업그레이드를 사용 중지합니다. 출시 채널에 등록되지 않은 GKE 클러스터에서만 지원됩니다. 자세한 내용은 기존 노드 풀의 노드 자동 업그레이드 사용 중지를 참조하세요.--node-locations=COMPUTE_ZONES
: GKE가 GPU 노드를 만드는 하나 이상의 영역을 쉼표로 구분한 목록입니다. 영역은 클러스터와 동일한 리전에 있어야 합니다. 사용 가능한 GPU가 있는 영역을 선택합니다.--enable-gvnic
: 이 플래그는 GPU 노드 풀에서 gVNIC를 사용 설정하여 네트워크 트래픽 속도를 높입니다.
이 명령어는 다음 구성을 사용하여 노드 풀을 만듭니다.
- GKE를 사용하면 큐에 추가된 프로비저닝 및 클러스터 자동 확장을 사용 설정할 수 있습니다.
- 노드 풀에는 처음에 노드가 0개 있습니다.
--enable-queued-provisioning
플래그는 동적 워크로드 스케줄러를 사용 설정하고 노드 풀에cloud.google.com/gke-queued
taint를 추가합니다.--no-enable-autorepair
및--no-enable-autoupgrade
플래그는 노드의 자동 복구 및 업그레이드를 사용 중지하므로 복구되거나 업그레이드된 노드에서 실행되는 워크로드가 중단될 수 있습니다. 출시 채널에 등록되지 않은 클러스터에서만 노드 자동 업그레이드를 사용 중지할 수 있습니다.
기존 노드 풀 업데이트 및 동적 워크로드 스케줄러 사용 설정
기존 노드 풀에 동적 워크로드 스케줄러를 사용 설정합니다. 노드 풀을 올바르게 구성하기 위해 기본 요건을 검토합니다.
기본 요건
--reservation-affinity=none
플래그로 노드 풀을 만들어야 합니다. 노드 풀 생성 후에는 예약 어피니티를 변경할 수 없으므로 이 플래그는 나중에 동적 워크로드 스케줄러를 사용 설정할 때 필요합니다.클러스터가 올바르게 작동하려면 동적 워크로드 스케줄러 처리를 사용 설정하지 않은 상태에서 노드 풀을 최소 하나 이상 유지해야 합니다.
노드 풀이 비어 있는지 확인합니다. 노드가 0이 되도록 노드 풀의 크기를 조절할 수 있습니다.
자동 확장이 사용 설정되어 있고 올바르게 구성되어 있는지 확인합니다.
자동 복구가 사용 중지되어 있는지 확인합니다.
기존 노드 풀에 동적 워크로드 스케줄러 사용 설정
gcloud CLI를 사용하여 기존 노드 풀에 동적 워크로드 스케줄러를 사용 설정할 수 있습니다.
gcloud beta container node-pools update NODEPOOL_NAME \
--cluster=CLUSTER_NAME \
--location=LOCATION \
--enable-queued-provisioning
다음을 바꿉니다.
NODEPOOL_NAME
: 선택한 노드 풀의 이름CLUSTER_NAME
: 클러스터의 이름LOCATION
: 클러스터의 Compute Engine 리전(예:us-central1
)
이 노드 풀 업데이트 명령어는 다음과 같은 구성 변경사항을 적용합니다.
--enable-queued-provisioning
플래그는 동적 워크로드 스케줄러를 사용 설정하고 노드 풀에cloud.google.com/gke-queued
taint를 추가합니다.
필요한 경우 다음 노드 풀 설정을 업데이트할 수도 있습니다.
- 노드 자동 업그레이드 사용 중지: 동적 워크로드 스케줄러를 사용하는 경우 노드 풀 업그레이드가 지원되지 않으므로 노드 자동 업그레이드를 사용 중지하는 것이 좋습니다. 노드 자동 업그레이드를 사용 중지하려면 GKE 클러스터가 출시 채널에 등록되지 않았는지 확인합니다.
- GPU 노드 풀에서 gVNIC 사용 설정: Google Virtual NIC(gVNIC)는 GPU 노드의 네트워크 트래픽 속도를 높입니다.
동적 워크로드 스케줄러의 노드 풀을 만들기 위해 노드 자동 프로비저닝 사용 설정
노드 자동 프로비저닝을 사용하여 버전 1.29.2-gke.1553000 이상이 실행되는 클러스터에 대해 동적 워크로드 스케줄러의 노드 풀을 관리할 수 있습니다. 노드 자동 프로비저닝을 사용 설정하고 동적 워크로드 스케줄러를 사용 설정하면 GKE가 연결된 워크로드에 필요한 리소스로 노드 풀을 만듭니다.
노드 자동 프로비저닝을 사용 설정하려면 다음 설정을 고려하고 GPU 한도 구성의 단계를 완료합니다.
- 이 기능을 사용 설정할 때 동적 워크로드 스케줄러에 필요한 리소스를 지정합니다. 사용 가능한
resourceTypes
를 나열하려면gcloud compute accelerator-types list
를 실행합니다. --no-enable-autoprovisioning-autoupgrade
및--no-enable-autoprovisioning-autorepair
플래그를 사용해서 노드 자동 업그레이드 및 노드 자동 복구를 사용 중지하는 것이 좋습니다. 자세한 내용은 동적 워크로드 스케줄러를 사용하여 워크로드가 있는 노드 풀에 대한 중단 설정 구성을 참조하세요.- GKE가 자동 프로비저닝된 GPU 노드에 GPU 드라이버를 자동으로 설치하도록 하는 것이 좋습니다. 자세한 내용은 GPU에서 노드 자동 프로비저닝을 사용하여 드라이버 설치를 참고하세요.
동적 워크로드 스케줄러를 사용하여 일괄 워크로드 실행
동적 워크로드 스케줄러를 사용하려면 Kueue를 사용하는 것이 좋습니다. Kueue는 작업을 큐에 추가하여 여러 팀 간에 리소스가 공정하게 공유되도록 할당량과 계층 구조에 따라 작업의 대기 시기 및 시작 시기를 결정합니다. 따라서 큐에 추가된 VM을 사용하는 데 필요한 설정이 간소화됩니다.
자체 내부 일괄 예약 도구 또는 플랫폼을 사용할 때는 Kueue 없는 동적 워크로드 스케줄러를 사용할 수 있습니다. Kueue 없는 작업에 대해 동적 워크로드 스케줄러를 구성하려면 Kueue 없는 작업에 대한 동적 워크로드 스케줄러를 참조하세요.
Kueue 있는 작업에 대한 동적 워크로드 스케줄러
다음 섹션에서는 Kueue 있는 작업에 대한 동적 워크로드 스케줄러를 구성하는 방법을 보여줍니다. 다음과 같은 일반적인 노드 풀 설정을 구성할 수 있습니다.
- 동적 워크로드 스케줄러 노드 풀 설정
- 예약 및 동적 워크로드 스케줄러 노드 풀 설정
이 섹션에서는 ai-on-gke
저장소의 dws-examples
디렉터리에 있는 샘플을 사용합니다. Google은 Apache2 라이선스에 따라 dws-examples
디렉터리에 샘플을 게시했습니다.
개발 환경 준비
Cloud Shell에서 다음 명령어를 실행합니다.
git clone https://github.com/GoogleCloudPlatform/ai-on-gke cd ai-on-gke/tutorials-and-examples/workflow-orchestration/dws-examples
클러스터에 최신 Kueue 버전을 설치합니다.
VERSION=v0.7.0 kubectl apply --server-side -f https://github.com/kubernetes-sigs/kueue/releases/download/$VERSION/manifests.yaml
Kueue 설치에 대한 자세한 내용은 설치를 참조하세요.
동적 워크로드 스케줄러 노드 풀 전용 설정의 Kueue 리소스 만들기
다음 매니페스트를 사용하여 dws-cluster-queue
라는 클러스터 수준 큐와 dws-local-queue
라는 LocalQueue 네임스페이스를 만듭니다. 이 네임스페이스에서 dws-cluster-queue
큐를 참조하는 작업은 동적 워크로드 스케줄러를 사용하여 GPU 리소스를 가져옵니다.
LocalQueue를 배포합니다.
kubectl create -f ./dws-queues.yaml
출력은 다음과 비슷합니다.
resourceflavor.kueue.x-k8s.io/default-flavor created
admissioncheck.kueue.x-k8s.io/dws-prov created
provisioningrequestconfig.kueue.x-k8s.io/dws-config created
clusterqueue.kueue.x-k8s.io/dws-cluster-queue created
localqueue.kueue.x-k8s.io/dws-local-queue created
다른 네임스페이스에서 동적 워크로드 스케줄러를 사용하는 작업을 실행하려면 위의 템플릿을 사용하여 추가 LocalQueues
를 만들 수 있습니다.
작업 실행
다음 매니페스트에서 샘플 작업은 동적 워크로드 스케줄러를 사용합니다.
이 매니페스트에는 동적 워크로드 스케줄러 구성과 관련된 다음 필드가 포함됩니다.
kueue.x-k8s.io/queue-name: dws-local-queue
라벨은 Kueue가 해당 작업을 조정할 책임이 있다는 것을 GKE에 알려줍니다. 이 라벨은 작업이 대기 중인 큐도 정의합니다.suspend: true
플래그는 GKE에 작업 리소스를 만들지만 포드를 아직 예약하지 않도록 지시합니다. 노드가 작업을 실행할 준비가 되면 Kueue는 해당 플래그를false
로 변경합니다.nodeSelector
는 지정된 노드 풀에서만 작업을 예약하도록 GKE에 지시합니다. 이 값은 큐에 추가된 프로비저닝이 사용 설정된 노드 풀의 이름인NODEPOOL_NAME
과 일치해야 합니다.
작업을 실행합니다.
kubectl create -f ./job.yaml
출력은 다음과 비슷합니다.
job.batch/sample-job created
작업 상태를 확인합니다.
kubectl describe job sample-job
출력은 다음과 비슷합니다.
Events: Type Reason Age From Message ---- ------ ---- ---- ------- Normal Suspended 5m17s job-controller Job suspended Normal CreatedWorkload 5m17s batch/job-kueue-controller Created Workload: default/job-sample-job-7f173 Normal Started 3m27s batch/job-kueue-controller Admitted by clusterQueue dws-cluster-queue Normal SuccessfulCreate 3m27s job-controller Created pod: sample-job-9qsfd Normal Resumed 3m27s job-controller Job resumed Normal Completed 12s job-controller Job completed
또한 Kueue가 통합된 동적 워크로드 스케줄러는 다음과 같이 오픈소스 생태계에서 사용할 수 있는 다른 워크로드 유형도 지원합니다.
- RayJob
- JobSet v0.5.2 이상
- Kubeflow MPIJob, TFJob, PyTorchJob.
- 워크플로 조정자가 자주 사용하는 Kubernetes 포드
- Flux 미니 클러스터
이 지원에 대한 자세한 내용은 Kueue의 일괄 사용자를 참조하세요.
예약 및 동적 워크로드 스케줄러 노드 풀 설정을 위한 Kueue 리소스 만들기
다음 매니페스트를 사용하여 두 개의 서로 다른 노드 풀(reservation-nodepool
및 dws-nodepool
)에 연결된 두 개의 ResourceFlavors
를 만들 수 있습니다. 이러한 노드 풀의 이름은 예시적인 이름일 뿐입니다. 노드 풀 구성에 따라 이러한 이름을 수정합니다.
또한 ClusterQueue
구성을 사용하면 수신되는 작업이 reservation-nodepool
을 사용하려고 시도하고, 용량이 없으면 이러한 작업에서 동적 워크로드 스케줄러를 사용하여 GPU 리소스를 가져옵니다.
다음 명령어를 사용하여 매니페스트를 배포합니다.
kubectl create -f ./dws_and_reservation.yaml
출력은 다음과 비슷합니다.
resourceflavor.kueue.x-k8s.io/reservation created
resourceflavor.kueue.x-k8s.io/dws created
clusterqueue.kueue.x-k8s.io/cluster-queue created
localqueue.kueue.x-k8s.io/user-queue created
admissioncheck.kueue.x-k8s.io/dws-prov created
provisioningrequestconfig.kueue.x-k8s.io/dws-config created
작업 실행
이전 설정과 달리 이 매니페스트에는 nodeSelector
필드가 포함되지 않습니다. ClusterQueue
의 여유 용량에 따라 Kueue에서 채우기 때문입니다.
작업을 실행합니다.
kubectl create -f ./job-without-node-selector.yaml
출력은 다음과 비슷합니다.
job.batch/sample-job-v8xwm created
작업에서 사용하는 노드 풀을 찾으려면 작업에서 사용하는 ResourceFlavor를 알아야 합니다.
문제 해결
Kueue 문제 해결에 대한 자세한 내용은 Kueue에서 프로비저닝 요청 문제 해결을 참고하세요.
Kueue 없는 작업의 동적 워크로드 스케줄러
각 작업에 대한 ProvisioningRequest API를 통해 요청을 만듭니다. 동적 워크로드 스케줄러는 포드를 시작하지 않고, 노드만 프로비저닝합니다.
다음
provisioning-request.yaml
매니페스트를 만듭니다.apiVersion: v1 kind: PodTemplate metadata: name: POD_TEMPLATE_NAME namespace: NAMESPACE_NAME labels: cloud.google.com/apply-warden-policies: "true" template: spec: nodeSelector: cloud.google.com/gke-nodepool: NODEPOOL_NAME tolerations: - key: "nvidia.com/gpu" operator: "Exists" effect: "NoSchedule" containers: - name: pi image: perl command: ["/bin/sh"] resources: limits: cpu: "700m" nvidia.com/gpu: 1 requests: cpu: "700m" nvidia.com/gpu: 1 restartPolicy: Never --- apiVersion: autoscaling.x-k8s.io/v1beta1 kind: ProvisioningRequest metadata: name: PROVISIONING_REQUEST_NAME namespace: NAMESPACE_NAME spec: provisioningClassName: queued-provisioning.gke.io parameters: maxRunDurationSeconds: "MAX_RUN_DURATION_SECONDS" podSets: - count: COUNT podTemplateRef: name: POD_TEMPLATE_NAME
다음을 바꿉니다.
NAMESPACE_NAME
: Kubernetes 네임스페이스 이름. 네임스페이스는 포드 네임스페이스와 동일해야 합니다.PROVISIONING_REQUEST_NAME
:ProvisioningRequest
이름. 포드 주석에서 이 이름을 참조합니다.MAX_RUN_DURATION_SECONDS
: 선택사항으로 노드의 최대 런타임(초 단위). 기본값은 7일까지입니다. 자세한 내용은 동적 워크로드 스케줄러의 작동 방식을 참조하세요. 요청을 만든 후에는 이 값을 변경할 수 없습니다. 이 필드는 GKE 버전 1.28.5-gke.1355000 이상의 미리보기에서 사용할 수 있습니다.COUNT
: 요청된 포드 수. 노드는 하나의 영역에 원자적으로 예약됩니다.POD_TEMPLATE_NAME
: Kubernetes의 표준 이름. 프로비저닝 요청 PodSet에서 이 값에 대한 GKE 참조입니다.NODEPOOL_NAME
: 선택한 노드 풀의 이름
매니페스트를 적용합니다.
kubectl apply -f provisioning-request.yaml
포드 구성
작업 사양에서 다음 주석을 사용하여 포드를 ProvisioningRequest
에 연결합니다.
apiVersion: batch/v1
kind: Job
spec:
template:
metadata:
annotations:
cluster-autoscaler.kubernetes.io/consume-provisioning-request: PROVISIONING_REQUEST_NAME
cluster-autoscaler.kubernetes.io/provisioning-class-name: "queued-provisioning.gke.io"
spec:
...
포드 주석 키 cluster-autoscaler.kubernetes.io/consume-provisioning-request
는 사용할 ProvisioningRequest
를 정의합니다. GKE는 consume-provisioning-request
및 provisioning-class-name
주석을 사용하여 다음을 수행합니다.
- 동적 워크로드 스케줄러로 프로비저닝된 노드에서만 포드를 예약합니다.
- 클러스터 자동 확장 처리에서 포드와 동적 워크로드 스케줄러 간의 리소스 요청 중복을 방지합니다.
safe-to-evict: false
주석을 삽입하여 클러스터 자동 확장 처리가 노드 간에 포드를 이동하고 일괄 계산을 중단하지 않도록 합니다. 포드 주석에서safe-to-evict: true
를 지정하여 이 동작을 변경할 수 있습니다.
동적 워크로드 스케줄러 상태 관찰
동적 워크로드 스케줄러의 상태는 포드를 예약할 수 있는지 여부를 정의합니다. Kubernetes 감시를 사용하여 변경사항을 효율적으로 관찰하거나 Kubernetes 객체의 상태 추적에 이미 사용하는 다른 도구를 사용할 수 있습니다. 다음 표에서는 동적 워크로드 스케줄러의 가능한 상태와 가능한 각 결과를 설명합니다.
동적 워크로드 스케줄러 상태 | 설명 | 가능한 결과 |
---|---|---|
대기 중 | 요청이 아직 확인 및 처리되지 않았습니다. | 처리 후 요청이 Accepted 또는 Failed 상태로 전환됩니다. |
Accepted=true |
요청이 수락되어 리소스를 사용할 수 있을 때까지 기다리는 중입니다. | 리소스가 발견되었고 노드가 프로비저닝된 경우 요청이 Provisioned 상태로 전환되고, 불가능한 경우 Failed 상태로 전환됩니다. |
Provisioned=true |
노드가 준비되었습니다. | 10분 안에 포드를 시작하여 프로비저닝된 리소스를 소비해야 합니다. 이 시간이 지나면 클러스터 자동 확장 처리에서 노드를 필요하지 않은 것으로 간주하여 삭제합니다. |
Failed=true |
오류로 인해 노드를 프로비저닝할 수 없습니다. Failed=true 는 종결 상태입니다. |
조건의 Reason 및 Message 필드에 있는 정보를 기준으로 조건 문제를 해결합니다.
새 동적 워크로드 스케줄러 요청을 만들고 다시 시도합니다. |
Provisioned=false |
노드가 아직 프로비저닝되지 않았습니다. |
|
포드 시작
동적 워크로드 스케줄러 요청이 Provisioned=true
상태에 도달하면 작업을 실행하여 포드를 시작할 수 있습니다. 이렇게 하면 kube-scheduler 및 클러스터 자동 확장 처리 성능에 영향을 줄 수 있는 대기 또는 실패한 요청에 예약할 수 없는 포드가 확산되는 것을 방지할 수 있습니다.
또는 예약할 수 없는 포드가 있어도 무방하다면 동적 워크로드 스케줄러와 동시에 포드를 만들 수 있습니다.
동적 워크로드 스케줄러 요청 취소
요청이 프로비저닝되기 전에 취소하려면 ProvisioningRequest
를 삭제하면 됩니다.
kubectl delete provreq PROVISIONING_REQUEST_NAME -n NAMESPACE
대부분의 경우 ProvisioningRequest
를 삭제하면 노드 생성이 중지됩니다.
하지만 상황에 따라(예: 노드가 이미 프로비저닝된 경우) 노드가 계속 생성될 수 있습니다. 이러한 경우 포드가 생성되지 않으면 클러스터 자동 확장 처리는 10분 후에 노드를 삭제합니다.
동적 워크로드 스케줄러의 작동 방식
ProvisioningRequest API
를 사용하여 동적 워크로드 스케줄러는 다음을 수행합니다.
- 모든 필수 노드를 한 번에 사용할 준비가 될 때까지 워크로드가 확정되지 않은 시간 동안 기다릴 수 있다고 GKE에 알려줍니다.
- 클러스터 자동 확장 처리는 요청을 수락하고 필요한 노드 수를 계산하여 단일 단위로 처리합니다.
- 이 요청은 필요한 모든 리소스를 단일 영역에서 사용할 수 있을 때까지 기다립니다. 1.29.1-gke.1708000 이상 버전을 실행하는 클러스터의 경우 대기 시간을 줄이기 위해 사용 가능한 용량에 관한 정보를 사용하여 이 영역이 선택됩니다. 이전 버전을 실행하는 클러스터의 경우 이 정보 없이 영역이 선택되었으므로 대기 시간이 훨씬 더 긴 영역에서 큐가 발생할 수 있습니다.
- 클러스터 자동 확장 처리는 사용 가능한 경우 필요한 노드를 한 번에 프로비저닝합니다.
- 워크로드의 모든 포드는 새로 프로비저닝된 노드에서 함께 실행될 수 있습니다.
maxRunDurationSeconds
매개변수를 설정하여 워크로드를 실행하는 데 더 적은 시간이 필요함을 나타내는 경우 프로비저닝된 노드는 런타임이 7일 이내로 제한됩니다. 자세한 내용은 VM 런타임 제한(미리보기)을 참조하세요. 이 기능은 GKE 버전 1.28.5-gke.1355000 이상에서 사용할 수 있습니다. 그 이후에는 노드와 노드에서 실행되는 포드가 선점됩니다. 포드가 더 빨리 완료되고 노드가 사용되지 않으면 클러스터 자동 확장 처리는 자동 확장 프로필에 따라 노드를 삭제합니다.- 노드는 동적 워크로드 스케줄러 간에 재사용되지 않습니다. 각
ProvisioningRequest
는 새로운 7일 런타임으로 새 노드 생성을 주문합니다.
할당량
동적 워크로드 스케줄러 요청으로 프로비저닝된 모든 VM은 선점형 할당량을 사용합니다.
Accepted
상태에 있는 ProvisioningRequests
수는 전용 할당량으로 제한됩니다. 프로젝트별로 할당량을 구성하며 리전별로 하나의 할당량 구성을 사용합니다.
Google Cloud 콘솔에서 할당량 확인
Google Cloud 콘솔에서 할당량 한도의 이름 및 현재 사용량을 확인하려면 다음 단계를 수행합니다.
Google Cloud 콘솔의 할당량 페이지로 이동합니다.
필터 상자에서 측정항목 속성을 선택하고active_resize_requests
를 입력한 다음 Enter 키를 누릅니다.
기본값은 100입니다. 할당량을 늘리려면 할당량 한도 상향 요청 가이드에 나열된 단계를 따르세요.
동적 워크로드 스케줄러가 할당량으로 제한되는지 확인
동적 워크로드 스케줄러 요청이 처리되는 데 예상보다 오래 걸리는 경우 요청이 할당량으로 제한되지 않는지 확인합니다. 할당량을 추가로 요청해야 할 수 있습니다.
버전 1.29.2-gke.1181000 이상을 실행하는 클러스터의 경우 특정 할당량 제한으로 인해 요청이 처리되지 않는지 확인합니다.
kubectl describe provreq PROVISIONING_REQUEST_NAME \
--namespace NAMESPACE
출력은 다음과 유사합니다.
…
Last Transition Time: 2024-01-03T13:56:08Z
Message: Quota 'NVIDIA_P4_GPUS' exceeded. Limit: 1.0 in region europe-west4.
Observed Generation: 1
Reason: QuotaExceeded
Status: False
Type: Provisioned
…
이 예시에서는 europe-west4
리전에 할당량이 충분하지 않으므로 GKE가 노드를 배포할 수 없습니다.
동적 워크로드 스케줄러를 사용하여 워크로드가 있는 노드 풀에 대한 중단 설정 구성
노드 풀에서 모든 노드 또는 대부분의 노드의 가용성이 필요한 워크로드는 제거에 민감합니다. ProvisioningRequest API
를 사용하여 프로비저닝된 노드의 자동 복구 또는 업그레이드는 지원되지 않으며, 이는 이러한 작업이 해당 노드에서 실행 중인 모든 워크로드를 삭제하고 워크로드를 예약할 수 없게 만들기 때문입니다.
동적 워크로드 스케줄러를 사용하여 워크로드 실행 중단을 최소화하려면 다음 조치를 취하는 것이 좋습니다.
- 클러스터의 출시 채널 등록에 따라 노드 자동 업그레이드로 인해 워크로드가 중단되지 않도록 다음 권장사항을 따르세요.
- 클러스터가 출시 채널에 등록되지 않았으면 노드 자동 업그레이드를 사용 중지합니다.
- 클러스터가 출시 채널에 등록된 경우 유지보수 기간 및 유지보수 제외를 사용하여 워크로드가 실행되는 동안 GKE가 노드를 자동으로 업그레이드하지 못하도록 합니다.
- 노드 자동 복구를 사용 중지합니다.
- 유지보수 기간 및 제외를 사용하여 실행 중인 워크로드의 중단을 최소화하고 GKE에서 자동 유지보수를 위해 노드 풀을 중단할 수 있는 기간을 확보합니다. 이러한 유지보수 도구를 사용하는 경우 GKE가 노드 풀을 중단할 수 있는 특정 기간을 설정해야 하므로 실행 중인 워크로드가 없을 때 이 기간을 설정하는 것이 좋습니다.
- 노드 풀을 최신 상태로 유지하려면 활성 동적 워크로드 스케줄러 요청이 없고 노드 풀이 비어 있는 경우 노드 풀을 수동으로 업그레이드하는 것이 좋습니다.
제한사항
- 포드 간 안티-어피니티는 지원되지 않습니다. 클러스터 자동 확장 처리는 노드 프로비저닝 중에 포드 간 안티어피니티 규칙을 고려하지 않으므로 워크로드를 예약하지 못할 수 있습니다. 이 문제는 2개 이상의 동적 워크로드 스케줄러 객체의 노드가 동일한 노드 풀에 프로비저닝된 경우에 발생할 수 있습니다.
- GPU 노드만 지원됩니다.
- 동적 워크로드 스케줄러에서는 예약이 지원되지 않습니다. 노드 풀을 만들 때
--reservation-affinity=none
을 지정해야 합니다. 동적 워크로드 스케줄러는 클러스터 자동 확장의ANY
위치 정책만 필요로 하고 지원합니다. - 단일 동적 워크로드 스케줄러 요청은 단일 노드 풀의 영역당 최대 노드 수인 VM을 최대 1000개까지 만들 수 있습니다.
- GKE는 Compute Engine
ACTIVE_RESIZE_REQUESTS
할당량을 사용하여 큐에서 대기 중인 동적 워크로드 스케줄러 요청 수를 제어합니다. 기본적으로 이 할당량은 Google Cloud 프로젝트 수준에서 100개로 제한됩니다. 이 할당량을 초과하는 동적 워크로드 스케줄러 요청을 만들려고 하면 새 요청이 실패합니다. - 동적 워크로드 스케줄러를 사용하는 노드 풀은 노드가 함께 프로비저닝되므로 중단에 민감합니다. 자세한 내용은 동적 워크로드 스케줄러를 사용하여 워크로드가 있는 노드 풀에 대한 중단 설정 구성을 참조하세요.
- Google Cloud 콘솔에 나열된 추가 단기 VM이 표시될 수 있습니다. 이 동작은 필요한 모든 머신을 프로비저닝할 수 있는 용량을 사용할 수 있을 때까지 Compute Engine이 VM을 만들고 즉시 삭제할 수 있기 때문입니다.
- 동적 워크로드 스케줄러 통합은 PodSet를 하나만 지원합니다. 여러 포드 템플릿을 혼합하려면 가장 많은 리소스를 요청한 템플릿을 사용합니다. 서로 다른 GPU 유형이 있는 VM과 같이 서로 다른 머신 유형을 혼합하는 것은 지원되지 않습니다.
다음 단계
- GKE의 GPU 자세히 알아보기
- Autopilot에서 GPU 워크로드 배포 방법 알아보기