Cloud Composer 1 | Cloud Composer 2 | Cloud Composer 3
이 페이지에서는 KubernetesPodOperator를 사용하여 Cloud Composer에서 Cloud Composer 환경의 일부인 Google Kubernetes Engine 클러스터로 Kubernetes 포드를 배포하는 방법을 설명합니다.
KubernetesPodOperator는 사용자 환경의 클러스터에서 Kubernetes 포드를 실행합니다. 이에 비해 Google Kubernetes Engine 연산자는 지정된 클러스터에서 Kubernetes 포드를 실행합니다. 이 클러스터는 환경과 관련이 없는 별도의 클러스터일 수 있습니다. Google Kubernetes Engine 연산자를 사용하여 클러스터를 만들고 삭제할 수도 있습니다.
KubernetesPodOperator는 다음이 필요한 경우에 적합한 옵션입니다.
- 공개 PyPI 저장소를 통해 사용할 수 없는 커스텀 Python 종속 항목
- 스톡 Cloud Composer 작업자 이미지에서 사용할 수 없는 바이너리 종속 항목
시작하기 전에
CNCF Kubernetes Provider 버전 5.0.0이 사용되는 경우 CNCF Kubernetes Provider 섹션에 설명된 안내를 따릅니다.
Cloud Composer 2에서는 포드 어피니티 구성을 사용할 수 없습니다. 포드 어피니티를 사용하려면 GKE 연산자를 사용하여 다른 클러스터에서 포드를 실행합니다.
Cloud Composer 2의 KubernetesPodOperator 정보
이 섹션에서는 Cloud Composer 2에서 KubernetesPodOperator가 작동하는 방식을 설명합니다.
리소스 사용량
Cloud Composer 2에서 환경 클러스터는 자동으로 확장됩니다. KubernetesPodOperator를 사용하여 실행하는 추가 워크로드는 사용자 환경과 독립적으로 확장됩니다.
사용자 환경이 증가한 리소스 수요의 영향을 받지 않지만 사용자 환경의 클러스터는 리소스 수요에 따라 확장 및 축소됩니다.
사용자 환경의 클러스터에서 실행되는 추가 워크로드의 가격 책정은 Cloud Composer2가격 책정 모델을 따르고 Cloud Composer Compute SKU를 사용합니다.
Cloud Composer 2는 컴퓨팅 클래스의 개념을 도입하는 Autopilot 클러스터를 사용합니다.
Cloud Composer는
general-purpose
컴퓨팅 클래스만 지원합니다.기본적으로 클래스를 선택하지 않으면 KubernetesPodOperator를 사용하여 포드를 만들 때
general-purpose
클래스로 간주됩니다.각 클래스는 특정 속성 및 리소스 한도와 연결됩니다. 자세한 내용은 Autopilot 문서를 참조하세요. 예를 들어
general-purpose
클래스 내에서 실행되는 포드는 최대 110GiB 메모리를 사용할 수 있습니다.
프로젝트 리소스에 대한 액세스 권한
Cloud Composer 2는 GKE용 워크로드 아이덴티티 제휴와 함께 GKE 클러스터를 사용합니다. composer-user-workloads
네임스페이스에서 실행되는 포드는 추가 구성 없이 프로젝트의 Google Cloud 리소스에 액세스할 수 있습니다. 사용자 환경의 서비스 계정은 이러한 리소스에 액세스하는 데 사용됩니다.
커스텀 네임스페이스를 사용하려면 이 네임스페이스와 연결된 Kubernetes 서비스 계정을 Google Cloud 서비스 계정에 매핑하여 Google API 및 기타 서비스에 대한 요청에 서비스 ID 승인을 사용 설정해야 합니다. 환경 클러스터의 커스텀 네임스페이스에서 포드를 실행하면 Kubernetes와 Google Cloud 서비스 계정 간에 IAM 바인딩이 생성되지 않으며 이러한 포드는 Google Cloud 프로젝트의 리소스에 액세스할 수 없습니다.
커스텀 네임스페이스를 사용하고 포드가 Google Cloud 리소스에 액세스하도록 하려면 GKE용 워크로드 아이덴티티 제휴의 안내를 따르고 맞춤 네임스페이스의 바인딩을 설정합니다.
- 환경 클러스터에 개별 네임스페이스를 만듭니다.
- 커스텀 네임스페이스 Kubernetes 서비스 계정과 사용자 환경의 서비스 계정 간의 바인딩을 만듭니다.
- 사용자 환경의 서비스 계정 주석을 Kubernetes 서비스 계정에 추가합니다.
- KubernetesPodOperator를 사용하는 경우
namespace
및service_account_name
매개변수에 네임스페이스와 Kubernetes 서비스 계정을 지정합니다.
최소 구성
KubernetesPodOperator를 만들려면 포드의 name
, 사용할 image
, task_id
매개변수만 필요합니다. /home/airflow/composer_kube_config
에는 GKE에 인증할 사용자 인증 정보가 포함되어 있습니다.
추가 구성
이 예시에서는 KubernetesPodOperator에서 구성할 수 있는 추가 매개변수를 보여줍니다.
매개변수에 관한 자세한 내용은 KubernetesPodOperator의 Airflow 참조를 확인하세요. Kubernetes 보안 비밀 및 ConfigMap 사용에 관한 자세한 내용은 Kubernetes 보안 비밀 및 ConfigMap 사용을 참조하세요. KubernetesPodOperator와 함께 Jinja 템플릿 사용에 관한 자세한 내용은 Jinja 템플릿 사용을 참조하세요.
Jinja 템플릿 사용
Airflow는 DAG에서 Jinja 템플릿을 지원합니다.
연산자와 함께 필수 Airflow 매개변수(task_id
, name
, image
)를 선언해야 합니다. 다음 예시와 같이 Jinja를 사용하여 다른 모든 매개변수(cmds
, arguments
, env_vars
, config_file
)를 템플릿으로 만들 수 있습니다.
예시의 env_vars
매개변수는 my_value
라는 Airflow 변수에서 설정됩니다. 예시 DAG는 Airflow의 vars
템플릿 변수에서 값을 가져옵니다. Airflow에는 다양한 유형의 정보에 액세스할 수 있는 더 많은 변수가 있습니다. 예를 들어 conf
템플릿 변수를 사용하여 Airflow 구성 옵션의 값에 액세스할 수 있습니다. 자세한 내용과 Airflow에서 사용할 수 있는 변수 목록은 Airflow 문서의 템플릿 참조를 확인하세요.
DAG를 변경하거나 env_vars
변수를 만들지 않으면 변수가 없으므로 예시의 ex-kube-templates
태스크가 실패합니다. Airflow UI 또는 Google Cloud CLI에서 이 변수를 만듭니다.
Airflow UI
Airflow UI로 이동합니다.
툴바에서 관리 > 변수를 선택합니다.
변수 나열 페이지에서 새 레코드 추가를 클릭합니다.
변수 추가 페이지에서 다음 정보를 입력합니다.
- 키:
my_value
- Val:
example_value
- 키:
저장을 클릭합니다.
gcloud
다음 명령어를 입력합니다.
gcloud composer environments run ENVIRONMENT \
--location LOCATION \
variables set -- \
my_value example_value
다음과 같이 바꿉니다.
ENVIRONMENT
을 환경 이름으로 바꿉니다.LOCATION
을 환경이 위치한 리전으로 바꿉니다.
다음 예시는 KubernetesPodOperator와 함께 Jinja 템플릿을 사용하는 방법을 보여줍니다.
Kubernetes 보안 비밀 및 ConfigMap 사용
Kubernetes 보안 비밀은 민감한 정보를 포함하는 객체입니다. Kubernetes ConfigMap은 키-값 쌍에 비기밀 데이터를 포함하는 객체입니다.
Cloud Composer 2에서는 Google Cloud CLI, API 또는 Terraform을 사용하여 보안 비밀 및 ConfigMap을 만든 다음 KubernetesPodOperator에서 액세스할 수 있습니다.
YAML 구성 파일 정보
Google Cloud CLI 및 API를 사용하여 Kubernetes 보안 비밀 또는 ConfigMap을 만들 때 YAML 형식의 파일을 제공합니다. 이 파일은 Kubernetes 보안 비밀 및 ConfigMap에서 사용하는 것과 동일한 형식을 따라야 합니다. Kubernetes 문서에서는 ConfigMap 및 보안 비밀의 여러 코드 샘플을 제공합니다. 시작하려면 보안 비밀을 사용하여 사용자 인증 정보를 안전하게 배포 페이지와 ConfigMaps을 참조하세요.
Kubernetes 보안 비밀과 동일하게 보안 비밀에서 값을 정의할 때는 base64 표현을 사용합니다.
값을 인코딩하려면 다음 명령어를 사용할 수 있습니다. 이는 base64로 인코딩된 값을 가져오는 여러 가지 방법 중 하나입니다.
echo "postgresql+psycopg2://root:example-password@127.0.0.1:3306/example-db" -n | base64
출력:
cG9zdGdyZXNxbCtwc3ljb3BnMjovL3Jvb3Q6ZXhhbXBsZS1wYXNzd29yZEAxMjcuMC4wLjE6MzMwNi9leGFtcGxlLWRiIC1uCg==
이 가이드 뒷부분의 샘플에는 다음 두 개의 YAML 파일 예시가 사용됩니다. Kubernetes 보안 비밀의 YAML 구성 파일 예시:
apiVersion: v1
kind: Secret
metadata:
name: airflow-secrets
data:
sql_alchemy_conn: cG9zdGdyZXNxbCtwc3ljb3BnMjovL3Jvb3Q6ZXhhbXBsZS1wYXNzd29yZEAxMjcuMC4wLjE6MzMwNi9leGFtcGxlLWRiIC1uCg==
파일을 포함하는 방법을 보여주는 또 다른 예시입니다. 이전 예시와 마찬가지로 먼저 파일(cat ./key.json | base64
)의 콘텐츠를 인코딩한 다음 YAML 파일에 이 값을 제공합니다.
apiVersion: v1
kind: Secret
metadata:
name: service-account
data:
service-account.json: |
ewogICJ0eXBl...mdzZXJ2aWNlYWNjb3VudC5jb20iCn0K
ConfigMap의 YAML 구성 파일 예시. ConfigMap에서는 base64 표현을 사용할 필요가 없습니다.
apiVersion: v1
kind: ConfigMap
metadata:
name: example-configmap
data:
example_key: example_value
Kubernetes 보안 비밀 관리
Cloud Composer 2에서는 Google Cloud CLI 및 kubectl
을 사용하여 보안 비밀을 만듭니다.
환경 클러스터에 대한 정보를 얻습니다.
다음 명령어를 실행합니다.
gcloud composer environments describe ENVIRONMENT \ --location LOCATION \ --format="value(config.gkeCluster)"
다음과 같이 바꿉니다.
ENVIRONMENT
를 환경 이름으로 바꿉니다.LOCATION
을 Cloud Composer 환경이 위치한 리전으로 바꿉니다.
이 명령어 출력에는
projects/<your-project-id>/locations/<location-of-composer-env>/clusters/<your-cluster-id>
형식이 사용됩니다.GKE 클러스터 ID를 가져오려면
/clusters/
다음의 출력을 복사합니다(-gke
로 끝남).
다음 명령어를 사용하여 GKE 클러스터에 연결합니다.
gcloud container clusters get-credentials CLUSTER_ID \ --project PROJECT \ --region LOCATION
다음을 바꿉니다.
CLUSTER_ID
: 환경의 클러스터 IDPROJECT_ID
: 프로젝트 IDLOCATION
: 환경이 위치한 리전
Kubernetes 보안 비밀 만들기:
다음 명령어는 Kubernetes 보안 비밀을 만드는 두 가지 다른 접근 방식을 보여줍니다.
--from-literal
방식은 키-값 쌍을 사용합니다.--from-file
방식은 파일 콘텐츠를 사용합니다.키-값 쌍을 제공하여 Kubernetes 보안 비밀을 만들려면 다음 명령어를 실행합니다. 이 예에서는
sql_alchemy_conn
필드에test_value
값이 있는airflow-secrets
라는 이름의 보안 비밀을 만듭니다.kubectl create secret generic airflow-secrets \ --from-literal sql_alchemy_conn=test_value -n composer-user-workloads
파일 콘텐츠를 제공하여 Kubernetes 보안 비밀을 만들려면 다음 명령어를 실행합니다. 이 예에서는 로컬
./key.json
파일의 콘텐츠에서 가져온 값이 있는service-account.json
필드가 있는service-account
라는 이름의 보안 비밀을 만듭니다.kubectl create secret generic service-account \ --from-file service-account.json=./key.json -n composer-user-workloads
DAG에서 Kubernetes 보안 비밀 사용
이 예시에서는 Kubernetes 보안 비밀을 환경 변수와 포드가 마운트한 볼륨으로 사용하는 두 가지 방법을 보여줍니다.
Airflow 또는 Cloud Composer 환경 변수와 반대로 첫 번째 보안 비밀 airflow-secrets
는 SQL_CONN
이라는 Kubernetes 환경 변수로 설정됩니다.
두 번째 보안 비밀 service-account
는 서비스 계정 토큰이 있는 파일인 service-account.json
을 /var/secrets/google
에 마운트합니다.
보안 비밀 객체는 다음과 같습니다.
첫 번째 Kubernetes 보안 비밀의 이름은 secret_env
변수에 정의됩니다.
이 보안 비밀의 이름은 airflow-secrets
입니다. deploy_type
매개변수에서는 이 보안 비밀이 환경 변수로 노출되어야 한다는 것을 지정합니다. 환경 변수의 이름은 deploy_target
매개변수에 지정된 대로 SQL_CONN
입니다. 마지막으로 SQL_CONN
환경 변수의 값이 sql_alchemy_conn
키의 값으로 설정됩니다.
두 번째 Kubernetes 보안 비밀의 이름은 secret_volume
변수에 정의됩니다. 이 보안 비밀의 이름은 service-account
입니다. 이 보안 비밀은 deploy_type
매개변수에 지정된 대로 볼륨으로 노출됩니다. 마운트할 파일 deploy_target
의 경로는 /var/secrets/google
입니다. 마지막으로 deploy_target
에 저장된 보안 비밀의 key
는 service-account.json
입니다.
연산자 구성은 다음과 같습니다.
CNCF Kubernetes Provider 정보
KubernetesPodOperator는 apache-airflow-providers-cncf-kubernetes
Provider에 구현됩니다.
CNCF Kubernetes Provider의 자세한 출시 노트는 CNCF Kubernetes Provider 웹사이트를 참조하세요.
버전 6.0.0
CNCF Kubernetes Provider 패키지 버전 6.0.0에서는 기본적으로 kubernetes_default
연결이 KubernetesPodOperator에서 사용됩니다.
버전 5.0.0에서 커스텀 연결을 지정한 경우 이 커스텀 연결이 연산자에서 계속 사용합니다. kubernetes_default
연결을 사용하도록 다시 전환하려면 이에 따라 DAG를 조정해야 할 수 있습니다.
버전 5.0.0
이 버전은 버전 4.4.0과 비교하여 이전 버전과 호환되지 않는 몇 가지 변경사항을 도입합니다. 가장 중요한 것은 버전 5.0.0에서 사용되지 않는 kubernetes_default
연결과 관련이 있습니다.
kubernetes_default
연결을 수정해야 합니다. 다음 그림과 같이 Kubernetes 구성 경로는/home/airflow/composer_kube_config
로 설정해야 합니다. 또는 다음 코드 예시와 같이config_file
을 KubernetesPodOperator 구성에 추가해야 합니다.
- 다음과 같은 방법으로 KubernetesPodOperator를 사용하여 태스크 코드를 수정합니다.
KubernetesPodOperator(
# config_file parameter - can be skipped if connection contains this setting
config_file="/home/airflow/composer_kube_config",
# definition of connection to be used by the operator
kubernetes_conn_id='kubernetes_default',
...
)
버전 5.0.0에 대한 자세한 내용은 CNCF Kubernetes Provider 출시 노트를 참조하세요.
문제 해결
이 섹션에서는 일반적인 KubernetesPodOperator 문제를 해결하기 위한 조언을 제공합니다.
로그 보기
문제를 해결할 때는 다음 순서로 로그를 확인할 수 있습니다.
Airflow 태스크 로그:
Google Cloud 콘솔에서 환경 페이지로 이동합니다.
환경 목록에서 환경 이름을 클릭합니다. 환경 세부정보 페이지가 열립니다.
DAG 탭으로 이동합니다.
DAG 이름을 클릭한 다음 DAG 실행을 클릭하여 세부정보와 로그를 확인합니다.
Airflow 스케줄러 로그:
환경 세부정보 페이지로 이동합니다.
로그 탭으로 이동합니다.
Airflow 스케줄러 로그를 검사합니다.
GKE 워크로드 내 Google Cloud 콘솔의 포드 로그. 이러한 로그에는 포드 정의 YAML 파일, 포드 이벤트, 포드 세부정보가 포함됩니다.
0이 아닌 반환 코드
KubernetesPodOperator(및 GKEStartPodOperator)를 사용할 때 컨테이너 진입점의 반환 코드를 통해 작업의 성공 여부를 알 수 있습니다. 0이 아닌 반환 코드는 실패를 나타냅니다.
일반적인 패턴은 셸 스크립트를 컨테이너 진입점으로 실행하여 컨테이너 내에서 여러 작업을 함께 그룹화하는 것입니다.
이러한 스크립트를 작성 중인 경우 스크립트 상단에 set -e
명령어를 사용하여 스크립트의 실패한 명령어가 스크립트를 종료하고 실패를 Airflow 작업 인스턴스에 적용하도록 합니다.
포드 제한 시간
KubernetesPodOperator의 기본 제한 시간은 120초이므로 큰 이미지를 다운로드하기 전에 시간 초과가 발생할 수 있습니다. 제한 시간을 변경하려면 KubernetesPodOperator 생성 시 startup_timeout_seconds
매개변수를 변경합니다.
포드가 시간 초과되면 Airflow UI에서 작업별 로그를 사용할 수 있습니다. 예를 들면 다음과 같습니다.
Executing <Task(KubernetesPodOperator): ex-all-configs> on 2018-07-23 19:06:58.133811
Running: ['bash', '-c', u'airflow run kubernetes-pod-example ex-all-configs 2018-07-23T19:06:58.133811 --job_id 726 --raw -sd DAGS_FOLDER/kubernetes_pod_operator_sample.py']
Event: pod-name-9a8e9d06 had an event of type Pending
...
...
Event: pod-name-9a8e9d06 had an event of type Pending
Traceback (most recent call last):
File "/usr/local/bin/airflow", line 27, in <module>
args.func(args)
File "/usr/local/lib/python2.7/site-packages/airflow/bin/cli.py", line 392, in run
pool=args.pool,
File "/usr/local/lib/python2.7/site-packages/airflow/utils/db.py", line 50, in wrapper
result = func(*args, **kwargs)
File "/usr/local/lib/python2.7/site-packages/airflow/models.py", line 1492, in _run_raw_task
result = task_copy.execute(context=context)
File "/usr/local/lib/python2.7/site-packages/airflow/contrib/operators/kubernetes_pod_operator.py", line 123, in execute
raise AirflowException('Pod Launching failed: {error}'.format(error=ex))
airflow.exceptions.AirflowException: Pod Launching failed: Pod took too long to start
Cloud Composer 서비스 계정에 작업을 수행하는 데 필요한 IAM 권한이 없는 경우에도 포드 시간 초과가 발생할 수 있습니다. 이를 확인하려면 GKE 대시보드를 사용하여 포드 수준 오류를 보고 특정 워크로드의 로그를 확인하거나 Cloud Logging을 사용하세요.
새 연결을 설정할 수 없음
자동 업그레이드는 GKE 클러스터에서 기본적으로 사용 설정됩니다. 노드 풀이 업그레이드 중인 클러스터에 있는 경우 다음 오류가 표시될 수 있습니다.
<Task(KubernetesPodOperator): gke-upgrade> Failed to establish a new
connection: [Errno 111] Connection refused
클러스터가 업그레이드 중인지 확인하려면 Google Cloud 콘솔에서 Kubernetes 클러스터 페이지로 이동하여 환경의 클러스터 이름 옆에 있는 로드 아이콘을 찾으세요.