在 Cloud Composer 3 中執行 Apache Airflow DAG
Cloud Composer 3 | Cloud Composer 2 | Cloud Composer 1
本快速入門指南說明如何建立 Cloud Composer 環境,以及在 Cloud Composer 3 中執行 Apache Airflow DAG。
如果您是Airflow 新手,請參閱 Apache Airflow 說明文件中的 Airflow 概念教學課程,進一步瞭解 Airflow 概念、物件和使用方式。
如果您想改用 Google Cloud CLI,請參閱「在 Cloud Composer 中執行 Apache Airflow DAG (Google Cloud CLI)」一文。
如要使用 Terraform 建立環境,請參閱「建立環境 (Terraform)」一文。
事前準備
- Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
-
Make sure that billing is enabled for your Google Cloud project.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
-
Make sure that billing is enabled for your Google Cloud project.
-
Enable the Cloud Composer API.
-
如要取得完成這份快速入門課程所需的權限,請要求管理員為您授予專案的下列 IAM 角色:
-
如要查看、建立及管理 Cloud Composer 環境,請按照下列步驟操作:
-
環境與 Storage 物件管理員 (
roles/composer.environmentAndStorageObjectAdmin
) -
服務帳戶使用者 (
roles/iam.serviceAccountUser
)
-
環境與 Storage 物件管理員 (
-
如要查看記錄檔:
記錄檢視器 (
roles/logging.viewer
)
如要進一步瞭解如何授予角色,請參閱「管理專案、資料夾和機構的存取權」。
-
如要查看、建立及管理 Cloud Composer 環境,請按照下列步驟操作:
建立環境的服務帳戶
建立環境時,您會指定服務帳戶。這個服務帳戶稱為環境的服務帳戶。您的環境會使用這個服務帳戶執行大部分作業。
環境的服務帳戶並非使用者帳戶。服務帳戶是一種特殊的帳戶,由應用程式或虛擬機器 (VM) 執行個體使用,而非由人使用。
如要為環境建立服務帳戶,請按照下列步驟操作:
按照 Identity and Access Management 說明文件中的說明建立新的服務帳戶。
如需詳細資訊,請參閱 Identity and Access Management 說明文件中的授予角色一節。必要角色為 Composer Worker (
composer.worker
)。
建立環境
在 Google Cloud 控制台中,前往「Create environment」頁面。
在「Name」(名稱) 欄位中輸入
example-environment
。在「Location」下拉式清單中,選取 Cloud Composer 環境的區域。本指南使用
us-central1
區域。其他環境設定選項請使用提供的預設值。
按一下「建立」,然後等待環境建立完成。
完成後,環境名稱旁會顯示綠色勾號。
建立 DAG 檔案
Airflow DAG 是您要排程及執行的經過整理的工作集合。DAG 是在標準 Python 檔案中定義。
本指南使用 quickstart.py
檔案中定義的 Airflow DAG 範例。這個檔案中的 Python 程式碼會執行下列作業:
- 建立 DAG
composer_sample_dag
。這個 DAG 每天都會執行。 - 執行一個工作
print_dag_run_conf
。工作會使用 bash 運算子列印 DAG 執行作業的設定。
在本機電腦上儲存 quickstart.py
檔案的副本:
將 DAG 檔案上傳至環境的值區
每個 Cloud Composer 環境都有一個相關聯的 Cloud Storage 值區。Cloud Composer 中的 Airflow 只會排定位於這個值區 /dags
資料夾中的 DAG。
如要排程 DAG,請從本機電腦將 quickstart.py
上傳至環境的 /dags
資料夾:
前往 Google Cloud 控制台的「Environments」頁面。
在環境清單中,按一下環境名稱
example-environment
。「環境詳細資料」頁面隨即開啟。按一下「開啟 DAG 資料夾」。「Bucket details」(值區詳細資料) 頁面隨即開啟。
按一下「上傳檔案」,然後選取
quickstart.py
的副本。如要上傳檔案,請按一下「開啟」。
查看 DAG
上傳 DAG 檔案後,Airflow 會執行以下操作:
- 剖析您上傳的 DAG 檔案。DAG 可能需要幾分鐘的時間才能供 Airflow 使用。
- 將 DAG 新增至可用 DAG 清單。
- 根據 DAG 檔案中提供的時間表執行 DAG。
在 DAG UI 中查看 DAG,確認 DAG 處理過程沒有錯誤,且可在 Airflow 中使用。DAG UI 是 Cloud Composer 介面,可在 Google Cloud 控制台中查看 DAG 資訊。Cloud Composer 也提供 Airflow UI 存取權,這是原生 Airflow 網頁介面。
請稍候五分鐘,讓 Airflow 處理先前上傳的 DAG 檔案,並完成第一次 DAG 執行作業 (稍後會說明)。
前往 Google Cloud 控制台的「Environments」頁面。
在環境清單中,按一下環境名稱
example-environment
。「環境詳細資料」頁面隨即開啟。前往「DAG」分頁。
確認
composer_quickstart
DAG 是否列於 DAG 清單中。圖 1. DAG 清單會顯示 composer_quickstart DAG (按一下即可放大)
查看 DAG 執行作業詳細資料
單一 DAG 執行作業稱為 DAG 執行作業。由於 DAG 檔案中的開始日期設為昨天,Airflow 會立即執行範例 DAG 的 DAG 執行作業。這樣一來,Airflow 就能趕上指定 DAG 的排程。
範例 DAG 包含一個工作 print_dag_run_conf
,會在控制台中執行 echo
指令。這個指令會輸出 DAG (DAG 執行作業的數字 ID) 的元資料。
在「DAG」分頁中,按一下
composer_quickstart
。系統會開啟 DAG 的「Runs」分頁。在 DAG 執行作業清單中,按一下第一個項目。
圖 2. composer_quickstart DAG 的 DAG 執行作業清單 (按一下可放大) 系統會顯示 DAG 執行詳細資料,詳細說明範例 DAG 的個別工作。
圖 3. 在 DAG 執行期間執行的工作清單 (按一下可放大) 「DAG 執行作業的記錄檔」部分會列出 DAG 執行作業中的所有工作記錄。您可以在記錄檔中查看
echo
指令的輸出內容。圖 4. print_dag_run_conf 工作記錄 (按一下即可放大)
清除所用資源
如要避免系統向您的 Google Cloud 帳戶收取您在本頁所用資源的費用,請按照下列步驟操作。
刪除本教學課程中使用的資源:
刪除 Cloud Composer 環境:
前往 Google Cloud 控制台的「Environments」頁面。
選取
example-environment
,然後按一下「刪除」。等待環境刪除完成。
刪除環境的值區。刪除 Cloud Composer 環境不會刪除其值區。
在 Google Cloud 控制台中,依序前往「Storage」 >「Browser」頁面。
選取環境的值區,然後按一下「Delete」。舉例來說,這個值區可以命名為
us-central1-example-environ-c1616fe8-bucket
。
後續步驟