在 Cloud Composer 1 中執行 Apache Airflow DAG

Cloud Composer 3 | Cloud Composer 2 | Cloud Composer 1

本快速入門指南說明如何建立 Cloud Composer 環境,並在 Cloud Composer 1 中執行 Apache Airflow DAG。

事前準備

  1. Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
  2. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Go to project selector

  3. Make sure that billing is enabled for your Google Cloud project.

  4. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Go to project selector

  5. Make sure that billing is enabled for your Google Cloud project.

  6. Enable the Cloud Composer API.

    Enable the API

  7. 如要取得完成這份快速入門課程所需的權限,請要求管理員為您授予專案的下列 IAM 角色:

    如要進一步瞭解如何授予角色,請參閱「管理專案、資料夾和機構的存取權」。

    您或許還可透過自訂角色或其他預先定義的角色取得必要權限。

建立環境的服務帳戶

建立環境時,您會指定服務帳戶。這個服務帳戶稱為環境的服務帳戶。您的環境會使用這個服務帳戶執行大部分作業。

環境的服務帳戶並非使用者帳戶。服務帳戶是一種特殊的帳戶,由應用程式或虛擬機器 (VM) 執行個體使用,而非由人使用。

如要為環境建立服務帳戶,請按照下列步驟操作:

  1. 按照 Identity and Access Management 說明文件中的說明建立新的服務帳戶

  2. 如需詳細資訊,請參閱 Identity and Access Management 說明文件中的授予角色一節。必要角色為 Composer Worker (composer.worker)。

建立環境

  1. 在 Google Cloud 控制台中,前往「Create environment」頁面。

    前往「建立環境」

  2. 在「Name」(名稱) 欄位中輸入 example-environment

  3. 在「Location」下拉式清單中,選取 Cloud Composer 環境的區域。本指南使用 us-central1 區域。

  4. 其他環境設定選項請使用提供的預設值。

  5. 按一下「建立」,然後等待環境建立完成。

  6. 完成後,環境名稱旁會顯示綠色勾號。

建立 DAG 檔案

Airflow DAG 是您要排程及執行的經過整理的工作集合。DAG 是在標準 Python 檔案中定義。

本指南使用 quickstart.py 檔案中定義的 Airflow DAG 範例。這個檔案中的 Python 程式碼會執行下列作業:

  1. 建立 DAG composer_sample_dag。這個 DAG 每天都會執行。
  2. 執行一個工作 print_dag_run_conf。工作會使用 bash 運算子列印 DAG 執行作業的設定。

在本機電腦上儲存 quickstart.py 檔案的副本:

import datetime

from airflow import models
from airflow.operators import bash

# If you are running Airflow in more than one time zone
# see https://airflow.apache.org/docs/apache-airflow/stable/timezone.html
# for best practices
YESTERDAY = datetime.datetime.now() - datetime.timedelta(days=1)

default_args = {
    "owner": "Composer Example",
    "depends_on_past": False,
    "email": [""],
    "email_on_failure": False,
    "email_on_retry": False,
    "retries": 1,
    "retry_delay": datetime.timedelta(minutes=5),
    "start_date": YESTERDAY,
}

with models.DAG(
    "composer_quickstart",
    catchup=False,
    default_args=default_args,
    schedule_interval=datetime.timedelta(days=1),
) as dag:
    # Print the dag_run id from the Airflow logs
    print_dag_run_conf = bash.BashOperator(
        task_id="print_dag_run_conf", bash_command="echo {{ dag_run.id }}"
    )

將 DAG 檔案上傳至環境的值區

每個 Cloud Composer 環境都有一個相關聯的 Cloud Storage 值區。Cloud Composer 中的 Airflow 只會排定位於這個值區 /dags 資料夾中的 DAG。

如要排程 DAG,請從本機電腦將 quickstart.py 上傳至環境的 /dags 資料夾:

  1. 前往 Google Cloud 控制台的「Environments」頁面。

    前往「環境」

  2. 在環境清單中,按一下環境名稱 example-environment。「環境詳細資料」頁面隨即開啟。

  3. 按一下「開啟 DAG 資料夾」。「Bucket details」(值區詳細資料) 頁面隨即開啟。

  4. 按一下「上傳檔案」,然後選取 quickstart.py 的副本。

  5. 如要上傳檔案,請按一下「開啟」

查看 DAG

上傳 DAG 檔案後,Airflow 會執行以下操作:

  1. 剖析您上傳的 DAG 檔案。DAG 可能需要幾分鐘的時間才能供 Airflow 使用。
  2. 將 DAG 新增至可用 DAG 清單。
  3. 根據 DAG 檔案中提供的時間表執行 DAG。

在 DAG UI 中查看 DAG,確認 DAG 處理過程沒有錯誤,且可在 Airflow 中使用。DAG UI 是 Cloud Composer 介面,可在 Google Cloud 控制台中查看 DAG 資訊。Cloud Composer 也提供 Airflow UI 存取權,這是原生 Airflow 網頁介面。

  1. 請稍候五分鐘,讓 Airflow 處理先前上傳的 DAG 檔案,並完成第一次 DAG 執行作業 (稍後會說明)。

  2. 前往 Google Cloud 控制台的「Environments」頁面。

    前往「環境」

  3. 在環境清單中,按一下環境名稱 example-environment。「環境詳細資料」頁面隨即開啟。

  4. 前往「DAG」分頁。

  5. 確認 composer_quickstart DAG 是否列於 DAG 清單中。

    DAG 清單會顯示 composer_quickstart DAG,並提供狀態和時程等其他資訊
    圖 1. DAG 清單會顯示 composer_quickstart DAG (按一下即可放大)

查看 DAG 執行作業詳細資料

單一 DAG 執行作業稱為 DAG 執行作業。由於 DAG 檔案中的開始日期設為昨天,Airflow 會立即執行範例 DAG 的 DAG 執行作業。這樣一來,Airflow 就能趕上指定 DAG 的排程。

範例 DAG 包含一個工作 print_dag_run_conf,會在控制台中執行 echo 指令。這個指令會輸出 DAG (DAG 執行作業的數字 ID) 的元資料。

  1. 在「DAG」分頁中,按一下 composer_quickstart。系統會開啟 DAG 的「Runs」分頁。

  2. 在 DAG 執行作業清單中,按一下第一個項目。

    DAG 執行作業清單會顯示最近的 DAG 執行作業 (執行日期和狀態)
    圖 2. composer_quickstart DAG 的 DAG 執行作業清單 (按一下可放大)
  3. 系統會顯示 DAG 執行詳細資料,詳細說明範例 DAG 的個別工作。

    包含 print_dag_run_conf 項目的工作清單、開始時間、結束時間和持續時間
    圖 3. 在 DAG 執行期間執行的工作清單 (按一下可放大)
  4. 「DAG 執行作業的記錄檔」部分會列出 DAG 執行作業中的所有工作記錄。您可以在記錄檔中查看 echo 指令的輸出內容。

    工作記錄項目,其中一個是「輸出」,另一個則列出 ID
    圖 4. print_dag_run_conf 工作記錄 (按一下即可放大)

清除所用資源

如要避免系統向您的 Google Cloud 帳戶收取您在本頁所用資源的費用,請按照下列步驟操作。

刪除本教學課程中使用的資源

  1. 刪除 Cloud Composer 環境:

    1. 前往 Google Cloud 控制台的「Environments」頁面。

      前往「環境」

    2. 選取 example-environment,然後按一下「刪除」

    3. 等待環境刪除完成。

  2. 刪除環境的值區。刪除 Cloud Composer 環境不會刪除其值區。

    1. 在 Google Cloud 控制台中,依序前往「Storage」 >「Browser」頁面。

      依序前往「Storage」>「Browser」

    2. 選取環境的值區,然後按一下「Delete」。舉例來說,這個值區可以命名為 us-central1-example-environ-c1616fe8-bucket

後續步驟