Datastream 支援將 Oracle、MySQL 和 PostgreSQL 資料庫的串流資料直接匯入 BigQuery 資料集。不過,如果您需要進一步控管資料流處理邏輯 (例如資料轉換或邏輯主鍵的手動設定),可以將 Datastream 與 Dataflow 工作範本整合。
本教學課程將說明如何使用 Dataflow 工作範本,在 BigQuery 中串流最新的具象化檢視畫面,以便進行分析,並整合 Datastream 與 Dataflow。
如果貴機構有許多獨立的資料來源,則存取整個機構的企業資料 (尤其是以即時方式) 的速度可能會受到限制,且速度緩慢。這會限制組織的自檢查能力。
Datastream 可讓您近乎即時存取各種內部部署和雲端資料來源的異動資料。Datastream 提供的設定體驗,可讓您不必為串流資料進行太多設定,Datastream 會為您處理這項工作。Datastream 也提供統一的取用 API,讓貴機構的使用者都能存取最新的企業資料,以便建構整合情境。
其中一個情境是將資料從來源資料庫傳輸至雲端儲存空間服務或訊息佇列。Datastream 串流資料後,系統會將資料轉換成其他應用程式和服務可讀取的格式。在本教學課程中,Dataflow 是與儲存服務或訊息佇列通訊的網路服務,可擷取並處理 Google Cloud上的資料。
您將瞭解如何使用 Datastream 將變更 (插入、更新或刪除的資料) 從來源 MySQL 資料庫串流至 Cloud Storage 值區的資料夾。接著,您可以設定 Cloud Storage 值區,以便傳送通知,讓 Dataflow 瞭解任何新檔案,這些檔案包含 Datastream 從來源資料庫串流傳送的資料變更。接著,Dataflow 工作會處理檔案,並將變更轉移至 BigQuery。
目標
在本教學課程中,您將執行下列作業:- 在 Cloud Storage 中建立值區。這是 Datastream 將來源 MySQL 資料庫的結構定義、資料表和資料串流至此的目的地資料夾。
- 為 Cloud Storage 值區啟用 Pub/Sub 通知。這樣做可讓您設定值區,以便傳送通知,讓 Dataflow 瞭解任何可供處理的新檔案。這些檔案包含 Datastream 從來源資料庫串流至資料夾的資料變更。
- 在 BigQuery 中建立資料集。BigQuery 會使用資料集來容納從 Dataflow 接收的資料。這項資料代表 Datastream 串流至 Cloud Storage 值區的來源資料庫中的變更。
- 為來源資料庫和 Cloud Storage 中的目的地值區建立及管理連線設定檔。Datastream 中的串流會使用連線設定檔中的資訊,將資料從來源資料庫傳輸至值區。
- 建立並啟動串流。這個串流會將資料、結構定義和資料表從來源資料庫移至值區。
- 確認 Datastream 將與來源資料庫結構定義相關聯的資料和資料表,轉移至儲存體。
- 在 Dataflow 中建立工作。當 Datastream 將資料變更從來源資料庫串流至 Cloud Storage 值區後,系統會將通知傳送至 Dataflow,通知 Dataflow 有包含變更的新檔案。Dataflow 工作會處理檔案,並將變更轉移至 BigQuery。
- 確認 Dataflow 處理含有與此資料相關聯變更的檔案,並將變更內容傳輸至 BigQuery。因此,Datastream 和 BigQuery 之間可進行端對端整合。
- 清除在 Datastream、Cloud Storage、Pub/Sub、Dataflow 和 BigQuery 上建立的資源,以免資源占用您的配額,也避免系統日後向您收取資源費用。
費用
在本文件中,您會使用 Google Cloud的下列計費元件:
- Datastream
- Cloud Storage
- Pub/Sub
- Dataflow
- BigQuery
您可以使用 Pricing Calculator 根據預測用量產生預估費用。
事前準備
- Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
-
Make sure that billing is enabled for your Google Cloud project.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
-
Make sure that billing is enabled for your Google Cloud project.
- 啟用 Datastream API。
- 請確認您已為使用者帳戶授予 Datastream 管理員角色。
- 請確認您有 來源 MySQL 資料庫,讓 Datastream 可以存取。此外,請確認資料庫中是否有資料、資料表和結構定義。
- 將 MySQL 資料庫設為接受來自 Datastream 公開 IP 位址的連入連線。如需所有 Datastream 區域及其相關公開 IP 位址的清單,請參閱「IP 許可清單和區域」。
- 為來源資料庫設定變更資料擷取 (CDC)。詳情請參閱「設定來源 MySQL 資料庫」。
請確認您已符合所有前置條件,才能啟用 Cloud Storage 的 Pub/Sub 通知。
在本教學課程中,您會在 Cloud Storage 中建立目的地值區,並為該值區啟用 Pub/Sub 通知。這樣一來,Dataflow 就能收到 Datastream 寫入值區的新檔案通知。這些檔案包含 Datastream 從來源資料庫串流至資料夾的資料變更。
需求條件
Datastream 提供多種來源選項、目的地選項和網路連線方法。
在本教學課程中,我們假設您使用的是獨立 MySQL 資料庫和目的地 Cloud Storage 服務。針對來源資料庫,您應該可以設定網路來新增傳入防火牆規則。來源資料庫可位於內部部署系統中,或雲端服務供應商的系統中。對於 Cloud Storage 目的地,您不需要進行連線設定。
由於我們無法得知您的環境詳細資訊,因此無法提供網路設定的詳細步驟。
在本教學課程中,您會選取「IP 許可清單」做為網路連線方式。IP 許可清單是一種安全性功能,通常用於限制及控管來源資料庫中資料的存取權,只允許信任的使用者存取。您可以使用 IP 許可清單建立可信任 IP 位址或 IP 範圍的清單,讓使用者和其他服務 (例如 Datastream) 可以存取這項資料。 Google Cloud 如要使用 IP 許可清單,您必須開放來源資料庫或防火牆,允許來自 Datastream 的傳入連線。
在 Cloud Storage 中建立值區
在 Cloud Storage 中建立目的地值區,讓 Datastream 從來源 MySQL 資料庫串流傳輸結構定義、資料表和資料。
在 Google Cloud 控制台,前往 Cloud Storage 的「Browser」(瀏覽器) 頁面。
按一下「建立值區」。「Create a bucket」(建立值區) 頁面隨即顯示。
在「為值區命名」區域的文字欄位中,輸入值區的專屬名稱,然後按一下「繼續」。
接受網頁中其餘區域的預設設定。在每個區域結束時,按一下「繼續」。
按一下 [建立]。
為 Cloud Storage 值區啟用 Pub/Sub 通知
在本節中,您將為所建立的 Cloud Storage 值區啟用 Pub/Sub 通知。這樣做可讓您設定值區,以便在 Datastream 將任何新檔案寫入值區時,通知 Dataflow。這些檔案包含 Datastream 從來源 MySQL 資料庫串流至儲存桶的資料變更。
存取您建立的 Cloud Storage 值區。「Bucket details」頁面隨即顯示。
按一下
「Activate Cloud Shell」(啟用 Cloud Shell)。在提示中輸入下列指令:
gcloud storage buckets notifications create gs://bucket-name --topic=my_integration_notifs --payload-format=json --object-prefix=integration/tutorial/
選用:如果系統顯示「Authorize Cloud Shell」視窗,請按一下「Authorize」。
確認您看到以下程式碼行:
Created Cloud Pub/Sub topic projects/project-name/topics/my_integration_notifs Created notification config projects/_/buckets/bucket-name/notificationConfigs/1
在 Google Cloud 控制台中,前往 Pub/Sub 的「主題」頁面。
按一下您建立的 my_integration_notifs 主題。
在 my_integration_notifs 頁面中,捲動至頁面底部。確認「訂閱項目」分頁處於啟用狀態,且畫面上顯示「沒有可顯示的訂閱項目」訊息。
按一下「Create Subscription」 (建立訂閱項目)。
在隨即顯示的選單中,選取「建立訂閱項目」。
在「將訂閱項目新增至主題」頁面中:
- 在「Subscription ID」(訂閱項目 ID) 欄位中輸入
my_integration_notifs_sub
。 - 將「Acknowledgement deadline」(確認期限) 值設為
120
秒。這樣 Dataflow 就能有足夠的時間確認已處理的檔案,並有助於改善 Dataflow 工作整體效能。如要進一步瞭解 Pub/Sub 訂閱屬性,請參閱「訂閱屬性」。 - 保留頁面上的所有其他預設值。
- 按一下 [建立]。
- 在「Subscription ID」(訂閱項目 ID) 欄位中輸入
在本教學課程稍後的部分,您將建立 Dataflow 工作。建立這項工作時,您會將 Dataflow 指派為 my_integration_notifs_sub 訂閱項目的訂閱者。這樣一來,Dataflow 就能收到 Datastream 寫入 Cloud Storage 的新檔案通知,並處理這些檔案,然後將資料變更傳輸至 BigQuery。
在 BigQuery 中建立資料集
在本節中,您將在 BigQuery 中建立資料集。BigQuery 會使用資料集來容納從 Dataflow 接收的資料。這項資料代表 Datastream 串流至 Cloud Storage 值區的來源 MySQL 資料庫中的變更。
前往 Google Cloud 控制台的「BigQuery」頁面,然後前往「SQL 工作區」頁面。
在「Explorer」窗格中,按一下 Google Cloud 專案名稱旁的
「查看動作」。在隨即顯示的選單中,選取「建立資料集」。
在「建立資料集」視窗中:
- 在「資料集 ID」欄位中,輸入資料集 ID。在本教學課程中,請在欄位中輸入
My_integration_dataset_log
。 - 請保留畫面中的所有其他預設值。
- 點選「建立資料集」。
- 在「資料集 ID」欄位中,輸入資料集 ID。在本教學課程中,請在欄位中輸入
在「Explorer」窗格中,點選 Google Cloud 專案名稱旁的
「Expand node」,然後確認您是否看到自己建立的資料集。請按照這個程序中的步驟建立第二個資料集:My_integration_dataset_final。
展開每個資料集旁的
「Expand node」。確認每個資料集都為空白。
在 Datastream 將資料變更串流從來源資料庫傳送至 Cloud Storage 值區後,Dataflow 工作會處理包含變更的檔案,並將變更轉移至 BigQuery 資料集。
在 Datastream 中建立連線設定檔
在本節中,您將在 Datastream 中為來源資料庫和目的地建立連線設定檔。建立連線設定檔時,請選取「MySQL」做為來源連線設定檔的設定檔類型,並選取「Cloud Storage」做為目標連線設定檔的設定檔類型。
Datastream 會使用連線設定檔中定義的資訊,連線至來源和目的地,以便將來源資料庫中的資料串流至 Cloud Storage 中的目的地值區。
為 MySQL 資料庫建立來源連線設定檔
在 Google Cloud 控制台中,前往 Datastream 的「Connection profiles」(連線設定檔) 頁面。
按一下 Create profile。
如要為 MySQL 資料庫建立來源連線設定檔,請在「Create a connection profile」(建立連線設定檔) 頁面中,點選「MySQL」設定檔類型。
在「建立 MySQL 設定檔」頁面的「定義連線設定」部分中,提供下列資訊:
- 在「連線設定檔名稱」欄位中輸入
My Source Connection Profile
。 - 保留系統自動產生的連線設定檔 ID。
選取要儲存連線設定檔的區域。
輸入連線詳細資料:
- 在「主機名稱或 IP」欄位中,輸入 Datastream 可用來連線至來源資料庫的主機名稱或公開 IP 位址。您提供公開 IP 位址,是因為您在本教學課程中使用IP 許可清單做為網路連線方式。
- 在「Port」欄位中,輸入用於來源資料庫的通訊埠號碼。對於 MySQL 資料庫,預設通訊埠通常為
3306
。 - 輸入使用者名稱和密碼,驗證來源資料庫。
- 在「連線設定檔名稱」欄位中輸入
在「定義連線設定」部分中,按一下「繼續」。「Create MySQL profile」頁面中的「Secure your connection to your source」部分已啟用。
在「加密類型」選單中,選取「無」。如要進一步瞭解這個選單,請參閱「為 MySQL 資料庫建立連線設定檔」。
在「保護與來源的連線」部分,按一下「繼續」。「Create MySQL profile」頁面中的「Define connectivity method」部分已啟用。
在「連線方法」下拉式選單中,選擇要用來建立 Datastream 與來源資料庫之間連線的網路連線方法。在本教學課程中,請選取「IP 許可清單」做為連線方式。
將來源資料庫設為接受來自顯示的 Datastream 公開 IP 位址的連入連線。
在「定義連線方式」部分中,按一下「繼續」。「Create MySQL profile」頁面中的「Test connection profile」部分已啟用。
點選「Run test」,確認來源資料庫和 Datastream 可以相互通訊。
確認您看到「測試通過」狀態。
按一下 [建立]。
建立 Cloud Storage 目的地連線設定檔
在 Google Cloud 控制台中,前往 Datastream 的「Connection profiles」(連線設定檔) 頁面。
按一下 Create profile。
如要為 Cloud Storage 建立目的地連線設定檔,請在「Create a connection profile」(建立連線設定檔) 頁面中,點選「Cloud Storage」設定檔類型。
在「Create Cloud Storage profile」(建立 Cloud Storage 設定檔) 頁面中,提供下列資訊:
- 在「連線設定檔名稱」欄位中輸入
My Destination Connection Profile
。 - 保留系統自動產生的連線設定檔 ID。
- 選取要儲存連線設定檔的區域。
在「Connection details」窗格中,按一下「Browse」,選取您在本教學課程稍早建立的 Cloud Storage 值區。這是 Datastream 將資料從來源資料庫轉移至的 bucket。選取所需項目後,按一下「選取」。
值區會顯示在「連線詳細資料」窗格的「值區名稱」欄位中。
在「連線設定檔路徑前置字串」欄位中,提供路徑前置字串,以便在 Datastream 將資料串流至目的地時,附加至值區名稱。請確認 Datastream 將資料寫入值區內的路徑,而非值區根目錄。在本教學課程中,請使用您設定 Pub/Sub 通知時定義的路徑。在欄位中輸入
/integration/tutorial
。
- 在「連線設定檔名稱」欄位中輸入
按一下 [建立]。
為 MySQL 資料庫建立來源連線設定檔,以及 Cloud Storage 的目的地連線設定檔後,即可使用這些設定檔建立串流。
在 Datastream 中建立串流
在本節中,您將建立串流。這個串流會使用連線設定檔中的資訊,將資料從來源 MySQL 資料庫傳輸至 Cloud Storage 中的目的地值區。
定義串流的設定
在 Google Cloud 控制台中,前往 Datastream 的「Streams」頁面。
按一下 [建立訊息串]。
在「建立串流」頁面的「定義串流詳細資料」面板中,提供下列資訊:
- 在「Stream name」(串流名稱) 欄位中輸入
My Stream
。 - 保留系統自動產生的「串流 ID」。
- 在「Region」選單中,選取您建立來源和目的地連線設定檔的區域。
- 在「Source type」選單中,選取「MySQL」設定檔類型。
- 在「目的地類型」選單中,選取「Cloud Storage」設定檔類型。
- 在「Stream name」(串流名稱) 欄位中輸入
查看系統自動產生的必要條件,瞭解環境必須如何準備串流。這些必要條件包括如何設定來源資料庫,以及如何將 Datastream 連結至 Cloud Storage 中的目標值區。
按一下「繼續」。「Create stream」頁面隨即顯示「Define MySQL connection profile」面板。
指定來源連線設定檔的相關資訊
在這個部分,您會選取為來源資料庫建立的連線設定檔 (來源連線設定檔)。在本教學課程中,這個值為「My Source Connection Profile」。
在「Source connection profile」選單中,選取 MySQL 資料庫的來源連線設定檔。
點選「Run test」,確認來源資料庫和 Datastream 可以相互通訊。
如果測試失敗,系統會顯示與連線設定檔相關的問題。如要瞭解疑難排解步驟,請參閱「診斷問題」頁面。進行必要變更來修正問題,然後重新測試。
按一下「繼續」。「Create stream」頁面的「Configure stream source」面板隨即顯示。
設定串流的來源資料庫相關資訊
在本節中,您將指定 Datastream 來源資料庫中的資料表和結構定義,藉此設定串流的來源資料庫相關資訊:
- 可轉移至目的地。
- 無法轉乘至目的地。
您也可以決定 Datastream 是否要補充歷來資料,以及是否要將持續變更的資料串流至目的地,或是只串流資料的變更。
使用「Objects to include」(要包含的物件) 選單,指定 Datastream 可將來源資料庫中的資料表和結構定義轉移至 Cloud Storage 中目的地值區的資料夾。只有在資料庫中最多有 5,000 個物件時,系統才會載入選單。
在本教學課程中,您要讓 Datastream 轉移所有資料表和結構定義。因此,請從選單中選取「採用任何結構定義的所有資料表」。
確認「Select objects to exclude」面板已設為「None」。您不想限制 Datastream 將來源資料庫中的任何資料表和結構轉移至 Cloud Storage。
確認「Choose backfill mode for historical data」 面板已設為「Automatic」。除了資料變動外,Datastream 也會從來源串流所有現有資料至目的地。
按一下「繼續」。「Create stream」頁面隨即顯示「Define Cloud Storage connection profile」面板。
選取目的地連線設定檔
在本節中,您會選取為 Cloud Storage 建立的連線設定檔 (目的地連線設定檔)。在本教學課程中,這會是「我的目的地連線設定檔」。
在「Destination connection profile」選單中,選取 Cloud Storage 的目的地連線設定檔。
按一下「繼續」。「Create stream」頁面隨即顯示「Configure stream destination」面板。
設定串流目的地的相關資訊
在本節中,您將設定串流的目的值區相關資訊。這類資訊包括:
- 寫入 Cloud Storage 的檔案輸出格式。
- 目的地資料夾的資料夾,Datastream 會將來源資料庫的結構定義、資料表和資料轉移至此資料夾。
在「輸出格式」欄位中,選取寫入 Cloud Storage 的檔案格式。Datastream 支援兩種輸出格式:Avro 和 JSON。在本教學課程中,檔案格式為 Avro。
按一下「繼續」。「Create stream」頁面隨即顯示「Review stream details and create」面板。
建立串流
確認串流的詳細資料,以及串流用來將資料從來源 MySQL 資料庫傳輸至 Cloud Storage 目的地值區的來源和目的地連線設定檔。
如要驗證串流,請按一下「Run validation」。驗證串流時,Datastream 會檢查來源是否已正確設定、驗證串流是否可連線至來源和目的地,並驗證串流的端對端設定。
通過所有驗證檢查後,按一下「建立」。
在「Create stream?」對話方塊中,按一下「Create」。
開始串流
在本教學課程中,您會分別建立及啟動串流,以免串流建立程序導致來源資料庫的負載增加。如要延遲這項負載,請建立資料流,但不要立即啟動,然後在資料庫可處理負載時啟動資料流。
啟動串流後,Datastream 就能將資料、結構定義和資料表從來源資料庫轉移至目的地。
在 Google Cloud 控制台中,前往 Datastream 的「Streams」頁面。
找出要啟動的串流,然後勾選旁邊的核取方塊。在本教學課程中,這會是「我的串流」。
按一下「啟動」。
在對話方塊中按一下「開始」。串流的狀態會從
Not started
變更為Starting
,再變更為Running
。
啟動串流後,您可以確認 Datastream 是否已將資料從來源資料庫轉移至目的地。
驗證串流
在本節中,您會確認 Datastream 將來源 MySQL 資料庫的所有資料表轉移至 Cloud Storage 目的地值區的 /integration/tutorial 資料夾。
在 Google Cloud 控制台中,前往 Datastream 的「Streams」頁面。
按一下你建立的串流。在本教學課程中,這會是「我的串流」。
在「串流詳細資料」頁面中,按一下「bucket-name/integration/tutorial」連結,其中 bucket-name 是您為 Cloud Storage 值區指定的名稱。這個連結會顯示在「Destination write path」欄位後方。Cloud Storage 的「值區詳細資料」頁面會在另一個分頁中開啟。
確認您看見代表來源資料庫資料表的資料夾。
按一下其中一個表格資料夾,然後點選每個子資料夾,直到看到與表格相關聯的資料為止。
建立 Dataflow 工作
在本節中,您將在 Dataflow 中建立工作。當 Datastream 將資料變更從來源 MySQL 資料庫串流至 Cloud Storage 值區後,Pub/Sub 就會傳送通知給 Dataflow,說明包含變更的新檔案。Dataflow 工作會處理檔案,並將變更轉移至 BigQuery。
在 Google Cloud 控制台中,前往 Dataflow 的「Jobs」頁面。
按一下 [Create job from template] (利用範本建立工作)。
在「Create job from template」頁面的「Job name」欄位中,輸入要建立的 Dataflow 工作名稱。在本教學課程中,請在欄位中輸入
my-dataflow-integration-job
。從「Regional endpoint」選單中,選取要儲存工作的區域。這個區域與您建立的來源連線設定檔、目的地連線設定檔和串流所選的區域相同。
在「Dataflow template」(資料流範本) 選單中,選取用於建立工作的範本。在本教學課程中,請選取「Datastream to BigQuery」(Datastream 到 BigQuery)。
選取後,畫面上就會顯示與這個範本相關的其他欄位。
在「Cloud Storage 中 Datastream 檔案輸出檔案位置」欄位中,使用以下格式輸入 Cloud Storage 值區名稱:
gs://bucket-name
。在「Cloud Storage 通知政策中使用的 Pub/Sub 訂閱」欄位中,輸入包含 Pub/Sub 訂閱名稱的路徑。在本教學課程中,請輸入
projects/project-name/subscriptions/my_integration_notifs_sub
。在「Datastream 輸出檔案格式 (avro/json)」欄位中輸入
avro
,因為在本教學課程中,Datastream 寫入 Cloud Storage 的檔案格式為 Avro。在「資料集的名稱或範本,用於包含暫存資料表」欄位中輸入
My_integration_dataset_log
,因為 Dataflow 會使用這個資料集,將從 Datastream 收到的資料變更暫存起來。在「資料集的範本,用於包含複本資料表」欄位中輸入
My_integration_dataset_final
,因為這是資料集,其中會合併 My_integration_dataset_log 資料集中的變更,以便建立來源資料庫中資料表的一對一複本。在「死信佇列目錄」欄位中,輸入包含 Cloud Storage 值區名稱和死信佇列資料夾的路徑。請確認您沒有使用根資料夾中的路徑,且路徑與 Datastream 寫入資料的路徑不同。任何 Dataflow 無法轉移至 BigQuery 的資料變更都會儲存在佇列中。您可以修正佇列中的內容,讓 Dataflow 重新處理。
在本教學課程中,請在「死信佇列目錄」欄位中輸入
gs://bucket-name/dlq
(其中 bucket-name 是值區的名稱,而 dlq 是死信佇列的資料夾)。按一下「Run Job」(執行工作)。
驗證整合
在本教學課程的「驗證串流」一節中,您已確認 Datastream 將來源 MySQL 資料庫的所有資料轉移至 Cloud Storage 目的地值區的 /integration/tutorial 資料夾。
在本節中,您將驗證 Dataflow 是否處理含有與此資料相關聯變更內容的檔案,並將變更內容轉移至 BigQuery。因此,Datastream 和 BigQuery 之間可進行端對端整合。
在 Google Cloud 控制台中,前往 BigQuery 的「SQL 工作區」頁面。
在「Explorer」窗格中,展開「 Google Cloud 」專案名稱旁的節點。
展開「My_integration_dataset_log」和「My_integration_dataset_final」資料集旁的節點。
確認每個資料集現在都包含資料。這表示 Dataflow 已處理含有與 Datastream 串流至 Cloud Storage 的資料相關聯變更的檔案,並將這些變更轉移至 BigQuery。
清除所用資源
如要避免系統向您的 Google Cloud 帳戶收取本教學課程所用資源的費用,請使用 Google Cloud 控制台執行下列操作:
- 刪除專案、Datastream 串流和 Datastream 連線設定檔。
- 停止 Dataflow 工作。
- 刪除 BigQuery 資料集、Pub/Sub 主題和訂閱,以及 Cloud Storage 值區。
清除在 Datastream、Dataflow、BigQuery、Pub/Sub 和 Cloud Storage 上建立的資源,可避免資源占用配額,而且日後也不必為這些資源付費。
刪除專案
如要避免付費,最簡單的方法就是刪除您為了本教學課程所建立的專案。
在 Google Cloud 控制台中,前往「管理資源」頁面。
在專案清單中選取要刪除的專案,然後點按「刪除」。
如要刪除專案,請在對話方塊中輸入專案 ID,然後按一下「Shut down」。
刪除串流
在 Google Cloud 控制台中,前往 Datastream 的「Streams」頁面。
按一下要刪除的串流。在本教學課程中,這會是「我的串流」。
按一下「暫停」。
在對話方塊中,按一下「暫停」。
在「串流詳細資料」頁面的「串流狀態」窗格中,確認串流的狀態為
Paused
。點選「刪除」。
在對話方塊的文字欄位中輸入
Delete
,然後按一下「Delete」。
刪除連線設定檔
在 Google Cloud 控制台中,前往 Datastream 的「Connection profiles」(連線設定檔) 頁面。
勾選要刪除的每個連線設定檔核取方塊:我的來源連線設定檔和我的目的地連線設定檔。
點選「刪除」。
在對話方塊中按一下「刪除」。
停止 Dataflow 工作
在 Google Cloud 控制台中,前往 Dataflow 的「Jobs」頁面。
按一下要停止的工作。在本教學課程中,這會是 my-dataflow-integration-job。
按一下「停止」。
在「Stop job」對話方塊中,選取「Drain」選項,然後按一下「Stop job」。
刪除 BigQuery 資料集
在 Google Cloud 控制台中,前往 BigQuery 的「SQL 工作區」頁面。
在「Explorer」窗格中,展開 Google Cloud 專案名稱旁邊的節點。
在「在 BigQuery 中建立資料集」中建立的資料集中,按一下任一資料集右側的「View actions」按鈕。這個按鈕看起來像是垂直的省略號。
在本教學課程中,請按一下 My_integration_dataset_log 右側的「View actions」按鈕。
在下拉式選單中選取「刪除」。
在「Delete dataset?」(要刪除資料集嗎?) 對話方塊的文字欄位中輸入
delete
,然後按一下「Delete」(刪除)。重複執行這個程序中的步驟,刪除您建立的第二個資料集:My_integration_dataset_final。
刪除 Pub/Sub 訂閱項目和主題
在 Google Cloud 控制台中,前往 Pub/Sub 的「Subscriptions」頁面。
找出要刪除的訂閱項目,然後按一下旁邊的核取方塊。在本教學課程中,請按一下 my_integration_notifs_sub 訂閱項目旁的核取方塊。
點選「刪除」。
在「Delete subscription」對話方塊中,按一下「Delete」。
在 Google Cloud 控制台中,前往 Pub/Sub 的「主題」頁面。
勾選 my_integration_notifs 主題旁邊的核取方塊。
點選「刪除」。
在「Delete topic」對話方塊的文字欄位中輸入
delete
,然後按一下「Delete」。
刪除 Cloud Storage 值區
在 Google Cloud 控制台,前往 Cloud Storage 的「Browser」(瀏覽器) 頁面。
勾選值區旁的核取方塊。
點選「刪除」。
在對話方塊的文字欄位中輸入
Delete
,然後按一下「Delete」。
後續步驟
- 進一步瞭解 Datastream。
- 使用舊版串流 API,透過串流資料執行進階功能,將資料傳送至 BigQuery。
- 歡迎自行試用其他 Google Cloud 功能。請參考我們的教學課程。