您可以使用 SAP Datasphere 的複製流程功能,將資料從 SAP S/4HANA 複製到 BigQuery。
本指南說明如何在使用 以 SAP LT Replication Server (SLT) 為基礎的 SAP S/4HANA 複製功能時,透過 SAP Datasphere 將資料從 SAP S/4HANA 複製到 BigQuery。
高階步驟如下所述:
- 將 SAP Datasphere 連線至 SAP S/4HANA 來源系統。
- 將 SAP Datasphere 連結至包含目標 BigQuery 資料集的 Google Cloud 專案。
- 建立複製作業流程。
- 執行複製流程。
- 在 BigQuery 中驗證複製的資料。
如要瞭解如何設定以 CDS 為基礎的複製作業,請參閱「設定以 CDS 為基礎的複製作業:透過 SAP Datasphere 將 SAP S/4HANA 複製到 BigQuery」。
事前準備
開始之前,請確認您或管理員已完成下列必要條件:
在 SAP Datasphere 租用戶的「Tenant Configuration」頁面中,啟用「Premium Outbound Integration」區塊。如要瞭解如何執行這項操作,請參閱 SAP 說明文件「Configure the Size of Your SAP Datasphere Tenant」。
請參閱 SAP 注意事項 3297105 - 重要 SAP Datasphere 複製流程考量事項,確認 SAP Datasphere 複製流程中的最新考量事項和限制。
請參閱 SAP 注意事項 2890171 - SAP Data Intelligence / SAP Datasphere - ABAP Integration,瞭解必要的 SAP 軟體版本、建議的系統環境、支援來源物件的考量事項等資訊。
只有從 SAP S/4HANA 2022 開始,SAP Datasphere 複製資料流才支援 SAP S/4HANA 中嵌入的 SLT。如果您使用的是舊版 SAP S/4HANA,或是舊版 NetWeaver 架構的 SAP 應用程式 (例如 SAP ECC),則需要考慮使用獨立的 SLT 伺服器。如要瞭解必要的 SAP 軟體版本、建議的系統環境、支援來源物件的考量因素等資訊,請參閱 SAP 注意事項 2890171 - SAP Data Intelligence / SAP Datasphere - ABAP 整合。
您擁有 Google Cloud 帳戶和專案。
專案已啟用計費功能。詳情請參閱如何確認專案已啟用計費功能。
請確認已在Google Cloud 專案中啟用 BigQuery API。
將 SAP Datasphere 連線至 SAP S/4HANA 來源系統
本節提供建立 SAP Datasphere 與 SAP S/4HANA 來源系統之間連線的操作說明。
安裝 SAP Cloud Connector
如要將 SAP Dataverse 租用戶安全地連線至 SAP S/4HANA 來源系統,如果 SAP S/4HANA 來源系統是執行在本地端、代管在任何雲端環境,或是您使用 SAP S/4HANA Cloud Private Edition,則必須使用 SAP Cloud Connector。不過,如果您使用的是 SAP S/4HANA Cloud 公開版,則不需要 SAP Cloud Connector。在這種情況下,請略過 SAP Cloud Connector 安裝和設定,並前往「建立與 SAP S/4HANA 來源系統的連線」一節。
如果您的 SAP S/4HANA 來源系統是在內部部署環境中執行,或是在任何雲端環境中代管,則必須在作業系統 (OS) 上安裝及設定 SAP Cloud Connector。如需 OS 專屬需求和安裝 SAP Cloud Connector 的操作說明,請參閱 SAP 說明文件「Preparing Cloud Connector Connectivity」。
如果您使用的是 SAP S/4HANA Cloud Private Edition,SAP Cloud Connector 會在 SAP S/4HANA 設定中預先安裝。在這種情況下,請略過 SAP Cloud Connector 安裝作業,並前往「設定 SAP Cloud Connector」一節。
設定 SAP Cloud Connector
您可以設定 SAP Cloud Connector,指定 SAP Datasphere 子帳戶,並將其對應至網路中的 SAP S4/HANA 來源系統,以及可存取的資源。
本節將說明設定 SAP Cloud Connector 時最重要的步驟。如要進一步瞭解如何設定 SAP Cloud Connector,請參閱 SAP 說明文件「設定 Cloud Connector」。
最重要的步驟如下:
在網路瀏覽器中,使用已安裝 SAP Cloud Connector 的主機和連接埠,存取 SAP Cloud Connector 管理介面。例如:http://localhost:8443。
登入 SAP Cloud Connector。如果您在安裝 SAP Cloud Connector 後首次登入,請使用下列預設憑證:
- 使用者名稱:
Administrator
- 密碼:
manage
請先變更預設密碼,再繼續操作。詳情請參閱 SAP 說明文件「初始設定」。
- 使用者名稱:
請指定下列詳細資料,將 SAP Cloud Connector 連結至 SAP BTP 子帳戶:
- SAP Datasphere 子帳戶的詳細資料,包括子帳戶名稱、區域和子帳戶使用者。如要進一步瞭解這些欄位,請參閱 SAP 說明文件「設定 Cloud Connector」。
- 針對指定的子帳戶,位置 ID 會標示 SAP Cloud Connector 的位置。
如要提供 SAP S/4HANA 來源系統的存取權,請新增系統對應資訊,包括內部主機和虛擬主機系統的相關資訊。
如要使用 SAP LT Replication Server 存取資料表的資料,您必須指定下列資源:
- LTAMB_ -前置字串
- LTAPE_ -前置字串
- RFC_FUNCTION_SEARCH
儲存設定。
建立大量轉移設定
使用 SLT 從 SAP S/4HANA 執行複製作業前,您必須建立大量轉移設定,指定來源系統連線、目標系統連線和轉移設定的詳細資料。
如要建立大量轉移設定,請執行下列步驟:
在 SAP GUI 中輸入交易代碼
LTRC
。按一下「建立設定」圖示。「Create Configuration」精靈會隨即開啟。
在「Configuration Name」(設定名稱) 和「Description」(說明) 欄位中,輸入設定的名稱和說明,然後按一下「Next」(下一步)。
在「Source System Connection Details」(來源系統連線詳細資料) 面板中:
- 選取「RFC Connection」圓形按鈕。
在「RFC 目的地」欄位中,指定與 SAP S/4HANA 來源系統的 RFC 連線名稱。
視需要選取「允許多次使用」和「從單一用戶端讀取」核取方塊。如要進一步瞭解這些選項,請參閱 SAP LT Replication Server 說明文件。
點按「Next」。
在「Target System Connection Details」面板中:
- 選取「其他」圓形按鈕。
- 在「Scenario」欄位中,選取「SAP Data Intelligence (Replication Management service)」。
- 點按「Next」。
在「指定轉移設定」面板中:
在「資料移轉設定」部分,選取「Initial Load Mode」欄位的「Performance Optimized」。
在「Job options」部分,輸入下列欄位的起始值:
- 資料移轉工作數量
- 初始載入工作數量
- 計算工作數量
在「Replication Options」部分,選取「Real Time」單選按鈕。
點按「Next」。
查看設定,然後按一下「儲存」。
記下「Mass Transfer」欄中的三位數 ID。您會在後續步驟中使用此值。
建立與 SAP S/4HANA 來源系統的連線
在 SAP Datasphere 中建立來源連線,以便使用 SAP S/4HANA 來源系統存取資料。您可以使用這項連線建立複製流程。
如要建立與 SAP S/4HANA 來源系統的連線,請執行下列步驟:
在 SAP Datasphere 中,前往「Data Builder」,然後點選「New Connection」。
選取連線類型「SAP ABAP」。
指定下列連線屬性:
- 通訊協定:選取「RFC」。
- SAP 登入連線類型:選取「Application Server」。
- 使用 Cloud Connector:設為「是」。
指定應用程式伺服器和 SAP 系統的其他專屬屬性。詳情請參閱 SAP 說明文件「SAP ABAP 連線」。
如要驗證 SAP Datasphere 和 SAP S/4HANA 之間的連線,請選取連線,然後按一下「Validate Connection」圖示。
如要進一步瞭解如何在 SAP Datasphere 和 SAP S/4HANA 之間建立連線,請參閱 SAP 說明文件「建立連線」。
您必須先檢查與複製流程相關的 SAP 注意事項,並在 SAP S/4HANA 系統中實作任何必要的注意事項,才能使用這項連線來進行複製流程。如要進一步瞭解必要的 SAP 附註,請參閱:
- 請參閱「複製流程」部分下方的 SAP 注意事項。
- 請參閱「SAP Data Intelligence 的來源系統」一節中的 SAP 注意事項。
將 SAP Datasphere 連結至 Google Cloud 專案
本節提供指示,說明如何在 SAP Datasphere 與包含目標 BigQuery 資料集的 Google Cloud 專案之間建立連線。
建立服務帳戶
如要驗證及授權 SAP Datasphere,您需要在Google Cloud 專案中建立 IAM 服務帳戶。您可以將包含與 BigQuery 互動權限的角色授予服務帳戶。
您也需要為服務帳戶建立 JSON 金鑰。您可以將 JSON 金鑰上傳至 SAP Datasphere,以便使用 Google Cloud進行驗證。
如要建立服務帳戶,請執行下列步驟:
在 Google Cloud 控制台中,前往「IAM & Admin」(身分與存取權管理及管理員) 的「Service accounts」(服務帳戶) 頁面。
如果出現提示,請選取 Google Cloud 專案。
按一下「Create Service Account」(建立服務帳戶)。
指定服務帳戶名稱,並視需要輸入說明。
按一下「建立並繼續」。
在「將專案存取權授予這個服務帳戶」面板中,選取下列角色:
- BigQuery 資料擁有者
- BigQuery 工作使用者
按一下「繼續」。
按一下 [完成]。服務帳戶會顯示在專案的服務帳戶清單中。
下載服務帳戶的 JSON 金鑰
如要下載服務帳戶的 JSON 金鑰,請執行下列步驟:
- 按一下要建立金鑰的服務帳戶電子郵件地址。
- 按一下「Keys」(金鑰) 分頁標籤。
- 按一下「Add key」(新增金鑰) 下拉式選單,然後選取「Create new key」(建立新的金鑰)。
- 選取「JSON」做為金鑰類型,然後按一下「Create」(建立)。
按一下「Create」(建立),即可下載服務帳戶金鑰檔案。請務必妥善保存金鑰檔案,因為此檔案可當做服務帳戶進行驗證。詳情請參閱「建立及刪除服務帳戶金鑰」。
建立 BigQuery 資料集
如要建立 BigQuery 資料集,您的使用者帳戶必須具備 BigQuery 的適當身分與存取權管理權限。詳情請參閱「必要權限」。
如要建立 BigQuery 資料集,請完成下列步驟:
前往 Google Cloud 控制台的「BigQuery」頁面:
按一下專案 ID 旁邊的「查看動作」圖示
,然後點選「建立資料集」。在「Dataset ID」欄位中輸入專屬名稱。詳情請參閱「命名資料集」。
在「位置類型」欄位中,為您要使用的資料集選擇地理位置。資料集在建立之後,該位置就無法改變。
如要進一步瞭解如何建立 BigQuery 資料集,請參閱「建立資料集」。
將 TLS/SSL 憑證上傳至 SAP Datasphere
如要加密 SAP 和 Google Cloud之間傳輸的資料,您必須將必要的 Google TLS/SSL 憑證上傳至 SAP Datasphere。
如要上傳 TLS/SSL 憑證,請執行下列步驟:
如要連線至 Google 服務,請按照 Google Trust Services 的建議操作。您至少必須從 Google Trust Services 存放區下載所有根 CA 憑證。
為確保您使用的是最新的受信任的根 CA 憑證,建議您每六個月更新一次系統的根憑證存放區。Google 會在 Google Trust Services 發布新版和已移除的根 CA 憑證。如要接收自動通知,請前往 Google Trust Services 訂閱 RSS 動態消息。
在 SAP Datasphere 中,依序前往「系統」>「設定」>「安全性」。
按一下 [新增憑證]。
瀏覽本機目錄,選取從 Google Trust Services 存放區下載的憑證。
按一下「上傳」。
如需 SAP 提供的 SAP Datasphere 憑證上傳相關資訊,請參閱「管理連線憑證」。
將 BigQuery 的驅動程式上傳至 SAP Datasphere
BigQuery ODBC 驅動程式可做為 SAP Datasphere 和 BigQuery 之間的橋樑,用於複製流程。如要啟用 BigQuery 存取權,您必須將必要的 ODBC 驅動程式檔案上傳至 SAP Datasphere。
如要進一步瞭解如何將必要的 ODBC 驅動程式檔案上傳至 SAP Datasphere,請參閱「上傳第三方 ODBC 驅動程式 (資料流程必備)」一文。
如要上傳驅動程式檔案,請按照下列步驟操作:
從「適用於 BigQuery 的 ODBC 和 JDBC 驅動程式」下載所需的 BigQuery ODBC 驅動程式。
在 SAP Data Sphere 中,依序前往「系統」>「設定」>「資料整合」。
前往「第三方驅動程式」,然後點選「上傳」。
瀏覽本機目錄,然後選取從 適用於 BigQuery 的 ODBC 和 JDBC 驅動程式下載的驅動程式檔案。
按一下「上傳」。
按一下「Sync」,同步處理驅動程式變更。同步處理完成後,您就可以使用資料流程與連線。
建立與 Google Cloud 專案的連線
如要將資料從 SAP S/4HANA 來源系統複製到目標 BigQuery 資料集,您必須在 SAP Datasphere 租用戶中建立複製流程。
如要建立與 Google Cloud 專案的連線,請執行下列步驟:
在 SAP Datasphere 中,前往「Connections」,然後在您的空間中建立新的連線。
將連線類型設為「Google BigQuery」。
在「連線詳細資料」部分中,指定下列項目:
- 專案 ID:請輸入 Google Cloud 專案 ID,並使用小寫字母。
- 位置:輸入 Google Cloud 專案位置。
在「憑證」部分,上傳用於驗證的 JSON 金鑰檔案。如需更多資訊,請參閱「下載服務帳戶的 JSON 金鑰」。
如要驗證 SAP Datasphere 和 BigQuery 之間的連線,請選取連線,然後按一下「驗證連線」圖示。
如要進一步瞭解 SAP 如何連線至 BigQuery 並存取資料,請參閱「Google BigQuery 連線」一文。
建立複製作業
您可以建立複製流程,將 SAP 資料從 SAP S/4HANA 來源系統複製到目標 BigQuery 資料集。
如要透過 SLT 建立複製流程,請執行下列步驟:
在 SAP Datasphere 中,前往「Data Builder」,然後點選「New Replication Flow」。
指定複製流程的來源:
選取您在「建立與 SAP S/4HANA 來源系統的連線」一節中建立的「SAP ABAP」類型來源連線。
選取「SLT-SAP LT 複製伺服器」做為來源容器,然後在「建立大量轉移設定」一節中新增設定的大量轉移 ID。
視需要新增來源物件。
詳情請參閱 SAP 說明文件「新增來源」。
選取其中一種載入類型:僅初始或初始和差異。
指定複製流程的目標環境:
選取連結至 Google Cloud 包含目標 BigQuery 資料集的專案。
選取要複製資料的容器,也就是 BigQuery 中的資料集。
詳情請參閱 SAP 說明文件「新增目標」。
建立對應項目,指定來源資料在轉換為目標時的變更方式。詳情請參閱 SAP 說明文件「定義對應」。
儲存複製流程。
部署複製流程。
詳情請參閱 SAP 說明文件「建立複製作業流程」。
執行複製作業流程
設定及部署複製流程後,您就可以執行該流程。
如要執行複製流程,請選取複製流程,然後按一下「執行」。
完成後,「資源」面板中的「執行狀態」部分會更新。詳情請參閱 SAP 說明文件「執行流程」。
監控複製流程狀態
您可以查看及監控複製流程的執行詳細資料。
如要監控複製流程狀態,請執行下列步驟:
在 SAP Datasphere 中,依序前往「Data Integration Monitor」>「Flows」。
選取左側面板中的流程執行作業,即可查看詳細資料。
詳情請參閱 SAP 說明文件「監控流程」。
驗證 BigQuery 中的複製資料
複製流程執行完畢後,請在 BigQuery 中驗證複製的資料表和資料。
如要驗證 BigQuery 中的複製資料,請執行下列步驟:
前往 Google Cloud 控制台的「BigQuery」頁面。
在「Explorer」部分中展開專案,查看資料集及其資料表。
選取所需表格。表格資訊會顯示在頁面右側內容窗格中的分頁下方。
在表格資訊部分,按一下下列標題即可查看 SAP 資料:
- 預覽:顯示從 SAP S/4HANA 來源系統複製的資料。
- 詳細資料:顯示資料表大小、資料列總數和其他詳細資料。