Accelerator SAP Procure to Pay

Akselerator SAP untuk proses procure-to-pay adalah contoh penerapan fitur SAP Table Batch Source di Cloud Data Fusion. Akselerator SAP Procure to Pay membantu Anda memulai saat membuat proses dan analisis procure-to-pay end-to-end. Notebook ini mencakup contoh pipeline Cloud Data Fusion yang dapat Anda konfigurasi untuk melakukan tugas berikut:

  • Hubungkan ke sumber data SAP Anda.
  • Lakukan transformasi pada data Anda di Cloud Data Fusion.
  • Simpan data Anda di BigQuery.
  • Siapkan analisis di Looker. Hal ini mencakup dasbor dan model ML, tempat Anda dapat menentukan indikator performa utama (KPI) untuk proses beli-bayar Anda.

Panduan ini menjelaskan contoh penerapan, dan cara memulai konfigurasi Anda.

Akselerator ini tersedia di lingkungan Cloud Data Fusion yang berjalan di versi 6.4.0 dan yang lebih tinggi.

Sebelum memulai

  1. Sign in to your Google Account.

    If you don't already have one, sign up for a new account.

  2. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Go to project selector

  3. Make sure that billing is enabled for your Google Cloud project.

  4. Enable the Cloud Data Fusion and BigQuery APIs.

    Enable the APIs

  5. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Go to project selector

  6. Make sure that billing is enabled for your Google Cloud project.

  7. Enable the Cloud Data Fusion and BigQuery APIs.

    Enable the APIs

  8. Download SAP Table Batch Source.
  9. Anda harus memiliki akses ke instance Looker dan mengaktifkan fitur labs marketplace untuk menginstal Blok Looker. Anda dapat meminta uji coba gratis untuk mendapatkan akses ke instance.
  10. Keterampilan yang diperlukan

    Untuk menyiapkan akselerator SAP Procure to Pay, Anda memerlukan keterampilan berikut:

    Pengguna wajib

    Konfigurasi yang dijelaskan di halaman ini memerlukan perubahan pada sistem SAP dan di Google Cloud. Anda harus bekerja sama dengan pengguna sistem tersebut berikut untuk melakukan konfigurasi:

    Jenis pengguna Deskripsi
    Admin SAP Administrator untuk sistem SAP Anda yang dapat mengakses situs layanan SAP untuk mendownload software.
    Pengguna SAP Pengguna SAP yang diberi otorisasi untuk terhubung ke sistem SAP.
    Admin GCP Administrator yang mengontrol akses IAM untuk organisasi Anda, yang membuat dan men-deploy akun layanan serta memberikan izin untuk Cloud Data Fusion, BigQuery, dan Looker.
    Pengguna Cloud Data Fusion Pengguna yang diberi otorisasi untuk mendesain dan menjalankan pipeline data di Cloud Data Fusion.
    BigQuery Data Owner Pengguna yang diberi otorisasi untuk membuat, melihat, dan mengubah set data BigQuery.
    Developer Looker Pengguna ini dapat menginstal Blok Looker melalui Marketplace. Mereka harus memiliki izin develop, manage_model, dan deploy.

    Peran IAM yang diperlukan

    Dalam contoh penerapan akselerator, peran IAM berikut diperlukan. Anda mungkin memerlukan peran tambahan jika project Anda mengandalkan layanan Google Cloud lainnya.

    Ringkasan proses

    Anda dapat menerapkan akselerator di project dengan mengikuti langkah-langkah berikut:

    1. Konfigurasi sistem SAP ERP dan instal transport SAP yang disediakan.
    2. Siapkan lingkungan Cloud Data Fusion Anda untuk menggunakan plugin SAP Table Batch Source.
    3. Buat set data di BigQuery. Percepatan ini menyediakan set data sampel untuk tabel penahapan, dimensi, dan fakta.
    4. Konfigurasi pipeline Cloud Data Fusion sampel dari akselerator untuk mengintegrasikan data SAP Anda.
    5. Dari Hub Cloud Data Fusion, deploy pipeline yang terkait dengan proses analisis pengadaan hingga pembayaran. Pipeline ini harus dikonfigurasi dengan benar untuk membuat set data BigQuery.
    6. Hubungkan Looker ke project BigQuery.
    7. Instal dan deploy Blok Looker.

    Untuk mengetahui informasi selengkapnya, lihat Menggunakan plugin SAP Table Batch Source.

    Set data sampel di BigQuery

    Dalam penerapan contoh di akselerator ini, set data berikut dibuat di BigQuery.

    Nama set data Deskripsi
    sap_cdf_staging Berisi semua tabel dari sistem Sumber SAP yang diidentifikasi untuk proses bisnis tersebut.
    sap_cdf_dimension Berisi entitas dimensi utama seperti Dimensi Pelanggan dan Dimensi Materi.
    sap_cdf_fact Berisi tabel fakta yang dihasilkan dari pipeline.

    Contoh pipeline di Cloud Data Fusion

    Contoh pipeline untuk akselerator ini tersedia di Hub Cloud Data Fusion.

    Untuk mendapatkan pipeline contoh dari Hub:

    1. Buka instance Anda:
      1. Di konsol Google Cloud , buka halaman Cloud Data Fusion.

      2. Untuk membuka instance di Cloud Data Fusion Studio, klik Instance, lalu klik View instance.

        Buka Instance

    2. Klik Hub.
    3. Pilih tab SAP.
    4. Pilih Pipeline. Halaman contoh pipeline akan terbuka.
    5. Pilih pipeline yang diinginkan untuk mendownloadnya.

    Setiap pipeline berisi makro yang dapat Anda konfigurasi untuk dijalankan di lingkungan Anda.

    Ada tiga jenis pipeline contoh:

    • Pipeline lapisan penyiapan: Set data penyiapan dalam jenis pipeline ini adalah pemetaan langsung ke tabel sumber asli di SAP. Pipeline lapisan penyiapan sampel memiliki nama yang merujuk ke tabel sumber SAP dan tabel target BigQuery. Misalnya, pipeline bernama LFA1_Supplier_Master merujuk ke Tabel Sumber SAP (LFA1) dan tabel target BigQuery (CustomerMaster).
    • Pipeline lapisan dimensi: Kumpulan data lapisan dimensi dalam jenis pipeline ini adalah versi yang dikurasi dan disempurnakan dari kumpulan data penyiapan yang membuat dimensi dan fakta yang diperlukan untuk analisis. Pipeline contoh memiliki nama yang merujuk ke target entity dalam target set data BigQuery. Misalnya, pipeline yang disebut customer_dimension merujuk pada entitas Customer Dimension di set data BigQuery sap_cdf_fact.
    • Pipeline lapisan fakta: Set data lapisan fakta adalah versi set data penyiapan yang dikurasi dan disempurnakan yang membuat fakta yang diperlukan untuk analisis. Pipeline sampel ini memiliki nama yang merujuk ke target entitas dalam set data BigQuery target. Misalnya, pipeline bernama sales_order_fact mengirimkan data hasil seleksi ke entitas Sales Order Fact dalam set data BigQuery sap_cdf_fact yang sesuai.

    Bagian berikut merangkum cara membuat pipeline berfungsi di lingkungan Anda.

    Mengonfigurasi pipeline lapisan penyiapan

    Ada dua langkah konfigurasi untuk pipeline penyiapan:

    1. Konfigurasi sistem SAP sumber.
    2. Konfigurasi set data dan tabel BigQuery target.

    Parameter untuk plugin SAP Table Batch Source

    Plugin SAP Table Batch Source membaca konten tabel atau tampilan SAP. Akselerator menyediakan makro berikut, yang dapat Anda ubah untuk mengontrol koneksi SAP Anda secara terpusat.

    Nama makro Deskripsi Contoh
    ${SAP Client} Klien SAP yang akan digunakan 100
    ${SAP Language} Bahasa logon SAP EN
    ${SAP Application Server Host} Nama server SAP atau alamat IP 10.132.0.47
    ${SAP System Number} Nomor sistem SAP 00
    ${secure(saplogonusername)} Nama pengguna SAP Untuk mengetahui informasi selengkapnya, lihat Menggunakan Kunci Aman.
    ${secure(saplogonpassword)} Sandi pengguna SAP Untuk mengetahui informasi selengkapnya, lihat Menggunakan Kunci Aman.
    ${Number of Rows to Fetch} Membatasi jumlah data yang diekstrak 100000

    Untuk mengetahui informasi selengkapnya, lihat Mengonfigurasi plugin.

    Parameter untuk target BigQuery

    Akselerator menyediakan makro berikut untuk target BigQuery.

    Konfigurasi konektor target BigQuery

    Nama makro Deskripsi Contoh
    ${ProjectID} ID project tempat set data BigQuery telah dibuat. sap_adaptor
    ${Dataset} Set data target sap_cdf_staging

    Contoh pipeline yang digunakan untuk KPI proses pengadaan hingga pembayaran

    Entitas bisnis utama berikut dalam proses pengadaan hingga pembayaran sesuai dengan contoh pipeline dalam akselerator. Pipeline ini mengirimkan data yang mendukung analisis tentang entitas ini.

    Entitas bisnis utama Nama pipeline yang sesuai
    Supplier Tabel sumber SAP mencatat detail tentang supplier yang terkait dengan bisnis. Informasi dari tabel ini berkontribusi pada supplier_dimension di lapisan dimensi data warehouse. LFA1_SupplierMaster
    LFB1_SupplierMasterCompanyCode
    BUT000_BPGeneralInformation
    Material atau Product adalah komoditas yang diperdagangkan antara perusahaan dan pelanggannya. Informasi dari tabel ini berkontribusi pada material_dimension di lapisan dimensi data warehouse. MARA_MaterialMaster
    Proses pengadaan hingga pembayaran dimulai dengan pesanan, yang mencakup jumlah pesanan dan detail tentang item materi. EKKO_PurchaseOrderHeader
    EKPO_PurchaseOrdertItem
    Sub-proses Penerimaan Barang, yang mencakup detail pergerakan tentang item Material. MATDOC_GoodsReceipt
    Sub-proses Pembuatan Invoice, yang mencakup detail dokumen invoice yang diminta. RBKP_InvoiceHeader
    RSEG_InvoiceLineItem
    Proses pengadaan hingga pembayaran berakhir saat pembayaran invoice dicatat dalam sistem Anda. ACDOCA_UniversalJournalItem

    Semua pipeline penyiapan Cloud Data Fusion

    Contoh pipeline penyiapan Cloud Data Fusion berikut tersedia di akselerator:

    • ACDOCA_JournalLedgerDetails
    • ADR6_SupplierMasterEMailDetails
    • ADRC_SupplierMasterAddressDetails
    • BKPF_AccountingDocumentHeaderDetail
    • BSEG_AccountDocumentItem
    • BUT000_BusinessPartnerGeneralDataDetails
    • BUT020_BusinessPartnerAddressDetails
    • CEPCT_ProfitCenterDescription
    • EBAN_PurchaseRequisitionDetails
    • EKBE_PurchaseOrderHistoryDetail
    • EKET_PurchaseOrderScheduleLinesDetail
    • EKKO_PurchaseOrderHeaderDetail
    • EKPO_PurchaseOrderItemDetail
    • FINSC_BTTYPE_T_BusinessTransactionTypeDescription
    • FINSC_LEDGER_T_JournalLedgerDescription
    • LFA1_SupplierMasterDetails
    • LFB1_SupplierMasterCompanyCodeDetails
    • MARA_MaterialMaster
    • MATDOC_MaterialMovementDetails
    • MKPF_MaterialMovementHeaderDetail
    • MSEG_MaterialMovementItemDetail
    • RBKP_InvoiceReceiptHeaderDetail
    • RSEG_IncomingInvoiceItemDetail
    • T001_CompanyCodes
    • T001_CompanyCodes
    • T001K_ValuationAreaDetails
    • T001L_MaterialStorageLocation
    • T001W_PlantDetails
    • T002T_LanguageKeyDescription
    • T003T_AccountingDocumentTypeDescription
    • T005_CountryMaster
    • T006A_UnitOfMeasure
    • T007S_PurchaseSalesTaxCodeDescription
    • T023T_MaterialGroupDescription
    • T024_PurchasingGroupsDetails
    • T024E_PurchasingOrganizationsDetails
    • T024W_PlantPurchasingOrganizationsDetails
    • T156HT_MaterialMovementTypeDescription
    • T161T_PurchasingDocumentTypeDescription
    • T163M_ConfirmationCategoryDescription
    • T16FE_PurchaseDocumentReleaseIndicatorDescription
    • TBSLT_PostingKeyDescription
    • TCURT_CurrencyCodesText
    • TKA01_ControllingAreaMaster

    Mengonfigurasi pipeline lapisan dimensi

    Anda dapat mengekstrak KPI dari tabel SAP sumber. Untuk menyiapkan data untuk analisis, atur data dalam tabel sumber agar sesuai dengan struktur skema tabel BigQuery.

    Akselerator membuat contoh tabel berikut:

    Nama tabel Deskripsi tabel
    Supplier_dimension Daftar pilihan* Pemasok dan fakta terkaitnya seperti informasi umum pemasok dan informasi terkait penjualan pemasok.
    Material_dimension Daftar Materi yang dikurasi dan fakta terkait seperti nomor SKU, hierarki produk, dan klasifikasi.
    Purchase_Order_Fact Daftar pesanan pembelian, termasuk organisasi pembelian, grup, dan jenis pesanan.
    Goods_Receipt_Fact Daftar tanda terima barang yang dikurasi, termasuk informasi jenis pergerakan dan pusat laba.
    Invoice_Fact Daftar informasi terkait Invoice yang dikurasi, termasuk jenis Invoice, jumlah item, nilai, dan tanggal postingan Invoice.
    Accounting_Fact Daftar postingan akuntansi yang dikurasi untuk setiap item baris pesanan pembelian.

    *Dalam konteks ini, daftar pilihan berasal dari logika bisnis yang diterapkan ke daftar kolom yang dipilih.

    Percepatan ini membangun lapisan dimensi set data BigQuery menggunakan skrip SQL, yang dapat Anda ubah untuk project Anda. Misalnya, Anda dapat menyesuaikan skrip ini untuk menambahkan lebih banyak kolom ke entity set data BigQuery target.

    Transformasi ke skema bintang: Nama pipeline eksekutor BigQuery

    Pipeline eksekutor BigQuery berikut di Cloud Data Fusion memuat data ke dalam tabel dimensi dan fakta:

    Semua pipeline transformasi dimensi:

    • Supplier_dimension
    • Material_dimension
    • Purchase_Order_Fact
    • Goods_Receipt_Fact
    • Invoice_Fact
    • Accounting_Fact

    Konfigurasi eksekutor BigQuery

    Nama makro Contoh
    ${ProjectID} sap_adaptor
    ${StagingDatasetName} sap_cdf_staging
    ${TargetDatasetName} sap_cdf_dimension

    Menghubungkan Looker ke project BigQuery

    Untuk menghubungkan Looker ke BigQuery, lihat dokumentasi Looker tentang koneksi BigQuery.

    Menginstal blok

    Anda dapat mengakses Blok Looker SAP di GitHub.

    Looker Block menginstal model LookML yang telah dikonfigurasi sebelumnya dengan dua lingkungan Jelajah dan dua dasbor.

    Langkah berikutnya