Akselerator SAP untuk proses order to cash adalah contoh penerapan fitur SAP Table Batch Source di Cloud Data Fusion. Akselerator ini membantu Anda memulai saat membuat proses dan analisis order to cash menyeluruh. Rilis ini mencakup contoh pipeline Cloud Data Fusion yang dapat Anda konfigurasi untuk melakukan tugas berikut:
- Hubungkan ke sumber data SAP Anda.
- Lakukan transformasi pada data Anda di Cloud Data Fusion.
- Simpan data Anda di BigQuery.
- Siapkan analisis di Looker. Hal ini mencakup dasbor dan model ML, tempat Anda dapat menentukan indikator performa utama (KPI) untuk proses order to cash.
Panduan ini menjelaskan contoh penerapan, dan cara memulai konfigurasi Anda.
Akselerator ini tersedia di lingkungan Cloud Data Fusion yang berjalan di versi 6.3.0 dan yang lebih baru.
Sebelum memulai
-
Sign in to your Google Account.
If you don't already have one, sign up for a new account.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
-
Make sure that billing is enabled for your Google Cloud project.
-
Enable the Cloud Data Fusion and BigQuery APIs.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
-
Make sure that billing is enabled for your Google Cloud project.
-
Enable the Cloud Data Fusion and BigQuery APIs.
- Download SAP Table Batch Source.
- Anda harus memiliki akses ke instance Looker dan mengaktifkan fitur labs marketplace untuk menginstal Blok Looker. Anda dapat meminta uji coba gratis untuk mendapatkan akses ke instance.
- Keahlian dalam sistem dan konfigurasi ERP lokal SAP
- Memahami Cloud Data Fusion
- Memahami BigQuery
- Pemahaman tentang Looker
- Memahami akun layanan dan kontrol akses Identity and Access Management (IAM)
- Memahami analisis data, termasuk menulis kueri SQL
- Memahami model data multidimensi Kimball
- Admin BigQuery
(
roles/bigquery.admin
) - BigQuery Data Owner
(
roles/bigquery.dataOwner
) - Storage Object Viewer
(
roles/storage.objectViewer
) - Runner Cloud Data Fusion
(
roles/datafusion.runner
) harus diberikan ke akun layanan Dataproc - Konfigurasi sistem SAP ERP dan instal transport SAP yang disediakan.
- Siapkan lingkungan Cloud Data Fusion Anda untuk menggunakan plugin SAP Table Batch Source.
- Buat set data di BigQuery. Percepatan ini menyediakan set data sampel untuk tabel penahapan, dimensi, dan fakta.
- Konfigurasi pipeline Cloud Data Fusion sampel dari akselerator untuk mengintegrasikan data SAP Anda.
- Dari Hub Cloud Data Fusion, deploy pipeline yang terkait dengan proses analisis order to cash. Pipeline ini harus dikonfigurasi dengan benar untuk membuat set data BigQuery.
- Hubungkan Looker ke project BigQuery.
- Instal dan deploy Blok Looker.
- Buka instance Anda:
Di konsol Google Cloud , buka halaman Cloud Data Fusion.
Untuk membuka instance di Cloud Data Fusion Studio, klik Instance, lalu klik View instance.
- Klik Hub.
- Pilih tab SAP.
- Pilih Pipeline. Halaman contoh pipeline akan terbuka.
- Pilih pipeline yang diinginkan untuk mendownloadnya.
- Pipeline lapisan penyiapan: Set data penyiapan dalam jenis
pipeline ini adalah pemetaan langsung ke tabel sumber asli di SAP. Pipeline lapisan penyiapan sampel memiliki nama yang merujuk ke tabel sumber SAP dan tabel target BigQuery. Misalnya, pipeline
bernama KNA1_Customer_Master merujuk ke Tabel Sumber SAP (
KNA1
) dan tabel target BigQuery (CustomerMaster
). - Pipeline lapisan dimensi: Kumpulan data lapisan dimensi dalam jenis pipeline ini adalah versi yang dikurasi dan disempurnakan dari kumpulan data penyiapan yang membuat dimensi dan fakta yang diperlukan untuk analisis. Pipeline
contoh memiliki nama yang merujuk ke target entity dalam target
set data BigQuery. Misalnya, pipeline yang disebut
customer_dimension merujuk ke entitas Customer Dimension di
set data BigQuery
sap_cdf_fact
. - Pipeline lapisan fakta: Set data lapisan fakta adalah versi set data penyiapan yang dikurasi dan disempurnakan yang membuat fakta yang diperlukan untuk analisis. Pipeline sampel ini memiliki nama yang merujuk ke target entitas dalam set data BigQuery target.
Misalnya, pipeline bernama sales_order_fact mengirimkan data yang dikurasi ke entitas Sales Order Fact di set data BigQuery yang sesuai
sap_cdf_fact
. - Konfigurasi sistem SAP sumber.
- Konfigurasi set data dan tabel BigQuery target.
- KNA1_CustomerMaster
- KNVV_CustomerSales
- KNVP_CustomerPartnerFunction
- MARA_MaterialMaster
- MARD_MaterialStorageLocation
- VBAK_SalesDocumentHeader
- VBAP_SalesDocumentItem
- VBEP_SalesDocumentSchedule
- LIKP_DeliveryHeader
- LIPS_DeliveryItem
- ACDOCA_UniversalJournalItem
- VBRK_BillingHeader
- VBRP_BillingLineItem
- BSEG_AccountDocumentItem
- BSID_AccDocCustOpenItem
- BSAD_AccDocCustCloseItem
- T001_CompanyCodes
- T006A_UnitOfMeasure
- T024D_MRPControllers
- T042ZT_PaymentMethodText
- T189T_PriceListCategory
- TCURC_CurrencyCodes
- TCURT_CurrencyCodesText
- TCURW_ExchangeRateType
- TINCT_CustomerIncotermsText
- TVAKT_SalesDocumentType
- TVAPT_SalesDocumentItemCategory
- TVFST_BillingBlockReasonText
- TVLST_DeliveryBlockText
- TVTWT_DistributionChannelText
- MAKT_MaterialDescription
- T005T_CountryNames
- T005U_RegionText
- TVAST_SalesDocBlockReasonText
- T077X_AccountGroupName
- T134T_MaterialTypeDescription
- T023T_MaterialGroupDescription
- TSPAT_SalesDivisionText
- TVKOV_DistributionChannel
- TVTA_SalesArea
- TVKOT_SalesOrgText
- TVAUT_SalesDocumentOrderText
- TVSBT_ShippingConditionText
- TVAG_SalesDocRejectionReasons
- TVAGT_SalesDocRejectionReasonDescription
customer_dimension
material_dimension
sales_order_fact
revenue_fact
- Pelajari lebih lanjut Cloud Data Fusion.
- Pelajari lebih lanjut SAP di Google Cloud.
- Pelajari BigQuery lebih lanjut.
- Pelajari Blok Looker lebih lanjut.
Keterampilan yang diperlukan
Untuk menyiapkan akselerator SAP Order to Cash, Anda memerlukan keterampilan berikut:
Pengguna wajib
Konfigurasi yang dijelaskan di halaman ini memerlukan perubahan pada sistem SAP dan di Google Cloud. Anda harus bekerja sama dengan pengguna sistem tersebut berikut untuk melakukan konfigurasi:
Jenis pengguna | Deskripsi |
---|---|
Admin SAP | Administrator untuk sistem SAP Anda yang dapat mengakses situs layanan SAP untuk mendownload software. |
Pengguna SAP | Pengguna SAP yang diberi otorisasi untuk terhubung ke sistem SAP. |
Admin GCP | Administrator yang mengontrol akses IAM untuk organisasi Anda, yang membuat dan men-deploy akun layanan serta memberikan izin untuk Cloud Data Fusion, BigQuery, dan Looker. |
Pengguna Cloud Data Fusion | Pengguna yang diberi otorisasi untuk mendesain dan menjalankan pipeline data di Cloud Data Fusion. |
BigQuery Data Owner | Pengguna yang diberi otorisasi untuk membuat, melihat, dan mengubah set data BigQuery. |
Developer Looker | Pengguna ini dapat menginstal Blok Looker melalui
Marketplace.
Mereka harus memiliki izin develop , manage_model , dan
deploy . |
Peran IAM yang diperlukan
Dalam contoh penerapan akselerator, peran IAM berikut diperlukan. Anda mungkin memerlukan peran tambahan jika project Anda mengandalkan layanan Google Cloud lainnya.
Ringkasan proses
Anda dapat menerapkan akselerator di project dengan langkah-langkah berikut:
Untuk mengetahui informasi selengkapnya, lihat Menggunakan plugin SAP Table Batch Source.
Set data sampel di BigQuery
Dalam penerapan contoh di akselerator ini, set data berikut dibuat di BigQuery.
Nama set data | Deskripsi |
---|---|
sap_cdf_staging |
Berisi semua tabel dari sistem Sumber SAP yang diidentifikasi untuk proses bisnis tersebut. |
sap_cdf_dimension |
Berisi entitas dimensi utama seperti Dimensi Pelanggan dan Dimensi Materi. |
sap_cdf_fact |
Berisi tabel fakta yang dihasilkan dari pipeline. |
Contoh pipeline di Cloud Data Fusion
Contoh pipeline untuk akselerator ini tersedia di Hub Cloud Data Fusion.
Untuk mendapatkan pipeline contoh dari Hub:
Setiap pipeline berisi makro yang dapat Anda konfigurasi untuk dijalankan di lingkungan Anda.
Ada tiga jenis pipeline contoh:
Bagian berikut merangkum cara membuat pipeline berfungsi di lingkungan Anda.
Mengonfigurasi pipeline lapisan penyiapan
Ada dua langkah konfigurasi untuk pipeline penyiapan:
Parameter untuk plugin SAP Table Batch Source
Plugin SAP Table Batch Source membaca konten tabel atau tampilan SAP. Akselerator menyediakan makro berikut, yang dapat Anda ubah untuk mengontrol koneksi SAP Anda secara terpusat.
Nama makro | Deskripsi | Contoh |
---|---|---|
${SAP Client} |
Klien SAP yang akan digunakan | 100 |
${SAP Language} |
Bahasa logon SAP | EN |
${SAP Application Server Host} |
Nama server SAP atau alamat IP | 10.132.0.47 |
${SAP System Number} |
Nomor sistem SAP | 00 |
${secure(saplogonusername)} |
Nama pengguna SAP | Untuk mengetahui informasi selengkapnya, lihat Menggunakan Kunci Aman. |
${secure(saplogonpassword)} |
Sandi pengguna SAP | Untuk mengetahui informasi selengkapnya, lihat Menggunakan Kunci Aman. |
${Number of Rows to Fetch} |
Digunakan untuk membatasi jumlah data yang diekstrak. | 100000 |
Untuk mengetahui informasi selengkapnya, lihat Mengonfigurasi plugin.
Parameter untuk target BigQuery
Akselerator menyediakan makro berikut untuk target BigQuery.
Konfigurasi konektor target BigQuery
Nama makro | Deskripsi | Contoh |
---|---|---|
${ProjectID} |
ID project tempat set data BigQuery telah dibuat. | sap_adaptor |
${Dataset} |
Set data target | sap_cdf_staging |
Contoh pipeline yang digunakan untuk KPI order to cash
Entitas bisnis utama berikut dalam proses order to cash sesuai dengan contoh pipeline dalam akselerator. Pipeline ini mengirimkan data yang mendukung analisis tentang entitas ini.
Entitas bisnis utama | Nama pipeline contoh yang sesuai |
---|---|
Customer dapat berupa orang atau entitas yang berbisnis dengan organisasi. Ketiga tabel sumber SAP ini mencatat detail tentang pelanggan yang terkait dengan bisnis. Informasi dari tabel ini berkontribusi pada customer_dimension di set data sap_cdf_dimension .
|
KNA1_CustomerMaster KNVV_CustomerSales KNVP_CustomerPartnerFunction |
Material adalah komoditas yang diperdagangkan antara
perusahaan dan pelanggannya. Informasi dari tabel sumber SAP ini berkontribusi pada material_dimension dalam set data sap_cdf_dimension .
|
MARA_MaterialMaster MARD_MaterialStorageLocation |
Subproses pengelolaan pesanan dari proses order to cash (saat sistem Anda menerima pesanan dari pelanggan). |
VBAK_SalesDocumentHeader VBAP_SalesDocumentItem VBEP_SalesDocumentSchedule |
Sub-proses pemenuhan pesanan dan pengiriman. |
LIKP_DeliveryHeader LIPS_DeliveryItem |
Sub-proses pembuatan invoice dan pembayaran pelanggan (saat pelanggan menerima invoice). |
VBRK_BillingHeader VBRP_BillingLineItem |
Sub-proses pelaporan dan piutang (saat pembayaran dicatat dalam sistem Anda). | ACDOCA_UniversalJournalItem |
Semua pipeline penyiapan Cloud Data Fusion
Contoh pipeline penyiapan Cloud Data Fusion berikut tersedia di akselerator:
Mengonfigurasi pipeline lapisan dimensi
Anda dapat mengekstrak KPI dari tabel SAP sumber. Untuk menyiapkan data untuk analisis, atur data dalam tabel sumber agar sesuai dengan struktur skema tabel BigQuery.
Akselerator membuat empat tabel contoh berikut:
Nama tabel | Deskripsi tabel |
---|---|
customer_dimension | Daftar pilihan* Pelanggan dan fakta terkaitnya seperti klasifikasi pelanggan, hierarki pelanggan, dan informasi terkait penjualan pelanggan. |
material_dimension | Daftar Materi yang dikurasi dan fakta terkait seperti nomor SKU, hierarki produk, dan klasifikasi. |
sales_order_fact | Daftar informasi penjualan yang dikurasi seperti jenis pesanan, visibilitas status pesanan, jumlah pesanan, dan nilai pesanan. Kolom ini biasanya digabungkan untuk menghasilkan KPI pengelolaan pesanan seperti Pesanan Terbuka, Pesanan Dikonfirmasi, Pesanan Ditolak, dan Pesanan yang Ditagih. |
revenue_fact | Informasi akuntansi mendetail yang dihasilkan oleh Penjualan Materi kepada Pelanggan. Diperoleh dari tabel Akuntansi, tabel fakta ini berisi informasi yang dapat memberikan insight melalui KPI Pendapatan, termasuk Penjualan Kotor, Penjualan Bersih Sebelum Diskon, Penjualan Bersih Setelah Diskon, atau Tren. |
*Dalam konteks ini, daftar pilihan berasal dari logika bisnis yang diterapkan ke daftar kolom yang dipilih.
Percepatan ini membangun lapisan dimensi set data BigQuery menggunakan skrip SQL, yang dapat Anda ubah untuk project Anda. Misalnya, Anda dapat menyesuaikan skrip ini untuk menambahkan lebih banyak kolom ke entity set data BigQuery target.
Transformasi ke skema bintang: Nama pipeline eksekutor BigQuery
Pipeline eksekutor BigQuery berikut di Cloud Data Fusion memuat data ke dalam tabel dimensi dan fakta:
Semua pipeline transformasi dimensi:
Konfigurasi eksekutor BigQuery
Nama makro | Contoh |
---|---|
${ProjectID} |
sap_adaptor |
${StagingDatasetName} |
sap_cdf_staging |
${TargetDatasetName} |
sap_cdf_dimension |
Menghubungkan Looker ke project BigQuery
Untuk menghubungkan Looker ke BigQuery, lihat dokumentasi Looker tentang koneksi BigQuery.
Menginstal blok
Anda dapat mengakses Blok Looker SAP di GitHub.
Looker Block menginstal model LookML yang telah dikonfigurasi sebelumnya dengan dua lingkungan Jelajah dan dua dasbor.