Acceleratore SAP Procure to Pay

L'acceleratore SAP per il processo Procure-to-Pay è un esempio di implementazione della funzionalità SAP Table Batch Source in Cloud Data Fusion. L'acceleratore SAP Procure to Pay ti aiuta a iniziare quando crei il processo Procure to Pay end-to-end e l'analisi. Include pipeline Cloud Data Fusion di esempio che puoi configurare per eseguire le seguenti attività:

  • Connettiti all'origine dati SAP.
  • Esegui trasformazioni sui dati in Cloud Data Fusion.
  • Archivia i dati in BigQuery.
  • Configura l'analisi in Looker. Sono inclusi dashboard e un modello ML, in cui puoi definire gli indicatori chiave di prestazione (KPI) per il processo di approvvigionamento e pagamento.

Questa guida descrive l'implementazione di esempio e come iniziare con le configurazioni.

L'acceleratore è disponibile negli ambienti Cloud Data Fusion in esecuzione nella versione 6.4.0 e successive.

Prima di iniziare

  1. Sign in to your Google Account.

    If you don't already have one, sign up for a new account.

  2. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Go to project selector

  3. Make sure that billing is enabled for your Google Cloud project.

  4. Enable the Cloud Data Fusion and BigQuery APIs.

    Enable the APIs

  5. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Go to project selector

  6. Make sure that billing is enabled for your Google Cloud project.

  7. Enable the Cloud Data Fusion and BigQuery APIs.

    Enable the APIs

  8. Scarica SAP Table Batch Source.
  9. Per installare il blocco Looker, devi avere accesso a un'istanza Looker e aver attivato la funzionalità Labs di Marketplace. Puoi richiedere una prova gratuita per accedere a un'istanza.
  10. Competenze richieste

    La configurazione dell'acceleratore SAP Procure to Pay richiede le seguenti competenze:

    Utenti obbligatori

    Le configurazioni descritte in questa pagina richiedono modifiche al sistema SAP e in Google Cloud. Per eseguire le configurazioni, devi collaborare con i seguenti utenti di questi sistemi:

    Tipo di utente Descrizione
    Amministratore SAP Amministratore del sistema SAP che può accedere al sito di servizi SAP per scaricare il software.
    Utente SAP Un utente SAP autorizzato a connettersi a un sistema SAP.
    Amministratore GCP Amministratore che controlla l'accesso IAM per la tua organizzazione, che crea e implementa service account e concede autorizzazioni per Cloud Data Fusion, BigQuery e Looker.
    Utente Cloud Data Fusion Utenti autorizzati a progettare ed eseguire pipeline di dati in Cloud Data Fusion.
    Proprietario dati BigQuery Utenti autorizzati a creare, visualizzare e modificare set di dati BigQuery.
    Sviluppatore Looker Questi utenti possono installare il blocco Looker tramite Marketplace. Devono disporre delle autorizzazioni develop, manage_model e deploy.

    Ruoli IAM richiesti

    Nell'implementazione di esempio dell'acceleratore sono necessari i seguenti ruoli IAM. Potresti aver bisogno di ruoli aggiuntivi se il tuo progetto si basa su altri servizi Google Cloud.

    Panoramica della procedura

    Per implementare l'acceleratore nel tuo progetto, segui questi passaggi:

    1. Configura il sistema SAP ERP e installa il trasporto SAP fornito.
    2. Configura l'ambiente Cloud Data Fusion per utilizzare il plug-in SAP Table Batch Source.
    3. Crea set di dati in BigQuery. L'acceleratore fornisce set di dati di esempio per le tabelle di staging, dimensionali e dei fatti.
    4. Configura le pipeline Cloud Data Fusion di esempio dell'acceleratore per integrare i tuoi dati SAP.
    5. Dal hub Cloud Data Fusion, esegui il deployment delle pipeline associate al processo di analisi procure-to-pay. Queste pipeline devono essere configurate correttamente per creare il set di dati BigQuery.
    6. Connetti Looker al progetto BigQuery.
    7. Installa e implementa il blocco Looker.

    Per ulteriori informazioni, vedi Utilizzare il plug-in SAP Table Batch Source.

    Set di dati di esempio in BigQuery

    Nell'implementazione di esempio di questo acceleratore, in BigQuery vengono creati i seguenti set di dati.

    Nome del set di dati Descrizione
    sap_cdf_staging Contiene tutte le tabelle del sistema di origine SAP identificate per quel processo aziendale.
    sap_cdf_dimension Contiene le entità delle dimensioni chiave, come la dimensione Cliente e la dimensione Materiale.
    sap_cdf_fact Contiene le tabelle dei fatti generate dalla pipeline.

    Pipeline di esempio in Cloud Data Fusion

    Le pipeline di esempio per questo acceleratore sono disponibili in Cloud Data Fusion Hub.

    Per ottenere le pipeline di esempio dall'hub:

    1. Vai all'istanza:
      1. Nella Google Cloud console, vai alla pagina Cloud Data Fusion.

      2. Per aprire l'istanza in Cloud Data Fusion Studio, fai clic su Istanze e poi su Visualizza istanza.

        Vai a Istanze

    2. Fai clic su Hub.
    3. Seleziona la scheda SAP.
    4. Seleziona Pipeline. Si apre una pagina di pipeline di esempio.
    5. Seleziona le pipeline che vuoi scaricare.

    Ciascuna pipeline contiene macro che puoi configurare per l'esecuzione nel tuo ambiente.

    Esistono tre tipi di pipeline di esempio:

    • Pipeline del livello di staging: il set di dati di staging in questo tipo di pipeline è una mappatura diretta alla tabella di origine originale in SAP. Le pipeline di staging di esempio hanno nomi che fanno riferimento alla tabella di origine SAP e alla tabella di destinazione BigQuery. Ad esempio, una pipeline denominata LFA1_Supplier_Master fa riferimento alla tabella di origine SAP (LFA1) e alla tabella di destinazione BigQuery (CustomerMaster).
    • Pipeline del livello delle dimensioni: il set di dati del livello delle dimensioni in questo tipo di pipeline è una versione curata e perfezionata del set di dati di staging che crea le dimensioni e i fatti necessari per l'analisi. Le pipeline di esempio hanno nomi che fanno riferimento all'entità di destinazione nel set di dati BigQuery di destinazione. Ad esempio, una pipeline chiamata customer_dimension fa riferimento all'entità Dimensione cliente nel set di dati BigQuery sap_cdf_fact.
    • Pipeline del livello dei fatti: il set di dati del livello dei fatti è una versione curata e ottimizzata del set di dati di staging che crea i fatti necessari per l'analisi. Queste pipeline di esempio hanno nomi che fanno riferimento all'entità di destinazione nel set di dati BigQuery di destinazione. Ad esempio, una pipeline denominata sales_order_fact fornisce dati curati all'entità Sales Order Fact nel set di dati BigQuery corrispondente sap_cdf_fact.

    Le sezioni seguenti riepilogano come far funzionare le pipeline nel tuo ambiente.

    Configura le pipeline del livello di staging

    La configurazione delle pipeline di staging prevede due passaggi:

    1. Configura il sistema SAP di origine.
    2. Configura il set di dati e la tabella BigQuery di destinazione.

    Parametri per il plug-in SAP Table Batch Source

    Il plug-in SAP Table Batch Source legge il contenuto di una tabella o vista SAP. L'acceleratore fornisce le seguenti macro, che puoi modificare per controllare centralmente le connessioni SAP.

    Nome della macro Descrizione Esempio
    ${SAP Client} Client SAP da utilizzare 100
    ${SAP Language} Lingua di accesso a SAP EN
    ${SAP Application Server Host} Nome o indirizzo IP del server SAP 10.132.0.47
    ${SAP System Number} Numero di sistema SAP 00
    ${secure(saplogonusername)} Nome utente SAP Per ulteriori informazioni, consulta Utilizzo delle chiavi sicure.
    ${secure(saplogonpassword)} Password utente SAP Per ulteriori informazioni, vedi Utilizzare le chiavi sicure.
    ${Number of Rows to Fetch} Limita il numero di record estratti 100000

    Per saperne di più, consulta Configurazione del plug-in.

    Parametri per la destinazione BigQuery

    L'acceleratore fornisce le seguenti macro per i target BigQuery.

    Configurazione del connettore di destinazione BigQuery

    Nome della macro Descrizione Esempio
    ${ProjectID} L'ID progetto in cui è stato creato il set di dati BigQuery. sap_adaptor
    ${Dataset} Set di dati di destinazione sap_cdf_staging

    Pipeline di esempio utilizzate per i KPI di approvvigionamento e pagamento

    Le seguenti entità aziendali chiave nel processo di approvvigionamento corrispondono alle pipeline di esempio nell'acceleratore. Queste pipeline forniscono i dati che alimentano le analisi su queste entità.

    Entità aziendali chiave Nome della pipeline corrispondente
    Supplier Le tabelle di origine SAP acquisiscono i dettagli del fornitore in relazione all'attività. Le informazioni di queste tabelle contribuiscono al supplier_dimension nel livello dimensionale del data warehouse. LFA1_SupplierMaster
    LFB1_SupplierMasterCompanyCode
    BUT000_BPGeneralInformation
    Material o Product è la merce scambiata tra l'azienda e i suoi clienti. Le informazioni di queste tabelle contribuiscono alla dimensione material_dimension nel livello dimensionale del data warehouse. MARA_MaterialMaster
    Il processo di approvvigionamento inizia con un ordine, che include la quantità dell'ordine e i dettagli sugli articoli materiali. EKKO_PurchaseOrderHeader
    EKPO_PurchaseOrdertItem
    Il sottoprocesso Ricevimento merci, che include i dettagli del movimento degli articoli Materiale. MATDOC_GoodsReceipt
    I sottoprocessi di fatturazione, che includono i dettagli del documento di fattura richiesto. RBKP_InvoiceHeader
    RSEG_InvoiceLineItem
    La procedura di approvvigionamento termina quando il pagamento della fattura viene registrato nel tuo sistema. ACDOCA_UniversalJournalItem

    Tutte le pipeline di staging di Cloud Data Fusion

    Nell'acceleratore sono disponibili i seguenti esempi di pipeline di staging di Cloud Data Fusion:

    • ACDOCA_JournalLedgerDetails
    • ADR6_SupplierMasterEMailDetails
    • ADRC_SupplierMasterAddressDetails
    • BKPF_AccountingDocumentHeaderDetail
    • BSEG_AccountDocumentItem
    • BUT000_BusinessPartnerGeneralDataDetails
    • BUT020_BusinessPartnerAddressDetails
    • CEPCT_ProfitCenterDescription
    • EBAN_PurchaseRequisitionDetails
    • EKBE_PurchaseOrderHistoryDetail
    • EKET_PurchaseOrderScheduleLinesDetail
    • EKKO_PurchaseOrderHeaderDetail
    • EKPO_PurchaseOrderItemDetail
    • FINSC_BTTYPE_T_BusinessTransactionTypeDescription
    • FINSC_LEDGER_T_JournalLedgerDescription
    • LFA1_SupplierMasterDetails
    • LFB1_SupplierMasterCompanyCodeDetails
    • MARA_MaterialMaster
    • MATDOC_MaterialMovementDetails
    • MKPF_MaterialMovementHeaderDetail
    • MSEG_MaterialMovementItemDetail
    • RBKP_InvoiceReceiptHeaderDetail
    • RSEG_IncomingInvoiceItemDetail
    • T001_CompanyCodes
    • T001_CompanyCodes
    • T001K_ValuationAreaDetails
    • T001L_MaterialStorageLocation
    • T001W_PlantDetails
    • T002T_LanguageKeyDescription
    • T003T_AccountingDocumentTypeDescription
    • T005_CountryMaster
    • T006A_UnitOfMeasure
    • T007S_PurchaseSalesTaxCodeDescription
    • T023T_MaterialGroupDescription
    • T024_PurchasingGroupsDetails
    • T024E_PurchasingOrganizationsDetails
    • T024W_PlantPurchasingOrganizationsDetails
    • T156HT_MaterialMovementTypeDescription
    • T161T_PurchasingDocumentTypeDescription
    • T163M_ConfirmationCategoryDescription
    • T16FE_PurchaseDocumentReleaseIndicatorDescription
    • TBSLT_PostingKeyDescription
    • TCURT_CurrencyCodesText
    • TKA01_ControllingAreaMaster

    Configurare le pipeline del livello dimensionale

    Puoi estrarre i KPI dalle tabelle SAP di origine. Per preparare i dati per l'analisi, organizza i dati nella tabella di origine in modo che corrispondano alla struttura dello schema della tabella BigQuery.

    L'acceleratore crea le seguenti tabelle di esempio:

    Nome tabella Descrizione tabella
    Supplier_dimension Elenco selezionato* di fornitori e dei relativi fatti associati, ad esempio informazioni generali sul fornitore e informazioni relative alle vendite.
    Material_dimension Elenco selezionato di materiali e fatti associati, come numero SKU, gerarchia e classificazione dei prodotti.
    Purchase_Order_Fact Elenco degli ordini di acquisto, inclusi organizzazione acquisti, gruppo e tipo di ordine.
    Goods_Receipt_Fact Elenco selezionato di ricevute di merci, incluse informazioni su centro di profitto e tipo di movimento.
    Invoice_Fact Elenco selezionato di informazioni relative alle fatture, tra cui tipo di fattura, quantità, valore e data di registrazione della fattura.
    Accounting_Fact Elenco selezionato di registrazioni contabili per ogni elemento pubblicitario dell'ordine di acquisto.

    *In questo contesto, l'elenco selezionato deriva dalla logica di business applicata all'elenco di colonne selezionato.

    L'acceleratore crea il livello dimensionale del set di dati BigQuery utilizzando script SQL, che puoi modificare per il tuo progetto. Ad esempio, puoi adattare questi script per aggiungere altre colonne alle entità del set di dati BigQuery di destinazione.

    Trasformazione in schema a stella: nomi delle pipeline dell'executor BigQuery

    Le seguenti pipeline dell'executor BigQuery in Cloud Data Fusion caricano i dati nelle tabelle delle dimensioni e dei fatti:

    Tutte le pipeline di trasformazione dimensionale:

    • Supplier_dimension
    • Material_dimension
    • Purchase_Order_Fact
    • Goods_Receipt_Fact
    • Invoice_Fact
    • Accounting_Fact

    Configurazione dell'executor BigQuery

    Nome della macro Esempio
    ${ProjectID} sap_adaptor
    ${StagingDatasetName} sap_cdf_staging
    ${TargetDatasetName} sap_cdf_dimension

    Connetti Looker al progetto BigQuery

    Per connettere Looker a BigQuery, consulta la documentazione di Looker sulle connessioni BigQuery.

    Installa il blocco

    Puoi accedere al blocco SAP Looker su GitHub.

    Il Looker Block installa un modello LookML preconfigurato con due ambienti di esplorazione e due dashboard.

    Passaggi successivi