Acelerador de Procure-to-Pay de SAP

El acelerador de SAP para el proceso de Procure-to-Pay es una implementación de ejemplo de la función Fuente por lotes de tablas de SAP en Cloud Data Fusion. El acelerador del proceso de Procure-to-Pay de SAP te ayuda a empezar cuando creas tu proceso y tus analíticas de Procure-to-Pay completos. Incluye flujos de procesamiento de Cloud Data Fusion de ejemplo que puedes configurar para realizar las siguientes tareas:

  • Conéctate a tu fuente de datos de SAP.
  • Realiza transformaciones en tus datos en Cloud Data Fusion.
  • Almacena tus datos en BigQuery.
  • Configura las analíticas en Looker. Esto incluye paneles de control y un modelo de aprendizaje automático, donde puede definir los indicadores clave de rendimiento (KPIs) de su proceso de compra a pago.

En esta guía se describe la implementación de ejemplo y cómo puedes empezar a usar tus configuraciones.

El acelerador está disponible en entornos de Cloud Data Fusion que ejecutan la versión 6.4.0 o una posterior.

Antes de empezar

  1. Sign in to your Google Account.

    If you don't already have one, sign up for a new account.

  2. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Roles required to select or create a project

    • Select a project: Selecting a project doesn't require a specific IAM role—you can select any project that you've been granted a role on.
    • Create a project: To create a project, you need the Project Creator (roles/resourcemanager.projectCreator), which contains the resourcemanager.projects.create permission. Learn how to grant roles.

    Go to project selector

  3. Verify that billing is enabled for your Google Cloud project.

  4. Enable the Cloud Data Fusion and BigQuery APIs.

    Roles required to enable APIs

    To enable APIs, you need the Service Usage Admin IAM role (roles/serviceusage.serviceUsageAdmin), which contains the serviceusage.services.enable permission. Learn how to grant roles.

    Enable the APIs

  5. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Roles required to select or create a project

    • Select a project: Selecting a project doesn't require a specific IAM role—you can select any project that you've been granted a role on.
    • Create a project: To create a project, you need the Project Creator (roles/resourcemanager.projectCreator), which contains the resourcemanager.projects.create permission. Learn how to grant roles.

    Go to project selector

  6. Verify that billing is enabled for your Google Cloud project.

  7. Enable the Cloud Data Fusion and BigQuery APIs.

    Roles required to enable APIs

    To enable APIs, you need the Service Usage Admin IAM role (roles/serviceusage.serviceUsageAdmin), which contains the serviceusage.services.enable permission. Learn how to grant roles.

    Enable the APIs

  8. Descarga la fuente por lotes de tablas de SAP.
  9. Para instalar el bloque de Looker, debes tener acceso a una instancia de Looker y tener activada la función de Labs de Marketplace. Puedes solicitar una prueba gratuita para acceder a una instancia.
  10. Conocimientos necesarios

    Para configurar el acelerador Procure-to-Pay de SAP, se necesitan las siguientes habilidades:

    Usuarios obligatorios

    Las configuraciones descritas en esta página requieren cambios en tu sistema SAP y en Google Cloud. Para llevar a cabo las configuraciones, debes colaborar con los siguientes usuarios de esos sistemas:

    Tipo de usuario Descripción
    Administrador de SAP Administrador de tu sistema SAP que pueda acceder al sitio de servicios de SAP para descargar software.
    Usuario de SAP Un usuario de SAP autorizado para conectarse a un sistema SAP.
    Administrador de GCP Administrador que controla el acceso de Gestión de Identidades y Accesos (IAM) de tu organización, que crea e implementa cuentas de servicio y que concede permisos para Cloud Data Fusion, BigQuery y Looker.
    Usuario de Cloud Data Fusion Usuarios autorizados para diseñar y ejecutar flujos de datos en Cloud Data Fusion.
    Propietario de datos de BigQuery Usuarios autorizados para crear, ver y modificar conjuntos de datos de BigQuery.
    Desarrollador de Looker Estos usuarios pueden instalar el bloque de Looker a través de Marketplace. Deben tener los permisos develop, manage_model y deploy.

    Roles de gestión de identidades y accesos necesarios

    En la implementación de ejemplo del acelerador, se necesitan los siguientes roles de gestión de identidades y accesos. Es posible que necesites roles adicionales si tu proyecto depende de otros servicios de Google Cloud.

    Descripción general del proceso

    Para implementar el acelerador en tu proyecto, sigue estos pasos:

    1. Configura el sistema ERP de SAP e instala el transporte de SAP proporcionado.
    2. Configura tu entorno de Cloud Data Fusion para usar el complemento de origen de lotes de tabla de SAP.
    3. Crea conjuntos de datos en BigQuery. El acelerador proporciona conjuntos de datos de ejemplo para las tablas de almacenamiento provisional, de dimensiones y de hechos.
    4. Configura las canalizaciones de Cloud Data Fusion de ejemplo del acelerador para integrar tus datos de SAP.
    5. En el centro de Cloud Data Fusion, despliega las canalizaciones asociadas al proceso de analíticas de compra a pago. Estos flujos de procesamiento deben configurarse correctamente para crear el conjunto de datos de BigQuery.
    6. Conecta Looker al proyecto de BigQuery.
    7. Instala y despliega el bloque de Looker.

    Para obtener más información, consulta el artículo sobre cómo usar el complemento de origen de lotes de tabla de SAP.

    Conjuntos de datos de muestra en BigQuery

    En la implementación de ejemplo de este acelerador, se crean los siguientes conjuntos de datos en BigQuery.

    Nombre del conjunto de datos Descripción
    sap_cdf_staging Contiene todas las tablas del sistema de origen de SAP identificadas para ese proceso empresarial.
    sap_cdf_dimension Contiene las entidades de dimensión clave, como la dimensión de cliente y la dimensión de material.
    sap_cdf_fact Contiene las tablas de hechos generadas a partir de la canalización.

    Flujos de procesamiento de ejemplo en Cloud Data Fusion

    En el centro de Cloud Data Fusion hay disponibles flujos de procesamiento de ejemplo para este acelerador.

    Para obtener las canalizaciones de ejemplo del centro:

    1. Ve a tu instancia:
      1. En la Google Cloud consola, ve a la página de Cloud Data Fusion.

      2. Para abrir la instancia en Cloud Data Fusion Studio, haga clic en Instancias y, a continuación, en Ver instancia.

        Ir a Instancias

    2. Haz clic en Concentrador.
    3. Seleccione la pestaña SAP.
    4. Selecciona Pipelines. Se abrirá una página con ejemplos de canalizaciones.
    5. Selecciona las canalizaciones que quieras descargar.

    Cada una de las canalizaciones contiene macros que puedes configurar para que se ejecuten en tu entorno.

    Hay tres tipos de canalizaciones de ejemplo:

    • Pipelines de la capa de almacenamiento provisional: el conjunto de datos de almacenamiento provisional de este tipo de pipeline es una asignación directa a la tabla de origen original de SAP. Las canalizaciones de la capa de stage de ejemplo tienen nombres que hacen referencia a la tabla de origen de SAP y a la tabla de destino de BigQuery. Por ejemplo, una canalización llamada LFA1_Supplier_Master hace referencia a la tabla de origen de SAP (LFA1) y a la tabla de destino de BigQuery (CustomerMaster).
    • Pipelines de la capa de dimensiones: el conjunto de datos de la capa de dimensiones de este tipo de pipeline es una versión seleccionada y refinada del conjunto de datos de la fase de staging que crea las dimensiones y los hechos necesarios para el análisis. Los flujos de procesamiento de datos de ejemplo tienen nombres que hacen referencia a la entidad de destino del conjunto de datos de BigQuery de destino. Por ejemplo, un flujo de procesamiento llamado customer_dimension hace referencia a la entidad Dimension de cliente del conjunto de datos de BigQuery sap_cdf_fact.
    • Pipelines de la capa de hechos: el conjunto de datos de la capa de hechos es una versión seleccionada y refinada del conjunto de datos de la fase de desarrollo que crea los hechos necesarios para el análisis. Estos flujos de procesamiento de datos de ejemplo tienen nombres que hacen referencia a la entidad de destino en el conjunto de datos de BigQuery de destino. Por ejemplo, una canalización llamada sales_order_fact envía datos seleccionados a la entidad de hechos de pedidos de ventas del conjunto de datos de BigQuery correspondiente sap_cdf_fact.

    En las siguientes secciones se resume cómo hacer que las canalizaciones funcionen en tu entorno.

    Configurar flujos de procesamiento de la capa de staging

    Hay dos pasos para configurar las canalizaciones de staging:

    1. Configura el sistema SAP de origen.
    2. Configura el conjunto de datos y la tabla de BigQuery de destino.

    Parámetros del complemento de origen de lotes de tabla de SAP

    El complemento de origen de lotes de tabla de SAP lee el contenido de una tabla o una vista de SAP. La aceleradora proporciona las siguientes macros, que puedes modificar para controlar tus conexiones SAP de forma centralizada.

    Nombre de la macro Descripción Ejemplo
    ${SAP Client} Cliente de SAP que se va a usar 100
    ${SAP Language} Idioma de inicio de sesión de SAP EN
    ${SAP Application Server Host} Nombre o dirección IP del servidor SAP 10.132.0.47
    ${SAP System Number} Número de sistema de SAP 00
    ${secure(saplogonusername)} Nombre de usuario de SAP Para obtener más información, consulta Usar llaves seguras.
    ${secure(saplogonpassword)} Contraseña de usuario de SAP Para obtener más información, consulta Usar llaves seguras.
    ${Number of Rows to Fetch} Limita el número de registros extraídos. 100000

    Para obtener más información, consulta el artículo sobre cómo configurar el complemento.

    Parámetros del destino de BigQuery

    El acelerador proporciona las siguientes macros para los destinos de BigQuery.

    Configuración del conector de destino de BigQuery

    Nombre de la macro Descripción Ejemplo
    ${ProjectID} El ID del proyecto en el que se ha creado el conjunto de datos de BigQuery. sap_adaptor
    ${Dataset} Conjunto de datos de destino sap_cdf_staging

    Flujos de procesamiento de ejemplo usados para los KPIs de compra a pago

    Las siguientes entidades empresariales clave del proceso de compra a pago se corresponden con las canalizaciones de ejemplo del acelerador. Estas canalizaciones proporcionan los datos que impulsan las analíticas sobre estas entidades.

    Entidades empresariales clave Nombre del flujo de procesamiento correspondiente
    Supplier Las tablas de origen de SAP registran los detalles del proveedor en relación con la empresa. La información de estas tablas contribuye a la supplier_dimension de la capa dimensional del almacén de datos. LFA1_SupplierMaster
    LFB1_SupplierMasterCompanyCode
    BUT000_BPGeneralInformation
    Material o Product es el producto que se intercambia entre la empresa y sus clientes. La información de estas tablas contribuye a la dimensión material_dimension de la capa dimensional del almacén de datos. MARA_MaterialMaster
    El proceso de compra a pago comienza con un pedido, que incluye la cantidad y los detalles de los artículos. EKKO_PurchaseOrderHeader
    EKPO_PurchaseOrdertItem
    El subproceso Entrada de mercancías, que incluye detalles sobre el movimiento de los artículos de material. MATDOC_GoodsReceipt
    Los subprocesos de facturación, que incluyen los detalles del documento de factura solicitado. RBKP_InvoiceHeader
    RSEG_InvoiceLineItem
    El proceso de compra a pago finaliza cuando se registra el pago de la factura en tu sistema. ACDOCA_UniversalJournalItem

    Todos los flujos de procesamiento de Cloud Data Fusion

    En el acelerador se encuentran disponibles los siguientes ejemplos de flujos de procesamiento de staging de Cloud Data Fusion:

    • ACDOCA_JournalLedgerDetails
    • ADR6_SupplierMasterEMailDetails
    • ADRC_SupplierMasterAddressDetails
    • BKPF_AccountingDocumentHeaderDetail
    • BSEG_AccountDocumentItem
    • BUT000_BusinessPartnerGeneralDataDetails
    • BUT020_BusinessPartnerAddressDetails
    • CEPCT_ProfitCenterDescription
    • EBAN_PurchaseRequisitionDetails
    • EKBE_PurchaseOrderHistoryDetail
    • EKET_PurchaseOrderScheduleLinesDetail
    • EKKO_PurchaseOrderHeaderDetail
    • EKPO_PurchaseOrderItemDetail
    • FINSC_BTTYPE_T_BusinessTransactionTypeDescription
    • FINSC_LEDGER_T_JournalLedgerDescription
    • LFA1_SupplierMasterDetails
    • LFB1_SupplierMasterCompanyCodeDetails
    • MARA_MaterialMaster
    • MATDOC_MaterialMovementDetails
    • MKPF_MaterialMovementHeaderDetail
    • MSEG_MaterialMovementItemDetail
    • RBKP_InvoiceReceiptHeaderDetail
    • RSEG_IncomingInvoiceItemDetail
    • T001_CompanyCodes
    • T001_CompanyCodes
    • T001K_ValuationAreaDetails
    • T001L_MaterialStorageLocation
    • T001W_PlantDetails
    • T002T_LanguageKeyDescription
    • T003T_AccountingDocumentTypeDescription
    • T005_CountryMaster
    • T006A_UnitOfMeasure
    • T007S_PurchaseSalesTaxCodeDescription
    • T023T_MaterialGroupDescription
    • T024_PurchasingGroupsDetails
    • T024E_PurchasingOrganizationsDetails
    • T024W_PlantPurchasingOrganizationsDetails
    • T156HT_MaterialMovementTypeDescription
    • T161T_PurchasingDocumentTypeDescription
    • T163M_ConfirmationCategoryDescription
    • T16FE_PurchaseDocumentReleaseIndicatorDescription
    • TBSLT_PostingKeyDescription
    • TCURT_CurrencyCodesText
    • TKA01_ControllingAreaMaster

    Configurar flujos de procesamiento de capas dimensionales

    Puede extraer KPIs de tablas de SAP de origen. Para preparar los datos para el análisis, organízalos en la tabla de origen de forma que coincidan con la estructura del esquema de la tabla de BigQuery.

    El acelerador crea las siguientes tablas de ejemplo:

    Table name Descripción de la tabla
    Supplier_dimension Lista seleccionada* de proveedores y sus datos asociados, como la información general y la información relacionada con las ventas.
    Material_dimension Lista seleccionada de materiales e información asociada, como el número de SKU, la jerarquía de productos y la clasificación.
    Purchase_Order_Fact Lista de órdenes de compra, que incluye la organización, el grupo y el tipo de orden de compra.
    Goods_Receipt_Fact Lista seleccionada de entradas de mercancías, que incluye información sobre el centro de beneficios y el tipo de movimiento.
    Invoice_Fact Lista seleccionada de información relacionada con la factura, incluido el tipo de factura, la cantidad de artículos, el valor y la fecha de publicación de la factura.
    Accounting_Fact Lista seleccionada de asientos contables de cada línea de pedido.

    *En este contexto, la lista seleccionada procede de la lógica empresarial que se aplica a la lista de columnas seleccionada.

    El acelerador crea la capa dimensional del conjunto de datos de BigQuery mediante secuencias de comandos SQL, que puedes modificar para tu proyecto. Por ejemplo, puedes adaptar estas secuencias de comandos para añadir más columnas a las entidades del conjunto de datos de BigQuery de destino.

    Transformación al esquema de estrella: nombres de las canalizaciones del ejecutor de BigQuery

    Los siguientes flujos de procesamiento de BigQuery Executor en Cloud Data Fusion cargan datos en tablas de dimensiones y de hechos:

    Todos los flujos de procesamiento de transformación dimensional:

    • Supplier_dimension
    • Material_dimension
    • Purchase_Order_Fact
    • Goods_Receipt_Fact
    • Invoice_Fact
    • Accounting_Fact

    Configuración del ejecutor de BigQuery

    Nombre de la macro Ejemplo
    ${ProjectID} sap_adaptor
    ${StagingDatasetName} sap_cdf_staging
    ${TargetDatasetName} sap_cdf_dimension

    Conectar Looker al proyecto de BigQuery

    Para conectar Looker a BigQuery, consulta la documentación de Looker sobre conexiones de BigQuery.

    Instala el bloque

    Puedes acceder al bloque de Looker de SAP en GitHub.

    El bloque de Looker instala un modelo de LookML preconfigurado con dos entornos de Exploración y dos paneles.

    Siguientes pasos