Acelerador de SAP Order to Cash

El acelerador de SAP para el proceso de tramitación del pedido es una implementación de ejemplo de la función Fuente de lotes de SAP Table en Cloud Data Fusion. La aceleradora te ayuda a empezar cuando creas tu proceso integral de pedido a cobro y tus analíticas. Incluye flujos de procesamiento de Cloud Data Fusion de ejemplo que puedes configurar para realizar las siguientes tareas:

  • Conéctate a tu fuente de datos de SAP.
  • Realiza transformaciones en tus datos en Cloud Data Fusion.
  • Almacena tus datos en BigQuery.
  • Configura las analíticas en Looker. Esto incluye paneles de control y un modelo de aprendizaje automático, donde puede definir los indicadores clave de rendimiento (KPIs) de su proceso de pedido a cobro.

En esta guía se describe la implementación de ejemplo y cómo puedes empezar a usar tus configuraciones.

El acelerador está disponible en entornos de Cloud Data Fusion que ejecutan la versión 6.3.0 o una posterior.

Antes de empezar

  1. Sign in to your Google Account.

    If you don't already have one, sign up for a new account.

  2. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Roles required to select or create a project

    • Select a project: Selecting a project doesn't require a specific IAM role—you can select any project that you've been granted a role on.
    • Create a project: To create a project, you need the Project Creator (roles/resourcemanager.projectCreator), which contains the resourcemanager.projects.create permission. Learn how to grant roles.

    Go to project selector

  3. Verify that billing is enabled for your Google Cloud project.

  4. Enable the Cloud Data Fusion and BigQuery APIs.

    Roles required to enable APIs

    To enable APIs, you need the Service Usage Admin IAM role (roles/serviceusage.serviceUsageAdmin), which contains the serviceusage.services.enable permission. Learn how to grant roles.

    Enable the APIs

  5. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Roles required to select or create a project

    • Select a project: Selecting a project doesn't require a specific IAM role—you can select any project that you've been granted a role on.
    • Create a project: To create a project, you need the Project Creator (roles/resourcemanager.projectCreator), which contains the resourcemanager.projects.create permission. Learn how to grant roles.

    Go to project selector

  6. Verify that billing is enabled for your Google Cloud project.

  7. Enable the Cloud Data Fusion and BigQuery APIs.

    Roles required to enable APIs

    To enable APIs, you need the Service Usage Admin IAM role (roles/serviceusage.serviceUsageAdmin), which contains the serviceusage.services.enable permission. Learn how to grant roles.

    Enable the APIs

  8. Descarga la fuente por lotes de tablas de SAP.
  9. Para instalar el bloque de Looker, debes tener acceso a una instancia de Looker y tener activada la función de Labs de Marketplace. Puedes solicitar una prueba gratuita para acceder a una instancia.
  10. Conocimientos necesarios

    Para configurar el acelerador de SAP Order to Cash, debes tener los siguientes conocimientos:

    Usuarios obligatorios

    Las configuraciones descritas en esta página requieren cambios en tu sistema SAP y en Google Cloud. Para llevar a cabo las configuraciones, debes colaborar con los siguientes usuarios de esos sistemas:

    Tipo de usuario Descripción
    Administrador de SAP Administrador de tu sistema SAP que pueda acceder al sitio de servicios de SAP para descargar software.
    Usuario de SAP Un usuario de SAP autorizado para conectarse a un sistema SAP.
    Administrador de GCP Administrador que controla el acceso de gestión de identidades y accesos de tu organización, que crea e implementa cuentas de servicio y que concede permisos para Cloud Data Fusion, BigQuery y Looker.
    Usuario de Cloud Data Fusion Usuarios autorizados para diseñar y ejecutar flujos de datos en Cloud Data Fusion.
    Propietario de datos de BigQuery Usuarios autorizados para crear, ver y modificar conjuntos de datos de BigQuery.
    Desarrollador de Looker Estos usuarios pueden instalar el bloque de Looker a través de Marketplace. Deben tener los permisos develop, manage_model y deploy.

    Roles de gestión de identidades y accesos necesarios

    En la implementación de ejemplo del acelerador, se necesitan los siguientes roles de gestión de identidades y accesos. Es posible que necesites roles adicionales si tu proyecto depende de otros servicios de Google Cloud.

    Descripción general del proceso

    Para implementar el acelerador en tu proyecto, sigue estos pasos:

    1. Configura el sistema ERP de SAP e instala el transporte de SAP proporcionado.
    2. Configura tu entorno de Cloud Data Fusion para usar el complemento de origen de lotes de tabla de SAP.
    3. Crea conjuntos de datos en BigQuery. El acelerador proporciona conjuntos de datos de ejemplo para las tablas de almacenamiento provisional, de dimensiones y de hechos.
    4. Configure las canalizaciones de Cloud Data Fusion de ejemplo del acelerador para integrar sus datos de SAP.
    5. En el centro de Cloud Data Fusion, implementa las canalizaciones asociadas al proceso de analíticas de pedidos a ingresos. Estos flujos de procesamiento deben configurarse correctamente para crear el conjunto de datos de BigQuery.
    6. Conecta Looker al proyecto de BigQuery.
    7. Instala y despliega el bloque de Looker.

    Para obtener más información, consulta el artículo sobre cómo usar el complemento de origen de lotes de tabla de SAP.

    Conjuntos de datos de muestra en BigQuery

    En la implementación de ejemplo de este acelerador, se crean los siguientes conjuntos de datos en BigQuery.

    Nombre del conjunto de datos Descripción
    sap_cdf_staging Contiene todas las tablas del sistema de origen de SAP identificadas para ese proceso empresarial.
    sap_cdf_dimension Contiene las entidades de dimensión clave, como la dimensión de cliente y la dimensión de material.
    sap_cdf_fact Contiene las tablas de hechos generadas a partir de la canalización.

    Flujos de procesamiento de ejemplo en Cloud Data Fusion

    En el centro de Cloud Data Fusion hay disponibles flujos de procesamiento de ejemplo para este acelerador.

    Para obtener las canalizaciones de ejemplo del centro:

    1. Ve a tu instancia:
      1. En la Google Cloud consola, ve a la página de Cloud Data Fusion.

      2. Para abrir la instancia en Cloud Data Fusion Studio, haga clic en Instancias y, a continuación, en Ver instancia.

        Ir a Instancias

    2. Haz clic en Concentrador.
    3. Seleccione la pestaña SAP.
    4. Selecciona Pipelines. Se abrirá una página con ejemplos de canalizaciones.
    5. Selecciona las canalizaciones que quieras descargar.

    Cada una de las canalizaciones contiene macros que puedes configurar para que se ejecuten en tu entorno.

    Hay tres tipos de canalizaciones de ejemplo:

    • Pipelines de la capa de almacenamiento provisional: el conjunto de datos de almacenamiento provisional de este tipo de pipeline es una asignación directa a la tabla de origen original de SAP. Las canalizaciones de la capa de stage de ejemplo tienen nombres que hacen referencia a la tabla de origen de SAP y a la tabla de destino de BigQuery. Por ejemplo, una canalización llamada KNA1_Customer_Master hace referencia a la tabla de origen de SAP (KNA1) y a la tabla de destino de BigQuery (CustomerMaster).
    • Pipelines de la capa de dimensiones: el conjunto de datos de la capa de dimensiones de este tipo de pipeline es una versión seleccionada y refinada del conjunto de datos de la fase de staging que crea las dimensiones y los hechos necesarios para el análisis. Los flujos de procesamiento de datos de ejemplo tienen nombres que hacen referencia a la entidad de destino del conjunto de datos de BigQuery de destino. Por ejemplo, un flujo de procesamiento llamado customer_dimension hace referencia a la entidad Customer Dimension del conjunto de datos de BigQuery sap_cdf_fact.
    • Pipelines de la capa de hechos: el conjunto de datos de la capa de hechos es una versión seleccionada y refinada del conjunto de datos de la fase de desarrollo que crea los hechos necesarios para el análisis. Estos flujos de procesamiento de datos de ejemplo tienen nombres que hacen referencia a la entidad de destino en el conjunto de datos de BigQuery de destino. Por ejemplo, una canalización llamada sales_order_fact envía datos seleccionados a la entidad Sales Order Fact del conjunto de datos de BigQuery correspondiente sap_cdf_fact.

    En las siguientes secciones se resume cómo hacer que las canalizaciones funcionen en tu entorno.

    Configurar flujos de procesamiento de la capa de staging

    Hay dos pasos para configurar las canalizaciones de staging:

    1. Configura el sistema SAP de origen.
    2. Configura el conjunto de datos y la tabla de BigQuery de destino.

    Parámetros del complemento de origen de lotes de tabla de SAP

    El complemento de origen de lotes de tabla de SAP lee el contenido de una tabla o una vista de SAP. La aceleradora proporciona las siguientes macros, que puedes modificar para controlar tus conexiones SAP de forma centralizada.

    Nombre de la macro Descripción Ejemplo
    ${SAP Client} Cliente de SAP que se va a usar 100
    ${SAP Language} Idioma de inicio de sesión de SAP EN
    ${SAP Application Server Host} Nombre o dirección IP del servidor SAP 10.132.0.47
    ${SAP System Number} Número de sistema de SAP 00
    ${secure(saplogonusername)} Nombre de usuario de SAP Para obtener más información, consulta Usar llaves seguras.
    ${secure(saplogonpassword)} Contraseña de usuario de SAP Para obtener más información, consulta Usar llaves seguras.
    ${Number of Rows to Fetch} Se usa para limitar el número de registros extraídos. 100000

    Para obtener más información, consulta el artículo sobre cómo configurar el complemento.

    Parámetros del destino de BigQuery

    El acelerador proporciona las siguientes macros para los destinos de BigQuery.

    Configuración del conector de destino de BigQuery

    Nombre de la macro Descripción Ejemplo
    ${ProjectID} El ID del proyecto en el que se ha creado el conjunto de datos de BigQuery. sap_adaptor
    ${Dataset} Conjunto de datos de destino sap_cdf_staging

    Flujos de procesamiento de ejemplo usados para los KPIs de pedido a cobro

    Las siguientes entidades empresariales clave del proceso de pedido a cobro se corresponden con las pipelines de ejemplo del acelerador. Estas canalizaciones proporcionan los datos que impulsan las analíticas sobre estas entidades.

    Entidades empresariales clave Nombre del flujo de procesamiento de ejemplo correspondiente
    Un Customer puede ser una persona o una entidad con la que la organización haga negocios. Estas tres tablas de origen de SAP recogen detalles sobre el cliente en relación con la empresa. La información de estas tablas contribuye a la customer_dimension del conjunto de datos sap_cdf_dimension. KNA1_CustomerMaster
    KNVV_CustomerSales
    KNVP_CustomerPartnerFunction
    Material es el producto que se intercambia entre la empresa y sus clientes. La información de estas tablas de origen de SAP contribuye a la dimensión material del conjunto de datos sap_cdf_dimension. MARA_MaterialMaster
    MARD_MaterialStorageLocation
    El subproceso de gestión de pedidos del proceso de pedido a cobro (cuando tu sistema recibe un pedido del cliente). VBAK_SalesDocumentHeader
    VBAP_SalesDocumentItem
    VBEP_SalesDocumentSchedule
    Los subprocesos de procesamiento y envío de pedidos. LIKP_DeliveryHeader
    LIPS_DeliveryItem
    Los subprocesos de facturación y pagos de clientes (cuando el cliente recibe una factura). VBRK_BillingHeader
    VBRP_BillingLineItem
    Los subprocesos de cuentas por cobrar y de informes (cuando el pago se registra en tu sistema). ACDOCA_UniversalJournalItem

    Todos los flujos de procesamiento de Cloud Data Fusion

    En el acelerador se encuentran disponibles los siguientes ejemplos de flujos de procesamiento de staging de Cloud Data Fusion:

    • KNA1_CustomerMaster
    • KNVV_CustomerSales
    • KNVP_CustomerPartnerFunction
    • MARA_MaterialMaster
    • MARD_MaterialStorageLocation
    • VBAK_SalesDocumentHeader
    • VBAP_SalesDocumentItem
    • VBEP_SalesDocumentSchedule
    • LIKP_DeliveryHeader
    • LIPS_DeliveryItem
    • ACDOCA_UniversalJournalItem
    • VBRK_BillingHeader
    • VBRP_BillingLineItem
    • BSEG_AccountDocumentItem
    • BSID_AccDocCustOpenItem
    • BSAD_AccDocCustCloseItem
    • T001_CompanyCodes
    • T006A_UnitOfMeasure
    • T024D_MRPControllers
    • T042ZT_PaymentMethodText
    • T189T_PriceListCategory
    • TCURC_CurrencyCodes
    • TCURT_CurrencyCodesText
    • TCURW_ExchangeRateType
    • TINCT_CustomerIncotermsText
    • TVAKT_SalesDocumentType
    • TVAPT_SalesDocumentItemCategory
    • TVFST_BillingBlockReasonText
    • TVLST_DeliveryBlockText
    • TVTWT_DistributionChannelText
    • MAKT_MaterialDescription
    • T005T_CountryNames
    • T005U_RegionText
    • TVAST_SalesDocBlockReasonText
    • T077X_AccountGroupName
    • T134T_MaterialTypeDescription
    • T023T_MaterialGroupDescription
    • TSPAT_SalesDivisionText
    • TVKOV_DistributionChannel
    • TVTA_SalesArea
    • TVKOT_SalesOrgText
    • TVAUT_SalesDocumentOrderText
    • TVSBT_ShippingConditionText
    • TVAG_SalesDocRejectionReasons
    • TVAGT_SalesDocRejectionReasonDescription

    Configurar flujos de procesamiento de capas dimensionales

    Puede extraer KPIs de tablas de SAP de origen. Para preparar los datos para el análisis, organízalos en la tabla de origen de forma que coincidan con la estructura del esquema de la tabla de BigQuery.

    El acelerador crea las cuatro tablas de ejemplo siguientes:

    Table name Descripción de la tabla
    customer_dimension Lista seleccionada* de clientes y sus datos asociados, como la clasificación, la jerarquía y la información relacionada con las ventas de los clientes.
    material_dimension Lista seleccionada de materiales e información asociada, como el número de SKU, la jerarquía del producto y la clasificación.
    sales_order_fact Lista seleccionada de información de ventas, como los tipos de pedidos, la visibilidad del estado de los pedidos, la cantidad pedida y el valor de los pedidos. Estos campos suelen agregarse para generar KPIs de gestión de pedidos, como Pedidos abiertos, Pedidos confirmados, Pedidos rechazados y Pedidos facturados.
    revenue_fact Información contable detallada generada por la venta del material a los clientes. Esta tabla de hechos, derivada de las tablas de contabilidad, contiene información que puede proporcionar estadísticas a través de KPIs de ingresos, como ventas brutas, ventas netas antes del descuento, ventas netas después del descuento o tendencias.

    *En este contexto, la lista seleccionada procede de la lógica empresarial que se aplica a la lista de columnas seleccionada.

    El acelerador crea la capa dimensional del conjunto de datos de BigQuery mediante secuencias de comandos SQL, que puedes modificar para tu proyecto. Por ejemplo, puedes adaptar estas secuencias de comandos para añadir más columnas a las entidades del conjunto de datos de BigQuery de destino.

    Transformación al esquema de estrella: nombres de las canalizaciones del ejecutor de BigQuery

    Los siguientes flujos de procesamiento de BigQuery Executor en Cloud Data Fusion cargan datos en tablas de dimensiones y de hechos:

    Todos los flujos de procesamiento de transformación dimensional:

    • customer_dimension
    • material_dimension
    • sales_order_fact
    • revenue_fact

    Configuración del ejecutor de BigQuery

    Nombre de la macro Ejemplo
    ${ProjectID} sap_adaptor
    ${StagingDatasetName} sap_cdf_staging
    ${TargetDatasetName} sap_cdf_dimension

    Conectar Looker al proyecto de BigQuery

    Para conectar Looker a BigQuery, consulta la documentación de Looker sobre conexiones de BigQuery.

    Instala el bloque

    Puedes acceder al bloque de Looker de SAP en GitHub.

    El bloque de Looker instala un modelo de LookML preconfigurado con dos entornos de Exploración y dos paneles.

    Siguientes pasos