El acelerador de SAP para el proceso de tramitación del pedido es una implementación de ejemplo de la función Fuente de lotes de SAP Table en Cloud Data Fusion. La aceleradora te ayuda a empezar cuando creas tu proceso integral de pedido a cobro y tus analíticas. Incluye flujos de procesamiento de Cloud Data Fusion de ejemplo que puedes configurar para realizar las siguientes tareas:
- Conéctate a tu fuente de datos de SAP.
- Realiza transformaciones en tus datos en Cloud Data Fusion.
- Almacena tus datos en BigQuery.
- Configura las analíticas en Looker. Esto incluye paneles de control y un modelo de aprendizaje automático, donde puede definir los indicadores clave de rendimiento (KPIs) de su proceso de pedido a cobro.
En esta guía se describe la implementación de ejemplo y cómo puedes empezar a usar tus configuraciones.
El acelerador está disponible en entornos de Cloud Data Fusion que ejecutan la versión 6.3.0 o una posterior.
Antes de empezar
-
Sign in to your Google Account.
If you don't already have one, sign up for a new account.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
Roles required to select or create a project
- Select a project: Selecting a project doesn't require a specific IAM role—you can select any project that you've been granted a role on.
-
Create a project: To create a project, you need the Project Creator
(
roles/resourcemanager.projectCreator
), which contains theresourcemanager.projects.create
permission. Learn how to grant roles.
-
Verify that billing is enabled for your Google Cloud project.
-
Enable the Cloud Data Fusion and BigQuery APIs.
Roles required to enable APIs
To enable APIs, you need the Service Usage Admin IAM role (
roles/serviceusage.serviceUsageAdmin
), which contains theserviceusage.services.enable
permission. Learn how to grant roles. -
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
Roles required to select or create a project
- Select a project: Selecting a project doesn't require a specific IAM role—you can select any project that you've been granted a role on.
-
Create a project: To create a project, you need the Project Creator
(
roles/resourcemanager.projectCreator
), which contains theresourcemanager.projects.create
permission. Learn how to grant roles.
-
Verify that billing is enabled for your Google Cloud project.
-
Enable the Cloud Data Fusion and BigQuery APIs.
Roles required to enable APIs
To enable APIs, you need the Service Usage Admin IAM role (
roles/serviceusage.serviceUsageAdmin
), which contains theserviceusage.services.enable
permission. Learn how to grant roles. - Descarga la fuente por lotes de tablas de SAP.
- Para instalar el bloque de Looker, debes tener acceso a una instancia de Looker y tener activada la función de Labs de Marketplace. Puedes solicitar una prueba gratuita para acceder a una instancia.
- Experiencia en sistemas ERP locales de SAP y en su configuración
- Familiaridad con Cloud Data Fusion
- Familiaridad con BigQuery
- Familiaridad con Looker
- Familiaridad con las cuentas de servicio de Gestión de Identidades y Accesos (IAM) y el control de acceso
- Familiaridad con las analíticas de datos, incluida la escritura de consultas SQL
- Familiaridad con el modelo de datos dimensional de Kimball
- Administrador de BigQuery
(
roles/bigquery.admin
) - Propietario de datos de BigQuery
(
roles/bigquery.dataOwner
) - Lector de objetos de Storage
(
roles/storage.objectViewer
) - Se debe conceder el rol Cloud Data Fusion Runner (
roles/datafusion.runner
) a la cuenta de servicio de Dataproc. - Configura el sistema ERP de SAP e instala el transporte de SAP proporcionado.
- Configura tu entorno de Cloud Data Fusion para usar el complemento de origen de lotes de tabla de SAP.
- Crea conjuntos de datos en BigQuery. El acelerador proporciona conjuntos de datos de ejemplo para las tablas de almacenamiento provisional, de dimensiones y de hechos.
- Configure las canalizaciones de Cloud Data Fusion de ejemplo del acelerador para integrar sus datos de SAP.
- En el centro de Cloud Data Fusion, implementa las canalizaciones asociadas al proceso de analíticas de pedidos a ingresos. Estos flujos de procesamiento deben configurarse correctamente para crear el conjunto de datos de BigQuery.
- Conecta Looker al proyecto de BigQuery.
- Instala y despliega el bloque de Looker.
- Ve a tu instancia:
En la Google Cloud consola, ve a la página de Cloud Data Fusion.
Para abrir la instancia en Cloud Data Fusion Studio, haga clic en Instancias y, a continuación, en Ver instancia.
- Haz clic en Concentrador.
- Seleccione la pestaña SAP.
- Selecciona Pipelines. Se abrirá una página con ejemplos de canalizaciones.
- Selecciona las canalizaciones que quieras descargar.
- Pipelines de la capa de almacenamiento provisional: el conjunto de datos de almacenamiento provisional de este tipo de pipeline es una asignación directa a la tabla de origen original de SAP. Las canalizaciones de la capa de stage de ejemplo tienen nombres que hacen referencia a la tabla de origen de SAP y a la tabla de destino de BigQuery. Por ejemplo, una canalización llamada KNA1_Customer_Master hace referencia a la tabla de origen de SAP (
KNA1
) y a la tabla de destino de BigQuery (CustomerMaster
). - Pipelines de la capa de dimensiones: el conjunto de datos de la capa de dimensiones de este tipo de pipeline es una versión seleccionada y refinada del conjunto de datos de la fase de staging que crea las dimensiones y los hechos necesarios para el análisis. Los flujos de procesamiento de datos de ejemplo tienen nombres que hacen referencia a la entidad de destino del conjunto de datos de BigQuery de destino. Por ejemplo, un flujo de procesamiento llamado customer_dimension hace referencia a la entidad Customer Dimension del conjunto de datos de BigQuery
sap_cdf_fact
. - Pipelines de la capa de hechos: el conjunto de datos de la capa de hechos es una versión seleccionada y refinada del conjunto de datos de la fase de desarrollo que crea los hechos necesarios para el análisis. Estos flujos de procesamiento de datos de ejemplo tienen nombres que hacen referencia a la entidad de destino en el conjunto de datos de BigQuery de destino.
Por ejemplo, una canalización llamada sales_order_fact envía datos seleccionados a la entidad Sales Order Fact del conjunto de datos de BigQuery correspondiente
sap_cdf_fact
. - Configura el sistema SAP de origen.
- Configura el conjunto de datos y la tabla de BigQuery de destino.
- KNA1_CustomerMaster
- KNVV_CustomerSales
- KNVP_CustomerPartnerFunction
- MARA_MaterialMaster
- MARD_MaterialStorageLocation
- VBAK_SalesDocumentHeader
- VBAP_SalesDocumentItem
- VBEP_SalesDocumentSchedule
- LIKP_DeliveryHeader
- LIPS_DeliveryItem
- ACDOCA_UniversalJournalItem
- VBRK_BillingHeader
- VBRP_BillingLineItem
- BSEG_AccountDocumentItem
- BSID_AccDocCustOpenItem
- BSAD_AccDocCustCloseItem
- T001_CompanyCodes
- T006A_UnitOfMeasure
- T024D_MRPControllers
- T042ZT_PaymentMethodText
- T189T_PriceListCategory
- TCURC_CurrencyCodes
- TCURT_CurrencyCodesText
- TCURW_ExchangeRateType
- TINCT_CustomerIncotermsText
- TVAKT_SalesDocumentType
- TVAPT_SalesDocumentItemCategory
- TVFST_BillingBlockReasonText
- TVLST_DeliveryBlockText
- TVTWT_DistributionChannelText
- MAKT_MaterialDescription
- T005T_CountryNames
- T005U_RegionText
- TVAST_SalesDocBlockReasonText
- T077X_AccountGroupName
- T134T_MaterialTypeDescription
- T023T_MaterialGroupDescription
- TSPAT_SalesDivisionText
- TVKOV_DistributionChannel
- TVTA_SalesArea
- TVKOT_SalesOrgText
- TVAUT_SalesDocumentOrderText
- TVSBT_ShippingConditionText
- TVAG_SalesDocRejectionReasons
- TVAGT_SalesDocRejectionReasonDescription
customer_dimension
material_dimension
sales_order_fact
revenue_fact
- Consulta más información sobre Cloud Data Fusion.
- Consulta más información sobre SAP en Google Cloud.
- BigQuery
- Más información sobre los bloques de Looker
Conocimientos necesarios
Para configurar el acelerador de SAP Order to Cash, debes tener los siguientes conocimientos:
Usuarios obligatorios
Las configuraciones descritas en esta página requieren cambios en tu sistema SAP y en Google Cloud. Para llevar a cabo las configuraciones, debes colaborar con los siguientes usuarios de esos sistemas:
Tipo de usuario | Descripción |
---|---|
Administrador de SAP | Administrador de tu sistema SAP que pueda acceder al sitio de servicios de SAP para descargar software. |
Usuario de SAP | Un usuario de SAP autorizado para conectarse a un sistema SAP. |
Administrador de GCP | Administrador que controla el acceso de gestión de identidades y accesos de tu organización, que crea e implementa cuentas de servicio y que concede permisos para Cloud Data Fusion, BigQuery y Looker. |
Usuario de Cloud Data Fusion | Usuarios autorizados para diseñar y ejecutar flujos de datos en Cloud Data Fusion. |
Propietario de datos de BigQuery | Usuarios autorizados para crear, ver y modificar conjuntos de datos de BigQuery. |
Desarrollador de Looker | Estos usuarios pueden instalar el bloque de Looker a través de Marketplace.
Deben tener los permisos develop , manage_model y deploy . |
Roles de gestión de identidades y accesos necesarios
En la implementación de ejemplo del acelerador, se necesitan los siguientes roles de gestión de identidades y accesos. Es posible que necesites roles adicionales si tu proyecto depende de otros servicios de Google Cloud.
Descripción general del proceso
Para implementar el acelerador en tu proyecto, sigue estos pasos:
Para obtener más información, consulta el artículo sobre cómo usar el complemento de origen de lotes de tabla de SAP.
Conjuntos de datos de muestra en BigQuery
En la implementación de ejemplo de este acelerador, se crean los siguientes conjuntos de datos en BigQuery.
Nombre del conjunto de datos | Descripción |
---|---|
sap_cdf_staging |
Contiene todas las tablas del sistema de origen de SAP identificadas para ese proceso empresarial. |
sap_cdf_dimension |
Contiene las entidades de dimensión clave, como la dimensión de cliente y la dimensión de material. |
sap_cdf_fact |
Contiene las tablas de hechos generadas a partir de la canalización. |
Flujos de procesamiento de ejemplo en Cloud Data Fusion
En el centro de Cloud Data Fusion hay disponibles flujos de procesamiento de ejemplo para este acelerador.
Para obtener las canalizaciones de ejemplo del centro:
Cada una de las canalizaciones contiene macros que puedes configurar para que se ejecuten en tu entorno.
Hay tres tipos de canalizaciones de ejemplo:
En las siguientes secciones se resume cómo hacer que las canalizaciones funcionen en tu entorno.
Configurar flujos de procesamiento de la capa de staging
Hay dos pasos para configurar las canalizaciones de staging:
Parámetros del complemento de origen de lotes de tabla de SAP
El complemento de origen de lotes de tabla de SAP lee el contenido de una tabla o una vista de SAP. La aceleradora proporciona las siguientes macros, que puedes modificar para controlar tus conexiones SAP de forma centralizada.
Nombre de la macro | Descripción | Ejemplo |
---|---|---|
${SAP Client} |
Cliente de SAP que se va a usar | 100 |
${SAP Language} |
Idioma de inicio de sesión de SAP | EN |
${SAP Application Server Host} |
Nombre o dirección IP del servidor SAP | 10.132.0.47 |
${SAP System Number} |
Número de sistema de SAP | 00 |
${secure(saplogonusername)} |
Nombre de usuario de SAP | Para obtener más información, consulta Usar llaves seguras. |
${secure(saplogonpassword)} |
Contraseña de usuario de SAP | Para obtener más información, consulta Usar llaves seguras. |
${Number of Rows to Fetch} |
Se usa para limitar el número de registros extraídos. | 100000 |
Para obtener más información, consulta el artículo sobre cómo configurar el complemento.
Parámetros del destino de BigQuery
El acelerador proporciona las siguientes macros para los destinos de BigQuery.
Configuración del conector de destino de BigQuery
Nombre de la macro | Descripción | Ejemplo |
---|---|---|
${ProjectID} |
El ID del proyecto en el que se ha creado el conjunto de datos de BigQuery. | sap_adaptor |
${Dataset} |
Conjunto de datos de destino | sap_cdf_staging |
Flujos de procesamiento de ejemplo usados para los KPIs de pedido a cobro
Las siguientes entidades empresariales clave del proceso de pedido a cobro se corresponden con las pipelines de ejemplo del acelerador. Estas canalizaciones proporcionan los datos que impulsan las analíticas sobre estas entidades.
Entidades empresariales clave | Nombre del flujo de procesamiento de ejemplo correspondiente |
---|---|
Un Customer puede ser una persona o una entidad con la que la organización haga negocios. Estas tres tablas de origen de SAP recogen detalles sobre el cliente en relación con la empresa. La información de estas tablas contribuye a la customer_dimension del conjunto de datos sap_cdf_dimension .
|
KNA1_CustomerMaster KNVV_CustomerSales KNVP_CustomerPartnerFunction |
Material es el producto que se intercambia entre la empresa y sus clientes. La información de estas tablas de origen de SAP
contribuye a la dimensión material del
conjunto de datos sap_cdf_dimension .
|
MARA_MaterialMaster MARD_MaterialStorageLocation |
El subproceso de gestión de pedidos del proceso de pedido a cobro (cuando tu sistema recibe un pedido del cliente). |
VBAK_SalesDocumentHeader VBAP_SalesDocumentItem VBEP_SalesDocumentSchedule |
Los subprocesos de procesamiento y envío de pedidos. |
LIKP_DeliveryHeader LIPS_DeliveryItem |
Los subprocesos de facturación y pagos de clientes (cuando el cliente recibe una factura). |
VBRK_BillingHeader VBRP_BillingLineItem |
Los subprocesos de cuentas por cobrar y de informes (cuando el pago se registra en tu sistema). | ACDOCA_UniversalJournalItem |
Todos los flujos de procesamiento de Cloud Data Fusion
En el acelerador se encuentran disponibles los siguientes ejemplos de flujos de procesamiento de staging de Cloud Data Fusion:
Configurar flujos de procesamiento de capas dimensionales
Puede extraer KPIs de tablas de SAP de origen. Para preparar los datos para el análisis, organízalos en la tabla de origen de forma que coincidan con la estructura del esquema de la tabla de BigQuery.
El acelerador crea las cuatro tablas de ejemplo siguientes:
Table name | Descripción de la tabla |
---|---|
customer_dimension | Lista seleccionada* de clientes y sus datos asociados, como la clasificación, la jerarquía y la información relacionada con las ventas de los clientes. |
material_dimension | Lista seleccionada de materiales e información asociada, como el número de SKU, la jerarquía del producto y la clasificación. |
sales_order_fact | Lista seleccionada de información de ventas, como los tipos de pedidos, la visibilidad del estado de los pedidos, la cantidad pedida y el valor de los pedidos. Estos campos suelen agregarse para generar KPIs de gestión de pedidos, como Pedidos abiertos, Pedidos confirmados, Pedidos rechazados y Pedidos facturados. |
revenue_fact | Información contable detallada generada por la venta del material a los clientes. Esta tabla de hechos, derivada de las tablas de contabilidad, contiene información que puede proporcionar estadísticas a través de KPIs de ingresos, como ventas brutas, ventas netas antes del descuento, ventas netas después del descuento o tendencias. |
*En este contexto, la lista seleccionada procede de la lógica empresarial que se aplica a la lista de columnas seleccionada.
El acelerador crea la capa dimensional del conjunto de datos de BigQuery mediante secuencias de comandos SQL, que puedes modificar para tu proyecto. Por ejemplo, puedes adaptar estas secuencias de comandos para añadir más columnas a las entidades del conjunto de datos de BigQuery de destino.
Transformación al esquema de estrella: nombres de las canalizaciones del ejecutor de BigQuery
Los siguientes flujos de procesamiento de BigQuery Executor en Cloud Data Fusion cargan datos en tablas de dimensiones y de hechos:
Todos los flujos de procesamiento de transformación dimensional:
Configuración del ejecutor de BigQuery
Nombre de la macro | Ejemplo |
---|---|
${ProjectID} |
sap_adaptor |
${StagingDatasetName} |
sap_cdf_staging |
${TargetDatasetName} |
sap_cdf_dimension |
Conectar Looker al proyecto de BigQuery
Para conectar Looker a BigQuery, consulta la documentación de Looker sobre conexiones de BigQuery.
Instala el bloque
Puedes acceder al bloque de Looker de SAP en GitHub.
El bloque de Looker instala un modelo de LookML preconfigurado con dos entornos de Exploración y dos paneles.