El acelerador de SAP para el proceso de Procure-to-Pay es una implementación de ejemplo de la función Fuente por lotes de tablas de SAP en Cloud Data Fusion. El acelerador del proceso de Procure-to-Pay de SAP te ayuda a empezar cuando creas tu proceso y tus analíticas de Procure-to-Pay completos. Incluye flujos de procesamiento de Cloud Data Fusion de ejemplo que puedes configurar para realizar las siguientes tareas:
- Conéctate a tu fuente de datos de SAP.
- Realiza transformaciones en tus datos en Cloud Data Fusion.
- Almacena tus datos en BigQuery.
- Configura las analíticas en Looker. Esto incluye paneles de control y un modelo de aprendizaje automático, donde puede definir los indicadores clave de rendimiento (KPIs) de su proceso de compra a pago.
En esta guía se describe la implementación de ejemplo y cómo puedes empezar a usar tus configuraciones.
El acelerador está disponible en entornos de Cloud Data Fusion que ejecutan la versión 6.4.0 o una posterior.
Antes de empezar
-
Sign in to your Google Account.
If you don't already have one, sign up for a new account.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
Roles required to select or create a project
- Select a project: Selecting a project doesn't require a specific IAM role—you can select any project that you've been granted a role on.
-
Create a project: To create a project, you need the Project Creator
(
roles/resourcemanager.projectCreator
), which contains theresourcemanager.projects.create
permission. Learn how to grant roles.
-
Verify that billing is enabled for your Google Cloud project.
-
Enable the Cloud Data Fusion and BigQuery APIs.
Roles required to enable APIs
To enable APIs, you need the Service Usage Admin IAM role (
roles/serviceusage.serviceUsageAdmin
), which contains theserviceusage.services.enable
permission. Learn how to grant roles. -
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
Roles required to select or create a project
- Select a project: Selecting a project doesn't require a specific IAM role—you can select any project that you've been granted a role on.
-
Create a project: To create a project, you need the Project Creator
(
roles/resourcemanager.projectCreator
), which contains theresourcemanager.projects.create
permission. Learn how to grant roles.
-
Verify that billing is enabled for your Google Cloud project.
-
Enable the Cloud Data Fusion and BigQuery APIs.
Roles required to enable APIs
To enable APIs, you need the Service Usage Admin IAM role (
roles/serviceusage.serviceUsageAdmin
), which contains theserviceusage.services.enable
permission. Learn how to grant roles. - Descarga la fuente por lotes de tablas de SAP.
- Para instalar el bloque de Looker, debes tener acceso a una instancia de Looker y tener activada la función de Labs de Marketplace. Puedes solicitar una prueba gratuita para acceder a una instancia.
- Experiencia en sistemas ERP locales de SAP y en su configuración
- Familiaridad con Cloud Data Fusion
- Familiaridad con BigQuery
- Familiaridad con Looker
- Familiaridad con las cuentas de servicio de Gestión de Identidades y Accesos (IAM) y el control de acceso
- Familiaridad con las analíticas de datos, incluida la escritura de consultas SQL
- Familiaridad con el modelo de datos dimensional de Kimball
- Administrador de BigQuery
(
roles/bigquery.admin
) - Propietario de datos de BigQuery
(
roles/bigquery.dataOwner
) - Lector de objetos de Storage
(
roles/storage.objectViewer
) - Se debe conceder el rol Cloud Data Fusion Runner (
roles/datafusion.runner
) a la cuenta de servicio de Dataproc. - Configura el sistema ERP de SAP e instala el transporte de SAP proporcionado.
- Configura tu entorno de Cloud Data Fusion para usar el complemento de origen de lotes de tabla de SAP.
- Crea conjuntos de datos en BigQuery. El acelerador proporciona conjuntos de datos de ejemplo para las tablas de almacenamiento provisional, de dimensiones y de hechos.
- Configura las canalizaciones de Cloud Data Fusion de ejemplo del acelerador para integrar tus datos de SAP.
- En el centro de Cloud Data Fusion, despliega las canalizaciones asociadas al proceso de analíticas de compra a pago. Estos flujos de procesamiento deben configurarse correctamente para crear el conjunto de datos de BigQuery.
- Conecta Looker al proyecto de BigQuery.
- Instala y despliega el bloque de Looker.
- Ve a tu instancia:
En la Google Cloud consola, ve a la página de Cloud Data Fusion.
Para abrir la instancia en Cloud Data Fusion Studio, haga clic en Instancias y, a continuación, en Ver instancia.
- Haz clic en Concentrador.
- Seleccione la pestaña SAP.
- Selecciona Pipelines. Se abrirá una página con ejemplos de canalizaciones.
- Selecciona las canalizaciones que quieras descargar.
- Pipelines de la capa de almacenamiento provisional: el conjunto de datos de almacenamiento provisional de este tipo de pipeline es una asignación directa a la tabla de origen original de SAP. Las canalizaciones de la capa de stage de ejemplo tienen nombres que hacen referencia a la tabla de origen de SAP y a la tabla de destino de BigQuery. Por ejemplo, una canalización llamada
LFA1_Supplier_Master
hace referencia a la tabla de origen de SAP (LFA1
) y a la tabla de destino de BigQuery (CustomerMaster
). - Pipelines de la capa de dimensiones: el conjunto de datos de la capa de dimensiones de este tipo de pipeline es una versión seleccionada y refinada del conjunto de datos de la fase de staging que crea las dimensiones y los hechos necesarios para el análisis. Los flujos de procesamiento de datos de ejemplo tienen nombres que hacen referencia a la entidad de destino del conjunto de datos de BigQuery de destino. Por ejemplo, un flujo de procesamiento llamado
customer_dimension
hace referencia a la entidad Dimension de cliente del conjunto de datos de BigQuerysap_cdf_fact
. - Pipelines de la capa de hechos: el conjunto de datos de la capa de hechos es una versión seleccionada y refinada del conjunto de datos de la fase de desarrollo que crea los hechos necesarios para el análisis. Estos flujos de procesamiento de datos de ejemplo tienen nombres que hacen referencia a la entidad de destino en el conjunto de datos de BigQuery de destino.
Por ejemplo, una canalización llamada
sales_order_fact
envía datos seleccionados a la entidad de hechos de pedidos de ventas del conjunto de datos de BigQuery correspondientesap_cdf_fact
. - Configura el sistema SAP de origen.
- Configura el conjunto de datos y la tabla de BigQuery de destino.
ACDOCA_JournalLedgerDetails
ADR6_SupplierMasterEMailDetails
ADRC_SupplierMasterAddressDetails
BKPF_AccountingDocumentHeaderDetail
BSEG_AccountDocumentItem
BUT000_BusinessPartnerGeneralDataDetails
BUT020_BusinessPartnerAddressDetails
CEPCT_ProfitCenterDescription
EBAN_PurchaseRequisitionDetails
EKBE_PurchaseOrderHistoryDetail
EKET_PurchaseOrderScheduleLinesDetail
EKKO_PurchaseOrderHeaderDetail
EKPO_PurchaseOrderItemDetail
FINSC_BTTYPE_T_BusinessTransactionTypeDescription
FINSC_LEDGER_T_JournalLedgerDescription
LFA1_SupplierMasterDetails
LFB1_SupplierMasterCompanyCodeDetails
MARA_MaterialMaster
MATDOC_MaterialMovementDetails
MKPF_MaterialMovementHeaderDetail
MSEG_MaterialMovementItemDetail
RBKP_InvoiceReceiptHeaderDetail
RSEG_IncomingInvoiceItemDetail
T001_CompanyCodes
T001_CompanyCodes
T001K_ValuationAreaDetails
T001L_MaterialStorageLocation
T001W_PlantDetails
T002T_LanguageKeyDescription
T003T_AccountingDocumentTypeDescription
T005_CountryMaster
T006A_UnitOfMeasure
T007S_PurchaseSalesTaxCodeDescription
T023T_MaterialGroupDescription
T024_PurchasingGroupsDetails
T024E_PurchasingOrganizationsDetails
T024W_PlantPurchasingOrganizationsDetails
T156HT_MaterialMovementTypeDescription
T161T_PurchasingDocumentTypeDescription
T163M_ConfirmationCategoryDescription
T16FE_PurchaseDocumentReleaseIndicatorDescription
TBSLT_PostingKeyDescription
TCURT_CurrencyCodesText
TKA01_ControllingAreaMaster
Supplier_dimension
Material_dimension
Purchase_Order_Fact
Goods_Receipt_Fact
Invoice_Fact
Accounting_Fact
- Consulta más información sobre Cloud Data Fusion.
- Consulta más información sobre SAP en Google Cloud.
- BigQuery
- Más información sobre los bloques de Looker
Conocimientos necesarios
Para configurar el acelerador Procure-to-Pay de SAP, se necesitan las siguientes habilidades:
Usuarios obligatorios
Las configuraciones descritas en esta página requieren cambios en tu sistema SAP y en Google Cloud. Para llevar a cabo las configuraciones, debes colaborar con los siguientes usuarios de esos sistemas:
Tipo de usuario | Descripción |
---|---|
Administrador de SAP | Administrador de tu sistema SAP que pueda acceder al sitio de servicios de SAP para descargar software. |
Usuario de SAP | Un usuario de SAP autorizado para conectarse a un sistema SAP. |
Administrador de GCP | Administrador que controla el acceso de Gestión de Identidades y Accesos (IAM) de tu organización, que crea e implementa cuentas de servicio y que concede permisos para Cloud Data Fusion, BigQuery y Looker. |
Usuario de Cloud Data Fusion | Usuarios autorizados para diseñar y ejecutar flujos de datos en Cloud Data Fusion. |
Propietario de datos de BigQuery | Usuarios autorizados para crear, ver y modificar conjuntos de datos de BigQuery. |
Desarrollador de Looker | Estos usuarios pueden instalar el bloque de Looker a través de Marketplace.
Deben tener los permisos develop , manage_model y deploy . |
Roles de gestión de identidades y accesos necesarios
En la implementación de ejemplo del acelerador, se necesitan los siguientes roles de gestión de identidades y accesos. Es posible que necesites roles adicionales si tu proyecto depende de otros servicios de Google Cloud.
Descripción general del proceso
Para implementar el acelerador en tu proyecto, sigue estos pasos:
Para obtener más información, consulta el artículo sobre cómo usar el complemento de origen de lotes de tabla de SAP.
Conjuntos de datos de muestra en BigQuery
En la implementación de ejemplo de este acelerador, se crean los siguientes conjuntos de datos en BigQuery.
Nombre del conjunto de datos | Descripción |
---|---|
sap_cdf_staging |
Contiene todas las tablas del sistema de origen de SAP identificadas para ese proceso empresarial. |
sap_cdf_dimension |
Contiene las entidades de dimensión clave, como la dimensión de cliente y la dimensión de material. |
sap_cdf_fact |
Contiene las tablas de hechos generadas a partir de la canalización. |
Flujos de procesamiento de ejemplo en Cloud Data Fusion
En el centro de Cloud Data Fusion hay disponibles flujos de procesamiento de ejemplo para este acelerador.
Para obtener las canalizaciones de ejemplo del centro:
Cada una de las canalizaciones contiene macros que puedes configurar para que se ejecuten en tu entorno.
Hay tres tipos de canalizaciones de ejemplo:
En las siguientes secciones se resume cómo hacer que las canalizaciones funcionen en tu entorno.
Configurar flujos de procesamiento de la capa de staging
Hay dos pasos para configurar las canalizaciones de staging:
Parámetros del complemento de origen de lotes de tabla de SAP
El complemento de origen de lotes de tabla de SAP lee el contenido de una tabla o una vista de SAP. La aceleradora proporciona las siguientes macros, que puedes modificar para controlar tus conexiones SAP de forma centralizada.
Nombre de la macro | Descripción | Ejemplo |
---|---|---|
${SAP Client} |
Cliente de SAP que se va a usar | 100 |
${SAP Language} |
Idioma de inicio de sesión de SAP | EN |
${SAP Application Server Host} |
Nombre o dirección IP del servidor SAP | 10.132.0.47 |
${SAP System Number} |
Número de sistema de SAP | 00 |
${secure(saplogonusername)} |
Nombre de usuario de SAP | Para obtener más información, consulta Usar llaves seguras. |
${secure(saplogonpassword)} |
Contraseña de usuario de SAP | Para obtener más información, consulta Usar llaves seguras. |
${Number of Rows to Fetch} |
Limita el número de registros extraídos. | 100000 |
Para obtener más información, consulta el artículo sobre cómo configurar el complemento.
Parámetros del destino de BigQuery
El acelerador proporciona las siguientes macros para los destinos de BigQuery.
Configuración del conector de destino de BigQuery
Nombre de la macro | Descripción | Ejemplo |
---|---|---|
${ProjectID} |
El ID del proyecto en el que se ha creado el conjunto de datos de BigQuery. | sap_adaptor |
${Dataset} |
Conjunto de datos de destino | sap_cdf_staging |
Flujos de procesamiento de ejemplo usados para los KPIs de compra a pago
Las siguientes entidades empresariales clave del proceso de compra a pago se corresponden con las canalizaciones de ejemplo del acelerador. Estas canalizaciones proporcionan los datos que impulsan las analíticas sobre estas entidades.
Entidades empresariales clave | Nombre del flujo de procesamiento correspondiente |
---|---|
Supplier Las tablas de origen de SAP registran los detalles
del proveedor en relación con la empresa. La información de estas tablas contribuye a la supplier_dimension de la capa dimensional del almacén de datos.
|
LFA1_SupplierMaster
|
Material o Product es el producto que se
intercambia entre la empresa y sus clientes. La información de estas tablas contribuye a la dimensión material_dimension de la capa dimensional del almacén de datos.
|
MARA_MaterialMaster |
El proceso de compra a pago comienza con un pedido, que incluye la cantidad y los detalles de los artículos. |
EKKO_PurchaseOrderHeader
|
El subproceso Entrada de mercancías, que incluye detalles sobre el movimiento de los artículos de material. |
MATDOC_GoodsReceipt
|
Los subprocesos de facturación, que incluyen los detalles del documento de factura solicitado. |
RBKP_InvoiceHeader
|
El proceso de compra a pago finaliza cuando se registra el pago de la factura en tu sistema. |
ACDOCA_UniversalJournalItem
|
Todos los flujos de procesamiento de Cloud Data Fusion
En el acelerador se encuentran disponibles los siguientes ejemplos de flujos de procesamiento de staging de Cloud Data Fusion:
Configurar flujos de procesamiento de capas dimensionales
Puede extraer KPIs de tablas de SAP de origen. Para preparar los datos para el análisis, organízalos en la tabla de origen de forma que coincidan con la estructura del esquema de la tabla de BigQuery.
El acelerador crea las siguientes tablas de ejemplo:
Table name | Descripción de la tabla |
---|---|
Supplier_dimension |
Lista seleccionada* de proveedores y sus datos asociados, como la información general y la información relacionada con las ventas. |
Material_dimension |
Lista seleccionada de materiales e información asociada, como el número de SKU, la jerarquía de productos y la clasificación. |
Purchase_Order_Fact |
Lista de órdenes de compra, que incluye la organización, el grupo y el tipo de orden de compra. |
Goods_Receipt_Fact |
Lista seleccionada de entradas de mercancías, que incluye información sobre el centro de beneficios y el tipo de movimiento. |
Invoice_Fact |
Lista seleccionada de información relacionada con la factura, incluido el tipo de factura, la cantidad de artículos, el valor y la fecha de publicación de la factura. |
Accounting_Fact |
Lista seleccionada de asientos contables de cada línea de pedido. |
*En este contexto, la lista seleccionada procede de la lógica empresarial que se aplica a la lista de columnas seleccionada.
El acelerador crea la capa dimensional del conjunto de datos de BigQuery mediante secuencias de comandos SQL, que puedes modificar para tu proyecto. Por ejemplo, puedes adaptar estas secuencias de comandos para añadir más columnas a las entidades del conjunto de datos de BigQuery de destino.
Transformación al esquema de estrella: nombres de las canalizaciones del ejecutor de BigQuery
Los siguientes flujos de procesamiento de BigQuery Executor en Cloud Data Fusion cargan datos en tablas de dimensiones y de hechos:
Todos los flujos de procesamiento de transformación dimensional:
Configuración del ejecutor de BigQuery
Nombre de la macro | Ejemplo |
---|---|
${ProjectID} |
sap_adaptor |
${StagingDatasetName} |
sap_cdf_staging |
${TargetDatasetName} |
sap_cdf_dimension |
Conectar Looker al proyecto de BigQuery
Para conectar Looker a BigQuery, consulta la documentación de Looker sobre conexiones de BigQuery.
Instala el bloque
Puedes acceder al bloque de Looker de SAP en GitHub.
El bloque de Looker instala un modelo de LookML preconfigurado con dos entornos de Exploración y dos paneles.