En esta guía, se muestra cómo configurar la replicación de CDC a través de Pub/Sub con BigQuery Connector para SAP.
Antes de comenzar
Obtén información sobre el servicio de Pub/Sub y su terminología.
Asegúrate de que tú o tus administradores hayan completado los siguientes requisitos previos:
- Instala BigQuery Connector para SAP.
- Configura la autenticación.
- Crea un tema de mensajes no entregados.
Instala BigQuery Connector para SAP
Para replicar datos en BigQuery con Pub/Sub, instala la versión 2.9 o posterior de BigQuery Connector para SAP en tu entorno de SAP. Si deseas obtener instrucciones de instalación, consulta Instala BigQuery Connector para SAP.
Si usas la replicación de datos de transmisión con BigQuery Connector para SAP versión 2.8 o anterior, para usar la replicación de CDC a través de Pub/Sub, debes actualizar tu conector a la versión más reciente y, luego, seguir los pasos de migración.
- Si deseas obtener información para actualizar el conector, consulta Actualiza BigQuery Connector para SAP.
- Para obtener información sobre cómo migrar tu replicación, consulta Migra a la replicación de CDC a través de Pub/Sub.
Configura la autenticación
Para acceder a la API de Pub/Sub, debes configurar la autenticación enGoogle Cloud. Para obtener información sobre los métodos de autenticación admitidos y cómo configurar la autenticación, consulta Descripción general de la autenticación para BigQuery Connector para SAP.
Crea un tema de mensajes no entregados
Para controlar los mensajes que una suscripción a BigQuery no puede escribir en la tabla de BigQuery de destino, te recomendamos que crees un tema de mensajes no entregados. Este tema de mensajes no entregados funciona como una cola independiente en la que Pub/Sub publica automáticamente los mensajes que no se pueden entregar después de todos los reintentos.
Para crear el tema de mensajes no entregados, crea un tema estándar de Pub/Sub. Este tema de mensajes no entregados es funcionalmente idéntico a cualquier otro tema de Pub/Sub, pero su propósito es específicamente para los mensajes no entregados. Puedes usar un solo tema de mensajes no entregados para varias cargas de replicación o configurar temas de mensajes no entregados dedicados para cada carga de replicación según tus requisitos.
Especificas este tema de mensajes no entregados cuando configuras la replicación de CDC para que el tema de mensajes no entregados reciba cualquier mensaje que Pub/Sub no pueda escribir en BigQuery a través de la suscripción a BigQuery.
Para analizar los mensajes fallidos, volver a procesarlos o depurar problemas, puedes crear otra suscripción de BigQuery en el tema de mensajes no entregados. Esto automatiza el proceso de tomar mensajes del tema de mensajes no entregados y escribirlos en una tabla de BigQuery dedicada. Para obtener más información, consulta Supervisa el tema de mensajes no entregados para los mensajes con errores.
Para obtener más información sobre los temas de mensajes no entregados, consulta Tema de mensajes no entregados.
Crea roles y autorizaciones de SAP para BigQuery Connector para SAP
A fin de trabajar con BigQuery Connector para SAP, además de las autorizaciones estándar de SAP LT Replication Server, los usuarios necesitan acceso a las transacciones personalizadas que se proporcionan con BigQuery Connector para SAP: /GOOG/SLT_SETTINGS
y /GOOG/REPLIC_VALID
.
De forma predeterminada, los usuarios que tienen acceso a las transacciones personalizadas /GOOG/SLT_SETTINGS
y /GOOG/REPLIC_VALID
pueden modificar la configuración de cualquier configuración, por lo que, si lo necesitas, puedes restringir el acceso a configuraciones específicas. En el caso de los usuarios que solo necesitan ver la configuración de BigQuery Connector para SAP, puedes otorgarles acceso de solo lectura a la transacción personalizada /GOOG/SLT_SETT_DISP
.
Los archivos de transporte de BigQuery Connector para SAP incluyen el objeto Google BigQuery
Settings Authorization
, ZGOOG_MTID
, para las autorizaciones específicas de BigQuery Connector para SAP.
Para otorgar acceso a las transacciones personalizadas y restringir el acceso a configuraciones específicas, sigue estos pasos:
Mediante el código de transacción
PFCG
de SAP, define una función para BigQuery Connector para SAP.Otorga al rol acceso a las transacciones personalizadas
/GOOG/SLT_SETTINGS
y/GOOG/REPLIC_VALID
.Para limitar el acceso de una función, especifica el grupo de autorización de cada configuración a la que puede acceder el rol con el objeto de autorización
ZGOOG_MTID
. Por ejemplo:- Objeto de autorización para BigQuery Connector para SAP (
ZGOOG_MTID
):Activity 01
Authorization Group AUTH_GROUP_1,AUTH_GROUP_N
AUTH_GROUP_01
yAUTH_GROUP_N
son valores que se definen en la configuración de SAP LT Replication Server.Los grupos de autorización especificados para
ZGOOG_MTID
deben coincidir con los grupos de autorización que se especifican para el rol en el objeto de autorizaciónS_DMIS_SLT
de SAP.- Objeto de autorización para BigQuery Connector para SAP (
Crea roles y autorizaciones de SAP para ver la configuración de BigQuery Connector para SAP
Para otorgar acceso de solo lectura a la transacción personalizada /GOOG/SLT_SETT_DISP
, sigue estos pasos:
Mediante el código de transacción
PFCG
de SAP, define un rol para ver la configuración de BigQuery Connector para SAP.Otorga al rol acceso a la transacción personalizada
/GOOG/SLT_SETT_DISP
.Agrega el objeto de autorización para BigQuery Connector para SAP (
ZGOOG_MTID
) con los siguientes atributos:Activity 03
Authorization Group = *
Genera el perfil de rol y asigna usuarios relevantes al rol.
Configurar la replicación
Si deseas configurar la replicación, especifica la configuración de BigQuery Connector para SAP y SAP LT Replication Server.
Crea una configuración de replicación de SAP LT Replication Server
Usa la transacción LTRC
de SAP para crear una configuración de replicación de SAP LT Replication Server.
Si SAP LT Replication Server se ejecuta en un servidor diferente que el sistema SAP de origen, antes de crear una configuración de replicación, confirma que tienes una conexión RFC entre los dos sistemas.
Algunas de las opciones de configuración de la replicación afectan el rendimiento. A fin de determinar los valores de configuración adecuados para tu instalación, consulta la Guía de optimización del rendimiento de tu versión de SAP LT Replication Server en el Portal de ayuda de SAP.
La interfaz y las opciones de configuración para SAP LT Replication Server pueden ser ligeramente diferentes según la versión que uses.
A fin de configurar la replicación, usa el procedimiento para tu versión de SAP LT Replication Server:
- Configura la replicación en DMIS 2011 SP17, DMIS 2018 SP02 o versiones posteriores
- Configura la replicación en DMIS 2011 SP16, DMIS 2018 SP01 o versiones previas
Configura la replicación en DMIS 2011 SP17, DMIS 2018 SP02 o versiones posteriores
Con los siguientes pasos, se configura la replicación en versiones posteriores de SAP LT Replication Server. Si usas una versión anterior, consulta Configura la replicación en DMIS 2011 SP16, DMIS 2018 SP01 o versiones anteriores.
En la GUI de SAP, ingresa el código de transacción
LTRC
.Haz clic en el ícono Crear configuración. Se abrirá el asistente Crear configuración.
En los campos Nombre de la configuración y Descripción, ingresa un nombre y una descripción para la configuración y, luego, haz clic en Siguiente.
Puedes especificar el Grupo de autorización para restringir el acceso a un grupo de autorización específico ahora o especificarlo más tarde.
En el panel Detalles de la conexión del sistema de origen, haz lo siguiente:
- Selecciona el botón de selección Conexión RFC.
- En el campo Destino RFC, especifica el nombre de la conexión RFC al sistema de origen.
- Selecciona las casillas de verificación Permitir el uso múltiple y Leer desde un solo cliente según corresponda. Para obtener más información, consulta la documentación de SAP LT Replication Server.
- Haz clic en Siguiente.
Estos pasos son para una conexión RFC, pero si el origen es una base de datos, puedes seleccionar Conexión de base de datos si ya definiste una conexión mediante la transacción
DBACOCKPIT
.En el panel Target System Connection Details, haz lo siguiente:
- Selecciona el botón de selección Otro.
- En el campo Situación, selecciona SDK de SLT en el menú desplegable.
- Haz clic en Siguiente.
En el panel Especificar la configuración de transferencia:
En el campo Aplicación de la sección Configuración de transferencia de datos, ingresa
/GOOG/SLT_BQ
oZGOOG_SLT_BQ
.En la sección Opciones de trabajo, ingresa los valores de inicio en cada uno de los siguientes campos:
- Cantidad de trabajos de transferencia de datos
- Cantidad de trabajos de carga iniciales
- Cantidad de trabajos de cálculo
En la sección Opciones de replicación, selecciona el botón de selección Tiempo real.
Haz clic en Siguiente.
Después de revisar la configuración, haz clic en Guardar.
Toma nota del ID de tres dígitos en la columna Transferencia masiva. Lo usarás en un paso posterior.
Para obtener más información, consulta el PDF adjunto a la Nota de SAP 2652704: Replicating Data Using SLT SDK - DMIS 2011 SP17, DMIS 2018 SP02.pdf.
Configura la replicación en DMIS 2011 SP16, DMIS 2018 SP01 o versiones previas
Con los siguientes pasos, se configura la replicación en versiones anteriores de SAP LT Replication Server. Si usas una versión posterior, consulta Configura la replicación en DMIS 2011 SP17, DMIS 2018 SP02 o una versión posterior.
- En la GUI de SAP, ingresa el código de transacción
LTRC
. - Haz clic en Nuevo. Se abrirá un cuadro de diálogo para especificar una configuración nueva.
- En el paso Especifica el sistema de origen, haz lo siguiente:
- Elige Conexión RFC como el tipo de conexión.
- Ingresa el nombre de la conexión RFC.
- Asegúrate de que esté seleccionado el campo Permitir el uso múltiple.
- En el paso Especifica el sistema de destino, haz lo siguiente:
- Ingresa los datos de conexión en el sistema de destino.
- Elige Conexión RFC como el tipo de conexión.
- En el campo Situación para la comunicación RFC, selecciona el valor Escribir datos en el destino mediante BAdI de la lista desplegable. La conexión RFC se establece de forma automática como NINGUNA.
- En el paso Especificar la configuración de transferencia, presiona F4 Ayuda. La aplicación que definiste antes se muestra en el campo Aplicación.
- Toma nota del ID de tres dígitos en la columna Transferencia masiva. Lo usarás en un paso posterior.
Para obtener más información, consulta el PDF adjunto a la Nota de SAP 2652704: Replicating Data Using SLT SDK - DMIS 2011 SP15, SP16, DMIS 2018 SP00, SP01.pdf
Crea una configuración de transferencia masiva para BigQuery
Usa la transacción /GOOG/SLT_SETTINGS
personalizada a fin de configurar una transferencia masiva para BigQuery y especificar las asignaciones de campo y tabla.
Selecciona las opciones de transferencia masiva inicial
Cuando ingresas la transacción /GOOG/SLT_SETTINGS
por primera vez, selecciona qué parte de la configuración de transferencia masiva de BigQuery necesitas editar.
Para seleccionar la parte de la configuración de la transferencia masiva, haz lo siguiente:
En la GUI de SAP, ingresa la transacción
/GOOG/SLT_SETTINGS
precedida por/n
:/n/GOOG/SLT_SETTINGS
En el menú desplegable del campo Socio de Google Cloud, selecciona CDC de BigQuery a través de Pub/Sub.
En el menú desplegable Tabla de configuración, en la pantalla de lanzamiento de la transacción
/GOOG/SLT_SETTINGS
, selecciona Transferencias masivas.Para una nueva configuración de transferencia masiva, deja el campo Mass Transfer Key en blanco.
Haz clic en el ícono Ejecutar. Aparecerá la pantalla Mantenimiento de configuración de BigQuery - Transferencias masivas.
Especifica la creación de tablas y otros atributos generales
En la sección inicial de una configuración de transferencia masiva de BigQuery, identificas la configuración de transferencia masiva y especificas la clave de cliente asociada, así como ciertas propiedades relacionadas con la creación de la tabla de BigQuery de destino.
SAP LT Replication Server guarda la configuración de la transferencia masiva como un registro en la tabla de configuración personalizada /GOOG/BQ_MASTR
.
En la pantalla Mantenimiento de configuración de BigQuery - Transferencias masivas, haz clic en el ícono Agregar fila.
En el campo Clave de transferencia masiva, especifica un nombre para esta transferencia. Este nombre se convierte en la clave primaria de la transferencia masiva.
En el campo ID de transferencia masiva, ingresa el ID de tres dígitos que se generó cuando creaste la configuración de replicación correspondiente de SAP LT Replication Server.
Para usar las etiquetas o descripciones cortas de los campos de origen como los nombres de los campos de destino en BigQuery, haz clic en la casilla de verificación Usar marcas de nombres personalizadas. Si deseas obtener más información sobre los nombres de campos, consulta Opciones de nombres predeterminados para los campos.
Para almacenar el tipo de cambio que activó una inserción y habilitar la validación de los recuentos de registros entre la tabla de origen, las estadísticas de SAP LT Replication Server y la tabla de BigQuery, selecciona la casilla de verificación Marca de campos adicionales.
Cuando se configura esta marca, BigQuery Connector para SAP agrega columnas al esquema de tabla de BigQuery. Si deseas obtener más información, consulta Campos adicionales para los cambios de registro y las consultas de recuento.
Para dejar de enviar datos cuando se encuentra un registro con un error de datos, la casilla de verificación Marca de pausa en el primer error está marcada de forma predeterminada. Te recomendamos que la dejes marcada. Para obtener más información, consulta La marca BREAK.
De manera opcional, para reducir automáticamente el tamaño del fragmento cuando el tamaño de bytes de un fragmento supera el tamaño máximo de bytes para las solicitudes HTTP que acepta Pub/Sub, haz clic en la casilla de verificación Marca de tamaño fragmento dinámico. Para obtener más información sobre el tamaño de fragmento dinámico, consulta Tamaño de fragmento dinámico.
Cuando se encuentre un registro con un error de datos, para omitir el registro y continuar insertando registros en la tabla de BigQuery, haz clic en la casilla de verificación Marca de omisión de registros no válidos. Te recomendamos que la dejes sin marcar. Para obtener más información, consulta La marca SKIP.
En el campo Nombre de la clave de Google Cloud, ingresa el nombre de la clave del cliente especificada en la configuración de
/GOOG/CLIENT_KEY
.BigQuery Connector para SAP recupera el Google Cloud identificador del proyecto automáticamente desde la configuración
/GOOG/CLIENT_KEY
.En el campo Conjunto de datos de BigQuery, ingresa el nombre del conjunto de datos de destino de BigQuery que creaste antes en este procedimiento.
En el campo Marca de que la configuración está activa, haz clic en la casilla de verificación para habilitar la configuración de transferencia masiva
Haz clic en Guardar.
Se agrega un registro de transferencia masiva en la tabla
/GOOG/BQ_MASTR
y se propagan automáticamente los campos Modificado por, Se cambió el y Se cambió a las.Haz clic en Mostrar tabla.
Se muestra el registro de transferencia masiva nuevo seguido del panel de entrada del atributo de tabla.
Especifica atributos de tabla
Puedes especificar atributos de tabla, como el nombre y la partición de la tabla, así como la cantidad de registros que se incluirán en cada transmisión o fragmento que se envía a BigQuery, en la segunda sección de la transacción /GOOG/SLT_SETTINGS
.
La configuración que especificas se almacena como un registro en la tabla de configuración /GOOG/BQ_TABLE
.
Para especificar atributos de tabla, haz lo siguiente:
Haz clic en el ícono Agregar fila.
En el campo Nombre de la tabla de SAP, ingresa el nombre de la tabla de origen de SAP.
En el campo Nombre de tabla externa, proporciona el nombre de la tabla de BigQuery de destino. Si la tabla de destino aún no existe, BigQuery Connector para SAP crea esta tabla intercalada con la definición de la tabla de SAP. También define las claves principales en esta tabla para habilitar las operaciones
UPSERT
oDELETE
. La tabla admite claves primarias compuestas que contengan hasta 16 columnas. Para conocer las convenciones de nombres de BigQuery para las tablas, consulta Nombres de tablas.Omite la Enviar marca sin comprimir. Para la replicación de CDC a través de Pub/Sub, no se admite la función de compresión de registros.
De manera opcional, en el campo Tamaño del fragmento, especifica la cantidad máxima de registros que se incluirán en cada fragmento que se envía a Pub/Sub. Te recomendamos que uses el tamaño de fragmento predeterminado con BigQuery Connector para SAP, que es de 1,000 registros. Esta es la cantidad máxima de registros que permite Pub/Sub.
Si los registros de origen tienen una gran cantidad de campos, la cantidad de campos puede aumentar el tamaño general de bytes de los fragmentos, lo que puede causar errores en los fragmentos. Si esto ocurre, intenta reducir el tamaño del fragmento para reducir el tamaño de los bytes. Si deseas obtener más información, consulta Tamaño del fragmento en BigQuery Connector para SAP. De manera alternativa, para ajustar automáticamente el tamaño de fragmento, habilita el tamaño dinámico del fragmento. Para obtener más información, consulta Tamaño de fragmento dinámico.
De forma opcional, en el campo Tipo de partición, especifica un incremento de tiempo para usar en la partición. Los valores válidos son
HOUR
,DAY
,MONTH
oYEAR
. Para obtener más información, consulta Partición de tablas.De forma opcional, en el campo Campo de partición, especifica el nombre de un campo en la tabla de BigQuery de destino que contenga una marca de tiempo para usar en la partición. Cuando especificas el Campo de partición, también debes especificar el Tipo de partición. Para obtener más información, consulta Partición de tablas.
En el campo Marca de que la configuración está activa, haz clic en la casilla de verificación para habilitar los atributos de tabla. Si el cuadro Marca de que la configuración está activa no está marcado, BigQuery Connector para SAP crea la tabla de BigQuery con el nombre de la tabla de SAP de origen, el tamaño de fragmento predeterminado y sin partición.
Para la replicación de CDC a través de Pub/Sub, especifica los siguientes atributos:
Para habilitar la replicación de CDC en BigQuery a través de Pub/Sub, selecciona la casilla de verificación Repl CPS (Replication Cloud Pub/Sub).
Si esta casilla de verificación no está marcada, BigQuery Connector para SAP usa la replicación de datos de transmisión, y los campos de configuración relacionados con Pub/Sub se inhabilitan.
En el campo Esquema de Pub/Sub, ingresa un nombre para el esquema de Pub/Sub. BigQuery Connector para SAP crea o actualiza automáticamente un esquema de Avro existente para que coincida con la definición de la tabla de SAP.
En el campo Tema de Pub/Sub, ingresa un nombre para el tema de Pub/Sub en el que se publican los mensajes. BigQuery Connector para SAP crea un tema automáticamente.
En el campo Suscripción a Pub/Sub, ingresa un nombre para la suscripción a BigQuery que consume mensajes del tema de Pub/Sub y escribe en BigQuery. BigQuery Connector para SAP crea automáticamente una suscripción y la vincula al tema especificado en el paso anterior.
En el campo Dead Letter Queue, ingresa el nombre del tema de mensajes no entregados de Pub/Sub. Este tema de mensajes no entregados recibe mensajes que Pub/Sub no puede escribir en BigQuery a través de la suscripción a BigQuery. Para obtener más información sobre los temas de mensajes no entregados, consulta Crea un tema de mensajes no entregados.
Para habilitar la funcionalidad de captura de datos modificados (CDC) para la tabla, selecciona la casilla de verificación Act. CDC (Activar CDC).
Para optimizar el rendimiento de las cargas iniciales, selecciona la casilla de verificación Cache Val (validación de caché).
Cuando seleccionas este campo, el conector proporciona el máximo rendimiento para las transferencias de datos grandes. El sistema ejecuta validaciones de la canalización Google Cloud en intervalos y almacena los resultados en caché. El conector proporciona una transformación rápida de los datos y los envía directamente a Pub/Sub. Para obtener más información, consulta Validaciones de caché.
Haz clic en Guardar.
Tus atributos se almacenan como un registro en la tabla de configuración
/GOOG/BQ_TABLE
y automáticamente se propagan los campos Modificado por, Se cambió el y Se cambió a las.Haz clic en Mostrar campos.
Se muestra el nuevo registro de atributos de la tabla, seguido del panel de entrada de asignación de campos.
Personaliza la asignación de campos predeterminada
Si la tabla de SAP de origen contiene campos de marca de tiempo o booleanos, cambia la asignación de tipo de datos predeterminada para reflejar con precisión el tipo de datos en la tabla de BigQuery de destino.
También puedes cambiar otros tipos de datos, así como los nombres que se usan para los campos de destino.
Puedes editar la asignación predeterminada directamente en la GUI de SAP o puedes exportar la asignación predeterminada a una hoja de cálculo o un archivo de texto para que otros puedan editar los valores sin requerir acceso a SAP LT Replication Server.
Para obtener más información sobre la asignación de campos predeterminada y los cambios que puedes realizar, consulta Asignación de tipos de datos.
Para personalizar la asignación predeterminada de los campos de BigQuery de destino, haz lo siguiente:
En la página Mantenimiento de la configuración de BigQuery: Campos de la transacción
/GOOG/SLT_SETTINGS
, muestra las asignaciones de campo predeterminadas para la transferencia masiva que estás configurando.Edita el tipo de Avro de destino para un campo en la columna Tipo de AVRO según sea necesario. En particular, cambia el tipo de Avro de destino por los siguientes tipos de Avro:
- Booleanos. Cambia el tipo de Avro de destino predeterminado de
STRING
aBOOLEAN
. - Hexadecimales. Cambia el tipo de Avro de destino predeterminado de
STRING
aBYTES
.
Para editar el tipo de Avro, haz lo siguiente:
- En la fila del campo que necesitas editar, haz clic en el campo Tipo de Avro.
- En el cuadro de diálogo para el tipo de Avro, selecciona el tipo de datos de BigQuery que necesitas.
- Confirma los cambios y, luego, haz clic en Guardar.
- Booleanos. Cambia el tipo de Avro de destino predeterminado de
Edita los tipos de datos de destino predeterminados en la columna Elemento de datos externo según sea necesario. En particular, cambia el tipo de datos de destino por los siguientes tipos de datos:
- Marcas de tiempo. Cambia el tipo de datos de destino predeterminado de
NUMERIC
aTIMESTAMP
oTIMESTAMP (LONG)
. - Booleanos. Cambia el tipo de datos de destino predeterminado de
STRING
aBOOLEAN
. - Hexadecimales. Cambia el tipo de datos de destino predeterminado de
STRING
aBYTES
.
Para editar la asignación de tipo de datos predeterminada, haz lo siguiente:
- En la fila del campo que necesitas editar, haz clic en el campo Elemento de datos externo.
- En el cuadro de diálogo para los tipos de datos, selecciona el tipo de datos de BigQuery que necesitas.
- Confirma los cambios y, luego, haz clic en Guardar.
- Marcas de tiempo. Cambia el tipo de datos de destino predeterminado de
Si especificaste la marca Nombres personalizados en la página Mantenimiento de la configuración de BigQuery, edita los nombres de los campos de destino predeterminados en la columna Nombre de campo temporal según sea necesario.
Los valores que especifiques anulan los nombres predeterminados que se muestran en la columna Nombre de campo externo.
Edita las descripciones predeterminadas de los campos de destino en la columna Descripción del campo según sea necesario.
De forma opcional, exporta el mapa de campos para la edición externa. Para obtener instrucciones, consulta Edita el mapa de campos de BigQuery en un archivo CSV.
Una vez que se hayan completado todos los cambios y se hayan subido los valores editados externamente, confirma que la casilla de verificación Marca de que la configuración está activa esté seleccionada. Si no está seleccionada la opción Marca de que la configuración está activa, BigQuery Connector para SAP crea tablas de destino con los valores predeterminados.
Haz clic en Guardar.
Los cambios se almacenan en la tabla de configuración
/GOOG/BQ_FIELD
y se propagan automáticamente los campos Modificado por, Se cambió el y Se cambió a las.
Habilita el almacenamiento en caché de tokens
Para mejorar el rendimiento de la replicación, te recomendamos que habilites el almacenamiento en caché para el token de acceso que recuperas de Google Cloud.
Habilitar el almacenamiento en caché de tokens garantiza que el token de acceso se vuelva a usar hasta que este venza o se revoque, lo que, a su vez, reduce la cantidad de llamadas HTTP realizadas para recuperar nuevos tokens de acceso.
Para habilitar el almacenamiento en caché de tokens, selecciona la marca Almacenamiento en caché de tokens en la tabla de claves de cliente /GOOG/CLIENT_KEY
.
Cuando habilitas el almacenamiento en caché de tokens, el token de acceso se almacena en la memoria compartida de tu servidor de aplicaciones de SAP LT Replication Server durante el tiempo que se configura para el campo Segundos de actualización del token en /GOOG/CLIENT_KEY
. Si no se especifica Segundos de actualización dei token o se configura como 0
, el token de acceso se almacena en caché para el valor especificado en el parámetro CMD_SECS_DEFLT
de la configuración avanzada.
Para las cargas de trabajo de SAP que no se ejecutan en Google Cloud, los tokens de acceso almacenados en caché también evitan problemas técnicos que pueden surgir durante la replicación de grandes cargas de datos, en la que varios procesos de SAP LT Replication Server pueden solicitar simultáneamente un token de acceso en cualquier momento.
En el caso de las cargas de trabajo de SAP que se ejecutan en Google Cloud y usan una cuenta de servicio administrada por el usuario para acceder a BigQuery o Pub/Sub, el almacenamiento en caché de tokens puede generar una mejora significativa, ya que la recuperación de un token de acceso en esta situación implica realizar dos llamadas HTTP.
Borra el token de acceso almacenado en caché
Cuando el almacenamiento en caché del token está habilitado y actualizas los roles asignados a la cuenta de servicio que BigQuery Connector para SAP usa para acceder a BigQuery o Pub/Sub, el token de acceso nuevo que corresponde a los roles actualizados se recupera solo después de que caduca el token existente almacenado en caché. En esos casos, puedes borrar el token de acceso de forma manual.
Para borrar el token de acceso almacenado en caché, ingresa la transacción SE38
y, luego, ejecuta el programa /GOOG/R_CLEAR_TOKEN_CACHE
.
Prueba la configuración de replicación
Prueba la configuración de la replicación mediante el inicio del aprovisionamiento de datos:
Abre SAP LT Replication Server Cockpit (transacción
LTRC
) en la GUI de SAP.Haz clic en la configuración de transferencia masiva para la replicación de tabla que estás probando.
Haz clic en Aprovisionamiento de datos.
En el panel Aprovisionamiento de datos, inicia el aprovisionamiento de datos:
- Ingresa el nombre de la tabla de origen.
- Haz clic en el botón de selección para el tipo de aprovisionamiento de datos que deseas probar. Por ejemplo, Iniciar carga.
Haz clic en el ícono Ejecutar. La transferencia de datos comienza y el progreso se muestra en la pantalla Objetos participantes.
Si la tabla no existe en BigQuery, BigQuery Connector para SAP crea la tabla a partir de un esquema que se compile a partir de los atributos de tabla y campo que definiste con anterioridad con la transacción
/GOOG/SLT_SETTINGS
.El tiempo que tarda una carga inicial de una tabla depende del tamaño de la tabla y sus registros.
Los mensajes se escriben en la sección Registros de aplicaciones de SAP LT Replication Server en la transacción
LTRC
.
Valida la replicación
Puedes validar la replicación mediante los siguientes métodos:
- En SAP LT Replication Server, haz lo siguiente:
- Supervisa la replicación en la pantalla Aprovisionamiento de datos.
- Comprueba si hay mensajes de error en la pantalla Registros de la aplicación.
En la pestaña de información de la tabla en BigQuery, haz lo siguiente:
- Revisa la pestaña Esquema para asegurarte de que el esquema se vea bien.
- Consulta la pestaña Vista previa para obtener una vista previa de las filas insertadas.
- Revisa la pestaña Detalles para ver la cantidad de filas insertadas, el tamaño de la tabla y más información.
Comprueba la replicación en SAP LT Replication Server
Usa la transacción LTRC
para ver el progreso de los trabajos de replicación o carga inicial después de iniciarlos y verificar los mensajes de error.
Puedes ver el estado de la carga en la pestaña Estadísticas de cargas y el progreso del trabajo en la pestaña Supervisión de transferencias de datos en SAP LT Replication Server.
En la pantalla Registros de la aplicación de la transacción LTRC
, puedes ver todos los mensajes que muestra BigQuery, BigQuery Connector para SAP y SAP LT Replication Server.
Los mensajes que emite el código de BigQuery Connector para SAP en SAP LT Replication Server comienzan con el prefijo /GOOG/SLT
. Los mensajes que se muestran desde la API de BigQuery comienzan con el prefijo /GOOG/MSG
.
Los mensajes que muestra SAP LT Replication Server no comienzan con un prefijo /GOOG/
.
Verifica la replicación en BigQuery
En la consola de Google Cloud , confirma que la tabla se haya creado y que BigQuery inserte datos en ella.
En la consola de Google Cloud , ve a la página BigQuery.
En el campo de búsqueda de la sección Explorador, escribe el nombre de la tabla de BigQuery de destino y, luego, presiona
Enter
.La información de la tabla se muestra en una pestaña en el panel de contenido en el lado derecho de la página.
En la sección de información de tabla, haz clic en los siguientes encabezados para verificar la inserción de tabla y fila:
- Vista previa, que muestra las filas y los campos que se insertan en la tabla de BigQuery.
- Esquema, que muestra los nombres de campo y los tipos de datos.
- Detalles, que muestra el tamaño de la tabla, la cantidad total de filas y otros detalles.
Solucionar problemas
Si deseas obtener información para diagnosticar y resolver problemas que puedes encontrar cuando configuras BigQuery Connector para SAP, consulta la guía de solución de problemas de BigQuery Connector para SAP.
Obtenga asistencia
Si necesitas ayuda para resolver problemas relacionados con la configuración de BigQuery Connector para SAP, recopila toda la información de diagnóstico disponible y comunícate con el servicio de atención al cliente de Cloud. Si deseas obtener más información para comunicarte con el equipo de Atención al cliente, consulta Obtén asistencia para SAP en Google Cloud.