Configura il connettore per la replica CDC tramite Pub/Sub

Questa guida mostra come configurare la replica CDC tramite Pub/Sub utilizzando BigQuery Connector per SAP.

Prima di iniziare

Scopri di più sul servizio Pub/Sub e sulla sua terminologia.

Assicurati che tu o i tuoi amministratori abbiate completato i seguenti prerequisiti:

Installa BigQuery Connector per SAP

Per replicare i dati in BigQuery utilizzando Pub/Sub, installa BigQuery Connector per SAP versione 2.9 o successive nel tuo ambiente SAP. Per istruzioni sull'installazione, consulta Installare BigQuery Connector per SAP.

Se utilizzi la replica dei dati di streaming con BigQuery Connector per SAP versione 2.8 o precedente, per utilizzare la replica CDC tramite Pub/Sub, devi aggiornare il connettore all'ultima versione e poi seguire i passaggi di migrazione.

Configura l'autenticazione

Per accedere all'API Pub/Sub, devi configurare l'autenticazione per Google Cloud. Per informazioni sui metodi di autenticazione supportati e su come configurare l'autenticazione, consulta Panoramica dell'autenticazione per il connettore BigQuery per SAP.

Crea un argomento messaggi non recapitabili

Per gestire i messaggi che una sottoscrizione BigQuery non riesce a scrivere nella tabella BigQuery di destinazione, ti consigliamo di creare un argomento dead letter. Questo argomento messaggi non recapitabili funge da coda separata in cui Pub/Sub pubblica automaticamente i messaggi non recapitabili dopo tutti i tentativi.

Per creare l'argomento messaggi non recapitabili, crea un argomento Pub/Sub standard. Questo argomento messaggi non recapitabili è funzionalmente identico a qualsiasi altro argomento Pub/Sub, ma il suo scopo è specificamente quello di gestire i messaggi non recapitabili. Puoi utilizzare un singolo argomento messaggi non recapitabilir per più carichi di replica o configurare argomenti dead letter dedicati per ogni carico di replica in base ai tuoi requisiti.

Specifichi questo argomento messaggi non recapitabili quando configuri la replica CDC, in modo che l'argomento messaggi non recapitabili riceva tutti i messaggi che Pub/Sub non riesce a scrivere in BigQuery tramite la sottoscrizione BigQuery.

Per analizzare i messaggi non recapitati, rielaborarli o eseguire il debug dei problemi, puoi creare un'altra sottoscrizione BigQuery nell&#39argomento messaggi non recapitabilir. In questo modo, il processo di recupero dei messaggi dall'argomento messaggi non recapitabili e la loro scrittura in una tabella BigQuery dedicata vengono automatizzati. Per maggiori informazioni, vedi Monitorare l'argomento messaggi non recapitabili per i messaggi non riusciti.

Per saperne di più sugli argomenti dead letter, consulta Argomento dead letter.

Creare ruoli e autorizzazioni SAP per BigQuery Connector per SAP

Per utilizzare BigQuery Connector per SAP, oltre alle autorizzazioni standard di SAP LT Replication Server, gli utenti devono accedere alle transazioni personalizzate fornite con BigQuery Connector per SAP: /GOOG/SLT_SETTINGS e /GOOG/REPLIC_VALID.

Per impostazione predefinita, gli utenti che hanno accesso alle transazioni personalizzate /GOOG/SLT_SETTINGS e /GOOG/REPLIC_VALID possono modificare le impostazioni di qualsiasi configurazione, quindi, se necessario, puoi limitare l'accesso a configurazioni specifiche. Per gli utenti che devono solo visualizzare le impostazioni di BigQuery Connector per SAP, puoi concedere loro l'accesso in sola lettura alla transazione personalizzata /GOOG/SLT_SETT_DISP.

I file di trasporto di BigQuery Connector per SAP includono l'oggetto Google BigQuery Settings Authorization, ZGOOG_MTID, per le autorizzazioni specifiche di BigQuery Connector per SAP.

Per concedere l'accesso alle transazioni personalizzate e limitare l'accesso a configurazioni specifiche:

  1. Utilizzando il codice transazione SAP PFCG, definisci un ruolo per il BigQuery Connector per SAPP.

  2. Concedi al ruolo l'accesso alle transazioni personalizzate /GOOG/SLT_SETTINGS e /GOOG/REPLIC_VALID .

  3. Per limitare l'accesso di un ruolo, specifica il gruppo di autorizzazione di ogni configurazione a cui il ruolo può accedere utilizzando l'oggetto di autorizzazione ZGOOG_MTID. Ad esempio:

    • Oggetto di autorizzazione per BigQuery Connector per SAP (ZGOOG_MTID):
      • Activity 01
      • Authorization Group AUTH_GROUP_1,AUTH_GROUP_N

    AUTH_GROUP_01 e AUTH_GROUP_N sono valori definiti nella configurazione di SAP LT Replication Server.

    I gruppi di autorizzazione specificati per ZGOOG_MTID devono corrispondere a quelli specificati per il ruolo nell'oggetto di autorizzazione SAP S_DMIS_SLT.

Creare ruoli e autorizzazioni SAP per visualizzare le impostazioni di BigQuery Connector per SAP

Per concedere l'accesso di sola lettura alla transazione personalizzata /GOOG/SLT_SETT_DISP, segui questi passaggi:

  1. Utilizzando il codice di transazione SAP PFCG, definisci un ruolo per visualizzare le impostazioni di BigQuery Connector per SAP.

  2. Concedi al ruolo l'accesso alla transazione personalizzata /GOOG/SLT_SETT_DISP.

  3. Aggiungi l'oggetto di autorizzazione per BigQuery Connector per SAP (ZGOOG_MTID) con i seguenti attributi:

    • Activity 03
    • Authorization Group = *
  4. Genera il profilo del ruolo e assegna gli utenti pertinenti al ruolo.

Configura la replica

Per configurare la replica, specifica le impostazioni di BigQuery Connector per SAP e SAP LT Replication Server.

Crea una configurazione di replica SAP LT Replication Server

Utilizza la transazione SAP LTRC per creare una configurazione di replica di SAP LT Replication Server.

Se SAP LT Replication Server è in esecuzione su un server diverso dal sistema SAP di origine, prima di creare una configurazione di replica, verifica di disporre di una connessione RFC tra i due sistemi.

Alcune impostazioni nella configurazione della replica influiscono sulle prestazioni. Per determinare i valori di impostazione appropriati per l'installazione, consulta la guida all'ottimizzazione delle prestazioni per la tua versione di SAP LT Replication Server nel portale di assistenza SAP.

L'interfaccia e le opzioni di configurazione per SAP LT Replication Server potrebbero essere leggermente diverse a seconda della versione che utilizzi.

Per configurare la replica, utilizza la procedura per la tua versione di SAP LT Replication Server:

Configurare la replica in DMIS 2011 SP17, DMIS 2018 SP02 o versioni successive

I seguenti passaggi configurano la replica nelle versioni successive di SAP LT Replication Server. Se utilizzi una versione precedente, consulta Configurare la replica in DMIS 2011 SP16, DMIS 2018 SP01 o versioni precedenti.

  1. Nella GUI SAP, inserisci il codice di transazione LTRC.

  2. Fai clic sull'icona Crea configurazione. Si apre la procedura guidata Crea configurazione.

  3. Nei campi Nome configurazione e Descrizione, inserisci un nome e una descrizione per la configurazione, quindi fai clic su Avanti.

    Puoi specificare il gruppo di autorizzazione per limitare l'accesso a un gruppo di autorizzazione specifico ora o specificarlo in un secondo momento.

  4. Nel riquadro Dettagli connessione sistema di origine:

    • Seleziona il pulsante di opzione Connessione RFC.
    • Nel campo Destinazione RFC, specifica il nome della connessione RFC al sistema di origine.
    • Seleziona le caselle di controllo Consenti utilizzo multiplo e Lettura da un singolo client in base alle tue esigenze. Per saperne di più, consulta la documentazione di SAP LT Replication Server.
    • Fai clic su Avanti.

    Questi passaggi riguardano una connessione RFC, ma se l'origine è un database, puoi selezionare Connessione DB se hai già definito una connessione utilizzando invece la transazione DBACOCKPIT.

  5. Nel riquadro Dettagli connessione sistema di destinazione:

    • Seleziona il pulsante di opzione Altro.
    • Nel campo Scenario, seleziona SDK SLT dal menu a discesa.
    • Fai clic su Avanti.
  6. Nel riquadro Specifica impostazioni di trasferimento:

    1. Nel campo Applicazione della sezione Impostazioni di trasferimento dei dati, inserisci /GOOG/SLT_BQ o ZGOOG_SLT_BQ.

    2. Nella sezione Opzioni job, inserisci i valori iniziali in ciascuno dei seguenti campi:

      • Numero di job di trasferimento dei dati
      • Number of Initial Load Jobs
      • Numero di job di calcolo
    3. Nella sezione Opzioni di replica, seleziona il pulsante di opzione In tempo reale.

    4. Fai clic su Avanti.

  7. Dopo aver esaminato la configurazione, fai clic su Salva.

  8. Prendi nota dell'ID di tre cifre nella colonna Trasferimento collettivo. Lo utilizzerai in un passaggio successivo.

Per ulteriori informazioni, consulta il PDF allegato alla nota SAP 2652704: Replicating Data Using SLT SDK - DMIS 2011 SP17, DMIS 2018 SP02.pdf.

Configura la replica in DMIS 2011 SP16, DMIS 2018 SP01 o versioni precedenti

I seguenti passaggi configurano la replica nelle versioni precedenti di SAP LT Replication Server. Se utilizzi una versione successiva, consulta Configurare la replica in DMIS 2011 SP17, DMIS 2018 SP02 o versioni successive.

  1. Nella GUI SAP, inserisci il codice di transazione LTRC.
  2. Fai clic su New (Nuovo). Si apre una finestra di dialogo per specificare una nuova configurazione.
  3. Nel passaggio Specifica sistema di origine:
    • Scegli Connessione RFC come tipo di connessione.
    • Inserisci il nome della connessione RFC.
    • Assicurati che il campo Consenti utilizzo multiplo sia selezionato.
  4. Nel passaggio Specifica sistema di destinazione:
    • Inserisci i dati di connessione al sistema di destinazione.
    • Scegli Connessione RFC come tipo di connessione.
    • Nel campo Scenario for RFC Communication (Scenario per la comunicazione RFC), seleziona il valore Write Data to Target Using BAdI (Scrivi dati nella destinazione utilizzando BAdI) dall'elenco a discesa. La connessione RFC è impostata automaticamente su NONE.
  5. Nel passaggio Specifica impostazioni di trasferimento, premi F4 Guida. L'applicazione che hai definito in precedenza viene visualizzata nel campo Applicazione.
  6. Prendi nota dell'ID di tre cifre nella colonna Trasferimento collettivo. Lo utilizzerai in un passaggio successivo.

Per ulteriori informazioni, consulta il PDF allegato alla nota SAP 2652704: Replicating Data Using SLT SDK - DMIS 2011 SP15, SP16, DMIS 2018 SP00, SP01.pdf.

Crea una configurazione di trasferimento collettivo per BigQuery

Utilizza la transazione personalizzata /GOOG/SLT_SETTINGS per configurare un trasferimento collettivo per BigQuery e specificare i mapping di tabelle e campi.

Seleziona le opzioni di trasferimento collettivo iniziale

Quando inserisci per la prima volta la transazione /GOOG/SLT_SETTINGS, seleziona la parte della configurazione del trasferimento collettivo BigQuery che devi modificare.

Per selezionare la parte della configurazione del trasferimento collettivo, segui questi passaggi:

  1. Nella GUI di SAP, inserisci la transazione /GOOG/SLT_SETTINGS preceduta da /n:

    /n/GOOG/SLT_SETTINGS
  2. Dal menu a discesa nel campo Partner Google Cloud, seleziona BigQuery CDC tramite Pub/Sub.

  3. Nel menu a discesa Tabella delle impostazioni nella schermata di avvio della transazione /GOOG/SLT_SETTINGS, seleziona Trasferimenti collettivi.

    Per una nuova configurazione del trasferimento collettivo, lascia vuoto il campo Chiave di trasferimento collettivo.

  4. Fai clic sull'icona Esegui. Viene visualizzata la schermata BigQuery Settings Maintenance - Mass Transfers.

Specifica la creazione della tabella e altri attributi generali

Nella sezione iniziale di una configurazione di trasferimento collettivo BigQuery, identifichi la configurazione di trasferimento collettivo e specifichi la chiave client associata, nonché determinate proprietà relative alla creazione della tabella BigQuery di destinazione.

SAP LT Replication Server salva la configurazione del trasferimento collettivo come record nella tabella di configurazione personalizzata /GOOG/BQ_MASTR.

  1. Nella schermata BigQuery Settings Maintenance - Mass Transfers, fai clic sull'icona Aggiungi riga.

  2. Nel campo Chiave di trasferimento collettivo, definisci un nome per questo trasferimento. Questo nome diventa la chiave primaria del trasferimento collettivo.

  3. Nel campo ID trasferimento collettivo, inserisci l'ID di tre cifre generato quando crei la configurazione di replica corrispondente di SAP LT Replication Server.

  4. Per utilizzare le etichette o le descrizioni brevi dei campi di origine come nomi per i campi di destinazione in BigQuery, fai clic sulla casella di controllo Utilizza flag nomi personalizzati. Per ulteriori informazioni sui nomi dei campi, consulta Opzioni di denominazione predefinite per i campi.

  5. Per memorizzare il tipo di modifica che ha attivato un inserimento e per attivare la convalida dei conteggi dei record tra la tabella di origine, le statistiche di SAP LT Replication Server e la tabella BigQuery, seleziona la casella di controllo Flag campi aggiuntivi.

    Quando questo flag è impostato, BigQuery Connector per SAP aggiunge colonne allo schema della tabella BigQuery. Per ulteriori informazioni, vedi Campi aggiuntivi per le modifiche ai record e le query di conteggio.

  6. Per interrompere l'invio dei dati quando viene rilevato un record con un errore di dati, la casella di controllo Interrompi al primo errore è selezionata per impostazione predefinita. Ti consigliamo di lasciare questa casella selezionata. Per ulteriori informazioni, vedi Il flag BREAK.

  7. (Facoltativo) Per ridurre automaticamente le dimensioni del chunk quando le dimensioni in byte di un chunk superano le dimensioni massime in byte per le richieste HTTP accettate da Pub/Sub, seleziona la casella di controllo Flag per le dimensioni dinamiche del chunk. Per ulteriori informazioni sulle dimensioni dinamiche dei chunk, vedi Dimensioni dinamiche dei chunk.

  8. Quando viene rilevato un record con un errore nei dati, per ignorarlo e continuare a inserire record nella tabella BigQuery, seleziona la casella di controllo Ignora flag record non validi. Ti consigliamo di lasciare questa casella deselezionata. Per ulteriori informazioni, vedi Il flag SKIP.

  9. Nel campo Nome chiave Google Cloud, inserisci il nome della chiave client specificata nella configurazione /GOOG/CLIENT_KEY.

    BigQuery Connector per SAP recupera automaticamente l' Google Cloud identificatore progetto dalla configurazione di /GOOG/CLIENT_KEY.

  10. Nel campo Set di dati BigQuery, inserisci il nome del set di dati BigQuery di destinazione che hai creato in precedenza in questa procedura.

  11. Nel campo Is Setting Active Flag (Il flag di impostazione è attivo), attiva la configurazione del trasferimento collettivo facendo clic sulla casella di controllo.

  12. Fai clic su Salva.

    Un record di trasferimento collettivo viene aggiunto nella tabella /GOOG/BQ_MASTR e i campi Modificato da, Modificato il e Modificato alle vengono compilati automaticamente.

  13. Fai clic su Mostra tabella.

    Viene visualizzato il nuovo record di trasferimento collettivo seguito dal riquadro di inserimento degli attributi della tabella.

Specifica gli attributi della tabella

Puoi specificare gli attributi della tabella, come il nome e il partizionamento, nonché il numero di record da includere in ogni trasmissione o chunk inviato a BigQuery, nella seconda sezione della transazione /GOOG/SLT_SETTINGS.

Le impostazioni che specifichi vengono archiviate come record nella tabella di configurazione /GOOG/BQ_TABLE.

Per specificare gli attributi della tabella:

  1. Fai clic sull'icona Aggiungi riga.

  2. Nel campo SAP Table Name (Nome tabella SAP), inserisci il nome della tabella SAP di origine.

  3. Nel campo Nome tabella esterna, fornisci il nome della tabella BigQuery di destinazione. Se la tabella di destinazione non esiste già, BigQuery Connector per SAP la crea in linea con la definizione della tabella SAP. Definisce inoltre le chiavi primarie in questa tabella per abilitare le operazioni UPSERT o DELETE. La tabella supporta chiavi primarie composite contenenti fino a 16 colonne. Per le convenzioni di denominazione di BigQuery per le tabelle, consulta Denominazione delle tabelle.

  4. Salta l'opzione Invia segnalazione non compressa. Per la replica CDC tramite Pub/Sub, la funzionalità di compressione dei record non è supportata.

  5. (Facoltativo) Nel campo Dimensione chunk, specifica il numero massimo di record da includere in ogni chunk inviato a Pub/Sub. Ti consigliamo di utilizzare la dimensione predefinita dei chunk con BigQuery Connector per SAP, ovvero 1000 record. Questo è il numero massimo di record consentiti da Pub/Sub.

    Se i record di origine hanno un numero elevato di campi, il numero di campi può aumentare le dimensioni complessive in byte dei chunk, il che può causare errori dei chunk. In questo caso, prova a ridurre le dimensioni del blocco per ridurre le dimensioni in byte. Per ulteriori informazioni, vedi Dimensione dei blocchi nel connettore BigQuery per SAP. In alternativa, per regolare automaticamente le dimensioni dei segmenti, attiva le dimensioni dinamiche dei segmenti. Per ulteriori informazioni, vedi Dimensioni dinamiche dei chunk.

  6. (Facoltativo) Nel campo Tipo di partizione, specifica un incremento di tempo da utilizzare per il partizionamento. I valori validi sono HOUR, DAY, MONTH o YEAR. Per ulteriori informazioni, vedi Partizionamento delle tabelle.

  7. (Facoltativo) Nel campo Campo di partizionamento, specifica il nome di un campo nella tabella BigQuery di destinazione che contiene un timestamp da utilizzare per il partizionamento. Quando specifichi Campo partizione, devi anche specificare Tipo di partizione. Per ulteriori informazioni, vedi Partizionamento delle tabelle.

  8. Nel campo Is Setting Active Flag, attiva gli attributi della tabella facendo clic sulla casella di controllo. Se la casella Is Setting Active Flag non è selezionata, BigQuery Connector per SAP crea la tabella BigQuery con il nome della tabella di origine SAP, la dimensione predefinita del chunk e nessuna partizione.

  9. Per la replica CDC tramite Pub/Sub, specifica i seguenti attributi:

    1. Per attivare la replica CDC in BigQuery tramite Pub/Sub, seleziona la casella di controllo Repl CPS (Replication Cloud Pub/Sub).

      Se questa casella di controllo è deselezionata, BigQuery Connector per SAP utilizza la replica dei dati di streaming e i campi di configurazione correlati a Pub/Sub sono disattivati.

    2. Nel campo Schema Pub/Sub, inserisci un nome per lo schema Pub/Sub. BigQuery Connector per SAP crea o aggiorna automaticamente uno schema Avro esistente in modo che corrisponda alla definizione della tabella SAP.

    3. Nel campo Argomento Pub/Sub, inserisci un nome per l'argomento Pub/Sub in cui vengono pubblicati i messaggi. BigQuery Connector per SAP crea automaticamente un argomento.

    4. Nel campo Sottoscrizione Pub/Sub, inserisci un nome per la sottoscrizione BigQuery che utilizza i messaggi dell'argomento Pub/Sub e scrive in BigQuery. BigQuery Connector per SAP crea automaticamente una sottoscrizione e la collega all'argomento specificato nel passaggio precedente.

    5. Nel campo Coda dei messaggi non recapitabili, inserisci il nome dell'argomento Pub/Sub per i messaggi non recapitabili. Questo argomento messaggi non recapitabili riceve i messaggi che Pub/Sub non riesce a scrivere in BigQuery tramite la sottoscrizione BigQuery. Per saperne di più sugli argomenti dead letter, consulta Creare un argomento dead letter.

    6. Per abilitare la funzionalità Change Data Capture (CDC) per la tabella, seleziona la casella di controllo Attiva CDC.

    7. Per ottimizzare il rendimento dei caricamenti iniziali, seleziona la casella di controllo Cache Val (Convalida cache).

      Quando selezioni questo campo, il connettore offre le massime prestazioni per i trasferimenti di grandi quantità di dati. Il sistema esegue Google Cloud convalide della pipeline a intervalli e memorizza nella cache i risultati. Il connettore fornisce una rapida trasformazione dei dati e li invia direttamente a Pub/Sub. Per ulteriori informazioni, consulta Convalide della cache.

  10. Fai clic su Salva.

    Gli attributi vengono memorizzati come record nella tabella di configurazione /GOOG/BQ_TABLE e i campi Modificato da, Modificato il e Modificato alle ore vengono compilati automaticamente.

  11. Fai clic su Mostra campi.

    Viene visualizzato il nuovo record dell'attributo della tabella, seguito dal riquadro di immissione del mapping dei campi.

Personalizzare la mappatura campi predefinita

Se la tabella SAP di origine contiene campi timestamp o booleani, modifica il mapping predefinito dei tipi di dati in modo che rifletta con precisione il tipo di dati nella tabella BigQuery di destinazione.

Puoi anche modificare altri tipi di dati, nonché i nomi utilizzati per i campi di destinazione.

Puoi modificare la mappatura predefinita direttamente nella GUI SAP oppure puoi esportarla in un foglio di lavoro o in un file di testo in modo che altri possano modificare i valori senza richiedere l'accesso a SAP LT Replication Server.

Per ulteriori informazioni sul mapping dei campi predefinito e sulle modifiche che puoi apportare, consulta Mapping dei tipi di dati.

Per personalizzare il mapping predefinito per i campi BigQuery di destinazione:

  1. Nella pagina Manutenzione impostazioni BigQuery - Campi della transazione /GOOG/SLT_SETTINGS, visualizza i mapping dei campi predefiniti per il trasferimento collettivo che stai configurando.

  2. Modifica il tipo Avro di destinazione per un campo nella colonna Tipo AVRO in base alle esigenze. In particolare, modifica il tipo Avro di destinazione per i seguenti tipi Avro:

    • Valori booleani. Modifica il tipo Avro di destinazione predefinito da STRING a BOOLEAN.
    • Esadecimali. Modifica il tipo Avro di destinazione predefinito da STRING a BYTES.

    Per modificare il tipo Avro:

    1. Nella riga del campo da modificare, fai clic sul campo Tipo Avro.
    2. Nella finestra di dialogo per il tipo Avro, seleziona il tipo di dati BigQuery che ti serve.
    3. Conferma le modifiche, quindi fai clic su Salva.
  3. Modifica i tipi di dati target predefiniti nella colonna Elemento di dati esterni in base alle tue esigenze. In particolare, modifica il tipo di dati di destinazione per i seguenti tipi di dati:

    • Timestamp. Modifica il tipo di dati di destinazione predefinito da NUMERIC a TIMESTAMP o TIMESTAMP (LONG).
    • Valori booleani. Modifica il tipo di dati target predefinito da STRING a BOOLEAN.
    • Esadecimali. Modifica il tipo di dati target predefinito da STRING a BYTES.

    Per modificare la mappatura predefinita dei tipi di dati:

    1. Nella riga del campo da modificare, fai clic sul campo Elemento di dati esterni.
    2. Nella finestra di dialogo per i tipi di dati, seleziona il tipo di dati BigQuery di cui hai bisogno.
    3. Conferma le modifiche, quindi fai clic su Salva.
  4. Se hai specificato il flag Nomi personalizzati nella pagina Manutenzione impostazioni BigQuery, modifica i nomi dei campi di destinazione predefiniti nella colonna Nome campo temporaneo in base alle esigenze.

    I valori che specifichi sostituiscono i nomi predefiniti visualizzati nella colonna Nome campo esterno.

  5. Modifica le descrizioni predefinite dei campi target nella colonna Descrizione campo in base alle necessità.

  6. (Facoltativo) Esporta la mappatura dei campi per la modifica esterna. Per istruzioni, vedi Modificare la mappatura dei campi BigQuery in un file CSV.

  7. Una volta completate tutte le modifiche e caricati i valori modificati esternamente, conferma che la casella di controllo Is Setting Active Flag sia selezionata. Se Is Setting Active Flag non è selezionato, BigQuery Connector per SAP crea tabelle di destinazione con i valori predefiniti.

  8. Fai clic su Salva.

    Le modifiche vengono archiviate nella tabella di configurazione /GOOG/BQ_FIELD e i campi Modificato da, Modificato il e Modificato alle vengono compilati automaticamente.

Abilita memorizzazione nella cache dei token

Per migliorare le prestazioni della replica, ti consigliamo di attivare la memorizzazione nella cache per il token di accesso recuperato da Google Cloud.

L'attivazione della memorizzazione nella cache dei token garantisce che un token di accesso venga riutilizzato fino alla scadenza o alla revoca, il che a sua volta riduce il numero di chiamate HTTP effettuate per recuperare nuovi token di accesso.

Per attivare la memorizzazione nella cache dei token, seleziona il flag Memorizzazione nella cache dei token nella tabella delle chiavi client /GOOG/CLIENT_KEY.

Quando abiliti la memorizzazione nella cache dei token, il token di accesso viene memorizzato nella cache della memoria condivisa del server delle applicazioni SAP LT Replication Server per la durata impostata per il campo Token Refresh Seconds nella tabella /GOOG/CLIENT_KEY. Se Token Refresh Seconds non è specificato o è impostato su 0, il token di accesso viene memorizzato nella cache per il valore specificato nel parametro CMD_SECS_DEFLT nelle impostazioni avanzate.

Per i carichi di lavoro SAP che non vengono eseguiti su Google Cloud, i token di accesso memorizzati nella cache prevengono anche problemi tecnici che potrebbero verificarsi durante la replica di carichi di dati enormi, in cui diversi processi di SAP LT Replication Server possono richiedere contemporaneamente un token di accesso in qualsiasi momento.

Per i workload SAP in esecuzione su Google Cloud e che utilizzano un service account gestito dall'utente per accedere a BigQuery o Pub/Sub, la memorizzazione nella cache dei token può apportare un miglioramento significativo, poiché il recupero di un token di accesso in questo scenario comporta l'esecuzione di due chiamate HTTP.

Cancellare il token di accesso memorizzato nella cache

Quando la memorizzazione nella cache dei token è abilitata e aggiorni i ruoli assegnati all'account di servizio utilizzato da BigQuery Connector per SAP per accedere a BigQuery o Pub/Sub, il nuovo token di accesso corrispondente ai ruoli aggiornati viene recuperato solo dopo la scadenza del token memorizzato nella cache esistente. In questi casi, puoi cancellare manualmente il token di accesso.

Per cancellare il token di accesso memorizzato nella cache, inserisci la transazione SE38 e poi esegui il programma /GOOG/R_CLEAR_TOKEN_CACHE.

Testa la configurazione della replica

Testa la configurazione della replica avviando il provisioning dei dati:

  1. Apri SAP LT Replication Server Cockpit (transazione LTRC) in SAP GUI.

  2. Fai clic sulla configurazione del trasferimento collettivo per la replica della tabella che stai testando.

  3. Fai clic su Provisioning dei dati.

  4. Nel riquadro Provisioning dei dati, avvia il provisioning dei dati:

    1. Inserisci il nome della tabella di origine.
    2. Fai clic sul pulsante di opzione relativo al tipo di provisioning dei dati che vuoi testare. Ad esempio, Start Load.
    3. Fai clic sull'icona Esegui. Il trasferimento dei dati inizia e l'avanzamento viene visualizzato nella schermata Oggetti partecipanti.

      Se la tabella non esiste in BigQuery, BigQuery Connector per SAP la crea da uno schema che genera dagli attributi della tabella e del campo definiti in precedenza con la transazione /GOOG/SLT_SETTINGS.

      La durata del caricamento iniziale di una tabella dipende dalle dimensioni della tabella e dei relativi record.

      I messaggi vengono scritti nella sezione Log applicazioni di SAP LT Replication Server nella transazione LTRC.

Convalida la replica

Puoi convalidare la replica utilizzando i seguenti metodi:

  • In SAP LT Replication Server:
    • Monitora la replica nella schermata Provisioning dei dati.
    • Controlla la presenza di messaggi di errore nella schermata Log applicazioni.
  • Nella scheda delle informazioni sulla tabella in BigQuery:

    • Controlla la scheda Schema per assicurarti che lo schema sia corretto.
    • Controlla la scheda Anteprima per visualizzare un'anteprima delle righe inserite.
    • Controlla la scheda Dettagli per il numero di righe inserite, le dimensioni della tabella e altre informazioni.

Controllare la replica in SAP LT Replication Server

Utilizza la transazione LTRC per visualizzare l'avanzamento dei job di caricamento o replica iniziali dopo averli avviati e per verificare la presenza di messaggi di errore.

Puoi visualizzare lo stato del caricamento nella scheda Statistiche di caricamento e l'avanzamento del job nella scheda Monitoraggio trasferimento dati in SAP LT Replication Server.

Nella schermata Log applicazioni della transazione LTRC, puoi visualizzare tutti i messaggi restituiti da BigQuery, BigQuery Connector per SAP e SAP LT Replication Server.

I messaggi emessi dal codice di BigQuery Connector per SAP in SAP LT Replication Server iniziano con il prefisso /GOOG/SLT. I messaggi restituiti dall'API BigQuery iniziano con il prefisso /GOOG/MSG.

I messaggi restituiti da SAP LT Replication Server non iniziano con il prefisso /GOOG/.

Controllare la replica in BigQuery

Nella console Google Cloud , verifica che la tabella sia stata creata e che BigQuery stia inserendo i dati.

  1. Nella console Google Cloud , vai alla pagina BigQuery.

    Vai a BigQuery

  2. Nel campo di ricerca della sezione Explorer, digita il nome della tabella BigQuery di destinazione e premi Enter.

    Le informazioni della tabella vengono visualizzate in una scheda nel riquadro dei contenuti sul lato destro della pagina.

  3. Nella sezione delle informazioni sulla tabella, fai clic sui seguenti titoli per controllare l'inserimento di tabelle e righe:

    • Anteprima, che mostra le righe e i campi inseriti nella tabella BigQuery.
    • Schema, che mostra i nomi dei campi e i tipi di dati.
    • Dettagli, che mostra le dimensioni della tabella, il numero totale di righe e altri dettagli.

Risoluzione dei problemi

Per informazioni su come diagnosticare e risolvere i problemi che potresti riscontrare durante la configurazione di BigQuery Connector per SAP, consulta la guida alla risoluzione dei problemi di BigQuery Connector per SAP.

Assistenza

Se hai bisogno di aiuto per risolvere i problemi di configurazione di BigQuery Connector per SAP, raccogli tutte le informazioni diagnostiche disponibili e contatta l'assistenza clienti Google Cloud. Per informazioni su come contattare l'assistenza clienti, vedi Assistenza per SAP su Google Cloud.