このガイドでは、BigQuery Connector for SAP を使用して、Pub/Sub を介して CDC レプリケーションを構成する方法について説明します。
始める前に
Pub/Sub サービスとその用語について学習する。
自身または管理者によって次の事前準備が完了していることを確認してください。
BigQuery Connector for SAP をインストールする
Pub/Sub を使用して BigQuery にデータを複製するには、SAP 環境に BigQuery Connector for SAP バージョン 2.9 以降をインストールします。インストール手順については、BigQuery Connector for SAP をインストールするをご覧ください。
BigQuery Connector for SAP バージョン 2.8 以前でストリーミング データ レプリケーションを使用している場合は、Pub/Sub を介して CDC レプリケーションを使用するために、コネクタを最新バージョンに更新してから、移行手順に沿って操作する必要があります。
- コネクタの更新については、BigQuery Connector for SAP を更新するをご覧ください。
- レプリケーションの移行については、Pub/Sub を介して CDC レプリケーションに移行するをご覧ください。
認証を設定する
Pub/Sub API にアクセスするには、Google Cloudへの認証を設定する必要があります。サポートされている認証方法と認証の設定方法については、BigQuery Connector for SAP の認証の概要をご覧ください。
デッドレター トピックを作成する
BigQuery サブスクリプションがターゲットの BigQuery テーブルに書き込めなかったメッセージを処理するには、デッドレター トピックを作成することをおすすめします。このデッドレター トピックは、Pub/Sub がすべての再試行後に配信不能メッセージを自動的にパブリッシュする個別のキューとして機能します。
デッドレター トピックを作成するには、標準の Pub/Sub トピックを作成します。このデッドレター トピックは、他の Pub/Sub トピックと機能的に同じですが、デッドレター メッセージ専用です。複数のレプリケーション ロードに単一のデッドレター トピックを使用することも、要件に基づいてレプリケーション ロードごとに専用のデッドレター トピックを構成することもできます。
このデッドレター トピックは、CDC レプリケーションを構成するときに指定します。これにより、Pub/Sub が BigQuery サブスクリプションを介して BigQuery への書き込みができなかったメッセージがデッドレター トピックに送信されます。
書き込めなかったメッセージの分析、再処理、問題のデバッグを行うには、デッドレター トピックに別の BigQuery サブスクリプションを作成します。これにより、デッドレター トピックからメッセージを取得して専用の BigQuery テーブルに書き込むプロセスが自動化されます。詳細については、失敗したメッセージのデッドレター トピックをモニタリングするをご覧ください。
デッドレター トピックの詳細については、デッドレター トピックをご覧ください。
BigQuery Connector for SAP のロールと認可を作成する
BigQuery Connector for SAP を使用するには、標準の SAP LT Replication Server 承認に加えて、BigQuery Connector for SAP に付属のカスタム トランザクション /GOOG/SLT_SETTINGS
と /GOOG/REPLIC_VALID
です。
デフォルトでは、カスタム トランザクション /GOOG/SLT_SETTINGS
および /GOOG/REPLIC_VALID
にアクセスできるユーザーがどの構成の設定も変更できるため、必要に応じて特定の構成へのアクセスを制限できます。BigQuery Connector for SAP の設定を表示する必要があるユーザーには、カスタム トランザクション /GOOG/SLT_SETT_DISP
に対する読み取り専用アクセス権を付与できます。
BigQuery Connector for SAP トランスポート ファイルには、BigQuery Connector for SAP に固有の承認用の Google BigQuery
Settings Authorization
オブジェクト ZGOOG_MTID
が含まれています。
カスタム トランザクションに対するアクセス権を付与し、特定の構成へのアクセスを制限するには、次の手順を行います。
SAP トランザクション コード
PFCG
を使用して、BigQuery Connector for SAP のロールを定義します。そのロールに、カスタム トランザクション
/GOOG/SLT_SETTINGS
と/GOOG/REPLIC_VALID
へのアクセス権を付与します。ロールのアクセスを制限するには、
ZGOOG_MTID
認可オブジェクトを使用してロールがアクセスできる各構成の認可グループを指定します。例:- BigQuery Connector for SAP(
ZGOOG_MTID
)の認可オブジェクト:Activity 01
Authorization Group AUTH_GROUP_1,AUTH_GROUP_N
AUTH_GROUP_01
とAUTH_GROUP_N
は、SAP LT Replication Server 構成で定義されている値です。ZGOOG_MTID
に指定された認可グループは、SAPS_DMIS_SLT
認可オブジェクト内のロールに指定された認可グループと一致する必要があります。- BigQuery Connector for SAP(
BigQuery Connector for SAP の設定を表示するための SAP ロールと認可を作成する
カスタム トランザクション /GOOG/SLT_SETT_DISP
の読み取り専用アクセス権を付与するには、次の手順を行います。
SAP トランザクション コード
PFCG
を使用して、BigQuery Connector for SAP の設定を表示するロールを定義します。カスタム トランザクション
/GOOG/SLT_SETT_DISP
に対するアクセス権をロールに付与します。次の属性を持つ BigQuery Connector for SAP(
ZGOOG_MTID
)の認可オブジェクトを追加します。Activity 03
Authorization Group = *
ロール プロファイルを生成し、関連するユーザーをロールに割り当てます。
レプリケーションを構成する
レプリケーションを構成するには、BigQuery Connector for SAP と SAP LT Replication Server の両方の設定を指定します。
SAP LT Replication Server レプリケーション構成を作成する
SAP トランザクション LTRC
を使用して、SAP LT Replication Server レプリケーション構成を作成します。
SAP LT Replication Server がソース SAP システムとは異なるサーバーで稼働している場合は、レプリケーション構成を作成する前に、2 つのシステム間に RFC 接続があることを確認します。
レプリケーション構成の一部の設定がパフォーマンスに影響を与えます。インストールに適した設定値については、SAP ヘルプポータルで、ご使用の SAP LT Replication Server バージョンのパフォーマンス最適化ガイドをご覧ください。
SAP LT Replication Server のインターフェースと構成オプションは、使用しているバージョンによって若干異なる場合があります。
レプリケーションを構成するには、SAP LT Replication Server のバージョンに応じた手順を使用します。
DMIS 2011 SP17、DMIS 2018 SP02 以降でレプリケーションを構成する
次の手順では、新しいバージョンの SAP LT Replication Server でレプリケーションを構成します。以前のバージョンを使用している場合は、DMIS 2011 SP16、DMIS 2018 SP01 以前でレプリケーションを構成するをご覧ください。
SAP GUI で、トランザクション コード
LTRC
を入力します。[Create configuration] アイコンをクリックします。[Create configuration] ウィザードが開きます。
[Configuration Name] フィールドと [Description] フィールドに、構成の名前と説明を入力し、[Next] をクリックします。
認可グループを指定して、特定の認可グループへのアクセスを制限できます。これは後で指定するもできます。
[Source System Connection Details] パネルで次の操作を行います。
- [RFC Connection] ラジオボタンをオンにします。
- [RFC Destination] フィールドに、ソースシステムへの RFC 接続の名前を指定します。
- 必要に応じて、[Allow Multiple Usage] と [Read from Single Client] のチェックボックスをオンにします。詳細については、SAP LT Replication Server のドキュメントをご覧ください。
- [Next] をクリックします。
上記の手順は RFC 接続の場合ですが、ソースがデータベースで、トランザクション
DBACOCKPIT
を使用してすでに接続を定義している場合は、[DB Connection] を選択できます。[Target System Connection Details] パネルで次の操作を行います。
- [Other] のラジオボタンを選択します。
- [Scenario] フィールドで、プルダウン メニューから [SLT SDK] を選択します。
- [Next] をクリックします。
[Specify Transfer Settings] パネルで、次の操作を行います。
[Data Transfer Settings] セクションの [Application] フィールドに、「
/GOOG/SLT_BQ
」または「ZGOOG_SLT_BQ
」と入力します。[Job options] セクションで、次の各フィールドに初期値を入力します。
- Number of Data Transfer Jobs
- Number of Initial Load Jobs
- Number of Calculation Jobs
[Replication Options] セクションで、[Real Time] ラジオボタンを選択します。
[Next] をクリックします。
構成を確認したら、[Save] をクリックします。
[Mass Transfer] 列の 3 桁の ID をメモします。この値は、後のステップで使用します。
詳細については、SAP Note 2652704 に付属の PDF(Replicating Data Using SLT SDK - DMIS 2011 SP17, DMIS 2018 SP02.pdf)をご覧ください。
DMIS 2011 SP16、DMIS 2018 SP01 以前でレプリケーションを構成する
次の手順では、以前のバージョンの SAP LT Replication Server でレプリケーションを構成します。これよりも後のバージョンを使用している場合は、DMIS 2011 SP17、DMIS 2018 SP02 以降でレプリケーションを構成するをご覧ください。
- SAP GUI で、トランザクション コード
LTRC
を入力します。 - [New] をクリックします。新しい構成を指定するためのダイアログが開きます。
- [Specify Source System] で次の操作を行います。
- 接続タイプとして [RFC Connection] を選択します。
- RFC 接続名を入力します。
- [Allow Multiple Usage] が選択されていることを確認します。
- [Specify Target System] ステップで、次の操作を行います。
- ターゲット システムへの接続データを入力します。
- 接続タイプとして [RFC Connection] を選択します。
- [Scenario for RFC Communication] フィールドで、プルダウン リストから [Write Data to Target Using BAdI] という値を選択します。RFC 接続は自動的に [NONE] に設定されます。
- [Specify Transfer Settings] の手順で、[F4 Help] を押します。以前に定義したアプリケーションが [Application] フィールドに表示されます。
- [Mass Transfer] 列の 3 桁の ID をメモします。この値は、後のステップで使用します。
詳細については、SAP Note 2652704 に付属の PDF(Replicating Data Using SLT SDK - DMIS 2011 SP15, SP16, DMIS 2018 SP00, SP01.pdf)をご覧ください。
BigQuery への大量転送構成を作成する
カスタム /GOOG/SLT_SETTINGS
トランザクションを使用して、BigQuery の一括転送を構成し、テーブルとフィールドのマッピングを指定します。
初期の一括転送オプションを選択する
/GOOG/SLT_SETTINGS
トランザクションを初めて入力するときに、BigQuery の一括転送構成で編集が必要な部分を選択します。
一括転送構成の部分を選択するには、次の操作を行います。
SAP GUI で、
/n
で始まる/GOOG/SLT_SETTINGS
トランザクションを入力します。/n/GOOG/SLT_SETTINGS
[Google Cloud Partner] フィールドのプルダウン メニューから、[BigQuery CDC via Pub/Sub] を選択します。
/GOOG/SLT_SETTINGS
トランザクションの起動画面の [Settings Table] プルダウン メニューから [Mass Transfers] を選択します。新しい転送構成の場合は、[Mass Transfer Key] フィールドを空白のままにします。
[Execute] アイコンをクリックします。[BigQuery Settings Maintenance - Mass Transfers] 画面が表示されます。
テーブル作成とその他の一般的な属性を指定する
BigQuery の一括転送構成の最初のセクションで、一括転送構成を特定し、関連するクライアント キーと、ターゲット BigQuery テーブルの作成に関連する特定のプロパティを指定します。
SAP LT Replication Server が一括転送設定をレコードとして /GOOG/BQ_MASTR
カスタム構成テーブルに保存します。
[BigQuery Settings Maintenance - Mass Transfers] 画面で、[Append Row] アイコンをクリックします。
[Mass Transfer Key] フィールドで、この転送の名前を定義します。この名前が一括転送の主キーになります。
[Mass Transfer ID] フィールドに、対応する SAP LT Replication Server レプリケーション構成の作成時に生成された 3 桁の ID を入力します。
BigQuery でターゲット フィールドの名前としてソース フィールドのラベルまたは簡単な説明を使用するには、[Use Custom Names Flag] チェックボックスをオンにします。フィールド名の詳細については、フィールドのデフォルトの命名オプションをご覧ください。
挿入をトリガーした変更の種類を保存し、ソーステーブル、SAP LT Replication Server 統計情報、BigQuery テーブル間のレコード数の検証を有効にするには、[Extra Fields Flag] チェックボックスをオンにします。
このフラグを設定すると、BigQuery Connector for SAP は BigQuery テーブル スキーマに列を追加します。詳しくは、レコード変更とカウントクエリ用の追加フィールドをご覧ください。
データエラーのあるレコードが発生したときにデータの送信を停止するため、[Break at First Error Flag] チェックボックスはデフォルトでオンになっています。このチェックボックスはオンのままにすることをおすすめします。詳細については、BREAK フラグをご覧ください。
また、チャンクのバイトサイズが Pub/Sub で許可される HTTP リクエストの最大バイトサイズを超えた場合にチャンクサイズを自動的に小さくするには、[Dynamic Chunk Size Flag] チェックボックスをオンにします。動的チャンクサイズの詳細については、動的チャンクサイズをご覧ください。
データエラーのあるレコードが検出されたときに、レコードをスキップして BigQuery テーブルにレコードを挿入し続けるには、[Skip Invalid Records Flag] チェックボックスをオンにします。これは、オフのままにすることをおすすめします。詳細については、SKIP フラグをご覧ください。
[Google Cloud Key Name] フィールドに、
/GOOG/CLIENT_KEY
構成で指定されているクライアント キーの名前を入力します。BigQuery Connector for SAP は、
/GOOG/CLIENT_KEY
構成から自動的に Google Cloud プロジェクト ID を取得します。[BigQuery Dataset] フィールドに、前の手順で作成したターゲット BigQuery データセットの名前を入力します。
[Is Setting Active Flag] フィールドで、チェックボックスをオンにして一括転送構成を有効にします。
[Save] をクリックします。
一括転送レコードは
/GOOG/BQ_MASTR
テーブルに追加され、[Changed By]、[Changed On]、[Changed At] フィールドに自動的に値が挿入されます。[Display Table] をクリックします。
新しい一括転送レコードが表示され、その後にテーブル属性のエントリパネルが表示されます。
テーブル属性を指定する
/GOOG/SLT_SETTINGS
トランザクションの 2 番目のセクションで、テーブル名やテーブルのパーティショニングなどのテーブル属性や、各転送に含めるレコード数や BigQuery に送信されるチャンクを指定できます。
指定した設定は、レコードとして /GOOG/BQ_TABLE
構成テーブルに保存されます。
テーブル属性を指定するには、次の操作を行います。
[Append row] アイコンをクリックします。
[SAP Table Name] フィールドに、ソース SAP テーブルの名前を入力します。
[External Table Name] フィールドに、ターゲット BigQuery テーブルの名前を入力します。ターゲット テーブルが存在しない場合、BigQuery Connector for SAP は、SAP テーブル定義を使用してこのテーブルをインラインで作成します。また、このテーブルの主キーを定義して、
UPSERT
またはDELETE
オペレーションを有効にします。このテーブルは、最大 16 列を含む複合主キーをサポートしています。BigQuery のテーブル命名規則については、テーブルの命名をご覧ください。非圧縮送信フラグをスキップします。Pub/Sub を介した CDC レプリケーションは、レコード圧縮機能には対応していません。
必要に応じて、[Chunk Size] フィールドに、Pub/Sub に送信される各チャンクに含めるレコードの最大数を指定します。BigQuery Connector for SAP ではデフォルトのチャンクサイズ(1,000 レコード)を使用することをおすすめします。これは、Pub/Sub で許可されるレコードの最大数です。
ソースレコードに多くのフィールドがある場合、フィールド数によってはチャンクの全体的なバイトサイズが増加し、チャンクエラーが発生することがあります。この場合は、チャンクサイズを小さくしてバイトサイズを減らしてみてください。詳細については、BigQuery Connector for SAP のチャンクサイズをご覧ください。チャンクサイズを自動的に調整するには、動的チャンクサイズを有効にします。詳細については、動的チャンクサイズをご覧ください。
必要に応じて、[Partition Type] フィールドで、パーティショニングに使用する時間の増分を指定します。有効な値は
HOUR
、DAY
、MONTH
、またはYEAR
です。詳細については、テーブル パーティショニングをご覧ください。必要に応じて、[Partition Field] フィールドに、ターゲット BigQuery テーブルでパーティショニングに使用するタイムスタンプを含むフィールド名を指定します。[Partition Field] を指定する場合は、[Partition Type] も指定する必要があります。詳細については、テーブル パーティショニングをご覧ください。
[Is Setting Active Flag] フィールドで、チェックボックスをクリックしてテーブル属性を有効にします。[Is Setting Active Flag] チェックボックスがオンでない場合、BigQuery Connector for SAP は、SAP ソーステーブルの名前とデフォルトのチャンクサイズを使用して、パーティショニングは行わずに BigQuery テーブルを作成します。
Pub/Sub を介した CDC レプリケーションの場合は、次の属性を指定します。
Pub/Sub を介して BigQuery への CDC レプリケーションを有効にするには、[Repl CPS](Replication Cloud Pub/Sub)チェックボックスをオンにします。
このチェックボックスがオフになっている場合、BigQuery Connector for SAP はストリーミング データ レプリケーションを使用し、Pub/Sub 関連の構成フィールドは無効になります。
[Pub/Sub スキーマ] フィールドに、Pub/Sub スキーマの名前を入力します。BigQuery Connector for SAP は、SAP テーブル定義に合わせて既存の Avro スキーマを自動的に作成または更新します。
[Pub/Sub トピック] フィールドに、メッセージがパブリッシュされる Pub/Sub トピックの名前を入力します。BigQuery Connector for SAP は、トピックを自動的に作成します。
[Pub/Sub サブスクリプション] フィールドに、Pub/Sub トピックからメッセージを消費して BigQuery に書き込む BigQuery サブスクリプションの名前を入力します。BigQuery Connector for SAP は、サブスクリプションを自動的に作成し、前の手順で指定したトピックにリンクします。
[Dead Letter Queue] フィールドに、Pub/Sub デッドレター トピックの名前を入力します。このデッドレター トピックは、BigQuery サブスクリプションを介して Pub/Sub が BigQuery への書き込みに失敗したメッセージを受信します。デッドレター トピックの詳細については、デッドレター トピックを作成するをご覧ください。
テーブルの変更データ キャプチャ(CDC)機能を有効にするには、[Act. CDC](CDC を有効にする)チェックボックスをオンにします。
初期読み込みのパフォーマンスを最適化するには、[Cache Val](キャッシュ検証)チェックボックスをオンにします。
このフィールドを選択すると、コネクタは大量のデータ転送で最大のパフォーマンスを発揮します。システムは、一定の間隔で Google Cloud パイプラインの検証を実行し、結果をキャッシュに保存します。コネクタは、迅速なデータ変換を行い、データを Pub/Sub に直接送信します。詳細については、キャッシュの検証をご覧ください。
[保存] をクリックします。
属性はレコードとして
/GOOG/BQ_TABLE
構成テーブルに保存され、[Changed By]、[Changed On]、[Changed At] の各フィールドに自動的に挿入されます。[Display Fields] をクリックします。
新しいテーブル属性レコードが表示され、その後にフィールド マッピングのエントリパネルが表示されます。
デフォルトのフィールド マッピングをカスタマイズする
ソース SAP テーブルにタイムスタンプ フィールドやブール値が含まれている場合は、ターゲット BigQuery テーブルのデータタイプを正確に反映するように、デフォルトのデータ型マッピングを変更します。
他のデータ型やターゲット フィールドの名前を変更することもできます。
デフォルトのマッピングは SAP GUI で直接編集できます。他のユーザーが SAP LT Replication Server にアクセスせずに値を編集できるように、デフォルトのマッピングをスプレッドシートまたはテキスト ファイルにエクスポートすることもできます。
デフォルトのフィールド マッピングと変更可能な項目の詳細については、データ型マッピングをご覧ください。
ターゲット BigQuery フィールドのデフォルト マッピングをカスタマイズするには:
トランザクション
/GOOG/SLT_SETTINGS
の [BigQuery Settings Maintenance - Fields] ページで、構成している一括転送のデフォルト フィールド マッピングを表示します。必要に応じて、[AVRO type] 列でフィールドのターゲット Avro 型を編集します。特に、次の Avro 型のターゲット Avro 型を変更します。
- ブール値。デフォルトのターゲット Avro 型を
STRING
からBOOLEAN
に変更します。 - 16 進数。デフォルトのターゲット Avro 型を
STRING
からBYTES
に変更します。
Avro 型を編集するには:
- 編集が必要なフィールドの行で、[Avro type] フィールドをクリックします。
- Avro 型のダイアログで、必要な BigQuery データ型を選択します。
- 変更内容を確認し、[Save] をクリックします。
- ブール値。デフォルトのターゲット Avro 型を
必要に応じて、[External Data Element] 列でデフォルトのターゲット データ型を編集します。特に、以下のデータ型のターゲット データ型を変更します。
- タイムスタンプ 。デフォルトのターゲット データ型を、
NUMERIC
からTIMESTAMP
またはTIMESTAMP (LONG)
に変更します。 - ブール値。デフォルトのターゲット データ型を
STRING
からBOOLEAN
に変更します。 - 16 進数。デフォルトのターゲット データ型を
STRING
からBYTES
に変更します。
デフォルトのデータ型マッピングを編集するには:
- 編集が必要なフィールドの行で、[External Data Element] フィールドをクリックします。
- データ型のダイアログで、必要な BigQuery データ型を選択します。
- 変更内容を確認し、[Save] をクリックします。
- タイムスタンプ 。デフォルトのターゲット データ型を、
[BigQuery Settings Maintenance] ページで [Custom Names] フラグを指定した場合は、必要に応じて [Temporary Field Name] 列のデフォルトのターゲット フィールド名を編集します。
指定した値は、[External Field Name] 列に表示されるデフォルトの名前をオーバーライドします。
必要に応じて、[Field Description] 列のデフォルトのターゲット フィールドの説明を編集します。
必要に応じて、外部編集用にフィールド マップをエクスポートします。手順については、CSV ファイルで BigQuery のフィールド マップを編集するをご覧ください。
すべての変更が完了し、外部で編集された値がアップロードされたら、[Is Setting Active Flag] チェックボックスがオンになっていることを確認します。[Is Setting Active Flag] がオンになっていない場合、BigQuery Connector for SAP によってターゲット テーブルがデフォルト値で作成されます。
[Save] をクリックします。
変更は、
/GOOG/BQ_FIELD
構成テーブルに保存され、[Changed By]、[Changed On]、[Changed At] フィールドに自動的に挿入されます。
トークンのキャッシュ保存を有効にする
レプリケーションのパフォーマンスを向上させるため、 Google Cloudから取得したアクセス トークンをキャッシュに保存することをおすすめします。
トークンのキャッシュ保存を有効にすると、アクセス トークンの有効期限が切れるか取り消されるまで、アクセス トークンが再利用されます。これにより、新しいアクセス トークンを取得する HTTP 呼び出しの回数が減ります。
トークンのキャッシュ保存を有効にするには、クライアント キー テーブル /GOOG/CLIENT_KEY
で [Token Caching] フラグを選択します。
トークンのキャッシュ保存を有効にすると、/GOOG/CLIENT_KEY
テーブルの Token Refresh Seconds フィールドに設定されている期間、アクセス トークンが SAP LT Replication Server アプリケーション サーバーの共有メモリのキャッシュに保存されます。Token Refresh Seconds が指定されていないか 0
に設定されている場合、アクセス トークンは、詳細設定の CMD_SECS_DEFLT
パラメータに指定されている期間、キャッシュに保存されます。
また、 Google Cloudで実行されていない SAP ワークロードの場合、キャッシュに保存されたアクセス トークンを使用することで、SAP LT Replication Server の複数のプロセスが同時にアクセス トークンをリクエストするような大規模なデータ読み込みのレプリケーションで発生する技術的な問題も回避できます。
Google Cloud で実行され、ユーザー管理のサービス アカウントで BigQuery または Pub/Sub にアクセスする SAP ワークロードの場合、このシナリオでは 2 回の HTTP 呼び出しでアクセス トークンを取得するため、トークンをキャッシュに保存することで大幅な改善が可能になります。
キャッシュに保存されたアクセス トークンを消去する
トークンのキャッシュ保存が有効になっているときに、BigQuery Connector for SAP が BigQuery または Pub/Sub へのアクセスに使用するサービス アカウントに割り当てられたロールを更新した場合、キャッシュ内のトークンの有効期限が切れた後にのみ、更新されたロールに対応する新しいアクセス トークンが取得されます。このような場合、アクセス トークンを手動で消去できます。
キャッシュ内のアクセス トークンを消去するには、トランザクション SE38
を入力してからプログラム /GOOG/R_CLEAR_TOKEN_CACHE
を実行します。
レプリケーション構成をテストする
レプリケーションの構成をテストするには、データ プロビジョニングを開始します。
SAP GUI で、SAP LT Replication Server Cockpit(トランザクション
LTRC
)を開きます。テストしているテーブル レプリケーションの一括転送構成をクリックします。
[Data Provisioning] をクリックします。
[Data Provisioning] パネルで、データ プロビジョニングを開始します。
- ソーステーブルの名前を入力します。
- テストするデータ プロビジョニングの種類のラジオボタンをオンにします([Start Load] など)。
[Execute] アイコンをクリックします。データ転送が開始され、[Participating objects] 画面に進行状況が表示されます。
テーブルが BigQuery に存在しない場合、BigQuery Connector for SAP は、以前に
/GOOG/SLT_SETTINGS
トランザクションで定義したテーブルとフィールド属性から構築するスキーマからテーブルを作成します。テーブルの初期読み込みにかかる時間は、テーブルのサイズとレコード数によって異なります。
メッセージは、SAP LT Replication Server でトランザクション
LTRC
の [Application Logs] セクションに書き込まれます。
レプリケーションを検証する
レプリケーションは、次の方法を使用して検証できます。
- SAP LT Replication Server の場合:
- [Data Provisioning] 画面でレプリケーションをモニタリングします。
- [Application Logs] 画面でエラー メッセージを確認します。
BigQuery のテーブル情報タブ:
- [スキーマ] タブで、スキーマが正しく表示されることを確認します。
- [プレビュー] タブで、挿入された行のプレビュー表示を確認します。
- [詳細] タブで、挿入された行数、テーブルサイズ、その他の情報を確認します。
SAP LT Replication Server のレプリケーションを確認する
トランザクション LTRC
を使用して、初期読み込みまたはレプリケーション ジョブの開始後に進行状況を確認し、エラー メッセージをチェックします。
SAP LT Replication Server の [Load Statistics] タブで読み込みのステータスを確認し、[Data Transfer Monitor] タブでジョブの進行状況を確認します。
トランザクション LTRC
の [Application Logs] 画面には、BigQuery、BigQuery Connector for SAP、SAP LT Replication Server によって返されるすべてのメッセージが表示されます。
SAP LT Replication Server の BigQuery Connector for SAP コードによって発行されたメッセージの先頭には、接頭辞 /GOOG/SLT
が付いています。BigQuery API から返されるメッセージの先頭には、接頭辞 /GOOG/MSG
が付いています。
SAP LT Replication Server によって返されるメッセージの先頭には、/GOOG/
接頭辞は付きません。
BigQuery でレプリケーションを確認する
Google Cloud コンソールで、テーブルが作成されて BigQuery によってデータが挿入されていることを確認します。
Google Cloud コンソールで、[BigQuery] ページに移動します。
[エクスプローラ] セクションの検索フィールドに、ターゲット BigQuery テーブルの名前を入力し、
Enter
を押します。ページの右側にあるコンテンツ ペインのタブの下に、テーブル情報が表示されます。
テーブル情報セクションで、次の見出しをクリックして、テーブルと行の挿入を確認します。
- プレビュー: BigQuery テーブルに挿入された行とフィールドを表示します。
- スキーマ: フィールド名とデータ型を表示します。
- 詳細: テーブルサイズ、行の合計数などの詳細を表示します。
トラブルシューティング
BigQuery Connector for SAP の構成時に発生する可能性のある問題の診断と解決については、BigQuery Connector for SAP トラブルシューティング ガイドをご覧ください。
サポートを利用する
BigQuery Connector for SAP の構成に関する問題を解決する必要がある場合は、入手可能な診断情報をすべて収集したうえで、Cloud カスタマーケアにお問い合わせください。カスタマーケアへのお問い合わせ方法については、 Google Cloudでの SAP に関するサポートを利用するをご覧ください。