SAPHanaSR
リソース エージェントを SAPHanaSR
Advanced Next Generation Interface(SAPHanaSR-angi
)リソース エージェントにアップグレードする方法について説明します。
SAPHanaSR-angi
は SAPHanaSR
の後継です。また、SLES for SAP 15 SP6 以降では、 Google Cloud は SAPHanaSR-angi
を使用することをおすすめします。このリソース エージェントのメリットなどについては、SUSE のページ SAPHanaSR-angi
とはをご覧ください。
このガイドでは、アップグレード手順を説明するために、SID ABC
の SLES for SAP 15 SP4 で実行されている SAP HANA スケールアップ HA システムを前提としています。このアップグレード手順は、SUSE のブログ SAPHanaSR-angi
にアップグレードする方法から取得しています。
始める前に
SLES ベースの SAP HANA スケールアップ HA クラスタで SAPHanaSR
から SAPHanaSR-angi
にアップグレードする前に、SLES 15 SP4 以降のいずれかの OS バージョンの最新のパッチを使用していることを確認します。
以前の OS バージョンを使用している場合は、まずこれらの OS バージョンのいずれかの最新のパッチに更新する必要があります。これらの OS バージョンの最新のパッチにのみ、このアップグレード用に SUSE から提供された SAPHanaSR-upgrade-to-angi-demo
スクリプトが含まれています。このスクリプトは /usr/share/SAPHanaSR/samples
ディレクトリにあります。
スケールアップ クラスタで SAPHanaSR-angi
リソース エージェントにアップグレードする
SLES ベースの SAP HANA スケールアップ HA クラスタで SAPHanaSR-angi
リソース エージェントにアップグレードするには、次の手順を行います。
アップグレード用のインスタンスを準備する
SAP HANA HA システムのプライマリ インスタンスに
ClusterTools2
Linux パッケージをインストールします。zypper -y install ClusterTools2
パッケージのインストールを確認する
ClusterTools2
パッケージのインストールを確認します。zypper info ClusterTools2
出力は次のようになります。
Information for package ClusterTools2: -------------------------------------- Repository : SLE-Module-SAP-Applications15-SP4-Updates Name : ClusterTools2 Version : 3.1.3-150100.8.12.1 Arch : noarch Vendor : SUSE LLC <https://www.suse.com/> Support Level : Level 3 Installed Size : 340.1 KiB Installed : Yes Status : up-to-date Source package : ClusterTools2-3.1.3-150100.8.12.1.src Upstream URL : http://www.suse.com Summary : Tools for cluster management Description : ClusterTools2 provides tools for setting up and managing a corosync/ pacemaker cluster. There are some other commandline tools to make life easier. Starting with version 3.0.0 is support for SUSE Linux Enterprise Server 12.
SUSE から提供された
SAPHanaSR-upgrade-to-angi-demo
デモスクリプトを/root/bin
にコピーします。このスクリプトは、構成ファイルのバックアップを実行し、アップグレードに必要なコマンドを生成します。デモスクリプトを
/root/bin
にコピーするには:cp -p /usr/share/SAPHanaSR/samples/SAPHanaSR-upgrade-to-angi-demo /root/bin/ cd /root/bin ls -lrt
出力は次のようになります。
... -r--r--r-- 1 root root 157 Nov 8 14:45 global.ini_susTkOver -r--r--r-- 1 root root 133 Nov 8 14:45 global.ini_susHanaSR -r--r--r-- 1 root root 157 Nov 8 14:45 global.ini_susCostOpt -r--r--r-- 1 root root 175 Nov 8 14:45 global.ini_susChkSrv -r-xr-xr-x 1 root root 22473 Nov 8 14:45 SAPHanaSR-upgrade-to-angi-demo drwxr-xr-x 3 root root 26 Nov 9 07:50 crm_cfg
SAP HANA HA システムのセカンダリ インスタンスで、手順 1~2 を繰り返します。
HA システムのいずれかのインスタンスから、デモスクリプトを実行します。
./SAPHanaSR-upgrade-to-angi-demo --upgrade > upgrade-to-angi.txt
バックアップ ファイルが存在することを確認します。
ls -l
出力は次のようになります。
/root/SAPHanaSR-upgrade-to-angi-demo.1736397409/* -rw-r--r-- 1 root root 443 Dec 10 20:09 /root/SAPHanaSR-upgrade-to-angi-demo.1736397409/20-saphana.sudo -rwxr-xr-x 1 root root 22461 May 14 2024 /root/SAPHanaSR-upgrade-to-angi-demo.1736397409/SAPHanaSR-upgrade-to-angi-demo -rw-r--r-- 1 root root 28137 Jan 9 04:36 /root/SAPHanaSR-upgrade-to-angi-demo.1736397409/cib.xml -rw-r--r-- 1 root root 3467 Jan 9 04:36 /root/SAPHanaSR-upgrade-to-angi-demo.1736397409/crm_configure.txt -rw-r--r-- 1 abcadm sapsys 929 Dec 10 20:09 /root/SAPHanaSR-upgrade-to-angi-demo.1736397409/global.ini
クラスタからリソース構成を削除する
HA システムのいずれかのインスタンスから、
SAPHana
クラスタ リソースとSAPHanaTopology
クラスタ リソースをメンテナンス モードにします。cs_wait_for_idle -s 3 >/dev/null crm resource maintenance msl_SAPHana_ABC_HDB00 on cs_wait_for_idle -s 3 >/dev/null crm resource maintenance cln_SAPHanaTopology_ABC_HDB00 on cs_wait_for_idle -s 3 >/dev/null echo "property cib-bootstrap-options: stop-orphan-resources=false" | crm configure load update -
クラスタ リソースのステータスを確認する
SAPHana
リソースとSAPHanaTopology
リソースを確認するには:crm status
出力には、該当するリソースが
unmanaged
であることが示されます。Cluster Summary: ... Full List of Resources: * STONITH-sles-sp4-angi-vm1 (stonith:fence_gce): Started sles-sp4-angi-vm2 * STONITH-sles-sp4-angi-vm2 (stonith:fence_gce): Started sles-sp4-angi-vm1 * Resource Group: g-primary: * rsc_vip_int-primary (ocf::heartbeat:IPaddr2): Started sles-sp4-angi-vm1 * rsc_vip_hc-primary (ocf::heartbeat:anything): Started sles-sp4-angi-vm1 * Clone Set: cln_SAPHanaTopology_ABC_HDB00 [rsc_SAPHanaTopology_ABC_HDB00] (unmanaged): * rsc_SAPHanaTopology_ABC_HDB00 (ocf::suse:SAPHanaTopology): Started sles-sp4-angi-vm1 (unmanaged) * rsc_SAPHanaTopology_ABC_HDB00 (ocf::suse:SAPHanaTopology): Started sles-sp4-angi-vm2 (unmanaged) * Clone Set: msl_SAPHana_ABC_HDB00 [rsc_SAPHana_ABC_HDB00] (promotable, unmanaged): * rsc_SAPHana_ABC_HDB00 (ocf::suse:SAPHana): Master sles-sp4-angi-vm1 (unmanaged) * rsc_SAPHana_ABC_HDB00 (ocf::suse:SAPHana): Slave sles-sp4-angi-vm2 (unmanaged)
HA システムのプライマリ インスタンスで、既存の HA/DR プロバイダ フックの構成を削除します。
grep "^\[ha_dr_provider_" /hana/shared/ABC/global/hdb/custom/config/global.ini su - abcadm -c "/usr/sbin/SAPHanaSR-manageProvider --sid=ABC --show --provider=SAPHanaSR" > /run/SAPHanaSR-upgrade-to-angi-demo.12915.global.ini.SAPHanaSR su - abcadm -c "/usr/sbin/SAPHanaSR-manageProvider --sid=ABC --reconfigure --remove /run/SAPHanaSR-upgrade-to-angi-demo.12915.global.ini.SAPHanaSR" rm /run/SAPHanaSR-upgrade-to-angi-demo.12915.global.ini.SAPHanaSR rm /run/SAPHanaSR-upgrade-to-angi-demo.12915.global.ini.suschksrv su - abcadm -c "hdbnsutil -reloadHADRProviders" grep "^\[ha_dr_provider_" /hana/shared/ABC/global/hdb/custom/config/global.ini cp /etc/sudoers.d/20-saphana /run/SAPHanaSR-upgrade-to-angi-demo.12915.sudoers.classic grep -v "abcadm.*ALL..NOPASSWD.*crm_attribute.*abc" /run/SAPHanaSR-upgrade-to-angi-demo.12915.sudoers.classic > /etc/sudoers.d/20-saphana cp /etc/sudoers.d/20-saphana /run/SAPHanaSR-upgrade-to-angi-demo.12915.sudoers.classic grep -v "abcadm.*ALL..NOPASSWD.*SAPHanaSR-hookHelper.*sid=ABC" /run/SAPHanaSR-upgrade-to-angi-demo.12915.sudoers.classic > /etc/sudoers.d/20-saphana rm /run/SAPHanaSR-upgrade-to-angi-demo.12915.sudoers.classic
HA システムのセカンダリ インスタンスで、前の手順を繰り返して、既存の HA/DR プロバイダ フックの構成を削除します。
HA システムのいずれかのインスタンスから、
SAPHana
リソース エージェントの構成を削除します。cibadmin --delete --xpath "//rsc_colocation[@id='col_saphana_ip_ABC_HDB00']" cibadmin --delete --xpath "//rsc_order[@id='ord_SAPHana_ABC_HDB00']" cibadmin --delete --xpath "//master[@id='msl_SAPHana_ABC_HDB00']" cs_wait_for_idle -s 3 >/dev/null crm resource refresh rsc_SAPHana_ABC_HDB00
SAPHana
リソース エージェントのステータスを確認するSAPHana
リソース エージェントの構成が削除されたことを確認するには:crm status
出力には、該当するリソースが
unmanaged
であることが示されます。Cluster Summary: ... Full List of Resources: * STONITH-sles-sp4-angi-vm1 (stonith:fence_gce): Started sles-sp4-angi-vm2 * STONITH-sles-sp4-angi-vm2 (stonith:fence_gce): Started sles-sp4-angi-vm1 * Resource Group: g-primary: * rsc_vip_int-primary (ocf::heartbeat:IPaddr2): Started sles-sp4-angi-vm1 * rsc_vip_hc-primary (ocf::heartbeat:anything): Started sles-sp4-angi-vm1 * Clone Set: cln_SAPHanaTopology_ABC_HDB00 [rsc_SAPHanaTopology_ABC_HDB00] (unmanaged): * rsc_SAPHanaTopology_ABC_HDB00 (ocf::suse:SAPHanaTopology): Started sles-sp4-angi-vm1 (unmanaged) * rsc_SAPHanaTopology_ABC_HDB00 (ocf::suse:SAPHanaTopology): Started sles-sp4-angi-vm2 (unmanaged)
HA システムのいずれかのインスタンスから、
SAPHanaTopology
リソース エージェントの構成を削除します。cs_wait_for_idle -s 3 >/dev/null cibadmin --delete --xpath "//rsc_order[@id='ord_SAPHana_ABC_HDB00']" cibadmin --delete --xpath "//clone[@id='cln_SAPHanaTopology_ABC_HDB00']" cs_wait_for_idle -s 3 >/dev/null crm resource refresh rsc_SAPHanaTopology_ABC_HDB00
SAPHanaTopology
リソース エージェントのステータスを確認するSAPHanaTopology
リソース エージェントの構成が削除されたことを確認するには:crm status
出力は次のようになります。
Cluster Summary: * Stack: corosync * Current DC: sles-sp4-angi-vm1 (version 2.1.2+20211124.ada5c3b36-150400.4.20.1-2.1.2+20211124.ada5c3b36) - partition with quorum * Last updated: Wed Jan 29 03:30:36 2025 * Last change: Wed Jan 29 03:30:32 2025 by hacluster via crmd on sles-sp4-angi-vm1 * 2 nodes configured * 4 resource instances configured Node List: * Online: [ sles-sp4-angi-vm1 sles-sp4-angi-vm2 ] Full List of Resources: * STONITH-sles-sp4-angi-vm1 (stonith:fence_gce): Started sles-sp4-angi-vm2 * STONITH-sles-sp4-angi-vm2 (stonith:fence_gce): Started sles-sp4-angi-vm1 * Resource Group: g-primary: * rsc_vip_int-primary (ocf::heartbeat:IPaddr2): Started sles-sp4-angi-vm1 * rsc_vip_hc-primary (ocf::heartbeat:anything): Started sles-sp4-angi-vm1
HA システムのプライマリ インスタンスで、他のクラスタ プロパティを削除します。
cs_wait_for_idle -s 3 >/dev/null crm_attribute --delete --type crm_config --name hana_abc_site_srHook_sles-sp4-angi-vm2 crm_attribute --delete --type crm_config --name hana_abc_site_srHook_sles-sp4-angi-vm1 cs_wait_for_idle -s 3 >/dev/null crm_attribute --node sles-sp4-angi-vm1 --name hana_abc_op_mode --delete crm_attribute --node sles-sp4-angi-vm1 --name lpa_abc_lpt --delete crm_attribute --node sles-sp4-angi-vm1 --name hana_abc_srmode --delete crm_attribute --node sles-sp4-angi-vm1 --name hana_abc_vhost --delete crm_attribute --node sles-sp4-angi-vm1 --name hana_abc_remoteHost --delete crm_attribute --node sles-sp4-angi-vm1 --name hana_abc_site --delete crm_attribute --node sles-sp4-angi-vm1 --name hana_abc_sync_state --lifetime reboot --delete crm_attribute --node sles-sp4-angi-vm1 --name master-rsc_SAPHana_ABC_HDB00 --lifetime reboot --delete crm_attribute --node sles-sp4-angi-vm2 --name lpa_abc_lpt --delete crm_attribute --node sles-sp4-angi-vm2 --name hana_abc_op_mode --delete crm_attribute --node sles-sp4-angi-vm2 --name hana_abc_vhost --delete crm_attribute --node sles-sp4-angi-vm2 --name hana_abc_site --delete crm_attribute --node sles-sp4-angi-vm2 --name hana_abc_srmode --delete crm_attribute --node sles-sp4-angi-vm2 --name hana_abc_remoteHost --delete crm_attribute --node sles-sp4-angi-vm2 --name hana_abc_sync_state --lifetime reboot --delete crm_attribute --node sles-sp4-angi-vm2 --name master-rsc_SAPHana_ABC_HDB00 --lifetime reboot --delete
HA システムのプライマリ インスタンスで、
SAPHanaSR
パッケージを削除します。cs_wait_for_idle -s 3 >/dev/null crm cluster run "rpm -e --nodeps 'SAPHanaSR'"
クラスタのステータスを確認する
HA クラスタのステータスを確認するには:
crm status
出力は次のようになります。
Cluster Summary: ... Node List: * Online: [ sles-sp4-angi-vm1 sles-sp4-angi-vm2 ] Full List of Resources: * STONITH-sles-sp4-angi-vm1 (stonith:fence_gce): Started sles-sp4-angi-vm2 * STONITH-sles-sp4-angi-vm2 (stonith:fence_gce): Started sles-sp4-angi-vm1 * Resource Group: g-primary: * rsc_vip_int-primary (ocf::heartbeat:IPaddr2): Started sles-sp4-angi-vm1 * rsc_vip_hc-primary (ocf::heartbeat:anything): Started sles-sp4-angi-vm1
HA システムのプライマリ インスタンスで、
SAPHanaSR-doc
パッケージを削除します。zypper remove SAPHanaSR-doc
HA システムのセカンダリ インスタンスで、
SAPHanaSR-doc
パッケージを削除します。
リソース構成をクラスタに追加する
HA システムのいずれかのインスタンスから、
SAPHanaSR-angi
リソース パッケージ管理システムをインストールします。cs_wait_for_idle -s 3 >/dev/null crm cluster run "zypper --non-interactive in -l -f -y 'SAPHanaSR-angi'" crm cluster run "rpm -q 'SAPHanaSR-angi' --queryformat %{NAME}" hash -r
HA システムのプライマリ インスタンスで、HA/DR プロバイダ フックの構成を追加します。
su - abcadm -c "/usr/bin/SAPHanaSR-manageProvider --sid=ABC --reconfigure --add /usr/share/SAPHanaSR-angi/samples/global.ini_susHanaSR" su - abcadm -c "/usr/bin/SAPHanaSR-manageProvider --sid=ABC --reconfigure --add /usr/share/SAPHanaSR-angi/samples/global.ini_susTkOver" su - abcadm -c "/usr/bin/SAPHanaSR-manageProvider --sid=ABC --reconfigure --add /usr/share/SAPHanaSR-angi/samples/global.ini_susChkSrv" su - abcadm -c "hdbnsutil -reloadHADRProviders" grep -A2 "^\[ha_dr_provider_" /hana/shared/ABC/global/hdb/custom/config/global.ini su - abcadm -c "/usr/bin/SAPHanaSR-manageProvider --sid=ABC --show --provider=SAPHanaSR" su - abcadm -c "/usr/bin/SAPHanaSR-manageProvider --sid=ABC --show --provider=suschksrv" echo "abcadm ALL=(ALL) NOPASSWD: /usr/bin/SAPHanaSR-hookHelper --sid=ABC *" >> /etc/sudoers.d/20-saphana echo "abcadm ALL=(ALL) NOPASSWD: /usr/sbin/crm_attribute -n hana_abc_*" >> /etc/sudoers.d/20-saphana sudo -l -U abcadm | grep -e crm_attribute -e SAPHanaSR-hookHelper
HA システムのセカンダリ インスタンスで、前の手順を繰り返して HA/DR プロバイダ フックの構成を追加します。
HA システムのいずれかのインスタンスから、
SAPHanaTopology
リソース エージェントの構成を追加します。cs_wait_for_idle -s 3 >/dev/null echo " # primitive rsc_SAPHanaTop_ABC_HDB00 ocf:suse:SAPHanaTopology op start interval=0 timeout=600 op stop interval=0 timeout=600 op monitor interval=50 timeout=600 params SID=ABC InstanceNumber=00 # clone cln_SAPHanaTopology_ABC_HDB00 rsc_SAPHanaTop_ABC_HDB00 meta clone-node-max=1 interleave=true # " | crm configure load update - crm configure show cln_SAPHanaTopology_ABC_HDB00
クラスタのステータスを確認する
HA クラスタのステータスを確認するには:
crm status
出力は次のようになります。
Cluster Summary: ... * Clone Set: cln_SAPHanaTopology_ABC_HDB00 [rsc_SAPHanaTop_ABC_HDB00]: * Started: [ sles-sp4-angi-vm1 sles-sp4-angi-vm2 ]
HA システムのいずれかのインスタンスから、
SAPHanaCon
を非マネージド クラスタ リソースとして追加します。cs_wait_for_idle -s 3 >/dev/null echo " # primitive rsc_SAPHanaCon_ABC_HDB00 ocf:suse:SAPHanaController op start interval=0 timeout=3600 op stop interval=0 timeout=3600 op promote interval=0 timeout=900 op demote interval=0 timeout=320 op monitor interval=60 role=Promoted timeout=700 op monitor interval=61 role=Unpromoted timeout=700 params SID=ABC InstanceNumber=00 PREFER_SITE_TAKEOVER=true DUPLICATE_PRIMARY_TIMEOUT=7200 AUTOMATED_REGISTER=true meta maintenance=true # clone mst_SAPHanaCon_ABC_HDB00 rsc_SAPHanaCon_ABC_HDB00 meta clone-node-max=1 promotable=true interleave=true maintenance=true # order ord_SAPHanaTop_first Optional: cln_SAPHanaTopology_ABC_HDB00 mst_SAPHanaCon_ABC_HDB00 # colocation col_SAPHanaCon_ip_ABC_HDB00 2000: g-primary:Started mst_SAPHanaCon_ABC_HDB00:Promoted # " | crm configure load update - crm configure show mst_SAPHanaCon_ABC_HDB00
クラスタのステータスを確認する
HA クラスタのステータスを確認するには:
crm status
出力は次のようになります。
Cluster Summary: ... * Clone Set: cln_SAPHanaTopology_ABC_HDB00 [rsc_SAPHanaTop_ABC_HDB00]: * Started: [ sles-sp4-angi-vm1 sles-sp4-angi-vm2 ] * Clone Set: mst_SAPHanaCon_ABC_HDB00 [rsc_SAPHanaCon_ABC_HDB00] (promotable, unmanaged): * rsc_SAPHanaCon_ABC_HDB00 (ocf::suse:SAPHanaController): Slave sles-sp4-angi-vm1 (unmanaged) * rsc_SAPHanaCon_ABC_HDB00 (ocf::suse:SAPHanaController): Slave sles-sp4-angi-vm2 (unmanaged)
HA システムのいずれかのインスタンスから、HANA ファイル システム クラスタ リソースを追加します。
cs_wait_for_idle -s 3 >/dev/null echo " # primitive rsc_SAPHanaFil_ABC_HDB00 ocf:suse:SAPHanaFilesystem op start interval=0 timeout=10 op stop interval=0 timeout=20 on-fail=fence op monitor interval=120 timeout=120 params SID=ABC InstansceNumber=00 # clone cln_SAPHanaFil_ABC_HDB00 rsc_SAPHanaFil_ABC_HDB00 meta clone-node-max=1 interleave=true # " | crm configure load update - crm configure show cln_SAPHanaFil_ABC_HDB00 # clone cln_SAPHanaFil_ABC_HDB00 rsc_SAPHanaFil_ABC_HDB00 \ meta clone-node-max=1 interleave=true
クラスタのステータスを確認する
HA クラスタのステータスを確認するには:
crm status
出力は次のようになります。
Cluster Summary: ... * Clone Set: cln_SAPHanaTopology_ABC_HDB00 [rsc_SAPHanaTop_ABC_HDB00]: * Started: [ sles-sp4-angi-vm1 sles-sp4-angi-vm2 ] * Clone Set: mst_SAPHanaCon_ABC_HDB00 [rsc_SAPHanaCon_ABC_HDB00] (promotable, unmanaged): * rsc_SAPHanaCon_ABC_HDB00 (ocf::suse:SAPHanaController): Slave sles-sp4-angi-vm1 (unmanaged) * rsc_SAPHanaCon_ABC_HDB00 (ocf::suse:SAPHanaController): Slave sles-sp4-angi-vm2 (unmanaged) * Clone Set: cln_SAPHanaFil_ABC_HDB00 [rsc_SAPHanaFil_ABC_HDB00]: * Started: [ sles-sp4-angi-vm1 sles-sp4-angi-vm2 ]
HA システムのいずれかのインスタンスから、HA クラスタをメンテナンス モードから削除します。
cs_wait_for_idle -s 3 >/dev/null crm resource refresh cln_SAPHanaTopology_ABC_HDB00 cs_wait_for_idle -s 3 >/dev/null crm resource maintenance cln_SAPHanaTopology_ABC_HDB00 off cs_wait_for_idle -s 3 >/dev/null crm resource refresh mst_SAPHanaCon_ABC_HDB00 cs_wait_for_idle -s 3 >/dev/null crm resource maintenance mst_SAPHanaCon_ABC_HDB00 off cs_wait_for_idle -s 3 >/dev/null crm resource refresh cln_SAPHanaFil_ABC_HDB00 cs_wait_for_idle -s 3 >/dev/null crm resource maintenance cln_SAPHanaFil_ABC_HDB00 off cs_wait_for_idle -s 3 >/dev/null echo "property cib-bootstrap-options: stop-orphan-resources=true" | crm configure load update -
HA クラスタのステータスを確認します。
cs_wait_for_idle -s 3 >/dev/null crm_mon -1r --include=failcounts,fencing-pending;echo;SAPHanaSR-showAttr;cs_clusterstate -i|grep -v "#"
出力は次のようになります。
Cluster Summary: * Stack: corosync * Current DC: sles-sp4-angi-vm1 (version 2.1.2+20211124.ada5c3b36-150400.4.20.1-2.1.2+20211124.ada5c3b36) - partition with quorum * Last updated: Wed Jan 29 05:21:05 2025 * Last change: Wed Jan 29 05:21:05 2025 by root via crm_attribute on sles-sp4-angi-vm1 * 2 nodes configured * 10 resource instances configured Node List: * Online: [ sles-sp4-angi-vm1 sles-sp4-angi-vm2 ] Full List of Resources: * STONITH-sles-sp4-angi-vm1 (stonith:fence_gce): Started sles-sp4-angi-vm2 * STONITH-sles-sp4-angi-vm2 (stonith:fence_gce): Started sles-sp4-angi-vm1 * Resource Group: g-primary: * rsc_vip_int-primary (ocf::heartbeat:IPaddr2): Started sles-sp4-angi-vm1 * rsc_vip_hc-primary (ocf::heartbeat:anything): Started sles-sp4-angi-vm1 * Clone Set: cln_SAPHanaTopology_ABC_HDB00 [rsc_SAPHanaTop_ABC_HDB00]: * Started: [ sles-sp4-angi-vm1 sles-sp4-angi-vm2 ] * Clone Set: mst_SAPHanaCon_ABC_HDB00 [rsc_SAPHanaCon_ABC_HDB00] (promotable): * Masters: [ sles-sp4-angi-vm1 ] * Slaves: [ sles-sp4-angi-vm2 ] * Clone Set: cln_SAPHanaFil_ABC_HDB00 [rsc_SAPHanaFil_ABC_HDB00]: * Started: [ sles-sp4-angi-vm1 sles-sp4-angi-vm2 ] Migration Summary: Global cib-update dcid prim sec sid topology ------------------------------------------------------------------------ global 0.68471.0 1 sles-sp4-angi-vm1 sles-sp4-angi-vm2 ABC ScaleUp Resource maintenance promotable ----------------------------------------------------- mst_SAPHanaCon_ABC_HDB00 false true cln_SAPHanaTopology_ABC_HDB00 false Site lpt lss mns opMode srHook srMode srPoll srr --------------------------------------------------------------------------------------- sles-sp4-angi-vm1 1738128065 4 sles-sp4-angi-vm1 logreplay PRIM syncmem PRIM P sles-sp4-angi-vm2 30 4 sles-sp4-angi-vm2 logreplay syncmem SOK S Host clone_state roles score site srah version vhost ---------------------------------------------------------------------------------------------------------------------- sles-sp4-angi-vm1 PROMOTED master1:master:worker:master 150 sles-sp4-angi-vm1 - 2.00.073.00 sles-sp4-angi-vm1 sles-sp4-angi-vm2 DEMOTED master1:master:worker:master 100 sles-sp4-angi-vm2 - 2.00.073.00 sles-sp4-angi-vm2
HANA クラスタ属性の詳細を確認する
HA クラスタのいずれかのインスタンスから、HANA クラスタ属性の詳細を表示します。
SAPHanaSR-showAttr
出力は次のようになります。
Global cib-update dcid prim sec sid topology ------------------------------------------------------------------------ global 0.98409.1 1 sles-sp4-angi-vm2 sles-sp4-angi-vm1 ABC ScaleUp Resource maintenance promotable ----------------------------------------------------- mst_SAPHanaCon_ABC_HDB00 false true cln_SAPHanaTopology_ABC_HDB00 false Site lpt lss mns opMode srHook srMode srPoll srr --------------------------------------------------------------------------------------- sles-sp4-angi-vm1 30 4 sles-sp4-angi-vm1 logreplay SOK syncmem SOK S sles-sp4-angi-vm2 1742448908 4 sles-sp4-angi-vm2 logreplay PRIM syncmem PRIM P Host clone_state roles score site srah version vhost ---------------------------------------------------------------------------------------------------------------------- sles-sp4-angi-vm1 DEMOTED master1:master:worker:master 100 sles-sp4-angi-vm1 - 2.00.073.00 sles-sp4-angi-vm1 sles-sp4-angi-vm2 PROMOTED master1:master:worker:master 150 sles-sp4-angi-vm2 - 2.00.073.00 sles-sp4-angi-vm2
サポートを受ける
SAP OS イメージの SLES 用に Compute Engine から従量課金制(PAYG)ライセンスを購入した場合は、Cloud カスタマーケアから SUSE に問い合わせることができます。詳細については、Compute Engine の従量課金制(PAYG)SLES ライセンスのサポートはどのように提供されますか?をご覧ください。
Google Cloudからサポートを受ける方法については、 Google Cloudでの SAP に関するサポートを受けるをご覧ください。