Fazer upgrade do SAPHanaSR para o SAPHanaSR-angi em um cluster de alta disponibilidade de escalonamento vertical no SLES

Este documento descreve como fazer upgrade do agente de recursos SAPHanaSR para o SAPHanaSR Advanced Next Generation Interface (SAPHanaSR-angi) em um cluster de alta disponibilidade (HA) de escalonamento baseado em SLES em execução no Google Cloud.

SAPHanaSR-angi é o sucessor de SAPHanaSR. Além disso, no SLES para SAP 15 SP6, Google Cloud recomenda que você use SAPHanaSR-angi. Para informações sobre esse agente de recursos, incluindo os benefícios, consulte a página do SUSE O que é SAPHanaSR-angi?.

Para ilustrar o procedimento de upgrade, este guia pressupõe um sistema HA de escalonamento vertical do SAP HANA em execução no SLES para SAP 15 SP4, com SID ABC. Este procedimento de upgrade é derivado do blog do SUSE Como fazer upgrade para SAPHanaSR-angi.

Antes de começar

Antes de fazer upgrade de SAPHanaSR para SAPHanaSR-angi em um cluster de HA de escalonamento do SAP HANA baseado no SLES, verifique se você está usando o patch mais recente de uma das seguintes versões do SO: SLES 15 SP4 ou mais recente.

Se você estiver usando uma versão anterior do SO, primeiro atualize para o patch mais recente de uma dessas versões do SO. Somente o patch mais recente dessas versões do SO contém o script SAPHanaSR-upgrade-to-angi-demo fornecido pelo SUSE para essa upgrade. O script está disponível no diretório /usr/share/SAPHanaSR/samples.

Fazer upgrade para o agente de recursos SAPHanaSR-angi em um cluster de escalonamento

Para fazer upgrade para o agente de recursos SAPHanaSR-angi em um cluster de HA de escalonamento vertical do SAP HANA baseado no SLES, siga estas etapas:

  1. Prepare as instâncias para o upgrade.
  2. Remova as configurações de recursos do cluster.
  3. Adicione configurações de recursos ao cluster.
  4. Verifique os detalhes dos atributos do cluster HANA.

Preparar as instâncias para upgrade

  1. Na instância principal do sistema SAP HANA de alta disponibilidade, instale o pacote ClusterTools2 Linux:

    zypper -y install ClusterTools2

    Verificar a instalação do pacote

    Verifique a instalação do pacote ClusterTools2:

    zypper info ClusterTools2

    O resultado será assim:

    Information for package ClusterTools2:
     --------------------------------------
     Repository     : SLE-Module-SAP-Applications15-SP4-Updates
     Name           : ClusterTools2
     Version        : 3.1.3-150100.8.12.1
     Arch           : noarch
     Vendor         : SUSE LLC <https://www.suse.com/>
     Support Level  : Level 3
     Installed Size : 340.1 KiB
     Installed      : Yes
     Status         : up-to-date
     Source package : ClusterTools2-3.1.3-150100.8.12.1.src
     Upstream URL   : http://www.suse.com
     Summary        : Tools for cluster management
     Description    :
         ClusterTools2 provides tools for setting up and managing a corosync/
         pacemaker cluster.
         There are some other commandline tools to make life easier.
         Starting with version 3.0.0 is support for SUSE Linux Enterprise Server 12.
  2. Copie o script de demonstração SAPHanaSR-upgrade-to-angi-demo fornecido pelo SUSE para /root/bin. Esse script realiza o backup de arquivos de configuração e gera os comandos necessários para o upgrade.

    Para copiar o script de demonstração para /root/bin:

    cp -p /usr/share/SAPHanaSR/samples/SAPHanaSR-upgrade-to-angi-demo /root/bin/
    cd /root/bin
    ls -lrt

    A resposta será semelhante a:

    ...
    -r--r--r-- 1 root root   157 Nov  8 14:45 global.ini_susTkOver
    -r--r--r-- 1 root root   133 Nov  8 14:45 global.ini_susHanaSR
    -r--r--r-- 1 root root   157 Nov  8 14:45 global.ini_susCostOpt
    -r--r--r-- 1 root root   175 Nov  8 14:45 global.ini_susChkSrv
    -r-xr-xr-x 1 root root 22473 Nov  8 14:45 SAPHanaSR-upgrade-to-angi-demo
    drwxr-xr-x 3 root root    26 Nov  9 07:50 crm_cfg
  3. Na instância secundária do sistema SAP HANA de alta disponibilidade, repita as etapas 1 a 2.

  4. Em qualquer instância do sistema HA, execute o script de demonstração:

    ./SAPHanaSR-upgrade-to-angi-demo --upgrade > upgrade-to-angi.txt
  5. Valide se os arquivos de backup estão presentes:

    ls -l

    A resposta será semelhante a:

    /root/SAPHanaSR-upgrade-to-angi-demo.1736397409/*
    -rw-r--r-- 1 root   root     443 Dec 10 20:09 /root/SAPHanaSR-upgrade-to-angi-demo.1736397409/20-saphana.sudo
    -rwxr-xr-x 1 root   root   22461 May 14  2024 /root/SAPHanaSR-upgrade-to-angi-demo.1736397409/SAPHanaSR-upgrade-to-angi-demo
    -rw-r--r-- 1 root   root   28137 Jan  9 04:36 /root/SAPHanaSR-upgrade-to-angi-demo.1736397409/cib.xml
    -rw-r--r-- 1 root   root    3467 Jan  9 04:36 /root/SAPHanaSR-upgrade-to-angi-demo.1736397409/crm_configure.txt
    -rw-r--r-- 1 abcadm sapsys   929 Dec 10 20:09 /root/SAPHanaSR-upgrade-to-angi-demo.1736397409/global.ini

Remover configurações de recursos do cluster

  1. Em qualquer instância do sistema HA, coloque os recursos do cluster SAPHana e SAPHanaTopology no modo de manutenção:

    cs_wait_for_idle -s 3 >/dev/null
    crm resource maintenance msl_SAPHana_ABC_HDB00 on
    cs_wait_for_idle -s 3 >/dev/null
    crm resource maintenance cln_SAPHanaTopology_ABC_HDB00 on
    cs_wait_for_idle -s 3 >/dev/null
    echo "property cib-bootstrap-options: stop-orphan-resources=false" | crm configure load update -

    Verificar o status dos recursos do cluster

    Para verificar se os recursos SAPHana e SAPHanaTopology estão funcionando:

    crm status

    A saída precisa mostrar que os recursos em questão são unmanaged:

    Cluster Summary:
     ...
     Full List of Resources:
       *  STONITH-sles-sp4-angi-vm1   (stonith:fence_gce):     Started sles-sp4-angi-vm2
       *  STONITH-sles-sp4-angi-vm2   (stonith:fence_gce):     Started sles-sp4-angi-vm1
       *  Resource Group: g-primary:
         *    rsc_vip_int-primary       (ocf::heartbeat:IPaddr2):        Started sles-sp4-angi-vm1
         *    rsc_vip_hc-primary        (ocf::heartbeat:anything):       Started sles-sp4-angi-vm1
       *  Clone Set: cln_SAPHanaTopology_ABC_HDB00 [rsc_SAPHanaTopology_ABC_HDB00] (unmanaged):
         *    rsc_SAPHanaTopology_ABC_HDB00     (ocf::suse:SAPHanaTopology):     Started sles-sp4-angi-vm1 (unmanaged)
         *    rsc_SAPHanaTopology_ABC_HDB00     (ocf::suse:SAPHanaTopology):     Started sles-sp4-angi-vm2 (unmanaged)
       *  Clone Set: msl_SAPHana_ABC_HDB00 [rsc_SAPHana_ABC_HDB00] (promotable, unmanaged):
         *    rsc_SAPHana_ABC_HDB00     (ocf::suse:SAPHana):     Master sles-sp4-angi-vm1 (unmanaged)
         *    rsc_SAPHana_ABC_HDB00     (ocf::suse:SAPHana):     Slave sles-sp4-angi-vm2 (unmanaged)
  2. Na instância principal do sistema HA, remova a configuração de gancho do provedor HA/DR:

    grep "^\[ha_dr_provider_" /hana/shared/ABC/global/hdb/custom/config/global.ini
    su - abcadm -c "/usr/sbin/SAPHanaSR-manageProvider --sid=ABC --show --provider=SAPHanaSR" > /run/SAPHanaSR-upgrade-to-angi-demo.12915.global.ini.SAPHanaSR
    su - abcadm -c "/usr/sbin/SAPHanaSR-manageProvider --sid=ABC --reconfigure --remove /run/SAPHanaSR-upgrade-to-angi-demo.12915.global.ini.SAPHanaSR"
    rm /run/SAPHanaSR-upgrade-to-angi-demo.12915.global.ini.SAPHanaSR
    rm /run/SAPHanaSR-upgrade-to-angi-demo.12915.global.ini.suschksrv
    su - abcadm -c "hdbnsutil -reloadHADRProviders"
    grep "^\[ha_dr_provider_" /hana/shared/ABC/global/hdb/custom/config/global.ini
    cp /etc/sudoers.d/20-saphana /run/SAPHanaSR-upgrade-to-angi-demo.12915.sudoers.classic
    grep -v "abcadm.*ALL..NOPASSWD.*crm_attribute.*abc" /run/SAPHanaSR-upgrade-to-angi-demo.12915.sudoers.classic > /etc/sudoers.d/20-saphana
    cp /etc/sudoers.d/20-saphana /run/SAPHanaSR-upgrade-to-angi-demo.12915.sudoers.classic
    grep -v "abcadm.*ALL..NOPASSWD.*SAPHanaSR-hookHelper.*sid=ABC" /run/SAPHanaSR-upgrade-to-angi-demo.12915.sudoers.classic > /etc/sudoers.d/20-saphana
    rm /run/SAPHanaSR-upgrade-to-angi-demo.12915.sudoers.classic
  3. Na instância secundária do sistema de HA, repita a etapa anterior para remover a configuração do gancho do provedor de HA/DR.

  4. Em qualquer instância do sistema HA, remova a configuração do agente de recurso SAPHana:

    cibadmin --delete --xpath "//rsc_colocation[@id='col_saphana_ip_ABC_HDB00']"
    cibadmin --delete --xpath "//rsc_order[@id='ord_SAPHana_ABC_HDB00']"
    cibadmin --delete --xpath "//master[@id='msl_SAPHana_ABC_HDB00']"
    cs_wait_for_idle -s 3 >/dev/null
    crm resource refresh rsc_SAPHana_ABC_HDB00

    Verificar o status do agente de recursos SAPHana

    Para verificar se a configuração do agente de recursos SAPHana foi removida:

    crm status

    A saída precisa mostrar que o recurso é unmanaged:

    Cluster Summary:
     ...
     Full List of Resources:
       * STONITH-sles-sp4-angi-vm1   (stonith:fence_gce):     Started sles-sp4-angi-vm2
       * STONITH-sles-sp4-angi-vm2   (stonith:fence_gce):     Started sles-sp4-angi-vm1
       * Resource Group: g-primary:
         * rsc_vip_int-primary       (ocf::heartbeat:IPaddr2):        Started sles-sp4-angi-vm1
         * rsc_vip_hc-primary        (ocf::heartbeat:anything):       Started sles-sp4-angi-vm1
       * Clone Set: cln_SAPHanaTopology_ABC_HDB00 [rsc_SAPHanaTopology_ABC_HDB00] (unmanaged):
         * rsc_SAPHanaTopology_ABC_HDB00     (ocf::suse:SAPHanaTopology):     Started sles-sp4-angi-vm1 (unmanaged)
         * rsc_SAPHanaTopology_ABC_HDB00     (ocf::suse:SAPHanaTopology):     Started sles-sp4-angi-vm2 (unmanaged)
  5. Em qualquer instância do sistema HA, remova a configuração do agente de recurso SAPHanaTopology:

    cs_wait_for_idle -s 3 >/dev/null
    cibadmin --delete --xpath "//rsc_order[@id='ord_SAPHana_ABC_HDB00']"
    cibadmin --delete --xpath "//clone[@id='cln_SAPHanaTopology_ABC_HDB00']"
    cs_wait_for_idle -s 3 >/dev/null
    crm resource refresh rsc_SAPHanaTopology_ABC_HDB00

    Verificar o status do agente de recursos SAPHanaTopology

    Para verificar se a configuração do agente de recursos SAPHanaTopology foi removida:

    crm status

    O resultado será assim:

    Cluster Summary:
     * Stack: corosync
     * Current DC: sles-sp4-angi-vm1 (version 2.1.2+20211124.ada5c3b36-150400.4.20.1-2.1.2+20211124.ada5c3b36) - partition with quorum
     * Last updated: Wed Jan 29 03:30:36 2025
     * Last change:  Wed Jan 29 03:30:32 2025 by hacluster via crmd on sles-sp4-angi-vm1
     * 2 nodes configured
     * 4 resource instances configured
    
     Node List:
       * Online: [ sles-sp4-angi-vm1 sles-sp4-angi-vm2 ]
    
     Full List of Resources:
       * STONITH-sles-sp4-angi-vm1   (stonith:fence_gce):     Started sles-sp4-angi-vm2
       * STONITH-sles-sp4-angi-vm2   (stonith:fence_gce):     Started sles-sp4-angi-vm1
       * Resource Group: g-primary:
         * rsc_vip_int-primary       (ocf::heartbeat:IPaddr2):        Started sles-sp4-angi-vm1
         * rsc_vip_hc-primary        (ocf::heartbeat:anything):       Started sles-sp4-angi-vm1
  6. Na instância principal do sistema HA, remova as outras propriedades do cluster:

    cs_wait_for_idle -s 3 >/dev/null
    crm_attribute --delete --type crm_config --name hana_abc_site_srHook_sles-sp4-angi-vm2
    crm_attribute --delete --type crm_config --name hana_abc_site_srHook_sles-sp4-angi-vm1
    cs_wait_for_idle -s 3 >/dev/null
    crm_attribute --node sles-sp4-angi-vm1 --name hana_abc_op_mode --delete
    crm_attribute --node sles-sp4-angi-vm1 --name lpa_abc_lpt --delete
    crm_attribute --node sles-sp4-angi-vm1 --name hana_abc_srmode --delete
    crm_attribute --node sles-sp4-angi-vm1 --name hana_abc_vhost --delete
    crm_attribute --node sles-sp4-angi-vm1 --name hana_abc_remoteHost --delete
    crm_attribute --node sles-sp4-angi-vm1 --name hana_abc_site --delete
    crm_attribute --node sles-sp4-angi-vm1 --name hana_abc_sync_state --lifetime reboot --delete
    crm_attribute --node sles-sp4-angi-vm1 --name master-rsc_SAPHana_ABC_HDB00 --lifetime reboot --delete
    crm_attribute --node sles-sp4-angi-vm2 --name lpa_abc_lpt --delete
    crm_attribute --node sles-sp4-angi-vm2 --name hana_abc_op_mode --delete
    crm_attribute --node sles-sp4-angi-vm2 --name hana_abc_vhost --delete
    crm_attribute --node sles-sp4-angi-vm2 --name hana_abc_site --delete
    crm_attribute --node sles-sp4-angi-vm2 --name hana_abc_srmode --delete
    crm_attribute --node sles-sp4-angi-vm2 --name hana_abc_remoteHost --delete
    crm_attribute --node sles-sp4-angi-vm2 --name hana_abc_sync_state --lifetime reboot --delete
    crm_attribute --node sles-sp4-angi-vm2 --name master-rsc_SAPHana_ABC_HDB00 --lifetime reboot --delete
  7. Na instância principal do sistema HA, remova o pacote SAPHanaSR:

    cs_wait_for_idle -s 3 >/dev/null
    crm cluster run "rpm -e --nodeps 'SAPHanaSR'"

    Verificar o status do cluster

    Para verificar o status do cluster de HA:

    crm status

    A resposta será semelhante a:

    Cluster Summary:
     ...
     Node List:
       * Online: [ sles-sp4-angi-vm1 sles-sp4-angi-vm2 ]
    
     Full List of Resources:
       * STONITH-sles-sp4-angi-vm1   (stonith:fence_gce):     Started sles-sp4-angi-vm2
       * STONITH-sles-sp4-angi-vm2   (stonith:fence_gce):     Started sles-sp4-angi-vm1
       * Resource Group: g-primary:
         * rsc_vip_int-primary       (ocf::heartbeat:IPaddr2):        Started sles-sp4-angi-vm1
         * rsc_vip_hc-primary        (ocf::heartbeat:anything):       Started sles-sp4-angi-vm1
  8. Na instância principal do sistema HA, remova o pacote SAPHanaSR-doc:

    zypper remove SAPHanaSR-doc
  9. Na instância secundária do sistema HA, remova o pacote SAPHanaSR-doc.

Adicionar configurações de recursos ao cluster

  1. Em qualquer instância do sistema HA, instale o gerenciador de pacotes de recursos SAPHanaSR-angi:

    cs_wait_for_idle -s 3 >/dev/null
    crm cluster run "zypper --non-interactive in -l -f -y 'SAPHanaSR-angi'"
    crm cluster run "rpm -q 'SAPHanaSR-angi' --queryformat %{NAME}"
    hash -r
  2. Na instância principal do sistema HA, adicione a configuração do hook do provedor de HA/DR:

    su - abcadm -c "/usr/bin/SAPHanaSR-manageProvider --sid=ABC --reconfigure --add /usr/share/SAPHanaSR-angi/samples/global.ini_susHanaSR"
    su - abcadm -c "/usr/bin/SAPHanaSR-manageProvider --sid=ABC --reconfigure --add /usr/share/SAPHanaSR-angi/samples/global.ini_susTkOver"
    su - abcadm -c "/usr/bin/SAPHanaSR-manageProvider --sid=ABC --reconfigure --add /usr/share/SAPHanaSR-angi/samples/global.ini_susChkSrv"
    su - abcadm -c "hdbnsutil -reloadHADRProviders"
    grep -A2 "^\[ha_dr_provider_" /hana/shared/ABC/global/hdb/custom/config/global.ini
    su - abcadm -c "/usr/bin/SAPHanaSR-manageProvider --sid=ABC --show --provider=SAPHanaSR"
    su - abcadm -c "/usr/bin/SAPHanaSR-manageProvider --sid=ABC --show --provider=suschksrv"
    echo "abcadm ALL=(ALL) NOPASSWD: /usr/bin/SAPHanaSR-hookHelper --sid=ABC *" >> /etc/sudoers.d/20-saphana
    echo "abcadm ALL=(ALL) NOPASSWD: /usr/sbin/crm_attribute -n hana_abc_*" >> /etc/sudoers.d/20-saphana
    sudo -l -U abcadm | grep -e crm_attribute -e SAPHanaSR-hookHelper
  3. Na instância secundária do sistema de HA, repita a etapa anterior para adicionar a configuração do gancho do provedor de HA/DR.

  4. Em qualquer instância do seu sistema HA, adicione a configuração do agente de recurso SAPHanaTopology:

    cs_wait_for_idle -s 3 >/dev/null
    echo "
    #
    primitive rsc_SAPHanaTop_ABC_HDB00 ocf:suse:SAPHanaTopology op start interval=0 timeout=600 op stop interval=0 timeout=600 op monitor interval=50 timeout=600 params SID=ABC InstanceNumber=00
    #
    clone cln_SAPHanaTopology_ABC_HDB00 rsc_SAPHanaTop_ABC_HDB00 meta clone-node-max=1 interleave=true
    #
    " | crm configure load update -
    crm configure show cln_SAPHanaTopology_ABC_HDB00

    Verificar o status do cluster

    Para verificar o status do cluster de HA:

    crm status

    A resposta será semelhante a:

    Cluster Summary:
     ...
       * Clone Set: cln_SAPHanaTopology_ABC_HDB00 [rsc_SAPHanaTop_ABC_HDB00]:
            * Started: [ sles-sp4-angi-vm1 sles-sp4-angi-vm2 ]
    
  5. Em qualquer instância do sistema HA, adicione SAPHanaCon como um recurso de cluster não gerenciado:

    cs_wait_for_idle -s 3 >/dev/null
    echo "
    #
    primitive rsc_SAPHanaCon_ABC_HDB00 ocf:suse:SAPHanaController op start interval=0 timeout=3600 op stop interval=0 timeout=3600 op promote interval=0 timeout=900 op demote interval=0 timeout=320 op monitor interval=60 role=Promoted timeout=700 op monitor interval=61 role=Unpromoted timeout=700 params SID=ABC InstanceNumber=00 PREFER_SITE_TAKEOVER=true DUPLICATE_PRIMARY_TIMEOUT=7200 AUTOMATED_REGISTER=true meta maintenance=true
    #
    clone mst_SAPHanaCon_ABC_HDB00 rsc_SAPHanaCon_ABC_HDB00 meta clone-node-max=1 promotable=true interleave=true maintenance=true
    #
    order ord_SAPHanaTop_first Optional: cln_SAPHanaTopology_ABC_HDB00 mst_SAPHanaCon_ABC_HDB00
    #
    colocation col_SAPHanaCon_ip_ABC_HDB00 2000: g-primary:Started mst_SAPHanaCon_ABC_HDB00:Promoted
    #
    " | crm configure load update -
    crm configure show mst_SAPHanaCon_ABC_HDB00

    Verificar o status do cluster

    Para verificar o status do cluster de HA:

    crm status

    A resposta será semelhante a:

    Cluster Summary:
    ...
     * Clone Set: cln_SAPHanaTopology_ABC_HDB00 [rsc_SAPHanaTop_ABC_HDB00]:
       * Started: [ sles-sp4-angi-vm1 sles-sp4-angi-vm2 ]
     * Clone Set: mst_SAPHanaCon_ABC_HDB00 [rsc_SAPHanaCon_ABC_HDB00] (promotable, unmanaged):
       * rsc_SAPHanaCon_ABC_HDB00  (ocf::suse:SAPHanaController):   Slave sles-sp4-angi-vm1 (unmanaged)
       * rsc_SAPHanaCon_ABC_HDB00  (ocf::suse:SAPHanaController):   Slave sles-sp4-angi-vm2 (unmanaged)
  6. Em qualquer instância do sistema HA, adicione o recurso de cluster do sistema de arquivos HANA:

    cs_wait_for_idle -s 3 >/dev/null
    echo "
    #
    primitive rsc_SAPHanaFil_ABC_HDB00 ocf:suse:SAPHanaFilesystem op start interval=0 timeout=10 op stop interval=0 timeout=20 on-fail=fence op monitor interval=120 timeout=120 params SID=ABC InstansceNumber=00
    #
    clone cln_SAPHanaFil_ABC_HDB00 rsc_SAPHanaFil_ABC_HDB00 meta clone-node-max=1 interleave=true
    #
    " | crm configure load update -
    crm configure show cln_SAPHanaFil_ABC_HDB00
    #
    clone cln_SAPHanaFil_ABC_HDB00 rsc_SAPHanaFil_ABC_HDB00 \
           meta clone-node-max=1 interleave=true

    Verificar o status do cluster

    Para verificar o status do cluster de HA:

    crm status

    A resposta será semelhante a:

    Cluster Summary:
     ...
       * Clone Set: cln_SAPHanaTopology_ABC_HDB00 [rsc_SAPHanaTop_ABC_HDB00]:
         * Started: [ sles-sp4-angi-vm1 sles-sp4-angi-vm2 ]
       * Clone Set: mst_SAPHanaCon_ABC_HDB00 [rsc_SAPHanaCon_ABC_HDB00] (promotable, unmanaged):
         * rsc_SAPHanaCon_ABC_HDB00  (ocf::suse:SAPHanaController):   Slave sles-sp4-angi-vm1 (unmanaged)
         * rsc_SAPHanaCon_ABC_HDB00  (ocf::suse:SAPHanaController):   Slave sles-sp4-angi-vm2 (unmanaged)
       * Clone Set: cln_SAPHanaFil_ABC_HDB00 [rsc_SAPHanaFil_ABC_HDB00]:
         * Started: [ sles-sp4-angi-vm1 sles-sp4-angi-vm2 ]
  7. Em qualquer instância do sistema HA, remova o cluster HA do modo de manutenção:

    cs_wait_for_idle -s 3 >/dev/null
    crm resource refresh cln_SAPHanaTopology_ABC_HDB00
    cs_wait_for_idle -s 3 >/dev/null
    crm resource maintenance cln_SAPHanaTopology_ABC_HDB00 off
    cs_wait_for_idle -s 3 >/dev/null
    crm resource refresh mst_SAPHanaCon_ABC_HDB00
    cs_wait_for_idle -s 3 >/dev/null
    crm resource maintenance mst_SAPHanaCon_ABC_HDB00 off
    cs_wait_for_idle -s 3 >/dev/null
    crm resource refresh cln_SAPHanaFil_ABC_HDB00
    cs_wait_for_idle -s 3 >/dev/null
    crm resource maintenance cln_SAPHanaFil_ABC_HDB00 off
    cs_wait_for_idle -s 3 >/dev/null
    echo "property cib-bootstrap-options: stop-orphan-resources=true" | crm configure load update -
  8. Verifique o status do cluster de HA:

    cs_wait_for_idle -s 3 >/dev/null
    crm_mon -1r --include=failcounts,fencing-pending;echo;SAPHanaSR-showAttr;cs_clusterstate -i|grep -v "#"

    A resposta será semelhante a:

    Cluster Summary:
     * Stack: corosync
     * Current DC: sles-sp4-angi-vm1 (version 2.1.2+20211124.ada5c3b36-150400.4.20.1-2.1.2+20211124.ada5c3b36) - partition with quorum
     * Last updated: Wed Jan 29 05:21:05 2025
     * Last change:  Wed Jan 29 05:21:05 2025 by root via crm_attribute on sles-sp4-angi-vm1
     * 2 nodes configured
     * 10 resource instances configured
    
    Node List:
     * Online: [ sles-sp4-angi-vm1 sles-sp4-angi-vm2 ]
    
    Full List of Resources:
     * STONITH-sles-sp4-angi-vm1   (stonith:fence_gce):     Started sles-sp4-angi-vm2
     * STONITH-sles-sp4-angi-vm2   (stonith:fence_gce):     Started sles-sp4-angi-vm1
     * Resource Group: g-primary:
       * rsc_vip_int-primary       (ocf::heartbeat:IPaddr2):        Started sles-sp4-angi-vm1
       * rsc_vip_hc-primary        (ocf::heartbeat:anything):       Started sles-sp4-angi-vm1
     * Clone Set: cln_SAPHanaTopology_ABC_HDB00 [rsc_SAPHanaTop_ABC_HDB00]:
       * Started: [ sles-sp4-angi-vm1 sles-sp4-angi-vm2 ]
     * Clone Set: mst_SAPHanaCon_ABC_HDB00 [rsc_SAPHanaCon_ABC_HDB00] (promotable):
       * Masters: [ sles-sp4-angi-vm1 ]
       * Slaves: [ sles-sp4-angi-vm2 ]
     * Clone Set: cln_SAPHanaFil_ABC_HDB00 [rsc_SAPHanaFil_ABC_HDB00]:
       * Started: [ sles-sp4-angi-vm1 sles-sp4-angi-vm2 ]
    
    Migration Summary:
    
    Global cib-update dcid prim              sec               sid topology
    ------------------------------------------------------------------------
    global 0.68471.0  1    sles-sp4-angi-vm1 sles-sp4-angi-vm2 ABC ScaleUp
    
    Resource                      maintenance promotable
    -----------------------------------------------------
    mst_SAPHanaCon_ABC_HDB00      false       true
    cln_SAPHanaTopology_ABC_HDB00 false
    
    Site              lpt        lss mns               opMode    srHook srMode  srPoll srr
    ---------------------------------------------------------------------------------------
    sles-sp4-angi-vm1 1738128065 4   sles-sp4-angi-vm1 logreplay PRIM   syncmem PRIM   P
    sles-sp4-angi-vm2 30         4   sles-sp4-angi-vm2 logreplay        syncmem SOK    S
    
    Host              clone_state roles                        score site              srah version     vhost
    ----------------------------------------------------------------------------------------------------------------------
    sles-sp4-angi-vm1 PROMOTED    master1:master:worker:master 150   sles-sp4-angi-vm1 -    2.00.073.00 sles-sp4-angi-vm1
    sles-sp4-angi-vm2 DEMOTED     master1:master:worker:master 100   sles-sp4-angi-vm2 -    2.00.073.00 sles-sp4-angi-vm2

Verificar os detalhes dos atributos do cluster HANA

  • Em qualquer instância do cluster HA, confira os detalhes dos atributos do cluster HANA:

    SAPHanaSR-showAttr

    A resposta será semelhante a:

    Global cib-update dcid prim              sec               sid topology
    ------------------------------------------------------------------------
    global 0.98409.1  1    sles-sp4-angi-vm2 sles-sp4-angi-vm1 ABC ScaleUp
    
    Resource                      maintenance promotable
    -----------------------------------------------------
    mst_SAPHanaCon_ABC_HDB00      false       true
    cln_SAPHanaTopology_ABC_HDB00 false
    
    Site              lpt        lss mns               opMode    srHook srMode  srPoll srr
    ---------------------------------------------------------------------------------------
    sles-sp4-angi-vm1 30         4   sles-sp4-angi-vm1 logreplay SOK    syncmem SOK    S
    sles-sp4-angi-vm2 1742448908 4   sles-sp4-angi-vm2 logreplay PRIM   syncmem PRIM   P
    
    Host              clone_state roles                        score site              srah version     vhost
    ----------------------------------------------------------------------------------------------------------------------
    sles-sp4-angi-vm1 DEMOTED     master1:master:worker:master 100   sles-sp4-angi-vm1 -    2.00.073.00 sles-sp4-angi-vm1
    sles-sp4-angi-vm2 PROMOTED    master1:master:worker:master 150   sles-sp4-angi-vm2 -    2.00.073.00 sles-sp4-angi-vm2

Receber suporte

Se você comprou uma licença PAYG do Compute Engine para uma imagem do SLES para a imagem do SO SAP, pode receber assistência do atendimento ao cliente do Cloud para entrar em contato com o SUSE. Para mais informações, consulte Como o suporte é oferecido para licenças do SLES de pagamento por utilização (PAYG) no Compute Engine?

Para informações sobre como receber suporte da Google Cloud, consulte Como receber suporte para o SAP no Google Cloud.