Mettre à niveau SAPHanaSR vers SAPHanaSR-angi dans un cluster HA à évolutivité verticale sur SLES

Ce document explique comment mettre à niveau l'agent de ressources SAPHanaSR vers l'agent de ressources SAPHanaSR-angi (Advanced Next Generation Interface) dans un cluster à haute disponibilité (HA) évolutif basé sur SLES exécuté sur Google Cloud.SAPHanaSR

SAPHanaSR-angi est le successeur de SAPHanaSR. De plus, à partir de SLES pour SAP 15 SP6, Google Cloud recommande d'utiliser SAPHanaSR-angi. Pour en savoir plus sur cet agent de ressources, y compris ses avantages, consultez la page SUSE Qu'est-ce que SAPHanaSR-angi ?.

Pour illustrer la procédure de mise à niveau, ce guide suppose qu'un système HA à scaling à la hausse SAP HANA s'exécute sur SLES pour SAP 15 SP4, avec le SID ABC. Cette procédure de mise à niveau est issue du blog SUSE How to upgrade to SAPHanaSR-angi (Mettre à niveau vers SAPHanaSR-angi).

Avant de commencer

Avant de passer de SAPHanaSR à SAPHanaSR-angi dans un cluster HA à mise à l'échelle SAP HANA basé sur SLES, assurez-vous d'utiliser le dernier correctif de l'une des versions d'OS suivantes: SLES 15 SP4 ou version ultérieure.

Si vous utilisez une version antérieure du système d'exploitation, vous devez d'abord passer à la dernière version de correctif de l'une de ces versions de système d'exploitation. Seul le dernier correctif de ces versions d'OS contient le script SAPHanaSR-upgrade-to-angi-demo fourni par SUSE pour cette mise à niveau. Le script est disponible dans le répertoire /usr/share/SAPHanaSR/samples.

Passer à l'agent de ressources SAPHanaSR-angi dans un cluster à mise à l'échelle

Pour passer à l'agent de ressources SAPHanaSR-angi dans un cluster HA à scaling à la hausse SAP HANA basé sur SLES, procédez comme suit:

  1. Préparez les instances à la mise à niveau.
  2. Supprimez les configurations de ressources du cluster.
  3. Ajoutez des configurations de ressources au cluster.
  4. Vérifiez les détails des attributs du cluster HANA.

Préparer les instances à la mise à niveau

  1. Sur l'instance principale de votre système SAP HANA à haute disponibilité, installez le paquet Linux ClusterTools2:

    zypper -y install ClusterTools2

    Vérifier l'installation du package

    Vérifiez l'installation du package ClusterTools2:

    zypper info ClusterTools2

    Le résultat ressemble à ce qui suit :

    Information for package ClusterTools2:
     --------------------------------------
     Repository     : SLE-Module-SAP-Applications15-SP4-Updates
     Name           : ClusterTools2
     Version        : 3.1.3-150100.8.12.1
     Arch           : noarch
     Vendor         : SUSE LLC <https://www.suse.com/>
     Support Level  : Level 3
     Installed Size : 340.1 KiB
     Installed      : Yes
     Status         : up-to-date
     Source package : ClusterTools2-3.1.3-150100.8.12.1.src
     Upstream URL   : http://www.suse.com
     Summary        : Tools for cluster management
     Description    :
         ClusterTools2 provides tools for setting up and managing a corosync/
         pacemaker cluster.
         There are some other commandline tools to make life easier.
         Starting with version 3.0.0 is support for SUSE Linux Enterprise Server 12.
  2. Copiez le script de démonstration SAPHanaSR-upgrade-to-angi-demo fourni par SUSE dans /root/bin. Ce script effectue la sauvegarde des fichiers de configuration et génère les commandes requises pour la mise à niveau.

    Pour copier le script de démonstration dans /root/bin:

    cp -p /usr/share/SAPHanaSR/samples/SAPHanaSR-upgrade-to-angi-demo /root/bin/
    cd /root/bin
    ls -lrt

    Le résultat ressemble à celui de l'exemple ci-dessous.

    ...
    -r--r--r-- 1 root root   157 Nov  8 14:45 global.ini_susTkOver
    -r--r--r-- 1 root root   133 Nov  8 14:45 global.ini_susHanaSR
    -r--r--r-- 1 root root   157 Nov  8 14:45 global.ini_susCostOpt
    -r--r--r-- 1 root root   175 Nov  8 14:45 global.ini_susChkSrv
    -r-xr-xr-x 1 root root 22473 Nov  8 14:45 SAPHanaSR-upgrade-to-angi-demo
    drwxr-xr-x 3 root root    26 Nov  9 07:50 crm_cfg
  3. Sur l'instance secondaire de votre système SAP HANA à haute disponibilité, répétez les étapes 1 à 2.

  4. Depuis l'une des instances de votre système haute disponibilité, exécutez le script de démonstration:

    ./SAPHanaSR-upgrade-to-angi-demo --upgrade > upgrade-to-angi.txt
  5. Vérifiez que les fichiers de sauvegarde sont présents:

    ls -l

    Le résultat ressemble à celui de l'exemple ci-dessous.

    /root/SAPHanaSR-upgrade-to-angi-demo.1736397409/*
    -rw-r--r-- 1 root   root     443 Dec 10 20:09 /root/SAPHanaSR-upgrade-to-angi-demo.1736397409/20-saphana.sudo
    -rwxr-xr-x 1 root   root   22461 May 14  2024 /root/SAPHanaSR-upgrade-to-angi-demo.1736397409/SAPHanaSR-upgrade-to-angi-demo
    -rw-r--r-- 1 root   root   28137 Jan  9 04:36 /root/SAPHanaSR-upgrade-to-angi-demo.1736397409/cib.xml
    -rw-r--r-- 1 root   root    3467 Jan  9 04:36 /root/SAPHanaSR-upgrade-to-angi-demo.1736397409/crm_configure.txt
    -rw-r--r-- 1 abcadm sapsys   929 Dec 10 20:09 /root/SAPHanaSR-upgrade-to-angi-demo.1736397409/global.ini

Supprimer des configurations de ressources du cluster

  1. Depuis l'une des instances de votre système HA, mettez les ressources de cluster SAPHana et SAPHanaTopology en mode de maintenance:

    cs_wait_for_idle -s 3 >/dev/null
    crm resource maintenance msl_SAPHana_ABC_HDB00 on
    cs_wait_for_idle -s 3 >/dev/null
    crm resource maintenance cln_SAPHanaTopology_ABC_HDB00 on
    cs_wait_for_idle -s 3 >/dev/null
    echo "property cib-bootstrap-options: stop-orphan-resources=false" | crm configure load update -

    Vérifier l'état des ressources du cluster

    Pour vérifier que les ressources SAPHana et SAPHanaTopology:

    crm status

    La sortie doit indiquer que les ressources en question sont unmanaged:

    Cluster Summary:
     ...
     Full List of Resources:
       *  STONITH-sles-sp4-angi-vm1   (stonith:fence_gce):     Started sles-sp4-angi-vm2
       *  STONITH-sles-sp4-angi-vm2   (stonith:fence_gce):     Started sles-sp4-angi-vm1
       *  Resource Group: g-primary:
         *    rsc_vip_int-primary       (ocf::heartbeat:IPaddr2):        Started sles-sp4-angi-vm1
         *    rsc_vip_hc-primary        (ocf::heartbeat:anything):       Started sles-sp4-angi-vm1
       *  Clone Set: cln_SAPHanaTopology_ABC_HDB00 [rsc_SAPHanaTopology_ABC_HDB00] (unmanaged):
         *    rsc_SAPHanaTopology_ABC_HDB00     (ocf::suse:SAPHanaTopology):     Started sles-sp4-angi-vm1 (unmanaged)
         *    rsc_SAPHanaTopology_ABC_HDB00     (ocf::suse:SAPHanaTopology):     Started sles-sp4-angi-vm2 (unmanaged)
       *  Clone Set: msl_SAPHana_ABC_HDB00 [rsc_SAPHana_ABC_HDB00] (promotable, unmanaged):
         *    rsc_SAPHana_ABC_HDB00     (ocf::suse:SAPHana):     Master sles-sp4-angi-vm1 (unmanaged)
         *    rsc_SAPHana_ABC_HDB00     (ocf::suse:SAPHana):     Slave sles-sp4-angi-vm2 (unmanaged)
  2. Sur l'instance principale de votre système HA, supprimez la configuration du hook du fournisseur HA/DR existant:

    grep "^\[ha_dr_provider_" /hana/shared/ABC/global/hdb/custom/config/global.ini
    su - abcadm -c "/usr/sbin/SAPHanaSR-manageProvider --sid=ABC --show --provider=SAPHanaSR" > /run/SAPHanaSR-upgrade-to-angi-demo.12915.global.ini.SAPHanaSR
    su - abcadm -c "/usr/sbin/SAPHanaSR-manageProvider --sid=ABC --reconfigure --remove /run/SAPHanaSR-upgrade-to-angi-demo.12915.global.ini.SAPHanaSR"
    rm /run/SAPHanaSR-upgrade-to-angi-demo.12915.global.ini.SAPHanaSR
    rm /run/SAPHanaSR-upgrade-to-angi-demo.12915.global.ini.suschksrv
    su - abcadm -c "hdbnsutil -reloadHADRProviders"
    grep "^\[ha_dr_provider_" /hana/shared/ABC/global/hdb/custom/config/global.ini
    cp /etc/sudoers.d/20-saphana /run/SAPHanaSR-upgrade-to-angi-demo.12915.sudoers.classic
    grep -v "abcadm.*ALL..NOPASSWD.*crm_attribute.*abc" /run/SAPHanaSR-upgrade-to-angi-demo.12915.sudoers.classic > /etc/sudoers.d/20-saphana
    cp /etc/sudoers.d/20-saphana /run/SAPHanaSR-upgrade-to-angi-demo.12915.sudoers.classic
    grep -v "abcadm.*ALL..NOPASSWD.*SAPHanaSR-hookHelper.*sid=ABC" /run/SAPHanaSR-upgrade-to-angi-demo.12915.sudoers.classic > /etc/sudoers.d/20-saphana
    rm /run/SAPHanaSR-upgrade-to-angi-demo.12915.sudoers.classic
  3. Sur l'instance secondaire de votre système HA, répétez l'étape précédente pour supprimer la configuration du hook du fournisseur HA/DR existant.

  4. Sur l'une des instances de votre système HA, supprimez la configuration de l'agent de ressources SAPHana:

    cibadmin --delete --xpath "//rsc_colocation[@id='col_saphana_ip_ABC_HDB00']"
    cibadmin --delete --xpath "//rsc_order[@id='ord_SAPHana_ABC_HDB00']"
    cibadmin --delete --xpath "//master[@id='msl_SAPHana_ABC_HDB00']"
    cs_wait_for_idle -s 3 >/dev/null
    crm resource refresh rsc_SAPHana_ABC_HDB00

    Vérifier l'état de l'agent de ressources SAPHana

    Pour vérifier que la configuration de l'agent de ressources SAPHana est supprimée:

    crm status

    La sortie doit indiquer que la ressource en question est unmanaged:

    Cluster Summary:
     ...
     Full List of Resources:
       * STONITH-sles-sp4-angi-vm1   (stonith:fence_gce):     Started sles-sp4-angi-vm2
       * STONITH-sles-sp4-angi-vm2   (stonith:fence_gce):     Started sles-sp4-angi-vm1
       * Resource Group: g-primary:
         * rsc_vip_int-primary       (ocf::heartbeat:IPaddr2):        Started sles-sp4-angi-vm1
         * rsc_vip_hc-primary        (ocf::heartbeat:anything):       Started sles-sp4-angi-vm1
       * Clone Set: cln_SAPHanaTopology_ABC_HDB00 [rsc_SAPHanaTopology_ABC_HDB00] (unmanaged):
         * rsc_SAPHanaTopology_ABC_HDB00     (ocf::suse:SAPHanaTopology):     Started sles-sp4-angi-vm1 (unmanaged)
         * rsc_SAPHanaTopology_ABC_HDB00     (ocf::suse:SAPHanaTopology):     Started sles-sp4-angi-vm2 (unmanaged)
  5. Sur l'une des instances de votre système HA, supprimez la configuration de l'agent de ressources SAPHanaTopology:

    cs_wait_for_idle -s 3 >/dev/null
    cibadmin --delete --xpath "//rsc_order[@id='ord_SAPHana_ABC_HDB00']"
    cibadmin --delete --xpath "//clone[@id='cln_SAPHanaTopology_ABC_HDB00']"
    cs_wait_for_idle -s 3 >/dev/null
    crm resource refresh rsc_SAPHanaTopology_ABC_HDB00

    Vérifier l'état de l'agent de ressources SAPHanaTopology

    Pour vérifier que la configuration de l'agent de ressources SAPHanaTopology est supprimée:

    crm status

    Le résultat ressemble à ce qui suit :

    Cluster Summary:
     * Stack: corosync
     * Current DC: sles-sp4-angi-vm1 (version 2.1.2+20211124.ada5c3b36-150400.4.20.1-2.1.2+20211124.ada5c3b36) - partition with quorum
     * Last updated: Wed Jan 29 03:30:36 2025
     * Last change:  Wed Jan 29 03:30:32 2025 by hacluster via crmd on sles-sp4-angi-vm1
     * 2 nodes configured
     * 4 resource instances configured
    
     Node List:
       * Online: [ sles-sp4-angi-vm1 sles-sp4-angi-vm2 ]
    
     Full List of Resources:
       * STONITH-sles-sp4-angi-vm1   (stonith:fence_gce):     Started sles-sp4-angi-vm2
       * STONITH-sles-sp4-angi-vm2   (stonith:fence_gce):     Started sles-sp4-angi-vm1
       * Resource Group: g-primary:
         * rsc_vip_int-primary       (ocf::heartbeat:IPaddr2):        Started sles-sp4-angi-vm1
         * rsc_vip_hc-primary        (ocf::heartbeat:anything):       Started sles-sp4-angi-vm1
  6. Sur l'instance principale de votre système HA, supprimez les autres propriétés de cluster:

    cs_wait_for_idle -s 3 >/dev/null
    crm_attribute --delete --type crm_config --name hana_abc_site_srHook_sles-sp4-angi-vm2
    crm_attribute --delete --type crm_config --name hana_abc_site_srHook_sles-sp4-angi-vm1
    cs_wait_for_idle -s 3 >/dev/null
    crm_attribute --node sles-sp4-angi-vm1 --name hana_abc_op_mode --delete
    crm_attribute --node sles-sp4-angi-vm1 --name lpa_abc_lpt --delete
    crm_attribute --node sles-sp4-angi-vm1 --name hana_abc_srmode --delete
    crm_attribute --node sles-sp4-angi-vm1 --name hana_abc_vhost --delete
    crm_attribute --node sles-sp4-angi-vm1 --name hana_abc_remoteHost --delete
    crm_attribute --node sles-sp4-angi-vm1 --name hana_abc_site --delete
    crm_attribute --node sles-sp4-angi-vm1 --name hana_abc_sync_state --lifetime reboot --delete
    crm_attribute --node sles-sp4-angi-vm1 --name master-rsc_SAPHana_ABC_HDB00 --lifetime reboot --delete
    crm_attribute --node sles-sp4-angi-vm2 --name lpa_abc_lpt --delete
    crm_attribute --node sles-sp4-angi-vm2 --name hana_abc_op_mode --delete
    crm_attribute --node sles-sp4-angi-vm2 --name hana_abc_vhost --delete
    crm_attribute --node sles-sp4-angi-vm2 --name hana_abc_site --delete
    crm_attribute --node sles-sp4-angi-vm2 --name hana_abc_srmode --delete
    crm_attribute --node sles-sp4-angi-vm2 --name hana_abc_remoteHost --delete
    crm_attribute --node sles-sp4-angi-vm2 --name hana_abc_sync_state --lifetime reboot --delete
    crm_attribute --node sles-sp4-angi-vm2 --name master-rsc_SAPHana_ABC_HDB00 --lifetime reboot --delete
  7. Sur l'instance principale de votre système HA, supprimez le package SAPHanaSR:

    cs_wait_for_idle -s 3 >/dev/null
    crm cluster run "rpm -e --nodeps 'SAPHanaSR'"

    Vérifier l'état du cluster

    Pour vérifier l'état de votre cluster à haute disponibilité:

    crm status

    Le résultat ressemble à celui de l'exemple ci-dessous.

    Cluster Summary:
     ...
     Node List:
       * Online: [ sles-sp4-angi-vm1 sles-sp4-angi-vm2 ]
    
     Full List of Resources:
       * STONITH-sles-sp4-angi-vm1   (stonith:fence_gce):     Started sles-sp4-angi-vm2
       * STONITH-sles-sp4-angi-vm2   (stonith:fence_gce):     Started sles-sp4-angi-vm1
       * Resource Group: g-primary:
         * rsc_vip_int-primary       (ocf::heartbeat:IPaddr2):        Started sles-sp4-angi-vm1
         * rsc_vip_hc-primary        (ocf::heartbeat:anything):       Started sles-sp4-angi-vm1
  8. Sur l'instance principale de votre système HA, supprimez le package SAPHanaSR-doc:

    zypper remove SAPHanaSR-doc
  9. Sur l'instance secondaire de votre système HA, supprimez le package SAPHanaSR-doc.

Ajouter des configurations de ressources au cluster

  1. Depuis l'une des instances de votre système à haute disponibilité, installez le gestionnaire de paquets de ressources SAPHanaSR-angi:

    cs_wait_for_idle -s 3 >/dev/null
    crm cluster run "zypper --non-interactive in -l -f -y 'SAPHanaSR-angi'"
    crm cluster run "rpm -q 'SAPHanaSR-angi' --queryformat %{NAME}"
    hash -r
  2. Sur l'instance principale de votre système HA, ajoutez la configuration du hook de fournisseur HA/DR:

    su - abcadm -c "/usr/bin/SAPHanaSR-manageProvider --sid=ABC --reconfigure --add /usr/share/SAPHanaSR-angi/samples/global.ini_susHanaSR"
    su - abcadm -c "/usr/bin/SAPHanaSR-manageProvider --sid=ABC --reconfigure --add /usr/share/SAPHanaSR-angi/samples/global.ini_susTkOver"
    su - abcadm -c "/usr/bin/SAPHanaSR-manageProvider --sid=ABC --reconfigure --add /usr/share/SAPHanaSR-angi/samples/global.ini_susChkSrv"
    su - abcadm -c "hdbnsutil -reloadHADRProviders"
    grep -A2 "^\[ha_dr_provider_" /hana/shared/ABC/global/hdb/custom/config/global.ini
    su - abcadm -c "/usr/bin/SAPHanaSR-manageProvider --sid=ABC --show --provider=SAPHanaSR"
    su - abcadm -c "/usr/bin/SAPHanaSR-manageProvider --sid=ABC --show --provider=suschksrv"
    echo "abcadm ALL=(ALL) NOPASSWD: /usr/bin/SAPHanaSR-hookHelper --sid=ABC *" >> /etc/sudoers.d/20-saphana
    echo "abcadm ALL=(ALL) NOPASSWD: /usr/sbin/crm_attribute -n hana_abc_*" >> /etc/sudoers.d/20-saphana
    sudo -l -U abcadm | grep -e crm_attribute -e SAPHanaSR-hookHelper
  3. Sur l'instance secondaire de votre système haute disponibilité, répétez l'étape précédente pour ajouter la configuration du crochet du fournisseur HA/DR.

  4. Depuis l'une des instances de votre système haute disponibilité, ajoutez la configuration de l'agent de ressources SAPHanaTopology:

    cs_wait_for_idle -s 3 >/dev/null
    echo "
    #
    primitive rsc_SAPHanaTop_ABC_HDB00 ocf:suse:SAPHanaTopology op start interval=0 timeout=600 op stop interval=0 timeout=600 op monitor interval=50 timeout=600 params SID=ABC InstanceNumber=00
    #
    clone cln_SAPHanaTopology_ABC_HDB00 rsc_SAPHanaTop_ABC_HDB00 meta clone-node-max=1 interleave=true
    #
    " | crm configure load update -
    crm configure show cln_SAPHanaTopology_ABC_HDB00

    Vérifier l'état du cluster

    Pour vérifier l'état de votre cluster à haute disponibilité:

    crm status

    Le résultat ressemble à celui de l'exemple ci-dessous.

    Cluster Summary:
     ...
       * Clone Set: cln_SAPHanaTopology_ABC_HDB00 [rsc_SAPHanaTop_ABC_HDB00]:
            * Started: [ sles-sp4-angi-vm1 sles-sp4-angi-vm2 ]
    
  5. Dans l'une des instances de votre système haute disponibilité, ajoutez SAPHanaCon en tant que ressource de cluster non gérée:

    cs_wait_for_idle -s 3 >/dev/null
    echo "
    #
    primitive rsc_SAPHanaCon_ABC_HDB00 ocf:suse:SAPHanaController op start interval=0 timeout=3600 op stop interval=0 timeout=3600 op promote interval=0 timeout=900 op demote interval=0 timeout=320 op monitor interval=60 role=Promoted timeout=700 op monitor interval=61 role=Unpromoted timeout=700 params SID=ABC InstanceNumber=00 PREFER_SITE_TAKEOVER=true DUPLICATE_PRIMARY_TIMEOUT=7200 AUTOMATED_REGISTER=true meta maintenance=true
    #
    clone mst_SAPHanaCon_ABC_HDB00 rsc_SAPHanaCon_ABC_HDB00 meta clone-node-max=1 promotable=true interleave=true maintenance=true
    #
    order ord_SAPHanaTop_first Optional: cln_SAPHanaTopology_ABC_HDB00 mst_SAPHanaCon_ABC_HDB00
    #
    colocation col_SAPHanaCon_ip_ABC_HDB00 2000: g-primary:Started mst_SAPHanaCon_ABC_HDB00:Promoted
    #
    " | crm configure load update -
    crm configure show mst_SAPHanaCon_ABC_HDB00

    Vérifier l'état du cluster

    Pour vérifier l'état de votre cluster à haute disponibilité:

    crm status

    Le résultat ressemble à celui de l'exemple ci-dessous.

    Cluster Summary:
    ...
     * Clone Set: cln_SAPHanaTopology_ABC_HDB00 [rsc_SAPHanaTop_ABC_HDB00]:
       * Started: [ sles-sp4-angi-vm1 sles-sp4-angi-vm2 ]
     * Clone Set: mst_SAPHanaCon_ABC_HDB00 [rsc_SAPHanaCon_ABC_HDB00] (promotable, unmanaged):
       * rsc_SAPHanaCon_ABC_HDB00  (ocf::suse:SAPHanaController):   Slave sles-sp4-angi-vm1 (unmanaged)
       * rsc_SAPHanaCon_ABC_HDB00  (ocf::suse:SAPHanaController):   Slave sles-sp4-angi-vm2 (unmanaged)
  6. Dans l'une des instances de votre système haute disponibilité, ajoutez la ressource de cluster de système de fichiers HANA:

    cs_wait_for_idle -s 3 >/dev/null
    echo "
    #
    primitive rsc_SAPHanaFil_ABC_HDB00 ocf:suse:SAPHanaFilesystem op start interval=0 timeout=10 op stop interval=0 timeout=20 on-fail=fence op monitor interval=120 timeout=120 params SID=ABC InstansceNumber=00
    #
    clone cln_SAPHanaFil_ABC_HDB00 rsc_SAPHanaFil_ABC_HDB00 meta clone-node-max=1 interleave=true
    #
    " | crm configure load update -
    crm configure show cln_SAPHanaFil_ABC_HDB00
    #
    clone cln_SAPHanaFil_ABC_HDB00 rsc_SAPHanaFil_ABC_HDB00 \
           meta clone-node-max=1 interleave=true

    Vérifier l'état du cluster

    Pour vérifier l'état de votre cluster à haute disponibilité:

    crm status

    Le résultat ressemble à celui de l'exemple ci-dessous.

    Cluster Summary:
     ...
       * Clone Set: cln_SAPHanaTopology_ABC_HDB00 [rsc_SAPHanaTop_ABC_HDB00]:
         * Started: [ sles-sp4-angi-vm1 sles-sp4-angi-vm2 ]
       * Clone Set: mst_SAPHanaCon_ABC_HDB00 [rsc_SAPHanaCon_ABC_HDB00] (promotable, unmanaged):
         * rsc_SAPHanaCon_ABC_HDB00  (ocf::suse:SAPHanaController):   Slave sles-sp4-angi-vm1 (unmanaged)
         * rsc_SAPHanaCon_ABC_HDB00  (ocf::suse:SAPHanaController):   Slave sles-sp4-angi-vm2 (unmanaged)
       * Clone Set: cln_SAPHanaFil_ABC_HDB00 [rsc_SAPHanaFil_ABC_HDB00]:
         * Started: [ sles-sp4-angi-vm1 sles-sp4-angi-vm2 ]
  7. Depuis l'une des instances de votre système HA, désactivez le mode de maintenance du cluster HA:

    cs_wait_for_idle -s 3 >/dev/null
    crm resource refresh cln_SAPHanaTopology_ABC_HDB00
    cs_wait_for_idle -s 3 >/dev/null
    crm resource maintenance cln_SAPHanaTopology_ABC_HDB00 off
    cs_wait_for_idle -s 3 >/dev/null
    crm resource refresh mst_SAPHanaCon_ABC_HDB00
    cs_wait_for_idle -s 3 >/dev/null
    crm resource maintenance mst_SAPHanaCon_ABC_HDB00 off
    cs_wait_for_idle -s 3 >/dev/null
    crm resource refresh cln_SAPHanaFil_ABC_HDB00
    cs_wait_for_idle -s 3 >/dev/null
    crm resource maintenance cln_SAPHanaFil_ABC_HDB00 off
    cs_wait_for_idle -s 3 >/dev/null
    echo "property cib-bootstrap-options: stop-orphan-resources=true" | crm configure load update -
  8. Vérifiez l'état de votre cluster à haute disponibilité:

    cs_wait_for_idle -s 3 >/dev/null
    crm_mon -1r --include=failcounts,fencing-pending;echo;SAPHanaSR-showAttr;cs_clusterstate -i|grep -v "#"

    Le résultat ressemble à celui de l'exemple ci-dessous.

    Cluster Summary:
     * Stack: corosync
     * Current DC: sles-sp4-angi-vm1 (version 2.1.2+20211124.ada5c3b36-150400.4.20.1-2.1.2+20211124.ada5c3b36) - partition with quorum
     * Last updated: Wed Jan 29 05:21:05 2025
     * Last change:  Wed Jan 29 05:21:05 2025 by root via crm_attribute on sles-sp4-angi-vm1
     * 2 nodes configured
     * 10 resource instances configured
    
    Node List:
     * Online: [ sles-sp4-angi-vm1 sles-sp4-angi-vm2 ]
    
    Full List of Resources:
     * STONITH-sles-sp4-angi-vm1   (stonith:fence_gce):     Started sles-sp4-angi-vm2
     * STONITH-sles-sp4-angi-vm2   (stonith:fence_gce):     Started sles-sp4-angi-vm1
     * Resource Group: g-primary:
       * rsc_vip_int-primary       (ocf::heartbeat:IPaddr2):        Started sles-sp4-angi-vm1
       * rsc_vip_hc-primary        (ocf::heartbeat:anything):       Started sles-sp4-angi-vm1
     * Clone Set: cln_SAPHanaTopology_ABC_HDB00 [rsc_SAPHanaTop_ABC_HDB00]:
       * Started: [ sles-sp4-angi-vm1 sles-sp4-angi-vm2 ]
     * Clone Set: mst_SAPHanaCon_ABC_HDB00 [rsc_SAPHanaCon_ABC_HDB00] (promotable):
       * Masters: [ sles-sp4-angi-vm1 ]
       * Slaves: [ sles-sp4-angi-vm2 ]
     * Clone Set: cln_SAPHanaFil_ABC_HDB00 [rsc_SAPHanaFil_ABC_HDB00]:
       * Started: [ sles-sp4-angi-vm1 sles-sp4-angi-vm2 ]
    
    Migration Summary:
    
    Global cib-update dcid prim              sec               sid topology
    ------------------------------------------------------------------------
    global 0.68471.0  1    sles-sp4-angi-vm1 sles-sp4-angi-vm2 ABC ScaleUp
    
    Resource                      maintenance promotable
    -----------------------------------------------------
    mst_SAPHanaCon_ABC_HDB00      false       true
    cln_SAPHanaTopology_ABC_HDB00 false
    
    Site              lpt        lss mns               opMode    srHook srMode  srPoll srr
    ---------------------------------------------------------------------------------------
    sles-sp4-angi-vm1 1738128065 4   sles-sp4-angi-vm1 logreplay PRIM   syncmem PRIM   P
    sles-sp4-angi-vm2 30         4   sles-sp4-angi-vm2 logreplay        syncmem SOK    S
    
    Host              clone_state roles                        score site              srah version     vhost
    ----------------------------------------------------------------------------------------------------------------------
    sles-sp4-angi-vm1 PROMOTED    master1:master:worker:master 150   sles-sp4-angi-vm1 -    2.00.073.00 sles-sp4-angi-vm1
    sles-sp4-angi-vm2 DEMOTED     master1:master:worker:master 100   sles-sp4-angi-vm2 -    2.00.073.00 sles-sp4-angi-vm2

Vérifier les détails des attributs du cluster HANA

  • Dans l'une des instances de votre cluster HA, affichez les détails des attributs du cluster HANA:

    SAPHanaSR-showAttr

    Le résultat ressemble à celui de l'exemple ci-dessous.

    Global cib-update dcid prim              sec               sid topology
    ------------------------------------------------------------------------
    global 0.98409.1  1    sles-sp4-angi-vm2 sles-sp4-angi-vm1 ABC ScaleUp
    
    Resource                      maintenance promotable
    -----------------------------------------------------
    mst_SAPHanaCon_ABC_HDB00      false       true
    cln_SAPHanaTopology_ABC_HDB00 false
    
    Site              lpt        lss mns               opMode    srHook srMode  srPoll srr
    ---------------------------------------------------------------------------------------
    sles-sp4-angi-vm1 30         4   sles-sp4-angi-vm1 logreplay SOK    syncmem SOK    S
    sles-sp4-angi-vm2 1742448908 4   sles-sp4-angi-vm2 logreplay PRIM   syncmem PRIM   P
    
    Host              clone_state roles                        score site              srah version     vhost
    ----------------------------------------------------------------------------------------------------------------------
    sles-sp4-angi-vm1 DEMOTED     master1:master:worker:master 100   sles-sp4-angi-vm1 -    2.00.073.00 sles-sp4-angi-vm1
    sles-sp4-angi-vm2 PROMOTED    master1:master:worker:master 150   sles-sp4-angi-vm2 -    2.00.073.00 sles-sp4-angi-vm2

Obtenir de l'aide

Si vous avez acheté une licence PAYG auprès de Compute Engine pour une image d'OS SLES pour SAP, vous pouvez demander l'aide de l'assistance client Cloud pour contacter SUSE. Pour en savoir plus, consultez la section Quel est le niveau d'assistance proposé pour les licences SLES PAYG (paiement à l'usage) sur Compute Engine ?

Pour savoir comment obtenir de l'aide auprès de Google Cloud, consultez la page Obtenir de l'aide pour SAP sur Google Cloud.