SLES 기반 SAP HANA용 HA 수직 확장 클러스터 구성 가이드

이 가이드에서는 Google Cloud에서 SAP HANA 수직 확장 시스템용 성능 최적화 SUSE Linux Enterprise Server(SLES) 고가용성(HA) 클러스터를 배포하고 구성하는 방법을 설명합니다.

이 가이드에는 다음을 수행하는 단계가 포함되어 있습니다.

이 가이드에는 SAP HANA 시스템 복제를 구성하는 단계도 포함되어 있지만 정확한 지침은 SAP 문서를 참조하세요.

Linux 고가용성 클러스터나 대기 노드 호스트 없이 SAP HANA 시스템을 배포하려면 SAP HANA 배포 가이드를 참조하세요.

Red Hat Enterprise Linux(RHEL)에서 SAP HANA용 HA 클러스터를 구성하려면 RHEL에서 SAP HANA 수직 확장용 HA 클러스터 구성 가이드를 참조하세요.

이 가이드는 SAP HANA용 Linux 고가용성 구성에 익숙한 SAP HANA 고급 사용자를 대상으로 합니다.

이 가이드에서 배포하는 시스템

이 가이드를 수행하여 SAP HANA 인스턴스 두 개를 배포하고 SLES에서 HA 클러스터를 설정합니다. 각 SAP HANA 인스턴스를 동일한 리전 내 서로 다른 영역에 있는 Compute Engine VM에 배포합니다. 이 가이드에서는 SAP NetWeaver의 고가용성 설치를 다루지 않습니다.

단일 노드 SAP HANA 수직 확장 시스템을 위한 고가용성 Linux 클러스터의 개요

배포된 클러스터에는 다음 기능 및 특징이 포함됩니다.

  • 호스트 VM 두 개(각각 SAP HANA 인스턴스 한 개 포함)
  • 동기식 SAP HANA 시스템 복제
  • Pacemaker 고가용성 클러스터 리소스 관리자
  • STONITH 펜싱 메커니즘
  • 실패한 인스턴스를 새 보조 인스턴스로 자동 다시 시작

이 가이드에서는 Google Cloud에서 제공되는 Cloud Deployment Manager 템플릿을 사용하여 Compute Engine 가상 머신(VM)과 SAP HANA 인스턴스를 배포합니다. 이렇게 하면 VM과 기본 SAP HANA 시스템이 SAP 지원 요구사항을 충족하고 현재 권장사항을 준수하게 됩니다.

이 가이드에서는 SAP HANA Studio를 사용하여 SAP HANA 시스템 복제를 테스트합니다. 원하는 경우 SAP HANA Cockpit를 대신 사용할 수도 있습니다. SAP HANA Studio 설치에 대한 상세 설명은 다음을 참조하세요.

기본 요건

SAP HANA 고가용성 클러스터를 만들기 전에 다음 기본 요건을 충족하는지 확인하세요.

네트워크 만들기

보안 문제로 새 네트워크를 만들어야 합니다. 방화벽 규칙을 추가하거나 다른 액세스 제어 방법을 사용하여 액세스 권한이 있는 사용자를 제어할 수 있습니다.

프로젝트에 기본 VPC 네트워크가 있더라도 사용하지 마세요. 명시적으로 직접 만든 방화벽 규칙만 적용되도록 VPC 네트워크를 직접 만드시기 바랍니다.

배포 중에 VM 인스턴스는 일반적으로 SAP용 Google Cloud 에이전트를 다운로드하기 위해 인터넷에 액세스할 수 있어야 합니다. Google Cloud에서 제공하는 SAP 인증 Linux 이미지 중 하나를 사용하는 경우 VM 인스턴스도 라이선스를 등록하고 OS 공급업체 저장소에 액세스하기 위해 인터넷에 액세스할 수 있어야 합니다. NAT 게이트웨이 및 VM 네트워크 태그가 있는 구성은 대상 VM에 외부 IP가 없더라도 이러한 액세스를 지원합니다.

네트워킹을 설정하는 방법은 다음과 같습니다.

콘솔

  1. Google Cloud 콘솔에서 VPC 네트워크 페이지로 이동합니다.

    VPC 네트워크로 이동

  2. VPC 네트워크 만들기를 클릭합니다.
  3. 네트워크의 이름을 입력합니다.

    이름은 이름 지정 규칙을 준수해야 합니다. VPC 네트워크는 Compute Engine 이름 지정 규칙을 사용합니다.

  4. 서브넷 생성 모드에서 커스텀을 선택합니다.
  5. 새 서브넷 섹션에서 서브넷에 다음 구성 매개변수를 지정합니다.
    1. 서브넷 이름을 입력합니다.
    2. 리전에서 서브넷을 만들 Compute Engine 리전을 선택합니다.
    3. IP 스택 유형에서 IPv4(단일 스택)를 선택한 다음 CIDR 형식의 IP 주소 범위(예: 10.1.0.0/24)를 입력합니다.

      이 범위는 서브넷의 기본 IPv4 범위입니다. 서브네트워크를 한 개 넘게 추가하려는 경우 네트워크의 각 서브네트워크에 서로 겹치지 않는 CIDR IP 범위를 할당하세요. 각 서브네트워크 및 내부 IP 범위는 단일 리전에 매핑됩니다.

    4. 완료를 클릭합니다.
  6. 서브넷을 추가하려면 서브넷 추가를 클릭하고 이전 단계를 반복합니다. 네트워크를 만든 후에 네트워크에 서브넷을 더 추가할 수 있습니다.
  7. 만들기를 클릭합니다.

gcloud

  1. Cloud Shell로 이동합니다.

    Cloud Shell로 이동

  2. 커스텀 서브네트워크 모드에서 새 네트워크를 만들려면 다음을 실행합니다.
    gcloud compute networks create NETWORK_NAME --subnet-mode custom

    NETWORK_NAME을 새 네트워크 이름으로 바꿉니다. 이름은 이름 지정 규칙을 준수해야 합니다. VPC 네트워크는 Compute Engine 이름 지정 규칙을 사용합니다.

    각 Compute Engine 리전에 서브넷을 자동으로 만드는 기본 자동 모드를 사용하지 않으려면 --subnet-mode custom을 지정합니다. 자세한 내용은 서브넷 생성 모드를 참조하세요.

  3. 서브네트워크를 만들고 리전 및 IP 범위를 지정합니다.
    gcloud compute networks subnets create SUBNETWORK_NAME \
        --network NETWORK_NAME --region REGION --range RANGE

    다음을 바꿉니다.

    • SUBNETWORK_NAME: 새 서브네트워크의 이름입니다.
    • NETWORK_NAME: 이전 단계에서 만든 네트워크의 이름입니다.
    • REGION: 서브네트워크가 위치할 리전입니다.
    • RANGE: CIDR 형식으로 지정된 IP 주소 범위(예: 10.1.0.0/24)입니다.

      서브네트워크를 한 개 넘게 추가하려는 경우 네트워크의 각 서브네트워크에 서로 겹치지 않는 CIDR IP 범위를 할당하세요. 각 서브네트워크 및 내부 IP 범위는 단일 리전에 매핑됩니다.

  4. 필요한 경우 이전 단계를 반복하고 서브네트워크를 추가합니다.

NAT 게이트웨이 설정

공개 IP 주소가 없는 VM을 하나 이상 만들어야 하는 경우 네트워크 주소 변환(NAT)을 사용하여 VM이 인터넷에 액세스하도록 설정해야 합니다. VM이 인터넷에 아웃바운드 패킷을 보내고 그에 따라 설정된 인바운드 응답 패킷을 받을 수 있도록 하는 Google Cloud 분산 소프트웨어 정의 관리형 서비스인 Cloud NAT를 사용하세요. 또는 별도의 VM을 NAT 게이트웨이로 설정할 수 있습니다.

프로젝트에 Cloud NAT 인스턴스를 만들려면 Cloud NAT 사용을 참조하세요.

프로젝트에 Cloud NAT를 구성하면 VM 인스턴스가 공개 IP 주소 없이 인터넷에 안전하게 액세스할 수 있습니다.

방화벽 규칙 추가

묵시적인 방화벽 규칙은 Virtual Private Cloud(VPC) 네트워크 외부에서 들어오는 연결을 차단하는 것이 기본 설정되어 있습니다. 들어오는 연결을 허용하려면 VM에 방화벽 규칙을 설정합니다. VM에 들어오는 연결이 설정되면 이 연결을 통한 양방향 트래픽이 허용됩니다.

또한 동일한 네트워크에서 지정된 포트에 대한 외부 액세스를 허용하거나 VM 간 액세스를 제한하는 방화벽 규칙을 만들 수 있습니다. default VPC 네트워크 유형이 사용되는 경우 모든 포트에서 동일한 네트워크에 있는 VM 간의 연결을 허용하는 default-allow-internal 규칙과 같은 일부 기본 규칙도 추가로 적용됩니다.

사용자 환경에 적용 가능한 IT 정책 마다 다를 수 있지만, 방화벽 규칙 생성을 통해 데이터베이스 호스에 대한 연결을 격리하거나 제한해야 할 수도 있습니다.

시나리오에 따라 다음에 대한 액세스를 허용하는 방화벽 규칙을 만들 수 있습니다.

  • 모든 SAP 제품의 TCP/IP에 나열된 기본 SAP 포트
  • 사용자 컴퓨터 또는 기업 네트워크 환경에서 Compute Engine VM 인스턴스에 연결. 사용할 IP 주소를 모르는 경우 회사의 네트워크 관리자에게 문의하세요.
  • SAP HANA 수평 확장 시스템의 노드 간 통신 또는 3계층 아키텍처의 데이터베이스 서버와 애플리케이션 서버 간의 통신을 비롯한 SAP HANA 서브네트워크의 VM 간 통신. 서브네트워크의 트래픽을 허용하는 방화벽 규칙을 만들어 VM 간 통신을 사용 설정할 수 있습니다.

방화벽 규칙을 만들려면 다음 안내를 따르세요.

콘솔

  1. Google Cloud 콘솔에서 VPC 네트워크 방화벽 페이지로 이동합니다.

    방화벽으로 이동

  2. 페이지 상단에서 방화벽 규칙 만들기를 클릭합니다.

    • 네트워크 필드에서 VM이 위치하는 네트워크를 선택합니다.
    • 대상 필드에 이 규칙이 적용되는 Google Cloud의 리소스를 지정합니다. 예를 들어 네트워크의 모든 인스턴스를 지정합니다. 또는 규칙을 Google Cloud의 특정 인스턴스로 제한하려면 지정된 대상 태그에 태그를 입력합니다.
    • 소스 필터 필드에서 다음 중 하나를 선택합니다.
      • 특정 IP 주소에서 들어오는 트래픽을 허용하려면 IP 범위를 선택합니다. 소스 IP 범위 필드에 IP 주소 범위를 지정합니다.
      • 특정 서브네트워크에서 들어오는 트래픽을 허용하려면 서브넷을 선택합니다. 다음 서브넷 필드에 서브네트워크 이름을 지정합니다. 이 옵션을 사용하면 3계층 또는 수평 확장 구성의 VM 간에 액세스를 허용할 수 있습니다.
    • 프로토콜 및 포트 섹션에서 지정된 프로토콜 및 포트를 선택하고 tcp:PORT_NUMBER를 입력합니다.
  3. 만들기를 클릭하여 방화벽 규칙을 만듭니다.

gcloud

다음 명령어를 사용하여 방화벽 규칙을 만듭니다.

$ gcloud compute firewall-rules create FIREWALL_NAME
--direction=INGRESS --priority=1000 \
--network=NETWORK_NAME --action=ALLOW --rules=PROTOCOL:PORT \
--source-ranges IP_RANGE --target-tags=NETWORK_TAGS

VM 및 SAP HANA 배포

HA 클러스터 구성을 시작하기 전에 HA 클러스터에서 기본 노드와 보조 노드 역할을 할 VM 인스턴스와 SAP HANA 시스템을 정의하고 배포합니다.

시스템을 정의하고 배포하려면 SAP HANA 배포 가이드에서 SAP HANA 시스템을 배포하는 데 사용하는 템플릿과 동일한 Cloud Deployment Manager 템플릿을 사용합니다.

하지만 시스템 하나가 아닌 시스템 두 개를 배포하려면 첫 번째 시스템의 정의를 복사하고 붙여넣어 두 번째 시스템의 정의를 구성 파일에 추가해야 합니다. 두 번째 정의를 만든 후에는 두 번째 정의에서 리소스와 인스턴스 이름을 변경해야 합니다. 영역 오류를 방지하기 위해 같은 리전에 다른 영역을 지정합니다. 두 정의의 다른 모든 속성 값은 동일하게 유지됩니다.

SAP HANA 시스템이 성공적으로 배포되면 HA 클러스터를 정의하고 구성합니다.

다음 안내에서는 Cloud Shell을 사용하지만 일반적으로 Google Cloud CLI에 적용할 수 있습니다.

  1. 영구 디스크, CPU 등 리소스의 현재 할당량이 설치하려는 SAP HANA 시스템에 충분한지 확인합니다. 할당량이 충분하지 않은 경우 배포가 실패합니다. SAP HANA 할당량 요구사항은 SAP HANA의 가격 책정 및 할당량 고려사항을 참조하세요.

    할당량 페이지로 이동

  2. Cloud Shell을 엽니다. 로컬 워크스테이션에 gcloud CLI를 설치한 경우에는 터미널을 엽니다.

    Cloud Shell로 이동

  3. Cloud Shell 또는 gcloud CLI에 다음 명령어를 입력하여 SAP HANA 고가용성 클러스터용 template.yaml 구성 파일 템플릿을 작업 디렉터리에 다운로드합니다.

    wget https://storage.googleapis.com/cloudsapdeploy/deploymentmanager/latest/dm-templates/sap_hana/template.yaml
  4. 필요한 경우 template.yaml 파일의 이름을 변경하여 정의하는 구성을 식별합니다.

  5. Cloud Shell 코드 편집기에서 또는 gcloud CLI를 사용하는 경우 원하는 텍스트 편집기에서 template.yaml 파일을 엽니다.

    Cloud Shell 코드 편집기를 열려면 Cloud Shell 터미널 창 오른쪽 상단에 있는 연필 아이콘을 클릭합니다.

  6. template.yaml 파일에서 기본 SAP HANA 시스템의 정의를 완료합니다. 대괄호로 묶인 콘텐츠를 설치에 해당하는 값으로 바꿔 속성 값을 지정합니다. 속성은 다음 표에 설명되어 있습니다.

    SAP HANA를 설치하지 않고 VM 인스턴스를 만들려면 sap_hana_로 시작하는 모든 줄을 삭제하거나 주석 처리합니다.

    속성 데이터 유형 설명
    유형 문자열

    배포 중에 사용할 Deployment Manager 템플릿의 위치, 유형, 버전을 지정합니다.

    YAML 파일에는 두 가지의 type 사양이 포함되어 있으며 그 중 하나는 주석 처리되어 있습니다. 기본적으로 활성화되는 type 사양은 템플릿 버전을 latest으로 지정합니다. 주석 처리된 type 사양은 타임스탬프가 있는 특정 템플릿 버전을 지정합니다.

    모든 배포에서 동일한 템플릿 버전을 사용하려면 타임스탬프가 포함된 type 사양을 사용하세요.

    instanceName 문자열 지금 정의 중인 VM 인스턴스의 이름입니다. 기본 VM 정의와 보조 VM 정의에 서로 다른 이름을 지정합니다. 소문자, 숫자 또는 하이픈으로 이름을 지정해야 합니다.
    instanceType 문자열 SAP HANA를 실행할 Compute Engine 가상 머신의 유형입니다. 커스텀 VM 유형이 필요한 경우 사전 정의된 VM 유형을 필요한 수(더 큼)에 가장 가까운 vCPU 수로 지정합니다. 배포가 완료되면 vCPU 수와 메모리 양을 수정합니다.
    zone 문자열 정의하는 VM 인스턴스를 배포할 Google Cloud 영역입니다. 기본 HANA 정의와 보조 HANA 정의에 대해 동일한 리전에 서로 다른 영역을 지정합니다. 영역은 서브넷에 선택한 리전과 동일한 리전에 있어야 합니다.
    subnetwork 문자열 이전 단계에서 만든 서브네트워크 이름입니다. 공유 VPC에 배포하는 경우 이 값을 [SHAREDVPC_PROJECT]/[SUBNETWORK]로 지정합니다. 예를 들면 myproject/network1입니다.
    linuxImage 문자열 SAP HANA와 함께 사용할 Linux 운영체제 이미지나 이미지 계열의 이름입니다. 이미지 계열을 지정하려면 계열 이름에 family/ 프리픽스를 추가합니다. 예를 들면 family/sles-15-sp1-sap입니다. 특정 이미지를 지정하려면 이미지 이름만 지정합니다. 사용 가능한 이미지와 계열의 목록은 Google Cloud 콘솔의 이미지 페이지를 참조하세요.
    linuxImageProject 문자열 사용하려는 이미지가 포함된 Google Cloud 프로젝트입니다. 이 프로젝트는 자체 프로젝트일 수도 있고 suse-sap-cloud와 같은 Google Cloud 이미지 프로젝트일 수도 있습니다. Google Cloud 이미지 프로젝트에 대한 자세한 내용은 Compute Engine 문서에서 이미지 페이지를 참조하세요.
    sap_hana_deployment_bucket 문자열 이전 단계에서 업로드한 SAP HANA 설치 및 버전 파일이 포함된 프로젝트의 Google Cloud Storage 버킷 이름입니다. 배포 프로세스 중에 버킷의 모든 업그레이드 버전 파일이 SAP HANA에 적용됩니다.
    sap_hana_sid 문자열 SAP HANA 시스템 ID(SID)입니다. ID는 3자리 영숫자 문자로 구성되고 문자로 시작되어야 합니다. 모든 문자는 대문자여야 합니다.
    sap_hana_instance_number 정수 SAP HANA 시스템의 인스턴스 번호입니다(0~99). 기본값은 0입니다.
    sap_hana_sidadm_password 문자열 운영체제(OS) 관리자의 비밀번호입니다. 비밀번호는 최소 8자 이상이어야 하며 대문자, 소문자, 숫자를 각각 최소 한 개 이상 포함해야 합니다.
    sap_hana_system_password 문자열 데이터베이스 수퍼유저의 비밀번호입니다. 비밀번호는 8자 이상이어야 하며 최소 대문자 1개, 소문자 1개, 숫자 1개를 포함해야 합니다.
    sap_hana_sidadm_uid 정수 사용자가 만든 그룹이 SAP HANA와 충돌하는 않도록 SID_LCadm 사용자 ID의 기본값은 900입니다. 필요하면 이 값을 다른 값으로 변경할 수 있습니다.
    sap_hana_sapsys_gid 정수 sapsys의 기본 그룹 ID는 79입니다. 위의 값을 지정하면 이 값을 요구사항으로 재정의할 수 있습니다.
    sap_hana_scaleout_nodes 정수 0을 지정합니다. 이 안내는 수직 확장 SAP HANA 시스템에만 적용됩니다.
    networkTag 문자열 방화벽 또는 라우팅 용도로 VM 인스턴스를 나타내는 네트워크 태그입니다. publicIP: No를 지정하고 네트워크 태그를 지정하지 않으면 다른 인터넷 액세스 방법을 제공해야 합니다.
    nic_type 문자열 선택사항이지만 가능한 경우 대상 머신 및 OS 버전에 권장됩니다. VM 인스턴스에 사용할 네트워크 인터페이스를 지정합니다. GVNIC 또는 VIRTIO_NET 값을 지정할 수 있습니다. Google 가상 NIC(gVNIC)를 사용하려면 linuxImage 속성의 값으로 gVNIC를 지원하는 OS 이미지를 지정해야 합니다. OS 이미지 목록은 운영체제 세부정보를 참조하세요.

    이 속성 값을 지정하지 않으면 instanceType 속성에 지정하는 머신 유형에 따라 네트워크 인터페이스가 자동으로 선택됩니다.

    Deployment Manager 템플릿 버전 202302060649 이상에서 이 인수를 사용할 수 있습니다.
    publicIP 불리언 선택사항. 공개 IP 주소를 VM 인스턴스에 추가할지 여부를 결정합니다. 기본값은 Yes입니다.
    serviceAccount 문자열 선택사항. 호스트 VM와 호스트 VM에서 실행되는 프로그램에서 사용할 서비스 계정을 지정합니다. 서비스 계정의 이메일 주소를 지정합니다. 예를 들면 svc-acct-name@project-id.iam.gserviceaccount.com입니다. 기본적으로 Compute Engine 기본 서비스 계정이 사용됩니다. 자세한 내용은 Google Cloud에서 SAP 프로그램의 ID 및 액세스 관리를 참조하세요.
  7. 기본 SAP HANA 시스템의 정의를 복사하고 기본 SAP HANA 시스템 정의 다음에 복사본을 붙여넣어 보조 SAP HANA 시스템 정의를 만듭니다. 다음 단계를 수행하여 예시를 확인합니다.

  8. 보조 SAP HANA 시스템의 정의에서 기본 SAP HANA 시스템 정의에서 지정한 값과 다른 값을 다음 속성에 지정합니다.

    • name
    • instanceName
    • zone

  9. 다음을 실행하여 인스턴스를 만듭니다.

    gcloud deployment-manager deployments create DEPLOYMENT_NAME --config TEMPLATE_NAME.yaml

    위 명령어는 template.yaml 파일의 사양에 따라 VM을 배포하고, 스토리지 버킷에서 SAP HANA 소프트웨어를 다운로드하고, SAP HANA를 설치하는 template.yaml를 호출합니다.

    배포 처리는 두 단계로 구성됩니다. 첫 번째 단계에서는 Deployment Manager가 상태를 콘솔에 씁니다. 두 번째 단계에서는 배포 스크립트가 상태를 Cloud Logging에 씁니다.

전체 template.yaml 구성 파일 예시

다음 예시에서는 SAP HANA 시스템이 설치된 VM 인스턴스 두 개를 배포하는 완성된 template.yaml 구성 파일을 보여줍니다.

이 파일에는 배포할 두 리소스(sap_hana_primarysap_hana_secondary)의 정의가 포함되어 있습니다. 각 리소스 정의에는 VM과 SAP HANA 인스턴스의 정의가 포함됩니다.

sap_hana_secondary 리소스 정의는 첫 번째 정의를 복사하여 붙여넣은 후 name, instanceName, zone 속성 값을 수정하여 만들었습니다. 두 리소스 정의의 다른 모든 속성 값은 동일합니다.

networkTag, serviceAccount, sap_hana_sidadm_uid, sap_hana_sapsys_gid 속성은 구성 파일 템플릿의 고급 옵션 섹션에 있습니다. sap_hana_sidadm_uid 속성과 sap_hana_sapsys_gid 속성은 속성이 주석 처리되어 사용되는 기본값을 표시하기 위해 포함됩니다.

resources:
- name: sap_hana_primary
  type: https://storage.googleapis.com/cloudsapdeploy/deploymentmanager/latest/dm-templates/sap_hana/sap_hana.py
  #
  # By default, this configuration file uses the latest release of the deployment
  # scripts for SAP on Google Cloud.  To fix your deployments to a specific release
  # of the scripts, comment out the type property above and uncomment the type property below.
  #
  # type: https://storage.googleapis.com/cloudsapdeploy/deploymentmanager/yyyymmddhhmm/dm-templates/sap_hana/sap_hana.py
  #
  properties:
    instanceName: hana-ha-vm-1
    instanceType: n2-highmem-32
    zone: us-central1-a
    subnetwork: example-subnet-us-central1
    linuxImage: family/sles-15-sp1-sap
    linuxImageProject: suse-sap-cloud
    sap_hana_deployment_bucket: hana2-sp4-rev46
    sap_hana_sid: HA1
    sap_hana_instance_number: 22
    sap_hana_sidadm_password: Tempa55word
    sap_hana_system_password: Tempa55word
    sap_hana_scaleout_nodes: 0
    networkTag: cluster-ntwk-tag
    serviceAccount: limited-roles@example-project-123456.iam.gserviceaccount.com
    # sap_hana_sidadm_uid: 900
    # sap_hana_sapsys_gid: 79

- name: sap_hana_secondary
  type: https://storage.googleapis.com/cloudsapdeploy/deploymentmanager/latest/dm-templates/sap_hana/sap_hana.py
  #
  # By default, this configuration file uses the latest release of the deployment
  # scripts for SAP on Google Cloud.  To fix your deployments to a specific release
  # of the scripts, comment out the type property above and uncomment the type property below.
  #
  # type: https://storage.googleapis.com/cloudsapdeploy/deploymentmanager/yyyymmddhhmm/dm-templates/sap_hana/sap_hana.py
  #
  properties:
    instanceName: hana-ha-vm-2
    instanceType: n2-highmem-32
    zone: us-central1-c
    subnetwork: example-subnet-us-central1
    linuxImage: family/sles-15-sp1-sap
    linuxImageProject: suse-sap-cloud
    sap_hana_deployment_bucket: hana2-sp4-rev46
    sap_hana_sid: HA1
    sap_hana_instance_number: 22
    sap_hana_sidadm_password: Google123
    sap_hana_system_password: Google123
    sap_hana_scaleout_nodes: 0
    networkTag: cluster-ntwk-tag
    serviceAccount: limited-roles@example-project-123456.iam.gserviceaccount.com
    # sap_hana_sidadm_uid: 900
    # sap_hana_sapsys_gid: 79
    

호스트 VM에 대한 액세스를 허용하는 방화벽 규칙 만들기

방화벽 규칙을 아직 만들지 않았으면 다음 소스에서 각 호스트 VM에 액세스를 허용하는 방화벽 규칙을 만듭니다.

  • 구성을 위해 로컬 워크스테이션, 배스천 호스트 또는 점프 서버에서
  • 클러스터 노드 간의 액세스를 위해 HA 클러스터의 다른 호스트 VM에서

VPC 방화벽 규칙을 만들 때 호스트 VM을 규칙 대상으로 지정하도록 template.yaml 구성 파일에서 정의한 네트워크 태그를 지정합니다.

배포를 확인하려면 배스천 호스트 또는 로컬 워크스테이션의 SSH 연결을 포트 22에서 허용하는 규칙을 정의합니다.

클러스터 노드 간의 액세스를 위해 동일한 서브네트워크에 있는 다른 VM에서의 모든 연결 유형을 모든 포트에서 허용하는 방화벽 규칙을 추가합니다.

다음 섹션으로 이동하기 전에 배포 확인 및 클러스터 내 통신용 방화벽 규칙을 만들었는지 확인합니다. 자세한 내용은 방화벽 규칙 추가를 참조하세요.

VM 및 SAP HANA 배포 확인

배포를 확인하려면 Cloud Logging에서 배포 로그를 확인하고 기본 및 보조 호스트의 VM에서 디스크와 서비스를 확인합니다.

  1. Google Cloud 콘솔에서 Cloud Logging을 열어 설치 진행 상황을 모니터링하고 오류를 확인합니다.

    Cloud Logging으로 이동

  2. 로그를 필터링합니다.

    로그 탐색기

    1. 로그 탐색기 페이지에서 쿼리 창으로 이동합니다.

    2. 리소스 드롭다운 메뉴에서 전역을 선택한 후 추가를 클릭합니다.

      전역 옵션이 표시되지 않으면 쿼리 편집기에 다음 쿼리를 입력합니다.

      resource.type="global"
      "Deployment"
      
    3. 쿼리 실행을 클릭합니다.

    기존 로그 뷰어

    • 기존 로그 뷰어 페이지의 기본 선택기 메뉴에서 전역을 로깅 리소스로 선택합니다.
  3. 필터링된 로그를 분석합니다.

    • "--- Finished"가 표시되면 배포 처리가 완료된 것이므로 다음 단계를 진행할 수 있습니다.
    • 할당량 오류가 표시되면 다음을 수행합니다.

      1. IAM 및 관리자 할당량 페이지에서 SAP HANA 계획 가이드에 나와 있는 SAP HANA 요구사항을 충족하지 않는 할당량을 늘립니다.

      2. 배포 관리자 배포 페이지에서 배포를 삭제하여 설치를 실패한 VM과 영구 디스크를 삭제합니다.

      3. 배포를 다시 실행합니다.

VM 및 SAP HANA 구성 확인

  1. SAP HANA 시스템이 오류 없이 배포되면 SSH를 사용하여 각 VM에 연결합니다. Compute Engine VM 인스턴스 페이지에서 각 VM 인스턴스의 SSH 버튼을 클릭하거나 선호하는 SSH 방법을 사용할 수 있습니다.

    Compute Engine VM 인스턴스 페이지의 SSH 버튼

  2. 루트 사용자로 변경합니다.

    $ sudo su -
  3. 명령 프롬프트에서 df -h를 입력합니다. 각 VM에서 /hana 디렉터리(예: /hana/data)를 확인합니다.

    Filesystem                        Size  Used Avail Use% Mounted on
    /dev/sda2                          30G  4.0G   26G  14% /
    devtmpfs                          126G     0  126G   0% /dev
    tmpfs                             126G     0  126G   0% /dev/shm
    tmpfs                             126G   17M  126G   1% /run
    tmpfs                             126G     0  126G   0% /sys/fs/cgroup
    /dev/sda1                         200M  9.7M  191M   5% /boot/efi
    /dev/mapper/vg_hana-shared        251G   49G  203G  20% /hana/shared
    /dev/mapper/vg_hana-sap            32G  240M   32G   1% /usr/sap
    /dev/mapper/vg_hana-data          426G  7.0G  419G   2% /hana/data
    /dev/mapper/vg_hana-log           125G  4.2G  121G   4% /hana/log
    /dev/mapper/vg_hanabackup-backup  512G   33M  512G   1% /hanabackup
    tmpfs                              26G     0   26G   0% /run/user/900
    tmpfs                              26G     0   26G   0% /run/user/899
    tmpfs                              26G     0   26G   0% /run/user/1000
  4. 다음 명령어에서 SID_LC를 구성 파일 템플릿에 지정한 시스템 ID로 바꿔 SAP 관리자로 변경합니다. 모든 문자에 소문자를 사용합니다.

    # su - SID_LCadm
  5. 다음 명령어를 입력하여 SAP HANA 서비스(예: hdbnameserver, hdbindexserver)가 인스턴스에서 실행 중인지 확인합니다.

    > HDB info
  6. RHEL for SAP 9.0 이상을 사용하는 경우 chkconfigcompat-openssl11 패키지가 VM 인스턴스에 설치되어 있는지 확인합니다.

    SAP의 자세한 내용은 SAP Note 3108316 - Red Hat Enterprise Linux 9.x: 설치 및 구성을 참조하세요.

SAP용 Google Cloud 에이전트 설치 검증

VM을 배포하고 SAP 시스템을 설치했으면 SAP용 Google Cloud 에이전트가 올바르게 작동하는지 확인합니다.

SAP용 Google Cloud 에이전트가 실행 중인지 확인

에이전트가 실행 중인지 확인하려면 다음 단계를 따릅니다.

  1. 호스트 VM 인스턴스에서 SSH 연결을 설정합니다.

  2. 다음 명령어를 실행합니다.

    systemctl status google-cloud-sap-agent

    에이전트가 올바르게 작동하는 경우 출력에 active (running)이 포함됩니다. 예를 들면 다음과 같습니다.

    google-cloud-sap-agent.service - Google Cloud Agent for SAP
    Loaded: loaded (/usr/lib/systemd/system/google-cloud-sap-agent.service; enabled; vendor preset: disabled)
    Active:  active (running)  since Fri 2022-12-02 07:21:42 UTC; 4 days ago
    Main PID: 1337673 (google-cloud-sa)
    Tasks: 9 (limit: 100427)
    Memory: 22.4 M (max: 1.0G limit: 1.0G)
    CGroup: /system.slice/google-cloud-sap-agent.service
           └─1337673 /usr/bin/google-cloud-sap-agent
    

에이전트가 실행되고 있지 않으면 에이전트를 다시 시작합니다.

SAP 호스트 에이전트가 측정항목을 수신하는지 확인

SAP용 Google Cloud 에이전트가 인프라 측정항목을 수집하고 SAP 호스트 에이전트로 올바르게 전송하는지 확인하려면 다음 단계를 수행하세요.

  1. SAP 시스템에서 ST06 트랜잭션을 입력합니다.
  2. 개요 창에서 다음 필드의 가용성과 콘텐츠를 확인하여 SAP 및 Google 모니터링 인프라의 엔드 투 엔드 설정이 올바른지 확인합니다.

    • 클라우드 제공업체: Google Cloud Platform
    • 향상된 모니터링 액세스: TRUE
    • 향상된 모니터링 세부정보: ACTIVE

SAP HANA 모니터링 설정

선택적으로 SAP용 Google Cloud 에이전트를 사용해서 SAP HANA 인스턴스를 모니터링할 수 있습니다. 버전 2.0부터는 SAP HANA 모니터링 측정항목을 수집하고 이를 Cloud Monitoring으로 전송하도록 에이전트를 구성할 수 있습니다. Cloud Monitoring을 사용하면 대시보드를 만들어서 이러한 측정항목을 시각화하고, 측정항목 임곗값을 기반으로 알림을 설정할 수 있습니다.

SAP용 Google Cloud 에이전트를 사용하는 SAP HANA 모니터링 측정항목 수집에 대한 자세한 내용은 SAP HANA 모니터링 측정항목 수집을 참조하세요.

SAP HANA 자동 시작 중지

클러스터의 각 SAP HANA 인스턴스에서 SAP HANA 자동 시작이 중지되었는지 확인합니다. 장애 조치의 경우 Pacemaker는 클러스터에서 SAP HANA 인스턴스의 시작 및 중지를 관리합니다.

  1. 각 호스트에서 SID_LCadm으로 SAP HANA를 중지합니다.

    > HDB stop
  2. 각 호스트에서 vi와 같은 편집기를 사용하여 SAP HANA 프로필을 엽니다.

    vi /usr/sap/SID/SYS/profile/SID_HDBINST_NUM_HOST_NAME
  3. Autostart 속성을 0으로 설정합니다.

    Autostart=0
  4. 프로필을 저장합니다.

  5. 각 호스트에서 SID_LCadm으로 SAP HANA를 시작합니다.

    > HDB start

SAP HANA 빠른 다시 시작 사용 설정

특히 큰 인스턴스의 경우 Google Cloud는 SAP HANA의 각 인스턴스에 SAP HANA 빠른 다시 시작을 사용 설정하는 것을 강력히 권장합니다. SAP HANA 빠른 다시 시작은 SAP HANA가 종료되지만 운영체제는 계속 실행되는 경우 다시 시작하는 시간을 줄입니다.

Google Cloud에서 제공하는 자동화 스크립트에서 구성한 대로 운영체제와 커널 설정에서는 이미 SAP HANA 빠른 재시작을 지원합니다. tmpfs 파일 시스템을 정의하고 SAP HANA를 구성해야 합니다.

tmpfs 파일 시스템을 정의하고 SAP HANA를 구성하려면 수동 단계를 수행하거나 Google Cloud에서 제공하는 자동화 스크립트를 사용하여 SAP HANA 빠른 다시 시작을 사용 설정하면 됩니다. 자세한 내용은 다음을 참조하세요.

SAP HANA 빠른 다시 시작 옵션에 대한 전체 안내는 SAP HANA 빠른 다시 시작 옵션 문서를 참조하세요.

수동 단계

tmpfs 파일 시스템 구성

호스트 VM 및 기본 SAP HANA 시스템이 성공적으로 배포되면 tmpfs 파일 시스템에 NUMA 노드의 디렉터리를 만들고 마운트해야 합니다.

VM의 NUMA 토폴로지 표시

필요한 tmpfs 파일 시스템을 매핑하려면 먼저 VM에 있는 NUMA 노드 수를 알아야 합니다. Compute Engine VM에 사용 가능한 NUMA 노드를 표시하려면 다음 명령어를 입력합니다.

lscpu | grep NUMA

예를 들어 m2-ultramem-208 VM 유형에는 다음 예시와 같이 0~3으로 번호가 지정된 4개의 NUMA 노드가 있습니다.

NUMA node(s):        4
NUMA node0 CPU(s):   0-25,104-129
NUMA node1 CPU(s):   26-51,130-155
NUMA node2 CPU(s):   52-77,156-181
NUMA node3 CPU(s):   78-103,182-207
NUMA 노드 디렉터리 만들기

VM에서 각 NUMA 노드의 디렉터리를 만들고 권한을 설정합니다.

예를 들어 0~3으로 번호가 지정된 4개의 NUMA 노드는 다음과 같습니다.

mkdir -pv /hana/tmpfs{0..3}/SID
chown -R SID_LCadm:sapsys /hana/tmpfs*/SID
chmod 777 -R /hana/tmpfs*/SID
NUMA 노드 디렉터리를 tmpfs에 마운트

tmpfs 파일 시스템 디렉터리를 마운트하고 각각에 대해 mpol=prefer로 NUMA 노드 기본 설정을 지정합니다.

SID: SID를 대문자로 지정합니다.

mount tmpfsSID0 -t tmpfs -o mpol=prefer:0 /hana/tmpfs0/SID
mount tmpfsSID1 -t tmpfs -o mpol=prefer:1 /hana/tmpfs1/SID
mount tmpfsSID2 -t tmpfs -o mpol=prefer:2 /hana/tmpfs2/SID
mount tmpfsSID3 -t tmpfs -o mpol=prefer:3 /hana/tmpfs3/SID
/etc/fstab 업데이트

운영체제 재부팅 후 마운트 지점을 사용할 수 있도록 하려면 파일 시스템 테이블 /etc/fstab에 항목을 추가합니다.

tmpfsSID0 /hana/tmpfs0/SID tmpfs rw,relatime,mpol=prefer:0
tmpfsSID1 /hana/tmpfs1/SID tmpfs rw,relatime,mpol=prefer:1
tmpfsSID1 /hana/tmpfs2/SID tmpfs rw,relatime,mpol=prefer:2
tmpfsSID1 /hana/tmpfs3/SID tmpfs rw,relatime,mpol=prefer:3

선택사항: 메모리 사용량 한도 설정

tmpfs 파일 시스템은 동적으로 확장 및 축소할 수 있습니다.

tmpfs 파일 시스템에서 사용하는 메모리를 제한하려면 size 옵션을 사용하여 NUMA 노드 볼륨의 크기 제한을 설정하면 됩니다. 예를 들면 다음과 같습니다.

mount tmpfsSID0 -t tmpfs -o mpol=prefer:0,size=250G /hana/tmpfs0/SID

global.ini 파일의 [memorymanager] 섹션에서 persistent_memory_global_allocation_limit 매개변수를 설정하여 특정 SAP HANA 인스턴스 및 지정된 서버 노드의 모든 NUMA 노드에 대한 전체 tmpfs 메모리 사용량을 제한할 수도 있습니다.

빠른 다시 시작을 위한 SAP HANA 구성

빠른 다시 시작을 위해 SAP HANA를 구성하려면 global.ini 파일을 업데이트하고 영구 메모리에 저장할 테이블을 지정합니다.

global.ini 파일에서 [persistence] 섹션 업데이트

SAP HANA global.ini 파일에서 tmpfs 섹션을 참조하도록 [persistence] 섹션을 구성합니다. 각 tmpfs 위치를 세미콜론으로 구분합니다.

[persistence]
basepath_datavolumes = /hana/data
basepath_logvolumes = /hana/log
basepath_persistent_memory_volumes = /hana/tmpfs0/SID;/hana/tmpfs1/SID;/hana/tmpfs2/SID;/hana/tmpfs3/SID

앞의 예시는 m2-ultramem-208에 해당하는 4개의 NUMA 노드에 메모리 볼륨 4개를 지정합니다. m2-ultramem-416에서 실행 중인 경우 메모리 볼륨 8개(0~7)를 구성해야 합니다.

global.ini 파일을 수정한 후 SAP HANA를 다시 시작합니다.

이제 SAP HANA에서 tmpfs 위치를 영구 메모리 공간으로 사용할 수 있습니다.

영구 메모리에 저장할 테이블 지정

영구 메모리에 저장할 특정 열 테이블 또는 파티션을 지정합니다.

예를 들어 기존 테이블에 영구 메모리를 사용 설정하려면 SQL 쿼리를 실행합니다.

ALTER TABLE exampletable persistent memory ON immediate CASCADE

새 테이블의 기본값을 변경하려면 indexserver.ini 파일에 table_default 매개변수를 추가합니다. 예를 들면 다음과 같습니다.

[persistent_memory]
table_default = ON

열, 테이블 제어 방법 및 자세한 정보를 제공하는 모니터링 뷰에 대한 자세한 내용은 SAP HANA 영구 메모리를 참조하세요.

자동 단계

SAP HANA 빠른 다시 시작을 사용 설정하도록 Google Cloud에서 제공하는 자동화 스크립트는 /hana/tmpfs* 디렉터리, /etc/fstab 파일, SAP HANA 구성을 변경합니다. 스크립트를 실행할 때 SAP HANA 시스템의 초기 배포인지 여부 또는 머신 크기를 다른 NUMA 크기로 조절하는지 여부에 따라 추가 단계를 수행해야 할 수 있습니다.

SAP HANA 시스템을 처음 배포하거나 머신 크기를 조절하여 NUMA 노드 수를 늘리려면 SAP HANA 빠른 다시 시작을 사용 설정하도록 Google Cloud에서 제공하는 자동화 스크립트를 실행하는 동안 SAP HANA가 실행 중인지 확인합니다.

NUMA 노드 수가 줄어들도록 머신 크기를 조절하는 경우 SAP HANA 빠른 다시 시작을 사용 설정하도록 Google Cloud에서 제공하는 자동화 스크립트를 실행하는 동안 SAP HANA가 중지되었는지 확인합니다. 스크립트가 실행된 후 SAP HANA 구성을 수동으로 업데이트하여 SAP HANA 빠른 다시 시작 설정을 완료해야 합니다. 자세한 내용은 빠른 다시 시작을 위한 SAP HANA 구성을 참조하세요.

SAP HANA 빠른 다시 시작을 사용 설정하려면 다음 단계를 수행합니다.

  1. 호스트 VM과의 SSH 연결을 설정합니다.

  2. 루트로 전환하기:

    sudo su -

  3. sap_lib_hdbfr.sh 스크립트 다운로드:

    wget https://storage.googleapis.com/cloudsapdeploy/terraform/latest/terraform/lib/sap_lib_hdbfr.sh
  4. 파일을 실행 가능하게 만듭니다.

    chmod +x sap_lib_hdbfr.sh
  5. 스크립트에 오류가 없는지 확인합니다.

    vi sap_lib_hdbfr.sh
    ./sap_lib_hdbfr.sh -help

    명령어에서 오류를 반환하면 Cloud Customer Care팀에 문의하세요. 고객 관리에 문의하는 방법에 대한 자세한 내용은 Google Cloud 기반 SAP에 대한 지원 받기를 참조하세요.

  6. SAP HANA 데이터베이스의 SYSTEM 사용자에 대한 SAP HANA 시스템 ID(SID)와 비밀번호를 바꾼 후 스크립트를 실행합니다. 비밀번호를 안전하게 제공하려면 Secret Manager에서 보안 비밀을 사용하는 것이 좋습니다.

    Secret Manager에서 보안 비밀 이름을 사용하여 스크립트를 실행합니다. 이 보안 비밀은 호스트 VM 인스턴스가 포함된 Google Cloud 프로젝트에 있어야 합니다.

    sudo ./sap_lib_hdbfr.sh -h 'SID' -s SECRET_NAME 

    다음을 바꿉니다.

    • SID: 대문자로 SID를 지정합니다. 예를 들면 AHA입니다.
    • SECRET_NAME: SAP HANA 데이터베이스의 SYSTEM 사용자에 대한 비밀번호에 해당하는 보안 비밀의 이름을 지정합니다. 이 보안 비밀은 호스트 VM 인스턴스가 포함된 Google Cloud 프로젝트에 있어야 합니다.

    또는 일반 텍스트 비밀번호를 사용하여 스크립트를 실행할 수 있습니다. SAP HANA 빠른 다시 시작을 사용 설정한 후에 비밀번호를 변경해야 합니다. VM의 명령줄 기록에 비밀번호가 기록되므로 일반 텍스트 비밀번호를 사용하지 않는 것이 좋습니다.

    sudo ./sap_lib_hdbfr.sh -h 'SID' -p 'PASSWORD'

    다음을 바꿉니다.

    • SID: 대문자로 SID를 지정합니다. 예를 들면 AHA입니다.
    • PASSWORD: SAP HANA 데이터베이스의 SYSTEM 사용자에 대한 비밀번호를 지정합니다.

초기 실행에 성공하면 다음과 비슷한 출력이 표시됩니다.

INFO - Script is running in standalone mode
ls: cannot access '/hana/tmpfs*': No such file or directory
INFO - Setting up HANA Fast Restart for system 'TST/00'.
INFO - Number of NUMA nodes is 2
INFO - Number of directories /hana/tmpfs* is 0
INFO - HANA version 2.57
INFO - No directories /hana/tmpfs* exist. Assuming initial setup.
INFO - Creating 2 directories /hana/tmpfs* and mounting them
INFO - Adding /hana/tmpfs* entries to /etc/fstab. Copy is in /etc/fstab.20220625_030839
INFO - Updating the HANA configuration.
INFO - Running command: select * from dummy
DUMMY
"X"
1 row selected (overall time 4124 usec; server time 130 usec)

INFO - Running command: ALTER SYSTEM ALTER CONFIGURATION ('global.ini', 'SYSTEM') SET ('persistence', 'basepath_persistent_memory_volumes') = '/hana/tmpfs0/TST;/hana/tmpfs1/TST;'
0 rows affected (overall time 3570 usec; server time 2239 usec)

INFO - Running command: ALTER SYSTEM ALTER CONFIGURATION ('global.ini', 'SYSTEM') SET ('persistent_memory', 'table_unload_action') = 'retain';
0 rows affected (overall time 4308 usec; server time 2441 usec)

INFO - Running command: ALTER SYSTEM ALTER CONFIGURATION ('indexserver.ini', 'SYSTEM') SET ('persistent_memory', 'table_default') = 'ON';
0 rows affected (overall time 3422 usec; server time 2152 usec)

기본 VM 및 보조 VM에서 SSH 키 구성

SAP HANA 보안 저장소(SSFS) 키는 HA 클러스터의 호스트 간에 동기화되어야 합니다. 동기화를 단순화하고 HA 클러스터의 호스트 간에 백업과 같은 파일을 복사할 수 있도록 이 안내에서는 두 호스트 간의 루트 SSH 연결을 생성합니다.

조직에 내부 네트워크 통신에 적용되는 가이드라인이 있을 수 있습니다. 필요한 경우 배포가 완료된 후 VM에서 메타데이터를 삭제하고 authorized_keys 디렉터리에서 키를 삭제할 수 있습니다.

직접 SSH 연결 설정이 조직의 가이드라인을 준수하지 않으면 다음과 같은 다른 방법을 사용하여 SSFS 키를 동기화하고 파일을 전송할 수 있습니다.

  • Cloud Shell 파일 업로드파일 다운로드 메뉴 옵션을 사용하여 로컬 워크스테이션을 통해 작은 파일을 전송합니다. Cloud Shell로 파일 관리를 참조하세요.
  • Google Cloud Storage 버킷을 사용하여 파일을 교환합니다. Cloud Storage 문서객체 작업을 참조하세요.
  • SAP HANA용 Cloud Storage Backint 에이전트를 사용하여 HANA 데이터베이스를 백업 및 복원합니다. SAP HANA용 Cloud Storage Backint 에이전트를 참조하세요.
  • Filestore 또는 NetApp Cloud Volumes Service와 같은 파일 스토리지 솔루션을 사용하여 공유 폴더를 만듭니다. 파일 서버 옵션을 참조하세요.

기본 인스턴스와 보조 인스턴스 간의 SSH 연결을 사용 설정하려면 다음 단계를 수행합니다.

  1. 기본 호스트 VM에서 다음을 수행합니다.

    1. VM에 SSH를 통해 연결합니다.

    2. 루트로 전환하기:

    $ sudo su -
    1. 루트로 SSH 키를 생성합니다.

      # ssh-keygen
    2. 보조 VM의 SSH 키 정보로 기본 VM의 메타데이터를 업데이트합니다.

      # gcloud compute instances add-metadata secondary-host-name \
      --metadata "ssh-keys=$(whoami):$(cat ~/.ssh/id_rsa.pub)" --zone secondary-zone
    3. 기본 VM을 자체에 승인

      # cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
  2. 보조 호스트 VM에서 다음을 수행합니다.

    1. VM에 SSH를 통해 연결합니다.

    2. 루트로 전환하기:

    $ sudo su -
    1. 루트로 SSH 키를 생성합니다.

      # ssh-keygen
    2. 기본 VM의 SSH 키 정보로 보조 VM의 메타데이터를 업데이트합니다.

      # gcloud compute instances add-metadata primary-host-name \
      --metadata "ssh-keys=$(whoami):$(cat ~/.ssh/id_rsa.pub)" --zone primary-zone
    3. 보조 VM을 자체에 승인

      # cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
    4. 보조 시스템에서 기본 시스템으로 SSH 연결을 열어 SSH 키가 올바르게 설정되었는지 확인합니다.

      # ssh primary-host-name
  3. 기본 호스트 VM에서 루트로 보조 호스트 VM으로 SSH 연결을 열어 연결 상태를 확인합니다.

    # ssh secondary-host-name

클러스터 상태 모니터링을 위한 SAP HANA 데이터베이스 사용자 만들기

  1. 기본 호스트에서 SID_LCadm으로 SAP HANA 데이터베이스 대화형 터미널에 로그인합니다.

    > hdbsql -u system -p "system-password" -i inst_num
  2. 대화형 터미널에서 slehasync 데이터베이스 사용자를 만듭니다.

    => CREATE USER slehasync PASSWORD "hdb-user-password";
    => GRANT CATALOG READ TO slehasync;
    => GRANT MONITOR ADMIN TO slehasync;
    => ALTER USER slehasync DISABLE PASSWORD LIFETIME;
  3. SID_LCadm으로 SAP HANA 보안 사용자 저장소(hdbuserstore)에 SLEHALOC 사용자 키를 정의합니다.

    > PATH="$PATH:/usr/sap/SID/HDBinst_num/exe"
    > hdbuserstore SET SLEHALOC localhost:3inst_num15 slehasync hdb-user-password

데이터베이스 백업

데이터베이스 백업을 만들어 SAP HANA 시스템 복제에 데이터베이스 로깅을 시작하고 복구 지점을 만듭니다.

MDC 구성에 테넌트 데이터베이스가 여러 개 있는 경우 각 테넌트 데이터베이스를 백업합니다.

Deployment Manager 템플릿에서는 /hanabackup/data/SID를 기본 백업 디렉터리로 사용합니다.

새 SAP HANA 데이터베이스의 백업을 만들려면 다음 안내를 따르세요.

  1. 기본 호스트에서 SID_LCadm으로 전환합니다. OS 이미지에 따라 명령어가 다를 수 있습니다.

    sudo -i -u SID_LCadm
  2. 데이터베이스 백업을 만듭니다.

    • SAP HANA 단일 데이터베이스 컨테이너 시스템의 경우 다음을 실행합니다.

      > hdbsql -t -u system -p SYSTEM_PASSWORD -i INST_NUM \
        "backup data using file ('full')"

      다음 예시에서는 새 SAP HANA 시스템의 성공적인 응답을 보여줍니다.

      0 rows affected (overall time 18.416058 sec; server time 18.414209 sec)
    • SAP HANA 멀티 데이터베이스 컨테이너 시스템(MDC)의 경우 시스템 데이터베이스와 테넌트 데이터베이스의 백업을 만듭니다.

      > hdbsql -t -d SYSTEMDB -u system -p SYSTEM_PASSWORD -i INST_NUM \
        "backup data using file ('full')"
      > hdbsql -t -d SID -u system -p SYSTEM_PASSWORD -i INST_NUM \
        "backup data using file ('full')"

    다음 예시에서는 새 SAP HANA 시스템의 성공적인 응답을 보여줍니다.

    0 rows affected (overall time 16.590498 sec; server time 16.588806 sec)
  3. 로깅 모드가 보통으로 설정되어 있는지 확인합니다.

    > hdbsql -u system -p SYSTEM_PASSWORD -i INST_NUM \
      "select value from "SYS"."M_INIFILE_CONTENTS" where key='log_mode'"

    다음과 같이 표시됩니다.

    VALUE
    "normal"

SAP HANA 시스템 복제 사용 설정

SAP HANA 시스템 복제를 사용 설정하는 과정에서 기본 호스트에서 보조 호스트로 파일 시스템(SSFS)의 SAP HANA 보안 저장소의 데이터와 키 파일을 복사해야 합니다. 이 절차에서 파일을 복사하는 데 사용되는 방법은 사용 가능한 여러 방법 중 한 가지일 뿐입니다.

  1. 기본 호스트에서 SID_LCadm으로 시스템 복제를 사용 설정합니다.

    > hdbnsutil -sr_enable --name=PRIMARY_HOST_NAME
  2. 보조 호스트에서 다음을 수행합니다.

    1. SID_LCadm으로 SAP HANA를 중지합니다.

      > HDB stop
    2. 루트로 기존 SSFS 데이터와 키 파일을 보관처리합니다.

      # cd /usr/sap/SID/SYS/global/security/rsecssfs/
      # mv data/SSFS_SID.DAT data/SSFS_SID.DAT-ARC
      # mv key/SSFS_SID.KEY key/SSFS_SID.KEY-ARC
    3. 기본 호스트에서 데이터 파일을 복사합니다.

      # scp -o StrictHostKeyChecking=no \
      PRIMARY_HOST_NAME:/usr/sap/SID/SYS/global/security/rsecssfs/data/SSFS_SID.DAT \
      /usr/sap/SID/SYS/global/security/rsecssfs/data/SSFS_SID.DAT
    4. 기본 호스트에서 키 파일을 복사합니다.

      # scp -o StrictHostKeyChecking=no \
      PRIMARY_HOST_NAME:/usr/sap/SID/SYS/global/security/rsecssfs/key/SSFS_SID.KEY \
      /usr/sap/SID/SYS/global/security/rsecssfs/key/SSFS_SID.KEY
    5. 파일 소유권을 업데이트합니다.

      # chown SID_LCadm:sapsys /usr/sap/SID/SYS/global/security/rsecssfs/data/SSFS_SID.DAT
      # chown SID_LCadm:sapsys /usr/sap/SID/SYS/global/security/rsecssfs/key/SSFS_SID.KEY
    6. 파일 권한을 업데이트합니다.

      # chmod 644 /usr/sap/SID/SYS/global/security/rsecssfs/data/SSFS_SID.DAT
      # chmod 640 /usr/sap/SID/SYS/global/security/rsecssfs/key/SSFS_SID.KEY
    7. SID_LCadm으로 보조 SAP HANA 시스템을 SAP HANA 시스템 복제에 등록합니다.

      > hdbnsutil -sr_register --remoteHost=PRIMARY_HOST_NAME --remoteInstance=INST_NUM \
      --replicationMode=syncmem --operationMode=logreplay --name=SECONDARY_HOST_NAME
    8. SID_LCadm으로 SAP HANA를 시작합니다.

      > HDB start

시스템 복제 유효성 검사

기본 호스트에서 SID_LCadm으로 다음 Python 스크립트를 실행하여 SAP HANA 시스템 복제가 활성 상태인지 확인합니다.

$ python $DIR_INSTANCE/exe/python_support/systemReplicationStatus.py

다른 표시기 중에서 복제가 올바르게 설정되어 있으면 xsengine, nameserver, indexserver 서비스에 다음 값이 표시됩니다.

  • Secondary Active StatusYES입니다.
  • Replication StatusACTIVE입니다.

또한 overall system replication statusACTIVE로 표시됩니다.

SAP HANA HA/DR 제공업체 후크 사용 설정

SUSE는 SAP HANA가 특정 이벤트의 알림을 보낼 수 있게 해주고 장애 감지를 향상시키는 SAP HANA HA/DR 제공업체 후크를 사용 설정할 것을 권장합니다. SAP HANA HA/DR 제공업체 후크를 사용하려면 SAP HANA 2.0 SPS 03 이상 버전이 필요합니다.

기본 및 보조 사이트 모두에서 다음 단계를 완료합니다.

  1. SID_LCadm으로 SAP HANA를 중지합니다.

    > HDB stop

  1. 루트 또는 SID_LCadm로 수정할 global.ini 파일을 엽니다.

    > vi /hana/shared/SID/global/hdb/custom/config/global.ini
  2. global.ini 파일에 다음 정의를 추가합니다.

    [ha_dr_provider_SAPHanaSR]
    provider = SAPHanaSR
    path = /usr/share/SAPHanaSR/
    execution_order = 1
    
    [ha_dr_provider_suschksrv]
    provider = susChkSrv
    path = /usr/share/SAPHanaSR/
    execution_order = 3
    action_on_lost = stop
    
    [trace]
    ha_dr_saphanasr = info

  3. 루트로 다음 명령어를 실행하여 /etc/sudoers.d 디렉터리에 커스텀 구성 파일을 만듭니다. 이 새로운 구성 파일을 사용하면 srConnectionChanged() 후크 메서드가 호출될 때 SID_LCadm 사용자가 클러스터 노드 속성에 액세스할 수 있습니다.

    > sudo visudo -f /etc/sudoers.d/SAPHanaSR
  4. /etc/sudoers.d/SAPHanaSR 파일에 다음 텍스트를 추가합니다.

    다음을 바꿉니다.

    • SITE_A: 기본 SAP HANA 서버의 사이트 이름
    • SITE_B: 보조 SAP HANA 서버의 사이트 이름
    • SID_LC: 소문자를 사용하여 지정한 SID입니다.
    사이트 이름을 보려면 SAP HANA 기본 서버 또는 보조 서버에서 crm_mon -A1 | grep site 명령어를 루트 사용자로 실행하면 됩니다.
    Cmnd_Alias SOK_SITEA = /usr/sbin/crm_attribute -n hana_SID_LC_site_srHook_SITE_A -v SOK -t crm_config -s SAPHanaSR
    Cmnd_Alias SFAIL_SITEA = /usr/sbin/crm_attribute -n hana_SID_LC_site_srHook_SITE_A -v SFAIL -t crm_config -s SAPHanaSR
    Cmnd_Alias SOK_SITEB = /usr/sbin/crm_attribute -n hana_SID_LC_site_srHook_SITE_B -v SOK -t crm_config -s SAPHanaSR
    Cmnd_Alias SFAIL_SITEB = /usr/sbin/crm_attribute -n hana_SID_LC_site_srHook_SITE_B -v SFAIL -t crm_config -s SAPHanaSR
    SID_LCadm ALL=(ALL) NOPASSWD: SOK_SITEA, SFAIL_SITEA, SOK_SITEB, SFAIL_SITEB

  5. /etc/sudoers 파일에 다음 텍스트가 포함되어 있는지 확인합니다.

    • SLES for SAP 15 SP3 이상:

      @includedir /etc/sudoers.d

    • 최대 SLES for SAP 15 SP2 버전:

      #includedir /etc/sudoers.d

      이 텍스트에서 #은 문법의 일부이며 줄이 주석임을 의미하는 것은 아닙니다.

  6. SID_LCadm으로 SAP HANA를 시작합니다.

    > HDB start

  7. SAP HANA의 클러스터 구성을 완료한 후 SAPHanaSR Python 후크 문제 해결HANA 인덱스 서버 장애 시 HA 클러스터 인계가 너무 오래 걸림의 설명대로 장애 조치 테스트 중에 후크가 올바르게 작동하는지 확인할 수 있습니다.

Cloud Load Balancing 장애 조치 지원 구성

장애 조치를 지원하는 내부 패스 스루 네트워크 부하 분산기 서비스는 상태 점검 서비스를 기반으로 SAP HANA 클러스터의 활성 호스트로 트래픽을 라우팅합니다.

가상 IP의 IP 주소 예약

가상 IP(VIP) 주소(유동 IP 주소라고도 함)는 활성 SAP HANA 시스템을 따릅니다. 부하 분산기는 VIP로 전송된 트래픽을 현재 활성 SAP HANA 시스템을 호스팅하는 VM으로 라우팅합니다.

  1. Cloud Shell을 엽니다.

    Cloud Shell로 이동

  2. 가상 IP의 IP 주소를 예약합니다. 애플리케이션이 SAP HANA에 액세스하는 데 사용하는 IP 주소입니다. --addresses 플래그를 생략하면 지정된 서브넷의 IP 주소가 자동으로 선택됩니다.

    $ gcloud compute addresses create VIP_NAME \
      --region CLUSTER_REGION --subnet CLUSTER_SUBNET \
      --addresses VIP_ADDRESS

    고정 IP를 예약하는 방법에 대한 상세 설명은 고정 내부 IP 주소 예약을 참조하세요.

  3. IP 주소 예약을 확인합니다.

    $ gcloud compute addresses describe VIP_NAME \
      --region CLUSTER_REGION

    다음과 비슷한 출력이 표시됩니다.

    address: 10.0.0.19
    addressType: INTERNAL
    creationTimestamp: '2020-05-20T14:19:03.109-07:00'
    description: ''
    id: '8961491304398200872'
    kind: compute#address
    name: vip-for-hana-ha
    networkTier: PREMIUM
    purpose: GCE_ENDPOINT
    region: https://www.googleapis.com/compute/v1/projects/example-project-123456/regions/us-central1
    selfLink: https://www.googleapis.com/compute/v1/projects/example-project-123456/regions/us-central1/addresses/vip-for-hana-ha
    status: RESERVED
    subnetwork: https://www.googleapis.com/compute/v1/projects/example-project-123456/regions/us-central1/subnetworks/example-subnet-us-central1

호스트 VM의 인스턴스 그룹 만들기

  1. Cloud Shell에서 비관리형 인스턴스 그룹 2개를 만들고 기본 마스터 호스트 VM을 인스턴스 하나에, 보조 마스터 호스트 VM을 다른 인스턴스에 할당합니다.

    $ gcloud compute instance-groups unmanaged create PRIMARY_IG_NAME \
      --zone=PRIMARY_ZONE
    $ gcloud compute instance-groups unmanaged add-instances PRIMARY_IG_NAME \
      --zone=PRIMARY_ZONE \
      --instances=PRIMARY_HOST_NAME
    $ gcloud compute instance-groups unmanaged create SECONDARY_IG_NAME \
      --zone=SECONDARY_ZONE
    $ gcloud compute instance-groups unmanaged add-instances SECONDARY_IG_NAME \
      --zone=SECONDARY_ZONE \
      --instances=SECONDARY_HOST_NAME
    
  2. 인스턴스 그룹 생성을 확인합니다.

    $ gcloud compute instance-groups unmanaged list

    다음과 비슷한 출력이 표시됩니다.

    NAME          ZONE           NETWORK          NETWORK_PROJECT        MANAGED  INSTANCES
    hana-ha-ig-1  us-central1-a  example-network  example-project-123456 No       1
    hana-ha-ig-2  us-central1-c  example-network  example-project-123456 No       1

Compute Engine 상태 확인 만들기

  1. Cloud Shell에서 상태 확인을 만듭니다. 상태 확인에 사용되는 포트로, 다른 서비스와 충돌하지 않도록 비공개 범위 49152~65535에서 포트를 선택합니다. Compute Engine 라이브 마이그레이션 이벤트 중에 장애 조치 허용 범위를 늘리기 위해 확인 간격 및 제한 시간 값이 기본값보다 약간 더 깁니다. 필요한 경우 이러한 값을 조정할 수 있습니다.

    $ gcloud compute health-checks create tcp HEALTH_CHECK_NAME --port=HEALTHCHECK_PORT_NUM \
      --proxy-header=NONE --check-interval=10 --timeout=10 --unhealthy-threshold=2 \
      --healthy-threshold=2
  2. 상태 확인 생성을 확인합니다.

    $ gcloud compute health-checks describe HEALTH_CHECK_NAME

    다음과 비슷한 출력이 표시됩니다.

    checkIntervalSec: 10
    creationTimestamp: '2020-05-20T21:03:06.924-07:00'
    healthyThreshold: 2
    id: '4963070308818371477'
    kind: compute#healthCheck
    name: hana-health-check
    selfLink: https://www.googleapis.com/compute/v1/projects/example-project-123456/global/healthChecks/hana-health-check
    tcpHealthCheck:
     port: 60000
     portSpecification: USE_FIXED_PORT
     proxyHeader: NONE
    timeoutSec: 10
    type: TCP
    unhealthyThreshold: 2

상태 확인에 사용할 방화벽 규칙 만들기

Compute Engine 상태 확인 35.191.0.0/16130.211.0.0/22에 사용되는 IP 범위에서 호스트 VM에 액세스할 수 있는 비공개 범위의 포트에 사용할 방화벽 규칙을 정의합니다. 자세한 내용은 상태 확인에 사용할 방화벽 규칙 만들기를 참조하세요.

  1. 아직 없으면 호스트 VM에 네트워크 태그를 추가합니다. 이 네트워크 태그는 방화벽 규칙에서 상태 확인을 위해 사용됩니다.

    $ gcloud compute instances add-tags PRIMARY_HOST_NAME \
      --tags NETWORK_TAGS \
      --zone PRIMARY_ZONE
    $ gcloud compute instances add-tags SECONDARY_HOST_NAME \
      --tags NETWORK_TAGS \
      --zone SECONDARY_ZONE
    
  2. 방화벽을 아직 만들지 않았으면 상태 확인을 허용하는 방화벽 규칙을 만듭니다.

    $ gcloud compute firewall-rules create RULE_NAME \
      --network NETWORK_NAME \
      --action ALLOW \
      --direction INGRESS \
      --source-ranges 35.191.0.0/16,130.211.0.0/22 \
      --target-tags NETWORK_TAGS \
      --rules tcp:HLTH_CHK_PORT_NUM

    예를 들면 다음과 같습니다.

    gcloud compute firewall-rules create  fw-allow-health-checks \
    --network example-network \
    --action ALLOW \
    --direction INGRESS \
    --source-ranges 35.191.0.0/16,130.211.0.0/22 \
    --target-tags cluster-ntwk-tag \
    --rules tcp:60000

부하 분산기 및 장애 조치 그룹 구성

  1. 부하 분산기 백엔드 서비스를 만듭니다.

    $ gcloud compute backend-services create BACKEND_SERVICE_NAME \
      --load-balancing-scheme internal \
      --health-checks HEALTH_CHECK_NAME \
      --no-connection-drain-on-failover \
      --drop-traffic-if-unhealthy \
      --failover-ratio 1.0 \
      --region CLUSTER_REGION \
      --global-health-checks
  2. 기본 인스턴스 그룹을 백엔드 서비스에 추가합니다.

    $ gcloud compute backend-services add-backend BACKEND_SERVICE_NAME \
      --instance-group PRIMARY_IG_NAME \
      --instance-group-zone PRIMARY_ZONE \
      --region CLUSTER_REGION
  3. 보조 장애 조치 인스턴스 그룹을 백엔드 서비스에 추가합니다.

    $ gcloud compute backend-services add-backend BACKEND_SERVICE_NAME \
      --instance-group SECONDARY_IG_NAME \
      --instance-group-zone SECONDARY_ZONE \
      --failover \
      --region CLUSTER_REGION
  4. 전달 규칙을 만듭니다. IP 주소에 VIP용으로 예약한 IP 주소를 지정합니다. 아래에 지정된 리전 외부에서 SAP HANA 시스템에 액세스해야 하는 경우에는 정의에 --allow-global-access 플래그를 포함하세요.

    $ gcloud compute forwarding-rules create RULE_NAME \
      --load-balancing-scheme internal \
      --address VIP_ADDRESS \
      --subnet CLUSTER_SUBNET \
      --region CLUSTER_REGION \
      --backend-service BACKEND_SERVICE_NAME \
      --ports ALL

    SAP HANA 고가용성 시스템에 대한 리전 간 액세스에 대한 자세한 내용은 내부 TCP/UDP 부하 분산을 참조하세요.

부하 분산기 구성 테스트

백엔드 인스턴스 그룹이 나중까지 정상으로 등록되지 않더라도 상태 확인에 응답하도록 리스너를 설정하여 부하 분산기 구성을 테스트할 수 있습니다. 리스너를 설정한 후 부하 분산기가 올바르게 구성되면 백엔드 인스턴스 그룹 상태가 정상으로 변경됩니다.

다음 섹션에서는 구성을 테스트하는 데 사용할 수 있는 다양한 방법을 보여줍니다.

socat 유틸리티로 부하 분산기 테스트

socat 유틸리티를 사용하여 상태 확인 포트에서 일시적으로 리슨할 수 있습니다. 나중에 클러스터 리소스를 구성할 때 socat 유틸리티를 사용하므로 이 유틸리티를 설치해야 합니다.

  1. 두 호스트 VM에서 루트로 socat 유틸리티를 설치합니다.

    # zypper install -y socat

  2. socat 프로세스를 시작하여 상태 확인 포트에서 60초 동안 리슨합니다.

    # timeout 60s socat - TCP-LISTEN:HLTH_CHK_PORT_NUM,fork

  3. Cloud Shell에서 상태 확인이 리스너를 감지할 때까지 몇 초 정도 기다린 후 백엔드 인스턴스 그룹 상태를 확인합니다.

    $ gcloud compute backend-services get-health BACKEND_SERVICE_NAME \
      --region CLUSTER_REGION

    다음과 비슷한 출력이 표시됩니다.

    ---
    backend: https://www.googleapis.com/compute/v1/projects/example-project-123456/zones/us-central1-a/instanceGroups/hana-ha-ig-1
    status:
     healthStatus:
     ‐ healthState: HEALTHY
       instance: https://www.googleapis.com/compute/v1/projects/example-project-123456/zones/us-central1-a/instances/hana-ha-vm-1
       ipAddress: 10.0.0.35
       port: 80
     kind: compute#backendServiceGroupHealth
    ---
    backend: https://www.googleapis.com/compute/v1/projects/example-project-123456/zones/us-central1-c/instanceGroups/hana-ha-ig-2
    status:
     healthStatus:
     ‐ healthState: HEALTHY
       instance: https://www.googleapis.com/compute/v1/projects/example-project-123456/zones/us-central1-c/instances/hana-ha-vm-2
       ipAddress: 10.0.0.34
       port: 80
     kind: compute#backendServiceGroupHealth

포트 22를 사용하여 부하 분산기 테스트

호스트 VM에서 SSH 연결용으로 포트 22가 열려 있으면 상태 확인기에 응답할 수 있는 리스너가 있는 포트 22를 사용하도록 상태 확인기를 임시로 수정할 수 있습니다.

포트 22를 일시적으로 사용하려면 다음 단계를 수행합니다.

  1. 콘솔에서 상태 확인을 클릭합니다.

    상태 확인 페이지로 이동

  2. 수정을 클릭합니다.

  3. 포트 필드에서 포트 번호를 22로 변경합니다.

  4. 저장을 클릭하고 1~2분 정도 기다립니다.

  5. Cloud Shell에서 백엔드 인스턴스 그룹 상태를 확인합니다.

    $ gcloud compute backend-services get-health BACKEND_SERVICE_NAME \
      --region CLUSTER_REGION

    다음과 비슷한 출력이 표시됩니다.

    ---
    backend: https://www.googleapis.com/compute/v1/projects/example-project-123456/zones/us-central1-a/instanceGroups/hana-ha-ig-1
    status:
     healthStatus:
     ‐ healthState: HEALTHY
       instance: https://www.googleapis.com/compute/v1/projects/example-project-123456/zones/us-central1-a/instances/hana-ha-vm-1
       ipAddress: 10.0.0.35
       port: 80
     kind: compute#backendServiceGroupHealth
    ---
    backend: https://www.googleapis.com/compute/v1/projects/example-project-123456/zones/us-central1-c/instanceGroups/hana-ha-ig-2
    status:
     healthStatus:
     ‐ healthState: HEALTHY
       instance: https://www.googleapis.com/compute/v1/projects/example-project-123456/zones/us-central1-c/instances/hana-ha-vm-2
       ipAddress: 10.0.0.34
       port: 80
     kind: compute#backendServiceGroupHealth
  6. 확인을 완료하면 상태 확인 포트 번호를 원래 포트 번호로 다시 변경합니다.

Pacemaker 설정

다음 절차에서는 SAP HANA용 Compute Engine VM에서 Pacemaker 클러스터의 SUSE 구현을 구성합니다.

SLES에서 고가용성 클러스터를 구성하는 방법에 대한 자세한 내용은 사용하는 SLES 버전의 SUSE Linux Enterprise 고가용성 확장 문서를 참조하세요.

Corosync 구성 파일 만들기

  1. 기본 호스트에 Corosync 구성 파일을 만듭니다.

    1. 다음 파일을 만듭니다.

       vi /etc/corosync/corosync.conf
    2. 기본 호스트의 corosync.conf 파일에서 다음 구성을 추가하고 기울임꼴의 변수 텍스트를 실제 값으로 바꿉니다.

      totem {
       version: 2
       secauth: off
       crypto_hash: sha1
       crypto_cipher: aes256
       cluster_name: hacluster
       clear_node_high_bit: yes
       token: 20000
       token_retransmits_before_loss_const: 10
       join: 60
       max_messages:  20
       transport: udpu
       interface {
         ringnumber: 0
         Bindnetaddr: static-ip-of-hdb-on-this-host
         mcastport: 5405
         ttl: 1
       }
      }
      logging {
       fileline:  off
       to_stderr: no
       to_logfile: no
       logfile: /var/log/cluster/corosync.log
       to_syslog: yes
       debug: off
       timestamp: on
       logger_subsys {
         subsys: QUORUM
         debug: off
       }
      }
      nodelist {
       node {
         ring0_addr: this-host-name
         nodeid: 1
       }
       node {
         ring0_addr: other-host-name
         nodeid: 2
       }
      }
      quorum {
       provider: corosync_votequorum
       expected_votes: 2
       two_node: 1
      }
  2. 기본 호스트에 사용한 것과 동일한 단계를 반복하여 보조 호스트에 Corosync 구성 파일을 만듭니다. Bindnetaddr 속성에 HDB의 고정 IP와 nodelist에서 호스트 이름 순서를 제외하면 구성 파일 속성 값이 각 호스트에서 동일합니다.

클러스터 초기화

  1. 기본 호스트에서 루트로 다음을 수행합니다.

    1. hacluster 사용자의 비밀번호를 변경합니다.

      # passwd hacluster
    2. 클러스터를 초기화합니다.

      # corosync-keygen
      # crm cluster init --yes ssh
      # crm cluster init -y csync2
    3. 기본 호스트에서 Pacemaker를 시작합니다.

      # systemctl enable pacemaker
      # systemctl start pacemaker
  2. 보조 호스트에서 루트로 다음을 수행합니다.

    1. hacluster 사용자의 비밀번호를 변경합니다.

      # passwd hacluster
    2. 보조 호스트를 기본 호스트에서 초기화된 클러스터에 조인합니다.

      # crm cluster join --yes ssh
      # crm cluster join -y -c primary-host-name csync2
    3. 보조 호스트에서 Pacemaker를 시작합니다.

      # systemctl enable pacemaker
      # systemctl start pacemaker
  3. 두 호스트 중 하나에서 루트로 클러스터에 두 노드가 표시되는지 확인합니다.

    # crm_mon -s

    다음과 비슷한 출력이 표시됩니다.

    CLUSTER OK: 2 nodes online, 0 resources configured

클러스터 구성

클러스터를 구성하려면 일반 클러스터 속성과 클러스터 기본 리소스를 정의합니다.

유지보수 모드 사용 설정

  1. 두 호스트 중 하나에서 루트로 클러스터를 유지보수 모드로 전환합니다.

    # crm configure property maintenance-mode="true"

일반 클러스터 속성 구성

  1. 기본 호스트에서 다음을 수행합니다.

    1. 일반 클러스터 속성을 설정합니다.

      # crm configure property stonith-timeout="300s"
      # crm configure property stonith-enabled="true"
      # crm configure rsc_defaults resource-stickiness="1000"
      # crm configure rsc_defaults migration-threshold="5000"
      # crm configure op_defaults timeout="600"

펜싱 설정

각 호스트 VM의 펜스 에이전트로 클러스터 리소스를 정의하여 펜싱을 설정합니다.

펜싱 작업 후 올바른 이벤트 시퀀스를 보장하려면 또한 VM이 펜싱된 후 Corosync의 다시 시작을 지연하도록 운영체제를 구성합니다. 지연을 고려하여 재부팅 시 Pacemaker 제한 시간을 조정합니다.

펜싱 기기 리소스 만들기

  1. 기본 호스트에서 루트로 펜싱 리소스를 생성합니다.

    # crm configure primitive STONITH-"primary-host-name" stonith:fence_gce \
        op monitor interval="300s" timeout="120s" \
        op start interval="0" timeout="60s" \
        params port="primary-host-name" zone="primary-zone" project="project_id" \
        pcmk_reboot_timeout=300 pcmk_monitor_retries=4 pcmk_delay_max=30
    # crm configure primitive STONITH-"secondary-host-name" stonith:fence_gce \
        op monitor interval="300s" timeout="120s" \
        op start interval="0" timeout="60s" \
        params port="secondary-host-name" zone="secondary-zone" project="project_id" \
        pcmk_reboot_timeout=300 pcmk_monitor_retries=4
  2. 각 펜싱 기기의 위치를 설정하세요.

    # crm configure location LOC_STONITH_"primary-host-name" \
        STONITH-"primary-host-name" -inf: "primary-host-name"
    # crm configure location LOC_STONITH_"secondary-host-name" \
        STONITH-"secondary-host-name" -inf: "secondary-host-name"

Corosync 재시작 지연 설정

  1. 두 호스트 모두에서 루트로 systemd 삽입 파일을 만들어 Corosync 시작을 지연하여 펜싱된 VM이 재부팅된 후 올바른 이벤트 시퀀스를 확인합니다.

    systemctl edit corosync.service
  2. 파일에 다음 행을 추가합니다.

    [Service]
    ExecStartPre=/bin/sleep 60
  3. 파일을 저장하고 편집기를 종료합니다.

  4. systemd 관리자 구성을 새로고침합니다.

    systemctl daemon-reload
  5. 삽입 파일이 생성되었는지 확인합니다.

    service corosync status

    다음 예시와 같이 삽입 파일의 줄이 표시됩니다.

    ● corosync.service - Corosync Cluster Engine
       Loaded: loaded (/usr/lib/systemd/system/corosync.service; disabled; vendor preset: disabled)
      Drop-In: /etc/systemd/system/corosync.service.d
               └─override.conf
       Active: active (running) since Tue 2021-07-20 23:45:52 UTC; 2 days ago

VIP 주소용 로컬 클러스터 IP 리소스 만들기

운영체제에서 VIP 주소를 구성하려면 앞에서 예약한 VIP 주소에 로컬 클러스터 IP 리소스를 만드세요.

# crm configure primitive rsc_vip_int-primary IPaddr2 \
     params ip=vip-address cidr_netmask=32 nic="eth0" op monitor interval=3600s timeout=60s

도우미 상태 점검 서비스 설정

부하 분산기는 각 호스트의 상태 확인 포트에서 리스너를 사용하여 SAP HANA 클러스터의 기본 인스턴스가 실행되는 위치를 파악합니다.

클러스터에서 리스너를 관리하려면 리스너의 리소스를 만듭니다.

이 안내에서는 socat 유틸리티를 리스너로 사용합니다.

  1. 두 호스트 모두에서 루트로 socat utility를 설치합니다.

    # zypper in -y socat
  2. 기본 호스트에서 다음을 수행합니다.

    1. 도우미 상태 확인 서비스용 리소스를 만듭니다.

      # crm configure primitive rsc_healthcheck-primary anything \
          params binfile="/usr/bin/socat" \
          cmdline_options="-U TCP-LISTEN:healthcheck-port-num,backlog=10,fork,reuseaddr /dev/null" \
          op monitor timeout=20s interval=10s \
          op_params depth=0

VIP 및 도우미 상태 확인 서비스 리소스 그룹화

VIP 및 도우미 상태 확인 서비스 리소스를 그룹화합니다.

# crm configure group g-primary rsc_vip_int-primary rsc_healthcheck-primary

SAPHanaTopology 기본 리소스 만들기

임시 구성 파일에서 SAPHanaTopology 기본 리소스를 정의한 다음 Corosync에 업로드합니다.

기본 호스트에서 루트로 다음을 수행합니다.

  1. SAPHanaTopology 구성 매개변수의 임시 구성 파일을 만듭니다.

    # vi /tmp/cluster.tmp
  2. SAPHanaTopology 리소스 정의를 복사하여 /tmp/cluster.tmp 파일에 붙여넣습니다.

    primitive rsc_SAPHanaTopology_SID_HDBinst_num ocf:suse:SAPHanaTopology \
     operations \$id="rsc_sap2_SID_HDBinst_num-operations" \
     op monitor interval="10" timeout="600" \
     op start interval="0" timeout="600" \
     op stop interval="0" timeout="300" \
     params SID="SID" InstanceNumber="inst_num"
    
    clone cln_SAPHanaTopology_SID_HDBinst_num rsc_SAPHanaTopology_SID_HDBinst_num \
     meta clone-node-max="1" target-role="Started" interleave="true"
  3. /tmp/cluster.tmp 파일을 수정하여 변수 텍스트를 SAP HANA 시스템에 대한 SID 및 인스턴스 번호로 바꿉니다.

  4. 기본에서 루트로 /tmp/cluster.tmp 파일의 콘텐츠를 Corosync에 로드합니다.

    crm configure load update /tmp/cluster.tmp

SAPHana 기본 리소스 만들기

임시 구성 파일에서 SAPHanaTopology 리소스에 사용한 것과 동일한 메서드를 사용하여 SAPHana 기본 리소스를 정의한 다음 해당 Corosync에 업로드합니다.

  1. 임시 구성 파일을 바꿉니다.

    # rm /tmp/cluster.tmp
    # vi /tmp/cluster.tmp
  2. SAPHana 리소스 정의를 복사하여 /tmp/cluster.tmp 파일에 붙여넣습니다.

    primitive rsc_SAPHana_SID_HDBinst_num ocf:suse:SAPHana \
     operations \$id="rsc_sap_SID_HDBinst_num-operations" \
     op start interval="0" timeout="3600" \
     op stop interval="0" timeout="3600" \
     op promote interval="0" timeout="3600" \
     op demote interval="0" timeout="3600" \
     op monitor interval="60" role="Master" timeout="700" \
     op monitor interval="61" role="Slave" timeout="700" \
     params SID="SID" InstanceNumber="inst_num" PREFER_SITE_TAKEOVER="true" \
     DUPLICATE_PRIMARY_TIMEOUT="7200" AUTOMATED_REGISTER="true"
    
    ms msl_SAPHana_SID_HDBinst_num rsc_SAPHana_SID_HDBinst_num \
     meta notify="true" clone-max="2" clone-node-max="1" \
     target-role="Started" interleave="true"
    
    colocation col_saphana_ip_SID_HDBinst_num 4000: g-primary:Started \
     msl_SAPHana_SID_HDBinst_num:Master
    order ord_SAPHana_SID_HDBinst_num Optional: cln_SAPHanaTopology_SID_HDBinst_num \
     msl_SAPHana_SID_HDBinst_num

    다중 계층의 경우 SAP HANA 2.0 SP03보다 이전 버전을 사용하는 경우 SAP HANA HA 클러스터는 AUTOMATED_REGISTERfalse로 설정합니다. 이렇게 하면 복구된 인스턴스가 이미 복제 대상이 구성된 HANA 시스템에 복제하기 위해 직접 등록하도록 시도하지 못합니다. SAP HANA 2.0 SP03 이상에서는 다중 계층 시스템 복제를 사용하는 SAP HANA 구성을 위해 AUTOMATED_REGISTERtrue로 설정할 수 있습니다. 자세한 내용은 다음을 참조하세요.

  3. 기본에서 루트로 /tmp/cluster.tmp 파일의 콘텐츠를 Corosync에 로드합니다.

    crm configure load update /tmp/cluster.tmp

SAP HANA 시스템 복제본이 활성 상태인지 확인

  1. 기본 호스트에서 SID_LCadm으로 SAP HANA 데이터베이스 대화형 터미널에 로그인합니다.

    > hdbsql -u system -p "system-password" -i inst_num
  2. 대화형 터미널에서 복제본 상태를 확인합니다.

    => select distinct REPLICATION_STATUS from SYS.M_SERVICE_REPLICATION

    REPLICATION_STATUS"ACTIVE"여야 합니다.

또는 다음 Python 스크립트를 SID_LCadm으로 실행하여 복제 상태를 확인할 수 있습니다.

# python $DIR_INSTANCE/exe/python_support/systemReplicationStatus.py

클러스터 활성화

  1. 기본 호스트에서 루트로 클러스터의 유지보수 모드를 해제합니다.

    # crm configure property maintenance-mode="false"

    '유지보수'를 삭제하라는 메시지가 표시되면 y를 입력합니다.

  2. 15초를 기다린 다음 기본 호스트에서 루트로 클러스터 상태를 확인합니다.

    # crm status

    다음 예시는 올바르게 구성된 활성 상태의 클러스터를 보여줍니다.

    Stack: corosync
    Current DC: hana-ha-vm-1 (version 2.0.1+20190417.13d370ca9-3.9.1-2.0.1+20190417.13d370ca9) - partition with quorum
    Last updated: Sun Jun  7 00:36:56 2020
    Last change: Sun Jun  7 00:36:53 2020 by root via crm_attribute on hana-ha-vm-1
    
    2 nodes configured
    8 resources configured
    
    Online: [ hana-ha-vm-1 hana-ha-vm-2 ]
    
    Full list of resources:
    
    STONITH-hana-ha-vm-1   (stonith:fence_gce):  Started hana-ha-vm-2
    STONITH-hana-ha-vm-2   (stonith:fence_gce):  Started hana-ha-vm-1
    Clone Set: cln_SAPHanaTopology_HA1_HDB22 [rsc_SAPHanaTopology_HA1_HDB22]
        Started: [ hana-ha-vm-1 hana-ha-vm-2 ]
    Resource Group: g-primary
        rsc_vip_int-primary        (ocf::heartbeat:IPaddr2):       Started hana-ha-vm-1
        rsc_healthcheck-primary        (ocf::heartbeat:anything):      Started hana-ha-vm-1
    Clone Set: msl_SAPHana_HA1_HDB22 [rsc_SAPHana_HA1_HDB22] (promotable)
        Masters: [ hana-ha-vm-1 ]
        Slaves: [ hana-ha-vm-2 ]

장애 조치 테스트

기본 호스트에서 장애를 시뮬레이션하여 클러스터를 테스트할 수 있습니다. 사용할 시스템을 출시하기 전에 테스트 시스템을 사용하거나 프로덕션 시스템에서 테스트를 실행합니다.

테스트 전에 시스템을 백업합니다.

다음과 같은 다양한 방법으로 장애를 시뮬레이션할 수 있습니다.

  • HDB stop
  • HDB kill
  • reboot(활성 노드에서)
  • 단일 네트워크 인터페이스가 있는 인스턴스의 경우 ip link set eth0 down
  • 다중 네트워크 인터페이스가 있는 인스턴스의 경우 iptables ... DROP
  • echo c > /proc/sysrq-trigger

이 안내에서는 ip link set eth0 down 또는 iptables를 사용하여 클러스터의 두 호스트 간의 네트워크 중단을 시뮬레이션합니다. 단일 네트워크 인터페이스가 있는 인스턴스에서는 ip link 명령어를 사용하고 네트워크 인터페이스가 하나 이상 있는 인스턴스에서는 iptables 명령어를 사용합니다. 이 테스트를 통해 장애 조치와 펜싱의 유효성을 모두 확인할 수 있습니다. 인스턴스에 다중 네트워크 인터페이스가 정의된 경우 보조 호스트에서 iptables 명령어를 사용하여 클러스터 통신의 기본 호스트에 사용되는 IP를 기반으로 수신 및 발신 트래픽을 삭제합니다. 기본 호스트에 대한 네트워크 연결 손실을 시뮬레이션합니다.

  1. 활성 호스트에서 루트로 네트워크 인터페이스를 오프라인으로 전환합니다.

    # ip link set eth0 down

    또는 다중 네트워크 인터페이스가 활성 상태인 경우 보조 호스트에서 iptables를 사용합니다.

    # iptables -A INPUT -s PRIMARY_CLUSTER_IP -j DROP; iptables -A OUTPUT -d PRIMARY_CLUSTER_IP -j DROP
  2. SSH를 사용하여 두 호스트 중 하나에 다시 연결하고 루트 사용자로 변경합니다.

  3. crm status를 입력하여 보조 호스트를 포함했던 VM에서 지금 기본 호스트가 활성 상태임을 확인합니다. 다음 예시와 같이 클러스터에 자동으로 다시 시작이 사용 설정되어 있으므로 중지된 호스트가 다시 시작되고 보조 호스트 역할을 할당합니다.

    Stack: corosync
    Current DC: hana-ha-vm-2 (version 2.0.1+20190417.13d370ca9-3.9.1-2.0.1+20190417.13d370ca9) - partition with quorum
    Last updated: Fri Jun 12 16:46:07 2020
    Last change: Fri Jun 12 16:46:07 2020 by root via crm_attribute on hana-ha-vm-2
    
    2 nodes configured
    8 resources configured
    
    Online: [ hana-ha-vm-1 hana-ha-vm-2 ]
    
    Full list of resources:
    
    STONITH-hana-ha-vm-1   (stonith:fence_gce):  Started hana-ha-vm-2
    STONITH-hana-ha-vm-2   (stonith:fence_gce):  Started hana-ha-vm-1
    
    Clone Set: cln_SAPHanaTopology_HA1_HDB22 [rsc_SAPHanaTopology_HA1_HDB22]
        Started: [ hana-ha-vm-1 hana-ha-vm-2 ]
    Resource Group: g-primary
        rsc_vip_int-primary        (ocf::heartbeat:IPaddr2):       Started hana-ha-vm-2
        rsc_healthcheck-primary        (ocf::heartbeat:anything):      Started hana-ha-vm-2
    Clone Set: msl_SAPHana_HA1_HDB22 [rsc_SAPHana_HA1_HDB22] (promotable)
        Masters: [ hana-ha-vm-2 ]
        Slaves: [ hana-ha-vm-1 ]

HANA 활성/활성(읽기 지원) 구성

SAP HANA 2.0 SPS1부터는 Pacemaker 클러스터에서 HANA 활성/활성(읽기 지원)을 구성할 수 있습니다. 이는 선택사항입니다.

Pacemaker 클러스터에서 HANA 활성/활성(읽기 지원)을 구성하려면 다음 단계를 완료합니다.

보조 호스트에 대한 Cloud Load Balancing 장애 조치 지원 구성

장애 조치를 지원하는 내부 패스 스루 네트워크 부하 분산기 서비스는 상태 점검 서비스를 기반으로 SAP HANA 클러스터의 보조 호스트로 트래픽을 라우팅합니다.

보조 호스트에 대한 장애 조치 지원을 구성하려면 다음 단계를 완료합니다.

  1. Cloud Shell을 엽니다.

    Cloud Shell로 이동

  2. 다음 명령어를 실행하여 가상 IP의 IP 주소를 예약합니다.

    가상 IP(VIP) 주소는 보조 SAP HANA 시스템을 따릅니다. 이것은 애플리케이션에서 보조 SAP HANA 시스템에 액세스하기 위해 사용되는 IP 주소입니다. 부하 분산기는 VIP로 전송되는 트래픽을 현재 보조 시스템을 호스팅하는 VM 인스턴스로 라우팅합니다.

    다음 명령어에서 --addresses 플래그를 생략하면 지정된 서브넷의 IP 주소가 자동으로 선택됩니다. 고정 IP를 예약하는 방법에 대한 자세한 내용은 고정 내부 IP 주소 예약을 참조하세요.

    $ gcloud compute addresses create secondary-vip-name \
      --region cluster-region --subnet cluster-subnet \
      --addresses secondary-vip-address
  3. 다음 명령어를 실행하여 Compute Engine 상태 점검을 만듭니다.

    상태 점검에 사용되는 포트로, 다른 서비스와 충돌하지 않도록 비공개 범위 49152~65535에서 포트를 선택합니다. 이 포트는 HANA 기본 시스템 액세스에 사용되는 상태 점검에 구성된 포트와 달라야 합니다. Compute Engine 라이브 마이그레이션 이벤트 중에 장애 조치 허용 범위를 늘리기 위해 확인 간격 및 제한 시간 값이 기본값보다 약간 더 깁니다. 필요한 경우 이러한 값을 조정할 수 있습니다.

    $ gcloud compute health-checks create tcp secondary-health-check-name \
      --port=secondary-healthcheck-port-num \
      --proxy-header=NONE --check-interval=10 --timeout=10 --unhealthy-threshold=2 \
      --healthy-threshold=2
  4. 다음 명령어를 실행하여 부하 분산기 및 장애 조치 그룹을 구성합니다.

    여기에서 추가 백엔드 서비스를 만들고 SAP HANA 기본 시스템용으로 내부 TCP/UDP 부하 분산기 뒤에서 백엔드 서비스에 대해 이전에 만든 동일한 인스턴스 그룹을 사용합니다.

    1. 부하 분산기 백엔드 서비스를 만듭니다.

      $ gcloud compute backend-services create secondary-backend-service-name \
        --load-balancing-scheme internal \
        --health-checks secondary-health-check-name \
        --no-connection-drain-on-failover \
        --drop-traffic-if-unhealthy \
        --failover-ratio 1.0 \
        --region cluster-region \
        --global-health-checks
    2. 기본 인스턴스 그룹을 백엔드 서비스에 추가합니다.

      $ gcloud compute backend-services add-backend secondary-backend-service-name \
        --instance-group primary-ig-name \
        --instance-group-zone primary-zone \
        --region cluster-region
    3. 보조 장애 조치 인스턴스 그룹을 백엔드 서비스에 추가합니다.

      $ gcloud compute backend-services add-backend secondary-backend-service-name \
        --instance-group secondary-ig-name \
        --instance-group-zone secondary-zone \
        --failover \
        --region cluster-region
    4. 전달 규칙을 만듭니다.

      IP 주소 플래그에 VIP용으로 예약한 IP 주소를 지정합니다. 다음 명령어로 지정하는 리전 외부에서 HANA 보조 시스템에 액세스해야 하는 경우 전달 규칙 정의에 --allow-global-access 플래그를 포함합니다.

      $ gcloud compute forwarding-rules create secondary-rule-name \
        --load-balancing-scheme internal \
        --address secondary-vip-name \
        --subnet cluster-subnet \
        --region cluster-region \
        --backend-service secondary-backend-service-name \
        --ports ALL

      SAP HANA 고가용성 시스템에 대한 리전 간 액세스에 대한 자세한 내용은 내부 TCP/UDP 부하 분산을 참조하세요.

HANA 활성/활성(읽기 지원) 사용 설정

보조 호스트에서 다음 단계에 따라 SAP HANA 시스템 복제에 대해 활성/활성(읽기 지원)을 사용 설정합니다.

  1. 루트로 클러스터를 유지보수 모드로 설정합니다.

    # crm configure property maintenance-mode="true"

  2. SID_LCadm으로 SAP HANA를 중지합니다.

    > HDB stop
  3. SID_LCadm으로 logreplay_readaccess 작업 모드를 사용해서 SAP HANA 시스템 복제에 HANA 보조 시스템을 다시 등록합니다.

    > hdbnsutil -sr_register --remoteHost=primary-host-name --remoteInstance=inst_num \
     --replicationMode=syncmem --operationMode=logreplay_readaccess --name=secondary-host-name
  4. SID_LCadm으로 SAP HANA를 시작합니다.

    > HDB start
  5. SID_LCadm으로 HANA 동기화 상태가 ACTIVE인지 확인합니다.

    > cdpy; python systemReplicationStatus.py --sapcontrol=1 | grep overall_replication_status

    다음 예시와 비슷한 출력이 표시됩니다.

    overall_replication_status=ACTIVE

Pacemaker 구성

다음 명령어를 루트로 실행해서 활성/활성(읽기 지원)으로 Pacemaker HA 클러스터를 구성합니다.

  1. 보조 시스템용으로 예약하는 VIP 주소에 대한 로컬 클러스터 IP 리소스를 만듭니다.

    # crm configure primitive rsc_vip_int-secondary IPaddr2 \
      params ip=secondary-vip-address cidr_netmask=32 nic="eth0" \
      op monitor interval=3600s timeout=60s
  2. 다음 명령어를 실행하여 도우미 상태 점검 서비스를 설정합니다.

    부하 분산기는 각 호스트의 상태 확인 포트에서 리스너를 사용하여 SAP HANA 클러스터의 보조 인스턴스가 실행되는 위치를 파악합니다.

    1. 클러스터에서 리스너를 관리하려면 리스너의 리소스를 만듭니다. 이 안내에서는 socat 유틸리티를 리스너로 사용합니다. 도우미 상태 확인 서비스용 리소스를 만듭니다.

      # crm configure primitive rsc_healthcheck-secondary anything \
       params binfile="/usr/bin/socat" \
       cmdline_options="-U TCP-LISTEN:secondary-healthcheck-port-num,backlog=10,fork,reuseaddr /dev/null" \
       op monitor timeout=20s interval=10s \
       op_params depth=0
    2. VIP 및 도우미 상태 확인 서비스 리소스 그룹화

      # crm configure group g-secondary rsc_vip_int-secondary rsc_healthcheck-secondary
  3. 코로케이션 제약조건을 만듭니다.

    # crm configure colocation col_saphana_secondary 4000: g-secondary:Started \
      msl_SAPHana_SID_HDBinst_num:Slave
  4. 클러스터 유지보수 모드를 종료합니다.

    # crm configure property maintenance-mode="false"
  5. 클러스터의 상태를 확인합니다.

    # crm status

    다음 예시는 활성/활성(읽기 지원)으로 SAP HANA 시스템 복제에 대해 올바르게 구성된 활성 클러스터 상태를 보여줍니다. 보조 시스템 VIP 리소스에 대해 추가 리소스 그룹이 표시됩니다. 다음 예시에서 이 리소스 그룹의 이름은 g-secondary입니다.

    Cluster Summary:
      Stack: corosync
      Current DC: hana-ha-vm-1 (version 2.0.4+20200616.2deceaa3a-3.15.1-2.0.4+20200616.2deceaa3a) - partition with quorum
      Last updated: Fri Oct  7 21:52:46 2022
      Last change:  Fri Oct  7 21:51:42 2022 by root via crm_attribute on hana-ha-vm-1
    
      2 nodes configured
      10 resource instances configured
    
    Node List:
      Online: [ hana-ha-vm-1 hana-ha-vm-2 ]
    
    Active Resources:
      STONITH-hana-ha-vm-1  (stonith:fence_gce):   Started hana-ha-vm-2
      STONITH-hana-ha-vm-2  (stonith:fence_gce):   Started hana-ha-vm-1
      Resource Group: g-primary:
        rsc_vip_int-primary       (ocf::heartbeat:IPaddr2):        Started hana-ha-vm-1
        rsc_vip_hc-primary        (ocf::heartbeat:anything):       Started hana-ha-vm-1
      Clone Set: cln_SAPHanaTopology_HA1_HDB00 [rsc_SAPHanaTopology_HA1_HDB00]:
        Started: [ hana-ha-vm-1 hana-ha-vm-2 ]
      Clone Set: msl_SAPHana_HA1_HDB00 [rsc_SAPHana_HA1_HDB00] (promotable):
        Masters: [ hana-ha-vm-1 ]
        Slaves: [ hana-ha-vm-2 ]
      Resource Group: g-secondary:
        rsc_vip_int-secondary       (ocf::heartbeat:IPaddr2):        Started hana-ha-vm-2
        rsc_healthcheck-secondary   (ocf::heartbeat:anything):       Started hana-ha-vm-2
    

SAP HANA 워크로드 평가

Google Cloud에서 실행되는 SAP HANA 고가용성 워크로드에 대한 지속적 검증 확인을 자동화하려면 워크로드 관리자를 사용하면 됩니다.

워크로드 관리자를 사용하면 SAP HANA 고가용성 워크로드를 SAP, Google Cloud, OS 공급업체의 권장사항에 따라 자동으로 스캔하고 평가할 수 있습니다. 이를 통해 워크로드의 품질, 성능, 안정성을 향상시킬 수 있습니다.

Google Cloud에서 실행되는 SAP HANA 고가용성 워크로드를 평가할 수 있도록 워크로드 관리자가 지원하는 권장사항에 대한 자세한 내용은 SAP용 워크로드 관리자 권장사항을 참조하세요. 워크로드 관리자를 사용하여 평가를 만들고 실행하는 방법은 평가 작성 및 실행을 참조하세요.

문제 해결

SLES 기반 SAP HANA의 고가용성 구성 문제를 해결하려면 SAP의 고가용성 구성 문제 해결을 참조하세요.

SLES 기반 SAP HANA 지원 받기

SLES 기반 SAP HANA의 고가용성 클러스터 문제를 해결하는 데 도움이 필요하면 필요한 진단 정보를 수집하고 Cloud Customer Care에 문의하세요. 자세한 내용은 SLES의 고가용성 클러스터 진단 정보를 참조하세요.

지원

Google Cloud 인프라 또는 서비스 관련 문제인 경우 고객 관리에 문의하세요. Google Cloud 콘솔의 지원 개요 페이지에서 연락처 정보를 확인할 수 있습니다. 고객 관리에서 SAP 시스템에 문제가 있다고 판단하면 SAP 지원으로 지원을 요청하세요.

SAP 제품 관련 문제가 발생하면 SAP 지원으로 지원을 요청하세요. SAP는 지원 티켓을 평가한 후 Google Cloud 인프라 문제로 판단되면 SAP는 해당 티켓을 시스템 내 적절한 Google Cloud 구성요소 BC-OP-LNX-GOOGLE 또는BC-OP-NT-GOOGLE로 전송합니다.

지원 요구사항

SAP 시스템과 사용 중인 Google Cloud 인프라 및 서비스에 대한 지원을 받으려면 최소 지원 요금제 요구사항을 충족해야 합니다.

Google Cloud 기반 SAP에 대한 최소 지원 요구사항에 대한 상세 설명은 다음을 참조하세요.

SAP HANA에 연결

호스트 VM에 SAP HANA용 외부 IP 주소가 없으면 SSH를 사용하는 배스천 인스턴스를 통해 또는 SAP HANA Studio를 사용하는 Windows 서버를 통해서만 SAP HANA 인스턴스에 연결할 수 있습니다.

  • 배스천 인스턴스를 통해 SAP HANA에 연결하려면 배스천 호스트에 연결한 다음 원하는 SSH 클라이언트를 사용하여 SAP HANA 인스턴스에 연결합니다.

  • SAP HANA Studio를 통해 SAP HANA 데이터베이스에 연결하려면 원격 데스크톱 클라이언트를 사용하여 Windows Server 인스턴스에 연결합니다. 연결 후 수동으로 SAP HANA Studio를 설치하고 SAP HANA 데이터베이스에 액세스합니다.

배포 후 작업

배포를 마치면 다음 단계를 완료합니다.

  1. SAP HANA 시스템 관리자와 데이터베이스 수퍼유저의 임시 비밀번호를 변경합니다. 예를 들면 다음과 같습니다.

    sudo passwd SID_LCadm

    SAP 비밀번호 변경에 대한 상세 설명은 시스템 데이터베이스의 SYSTEM 사용자 비밀번호 재설정을 참조하세요.

  2. SAP HANA 인스턴스를 사용하기 전에 새 SAP HANA 데이터베이스를 구성하고 백업합니다.

  3. SAP HANA 시스템이 VirtIO 네트워크 인터페이스에 배포된 경우 TCP 매개변수 /proc/sys/net/ipv4/tcp_limit_output_bytes 값이 1048576으로 설정되어 있는지 확인하는 것이 좋습니다. 이러한 수정은 네트워크 지연 시간에 영향을 주지 않으면서 VirtIO 네트워크 인터페이스에서 전체적인 네트워크 처리량을 향상시키는 데 도움이 됩니다.

자세한 내용은 다음을 참고하세요.

다음 단계

자세한 내용은 다음 리소스를 참조하세요.

  • Pacemaker 클러스터에서 수직 확장 시 SAP HANA 시스템 복제 자동화
  • SAP HANA 고가용성 계획 가이드
  • SAP HANA 재해 복구 계획 가이드
  • VM 관리와 모니터링에 대한 자세한 내용은 SAP HANA 작업 가이드를 참조하세요.