RHEL HA 애드온을 사용하여 SAP NetWeaver 또는 SAP S/4HANA 애플리케이션 서버 인스턴스를 관리하도록 HA 클러스터 구성


Red Hat Enterprise Linux for SAP Solutions 9

Red Hat Customer Content Services

초록

이 가이드에서는 RHEL HA 애드온을 사용하여 SAP NetWeaver 또는 SAP S/4HANA 애플리케이션 서버 인스턴스를 관리하도록 HA 클러스터를 구성하는 프로세스를 간략하게 설명합니다.

보다 포괄적 수용을 위한 오픈 소스 용어 교체

Red Hat은 코드 및 문서에서 문제가 있는 언어를 교체하기 위해 최선을 다하고 있습니다. 먼저 마스터(master), 슬레이브(slave), 블랙리스트(blacklist), 화이트리스트(whitelist) 등 네 가지 용어를 교체하고 있습니다. 이러한 변경 사항은 향후 릴리스에 걸쳐 점진적으로 구현될 예정입니다. 언어를 보다 포괄적으로 만드는 방법에 대한 자세한 내용은 CTO Chris Wright의 메시지를 참조하십시오.

Red Hat 문서에 관한 피드백 제공

문서 개선을 위한 의견에 감사드립니다. 어떻게 개선할 수 있는지 알려주십시오.

Jira를 통해 피드백 제출 (등록 필요)

  1. Jira 웹 사이트에 로그인되어 있는지 확인하십시오.
  2. 이 링크를 클릭하여 피드백을 제공합니다.
  3. 요약 필드에 설명 제목을 입력합니다.
  4. 설명 필드에 개선을 위한 제안을 입력합니다. 문서의 관련 부분에 대한 링크를 포함합니다.
  5. 향후 업데이트에 대한 알림을 받으려면 Reporter 로 할당되었는지 확인하십시오.
  6. 대화 상자 하단에서 생성 을 클릭합니다.

1장. 개요

1.1. 소개

SAP NetWeaver 또는 SAP S/4HANA 기반 시스템은 많은 비즈니스 프로세스에서 중요한 역할을 하므로 비즈니스에 이러한 시스템을 지속적으로 안정적으로 사용할 수 있도록 하는 것이 중요합니다. 이를 위해 HA 클러스터링을 사용하여 SAP NetWeaver 또는 SAP S/4HANA 시스템의 인스턴스를 관리할 수 있습니다.

HA 클러스터링의 기본 개념은 하나의 대규모 시스템이 모든 로드와 위험을 감수하는 것이 아니라 하나 이상의 시스템이 서비스 또는 실패한 시스템을 즉시 완전히 대체할 때 자동으로 삭제됩니다. 최상의 경우 이러한 교체 프로세스로 인해 시스템의 사용자가 중단되지 않습니다.

1.2. 대상

고가용성 솔루션을 설계하고 SAP NetWeaver 또는 SAP S/4HANA를 기반으로 구현하는 것은 매우 복잡할 수 있으므로 인프라의 각 계층과 배포의 모든 측면에 대한 깊은 지식이 있으면 안정적이고 반복 가능하고 정확한 빠른 자동화 작업을 보장해야 합니다.

이 문서는 RHEL HA 애드온 또는 기타 클러스터링 솔루션을 사용하여 SAP NetWeaver 또는 S/4HANA 애플리케이션 서버 인스턴스 및 HA 클러스터를 이미 설정한 경험이 있는 SAP 및 Red Hat 인증 또는 숙련된 관리자 및 컨설턴트를 위한 것입니다. 소프트웨어 및 추가 문서를 다운로드하려면 SAP 지원 포털 과 Red Hat 고객 포털에 대한 액세스가 필요합니다.

Red Hat Consulting은 클러스터를 설정하고 고객의 데이터 센터 요구 사항을 충족하도록 솔루션을 사용자 정의하는 것이 좋습니다. 일반적으로 이 문서에 설명된 솔루션보다 더 복잡합니다.

1.3. 개념

1.3.1. SAP NetWeaver 또는 S/4HANA 고가용성

일반적인 SAP NetWeaver 또는 S/4HANA 환경은 다음 세 가지 구성 요소로 구성됩니다.

  • SAP (A)SCS 인스턴스
  • SAP 애플리케이션 서버 인스턴스(PAS(Primary Application Server) 및 추가 애플리케이션 서버(AAS) 인스턴스
  • 데이터베이스 인스턴스

(A)SCS 인스턴스와 데이터베이스 인스턴스는 단일 장애 지점(SPOF)이므로 HA 솔루션으로 보호되어 SAP 시스템의 데이터 손실 또는 불필요한 중단을 방지하는 것이 중요합니다. SPOF에 대한 자세한 내용은 단일 실패 지점을 참조하십시오.

애플리케이션 서버의 경우 enqueue 서버에서 관리하는 enqueue 잠금 테이블이 가장 중요한 구성 요소입니다. 이를 보호하기 위해 SAP는 enqueue lock 테이블의 백업 복사본을 유지 관리하는 "Enqueue Replication Server"(ERS)를 개발했습니다. (A)SCS 가 하나의 서버에서 실행되고 있는 동안 ERS 는 항상 다른 서버에 있는 현재 enqueue 테이블의 사본을 유지해야 합니다. 

이 문서에서는 SAP와 Red Hat에서 설정한 고가용성에 대한 지침을 준수하는 A (A)SCSERS 인스턴스를 관리하기 위해 2-노드 또는 3-노드 HA 클러스터 솔루션을 설정하는 방법을 설명합니다. HA 솔루션은 일반적으로 SAP NetWeaver와 함께 사용되는 "Standalone Enqueue Server" 또는 SAP S/4HANA에서 사용하는 "Standalone Enqueue Server 2"(ENSA2)에 사용할 수 있습니다. 

또한 동일한 HA 클러스터 또는 별도의 HA 클러스터에서 관리할 수 있는 기본 애플리케이션 서버(PAS) 또는 추가 애플리케이션 서버(AAS) 인스턴스와 같은 다른 SAP 인스턴스 유형을 관리하기 위한 HA 클러스터 리소스 설정 지침도 제공합니다.

1.3.2. ENSA1 vs. ENSA2

1.3.2.1. 독립 실행형 Enqueue Server(ENSA1)

(A)SCS 인스턴스에 문제가 있는 경우 Standalone Enqueue Server(ENSA1)의 경우 (A)SCS 인스턴스가 ERS 인스턴스를 "추천"해야 합니다. 즉, HA 클러스터는 ERS 인스턴스가 현재 실행 중인 호스트에서 (A)SCS 인스턴스를 시작해야 합니다. (A)SCS 인스턴스가 실행 중인 호스트가 펜싱될 때까지 두 인스턴스가 동일한 노드에서 계속 실행됩니다. (A)SCS 인스턴스가 이전에 실행 중인 HA 클러스터 노드가 다시 온라인 상태가 되면 HA 클러스터는 ERS 인스턴스를 해당 HA 클러스터 노드로 이동하여 Enqueue Replication을 다시 시작할 수 있습니다.

다음 다이어그램은 ENSA1(Serandalone Enqueue Server)을 사용하여 SAP NetWeaver 설정을 관리하기 위한 Pacemaker HA 클러스터의 일반적인 아키텍처를 보여줍니다.   text

다이어그램에 별도의 서버에서 관리되는 기본 및 추가 애플리케이션 서버(PAS/AAS) 인스턴스가 선택적으로 표시될 수 있지만 이러한 인스턴스가 (A)SCSERS 인스턴스와 동일한 HA 클러스터 노드에서 실행되고 클러스터에서 관리되도록 하는 것도 지원됩니다.

Standalone Enqueue Server (ENSA1)의 작동 방식에 대한 자세한 내용은 Standalone Enqueue Server Standalone Enqueue Server 를 참조하십시오.

1.3.2.2. 독립 실행형 Enqueue Server 2(ENSA2)

위의 ENSA1에서와 같이 페일오버가 있는 경우 독립 실행형 Enqueue Server는 Enqueue Replication Server를 "추적"해야 합니다. 즉, HA 소프트웨어가 현재 ERS 인스턴스가 실행 중인 호스트에서 (A)SCS 인스턴스를 시작해야 했습니다.

Standalone Enqueue Server(ENSA1)와 달리 새로운 Standalone Enqueue Server 2 및 Enqueue Replicator 2에는 더 이상 이러한 제한 사항이 없습니다. 즉, 장애가 발생할 경우 ASCS 인스턴스를 동일한 클러스터 노드에서 다시 시작할 수 있습니다. 또는 ERS 인스턴스가 실행 중인 HA 클러스터 노드일 필요가 없는 다른 HA 클러스터 노드로 이동할 수도 있습니다. 이렇게 하면 ENSA2(Standalone Enqueue Server 2)가 사용되는 경우 HA 클러스터 노드가 두 개 이상인 다중 노드 HA 클러스터 설정을 사용할 수 있습니다. 

두 개 이상의 HA 클러스터 노드를 사용하는 경우 다음 그림에 설명된 대로 ASCS 는 예비 노드로 페일오버됩니다.

text

ENSA2에 대한 자세한 내용은 SAP Note 2630416 - Standalone Enqueue Server 2 를 참조하십시오.

다음 다이어그램은 ENSA2(Sandalone Enqueue Server 2)를 사용하여 SAP S/4HANA 설정을 관리하는 데 사용할 수 있는 3-노드 클러스터의 아키텍처를 보여줍니다.

text

다이어그램에 별도의 서버에서 관리되는 기본 및 추가 애플리케이션 서버(PAS/AAS) 인스턴스가 선택적으로 표시되지만 이러한 인스턴스가 ASCSERS 인스턴스와 동일한 HA 클러스터 노드에서 실행되고 클러스터에서 관리되도록 하는 것도 지원됩니다.

SAP S/4HANA의 경우 HANA 시스템 복제 설정을 관리하는 데 사용되는 클러스터 노드가 ASCSERS 인스턴스를 관리하는 데 사용되는 "비용 최적화" HA 클러스터 설정을 사용할 수도 있습니다.

1.4. 리소스 에이전트

다음 리소스 에이전트는 resource-agents-sap RPM 패키지를 통해 다양한 SAP 환경을 관리하기 위해 RHEL 9에 제공됩니다.

1.4.1. SAPInstance 리소스 에이전트

SAPInstance 리소스 에이전트는 SAP 커널의 일부인 SAP Start Service를 사용하여 SAP 애플리케이션 서버 인스턴스를 관리하는 데 사용할 수 있습니다. (A)SCS, ERS, PAS 및 AAS 인스턴스 외에도 독립 실행형 SAP Web Dispatcher 또는 독립 실행형 SAP Gateway 인스턴스와 같은 다른 SAP 인스턴스 유형을 관리하는 데 사용할 수도 있습니다(이러한 인스턴스 관리 방법에 대한 자세한 내용은 RHEL HA 애드온을 사용하여 독립 실행형 SAP Web Dispatcher 인스턴스를 관리하는 방법 참조).

SAPInstance 리소스 에이전트의 모든 작업은 각 SAP 인스턴스의 sapstartsrv 프로세스와 통신하는 SAP Startup Framework에서 제공하는 명령을 사용하여 수행됩니다. sapstartsrv 는 4개의 상태 색상을 알고 있습니다.

Expand
색상의미

녹색

모든 것이 좋습니다.

노란색

문제가 있지만 서비스는 여전히 작동합니다.

빨간색

서비스가 작동하지 않습니다.

회색

서비스가 시작되지 않았습니다.

SAPInstance 리소스 에이전트는 GREEN 및 YELLOW를 OK로 해석하지만 RED 및 GRAY 상태는 NOT_RUNNING으로 보고됩니다.

RHEL 9와 함께 제공되는 SAPInstance 리소스 에이전트 버전은 systemd 지원 SAP 시작 프레임워크에서 관리하는 SAP 인스턴스도 지원합니다(자세한 내용은 Systemd 기반 SAP 시작 프레임워크 참조).

1.4.1.1. 중요한 SAPInstance 리소스 에이전트 매개변수
Expand
특성 이름필수 항목기본값설명

InstanceName

제공됨

null

전체 SAP 인스턴스 프로필 이름(<SAPSID>_<INSTNAME+INSTNO>_<virt hostname> )입니다(예: S4H_ASCS20_s4ascs ).

START_PROFILE

제공되지 않음

null

SAP 시작 프로필의 전체 경로( SAP NetWeaver 7.1 이상에서는 SAP Start 프로파일이 인스턴스 프로필과 동일합니다).

IS_ERS

제공되지 않음

false

리소스 장애 후 ASCS/ERS SAP Netweaver 설치에는 ASCS가 다른 클러스터 노드에서 실행 중인 ERS를 찾을 수 있도록 승격 가능한 리소스를 구현하지 않고 ASCS / ERS SAP Netweaver 설치에만 사용됩니다. SAP NetWeaver 7.50 HA 인증(NW-HA-CLU-750; ENSA1) 이후의 구현을 위해 ERS 인스턴스를 관리하는 데 사용되는 리소스에 대해 이 매개변수를 true로 설정해야 합니다. ENSA1을 사용할 때 7.50 미만의 NetWeaver 시스템도 포함됩니다.

DIR_EXECUTABLE

제공되지 않음

null

sapstartsrvsapcontrol 바이너리를 찾을 수 있는 정규화된 경로입니다( SAP 커널 바이너리의 기본 위치가 변경된 경우에만 필요).

DIR_PROFILE

제공되지 않음

null

SAP START 프로필을 찾을 수 있는 전체 정규화된 경로입니다(인스턴스 프로필의 기본 위치가 변경된 경우에만 필요).

AUTOMATIC_RECOVER

제공되지 않음

false

SAPInstance 리소스 에이전트는 실패한 시작 시도를 한 번 자동으로 복구하려고 합니다. 이 작업은 실행 중인 인스턴스 프로세스를 종료하고 kill.sap 파일을 제거하고 cleanipc 를 실행하여 수행됩니다. 충돌하는 SAP 인스턴스는 일부 프로세스 및/또는 공유 메모리 세그먼트 뒤에 남아 있는 경우가 있습니다. 이 옵션을 true 로 설정하면 시작 작업 중에 남은 항목이 제거됩니다.

MONITOR_SERVICES

제공되지 않음

disp+work|msg_server|enserver|enrepserver|jcontrol|jstart

인스턴스의 상태를 확인하기 위해 모니터링해야 하는 SAP 인스턴스의 서비스 목록입니다. sapstartsrv 가 지원하는 추가/없음 또는 기타 서비스를 모니터링하려면 이 매개변수를 사용하여 목록을 변경할 수 있습니다. 이름은 sapcontrol -nr [Instance-Nr] -function GetProcessList 및 (pipe) 기호로 구분된 여러 서비스를 지정할 수 있습니다(이 매개 변수의 값은 항상 모니터링할 서비스 목록이어야 함).

전체 매개변수 목록은 pcs resource describe SAPInstance 를 실행하여 얻을 수 있습니다.

1.4.2. SAPDatabase 리소스 에이전트

SAPDatabase 리소스 에이전트는 단일 Oracle, IBM DB2, SAP ASE 또는 MaxDB 데이터베이스 인스턴스를 SAP NetWeaver 기반 HA 클러스터 설정의 일부로 관리하는 데 사용할 수 있습니다. 자세한 내용은 RHEL 9 에서 지원되는 데이터베이스 버전 목록은 RHEL High Availability Clusters - 클러스터의 SAP NetWeaver Management of SAP NetWeaver 지원 정책을 참조하십시오.

SAPDatabase 리소스 에이전트는 데이터베이스 명령을 직접 실행하지 않습니다. SAP 호스트 에이전트 를 사용하여 데이터베이스를 제어합니다. 따라서 각 클러스터 노드에 SAP 호스트 에이전트를 설치해야 합니다.

SAPDatabase 리소스 에이전트는 데이터베이스 인스턴스를 관리하기 위한 기본 기능만 제공하므로 데이터베이스 인스턴스에 HA 기능이 필요한 경우 대신 데이터베이스의 HA 기능(예: Oracle RAC 및 IBM DB2 HA/DR)을 사용하는 것이 좋습니다.

S/4HANA HA 설정의 경우 HANA 시스템 복제를 사용하여 장애에 대해 HANA 인스턴스를 보다 강력하게 만드는 것이 좋습니다. HANA 시스템 복제 HA 설정은 별도의 클러스터를 사용하여 수행하거나, 또는 HANA 시스템 복제 설정 관리에 사용되는 동일한 HA 클러스터에서 ASCSERS 인스턴스를 관리하는 "비용 최적화" S/4HANA HA 설정을 사용할 수도 있습니다.

1.4.2.1. 중요한 SAPDatabase 리소스 에이전트 매개변수
Expand
특성 이름필수 항목기본값설명

SID

제공됨

null

고유한 데이터베이스 시스템 식별자(일반적으로 SAP SID와 동일)입니다.

DBTYPE

제공됨

null

관리할 데이터베이스 유형입니다. 유효한 값은 ADA (SAP MaxDB), DB6 (IBM DB2), ORA (Oracle DB), SYB (SAP ASE)입니다.

DBINSTANCE

제공되지 않음

null

데이터베이스 인스턴스 이름이 SID(예: Oracle DataGuard)와 같지 않은 경우 특수 데이터베이스 구현에 사용해야 합니다.

DBOSUSER

제공되지 않음

ADA= opt/sdb , DB6=db 2SID, ORA=oraSIDOracle, SYB=sybSID,HDB=SIDadm

운영 체제 수준의 데이터베이스 프로세스가 사용된 데이터베이스 유형의 기본 사용자로 실행되지 않는 경우 매개 변수를 설정할 수 있습니다.

STRICT_MONITORING

제공되지 않음

false

이렇게 하면 리소스 에이전트가 데이터베이스를 모니터링하는 방법을 제어합니다. true 로 설정하면 saphostctrl -function GetDatabaseStatus 를 사용하여 데이터베이스 상태를 테스트합니다. false 로 설정하면 운영 체제 프로세스만 모니터링됩니다.

MONITOR_SERVICES

제공되지 않음

instance|Database|Listener

STRICT_MONITORINGtrue 로 설정된 경우 SAPDatabase 리소스 에이전트에서 모니터링할 서비스를 정의합니다. 서비스 이름은 saphostctrl -function GetDatabaseStatus 명령의 출력에 일치해야 합니다.

AUTOMATIC_RECOVER

제공되지 않음

false

이 값을 true 로 설정하면saphostctrl -function StartDatabase 는 항상 -force 옵션을 사용하여 호출됩니다.

전체 매개변수 목록은 pcs resource describe SAPDatabase 를 실행하여 얻을 수 있습니다.

1.5. Multi-SID 지원 (선택 사항)

이 문서에 설명된 설정을 사용하여 동일한 HA 클러스터 내에서 여러 SAP 환경(Multi-SID)의 (A)SCS/ERS 인스턴스를 관리할 수도 있습니다. 예를 들어, ABAP 및 Java 애플리케이션 서버 인스턴스(예: SAP Solution Manager)를 모두 포함하는 SAP 제품은 Multi-SID 클러스터의 후보가 될 수 있습니다.

그러나 이러한 설정에 대해 몇 가지 추가 고려 사항을 고려해야 합니다.

1.5.1. 고유한 SID 및 인스턴스 번호

충돌을 방지하려면 (A)SCS/ERS 인스턴스의 각 쌍이 다른 SID를 사용해야 하며 각 인스턴스는 다른 SID에 속하는 경우에도 고유 인스턴스 번호를 사용해야 합니다.

1.5.2. 크기 조정

각 HA 클러스터 노드는 여러 인스턴스를 지원하도록 크기를 조정하기 위한 SAP 요구 사항을 충족해야 합니다.

1.5.3. 설치

(A)SCS/ERS 쌍에 대해 섹션 4.5, 4.6 및 4.7에 설명된 모든 단계를 반복합니다. 각 (A)SCS/ERS 쌍은 구성 규칙에 따라 독립적으로 장애 조치를 취합니다.

참고

RHEL 9의 기본 pacemaker 구성에서는 특정 리소스 작업 실패(예: 리소스 중지 실패)로 인해 클러스터 노드가 펜싱됩니다. 예를 들어 HA 클러스터 노드에서 하나의 A (A)SCS 인스턴스에 대한 리소스 중지가 실패하면 동일한 HA 클러스터 노드에서 실행되는 다른 모든 리소스에 대한 중단이 발생합니다. 고가용성 클러스터 구성 및 관리 - 21장에서 작업 모니터링은 실패 시 속성 설명에서 참조하십시오. 이 동작을 수정하는 방법에 대한 옵션에 대한 리소스 모니터링 작업.

1.6. 지원 정책

2장. 요구사항

2.1. 서브스크립션 및 리포지토리

모든 클러스터 노드에서 서브스크립션, 커널 및 패치 수준을 동일하게 유지하고 올바른 리포지토리가 활성화되어 있는지 확인하는 것이 중요합니다.

RHEL 9에서 SAP NetWeaver 또는 SAP S/4HANA 애플리케이션 서버를 실행하는 데 필요한 서브스크립션 및 리포지토리를 활성화하는 방법에 대한 지침은 다음 문서를 참조하십시오: RHEL HA 애드온: SAP 서브스크립션 및 리포지토리.

2.2. 스토리지 요구사항

클러스터에서 관리하는 SAP S/4HANA 설치에서 사용하는 디렉터리는 SAP에서 제공하는 지침에 따라 설정해야 합니다. 자세한 내용은 SAP 디렉터리 를 참조하십시오.

2.2.1. 로컬 디렉터리

SAP의 지침에 따라 /usr/s ap/, /usr/sap/SYS/, / usr/sap/<SAPSID>/ 디렉터리를 각 노드에 로컬로 생성해야 합니다. /usr/sap/ 에는 노드와 관련된 SAP 시스템의 설치 후(예: /usr/sap/sapservices, /usr/sap/hostctrl), /usr/sap/SYS/ SYS/에는 다른 파일 및 디렉토리에 대한 symlink만 포함하며 /usr/sap/<SAPSID>/ 은 기본적으로 마운트 지점 인스턴스에 사용됩니다.

2.2.2. 인스턴스별 디렉터리

(A)SCS,ERS 및 클러스터에서 관리하는 기타 애플리케이션 서버 인스턴스의 경우 인스턴스별 디렉터리를 별도의 SAN LUN 또는 NFS 내보내기에 생성해야 합니다. 이 디렉터리는 인스턴스가 실행 중이어야 하는 노드의 로컬 디렉터리로 클러스터에서 마운트할 수 있습니다. 예를 들면 다음과 같습니다.

  • (A)SCS: /usr/sap/<SAPSID>/ASCS<Ins#>/
  • ERS: /usr/sap/<SAPSID>/ERS<Ins#>/
  • 앱 서버: /usr/sap/<SAPSID>/D<Ins#>/

클러스터 구성에는 인스턴스를 관리하는 데 사용되는 리소스 그룹의 일부로 인스턴스 디렉터리의 파일 시스템을 관리하는 데 필요한 리소스가 포함되어야 합니다. 따라서 클러스터가 인스턴스가 실행되어야 하는 노드에 파일 시스템을 자동으로 마운트할 수 있습니다.

인스턴스별 디렉터리에 SAN LUN을 사용하는 경우 고객은 HA-LVM 을 사용하여 인스턴스 디렉터리를 한 번에 하나의 노드에만 마운트할 수 있는지 확인해야 합니다.

논리 볼륨을 관리하기 위한 리소스( SAN LUNS가 사용되는 경우) 및 파일 시스템은 클러스터가 인스턴스 자체를 시작하려고 할 때 파일 시스템이 마운트되도록 SAP 인스턴스를 관리하는 데 사용되는 리소스 앞에 항상 구성해야 합니다.

NFS 를 제외하고 공유 파일 시스템(예: Cryostat2)을 사용하여 모든 인스턴스별 디렉터리를 호스팅하고 모든 클러스터 노드에서 동시에 사용할 수 있도록 하는 것은 이 문서에 설명된 솔루션에는 지원되지 않습니다.

특정 디렉터리에 NFS 내보내기를 사용할 때 Azure NetApp Files (ANF) 또는 Amazon EFS와 같은 NFS 파일 서버의 동일한 디렉터리 트리에 디렉터리가 생성되는 경우 Filesystem 리소스를 구성할 때 force_unmount=safe 옵션을 사용해야 합니다. 이 옵션을 사용하면 클러스터에서 내보내기가 생성된 디렉터리 트리에서 실행되는 모든 프로세스를 중지하는 대신 특정 NFS 내보내기에서 실행되는 프로세스만 중지하도록 합니다(대개 파일 시스템을 사용하지 않는 파일 시스템 리소스가 파일 시스템을 사용하지 않는 프로세스를 종료 함).

2.2.3. 공유 디렉터리

SAP 시스템의 SAP 인스턴스를 실행하는 모든 서버에서 다음 디렉터리를 사용할 수 있어야 합니다.

  • /sapmnt/
  • /usr/sap/trans/

/sapmnt/ 디렉터리는 SAP 시스템의 일부인 서비스를 실행하는 다른 모든 서버에서도 액세스할 수 있어야 합니다(예: 클러스터에서 관리하지 않는 추가 애플리케이션 서버를 호스팅하는 서버 또는 HANA DB 인스턴스를 호스팅하는 서버).

동일한 SAP 시스템의 모든 서버 간에 /sapmnt//usr/sap/trans/ 디렉터리를 공유하려면 다음 방법 중 하나를 사용할 수 있습니다.

공유 디렉터리는 /etc/fstab 를 통해 정적으로 마운트하거나 클러스터에서 마운트를 관리할 수 있습니다(이 경우 적절한 제약 조건을 설정하여 SAP 인스턴스를 시작하기 전에 클러스터가 클러스터 노드에 /sapmnt/ 디렉토리를 마운트해야 함).

2.3. 펜싱/STONITH

RHEL 고가용성 클러스터에 대한 지원 정책 - 펜싱/STONITH에 대한 일반 요구 사항 - RHEL HA 애드온을 사용하여 HA 클러스터 설정을 위해 각 클러스터 노드에서 작업 펜싱/STONITH 장치를 활성화해야 합니다.

사용할 Fencing/STONITH 장치는 클러스터가 실행 중인 플랫폼에 따라 다릅니다. 펜싱 에이전트에 대한 권장 사항은 RHEL 고가용성 클러스터에 대한 지원 정책의 Fencing/STONITH 섹션을 확인하거나 플랫폼에서 사용할 차단 장치를 찾으려면 하드웨어 또는 클라우드 공급자와 상의하십시오.

참고

fence_scsi/fence_mpath 를 SAP NetWeaver/S/4HANA 애플리케이션 서버 인스턴스를 관리하기 위한 펜싱 장치로 사용하는 것은 RHEL High Availability Cluster에 대한 지원 정책에 설명된 것처럼, RHEL High Availability Cluster에 대한 지원 정책에 설명된 대로, 여러 클라이언트에서 동시에 공유 스토리지를 관리하고, 공유 스토리지를 관리하는 클러스터 설정에만 사용할 수 있습니다. SAP NetWeaver/S/4HANA를 관리하기 위한 HA 클러스터의 주요 목적은 이러한 환경에 필요한 공유 디렉터리가 아닌 SAP 애플리케이션 서버 인스턴스를 관리하는 것이므로, fence_scsi/fence_mpath 를 사용하면 노드를 펜싱해야 하는 경우 (since fence_ scsi/fence_fence_mpath 가 클러스터에 의해 관리되는 스토리지 장치에 대한 액세스만 차단해야 하는 경우) SAP 인스턴스가 중지되지 않을 수 있습니다.

2.4. 쿼럼

pacemaker는 클러스터가 정족수인지 여부를 결정하는 몇 가지 기본 제공 메커니즘을 제공하지만, 일부 경우 "split- Cryostat" 상황이 발생하는 경우 클러스터의 측면을 계속 유지하고 실행하는 데 도움이 되도록 클러스터 설정에서 추가 "쿼리 장치"를 추가하는 것이 바람직할 수 있습니다.

SAP 애플리케이션 서버 인스턴스 관리에 사용되는 HA 클러스터 설정의 경우 기본적으로 쿼럼 장치는 필요하지 않지만 필요한 경우 쿼럼 장치를 이러한 설정에 추가할 수 있습니다.

쿼럼 장치를 설정하는 옵션은 구성에 따라 다릅니다. 자세한 내용은 다음 지침을 검토하십시오.

3장. SAP 애플리케이션 서버 인스턴스 설치

3.1. 이 문서에서 사용되는 구성 옵션

다음은 이 문서의 인스턴스에 사용할 구성 옵션입니다. 지역별 요구 사항에 따라 이러한 옵션을 조정하십시오.

HA 클러스터 노드 및 (A)SCS 및 HA 클러스터에서 관리하는 ERS 인스턴스의 경우 다음 값이 사용됩니다.

1st HA cluster node name:      node1
2nd HA cluster node name:      node2

SID:                    S4H

ASCS Instance number:   20
ASCS virtual hostname:  s4ascs
ASCS virtual IP address: 192.168.200.101

ERS Instance number:    29
ERS virtual hostname:   s4ers
ASCS virtual IP address: 192.168.200.102
Copy to Clipboard Toggle word wrap

선택적 기본 애플리케이션 서버(PAS) 및 추가 애플리케이션 서버(AAS) 인스턴스의 경우 다음 값이 사용됩니다.

PAS Instance number:    21
PAS virtual hostname:  s4pas
PAS virtual IP address: 192.168.200.103

AAS Instance number:    22
AAS virtual hostname:  s4aas
AAS virtual IP address: 192.168.200.104
Copy to Clipboard Toggle word wrap

3.2. SAP 인스턴스 설치를 위한 클러스터 노드 준비

설치를 시작하기 전에 다음을 확인하십시오.

  • RHEL 9에서 SAP 애플리케이션 서버 인스턴스를 실행하기 위한 SAP 및 Red Hat의 권장 사항에 따라 RHEL 9가 모든 HA 클러스터 노드에 설치 및 구성됩니다.
  • SAP 애플리케이션용 RHEL 또는 RHEL for SAP Solutions 서브스크립션이 활성화되며, RHEL for SAP 서브스크립션 및 리포지토리에 설명된 대로 모든 HA 클러스터 노드에서 필요한 리포지토리 가 활성화됩니다. 
  • 공유 스토리지 및 인스턴스 디렉터리는 올바른 마운트 지점에 있습니다.
  • SAP 인스턴스에서 사용하는 가상 호스트 이름과 IP 주소는 두 방향 모두에서 확인할 수 있으며 가상 IP 주소에 액세스할 수 있어야 합니다.
  • SAP 설치 미디어는 SAP 인스턴스가 설치될 각 HA 클러스터 노드에서 액세스할 수 있습니다.

이러한 설정 단계는 Ansible 및 rhel-system-roles-sap 시스템 역할을 사용하여 부분적으로 자동화할 수 있습니다. 이에 대한 자세한 내용은 SAP용 Red Hat Enterprise Linux 시스템 역할을 확인하십시오.

3.3. SAP 인스턴스 설치

SWPM(소프트웨어 프로비저닝 관리자)을 사용하여 인스턴스를 다음 순서로 설치합니다.

  • (a)SCS 인스턴스
  • ERS 인스턴스
  • DB 인스턴스
  • PAS 인스턴스
  • AAS 인스턴스

다음 섹션에서는 이 문서에 설명된 HA 클러스터 설정으로 관리할 SAP 인스턴스를 설치할 때 따라야 하는 몇 가지 구체적인 권장 사항을 제공합니다. SAP NetWeaver 또는 S/4HANA 애플리케이션 서버 인스턴스 설치 방법에 대한 자세한 내용은 공식 SAP 설치 가이드를 확인하십시오.

3.3.1. node1에 (A)SCS 설치

SAP 인스턴스에 필요한 로컬 디렉터리 및 마운트 지점을 (A)SCS 인스턴스가 설치될 HA 클러스터 노드에서 생성해야 합니다.

/sapmnt/
/usr/sap/
/usr/sap/SYS/
/usr/sap/trans/
/usr/sap/S4H/ASCS20/
Copy to Clipboard Toggle word wrap

설치를 시작하기 전에 공유 디렉터리와 인스턴스 디렉터리를 수동으로 마운트해야 합니다.

또한 (A)SCS 인스턴스의 가상 IP 주소는 노드 1에서 활성화해야 하며 ERS 인스턴스의 가상 호스트 이름이 가상 IP 주소로 확인되는지 확인해야 합니다.

SAP 설치 프로그램을 실행할 때 (A)SCS 인스턴스에 사용해야 하는 가상 호스트 이름을 지정하십시오.

[root@node1]# ./sapinst SAPINST_USE_HOSTNAME=s4ascs
Copy to Clipboard Toggle word wrap

(A)SCS 인스턴스 설치에 필요한 고가용성 시스템 옵션을 선택합니다.

text

3.3.2. node2에 ERS 설치

SAP 인스턴스에 필요한 로컬 디렉토리 및 마운트 지점을 ERS 인스턴스가 설치될 HA 클러스터 노드에 생성해야 합니다.

/sapmnt/
/usr/sap/
/usr/sap/SYS/
/usr/sap/trans/
/usr/sap/S4H/ERS29
Copy to Clipboard Toggle word wrap

설치를 시작하기 전에 공유 디렉터리와 인스턴스 디렉터리를 수동으로 마운트해야 합니다.

또한 노드 2에서 ERS 인스턴스의 가상 IP 주소를 활성화해야 하며 ERS 인스턴스의 가상 호스트 이름이 가상 IP 주소로 확인되는지 확인해야 합니다.

설치를 시작할 때 ERS 인스턴스의 가상 호스트 이름을 지정해야 합니다.

[root@node2]# ./sapinst SAPINST_USE_HOSTNAME=s4ers
Copy to Clipboard Toggle word wrap

ERS 인스턴스 설치에 필요한 고가용성 시스템 옵션을 선택합니다.

text

3.3.3. 기본/추가 애플리케이션 서버 인스턴스 설치

SAP 인스턴스에 필요한 로컬 디렉터리 및 마운트 지점을 생성한 HA 클러스터 노드에서 기본 또는 추가 애플리케이션 서버 인스턴스가 설치됩니다.

/sapmnt/
/usr/sap/
/usr/sap/SYS/
/usr/sap/trans/
/usr/sap/S4H/
/usr/sap/S4H/D<Ins#>
Copy to Clipboard Toggle word wrap

설치를 시작하기 전에 공유 디렉터리와 인스턴스 디렉터리를 수동으로 마운트해야 합니다.

또한 HA 클러스터 노드에서 애플리케이션 서버 인스턴스의 가상 IP 주소를 활성화해야 하며 애플리케이션 서버 인스턴스의 가상 호스트 이름이 가상 IP 주소로 확인되는지 확인해야 합니다.

설치 프로그램을 시작할 때 인스턴스의 가상 호스트 이름을 지정합니다.

[root@node<X>]# ./sapinst SAPINST_USE_HOSTNAME=<virtual hostname of instance>
Copy to Clipboard Toggle word wrap

애플리케이션 서버 인스턴스 설치에 필요한 고가용성 시스템 옵션을 선택합니다.

3.4. 사후 설치

3.4.1. (a)SCS 프로파일 수정

인스턴스가 클러스터에서 관리되므로 인스턴스의 sapstartsrv 프로세스에서 enqueue 서버 프로세스를 자동으로 재시작하지 않도록 (A)SCS 인스턴스 프로필을 수정해야 합니다. 

(A)SCS 인스턴스 프로필을 수정하려면 다음 명령을 실행합니다.

[root@node1]# sed -i -e 's/Restart_Program_01/Start_Program_01/' /sapmnt/S4H/profile/S4H_ASCS20_s4ascs
Copy to Clipboard Toggle word wrap

3.4.2. ERS 프로파일 수정

ERS 인스턴스가 클러스터에서 관리되므로 인스턴스의 sapstartsrv 에서 큐에 있는 복제 서버 프로세스를 자동으로 다시 시작하지 않도록 ERS 인스턴스 프로필을 수정해야 합니다. 

ERS 인스턴스 프로필을 수정하려면 다음 명령을 실행합니다.

[root@node2]# sed -i -e 's/Restart_Program_00/Start_Program_00/' /sapmnt/S4H/profile/S4H_ERS29_s4ers
Copy to Clipboard Toggle word wrap

3.4.3. /usr/sap/sapservices 파일 업데이트

HA 클러스터에서 관리할 SAP 인스턴스가 HA 클러스터 제어 외부에서 시작되지 않도록 하려면 모든 클러스터 노드의 /usr/sap/sapservices 파일에서 다음 행을 주석 처리했는지 확인하십시오.

#LD_LIBRARY_PATH=/usr/sap/S4H/ERS29/exe:$LD_LIBRARY_PATH; export LD_LIBRARY_PATH; /usr/sap/S4H/ERS29/exe/sapstartsrv pf=/usr/sap/S4H/SYS/profile/S4H_ERS29_s4ers -D -u s4hadm

#LD_LIBRARY_PATH=/usr/sap/S4H/ASCS20/exe:$LD_LIBRARY_PATH; export LD_LIBRARY_PATH; /usr/sap/S4H/ASCS20/exe/sapstartsrv pf=/usr/sap/S4H/SYS/profile/S4H_ASCS20_s4ascs -D -u s4hadm

#LD_LIBRARY_PATH=/usr/sap/S4H/D21/exe:$LD_LIBRARY_PATH; export LD_LIBRARY_PATH; /usr/sap/S4H/D21/exe/sapstartsrv pf=/usr/sap/S4H/SYS/profile/S4H_D21_s4hpas -D -u s4hadm

#LD_LIBRARY_PATH=/usr/sap/S4H/D22/exe:$LD_LIBRARY_PATH; export LD_LIBRARY_PATH; /usr/sap/S4H/D22/exe/sapstartsrv pf=/usr/sap/S4H/SYS/profile/S4H_D22_s4haas -D -u s4hadm
Copy to Clipboard Toggle word wrap

인스턴스별 디렉터리를 마운트해야 하는 마운트 지점을 생성해야 하며 모든 HA 클러스터 노드에서 사용자와 그룹 소유권을 root:root 로 설정해야 합니다.

[root@node1]# mkdir /usr/sap/S4H/ERS29/
[root@node1]# chown root:root /usr/sap/S4H/ERS29/

[root@node2]# mkdir /usr/sap/S4H/ASCS20
[root@node2]# chown root:root /usr/sap/S4H/ASCS20

[root@node<x>]# mkdir /usr/sap/S4H/D<Ins#>
[root@node<x>]# chown root:root /usr/sap/S4H/D<Ins#>
Copy to Clipboard Toggle word wrap

sapcontrol' 을 사용하여 (A)SCSERS 인스턴스를 중지하고 인스턴스별 디렉터리를 마운트 해제한 다음 다른 노드에 마운트합니다.

/usr/sap/S4H/ASCS20/
/usr/sap/S4H/ERS29/
/usr/sap/S4H/D<Ins#>/
Copy to Clipboard Toggle word wrap

sapcontrol 을 사용하여 모든 SAP 인스턴스의 수동 시작 및 중지가 모든 HA 클러스터 노드에서 작동하고 SAP 인스턴스가 SAP에서 제공하는 툴을 사용하여 올바르게 실행되고 있는지 확인합니다.

각 클러스터 노드에서 다음 명령을 실행하여 SAP Host Agent에 동일한 버전이 있고 최소 버전 요구 사항을 충족하는지 확인합니다.

[root@node<x>]# /usr/sap/hostctrl/exe/saphostexec -version
Copy to Clipboard Toggle word wrap

SAP Host Agent를 업데이트해야 하는 경우 SAP Note 1031096-Installing Package SAPHOSTAGENT 를 확인하십시오.

3.4.7. 영구 SAP 라이센스 키 설치

장애 조치(failover) 후에도 SAP 인스턴스가 계속 실행되도록 각 클러스터 노드의 하드웨어 키를 기반으로 여러 SAP 라이센스 키를 설치해야 할 수 있습니다. 자세한 내용은 SAP Note 11786 - Linux: 대체 방법에서 SAP 하드웨어 키를 생성하는 방법을 참조하십시오.

클러스터에서 관리할 SAP 인스턴스가 systemd활성화된 경우 systemd 가 HA 클러스터에서 SAP 인스턴스 관리를 방해하지 않도록 추가 구성 변경이 필요합니다. 2 섹션을 확인하십시오. Red Hat HA Solutions for SAP in The Systemd-Based SAP Startup Framework for information.

4장. 클러스터 설정

4.1. 각 노드에서 기본 클러스터 설치 수행

먼저 pacemaker 클러스터를 설정하려면 RHEL 9에서 고가용성 클러스터 구성 및 관리를 참조하십시오.

RHEL 고가용성 클러스터에 대한 지원 정책의 지침을 따르십시오. 펜싱/STONITH 설정에 대한 Fencing/STONITH의 일반 요구 사항. 다른 플랫폼에서 지원되는 펜싱/STONITH 에이전트에 대한 정보는 클러스터 플랫폼 및 아키텍처에서 확인할 수 있습니다.

이 가이드의 나머지 부분에서는 다음과 같은 사항이 제대로 작동하고 있다고 가정합니다.

4.2. 일반 클러스터 속성 구성

리소스의 불필요한 페일오버를 방지하려면 하나의 클러스터 노드에서 다음 명령을 실행하여 resource-stickinessmigration-threshold 매개변수의 기본값을 설정합니다. 

[root@node1]# pcs resource defaults update resource-stickiness=1
[root@node1]# pcs resource defaults update migration-threshold=3
Copy to Clipboard Toggle word wrap
참고

resource-stickiness=1 은 리소스가 실행되는 것을 권장합니다. migration-threshold=3 은 3번 실패 후 리소스가 새 노드로 이동합니다. 3은 일반적으로 리소스가 다른 노드로 조기 실패하지 않도록하기에 충분합니다. 또한 리소스 장애 조치 시간이 제어 가능한 제한 내에 유지되도록 합니다. 

4.3. 모든 클러스터 노드에 resource-agents-sap 패키지 설치

SAPInstanceSAPDatabase 리소스 에이전트는 별도의 resource-agents-sap 패키지를 통해 제공됩니다. 다음 명령을 실행하여 각 HAcluster 노드에 설치합니다. 

[root@node<x>]# dnf install resource-agents-sap
Copy to Clipboard Toggle word wrap

4.4. 공유 파일 시스템에 대한 액세스 구성

SAP 인스턴스가 작동하려면 모든 클러스터 노드에서 다음 공유 파일 시스템을 사용할 수 있어야 합니다.

/sapmnt
/usr/sap/trans
Copy to Clipboard Toggle word wrap

공유 파일 시스템은 클러스터에서 관리하거나 각 클러스터 노드의 /etc/fstab 에 추가하여 정적으로 마운트할 수 있습니다.

4.4.1. 클러스터에서 관리하는 공유 파일 시스템 구성

모든 클러스터 노드의 외부 NFS 서버에서 공유 파일 시스템을 마운트하려면 다음과 같이 파일 시스템 클러스터 리소스를 복제할 수 있습니다.

[root@node1]# pcs resource create s4h_fs_sapmnt Filesystem device='<NFS_Server>:<sapmnt_nfs_share>' directory='/sapmnt' fstype='nfs' clone interleave=true 
[root@node1]# pcs resource create s4h_fs_sap_trans Filesystem device='<NFS_Server>:<sap_trans_nfs_share>' directory='/usr/sap/trans' fstype='nfs' clone interleave=true
Copy to Clipboard Toggle word wrap

4.4.2. 클러스터 외부에서 관리되는 공유 파일 시스템 구성

공유 파일 시스템이 클러스터에서 관리되지 않는 경우 pacemaker 서비스를 시작하기 전에 해당 시스템을 사용할 수 있는지 확인해야 합니다.

Chapter 13을 참조하십시오. 클러스터 리소스를 실행하는 순서 를 결정합니다. 공유 파일 시스템이 클러스터 외부에서 관리되는지 확인하는 방법에 대한 자세한 내용은 클러스터가 공유 파일 시스템에 액세스해야 하는 리소스를 시작하기 전에 마운트됩니다. 

4.5. (A)SCS 리소스 그룹 구성

4.5.1. (A)SCS 인스턴스의 가상 IP 주소를 관리하기 위한 리소스 생성

애플리케이션 서버 및 기타 클라이언트가 인스턴스가 현재 실행 중인 HA 클러스터 노드의 (A)SCS 인스턴스에 연결할 수 있도록 하려면 (A)SCS 인스턴스가 하나의 HA 클러스터 노드에서 다른 HA 클러스터 노드로 이동하는 경우 클러스터에 할당된 VIP(가상 IP 주소)를 이동해야 합니다.

이를 위해 VIP를 관리하는 리소스를 A (A)SCS 인스턴스 관리에 사용하는 리소스 그룹의 일부로 생성해야 합니다.

HA 클러스터가 실행 중인 플랫폼에 따라 가상 IP 주소를 관리하기 위해 적절한 리소스 에이전트를 사용하십시오. 

물리적 서버 또는 VM에서 IPaddr2 리소스 에이전트를 사용하여 리소스를 생성할 수 있습니다.

[root@node1]# pcs resource create s4h_vip_ascs20 IPaddr2 ip=192.168.200.101 --group s4h_ASCS20_group
Copy to Clipboard Toggle word wrap

4.5.2. (A)SCS 인스턴스 디렉터리를 관리하기 위한 리소스 생성

SAP에서는 인스턴스 디렉터리를 인스턴스가 실행 중이어야 하는 HA 클러스터 노드에서만 사용할 수 있어야 하므로 인스턴스 디렉터리에 사용되는 파일 시스템을 관리하기 위해 HA 클러스터 리소스를 설정해야 합니다. 

참고

인스턴스 디렉터리가 NFS 에 저장되더라도 HA 클러스터가 SAP 인스턴스가 실행되어야 하는 HA 클러스터 노드에 NFS 내보내기만 마운트할 수 있도록 리소스를 생성해야 합니다.

4.5.2.1. NFS

(A)SCS 인스턴스의 인스턴스 디렉터리가 NFS 에 있는 경우 다음 명령을 사용하여 (A)SCS 인스턴스를 관리하기 위해 리소스 그룹의 일부로 관리할 리소스를 생성할 수 있습니다.

[root@node1]# pcs resource create s4h_fs_ascs20 Filesystem device='<NFS_Server>:<s4h_ascs20_nfs_share>' directory=/usr/sap/S4H/ASCS20 fstype=nfs force_unmount=safe --group s4h_ASCS20_group \
  op start interval=0 timeout=60 \
  op stop interval=0 timeout=120 \
  op monitor interval=200 timeout=40
Copy to Clipboard Toggle word wrap
4.5.2.2. HA-LVM

HA-LVM 을 사용하여 (A)SCS 인스턴스의 인스턴스 디렉토리를 관리하는 경우 What is a Highly Available LVM (HA-LVM) configuration and how do I implement it? 의 지침에 따라 구성해야 합니다. .

먼저 LVM-activate 클러스터 리소스를 추가한 다음 Filesystem 클러스터 리소스를 추가해야 합니다. 

[root@node1]# pcs resource create s4h_fs_ascs20_lvm LVM-activate volgrpname='<ascs_volume_group>' vg_access_mode=system_id --group s4h_ASCS20_group

[root@node1]# pcs resource create s4h_fs_ascs20 Filesystem device='/dev/mapper/<ascs_logical_volume>' directory=/usr/sap/S4H/ASCS20 fstype=ext4 --group s4h_ASCS20_group
Copy to Clipboard Toggle word wrap

4.5.3. (A)SCS 인스턴스를 관리하기 위한 리소스 생성

[root@node1]# pcs resource create s4h_ascs20 SAPInstance InstanceName="S4H_ASCS20_rhascs" START_PROFILE=/sapmnt/S4H/profile/S4H_ASCS20_rhascs AUTOMATIC_RECOVER=false \
  meta resource-stickiness=5000 migration-threshold=1 \
  --group s4h_ASCS20_group \
  op monitor interval=20 on-fail=restart timeout=60 \
  op start interval=0 timeout=600 \
  op stop interval=0 timeout=600
Copy to Clipboard Toggle word wrap

resource-stickiness=5000 은 장애 조치 제약 조건을 ERS 리소스와 균형을 유지하므로 리소스가 시작된 노드에 남아 있고 클러스터 주위에 마이그레이션되지 않습니다.

migration-threshold=1 은 동일한 HA 클러스터 노드에서 문제를 다시 시작하는 대신 문제가 탐지되면 (A)SCS 인스턴스가 다른 노드로 장애 조치되도록 합니다. ENSA2 설정의 경우 동일한 HA 클러스터 노드에서 A (A)SCS 인스턴스를 다시 시작하면 이 옵션이 필요하지 않습니다. 

리소스 그룹의 모든 리소스가 생성되면 그룹에 리소스 고정을 추가하여 (A)SCS 인스턴스가 가능한 경우 HA 클러스터 노드에 유지되도록 합니다.

[root@node1]# pcs resource meta s4h_ASCS20_group resource-stickiness=3000
Copy to Clipboard Toggle word wrap

4.6. ERS 리소스 그룹 구성

4.6.1. ERS 인스턴스의 가상 IP 주소를 관리하기 위한 리소스 생성

애플리케이션 서버에서 ERS 인스턴스에 직접 액세스하지 않아도 SAP 관리 툴이 현재 실행 중인 HA 클러스터 노드의 ERS 인스턴스에 연결할 수 있도록 가상 IP가 필요합니다. 따라서 (A)SCS 인스턴스가 하나의 HA 클러스터 노드에서 다른 노드로 이동하는 경우 인스턴스에 할당된 VIP(가상 IP 주소)를 클러스터에서 이동해야 합니다.

이를 위해 VIP를 관리하는 리소스를 ERS 인스턴스 관리에 사용되는 리소스 그룹의 일부로 생성해야 합니다.

HA 클러스터가 실행 중인 플랫폼에 따라 가상 IP 주소를 관리하기 위해 적절한 리소스 에이전트를 사용하십시오. 

물리적 서버 또는 VM에서 IPaddr2 리소스 에이전트를 사용하여 리소스를 생성할 수 있습니다.

[root@node1]# pcs resource create s4h_vip_ers29 IPaddr2 ip=192.168.200.102 --group s4h_ERS29_group
Copy to Clipboard Toggle word wrap

4.6.2. ERS 인스턴스 디렉터리를 관리하기 위한 리소스 생성

SAP에서는 인스턴스 디렉터리를 인스턴스가 실행 중이어야 하는 HA 클러스터 노드에서만 사용할 수 있어야 하므로 인스턴스 디렉터리에 사용되는 파일 시스템을 관리하기 위해 HA 클러스터 리소스를 설정해야 합니다. 

참고

인스턴스 디렉터리가 NFS 에 저장되더라도 HA 클러스터가 SAP 인스턴스가 실행되어야 하는 HA 클러스터 노드에 NFS 내보내기만 마운트할 수 있도록 리소스를 생성해야 합니다.

4.6.2.1. NFS

ERS 인스턴스의 인스턴스 디렉터리가 NFS 에 있는 경우 다음 명령을 사용하여 ERS 인스턴스를 관리하기 위해 리소스 그룹의 일부로 관리할 리소스를 생성할 수 있습니다.

[root@node1]# pcs resource create s4h_fs_ers29 Filesystem device='<NFS_Server>:<s4h_ers29_nfs_share>' directory=/usr/sap/S4H/ERS29 fstype=nfs force_unmount=safe --group s4h_ERS29_group \
  op start interval=0 timeout=60 \
  op stop interval=0 timeout=120 \
  op monitor interval=200 timeout=40
Copy to Clipboard Toggle word wrap
4.6.2.2. HA-LVM

HA-LVM 을 사용하여 ERS 인스턴스의 인스턴스 디렉터리를 관리하는 경우 What is a Highly Available LVM (HA-LVM) configuration and how do I implement it? 의 지침에 따라 구성해야 합니다. .

먼저 LVM-activate 클러스터 리소스를 추가한 다음 Filesystem 클러스터 리소스를 추가해야 합니다.

[root@node1]# pcs resource create s4h_fs_ers29_lvm LVM-activate volgrpname='<ers_volume_group>' vg_access_mode=system_id --group s4h_ERS29_group

# pcs resource create s4h_fs_ers29 Filesystem device='/dev/mapper/<ers_logical_volume>' directory=/usr/sap/S4H/ERS29 fstype=ext4 --group s4h_ERS29_group
Copy to Clipboard Toggle word wrap

4.6.3. ERS 인스턴스를 관리하기 위한 리소스 생성

ERS 인스턴스 클러스터 리소스를 생성합니다.

[root@node1]# pcs resource create s4h_ers29 SAPInstance InstanceName="S4H_ERS29_rhers" START_PROFILE=/sapmnt/S4H/profile/S4H_ERS29_rhers AUTOMATIC_RECOVER=false IS_ERS=true --group s4h_ERS29_group \
  op monitor interval=20 on-fail=restart timeout=60 \
  op start interval=0 timeout=600 \
  op stop interval=0 timeout=600
Copy to Clipboard Toggle word wrap
참고

IS_ERS=true 속성은 ENSA1 배포에 필요합니다. IS_ERS 에 대한 자세한 내용은 How does the IS_ERS attribute work on a SAP NetWeaver cluster with Standalone Enqueue Server (ENSA1 and ENSA2)? 에서 확인할 수 있습니다.

4.7. 제약 조건 생성

4.7.1. (A)SCS 및 ERS 리소스 그룹에 대한 공동 배치 제약 조건 생성

리소스 그룹 s4h_ASCS20_groups4h_ERS29_group 은 동일한 노드에서 실행되지 않도록 해야 합니다. 그룹의 순서가 중요합니다.

[root@node1]# pcs constraint colocation add s4h_ERS29_group with s4h_ASCS20_group -5000
Copy to Clipboard Toggle word wrap

4.7.2. (A)SCS 리소스에 대한 위치 제한 조건 생성(ENSA1 만 해당)

ENSA1 을 사용하는 경우 장애 조치가 발생할 때 (A)SCS 인스턴스가 ERS 인스턴스가 실행 중인 노드로 이동하도록 해야 합니다.

[root@node1]# pcs constraint location s4h_ascs20 rule score=2000 runs_ers_S4H eq 1
Copy to Clipboard Toggle word wrap

4.7.3. (A)SCS 및 ERS 리소스 그룹에 대한 순서 제한 조건 생성

(A)SCS 인스턴스를 관리하기 위한 리소스 그룹이 시작된 후 ERS 인스턴스 관리를 위해 리소스 그룹을 중지하십시오. pacemaker에서 ERS 인스턴스 관리를 위해 리소스 그룹을 중지하는 동시에 (A)SCS 인스턴스를 관리하기 위해 리소스 그룹을 시작하도록 결정하는 경우:

[root@node1]# pcs constraint order start s4h_ASCS20_group then stop s4h_ERS29_group symmetrical=false kind=Optional
Copy to Clipboard Toggle word wrap
참고

symmetrical=falsekind=Optional 이 사용되므로 이 제약 조건이 적용되지 않는 상황이 발생할 수 있습니다. 자세한 내용은 클러스터 리소스가 실행되는 순서 결정을 참조하십시오.

공유 파일 시스템 /sapmnt 가 클러스터에서 관리하는 경우 다음 제약 조건은 /sapmnt 파일 시스템을 사용할 수 있는 후에만 (A)SCSERS 인스턴스를 관리하는 데 사용되는 리소스 그룹이 시작되도록 합니다.

[root@node1]# pcs constraint order s4h_fs_sapmnt-clone then s4h_ASCS20_group
[root@node1]# pcs constraint order s4h_fs_sapmnt-clone then s4h_ERS29_group
Copy to Clipboard Toggle word wrap

Oracle, IBM DB2, SAP ASE 또는 SAP MaxDB와 같은 레거시 데이터베이스를 계속 사용하는 SAP NetWeaver 기반 SAP 제품을 관리하기 위해 HA 클러스터를 사용하는 경우 클러스터에서 관리하는 데이터베이스 인스턴스도 사용할 수 있습니다. 

이 장에서는 SAPDatabase 리소스 에이전트와 가상 IP 주소와 필요한 파일 시스템을 사용하여 단일 데이터베이스 인스턴스를 관리하기 위한 리소스 그룹을 설정하는 방법을 보여줍니다.

이 장에서 설명하는 예제 설정에서는 SAPDatabase 리소스 에이전트를 S/4HANA 설정에 사용할 수 없기 때문에 S4H 대신 SAPSID RH1 을 사용합니다.

rh1_SAPDatabase_group 의 일부가 될 데이터베이스 인스턴스에 액세스하는 데 사용되는 가상 IP 주소를 관리하기 위한 리소스를 생성하려면 다음 명령을 사용합니다.

[root]# pcs resource create rh1_vip_db IPaddr2 ip=192.168.200.115 --group rh1_SAPDatabase_group
Copy to Clipboard Toggle word wrap

데이터베이스 인스턴스에서 사용하는 디렉터리는 데이터베이스 인스턴스를 실행해야 하는 HA 클러스터 노드에만 마운트할 수 있으므로 데이터베이스 인스턴스가 실수로 다른 시스템에서 시작될 수 있으므로 데이터가 손상될 수 있습니다. 

데이터베이스 인스턴스에서 사용하는 디렉터리를 관리하는 방법에 따라 데이터베이스 디렉터리를 관리하기 위한 리소스를 생성하는 다양한 방법을 사용해야 합니다. 

참고

인스턴스 디렉터리가 NFS 에 저장되더라도 HA 클러스터가 데이터베이스 인스턴스가 실행 중이어야 하는 HA 클러스터 노드에 NFS 내보내기만 마운트할 수 있도록 리소스를 생성해야 합니다.

4.8.2.1. NFS

데이터베이스 인스턴스에서 사용하는 디렉터리가 NFS 에 있는 경우 다음 명령을 사용하여 데이터베이스 인스턴스를 관리하기 위해 리소스 그룹의 일부로 관리할 리소스를 생성해야 합니다.

[root@node1]# pcs resource create rh1_fs_db Filesystem device='<NFS_Server>:<rh1_db_nfs_share>' directory=/sapdb/RH1 fstype=nfs force_unmount=safe --group rh1_SAPDatabase_group \
  op start interval=0 timeout=60 \
  op stop interval=0 timeout=120 \
  op monitor interval=200 timeout=40
Copy to Clipboard Toggle word wrap
4.8.2.2. HA-LVM

HA-LVM 을 사용하여 데이터베이스 인스턴스에서 사용하는 디렉토리를 관리하는 경우 자세한 내용은 What is a Highly Available LVM (HA-LVM) configuration and how do I implement it?.

먼저 LVM-activate 클러스터 리소스를 추가하고 파일 시스템 클러스터 리소스를 추가해야 합니다.

[root]# pcs resource create rh1_lvm_db LVM-activate  volgrpname=vg_db vg_access_mode=system_id --group rh1_SAPDatabase_group
[root]# pcs resource create rh1_fs_db Filesystem device=/dev/vg_db/lv_db directory=/sapdb/RH1 fstype=xfs --group rh1_SAPDatabase_group
Copy to Clipboard Toggle word wrap

데이터베이스 디렉터리에 여러 파일 시스템을 사용하는 경우 각각에 대해 별도의 파일 시스템 클러스터 리소스를 생성해야 합니다.

4.8.3. SAPDatabase 클러스터 리소스 구성

가상 IP 주소에 대한 리소스와 데이터베이스 인스턴스에 필요한 파일 시스템을 추가한 후 데이터베이스 인스턴스를 관리할 SAPDatabase 클러스터 리소스를 리소스 그룹에 추가할 수 있습니다.

[root]# pcs resource create rh1_SAPDatabase SAPDatabase DBTYPE="ADA" SID="RH1" STRICT_MONITORING="TRUE" AUTOMATIC_RECOVER="TRUE" --group rh1_SAPDatabase_group
Copy to Clipboard Toggle word wrap

이 섹션에서는 HA 클러스터에서 PAS 인스턴스를 관리해야 하는 경우 기본 애플리케이션 서버(PAS) 인스턴스 및 인스턴스 디렉터리의 관련 VIP 및 파일 시스템을 관리하기 위해 리소스 그룹을 구성하는 방법을 설명합니다. HA 클러스터에서 관리해야 하는 추가 애플리케이션 서버(AAS) 인스턴스에도 동일한 구성을 사용할 수 있습니다.

다른 애플리케이션 서버와 클라이언트가 HA 클러스터에서 관리하는 PAS/AAS 인스턴스로 허용하려면 PAS/AAS 인스턴스가 하나의 HA 클러스터 노드에서 다른 노드로 이동하는 경우 클러스터에 할당된 VIP(가상 IP 주소)를 이동해야 합니다.

이를 위해 VIP를 관리하는 리소스는 PAS/AAS 인스턴스를 관리하는 데 사용되는 리소스 그룹의 일부로 생성해야 합니다.

HA 클러스터가 실행 중인 플랫폼에 따라 가상 IP 주소를 관리하기 위해 적절한 리소스 에이전트를 사용하십시오.

물리적 서버 또는 VM에서 IPaddr2 리소스 에이전트를 사용하여 리소스를 생성할 수 있습니다.

[root@node1]# pcs resource create s4h_vip_pas_d21 IPaddr2 ip=192.168.200.103 --group s4h_PAS_D21_group
Copy to Clipboard Toggle word wrap

SAP에서는 인스턴스 디렉터리를 인스턴스가 실행 중이어야 하는 HA 클러스터 노드에서만 사용할 수 있어야 하므로 인스턴스 디렉터리에 사용되는 파일 시스템을 관리하기 위해 HA 클러스터 리소스를 설정해야 합니다. 

참고

인스턴스 디렉터리가 NFS 에 저장되더라도 HA 클러스터가 SAP 인스턴스가 실행되어야 하는 HA 클러스터 노드에 NFS 내보내기만 마운트할 수 있도록 리소스를 생성해야 합니다.

4.9.2.1. NFS

PAS/AAS 인스턴스의 인스턴스 디렉터리가 NFS 에 있는 경우 다음 명령을 사용하여 PAS/AAS 인스턴스를 관리하기 위해 리소스 그룹의 일부로 관리할 리소스를 생성할 수 있습니다.

[root@node1]# pcs resource create s4h_fs_pas_d21 Filesystem device='<NFS_Server>:<s4h_pas_d21_nfs_share>' directory=/usr/sap/S4H/D21 fstype=nfs force_unmount=safe --group s4h_PAS_D21_group \
  op start interval=0 timeout=60 \
  op stop interval=0 timeout=120 \
  op monitor interval=200 timeout=40
Copy to Clipboard Toggle word wrap
4.9.2.2. HA-LVM

HA-LVM 을 사용하여 PAS/AAS 인스턴스의 인스턴스 디렉토리를 관리하는 경우 What is a Highly Available LVM (HA-LVM) configuration and how do I implement it? 의 지침에 따라 구성해야 합니다. .

먼저 LVM-activate 클러스터 리소스를 추가하고 파일 시스템 클러스터 리소스를 추가해야 합니다.

[root@node1]# pcs resource create s4h_lvm_pas_d21 LVM-activate volgrpname=vg_d21 vg_access_mode=system_id --group s4h_PAS_D21_group
[root@node1]# pcs resource create s4h_fs_pas_d21 Filesystem device=/dev/vg_d21/lv_d21 directory=/usr/sap/S4H/D21 fstype=xfs --group s4h_PAS_D21_group
Copy to Clipboard Toggle word wrap

4.9.3. PAS/AAS SAPInstance 클러스터 리소스 구성

pacemakers에서 PAS 또는 AAS 인스턴스를 관리하려면 (A)SCS/ERS 인스턴스와 동일한 SAPInstance 리소스 에이전트를 사용할 수 있습니다. PAS/AAS 인스턴스는 간단한 인스턴스인 (A)SCS/ERS 인스턴스 설정에 비해 더 적은 속성을 구성해야 합니다. 

D21 인스턴스에 대한 PAS 인스턴스를 생성하는 방법에 대한 예제는 아래 명령을 확인하고 s4h_PAS_D21_group 리소스 그룹의 끝에 배치합니다.

[root@node1]# pcs resource create s4h_pas_d21 SAPInstance InstanceName="S4H_D21_s4h-pas" DIR_PROFILE=/sapmnt/S4H/profile START_PROFILE=/sapmnt/S4H/profile/S4H_D21_s4h-pas --group s4h_PAS_D21_group
Copy to Clipboard Toggle word wrap

4.9.4. 제약 조건 구성

4.9.4.1. PAS/AAS 리소스 그룹에 대한 순서 제한 조건 구성

PAS/AAS 인스턴스에는 제대로 시작하기 전에 (A)SCS 및 데이터베이스 인스턴스를 실행해야 합니다. 다음 섹션에서는 SAP NetWeaver / S/4HANA에서 사용할 수 있는 다양한 유형의 데이터베이스 인스턴스를 기반으로 필요한 제약 조건을 설정하는 방법을 보여줍니다.

4.9.4.1.1. s4h_SAPDatabase_group을 사용한 배포

클러스터 리소스 그룹이 한 개 있는 구성의 경우 데이터베이스에 필요한 모든 리소스를 시작합니다. 예를 들어 여기에서 SAPDatabase 리소스 에이전트는 데이터베이스를 관리하는 데 사용되며 데이터베이스 그룹 rh1_SAPDatabase_group 의 일부입니다. 아래 명령은 (A)SCS 인스턴스가 승격되고 데이터베이스 그룹 rh1_SAPDatabase_group 이 실행 중인 경우에만 전체 rh1_PAS_D21_group 을 시작하는 제약 조건을 생성합니다.

[root@node1]# pcs constraint order rh1_SAPDatabase_group then rh1_PAS_D21_group kind=Optional symmetrical=false
[root@node1]# pcs constraint order start rh1_ASCS20_group then rh1_PAS_D21_group kind=Optional symmetrical=false
Copy to Clipboard Toggle word wrap
4.9.4.1.2. 시스템 복제를 데이터베이스로 사용하여 SAP HANA로 배포

클러스터에서 관리하는 시스템 복제(SR)용으로 구성된 SAP HANA 데이터베이스를 사용하는 경우 다음 제약 조건은 전체 s4h_PAS_D21_group 그룹이 (A)SCS 인스턴스가 승격된 후 SAP HANA SAPHana_S4H_02-master 가 승격된 경우에만 시작되도록 합니다.

[root@node1]# pcs constraint order promote SAPHana_S4H_02-master then s4h_PAS_D21_group Kind=Optional symmetrical=false
[root@node1]# pcs constraint order start s4h_ASCS20_group then s4h_PAS_D21_group Kind=Optional symmetrical=false
Copy to Clipboard Toggle word wrap

두 노드가 실행될 때마다 PAS 및 AAS 인스턴스가 동일한 노드에서 실행되지 않도록 하려면 아래 명령을 사용하여 음수 공동 배치 제약 조건을 추가할 수 있습니다.

[root@node1]# pcs constraint colocation add s4h_AAS_D22_group with s4h_PAS_D21_group score=-1000
Copy to Clipboard Toggle word wrap

-1000 의 점수는 1개의 노드만 사용할 수 있는 경우 PAS/AAS 인스턴스가 나머지 1 노드에서 계속 실행되도록 하는 것입니다. 이러한 상황에서 AAS 인스턴스를 중단하려면 이 조건을 적용하는 score=-INFINITY 를 사용할 수 있습니다.

공유 파일 시스템 /sapmnt 가 클러스터에서 관리하는 경우 다음 제약 조건은 /sapmnt 파일 시스템을 사용할 수 있는 후에만 PAS/AAS 인스턴스 관리에 사용되는 리소스 그룹이 시작되도록 합니다.

[root@node1]# pcs constraint order s4h_fs_sapmnt-clone then s4h_PAS_D21_group
Copy to Clipboard Toggle word wrap

4.10. 독립 실행형 Enqueue Server 2(ENSA2) 다중 노드 클러스터(선택 사항)

ENSA2를 사용하는 SAP S/4HANA의 경우 두 개 이상의 HA 클러스터 노드를 사용하여 ASCSERS 인스턴스를 관리할 수 있습니다. 실행 중인 노드에 문제가 있는 경우 인스턴스가 장애 조치(failover)할 수 있도록 추가 클러스터 노드를 추가해야 하는 경우 다음 섹션의 지침을 사용하십시오. 

4.10.1. OS 설정

리소스, 서브스크립션, OS 구성 등 처음 두 노드와 동일한 노드를 생성합니다. 

이 예에서 노드의 호스트 이름은 node3입니다. 각 클러스터 노드의 /etc/hosts 파일에 모든 클러스터 노드의 호스트 이름 및 IP 주소와 HA 클러스터에서 관리하는 모든 SAP 인스턴스의 가상 호스트 이름 및 가상 IP 주소가 포함되어 있는지 확인합니다.

/etc/services 의 SAP 관련 항목을 처음 두 노드 중 하나에서 세 번째 노드로 복사하십시오.

4.10.2. 사용자 및 그룹 생성

다른 노드에서 사용되는 것과 동일한 SAP 인스턴스에 필요한 사용자 및 그룹을 만듭니다. 예를 들면 다음과 같습니다.

Groups in /etc/group:
sapsys:x:1010:
sapinst:x:1011:root,s4hadm

Users in /etc/passwd:
s4hadm:x:1020:1010:SAP System Administrator:/home/s4hadm:/bin/csh
sapadm:x:1001:1010:SAP System Administrator:/home/sapadm:/bin/false
Copy to Clipboard Toggle word wrap

4.10.3. 공유 파일 시스템의 로컬 디렉토리 및 마운트 지점 생성

추가 HA 클러스터 노드에서 실행할 수 있어야 하는 모든 인스턴스에 필요한 모든 마운트 지점을 생성합니다.

/sapmnt
/usr/sap/
/usr/sap/SYS/
/usr/sap/trans/
/usr/sap/S4H/
/usr/sap/S4H/ASCS20/
/usr/sap/S4H/ERS29/
/usr/sap/S4H/D<Ins#>/
Copy to Clipboard Toggle word wrap

모든 디렉터리에 대한 사용자 및 그룹 소유권을 다른 클러스터 노드에서와 동일한 사용자 및 그룹으로 설정하고 다른 클러스터 노드 중 하나에서 로컬 디렉터리(예: /usr/sap/SYS)의 콘텐츠를 복사하십시오.

/sapmnt/usr/sap/trans/etc/fstab 를 통해 기존 HA 클러스터 노드에 정적으로 마운트된 경우 이러한 파일 시스템도 추가 HA 클러스터 노드의 /etc/fstab 에 추가해야 하며 나중에 파일 시스템을 마운트해야 합니다.

/sapmnt/usr/sap/trans 가 클러스터에서 관리하는 경우 파일 시스템도 추가 HA 클러스터 노드에 마운트되도록 클러스터 구성을 업데이트해야 합니다.

노드가 클러스터에 참여하고 SAP 인스턴스를 관리하려면 필요한 패키지를 설치합니다.

[root@node3]# dnf install pcs pacemaker resource-agents-sap
Copy to Clipboard Toggle word wrap

4.10.5. 클러스터에 노드 추가

기존 클러스터의 한 노드에서 세 번째 노드를 추가합니다.

[root@node1]# pcs cluster auth node3
Username: hacluster
Password:

[root@node1]# pcs cluster node add node3
Copy to Clipboard Toggle word wrap

4.10.6. 3 번째 노드를 포함하도록 펜싱/STONITH 구성 업데이트

STONITH 설정에 따라 3rd HA 클러스터 노드를 포함하도록 STONITH 리소스를 업데이트해야 할 수 있습니다.

새 HA 클러스터 노드로 리소스를 이동하기 전에 다음 명령을 사용하여 기존 HA 클러스터 노드 중 하나에서 HA 클러스터 새 노드를 펜싱할 수 있는지 확인하십시오.

[root@node1]# pcs stonith fence node3
Copy to Clipboard Toggle word wrap

4.10.7. ERS 리소스 구성 업데이트

ERS 인스턴스가 시작된 노드에 남아 있고 클러스터 전체에서 마이그레이션되지 않도록 하려면 리소스에 대한 resource-stickiness 를 설정합니다.

[root@node1]# pcs resource meta s4h_ers29 \ resource-stickiness=3000
Copy to Clipboard Toggle word wrap

SAP 관리자가 SAP pointsscape Management (LaMa) 와 같은 툴을 사용하여 이 문서에 설명된 HA 클러스터 설정에 의해 제어되는 SAP 애플리케이션 서버 인스턴스를 관리하려면 HA 클러스터에서 관리하는 각 SAP 애플리케이션 서버 인스턴스에 대해 SAP HA 인터페이스를 활성화하여 HA 클러스터가 SAP 인스턴스 관리에 사용되는 클러스터 리소스에 영향을 미치는 모든 작업을 인식해야 합니다. 관리하는 SAP 앱 서버 인스턴스가 SAP LaMa를 통해 시작되거나 중지되는 경우 HA 클러스터에 알림을 받아야 합니다.

SAP HA 인터페이스를 구성하는 방법에 대한 자세한 내용은 RHEL HA 애드온에서 관리하는 SAP ABAP 애플리케이션 서버 인스턴스에 대한 SAP HA Interface 활성화 방법을 확인하십시오.

4.12. 부팅 시 클러스터가 자동으로 시작되도록 활성화 (선택 사항)

기본적으로 HA 클러스터는 OS 부팅 시 자동으로 시작되지 않으며 클러스터 노드를 펜싱 및 재부팅한 후 수동으로 시작해야 합니다.

다음 명령을 사용하여 모든 클러스터 노드에서 모든 클러스터 구성 요소의 자동 시작을 활성화할 수 있습니다.

[root@node1]# pcs cluster enable --all
Copy to Clipboard Toggle word wrap
참고

경우에 따라 노드를 재부팅한 후 클러스터를 자동으로 시작하지 않는 것이 좋습니다. 예를 들어 클러스터 리소스에 필요한 파일 시스템에 문제가 있는 경우 먼저 파일 시스템을 복구해야 다시 사용할 수 있습니다. 클러스터가 자동으로 시작되지만 파일 시스템이 작동하지 않아 실패하면 더 많은 문제가 발생할 수 있습니다.

5장. 클러스터 구성 테스트

HA 클러스터 설정을 프로덕션에 배치하기 전에 HA 클러스터 설정이 예상대로 작동하는지 확인하려면 다음 테스트를 수행하는 것이 좋습니다.

이러한 테스트는 나중에 일반 HA/DR 드릴의 일부로 반복되어 클러스터가 여전히 예상대로 작동하는지 확인하고, 관리자가 정상적인 작업 중에 문제가 발생하는 경우 또는 설정의 수동 유지 관리가 필요한 경우 시스템을 정상 상태로 되돌리는 데 필요한 절차에 익숙하게 유지해야 합니다.

5.1. pcs 명령을 사용하여 수동으로 ASCS 인스턴스 이동

pacemaker 클러스터가 필요한 다른 HA 클러스터 노드로 인스턴스를 이동할 수 있는지 확인하려면 다음을 수행합니다.

  • 테스트 사전 조건

    • 두 클러스터 노드 모두 up이며, ASCSERS 의 리소스 그룹이 다른 HA 클러스터 노드에서 실행됩니다.

        * Resource Group: S4H_ASCS20_group:
          * S4H_lvm_ascs20    (ocf:heartbeat:LVM-activate):    Started node1
          * S4H_fs_ascs20     (ocf:heartbeat:Filesystem): Started node1
          * S4H_vip_ascs20    (ocf:heartbeat:IPaddr2):         Started node1
          * S4H_ascs20        (ocf:heartbeat:SAPInstance):     Started node1
        * Resource Group: S4H_ERS29_group:
          * S4H_lvm_ers29     (ocf:heartbeat:LVM-activate):    Started node2
          * S4H_fs_ers29 (ocf:heartbeat:Filesystem): Started node2
          * S4H_vip_ers29     (ocf:heartbeat:IPaddr2):         Started node2
          * S4H_ers29 (ocf:heartbeat:SAPInstance):     Started node2
      Copy to Clipboard Toggle word wrap
    • 리소스 및 리소스 그룹에 대한 모든 오류가 삭제되고 failcount가 재설정되었습니다.
  • 테스트 작업

    • 모든 노드에서 다음 명령을 실행하여 ASCS 인스턴스를 다른 HA 클러스터 노드로 이동합니다.

      [root@node1]# pcs resource move S4H_ascs20
      Copy to Clipboard Toggle word wrap
  • 모니터링

    • 테스트 중에 별도의 터미널에서 다음 명령을 실행합니다.

      [root@node2]# watch -n 1 pcs status
      Copy to Clipboard Toggle word wrap
  • 예상 동작

    • ASCS 리소스 그룹이 다른 노드로 이동됩니다.
    • ERS 리소스 그룹은 이 작업을 중지한 후 ASCS 리소스 그룹이 실행된 노드로 이동합니다.
  • 테스트 결과

    • ASCS 리소스 그룹은 다른 노드로 이동합니다. 이 시나리오에서는 node2 및 ERS 리소스 그룹이 노드 node1로 이동합니다.

        * Resource Group: S4H_ASCS20_group:
          * S4H_lvm_ascs20 (ocf:heartbeat:LVM-activate): Started node2
          * S4H_fs_ascs20 (ocf:heartbeat:Filesystem): Started node2
          * S4H_vip_ascs20 (ocf:heartbeat:IPaddr2): Started node2
          * S4H_ascs20 (ocf:heartbeat:SAPInstance): Started node2
        * Resource Group: S4H_ERS29_group:
          * S4H_lvm_ers29 (ocf:heartbeat:LVM-activate): Started node1
          * S4H_fs_ers29 (ocf:heartbeat:Filesystem): Started node1
          * S4H_vip_ers29 (ocf:heartbeat:IPaddr2): Started node1
          * S4H_ers29 (ocf:heartbeat:SAPInstance): Started node1
      Copy to Clipboard Toggle word wrap
  • 복구 작업:

    • 다음과 같은 경우 위치 제약 조건을 제거합니다.

      [root@node1]# pcs resource clear S4H_ascs20
      Copy to Clipboard Toggle word wrap

인스턴스에 SAP HA 인터페이스가 활성화된 경우 sapcontrol 명령이 인스턴스를 다른 HA 클러스터 노드로 이동할 수 있는지 확인하려면 다음을 수행합니다.

  • 테스트 사전 조건

    • SAP 인스턴스에 대해 SAP HA 인터페이스가 활성화되어 있습니다.
    • 두 클러스터 노드 모두 ASCSERS 실행의 리소스 그룹을 사용합니다.

      [root@node2: ~]# pcs status | egrep -e "S4H_ascs20|S4H_ers29"
           * S4H_ascs20 (ocf:heartbeat:SAPInstance): Started node2
           * S4H_ers29 (ocf:heartbeat:SAPInstance): Started node1
      Copy to Clipboard Toggle word wrap
    • 리소스 및 리소스 그룹에 대한 모든 오류가 삭제되고 failcount가 재설정되었습니다.
  • 테스트 작업

    • &lt ;sid>adm 사용자로 sapcontrolHAFailoverToNode 함수를 실행하여 ASCS 인스턴스를 다른 노드로 이동합니다.
  • 모니터링

    • 테스트 중에 별도의 터미널에서 다음 명령을 실행합니다.

      [root@node2]# watch -n 1 pcs status
      Copy to Clipboard Toggle word wrap
  • 예상 동작

    • ASCS 인스턴스는 다른 HA 클러스터 노드로 이동하여 이동을 완료하기 위해 임시 위치 제약 조건을 생성해야 합니다.
  • 테스트

    [root@node2]# su - s4hadm
    node2:s4hadm 52> sapcontrol -nr 20 -function HAFailoverToNode ""
    
    06.12.2023 12:57:04
    HAFailoverToNode
    OK
    Copy to Clipboard Toggle word wrap
  • 테스트 결과

    • ASCSERS 는 모두 다른 노드로 이동합니다.

      [root@node2]# pcs status | egrep -e "S4H_ascs20|S4H_ers29"
          * S4H_ascs20 (ocf:heartbeat:SAPInstance): Started node1
          * S4H_ers29 (ocf:heartbeat:SAPInstance): Started node2
      Copy to Clipboard Toggle word wrap
    • 제약 조건은 다음과 같이 생성됩니다.

      [root@node1]# pcs constraint
      Location Constraints:
        Resource: S4H_ASCS20_group
          Constraint: cli-ban-S4H_ASCS20_group-on-node2
            Rule: boolean-op=and score=-INFINITY
              Expression: #uname eq string node1
              Expression: date lt xxxx-xx-xx xx:xx:xx +xx:xx
      Copy to Clipboard Toggle word wrap
  • 복구 작업

    • 위에 표시된 제약 조건은 표현식에 언급된 date lt 에 도달하면 자동으로 삭제됩니다.
    • 또는 다음 명령을 사용하여 제약 조건을 제거할 수 있습니다.

      [root@node1]# pcs resource clear S4H_ascs20
      Copy to Clipboard Toggle word wrap

5.3. ASCS 인스턴스의 실패 테스트

ASCS 인스턴스의 enqueue 서버 또는 전체 ASCS 인스턴스가 실패하는 경우 pacemaker 클러스터가 필요한 작업을 수행하는지 확인하려면 다음을 수행하십시오.

  • 테스트 사전 조건

    • 두 클러스터 노드 모두 ASCSERS 실행의 리소스 그룹을 사용합니다.

      [root@node2]# pcs status | egrep -e "S4H_ascs20|S4H_ers29"
          * S4H_ascs20 (ocf:heartbeat:SAPInstance): Started node1
          * S4H_ers29 (ocf:heartbeat:SAPInstance): Started node2
      Copy to Clipboard Toggle word wrap
    • 리소스 및 리소스 그룹에 대한 모든 오류가 삭제되고 failcount가 재설정되었습니다.
  • 테스트 작업

    • ASCS 가 실행 중인 노드에서 enqueue 서버의 PID 를 식별합니다.
    • 식별된 프로세스에 SIGKILL 신호를 보냅니다.
  • 모니터링

    • 테스트 중에 별도의 터미널에서 다음 명령을 실행합니다.

      [root@node2]# watch -n 1 pcs status
      Copy to Clipboard Toggle word wrap
  • 예상 동작

    • Enqueue 서버 프로세스가 종료됩니다.
    • pacemaker 클러스터는 설정에 따라 필요한 작업을 수행합니다. 이 경우 ASCS 를 다른 노드로 이동합니다.
  • 테스트

    • ASCS실행 중인 노드에서 <sid>adm 사용자로 전환합니다.

      [root@node1]# su - s4hadm
      Copy to Clipboard Toggle word wrap
    • en.sap(NetWeaver) enq.sap(S/4HANA)의 PID를 식별합니다.

      node1:s4hadm 51> pgrep -af "(en|enq).sap"
      31464 enq.sapS4H_ASCS20 pf=/usr/sap/S4H/SYS/profile/S4H_ASCS20_s4ascs
      Copy to Clipboard Toggle word wrap
    • 식별된 프로세스를 종료합니다.

      node1:s4hadm 52> kill -9 31464
      Copy to Clipboard Toggle word wrap
    • 클러스터에 실패한 리소스 작업을 확인합니다.

      [root@node2]# pcs status | grep "Failed Resource Actions" -A1
      Failed Resource Actions:
        * S4H_ascs20 2m-interval monitor on node1 returned 'not running' at Wed Dec  6 15:37:24 2023
      Copy to Clipboard Toggle word wrap
    • ASCSERS 는 다른 노드로 이동합니다.

      [root@node2]# pcs status | egrep -e "S4H_ascs20|S4H_ers29"
          * S4H_ascs20 (ocf:heartbeat:SAPInstance): Started node2
          * S4H_ers29 (ocf:heartbeat:SAPInstance): Started node1
        * S4H_ascs20 2m-interval monitor on node1 returned 'not running' at Wed Dec  6 15:37:24 2023
      Copy to Clipboard Toggle word wrap
  • 복구 작업

    • 실패한 작업을 지웁니다.

      [root@node2]# pcs resource cleanup S4H_ascs20
      …
      Waiting for 1 reply from the controller
      ... got reply (done)
      Copy to Clipboard Toggle word wrap

5.4. ERS 인스턴스 실패 테스트

ASCS 인스턴스의 enqueue 복제 서버(ERS)가 실패할 때 pacemaker 클러스터가 필요한 작업을 수행하는지 확인하려면 다음을 수행하십시오.

  • 테스트 사전 조건

    • 두 클러스터 노드 모두 ASCSERS 실행의 리소스 그룹을 사용합니다.

      [root@node1]# pcs status | egrep -e "S4H_ascs20|S4H_ers29"
          * S4H_ascs20	(ocf:heartbeat:SAPInstance):	 Started node2
          * S4H_ers29	(ocf:heartbeat:SAPInstance):	 Started node1
      Copy to Clipboard Toggle word wrap
    • 리소스 및 리소스 그룹에 대한 모든 오류가 삭제되고 failcount가 재설정되었습니다.
  • 테스트 작업

    • ERS 인스턴스가 실행 중인 노드에서 인큐 복제 서버 프로세스의 PID를 식별합니다.
    • 식별된 프로세스에 SIGKILL 신호를 보냅니다.
  • 모니터링

    • 테스트 중에 별도의 터미널에서 다음 명령을 실행합니다.

      [root@node2]# watch -n 1 pcs status
      Copy to Clipboard Toggle word wrap
  • 예상 동작

    • 복제 서버 프로세스가 종료됩니다.Enqueue replication server process is killed.
    • Pacemaker 클러스터는 구성별로 필요한 작업을 수행합니다. 이 경우 동일한 노드에서 ERS 인스턴스를 다시 시작합니다.
  • 테스트

    • < sid>adm 사용자로 전환합니다.

      [root@node1]# su - s4hadm
      Copy to Clipboard Toggle word wrap
    • enqr.sap:의 PID를 식별합니다.

      node1:s4hadm 56> pgrep -af enqr.sap
      532273 enqr.sapS4H_ERS29 pf=/usr/sap/S4H/SYS/profile/S4H_ERS29_s4ers
      Copy to Clipboard Toggle word wrap
    • 식별된 프로세스를 종료합니다.

      node1:s4hadm 58> kill -9 532273
      Copy to Clipboard Toggle word wrap
    • 클러스터 "Failed Resource Actions"를 확인합니다.

      [root@node1]# pcs status | grep "Failed Resource Actions" -A1
      Failed Resource Actions:
        * S4H_ers29 2m-interval monitor on node1 returned 'not running' at Thu Dec  7 13:15:02 2023
      Copy to Clipboard Toggle word wrap
    • ERS 는 다른 노드에서 이미 실행중인 ASCS 를 방해하지 않고 동일한 노드에서 다시 시작합니다.

      [root@node1]# pcs status | egrep -e "S4H_ascs20|S4H_ers29"
          * S4H_ascs20	(ocf:heartbeat:SAPInstance):	 Started node2
          * S4H_ers29	(ocf:heartbeat:SAPInstance):	 Started node1
        * S4H_ers29 2m-interval monitor on node1 returned 'not running' at Thu Dec  7 13:15:02 2023
      Copy to Clipboard Toggle word wrap
  • 복구 작업

    • 실패한 작업을 지웁니다.

      [root@node1]# pcs resource cleanup S4H_ers29
      …
      Waiting for 1 reply from the controller
      ... got reply (done)
      Copy to Clipboard Toggle word wrap

5.5. 노드 충돌로 인한 ASCS 인스턴스 장애 조치

노드 충돌 시 ASCS 인스턴스가 올바르게 이동하는지 확인하려면 다음을 수행하십시오.

  • 테스트 사전 조건

    • 두 클러스터 노드 모두 ASCSERS 실행의 리소스 그룹을 사용합니다.

      [root@node1]# pcs status | egrep -e "S4H_ascs20|S4H_ers29"
          * S4H_ascs20	(ocf:heartbeat:SAPInstance):	 Started node2
          * S4H_ers29	(ocf:heartbeat:SAPInstance):	 Started node1
      Copy to Clipboard Toggle word wrap
    • 리소스 및 리소스 그룹에 대한 모든 오류가 삭제되고 failcount가 재설정되었습니다.
  • 테스트 작업

    • ASCS 가 실행 중인 노드를 충돌합니다.
  • 모니터링

    • 테스트 중에 다른 노드의 별도의 터미널에서 다음 명령을 실행합니다.

      [root@node1]# watch -n 1 pcs status
      Copy to Clipboard Toggle word wrap
  • 예상 동작

    • ASCS 가 실행 중인 노드가 충돌하고 구성별로 종료되면 종료되거나 다시 시작됩니다.
    • 한편 ASCS 는 다른 노드로 이동합니다.
    • ERS 는 다시 온라인 상태가 된 후 이전에 충돌한 노드에서 시작됩니다.
  • 테스트

    • ASCS 가 실행 중인 노드에서 root 사용자로 다음 명령을 실행합니다.

      [root@node2]# echo c > /proc/sysrq-trigger
      Copy to Clipboard Toggle word wrap
    • ASCS 는 다른 노드로 이동합니다.

      [root@node1]# pcs status | egrep -e "S4H_ascs20|S4H_ers29"
          * S4H_ascs20	(ocf:heartbeat:SAPInstance):	 Started node1
          * S4H_ers29	(ocf:heartbeat:SAPInstance):	 Started node1
      Copy to Clipboard Toggle word wrap
    • ERS 는 온라인 상태가 되면 이전에 중단된 노드를 중지하고 이동합니다.

      [root@node1]# pcs status | egrep -e "S4H_ascs20|S4H_ers29"
          * S4H_ascs20	(ocf:heartbeat:SAPInstance):	 Started node1
          * S4H_ers29	(ocf:heartbeat:SAPInstance):	 Stopped
      
      
      [root@node1]# pcs status | egrep -e "S4H_ascs20|S4H_ers29"
          * S4H_ascs20	(ocf:heartbeat:SAPInstance):	 Started node1
          * S4H_ers29	(ocf:heartbeat:SAPInstance):	 Started node2
      Copy to Clipboard Toggle word wrap
  • 복구 작업

    • 다음과 같은 경우 실패한 작업을 정리합니다.

      [root@node1]# pcs resource cleanup
      Copy to Clipboard Toggle word wrap

5.6. 노드 충돌로 인한 ERS 인스턴스 실패

동일한 노드에서 ERS 인스턴스가 다시 시작되었는지 확인하려면 다음을 수행합니다.

  • 테스트 사전 조건

    • 두 클러스터 노드 모두 ASCSERS 실행의 리소스 그룹을 사용합니다.

      [root@node1]# pcs status | egrep -e "S4H_ascs20|S4H_ers29"
          * S4H_ascs20	(ocf:heartbeat:SAPInstance):	 Started node1
          * S4H_ers29	(ocf:heartbeat:SAPInstance):	 Started node2
      Copy to Clipboard Toggle word wrap
    • 리소스 및 리소스 그룹에 대한 모든 오류가 삭제되고 failcount가 재설정되었습니다.
  • 테스트 작업

    • ERS 가 실행 중인 노드를 충돌합니다.
  • 모니터링

    • 테스트 중에 다른 노드의 별도의 터미널에서 다음 명령을 실행합니다.

      [root@nod1]# watch -n 1 pcs status
      Copy to Clipboard Toggle word wrap
  • 예상 동작

    • ERS 가 실행 중인 노드가 충돌하고 구성별로 종료되면 종료되거나 다시 시작됩니다.
    • 한편 ASCS 는 다른 노드로 계속 실행됩니다. ERS 가 다시 온라인 상태가 되면 충돌이 발생한 노드에서 다시 시작됩니다.
  • 테스트

    • ERS 가 실행 중인 노드에서 root 사용자로 다음 명령을 실행합니다.

      [root@node2]# echo c > /proc/sysrq-trigger
      Copy to Clipboard Toggle word wrap
    • ERS 는 테스트 전체에서 ASCS 인스턴스를 방해하지 않고 다시 온라인 상태가 되면 충돌이 발생한 노드에서 다시 시작됩니다.

      [root@node1]# pcs status | egrep -e "S4H_ascs20|S4H_ers29"
          * S4H_ascs20	(ocf:heartbeat:SAPInstance):	 Started node1
          * S4H_ers29	(ocf:heartbeat:SAPInstance):	 Started node2
      Copy to Clipboard Toggle word wrap
  • 복구 작업

    • 다음과 같은 경우 실패한 작업을 정리합니다.

      [root@node2]# pcs resource cleanup
      Copy to Clipboard Toggle word wrap

5.7. 노드 충돌로 인한 ASCS 인스턴스 장애 (ENSA2)

노드 ENSA 2 클러스터 환경이 3개인 경우 모든 인스턴스의 장애 조치(failover) 이벤트 중에 세 번째 노드가 고려됩니다.

  • 테스트 사전 조건

    • ASCSERS 실행의 리소스 그룹이 있는 3개의 노드 SAP S/4HANA 클러스터.
    • 3rd 노드는 모든 파일 시스템에 액세스할 수 있으며 첫 번째 2 노드와 동일한 방식으로 필요한 인스턴스별 IP 주소를 프로비저닝할 수 있습니다.
    • 예제 설정에서 기본 공유 NFS 파일 시스템은 다음과 같습니다.

      Node List:
        * Online: [ node1 node2 node3 ]
      
      Active Resources:
        * s4r9g2_fence        (stonith:fence_rhevm):   Started node1
        * Clone Set: s4h_fs_sapmnt-clone [fs_sapmnt]:
          * Started: [ node1 node2 node3 ]
        * Clone Set: s4h_fs_sap_trans-clone [fs_sap_trans]:
          * Started: [ node1 node2 node3 ]
        * Clone Set: s4h_fs_sap_SYS-clone [fs_sap_SYS]:
          * Started: [ node1 node2 node3 ]
        * Resource Group: S4H_ASCS20_group:
          * S4H_lvm_ascs20    (ocf:heartbeat:LVM-activate):    Started node1
          * S4H_fs_ascs20     (ocf:heartbeat:Filesystem):	 Started node1
          * S4H_vip_ascs20    (ocf:heartbeat:IPaddr2):         Started node1
          * S4H_ascs20        (ocf:heartbeat:SAPInstance):     Started node1
        * Resource Group: S4H_ERS29_group:
          * S4H_lvm_ers29     (ocf:heartbeat:LVM-activate):    Started node2
          * S4H_fs_ers29	(ocf:heartbeat:Filesystem):	 Started node2
          * S4H_vip_ers29     (ocf:heartbeat:IPaddr2):         Started node2
          * S4H_ers29 (ocf:heartbeat:SAPInstance):     Started node2
      Copy to Clipboard Toggle word wrap
    • 리소스 및 리소스 그룹에 대한 모든 오류가 삭제되고 failcount가 재설정되었습니다.
  • 테스트 작업

    • ASCS 가 실행 중인 노드를 충돌합니다.
  • 모니터링

    • 테스트 중에 현재 ASCS 그룹이 실행되지 않는 노드 중 하나에서 별도의 터미널에서 다음 명령을 실행합니다.

      [root@node2]# watch -n 1 pcs status
      Copy to Clipboard Toggle word wrap
  • 예상 동작

    • ASCS 는 3rd 노드로 이동합니다.
    • ERS 는 이미 실행 중인 노드와 동일한 노드에서 계속 실행됩니다.
  • 테스트

    • ASCS 그룹이 현재 실행중인 노드를 충돌합니다.

      [root@node1]# echo c > /proc/sysrq-trigger
      Copy to Clipboard Toggle word wrap
    • ASCS 는 두 번째 노드에서 이미 실행 중인 ERS 인스턴스를 방해하지 않고 3 번째 노드로 이동합니다.

      [root@node2]# pcs status | egrep -e "S4H_ascs20|S4H_ers29"
          * S4H_ascs20	(ocf:heartbeat:SAPInstance):	 Started node3
          * S4H_ers29	(ocf:heartbeat:SAPInstance):	 Started node2
      Copy to Clipboard Toggle word wrap
  • 복구 작업

    • 다음과 같은 경우 실패한 작업을 정리합니다.

      [root@node2]# pcs resource cleanup
      Copy to Clipboard Toggle word wrap

6장. 유지 관리 절차

6.1. RHEL 및 RHEL HA 애드온 업데이트

자세한 내용은 Recommendations: RHEL High Availability 클러스터에서 패키지 업데이트를 적용합니다.

참고

2-노드 클러스터 설정의 경우 HA 클러스터 노드를 대기 모드에 배치하기 전에 리소스를 다른 HA 클러스터 노드로 수동으로 이동할 필요가 없습니다(HA 클러스터 노드에서 대기 모드의 HA 클러스터 노드를 처리하면 HA 클러스터 구성을 기반으로 HA 클러스터 노드에서 실행되는 리소스를 이동하거나 중지해야 합니다).

또한 SAP 시스템의 다운타임을 최소화하려면 먼저 ERS 인스턴스와 같이 "중요한" 리소스를 실행하는 HA 클러스터 노드를 업데이트하는 것이 좋습니다. HA 클러스터 노드가 업데이트되고 업데이트가 시작되기 전에 노드에서 실행 중인 리소스가 다시 실행되는 것을 확인하면 (A)SCS 인스턴스와 같은 "심각" 리소스를 실행하는 다른 HA 클러스터 노드도 업데이트할 수 있습니다. 

7장. 참고 자료

7.1. Red Hat

7.2. SAP

법적 공지

Copyright © 2025 Red Hat, Inc.
The text of and illustrations in this document are licensed by Red Hat under a Creative Commons Attribution–Share Alike 3.0 Unported license ("CC-BY-SA"). An explanation of CC-BY-SA is available at http://creativecommons.org/licenses/by-sa/3.0/. In accordance with CC-BY-SA, if you distribute this document or an adaptation of it, you must provide the URL for the original version.
Red Hat, as the licensor of this document, waives the right to enforce, and agrees not to assert, Section 4d of CC-BY-SA to the fullest extent permitted by applicable law.
Red Hat, Red Hat Enterprise Linux, the Shadowman logo, the Red Hat logo, JBoss, OpenShift, Fedora, the Infinity logo, and RHCE are trademarks of Red Hat, Inc., registered in the United States and other countries.
Linux® is the registered trademark of Linus Torvalds in the United States and other countries.
Java® is a registered trademark of Oracle and/or its affiliates.
XFS® is a trademark of Silicon Graphics International Corp. or its subsidiaries in the United States and/or other countries.
MySQL® is a registered trademark of MySQL AB in the United States, the European Union and other countries.
Node.js® is an official trademark of Joyent. Red Hat is not formally related to or endorsed by the official Joyent Node.js open source or commercial project.
The OpenStack® Word Mark and OpenStack logo are either registered trademarks/service marks or trademarks/service marks of the OpenStack Foundation, in the United States and other countries and are used with the OpenStack Foundation's permission. We are not affiliated with, endorsed or sponsored by the OpenStack Foundation, or the OpenStack community.
All other trademarks are the property of their respective owners.
Red Hat logoGithubredditYoutubeTwitter

자세한 정보

평가판, 구매 및 판매

커뮤니티

Red Hat 문서 정보

Red Hat을 사용하는 고객은 신뢰할 수 있는 콘텐츠가 포함된 제품과 서비스를 통해 혁신하고 목표를 달성할 수 있습니다. 최신 업데이트를 확인하세요.

보다 포괄적 수용을 위한 오픈 소스 용어 교체

Red Hat은 코드, 문서, 웹 속성에서 문제가 있는 언어를 교체하기 위해 최선을 다하고 있습니다. 자세한 내용은 다음을 참조하세요.Red Hat 블로그.

Red Hat 소개

Red Hat은 기업이 핵심 데이터 센터에서 네트워크 에지에 이르기까지 플랫폼과 환경 전반에서 더 쉽게 작업할 수 있도록 강화된 솔루션을 제공합니다.

Theme

© 2026 Red Hat
맨 위로 이동