30.2. Pacemaker를 사용하여 다중 사이트 클러스터 구성
다음 절차에 따라 Booth 티켓 관리자를 사용하는 다중 사이트 구성을 구성할 수 있습니다.
이 예제 명령은 다음 정렬을 사용합니다.
-
클러스터 1은 cluster
1-node1 및노드로 구성됩니다.cluster1-node2 - 클러스터 1에는 192.168.11.100의 유동 IP 주소가 할당되어 있습니다.
-
클러스터 2는
cluster2-node1 및 cluster2-node2로 구성됩니다. - 클러스터 2에는 192.168.22.100의 유동 IP 주소가 할당되어 있습니다.
-
중재자 노드는 IP 주소가 192.168.99.100인 schedulerator
-node입니다. -
이 구성이 사용하는 Booth 티켓의 이름은
apacheticket입니다.
이러한 예제 명령은 Apache 서비스의 클러스터 리소스가 각 클러스터에 대해 apachegroup 리소스 그룹의 일부로 구성되어 있다고 가정합니다. 각 클러스터에 대한 Pacemaker 인스턴스가 독립적이지만 이는 일반적인 페일오버 시나리오이기 때문에 해당 리소스에 대한 티켓 제약 조건을 구성하기 위해 각 클러스터에서 리소스와 리소스 그룹이 동일할 필요는 없습니다.
구성 절차 중 언제든지 pcs booth config 명령을 입력하여 현재 노드 또는 클러스터 또는 pcs booth status 명령의 부스 구성을 표시하여 로컬 노드의 현재 상태를 표시할 수 있습니다.
절차
두 클러스터의 각 노드에
부스-사이트부트 티켓 관리자 패키지를 설치합니다.yum install -y booth-site yum install -y booth-site yum install -y booth-site yum install -y booth-site
[root@cluster1-node1 ~]# yum install -y booth-site [root@cluster1-node2 ~]# yum install -y booth-site [root@cluster2-node1 ~]# yum install -y booth-site [root@cluster2-node2 ~]# yum install -y booth-siteCopy to Clipboard Copied! Toggle word wrap Toggle overflow 중재자 노드에
pcs,booth-core및booth-Abitrator패키지를 설치합니다.yum install -y pcs booth-core booth-arbitrator
[root@arbitrator-node ~]# yum install -y pcs booth-core booth-arbitratorCopy to Clipboard Copied! Toggle word wrap Toggle overflow firewalld데몬을 실행하는 경우 중재자 노드뿐 아니라 모든 노드에서 다음 명령을 실행하여 Red Hat High Availability Add-On에 필요한 포트를 활성화합니다.firewall-cmd --permanent --add-service=high-availability firewall-cmd --add-service=high-availability
# firewall-cmd --permanent --add-service=high-availability # firewall-cmd --add-service=high-availabilityCopy to Clipboard Copied! Toggle word wrap Toggle overflow 로컬 조건에 맞게 열려 있는 포트를 수정해야 할 수도 있습니다. Red Hat High-Availability Add-On에 필요한 포트에 대한 자세한 내용은 고가용성 애드온의 포트 활성화를 참조하십시오.
하나의 클러스터의 한 노드에 부트 구성을 생성합니다. 각 클러스터에 대해 지정하는 주소 및 중재자의 주소는 IP 주소여야 합니다. 각 클러스터에 대해 유동 IP 주소를 지정합니다.
[cluster1-node1 ~] # pcs booth setup sites 192.168.11.100 192.168.22.100 arbitrators 192.168.99.100
[cluster1-node1 ~] # pcs booth setup sites 192.168.11.100 192.168.22.100 arbitrators 192.168.99.100Copy to Clipboard Copied! Toggle word wrap Toggle overflow 이 명령은 실행되는 노드에 구성 파일
/etc/booth/booth.conf및/etc/booth/booth.key를 만듭니다.Booth 구성에 대한 티켓을 만듭니다. 이 티켓이 클러스터에 부여된 경우에만 리소스를 실행할 수 있는 리소스 제한 조건을 정의하는 데 사용할 티켓입니다.
이 기본 페일오버 구성 프로시저는 하나의 티켓만 사용하지만, 각 티켓이 다른 리소스 또는 리소스와 연결된 더 복잡한 시나리오에 대해 추가 티켓을 생성할 수 있습니다.
[cluster1-node1 ~] # pcs booth ticket add apacheticket
[cluster1-node1 ~] # pcs booth ticket add apacheticketCopy to Clipboard Copied! Toggle word wrap Toggle overflow Booth 구성을 현재 클러스터의 모든 노드에 동기화합니다.
[cluster1-node1 ~] # pcs booth sync
[cluster1-node1 ~] # pcs booth syncCopy to Clipboard Copied! Toggle word wrap Toggle overflow 중재자 노드에서 Booth 구성을 중재자로 가져옵니다. 아직 수행하지 않은 경우 먼저 구성을 가져오는 노드에
pcs를인증해야 합니다.[arbitrator-node ~] # pcs host auth cluster1-node1 [arbitrator-node ~] # pcs booth pull cluster1-node1
[arbitrator-node ~] # pcs host auth cluster1-node1 [arbitrator-node ~] # pcs booth pull cluster1-node1Copy to Clipboard Copied! Toggle word wrap Toggle overflow Booth 구성을 다른 클러스터로 가져와 해당 클러스터의 모든 노드와 동기화합니다. 중재자 노드와 마찬가지로, 이전에 수행하지 않은 경우 먼저 구성을 가져오는
노드에 pcs를 인증해야 합니다.[cluster2-node1 ~] # pcs host auth cluster1-node1 [cluster2-node1 ~] # pcs booth pull cluster1-node1 [cluster2-node1 ~] # pcs booth sync
[cluster2-node1 ~] # pcs host auth cluster1-node1 [cluster2-node1 ~] # pcs booth pull cluster1-node1 [cluster2-node1 ~] # pcs booth syncCopy to Clipboard Copied! Toggle word wrap Toggle overflow 중재자에서 부트를 시작하고 활성화합니다.
참고Booth는 해당 클러스터에서 Pacemaker 리소스로 실행되므로 클러스터의 노드에서 Booth를 수동으로 시작하거나 활성화해서는 안 됩니다.
[arbitrator-node ~] # pcs booth start [arbitrator-node ~] # pcs booth enable
[arbitrator-node ~] # pcs booth start [arbitrator-node ~] # pcs booth enableCopy to Clipboard Copied! Toggle word wrap Toggle overflow 각 클러스터에 할당된 유동 IP 주소를 사용하여 두 클러스터 사이트에서 클러스터 리소스로 실행되도록 Booth를 구성합니다. 이 그룹의 구성원으로서
부스-IP 및부스-서비스가있는 리소스 그룹을 만듭니다.[cluster1-node1 ~] # pcs booth create ip 192.168.11.100 [cluster2-node1 ~] # pcs booth create ip 192.168.22.100
[cluster1-node1 ~] # pcs booth create ip 192.168.11.100 [cluster2-node1 ~] # pcs booth create ip 192.168.22.100Copy to Clipboard Copied! Toggle word wrap Toggle overflow 각 클러스터에 대해 정의한 리소스 그룹에 티켓 제한 조건을 추가합니다.
[cluster1-node1 ~] # pcs constraint ticket add apacheticket apachegroup [cluster2-node1 ~] # pcs constraint ticket add apacheticket apachegroup
[cluster1-node1 ~] # pcs constraint ticket add apacheticket apachegroup [cluster2-node1 ~] # pcs constraint ticket add apacheticket apachegroupCopy to Clipboard Copied! Toggle word wrap Toggle overflow 다음 명령을 입력하여 현재 구성된 티켓 제약 조건을 표시할 수 있습니다.
pcs constraint ticket [show]
pcs constraint ticket [show]Copy to Clipboard Copied! Toggle word wrap Toggle overflow 이 설정에 대해 생성한 티켓을 첫 번째 클러스터에 부여합니다.
티켓을 부여하기 전에 티켓 제한 조건을 정의할 필요는 없습니다. 처음에 클러스터에 티켓을 부여했으면
pcs booth 티켓 취소 명령을 사용하여 수동으로 이 항목을 재정의하지 않는 한 Booth는 티켓관리를 인계받습니다.pcs booth관리 명령에 대한 자세한 내용은pcs boot --help명령을 사용합니다.[cluster1-node1 ~] # pcs booth ticket grant apacheticket
[cluster1-node1 ~] # pcs booth ticket grant apacheticketCopy to Clipboard Copied! Toggle word wrap Toggle overflow
이 절차를 완료한 후에도 언제든지 티켓을 추가하거나 제거할 수 있습니다. 그러나 티켓을 추가하거나 제거한 후에는 구성 파일을 다른 노드 및 클러스터와 동기화하고 중재자 및 이 절차에 표시된 대로 티켓을 부여해야 합니다.
Booth 구성 파일, 티켓 및 리소스를 정리 및 제거하는 데 사용할 수 있는 추가 Booth 관리 명령에 대한 자세한 내용은 pcs booth --help 명령을 사용합니다.