10장. 확장 모드에서 클러스터 문제 해결
실패한 tiebreaker 모니터를 교체하고 제거할 수 있습니다. 필요한 경우 클러스터를 복구 또는 정상 모드로 강제 실행할 수도 있습니다.
추가 리소스
스트레치 모드의 클러스터에 대한 자세한 내용은 Ceph 스토리지 용 cluster를 참조하십시오.
10.1. 쿼럼에서 모니터로 tiebreaker 교체
tiebreaker 모니터가 실패하면 쿼럼의 기존 모니터로 교체하여 클러스터에서 제거할 수 있습니다.
사전 요구 사항
- 실행 중인 Red Hat Ceph Storage 클러스터
- 클러스터에서 확장 모드 활성화
절차
자동 모니터 배포를 비활성화합니다.
예제
[ceph: root@host01 /]# ceph orch apply mon --unmanaged Scheduled mon update…
쿼럼에서 모니터를 확인합니다.
예제
[ceph: root@host01 /]# ceph -s mon: 5 daemons, quorum host01, host02, host04, host05 (age 30s), out of quorum: host07
쿼럼에서 모니터를 새 tiebreaker로 설정합니다.
구문
ceph mon set_new_tiebreaker NEW_HOST
예제
[ceph: root@host01 /]# ceph mon set_new_tiebreaker host02
중요모니터가 기존 비차별 모니터와 동일한 위치에 있는 경우 오류 메시지가 표시됩니다.
예제
[ceph: root@host01 /]# ceph mon set_new_tiebreaker host02 Error EINVAL: mon.host02 has location DC1, which matches mons host02 on the datacenter dividing bucket for stretch mode.
이 경우 모니터의 위치를 변경합니다.
구문
ceph mon set_location HOST datacenter=DATACENTER
예제
[ceph: root@host01 /]# ceph mon set_location host02 datacenter=DC3
실패한 tiebreaker 모니터를 제거하십시오.
구문
ceph orch daemon rm FAILED_TIEBREAKER_MONITOR --force
예제
[ceph: root@host01 /]# ceph orch daemon rm mon.host07 --force Removed mon.host07 from host 'host07'
호스트에서 모니터가 제거되면 모니터를 재배포합니다.
구문
ceph mon add HOST IP_ADDRESS datacenter=DATACENTER ceph orch daemon add mon HOST
예제
[ceph: root@host01 /]# ceph mon add host07 213.222.226.50 datacenter=DC1 [ceph: root@host01 /]# ceph orch daemon add mon host07
쿼럼에서 5 개의 모니터가 있는지 확인합니다.
예제
[ceph: root@host01 /]# ceph -s mon: 5 daemons, quorum host01, host02, host04, host05, host07 (age 15s)
모든 항목이 올바르게 구성되었는지 확인합니다.
예제
[ceph: root@host01 /]# ceph mon dump epoch 19 fsid 1234ab78-1234-11ed-b1b1-de456ef0a89d last_changed 2023-01-17T04:12:05.709475+0000 created 2023-01-16T05:47:25.631684+0000 min_mon_release 16 (pacific) election_strategy: 3 stretch_mode_enabled 1 tiebreaker_mon host02 disallowed_leaders host02 0: [v2:132.224.169.63:3300/0,v1:132.224.169.63:6789/0] mon.host02; crush_location {datacenter=DC3} 1: [v2:220.141.179.34:3300/0,v1:220.141.179.34:6789/0] mon.host04; crush_location {datacenter=DC2} 2: [v2:40.90.220.224:3300/0,v1:40.90.220.224:6789/0] mon.host01; crush_location {datacenter=DC1} 3: [v2:60.140.141.144:3300/0,v1:60.140.141.144:6789/0] mon.host07; crush_location {datacenter=DC1} 4: [v2:186.184.61.92:3300/0,v1:186.184.61.92:6789/0] mon.host03; crush_location {datacenter=DC2} dumped monmap epoch 19
모니터를 다시 배포합니다.
구문
ceph orch apply mon --placement="HOST_1, HOST_2, HOST_3, HOST_4, HOST_5”
예제
[ceph: root@host01 /]# ceph orch apply mon --placement="host01, host02, host04, host05, host07" Scheduled mon update...