11.2. Ceph Monitor 데몬 삭제
컨트롤러 노드가 Ceph 모니터 서비스를 실행하는 경우 다음 단계를 완료하여 ceph-mon 데몬을 삭제합니다.
클러스터에 새 컨트롤러 노드를 추가하면 새 Ceph 모니터 데몬도 자동으로 추가됩니다.
프로세스
교체할 컨트롤러 노드에 연결합니다.
$ ssh tripleo-admin@192.168.0.47Ceph mon 서비스를 나열합니다.
$ sudo systemctl --type=service | grep ceph ceph-4cf401f9-dd4c-5cda-9f0a-fa47fbf12b31@crash.controller-0.service loaded active running Ceph crash.controller-0 for 4cf401f9-dd4c-5cda-9f0a-fa47fbf12b31 ceph-4cf401f9-dd4c-5cda-9f0a-fa47fbf12b31@mgr.controller-0.mufglq.service loaded active running Ceph mgr.controller-0.mufglq for 4cf401f9-dd4c-5cda-9f0a-fa47fbf12b31 ceph-4cf401f9-dd4c-5cda-9f0a-fa47fbf12b31@mon.controller-0.service loaded active running Ceph mon.controller-0 for 4cf401f9-dd4c-5cda-9f0a-fa47fbf12b31 ceph-4cf401f9-dd4c-5cda-9f0a-fa47fbf12b31@rgw.rgw.controller-0.ikaevh.service loaded active running Ceph rgw.rgw.controller-0.ikaevh for 4cf401f9-dd4c-5cda-9f0a-fa47fbf12b31Ceph mon 서비스를 중지합니다.
$ sudo systemtctl stop ceph-4cf401f9-dd4c-5cda-9f0a-fa47fbf12b31@mon.controller-0.serviceCeph mon 서비스를 비활성화합니다.
$ sudo systemctl disable ceph-4cf401f9-dd4c-5cda-9f0a-fa47fbf12b31@mon.controller-0.service- 교체하려는 컨트롤러 노드에서 연결을 끊습니다.
SSH를 사용하여 동일한 클러스터의 다른 컨트롤러 노드에 연결합니다.
$ ssh tripleo-admin@192.168.0.46Ceph 사양 파일은 수정되어 이 절차의 뒷부분에서 적용하여 내보내야 하는 파일을 조작합니다.
$ sudo cephadm shell -- ceph orch ls --export > spec.yaml클러스터에서 모니터를 삭제합니다.
$ sudo cephadm shell -- ceph mon remove controller-0 removing mon.controller-0 at [v2:172.23.3.153:3300/0,v1:172.23.3.153:6789/0], there will be 2 monitors컨트롤러 노드에서 연결을 해제하고 클러스터에서 제거 중인 컨트롤러 노드에 다시 로그인합니다.
$ ssh tripleo-admin@192.168.0.47Ceph mgr 서비스를 나열합니다.
$ sudo systemctl --type=service | grep ceph ceph-4cf401f9-dd4c-5cda-9f0a-fa47fbf12b31@crash.controller-0.service loaded active running Ceph crash.controller-0 for 4cf401f9-dd4c-5cda-9f0a-fa47fbf12b31 ceph-4cf401f9-dd4c-5cda-9f0a-fa47fbf12b31@mgr.controller-0.mufglq.service loaded active running Ceph mgr.controller-0.mufglq for 4cf401f9-dd4c-5cda-9f0a-fa47fbf12b31 ceph-4cf401f9-dd4c-5cda-9f0a-fa47fbf12b31@rgw.rgw.controller-0.ikaevh.service loaded active running Ceph rgw.rgw.controller-0.ikaevh for 4cf401f9-dd4c-5cda-9f0a-fa47fbf12b31Ceph mgr 서비스를 중지합니다.
$ sudo systemctl stop ceph-4cf401f9-dd4c-5cda-9f0a-fa47fbf12b31@mgr.controller-0.mufglq.serviceCeph mgr 서비스를 비활성화합니다.
$ sudo systemctl disable ceph-4cf401f9-dd4c-5cda-9f0a-fa47fbf12b31@mgr.controller-0.mufglq.servicecephadm쉘을 시작합니다.$ sudo cephadm shell컨트롤러 노드의 Ceph mgr 서비스가 클러스터에서 제거되었는지 확인합니다.
$ ceph -s cluster: id: b9b53581-d590-41ac-8463-2f50aa985001 health: HEALTH_OK services: mon: 2 daemons, quorum controller-2,controller-1 (age 2h) mgr: controller-2(active, since 20h), standbys: controller1-1 osd: 15 osds: 15 up (since 3h), 15 in (since 3h) data: pools: 3 pools, 384 pgs objects: 32 objects, 88 MiB usage: 16 GiB used, 734 GiB / 750 GiB avail pgs: 384 active+cleanCeph mgr 서비스가 성공적으로 제거되면 노드가 나열되지 않습니다.
Red Hat Ceph Storage 사양을 내보냅니다.
$ ceph orch ls --export > spec.yaml-
spec.yaml사양 파일에서 host의 모든 인스턴스(예:controller-0)를service_type: mon및service_type: mgr에서 제거합니다. Red Hat Ceph Storage 사양을 다시 적용합니다.
$ ceph orch apply -i spec.yaml제거된 호스트에 Ceph 데몬이 남아 있지 않은지 확인합니다.
$ ceph orch ps controller-0참고데몬이 있는 경우 다음 명령을 사용하여 제거합니다.
$ ceph orch host drain controller-0ceph orch host drain명령을 실행하기 전에/etc/ceph의 내용을 백업하십시오.ceph orch host drain명령을 실행한 후 콘텐츠를 복원합니다. https://bugzilla.redhat.com/show_bug.cgi?id=2153827 이 확인될 때까지ceph orch host drain명령을 실행하기 전에 백업해야 합니다.Red Hat Ceph Storage 클러스터에서
controller-0호스트를 제거합니다.$ ceph orch host rm controller-0 Removed host 'controller-0'cephadm 쉘을 종료합니다.
$ exit
추가 리소스
- systemd를 사용하여 Red Hat Ceph Storage 서비스를 제어하는 방법에 대한 자세한 내용은 Ceph의 프로세스 관리 이해 를 참조하십시오.
- Red Hat Ceph Storage 사양 파일을 편집하고 적용하는 방법에 대한 자세한 내용은 서비스 사양을 사용하여 Ceph 모니터 데몬 배포를 참조하십시오.