15.2. Red Hat Ceph Storage 노드 축소 및 교체
경우에 따라 Red Hat Ceph Storage 클러스터를 축소하거나 Red Hat Ceph Storage 노드를 교체해야 할 수 있습니다. 두 경우 모두 데이터 손실을 방지하기 위해 오버클라우드에서 삭제하려는 Red Hat Ceph Storage 노드를 비활성화하고 재조정해야 합니다.
Red Hat Ceph Storage 클러스터에 OSD 손실 용량이 없는 경우 이 절차를 진행하지 마십시오.
-
오버클라우드 컨트롤러 노드에
tripleo-admin사용자로 로그인합니다. -
sudo cephadm shell명령을 사용하여 Ceph 쉘을 시작합니다. ceph osd tree명령을 사용하여 서버에서 제거할 OSD를 식별합니다.다음 예제에서는
ceph-2호스트의 OSD를 식별하려고 합니다.[ceph: root@oc0-controller-0 /]# ceph osd tree ID CLASS WEIGHT TYPE NAME STATUS REWEIGHT PRI-AFF -1 0.58557 root default -7 0.19519 host ceph-2 5 hdd 0.04880 osd.5 up 1.00000 1.00000 7 hdd 0.04880 osd.7 up 1.00000 1.00000 9 hdd 0.04880 osd.9 up 1.00000 1.00000 11 hdd 0.04880 osd.11 up 1.00000 1.00000-
cephadm쉘 종료 Ceph 클러스터 사양을 YAML 파일로 내보냅니다.
$ sudo cephadm shell -- ceph orch ls --export > spec.yaml-
이전 단계에서 내보낸 사양 파일을 편집합니다.
spec.yaml파일의placement:hosts섹션에서 축소된 노드의 모든 항목을 제거합니다. - 편집한 파일을 저장합니다.
수정된 Ceph 사양 파일을 적용합니다.
$ sudo cephadm shell -m spec.yaml -- ceph orch apply -i /mnt/spec.yaml중요OSD를 제거하기 전에 Ceph 사양 파일을 내보내고 편집하지 않으면 Ceph Manager에서 OSD를 다시 생성합니다.
-
sudo cephadm shell명령을 사용하여 Ceph 쉘을 시작합니다. ceph orch osd rm --zap <osd_list> 명령을 사용하여 OSD를 제거합니다.[ceph: root@oc0-controller-0 /]# ceph orch osd rm --zap 5 7 9 11 Scheduled OSD(s) for removal [ceph: root@oc0-controller-0 /]# ceph orch osd rm status OSD_ID HOST STATE PG_COUNT REPLACE FORCE DRAIN_STARTED_AT 7 ceph-2 draining 27 False False 2021-04-23 21:35:51.215361 9 ceph-2 draining 8 False False 2021-04-23 21:35:49.111500 11 ceph-2 draining 14 False False 2021-04-23 21:35:50.243762ceph orch osd status명령을 사용하여 OSD 제거 상태를 확인합니다.[ceph: root@oc0-controller-0 /]# ceph orch osd rm status OSD_ID HOST STATE PG_COUNT REPLACE FORCE DRAIN_STARTED_AT 7 ceph-2 draining 34 False False 2021-04-23 21:35:51.215361 11 ceph-2 draining 14 False False 2021-04-23 21:35:50.243762주의이 명령에서 결과를 반환하지 않을 때까지 다음 단계를 진행하지 마십시오.
ceph orch host drain <HOST>명령을 사용하여 나머지 데몬을 드레이닝합니다.[ceph: root@oc0-controller-0 /]# ceph orch host drain ceph-2ceph orch host rm <HOST> 명령을 사용하여 호스트를 제거합니다.[ceph: root@oc0-controller-0 /]# ceph orch host rm ceph-2참고이 노드는 더 이상 Ceph 클러스터에서 사용되지 않지만 director에서 베어 메탈 노드로 관리합니다.
Ceph 쉘 세션을 종료합니다.
참고Ceph 클러스터를 축소하면 노드가 나중에 복원되고 노드가 나중에 복원되면 확장 작업을 늘리며 이전에
provisioned: false를 설정한 노드에서provisioned: true를 설정할 수 있습니다.노드를 재사용하지 않으면provisioned: false를 무기한 설정하고 확장 작업을 수행하면 새 인스턴스 항목을 지정할 수 있습니다.다음 파일 샘플은 각 인스턴스의 몇 가지 예를 제공합니다.
- name: Compute count: 2 instances: - hostname: overcloud-compute-0 name: node10 # Removed from deployment due to disk failure provisioned: false - hostname: overcloud-compute-1 name: node11 - hostname: overcloud-compute-2 name: node12- director에서 노드를 삭제하려면 director를 사용하여 Red Hat OpenStack Platform 설치 및 관리에서 베어 메탈 노드 축소 를 참조하십시오.