8.2. 동적으로 프로비저닝된 Red Hat OpenShift Data Foundation에서 실패 또는 원하지 않는 Ceph OSD 제거
프로세스의 단계에 따라 동적으로 프로비저닝된 Red Hat OpenShift Data Foundation에서 실패하거나 원하지 않는 Ceph OSD를 제거합니다.
클러스터 축소는 Red Hat 지원 팀을 통해서만 지원됩니다.
- Ceph 구성 요소가 정상 상태가 아닌 경우 OSD를 제거하면 데이터가 손실될 수 있습니다.
- 두 개 이상의 OSD를 동시에 제거하면 데이터가 손실됩니다.
사전 요구 사항
- Ceph가 정상인지 확인합니다. 자세한 내용은 Ceph 클러스터의 정상 확인을 참조하십시오.
- 경고가 실행되지 않거나 다시 빌드 프로세스가 진행 중인지 확인합니다.
절차
OSD 배포를 축소합니다.
# oc scale deployment rook-ceph-osd-<osd-id> --replicas=0
Ceph OSD를 제거할
osd-prepare
Pod를 가져옵니다.# oc get deployment rook-ceph-osd-<osd-id> -oyaml | grep ceph.rook.io/pvc
osd-prepare
Pod를 삭제합니다.# oc delete -n openshift-storage pod rook-ceph-osd-prepare-<pvc-from-above-command>-<pod-suffix>
클러스터에서 실패한 OSD를 제거합니다.
# failed_osd_id=<osd-id> # oc process -n openshift-storage ocs-osd-removal -p FAILED_OSD_IDS=$<failed_osd_id> | oc create -f -
여기서
FAILED_OSD_ID
는rook-ceph-osd
접두사 직후 포드 이름의 정수입니다.로그를 확인하여 OSD가 성공적으로 제거되었는지 확인합니다.
# oc logs -n openshift-storage ocs-osd-removal-$<failed_osd_id>-<pod-suffix>
-
선택 사항: OpenShift Container Platform의 ocs-
osd-removal-job
Pod에서 삭제하는 데 cephosd:osd.0이 좋지 않아 오류가 발생하는 경우cephosd:osd.0 오류 문제 해결을 참조하십시오. 실패하거나 원하지 않는 Ceph OSD를
제거하는 동안 제거되지 않음을 참조하십시오. OSD 배포를 삭제합니다.
# oc delete deployment rook-ceph-osd-<osd-id>
검증 단계
OSD가 성공적으로 삭제되었는지 확인하려면 다음을 실행합니다.
# oc get pod -n openshift-storage ocs-osd-removal-$<failed_osd_id>-<pod-suffix>
이 명령은 상태를 Completed 로 반환해야 합니다.