2.5. OSD ID를 유지하면서 OSD 드라이브 교체
실패한 OSD 드라이브를 교체하는 경우 원래 OSD ID와 CRUSH 맵 항목을 유지할 수 있습니다.
참고
ceph-volume lvm
명령의 기본값은 OSD의 BlueStore입니다.
사전 요구 사항
- 실행 중인 Red Hat Ceph Storage 클러스터.
- 오류가 발생한 디스크.
절차
OSD를 삭제합니다.
구문
ceph osd destroy OSD_ID --yes-i-really-mean-it
ceph osd destroy OSD_ID --yes-i-really-mean-it
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 예제
ceph osd destroy 1 --yes-i-really-mean-it
[root@osd ~]# ceph osd destroy 1 --yes-i-really-mean-it
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 교체 디스크를 이전에 사용한 경우 선택적으로 디스크를
zap
해야 합니다.구문
ceph-volume lvm zap DEVICE
ceph-volume lvm zap DEVICE
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 예제
ceph-volume lvm zap /dev/sdb
[root@osd ~]# ceph-volume lvm zap /dev/sdb
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 참고ceph osd 트리,
및ceph osd
메타데이터df
와 같은 다양한 명령의 출력을 비교하여 DEVICE 를 찾을 수 있습니다.기존 OSD ID를 사용하여 새 OSD를 생성합니다.
구문
ceph-volume lvm create --osd-id OSD_ID --data DEVICE
ceph-volume lvm create --osd-id OSD_ID --data DEVICE
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 예제
ceph-volume lvm create --osd-id 1 --data /dev/sdb
[root@mon ~]# ceph-volume lvm create --osd-id 1 --data /dev/sdb
Copy to Clipboard Copied! Toggle word wrap Toggle overflow
추가 리소스
- 자세한 내용은 Red Hat Ceph Storage Operations Guide의 동일한 디스크 토폴로지를 사용하여 Ansible을 사용하여 CephOSD 추가 섹션을 참조하십시오.
- 자세한 내용은 Red Hat Ceph Storage Operations Guide의 다양한 디스크 토폴로지를 사용하여 Ansible을 사용하여 CephOSD 추가 섹션을 참조하십시오.
- 자세한 내용은 Red Hat Ceph Storage Operations Guide의 'ceph-volume'을 사용하여 CephOSD 준비 섹션을 참조하십시오.
- 자세한 내용은 Red Hat Ceph Storage Operations Guide의 'ceph-volume'을 사용하여 CephOSD 활성화 섹션을 참조하십시오.
- 자세한 내용은 Red Hat Ceph Storage Operations Guide의 명령줄 인터페이스를 사용하여 CephOSD 추가 섹션을 참조하십시오.