3.5. OSD ID를 유지하면서 OSD 드라이브 교체
실패한 OSD 드라이브를 교체하는 경우 원래 OSD ID와 CRUSH 맵 항목을 유지할 수 있습니다.
참고
ceph-volume lvm
명령의 기본값은 OSD의 BlueStore입니다. FileStore OSD를 사용하려면 --filestore
,--data
및 --journal
옵션을 사용합니다.
자세한 내용은 OSD 데이터 준비 및 저널 드라이브 준비 섹션을 참조하십시오.
사전 요구 사항
- 실행 중인 Red Hat Ceph Storage 클러스터.
- 오류가 발생한 디스크.
절차
OSD를 삭제합니다.
ceph osd destroy $OSD_ID --yes-i-really-mean-it
ceph osd destroy $OSD_ID --yes-i-really-mean-it
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 예제
ceph osd destroy 1 --yes-i-really-mean-it
$ ceph osd destroy 1 --yes-i-really-mean-it
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 교체 디스크를 이전에 사용한 경우 선택적으로 디스크를
zap
해야 합니다.docker exec $CONTAINER_ID ceph-volume lvm zap $DEVICE
docker exec $CONTAINER_ID ceph-volume lvm zap $DEVICE
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 예제
docker exec ceph-osd-osd1 ceph-volume lvm zap /dev/sdb
$ docker exec ceph-osd-osd1 ceph-volume lvm zap /dev/sdb
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 기존 OSD ID를 사용하여 새 OSD를 생성합니다.
docker exec $CONTAINER_ID ceph-volume lvm create --osd-id $OSD_ID --data $DEVICE
docker exec $CONTAINER_ID ceph-volume lvm create --osd-id $OSD_ID --data $DEVICE
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 예제
docker exec ceph-osd-osd1 ceph-volume lvm create --osd-id 1 --data /dev/sdb
$ docker exec ceph-osd-osd1 ceph-volume lvm create --osd-id 1 --data /dev/sdb
Copy to Clipboard Copied! Toggle word wrap Toggle overflow