5.3. OSD 드라이브 교체
Ceph는 내결함성을 위해 설계되었습니다. 즉, 데이터가 손실되지 않고 성능이 저하된
상태에서 작동할 수 있습니다. 결과적으로 데이터 스토리지 드라이브가 실패하더라도 Ceph가 작동할 수 있습니다. 실패한 드라이브의 컨텍스트에서 성능이 저하된
상태는 다른 OSD에 저장된 데이터의 추가 복사본이 클러스터의 다른 OSD로 자동으로 백필됨을 의미합니다. 그러나 이 경우 실패한 OSD 드라이브를 교체하고 OSD를 수동으로 다시 생성합니다.
드라이브가 실패하면 Ceph에서 OSD를 down
으로 보고합니다.
HEALTH_WARN 1/3 in osds are down osd.0 is down since epoch 23, last address 192.168.106.220:6800/11080
HEALTH_WARN 1/3 in osds are down
osd.0 is down since epoch 23, last address 192.168.106.220:6800/11080
Ceph는 네트워킹 또는 권한 문제의 결과에서도 OSD를 down
으로 표시할 수 있습니다. 자세한 내용은 Down OSDs 를 참조하십시오.
최신 서버는 일반적으로 핫 스왑 가능 드라이브로 배포되므로 장애가 발생한 드라이브를 가져와 노드를 중단하지 않고 새 드라이브로 교체할 수 있습니다. 전체 절차에는 다음 단계가 포함됩니다.
- Ceph 클러스터에서 OSD를 제거합니다. 자세한 내용은 Ceph Cluster 프로세스에서 OSD 제거 절차를 참조하십시오.
- 드라이브를 교체합니다. 자세한 내용은 Replacing the physical drive 섹션을 참조하십시오.
- OSD를 클러스터에 추가합니다. 자세한 내용은 Ceph 클러스터에 OSD 추가 절차를 참조하십시오.
사전 요구 사항
- 실행 중인 Red Hat Ceph Storage 클러스터.
- Ceph Monitor 노드에 대한 루트 수준 액세스.
-
OSD가 하나 이상
다운
되어 있습니다.
Ceph 클러스터에서 OSD 제거
Cephadm 쉘에 로그인합니다.
예
cephadm shell
[root@host01 ~]# cephadm shell
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 어떤 OSD가
다운
되었는지 확인합니다.예
[ceph: root@host01 /]# ceph osd tree | grep -i down ID CLASS WEIGHT TYPE NAME STATUS REWEIGHT PRI-AFF 0 hdd 0.00999 osd.0 down 1.00000 1.00000
[ceph: root@host01 /]# ceph osd tree | grep -i down ID CLASS WEIGHT TYPE NAME STATUS REWEIGHT PRI-AFF 0 hdd 0.00999 osd.0 down 1.00000 1.00000
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 클러스터가 다른 OSD에 데이터를 재조정하고 복사할 수 있도록 OSD를
out
로 표시합니다.구문
ceph osd out OSD_ID.
ceph osd out OSD_ID.
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 예
[ceph: root@host01 /]# ceph osd out osd.0 marked out osd.0.
[ceph: root@host01 /]# ceph osd out osd.0 marked out osd.0.
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 참고OSD가 다운된 경우,
mon_osd_
매개 변수를 기반으로 OSD에서 하트비트 패킷을 수신하지 않는 경우 600초 후에 Ceph가 자동으로 표시됩니다. 이 경우 실패한 OSD 데이터의 사본이 있는 다른 OSD는 클러스터에 필요한 사본 수가 있는지 확인하기 위해 백필을 시작합니다. 클러스터가 백 입력되는 동안 클러스터의down
_out
_interval성능이 저하됩니다
.실패한 OSD가 백필되어 있는지 확인합니다.
예
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 마이그레이션이 완료되면 배치 그룹 상태가
active+clean
에서active
, 일부 성능이 저하된 오브젝트, 마지막으로active+clean
으로 변경되는 것을 확인할 수 있습니다.OSD를 중지합니다.
구문
ceph orch daemon stop OSD_ID
ceph orch daemon stop OSD_ID
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 예
[ceph: root@host01 /]# ceph orch daemon stop osd.0
[ceph: root@host01 /]# ceph orch daemon stop osd.0
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 스토리지 클러스터에서 OSD를 제거합니다.
구문
ceph orch osd rm OSD_ID --replace
ceph orch osd rm OSD_ID --replace
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 예
[ceph: root@host01 /]# ceph orch osd rm 0 --replace
[ceph: root@host01 /]# ceph orch osd rm 0 --replace
Copy to Clipboard Copied! Toggle word wrap Toggle overflow OSD_ID 는 유지됩니다.
물리적 드라이브 교체
물리적 드라이브 교체에 대한 자세한 내용은 하드웨어 노드에 대한 설명서를 참조하십시오.
- 드라이브가 핫 스왑 가능한 경우 오류가 발생한 드라이브를 새 드라이브로 교체합니다.
- 드라이브가 핫 스왑할 수 없고 노드에 여러 개의 OSD가 포함된 경우 전체 노드를 종료하고 물리적 드라이브를 교체해야 할 수 있습니다. 클러스터가 백필링되지 않도록 하는 것이 좋습니다. 자세한 내용은 Red Hat Ceph Storage 문제 해결 가이드 의 중지 및 재조정 시작 장을 참조하십시오.
-
드라이브가
/dev/
디렉토리 아래에 표시되면 드라이브 경로를 기록합니다. - OSD를 수동으로 추가하려면 OSD 드라이브를 찾아 디스크를 포맷합니다.
Ceph 클러스터에 OSD 추가
새 드라이브가 삽입되면 다음 옵션을 사용하여 OSD를 배포할 수 있습니다.
--unmanaged
매개변수가 설정되지 않은 경우 Ceph Orchestrator에서 OSD를 자동으로 배포합니다.예
[ceph: root@host01 /]# ceph orch apply osd --all-available-devices
[ceph: root@host01 /]# ceph orch apply osd --all-available-devices
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 관리되지 않는
매개 변수가true
로 설정된 모든 사용 가능한 장치에 OSD를 배포합니다.예
[ceph: root@host01 /]# ceph orch apply osd --all-available-devices --unmanaged=true
[ceph: root@host01 /]# ceph orch apply osd --all-available-devices --unmanaged=true
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 특정 장치 및 호스트에 OSD를 배포합니다.
예
[ceph: root@host01 /]# ceph orch daemon add osd host02:/dev/sdb
[ceph: root@host01 /]# ceph orch daemon add osd host02:/dev/sdb
Copy to Clipboard Copied! Toggle word wrap Toggle overflow
CRUSH 계층 구조가 올바른지 확인합니다.
예
[ceph: root@host01 /]# ceph osd tree
[ceph: root@host01 /]# ceph osd tree
Copy to Clipboard Copied! Toggle word wrap Toggle overflow