5.3. OSD 드라이브 교체
Ceph는 내결함성을 위해 설계되었습니다. 즉, 데이터가 손실되지 않고 성능이 저하된
상태에서 작동할 수 있습니다. 결과적으로 데이터 스토리지 드라이브가 실패하더라도 Ceph가 작동할 수 있습니다. 실패한 드라이브의 컨텍스트에서 성능이 저하된
상태는 다른 OSD에 저장된 데이터의 추가 복사본이 클러스터의 다른 OSD로 자동으로 백필됨을 의미합니다. 그러나 이 경우 실패한 OSD 드라이브를 교체하고 OSD를 수동으로 다시 생성합니다.
드라이브가 실패하면 Ceph에서 OSD를 down
으로 보고합니다.
HEALTH_WARN 1/3 in osds are down osd.0 is down since epoch 23, last address 192.168.106.220:6800/11080
Ceph는 네트워킹 또는 권한 문제의 결과에서도 OSD를 down
으로 표시할 수 있습니다. 자세한 내용은 Down OSDs 를 참조하십시오.
최신 서버는 일반적으로 핫 스왑 가능 드라이브로 배포되므로 장애가 발생한 드라이브를 가져와 노드를 중단하지 않고 새 드라이브로 교체할 수 있습니다. 전체 절차에는 다음 단계가 포함됩니다.
- Ceph 클러스터에서 OSD를 제거합니다. 자세한 내용은 Ceph Cluster 프로세스에서 OSD 제거 절차를 참조하십시오.
- 드라이브를 교체합니다. 자세한 내용은 Replacing the physical drive 섹션을 참조하십시오.
- OSD를 클러스터에 추가합니다. 자세한 내용은 Ceph 클러스터에 OSD 추가 절차를 참조하십시오.
사전 요구 사항
- 실행 중인 Red Hat Ceph Storage 클러스터.
- Ceph Monitor 노드에 대한 루트 수준 액세스.
-
OSD가 하나 이상
다운
되어 있습니다.
Ceph 클러스터에서 OSD 제거
Cephadm 쉘에 로그인합니다.
예제
[root@host01 ~]# cephadm shell
어떤 OSD가
다운
되었는지 확인합니다.예제
[ceph: root@host01 /]# ceph osd tree | grep -i down ID CLASS WEIGHT TYPE NAME STATUS REWEIGHT PRI-AFF 0 hdd 0.00999 osd.0 down 1.00000 1.00000
클러스터가 다른 OSD에 데이터를 재조정하고 복사할 수 있도록 OSD를
out
로 표시합니다.구문
ceph osd out OSD_ID.
예제
[ceph: root@host01 /]# ceph osd out osd.0 marked out osd.0.
참고OSD가 다운된 경우,
mon_osd_
매개 변수를 기반으로 OSD에서 하트비트 패킷을 수신하지 않는 경우 600초 후에 Ceph가 자동으로 표시됩니다. 이 경우 실패한 OSD 데이터의 사본이 있는 다른 OSD는 클러스터에 필요한 사본 수가 있는지 확인하기 위해 백필을 시작합니다. 클러스터가 백 입력되는 동안 클러스터의down
_out
_interval성능이 저하됩니다
.실패한 OSD가 백필되어 있는지 확인합니다.
예제
[ceph: root@host01 /]# ceph -w | grep backfill 2022-05-02 04:48:03.403872 mon.0 [INF] pgmap v10293282: 431 pgs: 1 active+undersized+degraded+remapped+backfilling, 28 active+undersized+degraded, 49 active+undersized+degraded+remapped+wait_backfill, 59 stale+active+clean, 294 active+clean; 72347 MB data, 101302 MB used, 1624 GB / 1722 GB avail; 227 kB/s rd, 1358 B/s wr, 12 op/s; 10626/35917 objects degraded (29.585%); 6757/35917 objects misplaced (18.813%); 63500 kB/s, 15 objects/s recovering 2022-05-02 04:48:04.414397 mon.0 [INF] pgmap v10293283: 431 pgs: 2 active+undersized+degraded+remapped+backfilling, 75 active+undersized+degraded+remapped+wait_backfill, 59 stale+active+clean, 295 active+clean; 72347 MB data, 101398 MB used, 1623 GB / 1722 GB avail; 969 kB/s rd, 6778 B/s wr, 32 op/s; 10626/35917 objects degraded (29.585%); 10580/35917 objects misplaced (29.457%); 125 MB/s, 31 objects/s recovering 2022-05-02 04:48:00.380063 osd.1 [INF] 0.6f starting backfill to osd.0 from (0'0,0'0] MAX to 2521'166639 2022-05-02 04:48:00.380139 osd.1 [INF] 0.48 starting backfill to osd.0 from (0'0,0'0] MAX to 2513'43079 2022-05-02 04:48:00.380260 osd.1 [INF] 0.d starting backfill to osd.0 from (0'0,0'0] MAX to 2513'136847 2022-05-02 04:48:00.380849 osd.1 [INF] 0.71 starting backfill to osd.0 from (0'0,0'0] MAX to 2331'28496 2022-05-02 04:48:00.381027 osd.1 [INF] 0.51 starting backfill to osd.0 from (0'0,0'0] MAX to 2513'87544
마이그레이션이 완료되면 배치 그룹 상태가
active+clean
에서active
, 일부 성능이 저하된 오브젝트, 마지막으로active+clean
으로 변경되는 것을 확인할 수 있습니다.OSD를 중지합니다.
구문
ceph orch daemon stop OSD_ID
예제
[ceph: root@host01 /]# ceph orch daemon stop osd.0
스토리지 클러스터에서 OSD를 제거합니다.
구문
ceph orch osd rm OSD_ID --replace
예제
[ceph: root@host01 /]# ceph orch osd rm 0 --replace
OSD_ID 는 유지됩니다.
물리적 드라이브 교체
물리적 드라이브 교체에 대한 자세한 내용은 하드웨어 노드에 대한 설명서를 참조하십시오.
- 드라이브가 핫 스왑 가능한 경우 오류가 발생한 드라이브를 새 드라이브로 교체합니다.
- 드라이브가 핫 스왑할 수 없고 노드에 여러 개의 OSD가 포함된 경우 전체 노드를 종료하고 물리적 드라이브를 교체해야 할 수 있습니다. 클러스터가 백필링되지 않도록 하는 것이 좋습니다. 자세한 내용은 Red Hat Ceph Storage 문제 해결 가이드 의 중지 및 재조정 시작 장을 참조하십시오.
-
드라이브가
/dev/
디렉토리 아래에 표시되면 드라이브 경로를 기록합니다. - OSD를 수동으로 추가하려면 OSD 드라이브를 찾아 디스크를 포맷합니다.
Ceph 클러스터에 OSD 추가
새 드라이브가 삽입되면 다음 옵션을 사용하여 OSD를 배포할 수 있습니다.
--unmanaged
매개변수가 설정되지 않은 경우 Ceph Orchestrator에서 OSD를 자동으로 배포합니다.예제
[ceph: root@host01 /]# ceph orch apply osd --all-available-devices
관리되지 않는
매개 변수가true
로 설정된 모든 사용 가능한 장치에 OSD를 배포합니다.예제
[ceph: root@host01 /]# ceph orch apply osd --all-available-devices --unmanaged=true
특정 장치 및 호스트에 OSD를 배포합니다.
예제
[ceph: root@host01 /]# ceph orch daemon add osd host02:/dev/sdb
CRUSH 계층 구조가 올바른지 확인합니다.
예제
[ceph: root@host01 /]# ceph osd tree
추가 리소스
- Red Hat Ceph Storage Operations Guide의 사용 가능한 모든 장치에 Ceph OSD 배포 섹션을 참조하십시오.
- Red Hat Ceph Storage Operations 가이드의 특정 장치 및 호스트에 Ceph OSD 배포 섹션을 참조하십시오.
- Red Hat Ceph Storage 문제 해결 가이드의 Down OSD 섹션을 참조하십시오.
- Red Hat Ceph Storage 설치 가이드를 참조하십시오.