3.10. Ceph 스토리지 용량
Red Hat Ceph Storage 클러스터가 최대 용량에 근접하는 경우( mon_osd_full_ratio
매개변수에 따라) 데이터 손실을 방지하기 위해 안전한 조치로 Ceph OSD에 쓰거나 읽을 수 없습니다. 따라서 프로덕션 환경에서 Red Hat Ceph Storage 클러스터가 전체 비율에 접근하도록 하는 것은 가용성이 높기 때문에 좋지 않습니다. 기본 전체 비율은 .95 .95
또는 95%의 용량입니다. 이는 적은 수의 OSD가 있는 테스트 클러스터에 대해 매우 공격적인 설정입니다.
클러스터를 모니터링할 때 거의 전체
비율과 관련된 경고에 유의하십시오. 즉, 하나 이상의 OSD가 실패하면 일부 OSD가 실패하는 경우 일시적으로 서비스가 중단될 수 있습니다. 스토리지 용량을 늘리려면 OSD를 더 추가하는 것이 좋습니다.
테스트 클러스터의 일반적인 시나리오에는 클러스터 재조정을 확인하기 위해 Red Hat Ceph Storage 클러스터에서 Ceph OSD를 제거하는 시스템 관리자가 필요합니다. 그런 다음 다른 Ceph OSD를 제거하여 Red Hat Ceph Storage 클러스터가 결국 전체 비율에 도달하여 잠길 때까지 계속 진행합니다.
Red Hat은 테스트 클러스터를 사용하는 경우에도 약간의 용량 계획을 권장합니다. 계획을 사용하면 고가용성을 유지하기 위해 필요한 예비 용량을 측정할 수 있습니다.
클러스터를 즉시 교체하지 않고 활성 + 정리
상태로 복구할 수 있는 일련의 Ceph OSD 오류를 계획하는 것이 좋습니다. 활성 + 성능 저하
상태에서 클러스터를 실행할 수 있지만 일반적인 작동 조건에는 적합하지 않습니다.
다음 다이어그램에서는 호스트당 하나의 Ceph OSD가 있는 33개의 Ceph 노드가 포함된 간단한 Red Hat Ceph Storage 클러스터를 보여줍니다. 각 Ceph OSD 데몬은 3TB 드라이브에서 읽고 3TB 드라이브로 씁니다. 따라서 이 예시적인 Red Hat Ceph Storage 클러스터의 실제 용량은 최대 99TB입니다. mon osd full ratio
0.95
; Red Hat Ceph Storage 클러스터가 5TB의 남아 있는 용량인 경우 클러스터에서 Ceph 클라이언트가 데이터를 읽고 쓸 수 없습니다. 따라서 Red Hat Ceph Storage 클러스터의 운영 용량은 99TB가 아닌95TB입니다.

이러한 클러스터에서는 하나 또는 두 개의 OSD가 실패하는 것이 일반적입니다. 덜 자주 그러나 합리적인 시나리오에는 랙의 라우터 또는 전원 공급 장치가 실패하므로 OSD 7-12와 같이 여러 개의 OSD가 동시에 중단됩니다. 이러한 시나리오에서는 추가 OSD가 포함된 몇 개의 호스트를 짧은 순서로 추가하는 경우에도 작동할 수 있고 활성 + 정리
상태를 수행할 수 있는 클러스터를 위해 계속 노력하고 있어야 합니다. 용량 사용률이 너무 높으면 데이터가 손실되지 않을 수 있지만 클러스터의 용량 사용률이 전체 비율을 초과하면 장애 도메인 내의 중단을 해결하는 동안 데이터 가용성을 계속 유지할 수 있습니다. 이러한 이유로 Red Hat은 최소 대략적인 용량 계획을 권장합니다.
클러스터의 두 숫자를 확인합니다.
- OSD 수
- 클러스터의 총 용량
클러스터 내에서 OSD의 평균 용량을 확인하려면 클러스터의 총 용량을 클러스터의 OSD 수로 나눕니다. 정상적인 작업 중에 동시에 실패할 것으로 예상되는 OSD 수로 곱하는 것이 좋습니다. 마지막으로 최대 작동 용량에 도달할 수 있는 전체 비율로 클러스터 용량을 곱합니다. 그런 다음 적절한 비율로 얻을 수없는 OSD에서 데이터 양을 뺀다. 높은 개수의 OSD 오류(예: OSD 랙)로 진행 중인 프로세스를 반복하여 거의 전체 비율로 적절한 수에 도달합니다.