5장. 풀, 배치 그룹 및 CRUSH 구성
스토리지 관리자는 풀, 배치 그룹 및 CRUSH 알고리즘에 대해 Red Hat Ceph Storage 기본 옵션을 사용하거나 의도한 워크로드에 맞게 사용자 지정할 수 있습니다.
사전 요구 사항
- Red Hat Ceph Storage 소프트웨어 설치.
5.1. 풀 배치 그룹 및 CRUSH
풀을 생성하고 풀에 대한 배치 그룹 수를 설정할 때 기본값을 구체적으로 재정의하지 않는 경우 Ceph는 기본값을 재정의하지 않는 경우 기본값을 사용합니다.
Red Hat은 일부 기본값을 재정의하는 것이 좋습니다. 특히 풀의 복제본 크기를 설정하고 기본 배치 그룹 수를 재정의합니다.
pool 명령을 실행할 때 이러한 값을 설정할 수 있습니다.
기본적으로 Ceph는 3개의 오브젝트 복제본을 만듭니다. 오브젝트의 복사본 4개를 기본값, 기본 복사 및 3개의 복제본 복사본으로 설정하려면 osd_pool_default_size
에 표시된 대로 기본값을 재설정합니다. Ceph에서 성능이 저하된 상태의 복사본 수를 더 적게 작성하도록 허용하려면 osd_pool_default_min_size
값을 osd_pool_default_size
값보다 작은 숫자로 설정합니다.
예
[ceph: root@host01 /]# ceph config set global osd_pool_default_size 4 # Write an object 4 times. [ceph: root@host01 /]# ceph config set global osd_pool_default_min_size 1 # Allow writing one copy in a degraded state.
비현실적인 수의 배치 그룹이 있는지 확인하십시오. OSD당 약 100개를 권장합니다. 예를 들어 총 OSD 수를 복제본 수를 100으로 나눕니다(즉, osd_pool_default_size
). 10개의 OSD 및 osd_pool_default_size
= 4의 경우 약 (100 * 10) / 4 = 250를 권장합니다.
예
[ceph: root@host01 /]# ceph config set global osd_pool_default_pg_num 250 [ceph: root@host01 /]# ceph config set global osd_pool_default_pgp_num 250
추가 리소스
- 특정 옵션 설명 및 사용은 l부록 E 의 모든 Red Hat Ceph Storage 풀, 배치 그룹 및 CRUSH 구성 옵션을 참조하십시오.