6.9. 다양한 Ceph 풀에 사용자 정의 속성 할당
기본적으로 director를 통해 생성된 Ceph 풀에는 동일한 배치 그룹(pg_num
및 pgp_num
)과 크기가 있습니다. 5장. Ceph Storage 클러스터 사용자 정의 의 두 가지 방법을 사용하여 이러한 설정을 전역적으로 재정의할 수 있습니다. 즉, 이렇게 하면 모든 풀에 동일한 값이 적용됩니다.
각 Ceph 풀에 서로 다른 속성을 적용할 수도 있습니다. 이를 위해 다음과 같이 CephPools
매개변수를 사용합니다.
parameter_defaults: CephPools: - name: POOL pg_num: 128 application: rbd
POOL
을 pg_num
설정과 함께 구성하려는 풀 이름으로 변경하여 배치 그룹 수를 나타냅니다. 이렇게 하면 지정된 풀의 기본 pg_num
이 재정의됩니다.
CephPools
매개변수를 사용하는 경우 애플리케이션 유형도 지정해야 합니다. 계산, 블록 스토리지 및 이미지 스토리지의 애플리케이션 유형은 예제에 표시된 대로 rbd
여야 하지만, 사용할 풀에 따라 다른 애플리케이션 유형을 지정해야 할 수 있습니다. 예를 들어 gnocchi 지표 풀의 애플리케이션 유형은 openstack_gnocchi
입니다. 자세한 내용은 스토리지 전략 가이드에서 애플리케이션 사용 을 참조하십시오.
CephPools
매개변수를 사용하지 않는 경우 director는 기본 풀 목록에 대해서만 적절한 애플리케이션 유형을 자동으로 설정합니다.
CephPools
매개변수를 통해 새 사용자 지정 풀을 생성할 수도 있습니다. 예를 들어 custompool
이라는 풀을 추가하려면 다음을 수행합니다.
parameter_defaults: CephPools: - name: custompool pg_num: 128 application: rbd
이렇게 하면 기본 풀 외에도 새 사용자 지정 풀이 생성됩니다.
일반적인 Ceph 사용 사례의 일반적인 풀 구성은 풀당 Ceph PG(배치 그룹) 계산기 를 참조하십시오. 이 계산기는 일반적으로 Ceph 풀을 수동으로 구성하는 명령을 생성하는 데 사용됩니다. 이 배포에서는 director가 사양에 따라 풀을 구성합니다.
Red Hat Ceph Storage 3(Luminous)은 OSD에서 보유할 수 있는 최대 PG 수에 하드 제한이 있으며 기본적으로 200입니다. 200 이외의 매개 변수를 재정의하지 마십시오. Ceph PG 번호가 최대를 초과하므로 문제가 있는 경우 mon_max_pg_per_osd
가 아닌 풀당 pg_num
을 조정하십시오.