5.2. Red Hat Ceph Storage 배치 그룹
배치 그룹(PG)은 대규모의 효율적인 동적 오브젝트 추적을 지원합니다. OSD 장애 또는 Ceph Storage 클러스터 재조정이 발생하는 경우 Ceph는 배치 그룹 및 배치 그룹의 콘텐츠를 이동하거나 복제할 수 있습니다. 이를 통해 Ceph Storage 클러스터는 효율적으로 재조정 및 복구할 수 있습니다.
Ceph 구성 파일에 다음 매개 변수가 포함되지 않는 한 배치 그룹 및 복제본 수 설정은 기본값에서 변경되지 않습니다.
-
osd_pool_default_size -
osd_pool_default_pg_num -
osd_pool_default_pgp_num
openstack overcloud deploy 명령을 사용하여 오버클라우드를 배포하면 활성화된 모든 Red Hat OpenStack Platform 서비스에 대해 풀이 생성됩니다. 예를 들어 다음 명령은 Compute 서비스(nova), 블록 스토리지 서비스(cinder) 및 이미지 서비스(glance)에 대한 풀을 생성합니다.
openstack overcloud deploy --templates \ -e /usr/share/openstack-tripleo-heat-templates/environments/cephadm/cephadm-rbd-only.yaml
openstack overcloud deploy --templates \
-e /usr/share/openstack-tripleo-heat-templates/environments/cephadm/cephadm-rbd-only.yaml
명령에 -e environments/cinder-backup.yaml 을 추가하면 backups 라는 풀이 생성됩니다.
openstack overcloud deploy --templates \ -e /usr/share/openstack-tripleo-heat-templates/environments/cephadm/cephadm-rbd-only.yaml -e environments/cinder-backup.yaml
openstack overcloud deploy --templates \
-e /usr/share/openstack-tripleo-heat-templates/environments/cephadm/cephadm-rbd-only.yaml
-e environments/cinder-backup.yaml
풀당 배치 그룹 번호를 구성할 필요는 없습니다. pg_autoscale_mode 속성은 기본적으로 활성화되어 있습니다. 그러나 target_size_ratio 또는 pg_num 속성을 구성하는 것이 좋습니다. 이는 데이터 재조정을 최소화합니다.
풀당 target_size_ratio 속성을 설정하려면 다음 예와 유사한 구성 파일 항목을 사용합니다.
이 예에서 서비스당 사용되는 데이터의 백분율은 다음과 같습니다.
- Cinder 볼륨 - 40%
- Glance 이미지 - 10%
- Nova vms - 30%
- 다른 풀의 여유 공간 - 20%
예상 사용법에 따라 이 값을 설정합니다. CephPools 매개변수를 재정의하지 않으면 각 풀은 기본 배치 그룹 번호를 사용합니다. 자동 스케일러는 사용량에 따라 이 수를 자동으로 조정하지만 Ceph 클러스터 내에서 데이터가 이동합니다. 컴퓨팅 리소스를 사용합니다.
대상 크기 비율 대신 배치 그룹 번호를 설정하려면 예제의 target_size_ratio 를 pg_num 로 바꿉니다. 예상 사용량에 따라 풀당 다른 정수를 사용합니다.
Red Hat Ceph Storage 프로세서, 네트워크 인터페이스 카드 및 전원 관리 인터페이스 권장 사항은 Red Hat Ceph Storage 하드웨어 가이드를 참조하십시오.