10장. noautoscale 플래그 업데이트
모든 풀에 대해 자동 스케일러를 동시에 활성화하거나 비활성화하려면 noautoscale 글로벌 플래그를 사용할 수 있습니다. 이 글로벌 플래그는 일부 OSD가 반송되거나 클러스터가 유지보수 중인 경우 스토리지 클러스터를 업그레이드하는 동안 유용합니다. 활동 전에 플래그를 설정하고 활동이 완료되면 설정을 해제할 수 있습니다.
기본적으로 noautoscale 플래그는 off 로 설정됩니다. 이 플래그를 설정하면 모든 풀에 pg_autoscale_mode 가 off 로 표시되고 모든 풀이 자동 스케일러를 비활성화합니다.
사전 요구 사항
- 실행 중인 Red Hat Ceph Storage 클러스터
- 모든 노드에 대한 루트 수준 액세스.
프로세스
noautoscale플래그의 값을 가져옵니다.예
[ceph: root@host01 /]# ceph osd pool get noautoscale
[ceph: root@host01 /]# ceph osd pool get noautoscaleCopy to Clipboard Copied! Toggle word wrap Toggle overflow 활동 전에
noautoscale플래그를 설정합니다.예
[ceph: root@host01 /]# ceph osd pool set noautoscale
[ceph: root@host01 /]# ceph osd pool set noautoscaleCopy to Clipboard Copied! Toggle word wrap Toggle overflow 활동이 완료되면
noautoscale플래그를 설정 해제합니다.예
[ceph: root@host01 /]# ceph osd pool unset noautoscale
[ceph: root@host01 /]# ceph osd pool unset noautoscaleCopy to Clipboard Copied! Toggle word wrap Toggle overflow
10.1. 대상 풀 크기 지정 링크 복사링크가 클립보드에 복사되었습니다!
새로 생성된 풀은 전체 클러스터 용량의 작은 부분을 소비하고 적은 수의 PG가 필요한 시스템에 나타납니다. 그러나 대부분의 경우 클러스터 관리자는 시간이 지남에 따라 대부분의 시스템 용량을 소비해야 하는 풀을 알고 있습니다. Red Hat Ceph Storage에 대상 크기로 알려진 이 정보를 제공하는 경우 이러한 풀은 처음부터 더 적절한 수의 PG(pg_num)를 사용할 수 있습니다. 이 접근 방식에서는 pg_num 의 후속 변경과 이러한 조정을 수행할 때 데이터 이동과 관련된 오버헤드를 방지합니다.
다음과 같은 방법으로 풀의 대상 크기를 지정할 수 있습니다.
10.1.1. 풀의 절대 크기를 사용하여 대상 크기 지정 링크 복사링크가 클립보드에 복사되었습니다!
프로세스
풀의 절대
크기를 사용하여 대상크기를 바이트 단위로 설정합니다.ceph osd pool set pool-name target_size_bytes value
ceph osd pool set pool-name target_size_bytes valueCopy to Clipboard Copied! Toggle word wrap Toggle overflow 예를 들어
mypool이 100T 공간을 사용할 것으로 예상되는 시스템에 지시하려면 다음을 수행합니다.ceph osd pool set mypool target_size_bytes 100T
$ ceph osd pool set mypool target_size_bytes 100TCopy to Clipboard Copied! Toggle word wrap Toggle overflow
ceph osd pool create 명령에 선택적 --target-size-bytes <bytes > 인수를 추가하여 생성 시 풀의 대상 크기를 설정할 수도 있습니다.
10.1.2. 총 클러스터 용량을 사용하여 대상 크기 지정 링크 복사링크가 클립보드에 복사되었습니다!
프로세스
총 클러스터 용량의 비율을 사용하여
대상 크기를설정합니다.구문
ceph osd pool set pool-name target_size_ratio ratio
ceph osd pool set pool-name target_size_ratio ratioCopy to Clipboard Copied! Toggle word wrap Toggle overflow 예를 들면 다음과 같습니다.
[ceph: root@host01 /]# ceph osd pool set mypool target_size_ratio 1.0
[ceph: root@host01 /]# ceph osd pool set mypool target_size_ratio 1.0Copy to Clipboard Copied! Toggle word wrap Toggle overflow 시스템에서
mypool이target_size_ratio설정된 다른 풀과 관련하여 1.0을 사용할 것으로 예상됩니다.mypool이 클러스터의 유일한 풀인 경우 전체 용량의 100%를 사용할 것으로 예상됩니다.target_size_ratio가 1.0인 두 번째 풀이 있는 경우 두 풀 모두 클러스터 용량의 50%를 사용할 것으로 예상합니다.
선택적 --target-size-ratio <ratio > 인수를 ceph osd pool create 명령에 추가하여 생성 시 풀의 대상 크기를 설정할 수도 있습니다.
예를 들어 총 클러스터보다 큰 용량 또는 1.0 이상의 비율로 구성된 용량을 지정하는 경우 클러스터는 POOL_TARGET_SIZE_RATIO_OVERCOMMITTED 또는 POOL_TARGET_SIZE_BYTES_OVERCOMMITTED 경고를 생성합니다.
풀의 target_size_ratio 및 target_size_bytes 를 모두 지정하면 클러스터는 비율만 고려하며 POOL_HAS_TARGET_SIZE_BYTES_AND_RATIO 상태 경고가 발생합니다.