1.7. OSD 메모리 대상
BlueStore는 osd_memory_target
구성 옵션을 사용하여 OSD 힙 메모리 사용량을 지정된 대상 크기 아래에 유지합니다.
osd_memory_target
옵션은 시스템에서 사용 가능한 RAM에 따라 OSD 메모리를 설정합니다. TCMalloc이 메모리 al Cryostat로 구성되어 있고 BlueStore의 bluestore_cache_autotune
옵션이 true
로 설정된 경우 이 옵션을 사용합니다.
블록 장치가 느릴 때 Ceph OSD 메모리 캐싱이 더 중요합니다. 예를 들어 캐시 적중의 이점은 솔리드 스테이트 드라이브를 사용하는 것보다 훨씬 길기 때문입니다. 그러나 OSD를 하이퍼 컨버지드 인프라(하이퍼 컨버지드 인프라) 또는 기타 애플리케이션과 같이 다른 서비스와 배치하기 위한 결정에 직면해야 합니다.
1.7.1. OSD 메모리 대상 설정
osd_memory_target
옵션을 사용하여 스토리지 클러스터의 모든 OSD 또는 특정 OSD의 최대 메모리 임계값을 설정합니다. osd_memory_target
옵션이 16GB로 설정된 OSD는 최대 16GB의 메모리를 사용할 수 있습니다.
개별 OSD의 구성 옵션은 모든 OSD의 설정보다 우선합니다.
사전 요구 사항
- 실행 중인 Red Hat Ceph Storage 클러스터.
- 스토리지 클러스터의 모든 호스트에 대한 루트 수준 액세스.
프로세스
스토리지 클러스터의 모든 OSD에 대해
osd_memory_target
을 설정하려면 다음을 수행합니다.구문
ceph config set osd osd_memory_target VALUE
VALUE 는 스토리지 클러스터의 각 OSD에 할당할 GBytes의 메모리 수입니다.
스토리지 클러스터의 특정 OSD에 대해
osd_memory_target
을 설정하려면 다음을 수행합니다.구문
ceph config set osd.id osd_memory_target VALUE
.
ID는 OSD의 ID이며 VALUE 는 지정된 OSD에 할당할 메모리 GB 수입니다. 예를 들어 최대 16GB의 메모리를 사용하도록 OSD를 ID 8로 구성하려면 다음을 수행합니다.예
[ceph: root@host01 /]# ceph config set osd.8 osd_memory_target 16G
하나의 최대 메모리를 사용하고 나머지 OSD를 다른 양을 사용하도록 개별 OSD를 설정하려면 먼저 개별 OSD를 지정합니다.
예
[ceph: root@host01 /]# ceph config set osd osd_memory_target 16G [ceph: root@host01 /]# ceph config set osd.8 osd_memory_target 8G
추가 리소스
- OSD 메모리 사용량을 자동으로 조정하도록 Red Hat Ceph Storage를 구성하려면 운영 가이드의 OSD 메모리 자동 튜닝 을 참조하십시오.