3.8. RADOS
Ceph 유선 암호화
Red Hat Ceph Storage 4부터 directorenger 버전 2 프로토콜을 도입하여 네트워크를 통해 모든 Ceph 트래픽에 대한 암호화를 활성화할 수 있습니다. 자세한 내용은 Red Hat Ceph Storage 4용 데이터 보안 및 Hardening 가이드의 아키텍처 가이드 및 전송 섹션의 Ceph 유선 암호화 장을 참조하십시오.
OSD BlueStore는 이제 완전히 지원됩니다.
bluestore는 블록 장치에 개체를 직접 저장할 수 있는 OSD 데몬의 새 백엔드입니다. BlueStore에는 파일 시스템 인터페이스가 필요하지 않으므로 Ceph 스토리지 클러스터의 성능이 향상됩니다. BlueStore OSD 백엔드에 대한 자세한 내용은 Red Hat Ceph Storage 4 관리 가이드 의 OSD BlueStore 장을 참조하십시오.
FIPS 모드의 Red Hat Enterprise Linux
이번 릴리스에서는 FIPS 모드가 활성화된 Red Hat Ceph Storage를 Red Hat Enterprise Linux에 설치할 수 있습니다.
ceph df
출력 및 새 ceph osd df
명령 변경
ceph df
명령의 출력이 향상되었습니다. 특히 RAW USED 및 %RAW USED 값에는 db
및 wal
BlueStore 파티션의 미리 할당된 공간이 표시됩니다. ceph osd df
명령은 기록된 데이터 양과 같은 OSD 사용률 통계를 표시합니다.
비작업 OSD 세트에 대한 비동기 복구
이전에는 Ceph를 통한 복구가 이러한 개체가 복구될 때까지 개체에 대한 쓰기 작업을 차단하는 동기 프로세스였습니다. 이번 릴리스에서는 OSD가 작동하지 않는 세트의 오브젝트만 쓰기 작업을 차단하지 않도록 복구 프로세스가 비동기적으로 수행됩니다. 이 새로운 기능에는 작동하지 않는 세트에 OSD가 충분히 있기 때문에 최소 복제본 수가 있어야 합니다.
새로운 설정 옵션 osd_async_recovery_min_ cost
는 비동기 복구의 양을 제어합니다. 이 옵션의 기본값은 100
입니다. 더 높은 값은 비동기 복구가 적다는 것을 의미하지만 더 낮은 값은 비동기 복구가 더 많은 것을 의미합니다.A higher value means asynchronous recovery will be less, whereas a lower value means asynchronous recovery will be more.
이제 ceph 구성을
사용하여 액세스할 수 있는 모니터에 구성이 저장됨
이번 릴리스에서 Red Hat Ceph Storage는 Ceph 구성 파일(ceph.conf
)을 사용하는 대신 모니터의 구성을 중앙 집중화합니다. 이전에는 설정을 변경하여 ceph.conf
를 수동으로 업데이트하여 적절한 노드에 배포한 다음 영향을 받는 모든 데몬을 다시 시작합니다. 이제 모니터에서 ceph.conf
와 동일한 의미 체계 구조를 가진 구성 데이터베이스를 관리합니다. ceph config
명령으로 데이터베이스에 액세스할 수 있습니다. 구성 변경 사항은 시스템의 데몬 또는 클라이언트에 즉시 적용되고 더 이상 다시 시작할 필요가 없습니다. 사용 가능한 명령 세트에 대한 자세한 내용은 ceph config -h
명령을 사용합니다. 모니터 노드를 식별하는 데 Ceph 구성 파일이 여전히 필요합니다.
배치 그룹을 자동 스케일링할 수 있습니다.
Red Hat Ceph Storage 4에는 PG(자동 확장 배치 그룹)가 도입되었습니다. 풀의 배치 그룹(PG) 수는 클러스터 피어가 데이터를 분산하고, 균형을 조정하는 방법에 중요한 역할을 합니다. PG 수를 자동 확장하여 클러스터를 더 쉽게 관리할 수 있습니다. 새로운 pg-autoscaling
명령은 PG 확장에 대한 권장 사항을 제공하거나 클러스터 사용 방법에 따라 PG를 자동으로 스케일링합니다. 자동 확장 PG에 대한 자세한 내용은 Red Hat Ceph Storage 4용 스토리지 전략 가이드 의 자동 확장 배치 그룹 섹션을 참조하십시오.
diskprediction
모듈 소개
Red Hat Ceph Storage diskprediction
모듈은 디스크 실패를 예측하기 위한 지표를 수집합니다. 이 모듈에는 클라우드 및 로컬의 두 가지 모드가 있습니다. 이번 릴리스에서는 로컬 모드만 지원됩니다. 로컬 모드에서는 데이터 분석을 위해 외부 서버가 필요하지 않습니다. 디스크 예측 서비스에 내부 예측 모듈을 사용한 다음 디스크 예측 결과를 Ceph 시스템으로 반환합니다.
diskprediction
모듈을 활성화하려면 다음을 수행합니다.
ceph mgr module enable diskprediction_local
예측 모드를 설정하려면 다음을 수행합니다.
ceph config set global device_failure_prediction_mode local
diskprediction
모듈을 비활성화하려면 다음을 수행합니다.
ceph config set global device_failure_prediction_mode none
새로운 구성 가능한 옵션: mon_memory_target
Red Hat Ceph Storage 4는 모니터 메모리 사용량을 위해 대상 바이트 양을 설정하는 데 사용되는 새로운 구성 가능한 옵션인 mon_memory_target
을 도입합니다. 연결된 모니터 데몬 캐시에 우선순위 캐시 튜닝기를 사용하여 할당 및 관리할 메모리 양을 지정합니다. mon_memory_target
의 기본값은 2GiB로 설정되고 다음을 사용하여 런타임 중에 변경할 수 있습니다.
# ceph config set global mon_memory_target size
이번 릴리스 이전에는 클러스터 확장으로 Monitor 특정 RSS 사용량이 mon_osd_cache_size
옵션을 사용하여 설정된 제한을 초과하여 문제가 발생했습니다. 이 향상된 기능을 통해 모니터 캐시에 할당된 메모리 관리를 개선하고 지정된 제한 내에서 사용량을 유지할 수 있습니다.