3장. 새로운 기능
이 섹션에는 Red Hat Ceph Storage 릴리스에 도입된 모든 주요 업데이트, 개선 사항 및 새로운 기능이 나열되어 있습니다.
msgr2 프로토콜을 사용한 유선 압축 가능
이번 릴리스에서는 유선의 암호화 외에도 스토리지 클러스터 내에서의 네트워크 작업 보안 압축도 지원됩니다.
자세한 내용은 Red Hat Ceph Storage Data Security and Hardening Guide 의 암호화 및 키 관리 섹션을 참조하십시오.
Python 알림의 효율성 향상
이전에는 현재 모듈이 필요하지 않은 일부 사용되지 않은 알림이 있었습니다. 이로 인해 비효율이 발생했습니다.
이번 릴리스에서는 NotifyType
매개변수가 도입되었습니다. 현재 사용되는 이벤트 모듈(예: NotifyType.mon_map
,NotifyType.osd_map
등)은 주석입니다. 결과적으로 모듈에서 요청하는 이벤트만 대기열에 추가됩니다. 모듈을 사용하지 않는 이벤트가 발행됩니다. 이러한 변경으로 인해 python 알림이 더 효율적입니다.
pg_num
에 대한 변경 사항은 제한됩니다.
이전 버전에서는 진행 중인 pgp_num
이 pg_num
인 pg_num에 대한 drastic 변경이 이루어진 경우 사용자는 점별 배치 그룹 제한에 도달하여 오류를 유발할 수 있었습니다.
이번 릴리스에서는 pg_num
에 대한 변경 사항은osd 배치 그룹 제한에 대한 문제를 방지하기 위해 제한됩니다.
진행 업데이트에 대한 모든 배치 그룹 통계를 덤프하지 않도록 새로운 pg_progress
항목이 생성됩니다.
이전에는 pg_dump
항목에 python-land
로 복사된 경우 CPU를 낭비하는 불필요한 필드가 포함되어 있었습니다. 이로 인해 ClusterState::lock
hold 시간이 길어지므로 ms_dispatch
지연이 지연되고 일반적으로 프로세스 속도가 느려집니다.
이번 릴리스에서는 mgr 작업
또는 진행 중인 필드만 덤프하기 위해 새로운 pg_
항목이 생성됩니다.
progress
mgr_ip
가 더 이상 다시 패치되지 않음
이전에는 활성 Ceph 관리자 모듈의 수명 동안 mgr_ip
를 다시 가져와야 했습니다.
이번 릴리스에서는 활성 Ceph 관리자 모듈의 수명 동안 mgr_ip
가 변경되지 않으므로 다시 가져오기 위해 Ceph Manager로 다시 호출할 필요가 없습니다.
WORM 컴플라이언스 지원
Red Hat은 WORM 규정 준수를 지원합니다.
자세한 내용은 S3의 오브젝트 잠금 활성화를 참조하십시오.
사용자 및 버킷에 대한 유량 제한 설정
이번 릴리스에서는 Red Hat Ceph Storage 클러스터의 작업을 기반으로 사용자 및 버킷에 대한 속도 제한을 설정할 수 있습니다. 자세한 내용은 데이터 수집에 대한 속도 제한을 참조하십시오.
대기 시간을 줄이기 위해 영구 쓰기 로그 캐시라는 librbd
플러그인
이번 릴리스에서는 PWL(영구 쓰기 로그 캐시)이라는 새로운 librbd
플러그인은 SSD 장치로 대상으로 하는 영구 내결함성 쓰기 캐시를 제공합니다. 대기 시간을 크게 줄이고 낮은 io_depths
의 성능을 향상시킵니다. 이 캐시는 내부적으로 체크포인트를 유지 관리하는 로그 주문 나중 쓰기 설계를 사용하므로 클러스터에 다시 플러시되는 쓰기는 항상 일관성을 유지합니다. 클라이언트 캐시가 완전히 손실되더라도 디스크 이미지는 여전히 일관되게 유지되지만 데이터가 오래된 것처럼 보일 수 있습니다.
Ceph File System(CephFS)에서 스냅샷에 고가용성 비동기 복제 지원
이전에는 스토리지 클러스터당 하나의 cephfs-mirror
데몬만 배포되어 CephFS에서 스냅샷 디렉터리의 비동기 복제만 지원했습니다.
이번 릴리스에서는 두 개 이상의 노드에 여러 cephfs-mirror
데몬을 배포하여 스냅샷 동기화에서 동시성을 수행하여 고가용성을 제공할 수 있습니다.
자세한 내용은 Red Hat Ceph Storage 파일 시스템 가이드의 Ceph 파일 시스템미러링 섹션을 참조하십시오.
BlueStore가 V3로 업그레이드됨
이번 릴리스에서는 BlueStore 오브젝트 저장소가 V3로 업그레이드되었습니다. 다음은 두 가지 기능입니다.
- 할당 메타데이터는 RocksDB에서 제거되고 OSD 할당을 사용하여 al Cryostat 오브젝트의 전체 단계(destage)를 수행합니다.
- 캐시 사용 기간의 경우에는 hot 워크로드 데이터보다 우선 순위가 더 낮을 수 있습니다. 자세한 내용은 Ceph BlueStore 를 참조하십시오.
cephadm
을 사용하여 운영 체제 튜닝 프로필 관리
이번 릴리스에서는 cephadm
을 사용하여 운영 체제 튜닝 프로필을 생성하고 관리하여 Red Hat Ceph Storage 클러스터의 성능을 향상시킬 수 있습니다. 자세한 내용은 'cephadm'을 사용하여 운영 체제 튜닝 프로필 관리를 참조하십시오.
이름으로 파일 시스템을 마운트하기 위해 새로운 cephfs-shell
옵션이 도입됨
이전에는 cephfs-shell에서 기본 파일 시스템만 마운트할 수 있었습니다.
이번 릴리스에서는 다른 파일 시스템을 이름으로 마운트할 수 있는 CLI 옵션이 cephfs-shell에 추가되어 kclient
및 ceph-fuse
에 대한 mds_namespace=
또는 fs= 옵션
과 유사한 항목이 있습니다.
이제 Ceph 대시보드를 통해 2일차 작업을 수행할 수 있습니다.
이번 릴리스에서는 Ceph 대시보드에서 매일 또는 주간 작업 빈도가 필요한 2일차 작업을 수행할 수 있습니다. 이번 개선된 기능을 통해 대시보드의 평가 기능, 고객 경험 및 사용성 및 완성도가 향상됩니다. 이 외에도 작업을 완료하기 위해 추가 정보를 검색하고 사용자에게 안내하는 새로운 온스크린 요소도 포함되어 있습니다.
3.1. Cephadm 유틸리티 링크 복사링크가 클립보드에 복사되었습니다!
cephadm
을 사용하여 커널 매개변수를 관리하기 위해 OS 튜닝 프로필 추가
이번 릴리스에서는 ceph-ansible
과의 기능 패리티를 얻기 위해 tuned
프로필 사양을 적용하여 cephadm
이 사양과 일치하는 호스트에서 OS 튜닝 매개변수를 설정할 수 있습니다.
자세한 내용은 'cephadm'을 사용하여 운영 체제 튜닝 프로필 관리를 참조하십시오.
사용자는 Prometheus 사양에서 Prometheus TSDB 보존 크기와 시간을 쉽게 설정할 수 있습니다.
이전에는 사용자가 Prometheus의 기본 15d 보존 기간 및 디스크 소비를 수정할 수 없었습니다.
이번 릴리스에서는 사용자가 cephadm
을 통해 지속적으로 적용할 수 있도록 이러한 설정을 사용자 지정할 수 있으므로 사용자가 Prometheus 인스턴스가 데이터를 반환하는 데 필요한 양과 시간을 더 쉽게 지정할 수 있습니다.
이를 수행하는 형식은 다음과 같습니다.
예제
비보안 레지스트리를 정의하기 위해 새 Ansible 플레이북이 추가되었습니다.
이전 버전에서는 연결이 끊긴 설치 환경에 다수의 호스트가 있는 Red Hat Ceph Storage 클러스터를 배포할 때 각 호스트에 /etc/containers/registries.conf
파일을 채우는 것이 번거로웠습니다.
이번 릴리스에서는 /etc/containers/registries.conf
파일에 비보안 레지스트리를 정의하기 위해 새 Ansible 플레이북이 추가되었습니다. 따라서 사용자가 /etc/containers/registries.conf
를 이 새 플레이북으로 채울 수 있으므로 연결이 끊긴 설치 환경에 이러한 Ceph 클러스터를 더 쉽게 배포할 수 있습니다.