3.6. RADOS
Red Hat Ceph Storage는 삭제 코드(EC) 풀에서 사용 가능한 OSD 수가 적기 때문에 복구됩니다.
이전 버전에서는 크기가 k+m
인 agesure coded (EC) 풀에 복구하려면 최소 k+1
복사본이 필요합니다. k
복사본만 사용할 수 있는 경우 복구가 불완전합니다.
이번 릴리스에서는 Red Hat Ceph Storage 클러스터에서 EC 풀에서 사용 가능한 k
이상의 사본을 사용하여 복구할 수 있습니다.
삭제 코딩된 풀에 대한 자세한 내용은 Red Hat Ceph Storage Storage Strategies Guide 의 코드화된 풀 장을 참조하십시오.
열 제품군을 사용한 MultiplesDB 데이터베이스 분할이 지원됩니다.
BlueStore 관리자 도구를 사용하면 읽기 및 쓰기 간소화, 압축 중에 DB(Database) 확장을 줄이고 IOPS 성능을 향상시키는 것이 목표입니다.
이번 릴리스에서는 BlueStore 관리자 도구를 사용하여 데이터베이스를 다시 지정할 수 있습니다. RobsDB(DB) 데이터베이스의 데이터는 여러 Column Families(CF)로 나뉩니다. 각 CF에는 자체 옵션이 있으며 분할은 omap, 오브젝트 데이터, 지연 캐시된 쓰기 및 PGlog와 같은 데이터 유형에 따라 수행됩니다.
Resharding에 대한 자세한 내용은 Red Hat Ceph Storage 관리 가이드의 BlueStore 관리 툴 섹션을 사용하여 RamsDB 데이터베이스 Resharding을 참조하십시오.
Ceph 모니터에 mon_allow_pool_size_one
구성 옵션을 활성화할 수 있습니다.
이번 릴리스에서는 사용자가 설정 옵션 mon_allow_pool_size_one
을 활성화할 수 있습니다. 활성화하면 사용자는 풀 크기를
에 대해 1
로 설정하려는 경우 osd pool--yes-i-really-mean-it
플래그를 전달해야 합니다.
osd_client_message_cap
옵션이 다시 추가되었습니다.
이전에는 osd_client_message_cap
옵션이 제거되었습니다. 이번 릴리스에서는 osd_client_message_cap
옵션이 다시 소개되었습니다. 이 옵션은 이러한 요청을 제한하여 진행 중인 클라이언트 요청의 최대 수를 제어하는 데 도움이 됩니다. 이 작업을 수행하면 많은 양의 클라이언트 기반 트래픽으로 인해 Ceph OSD가 플러프될 때 유용할 수 있습니다.
Ceph directorenger 프로토콜이 msgr v2.1로 업데이트되었습니다.
이번 릴리스에서는 새로운 버전의 Ceph directorenger 프로토콜인 msgr v2.1이 구현되어 있으며 이는 이전 버전 msgr v2.0과 관련된 여러 보안, 무결성 및 잠재적인 성능 문제를 해결합니다. 데몬 및 클라이언트 모두 모든 Ceph 엔티티는 기본적으로 msgr v2.1입니다.
새로운 기본 osd_client_message_cap
값은 256
이전에는 osd_client_message_cap
의 기본값이 0
이었습니다. 기본값 0
은 Ceph OSD의 흐름 제어 기능을 비활성화하고 클라이언트 트래픽이 많은 동안 Ceph OSD가 플러쉬하지 않도록 합니다.
이번 릴리스에서는 osd_client_message_cap
에 대한 기본값 256
을 통해 진행 중인 클라이언트 요청의 최대 수를 제한하여 더 나은 흐름 제어 기능을 제공합니다.
set_new_tiebreaker
명령이 추가되었습니다.
이번 릴리스에서는 스토리지 관리자가 확장 모드에서 스토리지 클러스터에서 실행할 때 새로운 tiebreak Ceph Monitor를 설정할 수 있습니다. 이 명령은 tiebreaker가 실패하고 복구할 수 없는 경우 유용할 수 있습니다.