6.4. Red Hat Ceph Storage 7.1z4
Red Hat Ceph Storage 릴리스 7.1z4가 공개되었습니다. 업데이트에 포함된 보안 및 버그 수정 목록은 RHSA-2025:4664 및 RHSA-2025:4667 권고에 설명되어 있습니다.
6.4.1. 기능 개선 링크 복사링크가 클립보드에 복사되었습니다!
이 섹션에는 Red Hat Ceph Storage 릴리스에 도입된 개선 사항이 나열되어 있습니다.
6.4.1.1. Cephadm 유틸리티 링크 복사링크가 클립보드에 복사되었습니다!
cephadm systemd 장치의 코어 덤프 처리 개선
이전 버전에서는 서비스가 충돌했을 때 코어 덤프가 생성되지 않았거나 특히 중요한 디버깅 정보 손실에서 케이스를 생성하기 어려운 경우 잘렸습니다.
이 향상된 기능을 통해 cephadm 은 systemd 장치 파일 템플릿에 LimitCORE=infinity
를 설정하고 mgr/cephadm/set_coredump_overrides
설정이 활성화된 경우 coredumpctl
의 ProcessSizeMax
및 ExternalSizeMax
설정을 구성합니다. 코어 덤프의 최대 크기는 mgr/cephadm/coredump_max_size
설정에 의해 제어됩니다. 결과적으로 서비스가 완전한 코어 덤프를 생성하여 충돌 문제를 디버깅하는 기능을 개선합니다.
6.4.1.2. Ceph Object Gateway 링크 복사링크가 클립보드에 복사되었습니다!
버킷 알림을 다중 노드 Kafka 클러스터로 보낼 수 있음
이전에는 Ceph Object Gateway에서 단일 노드 Kafka 클러스터에만 메시지를 보낼 수 있었습니다.
이번 개선된 기능을 통해 버킷 알림을 다중 노드 Kafka 클러스터로 보낼 수 있습니다. 다중 노드 Kafka 클러스터 지원을 통해 클러스터의 HA(고가용성)를 올바르게 활용할 수 있습니다. 다른 Kafka 노드가 up인 노드가 down 상태인 경우 메시지를 보낼 수 있습니다. 또한 Ceph Object Gateway가 각 노드에 연결되어 있으므로 모든 노드에 복제되지 않는 주제 파티션으로 인해 버킷 알림 오류가 더 이상 발생하지 않습니다.
이제 사이트에서 기존 버킷 생성에 대한 RGW 오류 처리를 구성할 수 있습니다.
이전에는 RGW에서 새 버킷이 생성되지 않은 경우에도 동일한 영역에 이미 존재하는 버킷을 생성할 때 성공 응답을 반환했습니다. 이로 인해 자동화된 워크플로우에 혼동이 발생했습니다.
이번 개선된 기능을 통해 사이트에서 이미 영역에 존재하는 버킷을 만들려고 할 때 성공 대신 오류를 반환하도록 RGW를 구성할 수 있습니다. 구성 옵션 rgw_bucket_exist_override
가 true로 설정된 경우 RGW는 중복 버킷 생성 요청에 대해 409 BucketAlreadyExists
오류를 반환합니다. 기본적으로 이 옵션은 false
로 설정됩니다.
6.4.1.3. RADOS 링크 복사링크가 클립보드에 복사되었습니다!
불필요한 오브젝트 ID 복구 검사를 제거하여 PG scrub 성능 개선
이전 버전에서는 모든 PG scrub가 repair_oinfo_oid()
를 호출했지만 드문 경우에서 일치하지 않는 오브젝트 ID를 수정하는 기능이 기록 파일 시스템 버그에 연결되어 있었습니다. 이로 인해 점검이 매우 특정 조건에서만 적용되므로 불필요한 오버헤드가 추가되었습니다.
이번 개선된 기능을 통해 검사가 제거되어 딥 스러브 성능을 10% 이상 개선할 수 있었습니다. 희미한 스크럽은 더 많은 이익을 얻을 것으로 예상됩니다.
OSDMap 정리에 대한 새로운 ceph osd rm-pg-up map-primary-all
명령
이전에는 사용자가 ceph osd rm-pg-upmap-primary PGID
를 사용하여 pg_upmap_primary
매핑을 개별적으로 제거해야 했습니다. 특히 풀 삭제 후 잘못된 매핑을 정리해야 했습니다.
이번 개선된 기능을 통해 사용자는 새로운 ceph osd rm-pg-upmap-primary-all
명령을 실행하여 OSDMap에서 모든 pg_upmap_primary
매핑을 한 번에 지워 관리 및 정리를 단순화할 수 있습니다.
6.4.2. 확인된 문제 링크 복사링크가 클립보드에 복사되었습니다!
이 섹션에서는 Red Hat Ceph Storage 릴리스에서 발견된 알려진 문제에 대해 설명합니다.
6.4.2.1. Cephadm 유틸리티 링크 복사링크가 클립보드에 복사되었습니다!
내보내기 데몬은 SIGTERM을 수신한 후 오류 상태를 보고합니다.
현재 ceph-exporter
및 node-exporter
데몬은 SIGTERM 신호를 수신할 때 0이 아닌 반환 코드를 반환합니다. 결과적으로 시스템은 이러한 데몬을 예상 중지된 상태 대신 오류 상태로 표시합니다.
현재 사용 가능한 해결방법이 없습니다.
유지보수 모드를 종료한 후 데몬이 중지된 것으로 잘못 표시됨
노드가 유지보수 모드로 전환되면 cephadm 은 이미 시작된 경우에도 해당 노드의 데몬을 중지된 상태로 일시적으로 표시할 수 있습니다. 이는 cephadm이 호스트에서 데몬 상태를 아직 새로 고치지 않았기 때문에 발생합니다. 결과적으로 사용자는 유지보수 모드가 종료된 직후 데몬이 중지된 것으로 실수로 표시될 수 있습니다.
현재는 해결방법이 없습니다.