7.2. Ceph
CephFS에서 클러스터 확장의 성능 저하
많은 작은 메타데이터 작업이 있는 워크로드는 다중 사이트 Data Foundation 클러스터에서 메타데이터 서버(MDS)를 임의로 배치하기 때문에 성능이 저하될 수 있습니다.
SELinux의 레이블이 매우 많은 파일의 레이블 지정 문제
Red Hat OpenShift Container Platform의 Pod에 볼륨을 연결할 때 Pod가 시작되지 않거나 시작하는 데 과도한 시간이 걸리는 경우가 있습니다. 이 동작은 일반적이며 Kubelet에서 SELinux 재레이블을 처리하는 방법과 관련이 있습니다. 이 문제는 파일 수가 매우 높은 파일 시스템 기반 볼륨에서 관찰됩니다. OpenShift Data Foundation에서는 매우 많은 파일과 함께 CephFS 기반 볼륨을 사용할 때 문제가 발생합니다. 이 문제를 해결하는 방법은 다양합니다. 비즈니스 요구에 따라 지식 베이스 솔루션 https://access.redhat.com/solutions/6221251 에서 해결 방법 중 하나를 선택할 수 있습니다.
충돌 또는 종료 테스트가 실행된 후에는 Ceph에 액세스할 수 없습니다.
스트레치 클러스터에서 모니터가 개선되고 다른 모니터가
MonitorMap
또는OSDMap
과 같은 최신 정보를 수신하기 위해 모니터가 업데이트되면 프로빙 단계에 있을 때stretch_mode
에 들어갈 수 없습니다. 이렇게 하면 선택자의disallowed_leaders
목록을 올바르게 설정할 수 없습니다.재발성 모니터가 실제로 가장 좋은 점수를 가지고 있다고 가정하면 현재 선택 라운드의 리더가되는 것이 가장 적합한 것으로 생각하고 모니터의 선택 단계가 유지되며
허용되지 않은_leaders
목록으로 인해 비활성화 된 모니터에 의해 거부되고 계속 거부 될 것입니다. 이로 인해 모니터가 선택 해제되고 Ceph가 결국 응답하지 않습니다.이 문제를 해결하려면 선택 및 Ceph가 응답하지 않는 경우 명령을 사용하여 각 모니터의 연결 점수를 재설정합니다.
`ceph daemon mon.{name} connection scores reset`
이 기능이 작동하지 않으면 모니터를 하나씩 다시 시작합니다. 그러면 선택 사항이 해제되고 모니터는 리더를 선택하고 쿼럼을 형성하며 Ceph가 다시 응답 상태가 됩니다.
워크로드 배포 후 Ceph에서
활성 mgr을 보고하지 않음
워크로드 배포 후 Ceph 관리자는 MON에 대한 연결이 끊어지거나 활성 상태 프로브에 응답할 수 없습니다.
이로 인해 ODF 클러스터 상태가 "활성 mgr"이 있다고 보고합니다. 이로 인해 Ceph 관리자를 사용하여 요청 처리가 실패하는 여러 작업이 발생합니다. 예를 들어 볼륨 프로비저닝, CephFS 스냅샷 생성 등입니다.
ODF 클러스터의 상태를 확인하려면
oc get cephcluster -n openshift-storage
명령을 사용합니다. 상태 출력에서 클러스터에 이 문제가 있는 경우status.ceph.details.MGR_DOWN
필드에 "활성 mgr" 메시지가 표시됩니다.이 문제를 해결하려면 다음 명령을 사용하여 Ceph 관리자 Pod를 다시 시작하십시오.
# oc scale deployment -n openshift-storage rook-ceph-mgr-a --replicas=0
# oc scale deployment -n openshift-storage rook-ceph-mgr-a --replicas=1
이러한 명령을 실행한 후 ODF 클러스터 상태는 정상 클러스터를 보고하고
MGR_DOWN
과 관련된 경고 또는 오류가 표시되지 않습니다.
StorageCluster에서 사용자 지정 deviceClass를 사용하는 경우 CephBlockPool 생성이 실패합니다.
알려진 문제로 인해 StorageCluster에서 사용자 지정 deviceClass를 사용하면 CephBlockPool 생성이 실패합니다.