7.2. Ceph
CephFS でのストレッチクラスターのパフォーマンスが低下する
マルチサイトの Data Foundation クラスターにメタデータサーバー (MDS) を任意に配置するため、小さなメタデータ操作が多数あるワークロードでは、パフォーマンスが低下する可能性があります。
非常に多くのファイルによる SELinux の再ラベル付けの問題
Red Hat OpenShift Container Platform でボリュームを Pod にアタッチすると、Pod が起動しないか、起動に過度に時間がかかることがあります。この動作は一般的なもので、Kubelet による SELinux の再ラベル付けの処理方法に関係しています。この問題は、ファイル数が非常に多いファイルシステムベースのボリュームで発生します。OpenShift Data Foundation では、非常に多くのファイルがある CephFS ベースのボリュームを使用すると、この問題が発生します。この問題の回避にはさまざまな方法があります。ビジネスニーズに応じて、ナレッジベースソリューション https://access.redhat.com/solutions/6221251 から回避策の 1 つを選択できます。
データゾーン間のネット分割中に Ceph が応答しなくなる
arbiter を備えた 2 サイトのストレッチクラスターでは、データゾーン間のネットスプリット中に、Rook Operator が
failed to get ceph status
というエラーを出力します。これは、ゾーン 1 とゾーン 2、ゾーン 1 と arbiter にネットスプリットが誘導されると、ゾーン 1 が約 20 分間クラスターから切り離されるために発生します。ただし、rook-operator ログにスローされたエラーは関連性がなく、OpenShift Data Foundation は netsplit 状況でも正常に動作することがわかります。
CephOSDCritallyFull
およびCephOSDNearFull
アラートが期待どおりに起動されないCeph が提供するメトリクスで
ceph_daemon
値の形式が変更されており、これらのアラートは古い値の形式を使用しているので、CephOSDCritallyFull
およびCephOSDNearFull
のアラートは想定通りに発行されません。