7.3. Ceph
CephFS でのストレッチクラスターのパフォーマンスが低下する
マルチサイトの Data Foundation クラスターにメタデータサーバー (MDS) を任意に配置するため、小さなメタデータ操作が多数あるワークロードでは、パフォーマンスが低下する可能性があります。
非常に多くのファイルによる SELinux の再ラベル付けの問題
Red Hat OpenShift Container Platform でボリュームを Pod にアタッチすると、Pod が起動しないか、起動に過度に時間がかかることがあります。この動作は一般的なもので、Kubelet による SELinux の再ラベル付けの処理方法に関係しています。この問題は、ファイル数が非常に多いファイルシステムベースのボリュームで発生します。OpenShift Data Foundation では、非常に多くのファイルがある CephFS ベースのボリュームを使用すると、この問題が発生します。この問題の回避にはさまざまな方法があります。ビジネスニーズに応じて、ナレッジベースソリューション https://access.redhat.com/solutions/6221251 から回避策の 1 つを選択できます。
Ceph がワークロードのデプロイ後に
アクティブなマネージャーを報告しません
ワークロードのデプロイメント後に、Ceph マネージャーは MON への接続を失うか、liveness プローブに応答できなくなります。
これが原因で、OpenShift Data Foundation クラスターのステータスがアクティブなマネージャーが存在しないと報告し、また、Ceph マネージャーを使用してリクエスト処理を行う複数の操作が失敗します。たとえば、ボリュームのプロビジョニング、CephFS スナップショットの作成などです。
OpenShift Data Foundation クラスターのステータスを確認するには、コマンド
oc get cephcluster -n openshift-storage
を使用します。クラスターにこの問題がある場合、ステータス出力のstatus.ceph.details.MGR_DOWN
フィールドに "no active mgr" というメッセージが表示されます。回避策: 次のコマンドを使用して Ceph マネージャー Pod を再起動します。
# oc scale deployment -n openshift-storage rook-ceph-mgr-a --replicas=0
# oc scale deployment -n openshift-storage rook-ceph-mgr-a --replicas=1
これらのコマンドを実行すると、OpenShift Data Foundation クラスターのステータスは正常なクラスターを報告し、
MGR_DOWN
に関する警告やエラーは表示されません。
StorageCluster でカスタム deviceClass が使用されている場合に CephBlockPool の作成が失敗します
既知の問題により、StorageCluster でカスタム deviceClass が使用されると、CephBlockPool の作成に失敗します。