7.3. Ceph


  • CephFS でのストレッチクラスターのパフォーマンスが低下する

    マルチサイトの Data Foundation クラスターにメタデータサーバー (MDS) を任意に配置するため、小さなメタデータ操作が多数あるワークロードでは、パフォーマンスが低下する可能性があります。

    (BZ#1982116)

  • 非常に多くのファイルによる SELinux の再ラベル付けの問題

    Red Hat OpenShift Container Platform でボリュームを Pod にアタッチすると、Pod が起動しないか、起動に過度に時間がかかることがあります。この動作は一般的なもので、Kubelet による SELinux の再ラベル付けの処理方法に関係しています。この問題は、ファイル数が非常に多いファイルシステムベースのボリュームで発生します。OpenShift Data Foundation では、非常に多くのファイルがある CephFS ベースのボリュームを使用すると、この問題が発生します。この問題の回避にはさまざまな方法があります。ビジネスニーズに応じて、ナレッジベースソリューション https://access.redhat.com/solutions/6221251 から回避策の 1 つを選択できます。

    (Jira#3327)

  • Ceph がワークロードのデプロイ後に アクティブなマネージャーを報告しません

    ワークロードのデプロイメント後に、Ceph マネージャーは MON への接続を失うか、liveness プローブに応答できなくなります。

    これが原因で、OpenShift Data Foundation クラスターのステータスがアクティブなマネージャーが存在しないと報告し、また、Ceph マネージャーを使用してリクエスト処理を行う複数の操作が失敗します。たとえば、ボリュームのプロビジョニング、CephFS スナップショットの作成などです。

    OpenShift Data Foundation クラスターのステータスを確認するには、コマンド oc get cephcluster -n openshift-storage を使用します。クラスターにこの問題がある場合、ステータス出力の status.ceph.details.MGR_DOWN フィールドに "no active mgr" というメッセージが表示されます。

    回避策: 次のコマンドを使用して Ceph マネージャー Pod を再起動します。

    # oc scale deployment -n openshift-storage rook-ceph-mgr-a --replicas=0
    # oc scale deployment -n openshift-storage rook-ceph-mgr-a --replicas=1

    これらのコマンドを実行すると、OpenShift Data Foundation クラスターのステータスは正常なクラスターを報告し、MGR_DOWN に関する警告やエラーは表示されません。

    (BZ#2244873)

  • StorageCluster でカスタム deviceClass が使用されている場合に CephBlockPool の作成が失敗します

    既知の問題により、StorageCluster でカスタム deviceClass が使用されると、CephBlockPool の作成に失敗します。

    (BZ#2248487)

Red Hat logoGithubRedditYoutubeTwitter

詳細情報

試用、購入および販売

コミュニティー

Red Hat ドキュメントについて

Red Hat をお使いのお客様が、信頼できるコンテンツが含まれている製品やサービスを活用することで、イノベーションを行い、目標を達成できるようにします。

多様性を受け入れるオープンソースの強化

Red Hat では、コード、ドキュメント、Web プロパティーにおける配慮に欠ける用語の置き換えに取り組んでいます。このような変更は、段階的に実施される予定です。詳細情報: Red Hat ブログ.

会社概要

Red Hat は、企業がコアとなるデータセンターからネットワークエッジに至るまで、各種プラットフォームや環境全体で作業を簡素化できるように、強化されたソリューションを提供しています。

© 2024 Red Hat, Inc.