第7章 既知の問題
本セクションでは、Red Hat Ceph Storage の今回リリースで見つかった既知の問題を説明します。
7.1. Ceph Ansible ユーティリティー
CephFS 関連のプールでは、配置グループ Autoscaler のデプロイが想定どおりに機能しない
この問題を回避するには、Playbook の実行後に、CephFS 関連のプールで配置グループ Autoscaler を手動で有効にできます。
systemd ユニットテンプレートではパラメーター Restart=always を適用するため、Ceph OSD が osd_max_markdown_count
パラメーターを使用することができない
OSD デーモンの systemd ユニットテンプレートは、パラメーター Restart=always
を強制するため、osd_max_markdown_count
パラメーターを使用しないと、サービスを再起動することになります。この問題を回避するには、ceph_osd_systemd_overrides
変数を使用して OSD systemd テンプレートの Restart=
パラメーターを上書きします。つまり、次のようになります。
[osds] osd0 ceph_osd_systemd_overrides="{'Service': {'Restart': 'no'}}"
Playbook の filestore-to-bluestore
が「osd_auto_discovery」シナリオに対応しない
osd_auto_recovery
のシナリオをベースとした Red Hat Ceph Storage 4 デプロイメントでは、BlueStore
の移行を容易にするために Playbook filestore-to-bluestore
を使用することができません。
この問題を回避するには、Playbook の shrink-osd
を使用して、osd_objectstore: bluestore
で縮小された OSD を再デプロイします。
アップグレードプロセスでは、ceph-crash
コンテナーデーモンを自動的に停止しない
アップグレードプロセスでは、ceph-crash
ロールへの呼び出しを実行しますが、呼び出しは ceph-crash
サービスのみを起動します。アップグレードプロセス中に ceph-crash
コンテナーデーモンが稼働したままであれば、それらはアップグレードの完了時に再起動しません。
この問題を回避するには、アップグレード後に ceph-crash
コンテナーを手動で再起動します。