17.2. Ceph monitor デーモンの削除
コントローラーノードが Ceph monitor サービスを実行している場合には、以下のステップを完了して、ceph-mon
デーモンを削除してください。
クラスターに新しいコントローラーノードを追加すると、新しい Ceph monitor デーモンも自動的に追加されます。
手順
置き換えるコントローラーノードに接続して、root ユーザーになります。
ssh heat-admin@192.168.0.47 sudo su -
# ssh heat-admin@192.168.0.47 # sudo su -
Copy to Clipboard Copied! 注記コントローラーノードにアクセスすることができない場合、ステップ 1 と 2 をスキップして、稼働している任意のコントローラーノードでステップ 3 から手順を続行してください。
monitor を停止します。
systemctl stop ceph-mon@<monitor_hostname>
# systemctl stop ceph-mon@<monitor_hostname>
Copy to Clipboard Copied! 以下に例を示します。
systemctl stop ceph-mon@overcloud-controller-1
# systemctl stop ceph-mon@overcloud-controller-1
Copy to Clipboard Copied! - 置き換えるコントローラーノードとの接続を終了します。
既存のコントローラーノードのいずれかに接続します。
ssh heat-admin@192.168.0.46 sudo su -
# ssh heat-admin@192.168.0.46 # sudo su -
Copy to Clipboard Copied! クラスターから monitor を削除します。
sudo podman exec -it ceph-mon-controller-0 ceph mon remove overcloud-controller-1
# sudo podman exec -it ceph-mon-controller-0 ceph mon remove overcloud-controller-1
Copy to Clipboard Copied! すべてのコントローラーノード上で、
/etc/ceph/ceph.conf
から v1 および v2 monitor のエントリーを削除します。たとえば、controller-1 を削除する場合には、controller-1 の IP アドレスとホスト名を削除します。編集前:
mon host = [v2:172.18.0.21:3300,v1:172.18.0.21:6789],[v2:172.18.0.22:3300,v1:172.18.0.22:6789],[v2:172.18.0.24:3300,v1:172.18.0.24:6789] mon initial members = overcloud-controller-2,overcloud-controller-1,overcloud-controller-0
mon host = [v2:172.18.0.21:3300,v1:172.18.0.21:6789],[v2:172.18.0.22:3300,v1:172.18.0.22:6789],[v2:172.18.0.24:3300,v1:172.18.0.24:6789] mon initial members = overcloud-controller-2,overcloud-controller-1,overcloud-controller-0
Copy to Clipboard Copied! 変更後:
mon host = [v2:172.18.0.21:3300,v1:172.18.0.21:6789],[v2:172.18.0.24:3300,v1:172.18.0.24:6789] mon initial members = overcloud-controller-2,overcloud-controller-0
mon host = [v2:172.18.0.21:3300,v1:172.18.0.21:6789],[v2:172.18.0.24:3300,v1:172.18.0.24:6789] mon initial members = overcloud-controller-2,overcloud-controller-0
Copy to Clipboard Copied! 注記置き換え用のコントローラーノードを追加すると、director によって該当するオーバークラウドノード上の
ceph.conf
ファイルが更新されます。通常は、director がこの設定ファイルを管理するだけで、手動でファイルを編集する必要はありません。ただし、新規ノードが追加する前に他のノードが再起動してしまった場合に一貫性を保つために、手動でファイルを編集することができます。(オプション) monitor データをアーカイブし、アーカイブを別のサーバーに保存します。
mv /var/lib/ceph/mon/<cluster>-<daemon_id> /var/lib/ceph/mon/removed-<cluster>-<daemon_id>
# mv /var/lib/ceph/mon/<cluster>-<daemon_id> /var/lib/ceph/mon/removed-<cluster>-<daemon_id>
Copy to Clipboard Copied!