11.2. Ceph Monitor デーモンの削除
Controller ノードが Ceph monitor サービスを実行している場合には、以下のステップを完了して、ceph-mon
デーモンを削除してください。
クラスターに新しい Controller ノードを追加すると、新しい Ceph monitor デーモンも自動的に追加されます。
手順
置き換えるコントローラーノードに接続します。
$ ssh tripleo-admin@192.168.0.47
Ceph mon サービスを一覧表示します。
$ sudo systemctl --type=service | grep ceph ceph-4cf401f9-dd4c-5cda-9f0a-fa47fbf12b31@crash.controller-0.service loaded active running Ceph crash.controller-0 for 4cf401f9-dd4c-5cda-9f0a-fa47fbf12b31 ceph-4cf401f9-dd4c-5cda-9f0a-fa47fbf12b31@mgr.controller-0.mufglq.service loaded active running Ceph mgr.controller-0.mufglq for 4cf401f9-dd4c-5cda-9f0a-fa47fbf12b31 ceph-4cf401f9-dd4c-5cda-9f0a-fa47fbf12b31@mon.controller-0.service loaded active running Ceph mon.controller-0 for 4cf401f9-dd4c-5cda-9f0a-fa47fbf12b31 ceph-4cf401f9-dd4c-5cda-9f0a-fa47fbf12b31@rgw.rgw.controller-0.ikaevh.service loaded active running Ceph rgw.rgw.controller-0.ikaevh for 4cf401f9-dd4c-5cda-9f0a-fa47fbf12b31
Ceph mon サービスを停止します。
$ sudo systemtctl stop ceph-4cf401f9-dd4c-5cda-9f0a-fa47fbf12b31@mon.controller-0.service
Ceph mon サービスを無効にします。
$ sudo systemctl disable ceph-4cf401f9-dd4c-5cda-9f0a-fa47fbf12b31@mon.controller-0.service
- 置き換える Controller ノードとの接続を終了します。
SSH を使用して、同じクラスター内の別のコントローラーノードに接続します。
$ ssh tripleo-admin@192.168.0.46
Ceph 仕様ファイルは、この手順の後半で変更および適用します。ファイルを操作するには、エクスポートする必要があります。
$ sudo cephadm shell --ceph orch ls --export > spec.yaml
クラスターから monitor を削除します。
$ sudo cephadm shell -- ceph mon remove controller-0 removing mon.controller-0 at [v2:172.23.3.153:3300/0,v1:172.23.3.153:6789/0], there will be 2 monitors
コントローラーノードから切断し、クラスターから削除するコントローラーノードに再度ログインします。
$ ssh tripleo-admin@192.168.0.47
Ceph mgr サービスを一覧表示します。
$ sudo systemctl --type=service | grep ceph ceph-4cf401f9-dd4c-5cda-9f0a-fa47fbf12b31@crash.controller-0.service loaded active running Ceph crash.controller-0 for 4cf401f9-dd4c-5cda-9f0a-fa47fbf12b31 ceph-4cf401f9-dd4c-5cda-9f0a-fa47fbf12b31@mgr.controller-0.mufglq.service loaded active running Ceph mgr.controller-0.mufglq for 4cf401f9-dd4c-5cda-9f0a-fa47fbf12b31 ceph-4cf401f9-dd4c-5cda-9f0a-fa47fbf12b31@rgw.rgw.controller-0.ikaevh.service loaded active running Ceph rgw.rgw.controller-0.ikaevh for 4cf401f9-dd4c-5cda-9f0a-fa47fbf12b31
Ceph mgr サービスを停止します。
$ sudo systemctl stop ceph-4cf401f9-dd4c-5cda-9f0a-fa47fbf12b31@mgr.controller-0.mufglq.service
Ceph mgr サービスを無効にします。
$ sudo systemctl disable ceph-4cf401f9-dd4c-5cda-9f0a-fa47fbf12b31@mgr.controller-0.mufglq.service
cephadm
シェルを起動します。$ sudo cephadm shell
コントローラーノードの Ceph mgr サービスがクラスターから削除されていることを確認します。
$ ceph -s cluster: id: b9b53581-d590-41ac-8463-2f50aa985001 health: HEALTH_OK services: mon: 2 daemons, quorum controller-2,controller-1 (age 2h) mgr: controller-2(active, since 20h), standbys: controller1-1 osd: 15 osds: 15 up (since 3h), 15 in (since 3h) data: pools: 3 pools, 384 pgs objects: 32 objects, 88 MiB usage: 16 GiB used, 734 GiB / 750 GiB avail pgs: 384 active+clean
Ceph mgr サービスが正常に削除された場合、ノードは一覧表示されません。
Red Hat Ceph Storage 仕様をエクスポートします。
$ ceph orch ls --export > spec.yaml
-
spec.yaml
仕様ファイルで、ホストのすべてのインスタンス (controller-0
など) をservice_type: mon
およびservice_type: mgr
から削除します。 Red Hat Ceph Storage 仕様を再適用します。
$ ceph orch apply -i spec.yaml
削除されたホストに Ceph デーモンが残っていないことを確認します。
$ ceph orch ps controller-0
注記デーモンが存在する場合は、次のコマンドを使用してそれらを削除します。
$ ceph orch host drain controller-0
ceph orch host drain
コマンドを実行する前に、/etc/ceph
の内容をバックアップします。ceph orch host drain
コマンドを実行した後、内容を復元します。https://bugzilla.redhat.com/show_bug.cgi?id=2153827 が解決されるまで、ceph orch host drain
コマンドを実行する前にバックアップする必要があります。Red Hat Ceph Storage クラスターから
controller-0
ホストを削除します。$ ceph orch host rm controller-0 Removed host 'controller-0'
cephadm シェルを終了します。
$ exit
関連情報
- systemd を使用した Red Hat Ceph Storage サービスの制御の詳細は、Ceph のプロセス管理について を参照してください。
- Red Hat Ceph Storage 仕様ファイルの編集と適用の詳細は、サービス仕様を使用した Ceph モニターデーモンのデプロイ を参照してください。