第9章 DistributedComputeHCI ノードの置き換え


ハードウェアのメンテナンス中に、エッジサイトの DistributedComputeHCI ノードのスケールダウン、スケールアップ、または置き換えが必要になる場合があります。DistributedComputeHCI ノードを置き換えるには、置き換えるノードからサービスを削除し、ノード数をスケールダウンしてから、これらのノードを再びスケールアップする手順に従います。

9.1. Red Hat Ceph Storage サービスの削除

クラスターから HCI (ハイパーコンバージド) ノードを削除する前に、Red Hat Ceph Storage サービスを削除する必要があります。Red Hat Ceph サービスを削除するには、削除するノードのクラスターサービスから ceph-osd サービスを無効にしてから、mon サービス、mgr サービス、および osd サービスを停止して無効にする必要があります。

手順

  1. アンダークラウド上で、SSH を使用して、削除する DistributedComputeHCI ノードに接続します。

    $ ssh tripleo-admin@<dcn-computehci-node>
  2. cephadm シェルを起動します。削除するホストの設定ファイルとキーリングファイルを使用します。

    $ sudo cephadm shell --config /etc/ceph/dcn2.conf \
    --keyring /etc/ceph/dcn2.client.admin.keyring
  3. 後の手順で参照できるように、削除する DistributedComputeHCI ノードに関連付けられている OSD (オブジェクトストレージデバイス) を記録します。

    [ceph: root@dcn2-computehci2-1 ~]# ceph osd tree -c /etc/ceph/dcn2.conf
    …
    -3       0.24399     host dcn2-computehci2-1
     1   hdd 0.04880         osd.1                           up  1.00000 1.00000
     7   hdd 0.04880         osd.7                           up  1.00000 1.00000
    11   hdd 0.04880         osd.11                          up  1.00000 1.00000
    15   hdd 0.04880         osd.15                          up  1.00000 1.00000
    18   hdd 0.04880         osd.18                          up  1.00000 1.00000
    …
  4. SSH を使用して同じクラスター内の別のノードに接続し、クラスターからモニターを削除します。

    $ sudo cephadm shell --config /etc/ceph/dcn2.conf \
    --keyring /etc/ceph/dcn2.client.admin.keyring
    
    [ceph: root@dcn-computehci2-0]# ceph mon remove dcn2-computehci2-1 -c /etc/ceph/dcn2.conf
    removing mon.dcn2-computehci2-1 at [v2:172.23.3.153:3300/0,v1:172.23.3.153:6789/0], there will be 2 monitors
  5. SSH を使用して、クラスターから削除するノードに再度ログインします。
  6. mgr サービスを停止し、無効にします。

    [tripleo-admin@dcn2-computehci2-1 ~]$ sudo systemctl --type=service | grep ceph
    ceph-crash@dcn2-computehci2-1.service    loaded active     running       Ceph crash dump collector
    ceph-mgr@dcn2-computehci2-1.service      loaded active     running       Ceph Manager
    
    [tripleo-admin@dcn2-computehci2-1 ~]$ sudo systemctl stop ceph-mgr@dcn2-computehci2-1
    
    [tripleo-admin@dcn2-computehci2-1 ~]$ sudo systemctl --type=service | grep ceph
    ceph-crash@dcn2-computehci2-1.service  loaded active running Ceph crash dump collector
    
    [tripleo-admin@dcn2-computehci2-1 ~]$ sudo systemctl disable ceph-mgr@dcn2-computehci2-1
    Removed /etc/systemd/system/multi-user.target.wants/ceph-mgr@dcn2-computehci2-1.service.
  7. cephadm シェルを起動します。

    $ sudo cephadm shell --config /etc/ceph/dcn2.conf \
    --keyring /etc/ceph/dcn2.client.admin.keyring
  8. ノードの mgr サービスがクラスターから削除されていることを確認します。

    [ceph: root@dcn2-computehci2-1 ~]# ceph -s
    
    cluster:
        id:     b9b53581-d590-41ac-8463-2f50aa985001
        health: HEALTH_WARN
                3 pools have too many placement groups
                mons are allowing insecure global_id reclaim
    
      services:
        mon: 2 daemons, quorum dcn2-computehci2-2,dcn2-computehci2-0 (age 2h)
        mgr: dcn2-computehci2-2(active, since 20h), standbys: dcn2-computehci2-0
        osd: 15 osds: 15 up (since 3h), 15 in (since 3h)
    
      data:
        pools:   3 pools, 384 pgs
        objects: 32 objects, 88 MiB
        usage:   16 GiB used, 734 GiB / 750 GiB avail
        pgs:     384 active+clean
    注記

    mgr サービスが正常に削除されると、mgr サービスが削除されたノードは表示されなくなります。

  9. Red Hat Ceph Storage 仕様をエクスポートします。

    [ceph: root@dcn2-computehci2-1 ~]# ceph orch ls --export > spec.yml
  10. spec.yaml ファイルで仕様を編集します。

    • spec.yml からホストの <dcn-computehci-node> のインスタンスをすべて削除します。
    • 以下の <dcn-computehci-node> エントリーのインスタンスをすべて削除します。

      • service_type: osd
      • service_type: mon
      • service_type: host
  11. Red Hat Ceph Storage 仕様を再適用します。

    [ceph: root@dcn2-computehci2-1 /]# ceph orch apply -i spec.yml
  12. ceph osd tree を使用して特定した OSD を削除します。

    [ceph: root@dcn2-computehci2-1 /]# ceph orch osd rm --zap 1 7 11 15 18
    Scheduled OSD(s) for removal
  13. 削除する OSD のステータスを確認します。次のコマンドで出力が返されなくなるまで続行しないでください。

    [ceph: root@dcn2-computehci2-1 /]# ceph orch osd rm status
    OSD_ID  HOST                    STATE     PG_COUNT  REPLACE  FORCE  DRAIN_STARTED_AT
    1       dcn2-computehci2-1      draining  27        False    False  2021-04-23 21:35:51.215361
    7       dcn2-computehci2-1      draining  8         False    False  2021-04-23 21:35:49.111500
    11      dcn2-computehci2-1      draining  14        False    False  2021-04-23 21:35:50.243762
  14. 削除するホストにデーモンが残っていないことを確認します。

    [ceph: root@dcn2-computehci2-1 /]# ceph orch ps dcn2-computehci2-1

    デーモンがまだ存在する場合は、次のコマンドで削除できます。

    [ceph: root@dcn2-computehci2-1 /]# ceph orch host drain dcn2-computehci2-1
  15. Red Hat Ceph Storage クラスターから <dcn-computehci-node> ホストを削除します。

    [ceph: root@dcn2-computehci2-1 /]# ceph orch host rm dcn2-computehci2-1
    Removed host ‘dcn2-computehci2-1’
Red Hat logoGithubredditYoutubeTwitter

詳細情報

試用、購入および販売

コミュニティー

Red Hat ドキュメントについて

Red Hat をお使いのお客様が、信頼できるコンテンツが含まれている製品やサービスを活用することで、イノベーションを行い、目標を達成できるようにします。 最新の更新を見る.

多様性を受け入れるオープンソースの強化

Red Hat では、コード、ドキュメント、Web プロパティーにおける配慮に欠ける用語の置き換えに取り組んでいます。このような変更は、段階的に実施される予定です。詳細情報: Red Hat ブログ.

会社概要

Red Hat は、企業がコアとなるデータセンターからネットワークエッジに至るまで、各種プラットフォームや環境全体で作業を簡素化できるように、強化されたソリューションを提供しています。

Theme

© 2026 Red Hat
トップに戻る