検索

12.3. システムから古いディスクを削除し、交換ディスクをインストールします。

download PDF

置き換える必要のある OSD のあるコンテナーホストで、システムから古いディスクを削除し、交換ディスクをインストールします。

前提条件

ceph-volume コマンドは Ceph コンテナーにありますが、オーバークラウドノードにはインストールされません。ceph-volume コマンドが Ceph コンテナー内で ceph-volume バイナリーを実行できるようにエイリアスを作成します。次に、ceph-volume コマンドを使用して新規ディスクをクリーンアップし、これを OSD として追加します。

手順

  1. 障害のある OSD が実行されていないことを確認します。

    systemctl stop ceph-osd@27
  2. ceph コンテナーイメージのイメージ ID を特定して、これを IMG という環境変数に保存します。

    IMG=$(podman images | grep ceph | awk {'print $3'})
  3. ceph-volume コマンドにエイリアスを設定し、これが ceph-volume エントリーポイントおよび関連するディレクトリーを使用して $IMG Ceph コンテナー内で実行されるようにします。

    alias ceph-volume="podman run --rm --privileged --net=host --ipc=host -v /run/lock/lvm:/run/lock/lvm:z -v /var/run/udev/:/var/run/udev/:z -v /dev:/dev -v /etc/ceph:/etc/ceph:z -v /var/lib/ceph/:/var/lib/ceph/:z -v /var/log/ceph/:/var/log/ceph/:z --entrypoint=ceph-volume $IMG --cluster ceph"
  4. aliased コマンドが正常に実行されていることを確認します。

    ceph-volume lvm list
  5. 新規 OSD デバイスが LVM に含まれていないことを確認します。pvdisplay コマンドを使用してデバイスを検査し、VG Name フィールドが空であることを確認します。<NEW_DEVICE> を新規 OSD デバイスの /dev/* パスに置き換えます。

    [root@overcloud-computehci-2 ~]# pvdisplay <NEW_DEVICE>
      --- Physical volume ---
      PV Name               /dev/sdj
      VG Name               ceph-0fb0de13-fc8e-44c8-99ea-911e343191d2
      PV Size               50.00 GiB / not usable 1.00 GiB
      Allocatable           yes (but full)
      PE Size               1.00 GiB
      Total PE              49
      Free PE               0
      Allocated PE          49
      PV UUID               kOO0If-ge2F-UH44-6S1z-9tAv-7ypT-7by4cp
    [root@overcloud-computehci-2 ~]#

    この VG Name フィールドが空でない場合は、デバイスは削除する必要のあるボリュームグループに属します。

  6. デバイスがボリュームグループに属する場合は、lvdisplay コマンドを使用して、ボリュームグループに論理ボリュームがあるかどうかを確認します。<VOLUME_GROUP> を、pvdisplay コマンドから取得した VG Name フィールドの値に置き換えます。

    [root@overcloud-computehci-2 ~]# lvdisplay | grep <VOLUME_GROUP>
      LV Path                /dev/ceph-0fb0de13-fc8e-44c8-99ea-911e343191d2/osd-data-a0810722-7673-43c7-8511-2fd9db1dbbc6
      VG Name                ceph-0fb0de13-fc8e-44c8-99ea-911e343191d2
    [root@overcloud-computehci-2 ~]#

    この LV Path フィールドが空でない場合は、デバイスには、削除する必要のある論理ボリュームが含まれます。

  7. 新規デバイスが論理ボリュームまたはボリュームグループの一部である場合、論理ボリューム、ボリュームグループ、および LVM システム内の物理ボリュームとしてのデバイスの関連付けを削除します。

    • <LV_PATH>LV Path フィールドの値に置き換えます。
    • <VOLUME_GROUP>VG Name フィールドの値に置き換えます。
    • <NEW_DEVICE> を新規 OSD デバイスの /dev/* パスに置き換えます。

      [root@overcloud-computehci-2 ~]# lvremove --force <LV_PATH>
        Logical volume "osd-data-a0810722-7673-43c7-8511-2fd9db1dbbc6" successfully removed
      [root@overcloud-computehci-2 ~]# vgremove --force <VOLUME_GROUP>
        Volume group "ceph-0fb0de13-fc8e-44c8-99ea-911e343191d2" successfully removed
      [root@overcloud-computehci-2 ~]# pvremove <NEW_DEVICE>
        Labels on physical volume "/dev/sdj" successfully wiped.
  8. 新しい OSD デバイスがクリーンであることを確認します。以下の例では、デバイスは /dev/sdj になります。

    [root@overcloud-computehci-2 ~]# ceph-volume lvm zap /dev/sdj
    --> Zapping: /dev/sdj
    --> --destroy was not specified, but zapping a whole device will remove the partition table
    Running command: /usr/sbin/wipefs --all /dev/sdj
    Running command: /bin/dd if=/dev/zero of=/dev/sdj bs=1M count=10
     stderr: 10+0 records in
    10+0 records out
    10485760 bytes (10 MB, 10 MiB) copied, 0.010618 s, 988 MB/s
    --> Zapping successful for: <Raw Device: /dev/sdj>
    [root@overcloud-computehci-2 ~]#
  9. 新しいデバイスを使用して既存の OSD ID で新しい OSD を作成しますが、ceph-volume が OSD の起動を試行しないように --no-systemd を渡します。これはコンテナー内からは実行できません。

    ceph-volume lvm create --osd-id 27 --data /dev/sdj --no-systemd
  10. コンテナー外で OSD を起動します。

    systemctl start ceph-osd@27
Red Hat logoGithubRedditYoutubeTwitter

詳細情報

試用、購入および販売

コミュニティー

Red Hat ドキュメントについて

Red Hat をお使いのお客様が、信頼できるコンテンツが含まれている製品やサービスを活用することで、イノベーションを行い、目標を達成できるようにします。

多様性を受け入れるオープンソースの強化

Red Hat では、コード、ドキュメント、Web プロパティーにおける配慮に欠ける用語の置き換えに取り組んでいます。このような変更は、段階的に実施される予定です。詳細情報: Red Hat ブログ.

会社概要

Red Hat は、企業がコアとなるデータセンターからネットワークエッジに至るまで、各種プラットフォームや環境全体で作業を簡素化できるように、強化されたソリューションを提供しています。

© 2024 Red Hat, Inc.