13.2. ノードを交換するワークフロー
ノードの障害シナリオは 3 つあります。ノードを交換するときは、シナリオごとに次の概要ワークフローを使用します。
- 障害が発生したノードの root ディスクと Ceph OSD ディスクを使用してノードを交換する
- オペレーティングシステムを再インストールし、障害が発生したノードの Ceph OSD ディスクを使用してノードを交換する
- オペレーティングシステムを再インストールし、すべての新しい Ceph OSD ディスクを使用してノードを交換する
前提条件
- 稼働中の Red Hat Ceph Storage クラスターがある。
- 障害のあるノード。
13.2.1. 障害が発生したノードの root ディスクと Ceph OSD ディスクを使用してノードを交換する
障害が発生したノードの root ディスクと Ceph OSD ディスクを使用してノードを交換します。
手順
バックフィルを無効にします。
構文
ceph osd set noout ceph osd set noscrub ceph osd set nodeep-scrub
例
[ceph: root@host01 /]# ceph osd set noout [ceph: root@host01 /]# ceph osd set noscrub [ceph: root@host01 /]# ceph osd set nodeep-scrub
- ノードを置き換え、古いノードからディスクを取得し、それらを新規ノードに追加します。
バックフィルを有効にします。
構文
ceph osd unset noout ceph osd unset noscrub ceph osd unset nodeep-scrub
例
[ceph: root@host01 /]# ceph osd unset noout [ceph: root@host01 /]# ceph osd unset noscrub [ceph: root@host01 /]# ceph osd unset nodeep-scrub
13.2.2. オペレーティングシステムを再インストールし、障害が発生したノードの Ceph OSD ディスクを使用してノードを交換する
オペレーティングシステムを再インストールし、障害が発生したノードの Ceph OSD ディスクを使用してノードを交換します。
手順
バックフィルを無効にします。
構文
ceph osd set noout ceph osd set noscrub ceph osd set nodeep-scrub
例
[ceph: root@host01 /]# ceph osd set noout [ceph: root@host01 /]# ceph osd set noscrub [ceph: root@host01 /]# ceph osd set nodeep-scrub
Ceph 設定のバックアップを作成します。
構文
cp /etc/ceph/ceph.conf /PATH_TO_BACKUP_LOCATION/ceph.conf
例
[ceph: root@host01 /]# cp /etc/ceph/ceph.conf /some/backup/location/ceph.conf
- ノードを置き換え、障害が発生したノードから Ceph OSD ディスクを追加します。
ディスクを JBOD として設定します。
注記これはストレージ管理者が行う必要があります。
オペレーティングシステムをインストールします。オペレーティングシステム要件の詳細は、Red Hat Ceph Storage のオペレーティングシステム要件 を参照してください。オペレーティングシステムのインストールの詳細は、Red Hat Enterprise Linux 製品ドキュメント を参照してください。
注記これはシステム管理者が行う必要があります。
Ceph の設定を復元します。
構文
cp /PATH_TO_BACKUP_LOCATION/ceph.conf /etc/ceph/ceph.conf
例
[ceph: root@host01 /]# cp /some/backup/location/ceph.conf /etc/ceph/ceph.conf
- Ceph Orchestrator コマンドを使用して、新しいノードをストレージクラスターに追加します。Ceph デーモンは、それぞれのノードに自動的に配置されます。詳細は、Ceph OSD ノードの追加 を参照してください。
バックフィルを有効にします。
構文
ceph osd unset noout ceph osd unset noscrub ceph osd unset nodeep-scrub
例
[ceph: root@host01 /]# ceph osd unset noout [ceph: root@host01 /]# ceph osd unset noscrub [ceph: root@host01 /]# ceph osd unset nodeep-scrub
13.2.3. オペレーティングシステムを再インストールし、すべての新しい Ceph OSD ディスクを使用してノードを交換する
オペレーティングシステムを再インストールし、すべての新しい Ceph OSD ディスクを使用してノードを置き換えます。
手順
バックフィルを無効にします。
構文
ceph osd set noout ceph osd set noscrub ceph osd set nodeep-scrub
例
[ceph: root@host01 /]# ceph osd set noout [ceph: root@host01 /]# ceph osd set noscrub [ceph: root@host01 /]# ceph osd set nodeep-scrub
- 障害のあるノードのすべての OSD をストレージクラスターから削除します。詳細は、Ceph OSD ノードの削除 を参照してください。
Ceph 設定のバックアップを作成します。
構文
cp /etc/ceph/ceph.conf /PATH_TO_BACKUP_LOCATION/ceph.conf
例
[ceph: root@host01 /]# cp /etc/ceph/ceph.conf /some/backup/location/ceph.conf
- ノードを置き換え、障害が発生したノードから Ceph OSD ディスクを追加します。
ディスクを JBOD として設定します。
注記これはストレージ管理者が行う必要があります。
オペレーティングシステムをインストールします。オペレーティングシステム要件の詳細は、Red Hat Ceph Storage のオペレーティングシステム要件 を参照してください。オペレーティングシステムのインストールの詳細は、Red Hat Enterprise Linux 製品ドキュメント を参照してください。
注記これはシステム管理者が行う必要があります。
- Ceph Orchestrator コマンドを使用して、新しいノードをストレージクラスターに追加します。Ceph デーモンは、それぞれのノードに自動的に配置されます。詳細は、Ceph OSD ノードの追加 を参照してください。
バックフィルを有効にします。
構文
ceph osd unset noout ceph osd unset noscrub ceph osd unset nodeep-scrub
例
[ceph: root@host01 /]# ceph osd unset noout [ceph: root@host01 /]# ceph osd unset noscrub [ceph: root@host01 /]# ceph osd unset nodeep-scrub