13.5. Ceph OSD ノードの追加
Red Hat Ceph Storage クラスターの容量を拡張するには、OSD ノードを追加します。
前提条件
- 稼働中の Red Hat Ceph Storage クラスターがある。
- ネットワーク接続が割り当てられたプロビジョニングされたノード
手順
- ストレージクラスターの他のノードが、短縮ホスト名で新規ノードに到達できることを確認します。
スクラビングを一時的に無効にします。
例
[ceph: root@host01 /]# ceph osd set noscrub [ceph: root@host01 /]# ceph osd set nodeep-scrub
バックフィルおよび復元機能を制限します。
構文
ceph tell DAEMON_TYPE.* injectargs --OPTION_NAME VALUE [--OPTION_NAME VALUE]
例
[ceph: root@host01 /]# ceph tell osd.* injectargs --osd-max-backfills 1 --osd-recovery-max-active 1 --osd-recovery-op-priority 1
クラスターの SSH 公開鍵をフォルダーにデプロイメントします。
構文
ceph cephadm get-pub-key > ~/PATH
例
[ceph: root@host01 /]# ceph cephadm get-pub-key > ~/ceph.pub
ceph クラスターの SSH 公開鍵を、新たなホストの root ユーザーの
authorized_keys
ファイルにコピーします。構文
ssh-copy-id -f -i ~/PATH root@HOST_NAME_2
例
[ceph: root@host01 /]# ssh-copy-id -f -i ~/ceph.pub root@host02
新規ノードを CRUSH マップに追加します。
構文
ceph orch host add NODE_NAME IP_ADDRESS
例
[ceph: root@host01 /]# ceph orch host add host02 10.10.128.70
ノードの各ディスクの OSD をストレージクラスターに追加します。
OSD ノードを Red Hat Ceph Storage クラスターに追加する場合、Red Hat は、1 度に 1 つの OSD デーモンを追加し、次の OSD に進む前にクラスターを active+clean
状態に復元できるようにすることを推奨します。
関連情報
- 詳細は、Red Hat Ceph Storage Configuration Guide のSetting a Specific Configuration Setting at Runtime セクションを参照してください。
- CRUSH 階層の適切な場所にノードを配置するための詳細は、Red Hat Ceph Storage の Storage Strategies Guideの Adding a Bucket および Moving a Bucket セクションを参照してください。