14.5. 添加 Ceph OSD 节点
要扩展 Red Hat Ceph Storage 集群的容量,您可以添加 OSD 节点。
先决条件
- 一个正在运行的 Red Hat Ceph Storage 集群。
- 具有网络连接的置备节点。
流程
- 通过短主机名验证存储集群中的其他节点是否可以访问新节点。
临时禁用清理:
示例
[ceph: root@host01 /]# ceph osd set noscrub [ceph: root@host01 /]# ceph osd set nodeep-scrub
限制回填和恢复功能:
语法
ceph tell DAEMON_TYPE.* injectargs --OPTION_NAME VALUE [--OPTION_NAME VALUE]
示例
[ceph: root@host01 /]# ceph tell osd.* injectargs --osd-max-backfills 1 --osd-recovery-max-active 1 --osd-recovery-op-priority 1
将集群的公共 SSH 密钥提取到文件夹:
语法
ceph cephadm get-pub-key > ~/PATH
示例
[ceph: root@host01 /]# ceph cephadm get-pub-key > ~/ceph.pub
将 ceph 集群的公共 SSH 密钥复制到新主机上的 root 用户的
authorized_keys
文件中:语法
ssh-copy-id -f -i ~/PATH root@HOST_NAME_2
示例
[ceph: root@host01 /]# ssh-copy-id -f -i ~/ceph.pub root@host02
将新节点添加到 CRUSH map:
语法
ceph orch host add NODE_NAME IP_ADDRESS
示例
[ceph: root@host01 /]# ceph orch host add host02 10.10.128.70
为节点上的每个磁盘添加一个 OSD 到存储集群。
重要
将 OSD 节点添加到 Red Hat Ceph Storage 集群时,红帽建议一次添加一个 OSD 守护进程,并允许集群在进入下一个 OSD 前恢复到 active+clean
状态。
其它资源
- 如需更多详细信息 , 请参阅 Red Hat Ceph Storage 配置指南中的设置特定 配置设置小节。
- 如需了解有关将节点放置到 CRUSH 层次结构中的相应位置的详细信息,请参阅 Red Hat Ceph Storage Storage 策略指南中的添加 Bucket 和 Moving a Bucket 部分。