搜索

13.5. 添加 Ceph OSD 节点

download PDF

要扩展 Red Hat Ceph Storage 集群的容量,您可以添加 OSD 节点。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 具有网络连接的置备节点。

流程

  1. 通过短主机名验证存储集群中的其他节点是否可以访问新节点。
  2. 临时禁用清理:

    示例

    [ceph: root@host01 /]# ceph osd set noscrub
    [ceph: root@host01 /]# ceph osd set nodeep-scrub

  3. 限制回填和恢复功能:

    语法

    ceph tell DAEMON_TYPE.* injectargs --OPTION_NAME VALUE [--OPTION_NAME VALUE]

    示例

    [ceph: root@host01 /]# ceph tell osd.* injectargs --osd-max-backfills 1 --osd-recovery-max-active 1 --osd-recovery-op-priority 1

  4. 将集群的公共 SSH 密钥提取到文件夹:

    语法

    ceph cephadm get-pub-key > ~/PATH

    示例

    [ceph: root@host01 /]# ceph cephadm get-pub-key > ~/ceph.pub

  5. 将 ceph 集群的公共 SSH 密钥复制到新主机上的 root 用户的 authorized_keys 文件中:

    语法

    ssh-copy-id -f -i ~/PATH root@HOST_NAME_2

    示例

    [ceph: root@host01 /]# ssh-copy-id -f -i ~/ceph.pub root@host02

  6. 将新节点添加到 CRUSH map:

    语法

    ceph orch host add NODE_NAME IP_ADDRESS

    示例

    [ceph: root@host01 /]# ceph orch host add host02 10.10.128.70

  7. 为节点上的每个磁盘添加一个 OSD 到存储集群。

重要

将 OSD 节点添加到 Red Hat Ceph Storage 集群时,红帽建议一次添加一个 OSD 守护进程,并允许集群在进入下一个 OSD 前恢复到 active+clean 状态。

其它资源

  • 如需了解更多详细信息,请参阅 Red Hat Ceph Storage Configuration Guide在运行时设置特定配置设置部分。
  • 如需了解有关将节点放置到 CRUSH 层次结构中的相应位置的详细信息,请参阅 Red Hat Ceph Storage Storage 策略指南中的添加 BucketMoving a Bucket 部分。
Red Hat logoGithubRedditYoutubeTwitter

学习

尝试、购买和销售

社区

关于红帽文档

通过我们的产品和服务,以及可以信赖的内容,帮助红帽用户创新并实现他们的目标。

让开源更具包容性

红帽致力于替换我们的代码、文档和 Web 属性中存在问题的语言。欲了解更多详情,请参阅红帽博客.

關於紅帽

我们提供强化的解决方案,使企业能够更轻松地跨平台和环境(从核心数据中心到网络边缘)工作。

© 2024 Red Hat, Inc.