3.5. 添加 Ceph OSD 节点


要扩展 Red Hat Ceph Storage 集群的容量,您可以添加 OSD 节点。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 具有网络连接的置备节点。
  • 安装 Red Hat Enterprise Linux 8。
  • 请参阅 Red Hat Ceph Storage 安装指南中的安装 Red Hat Ceph Storage 的要求

流程

  1. 通过短主机名验证存储集群中的其他节点是否可以访问新节点。
  2. 临时禁用清理:

    示例

    [root@mon ~]# ceph osd set noscrub
    [root@mon ~]# ceph osd set nodeep-scrub

  3. 限制回填和恢复功能:

    语法

    ceph tell DAEMON_TYPE.* injectargs --OPTION_NAME VALUE [--OPTION_NAME VALUE]

    示例

    [root@mon ~]# ceph tell osd.* injectargs --osd-max-backfills 1 --osd-recovery-max-active 1 --osd-recovery-op-priority 1

  4. 将新节点添加到 CRUSH map:

    语法

    ceph osd crush add-bucket BUCKET_NAME BUCKET_TYPE

    示例

    [root@mon ~]# ceph osd crush add-bucket node2 host

  5. 为节点上的每个磁盘添加一个 OSD 到存储集群。

    • 使用 Ansible.
    • 使用命令行界面

      重要

      将 OSD 节点添加到 Red Hat Ceph Storage 集群时,红帽建议在该节点中一次添加一个 OSD,并允许集群在继续进入下一个 OSD 前恢复到 active+clean 状态。

  6. 启用清理:

    语法

    ceph osd unset noscrub
    ceph osd unset nodeep-scrub

  7. 将回填和恢复功能设置为默认:

    语法

    ceph tell DAEMON_TYPE.* injectargs --OPTION_NAME VALUE [--OPTION_NAME VALUE]

    示例

    [root@mon ~]# ceph tell osd.* injectargs --osd-max-backfills 1 --osd-recovery-max-active 3 --osd-recovery-op-priority 3

其它资源

  • 如需了解更多详细信息,请参阅 Red Hat Ceph Storage 配置指南中的 运行时 设置特定配置设置部分。
  • 如需了解有关将节点放置到 CRUSH 层次结构中的相应位置的详细信息,请参阅 Red Hat Ceph Storage Storage 策略指南中的添加 BucketMoving a Bucket 部分。
Red Hat logoGithubRedditYoutubeTwitter

学习

尝试、购买和销售

社区

关于红帽文档

通过我们的产品和服务,以及可以信赖的内容,帮助红帽用户创新并实现他们的目标。

让开源更具包容性

红帽致力于替换我们的代码、文档和 Web 属性中存在问题的语言。欲了解更多详情,请参阅红帽博客.

關於紅帽

我们提供强化的解决方案,使企业能够更轻松地跨平台和环境(从核心数据中心到网络边缘)工作。

© 2024 Red Hat, Inc.