第 10 章 清理和深度清理问题故障排除


了解如何对清理和深度清理问题进行故障排除。

10.1. 在升级到 8 时解决清理速度问题

了解如何排除升级到 Red Hat Ceph Storage 8 后出现的清理速度问题。

清理速度较慢是由自动 OSD 基准为 osd_mclock_max_capacity_iops_hdd 设置的值造成的。因此,清理操作会受到影响,因为 OSD 的 IOPS 容量在决定清理操作接收的带宽方面扮演重要角色。要进一步增加问题,清理只会根据 mClock 配置集定义的 QoS 分配只接收一部分 IOPS 容量。

因此,Ceph 集群会在几天或几周内报告预期的清理完成时间。

先决条件

  1. 正在运行的 Red Hat Ceph Storage 集群处于健康状态。
  2. 节点的根级别访问权限。

流程

  1. 在 OSD 引导和回退为 osd_mclock_max_capacity_iops_[hdd|ssd] 定义的默认 IOPS 设置中检测 OSD bench 报告的低测量 IOPS。如果报告的 IOPS 低于 osd_mclock_iops_capacity_low_threshold_[hdd|ssd] 确定的阈值,则会触发回退。另外还会记录集群警告。

    Example:

    $ ceph config rm osd.X osd_mclock_max_capacity_iops_[hdd|ssd]
    Copy to Clipboard Toggle word wrap

  2. [可选]:执行以下步骤:

    1. 对于已受此问题影响的集群,运行以下命令,在升级到带有修复前的 OSD 上的 IOPS 容量设置:

      Example:

      $ ceph config rm osd.X osd_mclock_max_capacity_iops_[hdd|ssd]
      Copy to Clipboard Toggle word wrap

    2. 在升级前,将受影响 OSD 的 osd_mclock_force_run_benchmark_on_init 选项设置为 true

      Example:

      $ ceph config set osd.X osd_mclock_force_run_benchmark_on_init true
      Copy to Clipboard Toggle word wrap

      在这个版本中,IOPS 容量反映了默认设置,或 OSD bench 报告的新设置。

  3. [可选]:如果您已从 7 升级到 8 (升级后),请执行以下步骤:

    1. 如果您在升级前无法执行上述步骤,您可以通过删除 osd_mclock_max_capacity_iops_[hdd|ssd] 设置来再次运行 OSD bench :

      Example:

      $ ceph config rm osd.X osd_mclock_max_capacity_iops_[hdd|ssd]
      Copy to Clipboard Toggle word wrap

    2. osd_mclock_force_run_benchmark_on_init 设置为 true

      Example:

      $ ceph config set osd.X osd_mclock_force_run_benchmark_on_init true
      Copy to Clipboard Toggle word wrap

    3. 重新启动 OSD。

      OSD 重启后,IOPS 容量反映了默认设置或 OSD bench 报告的新设置。

返回顶部
Red Hat logoGithubredditYoutubeTwitter

学习

尝试、购买和销售

社区

关于红帽文档

通过我们的产品和服务,以及可以信赖的内容,帮助红帽用户创新并实现他们的目标。 了解我们当前的更新.

让开源更具包容性

红帽致力于替换我们的代码、文档和 Web 属性中存在问题的语言。欲了解更多详情,请参阅红帽博客.

關於紅帽

我们提供强化的解决方案,使企业能够更轻松地跨平台和环境(从核心数据中心到网络边缘)工作。

Theme

© 2025 Red Hat