第 10 章 清理和深度清理问题故障排除


了解如何对清理和深度清理问题进行故障排除。

10.1. 在升级到 8 时解决清理速度问题

了解如何排除升级到 Red Hat Ceph Storage 8 后出现的清理速度问题。

清理速度较慢是由自动 OSD 基准为 osd_mclock_max_capacity_iops_hdd 设置的值造成的。因此,清理操作会受到影响,因为 OSD 的 IOPS 容量在决定清理操作接收的带宽方面扮演重要角色。要进一步增加问题,清理只会根据 mClock 配置集定义的 QoS 分配只接收一部分 IOPS 容量。

因此,Ceph 集群会在几天或几周内报告预期的清理完成时间。

先决条件

  1. 正在运行的 Red Hat Ceph Storage 集群处于健康状态。
  2. 节点的根级别访问权限。

流程

  1. 在 OSD 引导和回退为 osd_mclock_max_capacity_iops_[hdd|ssd] 定义的默认 IOPS 设置中检测 OSD bench 报告的低测量 IOPS。如果报告的 IOPS 低于 osd_mclock_iops_capacity_low_threshold_[hdd|ssd] 确定的阈值,则会触发回退。另外还会记录集群警告。

    Example:

    $ ceph config rm osd.X osd_mclock_max_capacity_iops_[hdd|ssd]

  2. [可选]:执行以下步骤:

    1. 对于已受此问题影响的集群,运行以下命令,在升级到带有修复前的 OSD 上的 IOPS 容量设置:

      Example:

      $ ceph config rm osd.X osd_mclock_max_capacity_iops_[hdd|ssd]

    2. 在升级前,将受影响 OSD 的 osd_mclock_force_run_benchmark_on_init 选项设置为 true

      Example:

      $ ceph config set osd.X osd_mclock_force_run_benchmark_on_init true

      在这个版本中,IOPS 容量反映了默认设置,或 OSD bench 报告的新设置。

  3. [可选]:如果您已从 7 升级到 8 (升级后),请执行以下步骤:

    1. 如果您在升级前无法执行上述步骤,您可以通过删除 osd_mclock_max_capacity_iops_[hdd|ssd] 设置来再次运行 OSD bench :

      Example:

      $ ceph config rm osd.X osd_mclock_max_capacity_iops_[hdd|ssd]

    2. osd_mclock_force_run_benchmark_on_init 设置为 true

      Example:

      $ ceph config set osd.X osd_mclock_force_run_benchmark_on_init true

    3. 重新启动 OSD。

      OSD 重启后,IOPS 容量反映了默认设置或 OSD bench 报告的新设置。

Red Hat logoGithubRedditYoutubeTwitter

学习

尝试、购买和销售

社区

关于红帽文档

通过我们的产品和服务,以及可以信赖的内容,帮助红帽用户创新并实现他们的目标。 了解我们当前的更新.

让开源更具包容性

红帽致力于替换我们的代码、文档和 Web 属性中存在问题的语言。欲了解更多详情,请参阅红帽博客.

關於紅帽

我们提供强化的解决方案,使企业能够更轻松地跨平台和环境(从核心数据中心到网络边缘)工作。

© 2024 Red Hat, Inc.