第 10 章 清理和深度清理问题故障排除
了解如何对清理和深度清理问题进行故障排除。
10.1. 在升级到 8 时解决清理速度问题
了解如何排除升级到 Red Hat Ceph Storage 8 后出现的清理速度问题。
清理速度较慢是由自动 OSD 基准为 osd_mclock_max_capacity_iops_hdd
设置的值造成的。因此,清理操作会受到影响,因为 OSD 的 IOPS 容量在决定清理操作接收的带宽方面扮演重要角色。要进一步增加问题,清理只会根据 mClock 配置集定义的 QoS 分配只接收一部分 IOPS 容量。
因此,Ceph 集群会在几天或几周内报告预期的清理完成时间。
先决条件
- 正在运行的 Red Hat Ceph Storage 集群处于健康状态。
- 节点的根级别访问权限。
流程
在 OSD 引导和回退为
osd_mclock_max_capacity_iops_[hdd|ssd]
定义的默认 IOPS 设置中检测 OSD bench 报告的低测量 IOPS。如果报告的 IOPS 低于osd_mclock_iops_capacity_low_threshold_[hdd|ssd]
确定的阈值,则会触发回退。另外还会记录集群警告。Example:
$ ceph config rm osd.X osd_mclock_max_capacity_iops_[hdd|ssd]
[可选]:执行以下步骤:
对于已受此问题影响的集群,运行以下命令,在升级到带有修复前的 OSD 上的 IOPS 容量设置:
Example:
$ ceph config rm osd.X osd_mclock_max_capacity_iops_[hdd|ssd]
在升级前,将受影响 OSD 的
osd_mclock_force_run_benchmark_on_init
选项设置为 true :Example:
$ ceph config set osd.X osd_mclock_force_run_benchmark_on_init true
在这个版本中,IOPS 容量反映了默认设置,或 OSD bench 报告的新设置。
[可选]:如果您已从 7 升级到 8 (升级后),请执行以下步骤:
如果您在升级前无法执行上述步骤,您可以通过删除
osd_mclock_max_capacity_iops_[hdd|ssd]
设置来再次运行 OSD bench :Example:
$ ceph config rm osd.X osd_mclock_max_capacity_iops_[hdd|ssd]
将
osd_mclock_force_run_benchmark_on_init
设置为 true。Example:
$ ceph config set osd.X osd_mclock_force_run_benchmark_on_init true
重新启动 OSD。
OSD 重启后,IOPS 容量反映了默认设置或 OSD bench 报告的新设置。