7.5. 增加放置组
放置组(PG)计数不足,会影响 Ceph 集群和数据分布的性能。它是 nearfull osds
错误消息的主要原因之一。
推荐的比率是每个 OSD 100 到 300 个 PG。当您向集群添加更多 OSD 时,这个比率可能会减少。
pg_num
和 pgp_num
参数决定了 PG 数量。这些参数为每个池配置,因此您必须单独调整每个池的 PG 数较低。
增加 PG 数量是您可以在 Ceph 集群上执行的最密集的进程。如果没有以缓慢和方法方式执行,这个过程可能会对性能有严重影响。增加 pgp_num
后,您将无法停止或撤销进程,您必须完成它。考虑增加业务关键处理时间外的 PG 计数,并提醒所有客户对潜在性能的影响。如果集群处于 HEALTH_ERR
状态,则不要更改 PG 计数。
先决条件
- 正在运行的 Red Hat Ceph Storage 集群处于健康状态。
- 节点的根级别访问权限。
流程
降低在各个 OSD 和 OSD 主机上重新发布和恢复数据的影响:
降低
osd max backfills
、osd_recovery_max_active
和osd_recovery_op_priority
参数的值:[ceph: root@host01 /]# ceph tell osd.* injectargs '--osd_max_backfills 1 --osd_recovery_max_active 1 --osd_recovery_op_priority 1'
禁用浅刮除和深度刮除:
[ceph: root@host01 /]# ceph osd set noscrub [ceph: root@host01 /]# ceph osd set nodeep-scrub
-
使用 Ceph Placement Groups (PGs) per Pool Calculator 来计算
pg_num
和pgp_num
参数的最佳值。 以较小增量增加
pg_num
值,直到您达到所需的值。- 确定开始递增值。使用一个非常低的值(2 的指数),并在您确定对集群的影响时增加这个值。最佳值取决于池大小、OSD 计数和客户端 I/O 负载。
递增
pg_num
值:语法
ceph osd pool set POOL pg_num VALUE
指定池名称和新值,例如:
示例
[ceph: root@host01 /]# ceph osd pool set data pg_num 4
监控集群的状态:
示例
[ceph: root@host01 /]# ceph -s
PG 状态将从
creating
变为active+clean
。等待所有 PG 都处于active+clean
状态。
以较小的增量增加
pgp_num
值,直到您达到所需的值:- 确定开始递增值。使用一个非常低的值(2 的指数),并在您确定对集群的影响时增加这个值。最佳值取决于池大小、OSD 计数和客户端 I/O 负载。
递增
pgp_num
值:语法
ceph osd pool set POOL pgp_num VALUE
指定池名称和新值,例如:
[ceph: root@host01 /]# ceph osd pool set data pgp_num 4
监控集群的状态:
[ceph: root@host01 /]# ceph -s
PG 状态将通过
peering
、wait_backfill
、回填
、恢复
等变化。等待所有 PG 都处于active+clean
状态。
- 对 PG 数量不足的所有池重复前面的步骤。
将
osd max backfills
、osd_recovery_max_active
和osd_recovery_op_priority
设置为其默认值:[ceph: root@host01 /]# ceph tell osd.* injectargs '--osd_max_backfills 1 --osd_recovery_max_active 3 --osd_recovery_op_priority 3'
启用浅刮除和深度刮除:
[ceph: root@host01 /]# ceph osd unset noscrub [ceph: root@host01 /]# ceph osd unset nodeep-scrub
其它资源
- 请参阅 Nearfull OSD
- 请参阅 Red Hat Ceph Storage Administration Guide 中的 Monitoring Placement Group Sets 部分。
- 详情请查看 第 3 章 网络问题故障排除。
- 有关对与 Ceph 监控器相关的最常见的错误进行故障排除的详情,请参阅 第 4 章 Ceph 监控器故障排除。
- 有关对 Ceph OSD 相关的最常见的错误进行故障排除的详情,请参阅 第 5 章 Ceph OSD 故障排除。
- 如需有关 PG 自动缩放器的更多信息,请参阅 Red Hat Ceph Storage 策略指南中的 自动扩展放置组 部分。