搜索

7.5. 增加放置组

download PDF

放置组(PG)计数不足,会影响 Ceph 集群和数据分布的性能。它是 nearfull osds 错误消息的主要原因之一。

推荐的比率是每个 OSD 100 到 300 个 PG。当您向集群添加更多 OSD 时,此比率可能会降低。

pg_numpgp_num 参数决定了 PG 数。这些参数为每个池配置,因此您必须单独调整每个池的 PG 数较低。

重要

增加 PG 数是您可以在 Ceph 集群上执行的最密集型进程。如果没有以缓慢和方法方式执行,这个过程可能会对性能有严重影响。增加 pgp_num 后,您将无法停止或撤销该进程,您必须完成它。考虑在业务关键处理时间分配之外增加 PG 计数,并提醒所有关于潜在性能影响的客户端。如果集群处于 HEALTH_ERR 状态,请不要更改 PG 数。

先决条件

  • 正在运行的 Red Hat Ceph Storage 集群处于健康状态。
  • 节点的根级别访问权限。

流程

  1. 减少数据重新发布和恢复在单个 OSD 和 OSD 主机上的影响:

    1. 降低 osd max backfillsosd_recovery_max_activeosd_recovery_op_priority 参数的值:

      [ceph: root@host01 /]# ceph tell osd.* injectargs '--osd_max_backfills 1 --osd_recovery_max_active 1 --osd_recovery_op_priority 1'
    2. 禁用浅刮除和深度刮除:

      [ceph: root@host01 /]# ceph osd set noscrub
      [ceph: root@host01 /]# ceph osd set nodeep-scrub
  2. 使用 Ceph Placement Groups (PGs) per Pool Calculator 来计算 pg_numpgp_num 参数的最佳值。
  3. 以较小增量增加 pg_num 值,直到您达到所需的值。

    1. 确定起始递增值。使用一个非常低的值(2 的指数),并在您确定对集群的影响时增加这个值。最佳值取决于池大小、OSD 数和客户端 I/O 负载。
    2. 递增 pg_num 值:

      语法

      ceph osd pool set POOL pg_num VALUE

      指定池名称和新值,例如:

      示例

      [ceph: root@host01 /]# ceph osd pool set data pg_num 4

    3. 监控集群的状态:

      示例

      [ceph: root@host01 /]# ceph -s

      PG 状态将从 creating 变为 active+clean。等待所有 PG 都处于 active+clean 状态。

  4. 以较小的增量增加 pgp_num 值,直到您达到所需的值:

    1. 确定起始递增值。使用一个非常低的值(2 的指数),并在您确定对集群的影响时增加这个值。最佳值取决于池大小、OSD 数和客户端 I/O 负载。
    2. 递增 pgp_num 值:

      语法

      ceph osd pool set POOL pgp_num VALUE

      指定池名称和新值,例如:

      [ceph: root@host01 /]# ceph osd pool set data pgp_num 4
    3. 监控集群的状态:

      [ceph: root@host01 /]# ceph -s

      PG 状态将通过 peeringwait_backfill回填恢复 及其他状态进行更改。等待所有 PG 都处于 active+clean 状态。

  5. 对 PG 数量不足的所有池重复前面的步骤。
  6. osd max backfillsosd_recovery_max_activeosd_recovery_op_priority 设置为其默认值:

    [ceph: root@host01 /]# ceph tell osd.* injectargs '--osd_max_backfills 1 --osd_recovery_max_active 3 --osd_recovery_op_priority 3'
  7. 启用浅刮除和深度刮除:

    [ceph: root@host01 /]# ceph osd unset noscrub
    [ceph: root@host01 /]# ceph osd unset nodeep-scrub

其它资源

Red Hat logoGithubRedditYoutubeTwitter

学习

尝试、购买和销售

社区

关于红帽文档

通过我们的产品和服务,以及可以信赖的内容,帮助红帽用户创新并实现他们的目标。

让开源更具包容性

红帽致力于替换我们的代码、文档和 Web 属性中存在问题的语言。欲了解更多详情,请参阅红帽博客.

關於紅帽

我们提供强化的解决方案,使企业能够更轻松地跨平台和环境(从核心数据中心到网络边缘)工作。

© 2024 Red Hat, Inc.