5.2. Red Hat Ceph Storage 放置组


放置组(PG)可大规模推动动态高效的对象跟踪。如果 OSD 出现故障或 Ceph Storage 集群重新平衡,Ceph 可能会移动或复制放置组的内容。这允许 Ceph 存储集群有效地重新平衡和恢复。

除非在 Ceph 配置文件中包括以下参数,否则放置组和副本数设置不会从默认值中更改:

  • osd_pool_default_size
  • osd_pool_default_pg_num
  • osd_pool_default_pgp_num

使用 openstack overcloud deploy 命令部署 overcloud 时,会为每个启用的 Red Hat OpenStack Platform 服务创建一个池。例如,以下命令为 Compute 服务(nova)、块存储服务(cinder)和镜像服务(glance)创建池:

openstack overcloud deploy --templates \
  -e /usr/share/openstack-tripleo-heat-templates/environments/cephadm/cephadm-rbd-only.yaml

在命令中添加 -e environments/cinder-backup.yaml,创建一个名为 backup 的池:

openstack overcloud deploy --templates \
  -e /usr/share/openstack-tripleo-heat-templates/environments/cephadm/cephadm-rbd-only.yaml
  -e environments/cinder-backup.yaml

不需要为每个池配置放置组号 ; pg_autoscale_mode 属性默认为启用。但是,建议配置 target_size_ratiopg_num 属性。这会最小化数据重新平衡。

要设置每个池的 target_size_ratio 属性,请使用类似以下示例的配置文件条目:

parameter_defaults:
  CephPools:
    - name: volumes
      target_size_ratio: 0.4
      application: rbd
    - name: images
      target_size_ratio: 0.1
      application: rbd
    - name: vms
      target_size_ratio: 0.3
      application: rbd

在本例中,每个服务使用的数据百分比将是:

  • Cinder 卷 - 40%
  • Glance 镜像 - 10%
  • Nova 虚拟机 - 30%
  • 其他池的可用空间 - 20%

根据您的预期用法设置这些值。如果您不覆盖 CephPools 参数,则每个池使用默认的放置组号。虽然自动扩展将根据使用情况自动调整这个数字,但数据将在 Ceph 集群中移动。这使用计算资源。

如果您希望设置放置组号而不是目标大小比率,请将示例中的 target_size_ratio 替换为 pg_num。根据您的预期使用情况,每个池使用不同的整数。

有关 Red Hat Ceph Storage 处理器、网络接口卡和电源管理接口建议,请参阅 Red Hat Ceph Storage 硬件指南

Red Hat logoGithubRedditYoutubeTwitter

学习

尝试、购买和销售

社区

关于红帽文档

通过我们的产品和服务,以及可以信赖的内容,帮助红帽用户创新并实现他们的目标。

让开源更具包容性

红帽致力于替换我们的代码、文档和 Web 属性中存在问题的语言。欲了解更多详情,请参阅红帽博客.

關於紅帽

我们提供强化的解决方案,使企业能够更轻松地跨平台和环境(从核心数据中心到网络边缘)工作。

© 2024 Red Hat, Inc.