搜索

5.2. Red Hat Ceph Storage 放置组

download PDF

放置组(PG)大规模促进动态高效的对象跟踪。如果 OSD 失败或 Ceph Storage 集群重新平衡,Ceph 可以移动或复制放置组的内容。这使得 Ceph 存储集群能够有效地重新平衡和恢复。

除非在 Ceph 配置文件中包含以下参数,否则放置组和副本数设置不会从默认值中更改:

  • osd_pool_default_size
  • osd_pool_default_pg_num
  • osd_pool_default_pgp_num

使用 openstack overcloud deploy 命令部署 overcloud 时,会为每个启用的 Red Hat OpenStack Platform 服务创建一个池。例如,以下命令为计算服务(nova)、块存储服务(cinder)和 Image 服务(glance)创建池:

openstack overcloud deploy --templates \
  -e /usr/share/openstack-tripleo-heat-templates/environments/cephadm/cephadm-rbd-only.yaml

-e environments/cinder-backup.yaml 添加到命令中,创建一个名为 backups 的池:

openstack overcloud deploy --templates \
  -e /usr/share/openstack-tripleo-heat-templates/environments/cephadm/cephadm-rbd-only.yaml
  -e environments/cinder-backup.yaml

不需要为每个池配置放置组号;默认为启用 pg_autoscale_mode 属性。但是,建议您配置 target_size_ratiopg_num 属性。这个减弱数据重新平衡。

要为每个池设置 target_size_ratio 属性,请使用类似以下示例的配置文件条目:

parameter_defaults:
  CephPools:
    - name: volumes
      target_size_ratio: 0.4
      application: rbd
    - name: images
      target_size_ratio: 0.1
      application: rbd
    - name: vms
      target_size_ratio: 0.3
      application: rbd

在本例中,每个服务使用的数据百分比将是:

  • Cinder 卷 - 40%
  • Glance 镜像 - 10%
  • Nova vms - 30%
  • 其他池的可用空间 - 20%

根据您的预期使用情况设置这些值。如果不覆盖 CephPools 参数,则每个池使用默认的放置组号。虽然自动扩展将根据使用情况自动调整此数量,但数据将在 Ceph 集群中移动。这使用计算资源。

如果您希望设置放置组数量而不是目标大小比率,请将示例中的 target_size_ratio 替换为 pg_num。根据您的预期使用情况,为每个池使用不同的整数。

请参阅 Red Hat Ceph Storage 处理器、网络接口卡和电源管理接口的 Red Hat Ceph Storage 硬件指南

Red Hat logoGithubRedditYoutubeTwitter

学习

尝试、购买和销售

社区

关于红帽文档

通过我们的产品和服务,以及可以信赖的内容,帮助红帽用户创新并实现他们的目标。

让开源更具包容性

红帽致力于替换我们的代码、文档和 Web 属性中存在问题的语言。欲了解更多详情,请参阅红帽博客.

關於紅帽

我们提供强化的解决方案,使企业能够更轻松地跨平台和环境(从核心数据中心到网络边缘)工作。

© 2024 Red Hat, Inc.