5.2. Red Hat Ceph Storage 放置组
放置组(PG)可大规模推动动态高效的对象跟踪。如果 OSD 出现故障或 Ceph Storage 集群重新平衡,Ceph 可能会移动或复制放置组的内容。这允许 Ceph 存储集群有效地重新平衡和恢复。
除非在 Ceph 配置文件中包括以下参数,否则放置组和副本数设置不会从默认值中更改:
-
osd_pool_default_size
-
osd_pool_default_pg_num
-
osd_pool_default_pgp_num
使用 openstack overcloud deploy
命令部署 overcloud 时,会为每个启用的 Red Hat OpenStack Platform 服务创建一个池。例如,以下命令为 Compute 服务(nova)、块存储服务(cinder)和镜像服务(glance)创建池:
openstack overcloud deploy --templates \ -e /usr/share/openstack-tripleo-heat-templates/environments/cephadm/cephadm-rbd-only.yaml
在命令中添加 -e environments/cinder-backup.yaml
,创建一个名为 backup 的池:
openstack overcloud deploy --templates \ -e /usr/share/openstack-tripleo-heat-templates/environments/cephadm/cephadm-rbd-only.yaml -e environments/cinder-backup.yaml
不需要为每个池配置放置组号 ; pg_autoscale_mode
属性默认为启用。但是,建议配置 target_size_ratio
或 pg_num
属性。这会最小化数据重新平衡。
要设置每个池的 target_size_ratio
属性,请使用类似以下示例的配置文件条目:
parameter_defaults: CephPools: - name: volumes target_size_ratio: 0.4 application: rbd - name: images target_size_ratio: 0.1 application: rbd - name: vms target_size_ratio: 0.3 application: rbd
在本例中,每个服务使用的数据百分比将是:
- Cinder 卷 - 40%
- Glance 镜像 - 10%
- Nova 虚拟机 - 30%
- 其他池的可用空间 - 20%
根据您的预期用法设置这些值。如果您不覆盖 CephPools
参数,则每个池使用默认的放置组号。虽然自动扩展将根据使用情况自动调整这个数字,但数据将在 Ceph 集群中移动。这使用计算资源。
如果您希望设置放置组号而不是目标大小比率,请将示例中的 target_size_ratio
替换为 pg_num
。根据您的预期使用情况,每个池使用不同的整数。
有关 Red Hat Ceph Storage 处理器、网络接口卡和电源管理接口建议,请参阅 Red Hat Ceph Storage 硬件指南。