5.2. Red Hat Ceph Storage 放置组
放置组(PG)大规模促进动态高效的对象跟踪。如果 OSD 失败或 Ceph Storage 集群重新平衡,Ceph 可以移动或复制放置组的内容。这使得 Ceph 存储集群能够有效地重新平衡和恢复。
除非在 Ceph 配置文件中包含以下参数,否则放置组和副本数设置不会从默认值中更改:
-
osd_pool_default_size
-
osd_pool_default_pg_num
-
osd_pool_default_pgp_num
使用 openstack overcloud deploy
命令部署 overcloud 时,会为每个启用的 Red Hat OpenStack Platform 服务创建一个池。例如,以下命令为计算服务(nova)、块存储服务(cinder)和 Image 服务(glance)创建池:
openstack overcloud deploy --templates \ -e /usr/share/openstack-tripleo-heat-templates/environments/cephadm/cephadm-rbd-only.yaml
将 -e environments/cinder-backup.yaml
添加到命令中,创建一个名为 backups
的池:
openstack overcloud deploy --templates \ -e /usr/share/openstack-tripleo-heat-templates/environments/cephadm/cephadm-rbd-only.yaml -e environments/cinder-backup.yaml
不需要为每个池配置放置组号;默认为启用 pg_autoscale_mode
属性。但是,建议您配置 target_size_ratio
或 pg_num
属性。这个减弱数据重新平衡。
要为每个池设置 target_size_ratio
属性,请使用类似以下示例的配置文件条目:
parameter_defaults: CephPools: - name: volumes target_size_ratio: 0.4 application: rbd - name: images target_size_ratio: 0.1 application: rbd - name: vms target_size_ratio: 0.3 application: rbd
在本例中,每个服务使用的数据百分比将是:
- Cinder 卷 - 40%
- Glance 镜像 - 10%
- Nova vms - 30%
- 其他池的可用空间 - 20%
根据您的预期使用情况设置这些值。如果不覆盖 CephPools
参数,则每个池使用默认的放置组号。虽然自动扩展将根据使用情况自动调整此数量,但数据将在 Ceph 集群中移动。这使用计算资源。
如果您希望设置放置组数量而不是目标大小比率,请将示例中的 target_size_ratio
替换为 pg_num
。根据您的预期使用情况,为每个池使用不同的整数。
请参阅 Red Hat Ceph Storage 处理器、网络接口卡和电源管理接口的 Red Hat Ceph Storage 硬件指南。