5.2. Red Hat Ceph Storage 放置组
放置组(PG)大规模促进动态高效的对象跟踪。如果 OSD 失败或 Ceph Storage 集群重新平衡,Ceph 可以移动或复制放置组的内容和放置组的内容。这允许 Ceph Storage 集群有效地重新平衡和恢复。
放置组和副本数设置不会从默认值更改,除非在 Ceph 配置文件中包括以下参数:
-
osd_pool_default_size
-
osd_pool_default_pg_num
-
osd_pool_default_pgp_num
使用 openstack overcloud deploy
命令部署 overcloud 时,会为每个启用的 Red Hat OpenStack Platform 服务创建一个池。例如,以下命令为 Compute 服务(nova)、块存储服务(cinder)和镜像服务(glance)创建池:
openstack overcloud deploy --templates \ -e /usr/share/openstack-tripleo-heat-templates/environments/cephadm/cephadm-rbd-only.yaml
openstack overcloud deploy --templates \
-e /usr/share/openstack-tripleo-heat-templates/environments/cephadm/cephadm-rbd-only.yaml
将 -e environments/cinder-backup.yaml
添加到命令中,创建一个名为 backups
的池:
openstack overcloud deploy --templates \ -e /usr/share/openstack-tripleo-heat-templates/environments/cephadm/cephadm-rbd-only.yaml -e environments/cinder-backup.yaml
openstack overcloud deploy --templates \
-e /usr/share/openstack-tripleo-heat-templates/environments/cephadm/cephadm-rbd-only.yaml
-e environments/cinder-backup.yaml
不需要为每个池配置放置组号;默认情况下,pg_autoscale_mode
属性是启用的。但是,建议配置 target_size_ratio
或 pg_num
属性。这 minimimzes 数据重新平衡。
要设置每个池的 target_size_ratio
属性,请使用类似以下示例的配置文件条目:
在本例中,每个服务使用的数据百分比将是:
- Cinder 卷 - 40%
- Glance 镜像 - 10%
- Nova vms - 30%
- 其他池的可用空间 - 20%
根据您的预期使用 设置这些值。如果不覆盖 CephPools
参数,每个池将使用默认的放置组号。虽然自动扩展将根据使用情况自动调整这个数字,但数据将在 Ceph 集群中移动。这使用计算资源。
如果您希望设置放置组数量而不是目标大小比率,请将示例中的 target_size_ratio
替换为 pg_num
。根据预期的使用量,每个池使用不同的整数。
如需 Red Hat Ceph Storage 处理器、网络接口卡和电源管理接口建议,请参阅 Red Hat Ceph Storage 硬件指南。