第 9 章 使用 director 为不同工作负载定义性能层
Red Hat OpenStack Platform (RHOSP) director 部署 Red Hat Ceph Storage 性能层。Ceph Storage CRUSH 规则与 CephPools
参数相结合,以使用设备类功能。这会构建不同的层来满足具有不同性能要求的工作负载。
例如,您可以为普通工作负载定义 HDD 类,以及一个仅将数据分布到 SSD 的 SSD 类,以实现高性能负载。在这种情况下,当您创建新的块存储卷时,您可以选择性能层,可以是 HDD 或 SSD。
如需有关 CRUSH 规则创建的更多信息,请参阅配置 CRUSH 层次结构。
在现有环境中定义性能层可能会导致 Ceph Storage 集群中的数据移动。director 在堆栈更新过程中使用 cephadm
。cephadm
应用没有逻辑来验证池是否存在并且包含数据。更改与池关联的默认 CRUSH 规则会导致数据移动。如果池包含大量数据,则数据将移动。
如果您需要添加或删除节点的帮助或建议,请联系红帽支持。
Ceph Storage 会自动检测到磁盘类型并将其分配给对应的设备类; HDD、SSD 或 NVMe;基于 Linux 内核公开的硬件属性。
先决条件
- 对于新部署,请使用 Red Hat Ceph Storage (RHCS)版本 5.2 或更高版本。
9.1. 配置性能层
若要部署不同的 Red Hat Ceph Storage 性能层,可创建一个包含 CRUSH map 详细信息的新环境文件,并将它包含在部署命令中。director 不会为此功能公开特定的参数,但您可以生成 tripleo-ansible
预期变量。
性能层配置可以与 CRUSH 层次结构相结合。有关创建 CRUSH 规则的信息,请参阅配置 CRUSH 层次结构。
在示例流程中,每个 Ceph Storage 节点包含三个 OSD: sdb
和 sdc
是旋转磁盘,sdc
是一个 SSD。Ceph 会自动检测正确的磁盘类型。然后,配置两个 CRUSH 规则 HDD 和 SSD,以映射到两个对应的设备类。
HDD 规则是默认设置,适用于所有池,除非您使用不同的规则配置池。
最后,您要创建一个名为 fastpool
的额外池,并将其映射到 SSD 规则。这个池最终通过 Block Storage (cinder)后端公开。任何消耗此块存储后端的工作负载都由 SSD 支持,以便仅快速性能。您可以将其用于数据或从卷引导。
- WARNING
-
在现有环境中定义性能层可能会导致 Ceph 集群中的大量数据移动。Cephadm (director 在堆栈更新期间触发)没有验证 Ceph 集群中是否已定义池的逻辑,以及它是否包含数据。
这意味着,在现有环境中定义性能层可能具有危险,因为与池关联的默认 CRUSH 规则更改会导致数据移动。如果您需要添加或删除节点的帮助或建议,请联系红帽支持。
流程
-
以
stack
用户身份登录 undercloud 节点。 -
创建一个环境文件,如
/home/stack/templates/ceph-config.yaml
,使其包含 Ceph 配置参数和设备类变量。或者,您可以将以下配置添加到现有环境文件中。 添加
CephCrushRules
参数。crush_rules
参数必须包含您定义或 Ceph 自动检测到的每个类的规则。在创建新池时,如果没有指定规则,则会选择您希望 Ceph 用作默认规则。CephCrushRules: crush_rules: - name: HDD root: default type: host class: hdd default: true - name: SSD root: default type: host class: ssd default: false
添加
CephPools
参数:-
使用
rule_name
参数指定不使用默认规则的每个池的层。在以下示例中,fastpool
池使用配置为快速层的 SSD 设备类来管理块存储卷。 使用
CinderRbdExtraPools
参数将fastpool
配置为块存储后端。CephPools: - name: fastpool rule_name: SSD application: rbd CinderRbdExtraPools: fastpool
-
使用
使用以下示例来确保环境文件包含正确的值:
parameter_defaults: crush_rules: - name: HDD root: default type: host class: hdd default: true - name: SSD root: default type: host class: ssd default: false CinderRbdExtraPools: fastpool CephPools: - name: fastpool rule_name: SSD application: rbd
在
openstack overcloud deploy
命令中包含新环境文件。$ openstack overcloud deploy \ --templates \ … -e <other_overcloud_environment_files> \ -e /home/stack/templates/ceph-config.yaml \ …
将
<other_overcloud_environment_files
> 替换为作为部署一部分的其他环境文件的列表。
如果将环境文件应用到现有的 Ceph 集群,则预先存在的 Ceph 池不会使用新规则更新。因此,您必须在部署完成后输入以下命令,才能将规则设置为指定的池。
$ ceph osd pool set <pool> crush_rule <rule>
- 将 <pool> 替换为您要将新规则应用到的池的名称。
-
将 <rule> 替换为您通过
crush_rules
参数指定的规则名称之一。
对于您使用这个命令更改的每个规则,更新现有条目或在现有模板的 CephPools
参数中添加新条目:
CephPools: - name: <pool> rule_name: <rule> application: rbd