1.4. 配置数据平面以使用并置 Red Hat Ceph Storage 服务器
虽然 Red Hat Ceph Storage 集群与 data plane 节点上的 Compute 服务物理并置,但它被视为逻辑分开。在 data plane 节点可以使用前,必须将 Red Hat Ceph Storage 配置为存储解决方案。
先决条件
- 完成 集成 Red Hat Ceph Storage 中的步骤。
流程
-
编辑
OpenStackDataPlaneNodeSetCR。 要为 Compute 服务(nova)定义
cephx密钥和配置文件,请使用extraMounts参数。以下是为此目的使用
extraMounts参数的示例:Copy to Clipboard Copied! Toggle word wrap Toggle overflow -
在 CR 中找到
服务列表。 编辑
服务列表,以恢复 配置 data plane 节点网络 中描述的所有服务。恢复完整服务列表允许剩余的作业完成 HCI 环境配置:Copy to Clipboard Copied! Toggle word wrap Toggle overflow 注意除了恢复默认服务列表外,
ceph-client服务也会在run-os服务后添加。ceph-client服务将 EDPM 节点配置为 Red Hat Ceph Storage 服务器的客户端。此服务分发客户端连接到 Red Hat Ceph Storage 服务器所需的文件。创建一个
ConfigMap,将reserved_host_memory_mb参数设置为适合您配置的值。以下是用于此目的的 ConfigMap 示例:
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 注意可以设置
reserved_host_memory_mb参数的值,以便计算服务调度程序不会将内存提供给同一服务器上的 Ceph OSD 所需的虚拟机。除了虚拟机监控程序的默认保留内存外,示例还为每个主机保留 5 GB 的 OSD 为 10 个 OSD。在 IOPS 优化的集群中,您可以通过为每个 OSD 保留更多内存来提高性能。5 GB 数字作为起点提供,必要时可以进一步调整。通过编辑
OpenStackDataPlaneService/nova-custom-ceph文件,将reserved-memory-nova添加到configMaps列表中:Copy to Clipboard Copied! Toggle word wrap Toggle overflow 应用 CR 更改。
oc apply -f <dataplane_cr_file>
$ oc apply -f <dataplane_cr_file>Copy to Clipboard Copied! Toggle word wrap Toggle overflow 将
<dataplane_cr_file> 替换为您的文件的名称。注意Ansible 在创建
OpenStackDataPlaneDeploymentCRD 之前,不会配置或验证网络。
-
创建
OpenStackDataPlaneDeploymentCRD,如在 OpenShift 上部署 Red Hat OpenStack Services on OpenShift 指南中的创建 data plane 所述,它定义了OpenStackDataPlaneNodeSetCRD 文件,以便 Ansible 配置 data plane 节点上的服务。