5.2. 配置和部署超融合 Red Hat Ceph Storage
以下步骤专门用于 Red Hat Ceph Storage (RHCS)的超融合配置,如果您部署了外部 RHCS 集群,则不需要以下步骤。
通过编辑配置文件和使用 cephadm 实用程序来配置和部署 Red Hat Ceph Storage。
流程
- 编辑 Red Hat Ceph Storage 配置文件。
添加
Storage和Storage Management网络范围。Red Hat Ceph Storage 使用Storage网络作为 Red Hat Ceph Storagepublic_network,Storage Management网络作为cluster_network。以下示例是
Storage网络范围为172.18.0.0/24的配置文件条目,Storage Management网络范围为172.20.0.0/24:[global] public_network = 172.18.0.0/24 cluster_network = 172.20.0.0/24
[global] public_network = 172.18.0.0/24 cluster_network = 172.20.0.0/24Copy to Clipboard Copied! Toggle word wrap Toggle overflow 在 Compute 服务和 Ceph OSD 服务之间添加并置界限。应在并置计算服务和 Ceph OSD 服务之间设置界限,以减少 CPU 和内存争用。
以下是设置了这些边界的 Ceph 配置文件条目的示例:
[osd] osd_memory_target_autotune = true osd_numa_auto_affinity = true [mgr] mgr/cephadm/autotune_memory_target_ratio = 0.2
[osd] osd_memory_target_autotune = true osd_numa_auto_affinity = true [mgr] mgr/cephadm/autotune_memory_target_ratio = 0.2Copy to Clipboard Copied! Toggle word wrap Toggle overflow 在本例中,
osd_memory_target_autotune参数设置为true,以便 OSD 守护进程根据osd_memory_target选项调整内存消耗。autotune_memory_target_ratio默认为 0.7。这意味着系统总 RAM 的 70% 是非自动调优 Ceph 守护进程所消耗的内存的起点。剩余的内存在 OSD 之间划分;假设所有 OSD 的osd_memory_target_autotune设置为 true。对于 HCI 部署,您可以将mgr/cephadm/autotune_memory_target_ratio设置为 0.2,以便计算服务有更多内存可用。有关服务并置的更多信息,请参阅 在 NUMA 节点的 HCI 环境中并置服务。
注意如果需要在部署后调整这些值,请使用
ceph config set osd <key> <value>命令。使用 data plane 节点上编辑的配置文件部署 Ceph Storage:
$ cephadm bootstrap --config <config_file> --mon-ip <data_plane_node_ip> --skip-monitoring-stack-
将
<config_file> 替换为 Ceph 配置文件的名称。 将
<data_plane_node_ip> 替换为安装 Red Hat Ceph Storage 的 data plane 节点的 Storage 网络 IP 地址。注意cephadm bootstrap命令中使用--skip-monitoring-stack选项,以跳过监控服务的部署。如果之前已作为上述其他流程的一部分部署了监控服务,则确保 Red Hat Ceph Storage 部署成功完成。如果还没有部署监控服务,请参阅 Red Hat Ceph Storage 文档来了解启用监控服务的信息和流程。
-
将
- 在第一个 EDPM 节点上启动 Red Hat Ceph Storage 集群后,请参阅 Red Hat Ceph Storage 安装指南中的 Red Hat Ceph Storage 安装,将其他 EDPM 节点添加到 Ceph 集群。