2.4. Red Hat Ceph Storage 节点系统要求


在规划 overcloud 部署时,请查看以下 Ceph 存储节点的建议系统要求。

Expand
表 2.5. Ceph Storage 节点的建议规格
系统要求Description

数量

您必须最少有 5 个节点,并具有三向复制。使用 all-flash 配置时,必须至少有 3 个节点,并具有双向复制。

CPU

每个 OSD 1 个 Intel Broadwell CPU 内核以支持存储 I/O 要求。如果您使用轻量级 I/O 工作负载,您可能不需要 Ceph 在块设备的速度运行。例如,对于某些 NFV 应用,Ceph 提供数据持久性、高可用性和低延迟,但吞吐量不是目标,因此可以接受提供较少的 CPU 能力。

内存

确保每个 OSD 有 5 GB RAM。这是缓存 OSD 数据和元数据以优化性能所必需的,而不仅仅是 OSD 进程内存。对于超融合基础架构(HCI)环境,请结合使用 Compute 节点规格来计算所需的内存。

Network

确保网络容量(以 MB/s 为单位)大于 Ceph 设备的总 MB/s 容量,以支持使用大 I/O 传输大小的工作负载。通过将 OSD 流量路由到单独的一组物理网络端口,使用集群网络来降低写入延迟。要在 Red Hat OpenStack Platform 中执行此操作,请为网络配置单独的 VLAN,并将 VLAN 分配给单独的物理网络接口。

磁盘

使用 Solid-State Drive (SSD)磁盘用于 bluestore block.db 分区,以减少硬盘(HDD)上的 I/O 争用,这会增加写入 IOPS 的速度,但 SSD 对每秒读取输入/输出操作有零影响。如果您使用 SATA/SAS SSD 日志,则通常需要 SSD:HDD 的比率 1:5。如果使用 NVM SSD 日志,则通常可以使用 SSD:HDD 比率为 1:10 或 1:15,如果工作负载是只读的。但是,如果此比率太大,SSD 日志设备故障可能会影响 OSD。

有关 Ceph 节点硬件先决条件的更多信息,请参阅 Red Hat Storage 4 硬件指南中的选择硬件的一般原则

有关 Ceph 节点的部署配置的更多信息,请参阅使用容器化 Red Hat Ceph 部署 overcloud

有关更改存储复制号的更多信息,请参阅 Red Hat Ceph Storage 配置指南中的 池、放置组和 CRUSH 配置参考

Red Hat logoGithubredditYoutubeTwitter

学习

尝试、购买和销售

社区

关于红帽文档

通过我们的产品和服务,以及可以信赖的内容,帮助红帽用户创新并实现他们的目标。 了解我们当前的更新.

让开源更具包容性

红帽致力于替换我们的代码、文档和 Web 属性中存在问题的语言。欲了解更多详情,请参阅红帽博客.

關於紅帽

我们提供强化的解决方案,使企业能够更轻松地跨平台和环境(从核心数据中心到网络边缘)工作。

Theme

© 2026 Red Hat
返回顶部