5.8. Ceph Storage 节点要求
Ceph Storage 节点负责在 Red Hat OpenStack Platform 环境中提供对象存储。
- 放置组
- Ceph 使用放置组大规模推动动态高效的对象跟踪。如果 OSD 出现故障或集群重新平衡,Ceph 可移动或复制放置组及其内容,这意味着 Ceph 集群可以有效地重新平衡并恢复。Director 创建的默认放置组计数并非始终最佳,因此一定要根据要求计算正确的放置组计数。您可以使用放置组计算器计算正确的计数:Placement Groups (PGs) per Pool Calculator
- 处理器
- 支持 Intel 64 或 AMD64 CPU 扩展的 64 位 x86 处理器。
- 内存
- 红帽通常建议每个 OSD 主机最少 16GB RAM,每个 OSD 守护进程增加 2 GB RAM。
- 磁盘配置
大小取决于您的存储需求。建议的 Red Hat Ceph Storage 节点配置在布局中至少需要三个或更多磁盘,类似以下示例:
-
/dev/sda
- 根磁盘。director 把主 overcloud 镜像复制到该磁盘。这应当具有最少 40 GB 的可用磁盘空间。 -
/dev/sdb
- journal 磁盘。这个磁盘被分为不同的分区来保存 Ceph OSD 的日志信息。例如,/dev/sdb1
、/dev/sdb2
、/dev/sdb3
等。journal 磁盘通常需要是一个固态磁盘(SSD)来保证系统的性能。 /dev/sdc
和后续 - OSD 磁盘。可以根据您的存储需要使用多个磁盘。注意Red Hat OpenStack Platform director 使用
ceph-ansible
,不支持在 Ceph Storage 节点的根磁盘上安装 OSD。这意味着所支持的每个 Ceph Storage 节点需要至少两个或更多磁盘。
-
- 网络接口卡
- 最少一个 1 Gbps 网络接口卡。但在生产环境中,推荐最少使用两个网卡。额外的网卡可以组成绑定接口,或处理标记的 VLAN 网络(tagged VLAN)流量。 推荐为存储节点使用10 Gbps 接口,特别是所创建的 OpenStack 平台环境需要处理大量网络数据时。
- 电源管理
- 每个 Controller 节点都需要在服务器的主板上有一个被支持的电源管理接口(如 IPMI)。
有关使用 Ceph Storage 集群安装 overcloud 的更多信息,请参阅使用容器化 Red Hat Ceph 部署 Overcloud 指南。