附录 A. 附加信息
A.1. 配置指南 复制链接链接已复制到粘贴板!
以下配置指导旨在为创建超融合基础架构环境提供框架。此指南不适用于为每个 Red Hat OpenStack Platform 安装提供确定的配置参数。有关适合您的特定环境的具体指导和建议,请联系红帽客户体验和参与团队。
A.1.1. 集群大小并横向扩展 复制链接链接已复制到粘贴板!
Red Hat Ceph Storage 硬件指南 为 IOPS 优化、吞吐量优化、成本和优化 Ceph 部署场景提供建议。按照最能代表您的部署场景的建议,并添加支持计算工作负载所需的 NIC、CPU 和 RAM。
一个由 7 个节点组成的最佳的、小型配置。除非需要在环境中优化 IOPS 性能且您使用所有闪存存储的要求,否则应使用优化吞吐量的部署场景。
有三个节点 Ceph Storage 集群配置。在这个配置中,您应该:
- 使用所有闪存存储。
-
在
ceph.conf文件中,将replica_count参数设置为 3。 -
在
ceph.conf文件中,将min_size参数设置为 2。
如果节点在这个配置中保留了服务,IOPS 将继续。要保留 3 个数据副本,请复制到第三个节点,直到它返回到服务为止。然后,将数据回填到第三个节点。
最多 64 个节点的 HCI 配置已被测试。一些 HCI 环境示例已记录最多 128 个节点。此类大型集群可以通过 Support Exception 和 Consulting Services 服务参与来考虑。请联系红帽 客户体验与参与团队 以获取指导。
有两个 NUMA 节点的部署可以在一个 NUMA 节点上托管对延迟敏感的计算工作负载,以及另一个 NUMA OSD 服务。如果两个节点上都有网络接口,且磁盘控制器在节点 0 上,请为存储网络使用网络接口,并在节点 0 上托管 Ceph OSD 工作负载。在节点 1 上托管计算工作负载,并将其配置为使用节点 1 上的网络接口。当您需要部署硬件时,请注意哪个 NIC 将使用哪些节点,并尝试在存储和工作负载之间分割它们。
A.1.2. 容量规划和大小 复制链接链接已复制到粘贴板!
Red Hat Ceph Storage 硬件指南中定义的吞吐量优化 Ceph 解决方案为不需要 IOPS 优化的大多数部署提供平衡解决方案。除了解决方案提供的配置指南外,在创建环境时请注意以下几点:
- 每个 OSD 的 5 GB RAM 的分配可确保 OSD 具有足够的操作内存。确保您的硬件可以支持这一要求。
- CPU 速度应与使用中的存储介质匹配。更快的存储介质(如 SSD)的优点可能会被 CPU 识别得太慢,以支持它们。同样,快速 CPU 可以被更快的存储介质更有效地使用。平衡 CPU 和存储介质速度,以便不会成为另一个 CPU 瓶颈。