1.2. 使用 overcloud 部署容器化 Ceph 存储集群的要求
在使用 overcloud 部署容器化 Ceph Storage 集群前,您的环境必须包含以下配置:
- 安装了 Red Hat OpenStack Platform (RHOSP) director 的 undercloud 主机。请参阅 Director 安装和使用 中的 在 undercloud 上安装 director。
- Red Hat Ceph Storage 建议的额外硬件。有关推荐的硬件的更多信息,请参阅 Red Hat Ceph Storage 硬件指南。
Ceph 监控服务安装在 overcloud Controller 节点上,因此您必须提供足够的资源以避免性能问题。确保环境中的 Controller 节点对 Ceph 监控数据的内存和固态驱动器(SSD)存储至少使用 16GB RAM。对于大型 Ceph 安装的中型,至少提供 500GB 的 Ceph 监控数据。当集群不稳定时,需要这个空间来避免 levelDB 增长。以下示例是 Ceph Storage 集群的常见大小:
- Small: 250 terabytes
- Medium: 1 PB
- Large:2 PB 或更多。
不强制将巨型帧用于存储和存储管理网络,但 MTU 大小中的增加可以提高存储性能。如需更多信息,请参阅配置巨型帧。
1.2.1. 配置巨型帧 复制链接链接已复制到粘贴板!
巨型帧是 MTU 为 9,000 的帧。对于存储和存储管理网络,巨型帧并不强制,但 MTU 大小中的增加可以提高存储性能。如果要使用巨型帧,您必须配置数据路径中的所有网络交换机端口来支持巨型帧。
在初始部署期间,必须完成 MTU 设置等网络配置更改。它们不能应用到现有的部署。
流程
-
以
stack用户身份登录 undercloud 节点。 - 查找网络定义文件。
修改网络定义文件,以扩展模板,使其包含 Storage Management 网络的
StorageMgmtIpSubnet和StorageMgmtNetworkVlanID属性。将接口的mtu属性设置为9000。以下是实现这些接口设置的示例:
- type: interface name: em2 use_dhcp: false mtu: 9000 - type: vlan device: em2 mtu: 9000 use_dhcp: false vlan_id: {get_param: StorageMgmtNetworkVlanID} addresses: - ip_netmask: {get_param: StorageMgmtIpSubnet} - type: vlan device: em2 mtu: 9000 use_dhcp: false vlan_id: {get_param: StorageNetworkVlanID} addresses: - ip_netmask: {get_param: StorageIpSubnet}保存对网络定义文件的更改。
注意将接口与新 MTU 设置搭配使用的服务器之间的所有网络交换机端口都必须更新,以支持巨型帧。如果没有进行这些交换机更改,则问题将在应用程序层进行开发,这会导致 Red Hat Ceph Storage 集群无法访问仲裁。如果进行这些设置,并且仍然观察到这些问题,则使用为巨型帧配置的网络验证所有主机都可以通过配置的 MTU 设置进行通信。使用类似以下示例执行此任务的命令:
ping -M do -s 8972 172.16.1.11