2.4. Ceph Storage
本节概述 Ceph 存储的主要新功能。
- Red Hat Ceph Storage 3.0 support
- 在这个版本中,Red Hat Ceph Storage 3.0 (luminous)是 Red Hat OpenStack 的默认支持版本,它是 director 部署的默认版本。Ceph 现在支持从版本 2.x 升级到 3。运行 Red Hat Ceph Storage 2.x (Jewel)的外部集群(不是由 director 部署)仍然与较新的 Ceph 客户端兼容。如果使用 director 部署 Ceph 集群,则升级到新的 OpenStack 版本也会将 Red Hat Ceph Storage 升级到 3.0。
- 扩展 Ceph 元数据服务器和 RADOS 网关节点
- Red Hat Ceph Storage 3.0 添加了对通过适当的 Ceph 文件系统(CephFS)配置在多个元数据服务器(MDS)之间扩展元数据负载的支持。配置后,您的 Ceph 集群中可用的额外专用 MDS 服务器会自动分配到这个额外的负载。另外,可以添加新的专用 Ceph RADOS 网关(RGW)节点,允许 RGW 根据需要扩展。
- 使用 NFS 的 Manila CephFS 存储
- 共享文件系统服务(manila)支持通过 NFSv4 协议挂载 Ceph 文件系统(CephFS)支持的共享文件系统。在 Controller 节点上运行的 NFS-Ganesha 服务器用于将 CephFS 导出到具有高可用性(HA)的租户。租户彼此隔离,只能通过提供的 NFS 网关接口访问 CephFS。此新功能完全集成到 director 中,从而为共享文件系统服务启用 CephFS 后端部署和配置。
- 增强的多个 Cinder Ceph 池支持
-
可使用 director 模板参数将块存储(cinder) RADOS 块设备(RBD)后端映射到同一 Ceph 集群中的不同池,即
CinderRbdExtraPools
。除了与CinderRbdPoolName
参数关联的标准 RBD 后端外,还会为与此参数关联的每个 Ceph 池创建一个新的块存储 RBD 后端。 - 使用 ceph-ansible 的 RBD 镜像 director
- Ceph rbd-mirror 守护进程从远程集群拉取镜像更新,并将其应用到本地集群中的镜像。RBD 镜像功能通过 ceph-ansible 和 Red Hat Ceph Storage 3.0 (luminous)部署为容器。与镜像相关的 OpenStack 元数据不由 rbd-mirror 复制。