第 3 章 新功能
本节列出了本 Red Hat Ceph Storage 版本中引入的所有主要更新、增强功能和新功能。
这个版本添加的主要功能是:
容器化集群
Red Hat Ceph Storage 5 仅支持容器化守护进程。它不支持非容器化存储集群。如果您要将非容器化存储集群从 Red Hat Ceph Storage 4 升级到 Red Hat Ceph Storage 5,升级过程包括转换为容器化部署。
如需更多信息,请参阅 Red Hat Ceph Storage 安装指南中的将 Red Hat Ceph Storage 集群从 RHCS 4 升级到 RHCS 5 部分。
Cephadm
Cephadm 是一款全新的容器化部署工具,可通过从管理器守护进程连接到主机来部署和管理 Red Hat Ceph Storage 5.0 集群。
cephadm
实用程序取代了 Red Hat Ceph Storage 部署的ceph-ansible
。Cephadm 的目标是为运行 Red Hat Ceph Storage 提供功能全面、功能强大和安装良好的管理层。cephadm
命令管理 Red Hat Ceph Storage 集群的完整生命周期。从 Red Hat Ceph Storage 5.0 开始,
ceph-ansible
不再被支持,并与产品不兼容。迁移到 Red Hat Ceph Storage 5.0 后,您必须使用cephadm
和cephadm-ansible
来执行更新。cephadm
命令可以执行以下操作:- 引导新的 Ceph 存储集群。
- 启动与 Ceph 命令行界面 (CLI) 搭配使用的容器化 shell。
有助于调试容器化守护进程.
cephadm
命令使用ssh
与存储集群中的节点通信,并添加、删除或更新 Ceph 守护进程容器。这样,您无需使用外部工具即可添加、删除或更新 Red Hat Ceph Storage 容器。cephadm
命令有两个主要组件:-
cephadm
shell 在容器内启动bash
shell。这可让您运行存储集群安装和设置任务,并在容器中运行ceph
命令。 cephadm
编配器命令允许您调配 Ceph 守护进程和服务,并扩展存储集群。如需更多信息,请参见 Red Hat Ceph Storage 安装指南。
管理 API
管理 API 创建的管理脚本适用于 Red Hat Ceph Storage 5.0,并在版本生命周期中保持不变。不兼容的 API 版本控制只会在发生在不同的主发行版本中。
如需更多信息,请参阅 Red Hat Ceph Storage 开发人员指南。
断开连接的 Red Hat Ceph Storage 安装
Red Hat Ceph Storage 5.0 支持在专用网络上断开连接的安装和引导存储集群。断开连接的安装使用自定义镜像和配置文件以及本地主机,而不是从网络下载文件。
您可以安装从可以访问红帽 registry 的代理主机下载的容器镜像,或将容器镜像复制到本地 registry。bootstrap 过程需要一个规格文件,用于标识要按名称和 IP 地址添加的主机。启动初始监控主机后,您可以使用 Ceph 编配器命令来扩展和配置存储集群。
如需了解更多详细信息,请参见 Red Hat Ceph Storage 安装指南。
Ceph 文件系统异地复制
从 Red Hat Ceph Storage 5 版本开始,您可以在不同的地理位置或不同站点之间复制 Ceph 文件系统 (CephFS)。新的
cephfs-mirror
守护进程执行快照异步复制到远程 CephFS。如需了解更多详细信息,请参阅 Red Hat Ceph Storage 文件系统指南中的 Ceph 文件系统镜像部分。
新的 Ceph 文件系统客户端性能工具
自 Red Hat Ceph Storage 5 发行版起,Ceph 文件系统 (CephFS) 提供了类似
top
的实用程序,可以实时在 Ceph 文件系统上显示指标。cephfs-top
实用程序是一个基于curses
的 Python 脚本,它使用 Ceph Managerstats
模块来获取和显示客户端性能指标。如需了解更多详细信息,请参阅 Red Hat Ceph Storage 文件系统指南中的使用
cephfs-top
实用程序 一节。使用 Red Hat Ceph Storage 仪表板监控 Ceph 对象网关多站点
Red Hat Ceph Storage 仪表板现在可用于监控 Ceph 对象网关多站点配置。
在使用
cephadm
实用程序设置了多区后,一个区域的存储桶对其它区和其他站点可见。您还可以在仪表板上创建、编辑和删除存储桶。如需了解更多详细信息,请参阅 Red Hat Ceph Storage 仪表板指南中的在 Ceph 仪表板中管理多站点对象配置的存储桶章节。
改进了 BlueStore 空间使用率
Ceph 对象网关和 Ceph 文件系统 (CephFS) 将小对象和文件作为单独的对象存储在 RADOS 中。在这个版本中,BluStore 的
min_alloc_size
的 SSD 和 HDD 的默认值为 4 KB。这可以更好地利用空间,且不会影响性能。如需了解更多详细信息,请参见 Red Hat Ceph Storage 管理指南中的 OSD BlueStore 一章。
3.1. Cephadm 实用程序
Red Hat Ceph Storage 现在可以自动调优 Ceph OSD 内存目标
在这个版本中,osd_memory_target_autotune
选项已被修复,并可以正常工作。用户可以启用 Red Hat Ceph Storage,以自动调优存储集群中的 Ceph OSD 内存目标,以提高性能,而无需明确为 Ceph OSD 设置内存目标。Red Hat Ceph Storage 通过评估可用内存以及节点上运行的守护进程,以每个节点设置 Ceph OSD 内存目标。
用户可以通过运行以下命令来为 Ceph OSD 启用内存自动调整功能:
ceph config set osd osd_memory_target_autotune true