第 3 章 新功能
本节列出了本 Red Hat Ceph Storage 版本中引入的所有主要更新、增强功能和新功能。
3.1. Cephadm 实用程序
Cephadm-Ansible
模块
Cephadm-Ansible
软件包提供了几个模块,用于将新的集成的 control plane cephadm
打包给那些希望使用 Ansible 管理其整个数据中心的用户。它并不会提供与 Ceph-Ansible
的向后兼容性,但它旨在提供一组受支持的 playbook,供客户用来更新其 Ansible 集成。
如需了解更多详细信息,请参阅 cephadm-ansible
模块。
Red Hat Enterprise Linux 9 支持 bootstrap Red Hat Ceph Storage 集群
在这个版本中,Red Hat Enterprise Linux 9 主机上提供了 Cephadm
bootstrap,以启用 Red Hat Ceph Storage 5.2 支持 Red Hat Enterprise Linux 9。用户现在可以在 Red Hat Enterprise Linux 9 主机上引导 Ceph 集群。
cephadm rm-cluster
命令清理主机中的旧 systemd 单元文件
在以前的版本中,rm-cluster
命令在不删除 systemd 单元文件的情况下停止守护进程。
在这个版本中,cephadm rm-cluster
命令和清除守护进程会清理旧的 systemd 单元文件并从主机中清除。
如果无法应用规格,则 cephadm
会引发一个健康状况警告
在以前的版本中,应用规格失败只会被报告为一个服务事件,用户通常不会检查这类事件。
在这个版本中,如果应用规格失败(如 iscsi 规格中不正确的池名称),会为用户提供一个 cephadm
健康警告。
Red Hat Ceph Storage 5.2 支持升级
从 Red Hat Ceph Storage 5.2 开始,您可以通过多个较小的步骤有选择性地在 cephadm
中升级大型 Ceph 集群。
ceph orch upgrade start
命令接受以下参数:
-
--daemon-types
-
--hosts
-
--services
-
--limit
这些参数有选择地升级与提供的值相匹配的守护进程。
如果这些参数导致 cephadm
不会按照支持的顺序升级守护进程,则会被拒绝。
如果您活跃的 Ceph Manager 守护进程在 Red Hat Ceph Storage 5.2 构建中,则会接受这些升级参数。从早期版本升级到 Red Hat Ceph Storage 5.2 不支持这些参数。
在具有 OSD 的主机上,fs.aio-max-nr
设置为 1048576
在以前的版本中,在由 Cephadm
管理的主机上将 fs.aio-max-nr
保留为默认值 65536
可能会导致一些 OSD 出现崩溃的问题。
在这个版本中,fs.aio-max-nr
在带有 OSD 的主机上被设置为 1048576。因此,OSD 不会因为 fs.aio-max-nr
参数的值太低出现崩溃。
ceph orch rm <service-name>
命令会告知用户要删除的服务是否存在。
在以前的版本中,删除服务总是会返回一个成功的信息,即使不存在服务,这会导致用户的混淆。
在这个版本中,运行 ceph orch rm SERVICE_NAME
命令可告知用户试图删除的服务是否存在于 cephadm
中。
一个新的用于重新分片的 playbook rocksdb-resharding.yml
现在在 cephadm-ansible
中可用
在以前的版本中,rocksdb
重新分片的过程需要非常繁琐的手动步骤。
在这个版本中,可以使用 cephadm-ansible playbook rocksdb-resharding.yml
启用 rocksdb
重新分片,从而简化了分片的过程。
cephadm
现在支持在没有 LVM 层的情况下部署 OSD
在这个版本中,为了支持对其 OSD 不希望使用一个 LVM 层的用户,为原始 OSD 提供了 cephadm
或 ceph-volume
支持。您可以在传递到 Cephadm 的 OSD 规格文件中包括 "method: raw",以在不使用 LVM 层的 Cephadm 的情况下在原始模式中部署 OSD。
在这个版本中,cephadm 支持在 OSD 规范 yaml 文件中使用 method: raw,在没有 LVM 层的情况下以原始模式部署 OSD。
如需了解更多详细信息,请参阅在特定设备和主机上部署 Ceph OSD。