第 3 章 新功能
本节列出了本 Red Hat Ceph Storage 版本中引入的所有主要更新、增强功能和新功能。
这个版本添加的主要功能是:
- Vault 支持
- 支持将 Grafana 容器与 OSD 容器共存
- 从 CephFS 中的快照克隆子卷
Vault 支持
随着 Red Hat Ceph Storage 4.1 发行版本,Ceph 对象存储网关(RGW)现在可以与 Hashicorp Vault 安全密钥管理服务进行交互。作为存储管理员,您可以在 HashiCorp Vault 中安全地存储密钥、密码和证书,以用于 Ceph 对象网关。HashiCorp Vault 为 Ceph 对象网关使用的服务器端加密提供安全密钥管理服务。
有关更多信息,请参阅 Red Hat Ceph Storage 对象网关配置和管理指南 中的 HashiCorp Vault 部分。
支持并置 Grafana 容器
Red Hat Ceph Storage 4.1 发行版本支持与 Ceph OSD 的 Grafana 容器共同定位,以及额外的 scale-out 守护进程,即卡 2。以前,cardinality 2 仅支持 Red Hat Ceph Storage 4.0 发行版本中的 Ceph 对象网关。
如需更多信息,请参阅 Red Hat Ceph 支持的配置。
从 CephFS 中的快照克隆子卷
可以通过克隆子卷快照来创建子卷。这是一个异步操作,涉及将快照中的数据复制到子卷。
有关从 CephFS 中快照克隆子卷的详情,请参考 Red Hat Ceph Storage File System Guide。
3.1. Ceph Ansible 实用程序 复制链接链接已复制到粘贴板!
ceph-ansible
现在支持带有多个域的多站点部署
在以前的版本中,ceph-ansible
多站点部署支持单个 RGW 域。在这个版本中,ceph-ansible
支持多个域,它们关联区域、zonegroup 和端点。
有关更多信息,请参阅 Red Hat Ceph Storage 安装指南中的配置多站点 Ceph对象网关 。
专用日志设备在从 Filestore OSD 迁移到 Bluestore 时保留其配置
在以前的版本中,当迁移到 Bluestore OSD DB 时,无法重复使用 Filestore OSD 的专用日志设备。专用设备配置示例使用 HDD 进行数据和 SSD 进行日志。
在这个版本中,专用日志设备在迁移过程中保留其配置,以便它们可以与 Bluestore OSD DB 重复使用。
如需更多信息,请参阅管理指南中的将对象存储从 FileStore 迁移到 BlueStore。https://access.redhat.com/documentation/zh-cn/red_hat_ceph_storage/4/html-single/administration_guide/
purge-container-cluster.yml
playbook 现在支持具有三位 ID 的集群
在以前的版本中,purge-container-cluster
仅支持最多 99 个 OSD 的 Red Hat Ceph Storage 集群。这是因为 playbook 支持具有两位索引的 ceph-osd 服务。在这个版本中,您可以使用三位 ID 正确清除集群。
OpenStack 用户可以使用具有只读权限的默认 admin 帐户部署 Ceph 控制面板
在以前的版本中,具有完整管理员特权的 OpenStack 用户从 Ceph 控制面板所做的更改可能会覆盖集群设置或状态。通过此功能,Ceph Dashboard admin 帐户只能监控 Ceph 集群状态并检索信息和设置。
添加了对容器化 Red Hat Ceph Storage 部署中的 logrotate
的支持
在这个版本中,容器化 Ceph 日志使用 logrotate
程序进行轮转。这有助于防止文件系统使用日志数据填满。