第 3 章 新功能
本节列出了本 Red Hat Ceph Storage 版本中引入的所有主要更新、增强功能和新功能。
3.1. Cephadm 实用程序
现在,可以为 Grafana、Prometheus 和 Alertmanager 监控堆栈部署高可用性
在这个版本中,cephadm mgmt-gateway
服务提供更好的可靠性,并通过允许这些关键服务无缝功能来确保不间断监控,即使在发生单个实例失败时也是如此。高可用性对于保持 Ceph 集群健康和性能的可见性至关重要,并及时响应任何问题。
利用高可用性实现连续的不间断操作,以提高 Ceph 集群的稳定性和弹性。
有关更多信息,请参阅使用 Ceph 管理网关。
用于 Ceph 对象网关的 EC 池的新简化部署
Ceph 对象网关管理器模块现在可以为 rgw
服务创建池。在池中,数据池可以根据提供的规格接收属性。
此功能增强简化了部署,供 Ceph 对象网关使用 EC 而不是副本的用户使用 Ceph 对象网关池。
要创建带有指定属性的数据池,请使用以下命令:
ceph rgw realm bootstrap -i <path-to-spec-file> --start-radosgw
目前,此规格的 EC 配置集字段仅使用 k
、m
、pg_num
和 crush-device-class
属性。如果设置了其他属性,或者池类型被复制,则键值对将传递给 ceph osd pool create
命令。Ceph 对象网关区域的其他池,如 bucket 索引池,都作为带有默认设置的复制池创建。
自签名证书可由 cephadm 在 Ceph 对象网关服务规格中生成
在这个版本中,将 generate_cert: true
添加到 Ceph 对象网关服务规格文件中,使 cephadm 为 Ceph 对象网关服务生成自签名证书。这可实现,而不必手动创建证书并插入到规格文件中。
使用 generate_cert: true
适用于 Ceph 对象网关服务,包括基于 Ceph 对象网关规范文件中包含的 zonegroup_hostnames
参数的 SAN 修改。
以下是 Ceph 对象网关规格文件的示例:
service_type: rgw service_id: bar service_name: rgw.bar placement: hosts: - vm-00 - vm-02 spec: generate_cert: true rgw_realm: bar_realm rgw_zone: bar_zone rgw_zonegroup: bar_zonegroup ssl: true zonegroup_hostnames: - s3.example.com - s3.foo.com
此规格文件会生成一个自签名证书,其中包含以下输出:
X509v3 Subject Alternative Name: DNS:s3.example.com, DNS:s3.foo.com
现在,为 Ceph 对象网关守护进程用户将 rgw_run_sync_thread
设置为 'false'
在这个版本中,在 Ceph 对象网关规格的 spec
部分下将 disable_multisite_sync_traffic
设置为 'true',Cephadm 将处理将 rgw_run_sync_thread
设置设置为该服务下 Ceph Object Gateway 守护进程的 'false'。这将停止 Ceph 对象网关守护进程生成线程,以处理数据和元数据的同步。现在,Ceph 对象网关守护进程用户的 rgw_run_sync_thread
设置为 'false' 的过程现在通过 Ceph 对象网关规格文件自动执行。
cephadm 现在可以使用 TCP 而不是 HTTP 模式的 ingress 服务的 haproxy
守护进程通过 Ceph 对象网关部署入口
在 TCP 模式中设置
可让加密消息直接通过 haproxy
haproxy
传递给 Ceph 对象网关,而无需了解消息内容。这允许端到端 SSL 用于入口和 Ceph 对象网关设置。
在这个版本中,用户可以为 rgw
服务指定一个证书,而不是 ingress 服务。在 ingress 规格中指定 use_tcp_mode_over_rgw
作为 True
,以获取以 TCP 模式部署该服务的 haproxy
守护进程,而不是在 HTTP 模式中。
新的 cmount_path
选项,带有为 CephFS 生成的唯一用户 ID
借助此项功能增强,您可以添加可选的 cmount_path
选项,并为每个 Ceph 文件系统生成唯一的用户 ID。唯一的用户 ID 允许在多个 Ganesha 导出间共享 CephFS 客户端。在导出之间减少客户端也会减少单个 CephFS 客户端的内存用量。
共享同一 FSAL 块的导出会将单个 Ceph 用户客户端链接到它们
在以前的版本中,在升级的集群中,导出创建失败并显示 "Error EPERM: Failed to update caps" 信息。
在这个版本中,在创建导出时修改用户密钥生成,以便共享同一 Ceph 文件系统抽象层(FSAL)块的任何导出都将只有一个 Ceph 用户客户端链接到它们。此功能增强还可防止 NFS Ganesha 中的内存消耗问题。