6.6. Red Hat Ceph Storage 6.1z3
Red Hat Ceph Storage 版本 6.1z3 现已正式发布。此更新包括的程序错误修正信息包括在 RHSA-2023:7740 公告中。
6.6.1. 功能增强
6.6.1.1. Ceph 文件系统
snap schedule 模块现在支持新的保留规格
在这个版本中,用户可以定义一个新的保留规格来保留快照数量。
例如,如果用户定义了保留 50 个快照的快照,无论快照创建节奏如何,则保留的快照会小于创建新快照后指定的最大 1 个。在这种情况下,49 快照会被保留,以便在下一次迭代时在文件系统上创建 1 个快照,以避免破坏 mds_max_snaps_per_dir
的配置限制。
Configure the `mds_max_snaps_per_dir` and snapshot scheduling carefully to avoid unintentional deactivation of snapshot schedules due to file system returning a "Too many links" error if the `mds_max_snaps_per_dir limit` is breached.
Configure the `mds_max_snaps_per_dir` and snapshot scheduling carefully to avoid unintentional deactivation of snapshot schedules due to file system returning a "Too many links" error if the `mds_max_snaps_per_dir limit` is breached.
现在,只有在没有 laggy OSD 时,laggy 客户端才会被驱除
在以前的版本中,监控 MDS 性能转储有时会显示 OSD 为 laggy、objecter.op_laggy
和 objecter.osd_laggy
,从而导致 laggy 客户端(对于 cap revokes)造成脏数据。
在这个版本中,如果 defer_client_eviction_on_laggy_osds
设置为 true,并且客户端会因为 laggy OSD 造成 laggy,则客户端驱除不会发生,直到 OSD 不再发生。
6.6.1.2. Ceph 对象网关
rgw-restore-bucket-index
工具现在可以恢复版本存储桶的存储桶索引
有了这个增强,rgw-restore-bucket-index
工具现在可以尽可能广泛地工作,能够为未版本以及版本存储桶恢复存储桶索引。
6.6.1.3. NFS Ganesha
NFS Ganesha 版本更新至 V5.6
在这个版本中,对 NFS Ganesha 的更新版本已被修复:* FSAL 的 state_free' 功能已被 free_state
调用的 state_free'
功能实际上没有可用。* CEPH:修复的 cmount_path
。* CEPH:目前,client_oc
true 无法正常工作,强制其为 false。
6.6.1.4. RADOS
新的报告可用于延迟操作
在以前的版本中,较慢的操作被标记为延迟,但没有详细描述。
在这个版本中,您可以查看延迟子事件的详细描述。
现在,打开/关闭 noautoscale
标志会保留每个池的原始自动扩展模式配置。
在以前的版本中,当设置了 no
配置中不会保留 autoscale
标志时,每个池的自动扩展模式pg_autoscaler
。因此,在打开/关闭 noautoscale
标志后,用户必须返回并再次为每个池设置自动扩展模式。
在这个版本中,在设置了 noautoscale 标志
后,pg_autoscaler
模块会保留自动扩展模式的独立池配置。
BlueStore 实例无法打开两次
在以前的版本中,当使用容器时,可以创建与同一块设备 mknod b
为目标的不相关的 inode,从而导致多个容器认为具有独占访问权限。
在这个版本中,通过 O_EXCL
open 标志为块设备实现强制公告锁定,现在实现了对运行 OSD 的保护两次。