6.4. Red Hat Ceph Storage 6.1z3
Red Hat Ceph Storage 版本 6.1z3 现已正式发布。此更新包括的程序错误修正信息包括在 RHSA-2023:7740 公告中。
6.4.1. 功能增强 复制链接链接已复制到粘贴板!
6.4.1.1. Ceph 文件系统 复制链接链接已复制到粘贴板!
snap schedule 模块现在支持新的保留规格
在这个版本中,用户可以定义新的保留规格来保留快照数量。
例如,如果用户定义保留 50 个快照,无论快照创建节奏如何,保留的快照数量比创建新快照后所指定的最大值的 1 小 1。在这种情况下,保留了 49 快照,以便在下一次迭代的文件系统上创建 1 个快照,以避免破坏系统配置的 mds_max_snaps_per_dir
限制。
Configure the `mds_max_snaps_per_dir` and snapshot scheduling carefully to avoid unintentional deactivation of snapshot schedules due to file system returning a "Too many links" error if the `mds_max_snaps_per_dir limit` is breached.
Configure the `mds_max_snaps_per_dir` and snapshot scheduling carefully to avoid unintentional deactivation of snapshot schedules due to file system returning a "Too many links" error if the `mds_max_snaps_per_dir limit` is breached.
现在,只有没有 laggy OSD 时,laggy 客户端才会被驱除
在以前的版本中,MDS 中的监控性能转储有时会显示 OSD 为 laggy、objecter.op_laggy
和 objecter.osd_laggy
,从而导致 laggy 客户端(对于上限撤销的脏数据)
在这个版本中,如果 defer_client_eviction_on_laggy_osds
被设置为 true,并且客户端会因为 laggy OSD 造成滞后,则客户端驱除不会发生,直到 OSD 不再是laggy。
6.4.1.2. Ceph 对象网关 复制链接链接已复制到粘贴板!
rgw-restore-bucket-index
工具现在可以为版本控制存储桶恢复存储桶索引
有了这个增强,rgw-restore-bucket-index
工具现在可以尽可能广泛地工作,能够恢复未版本的存储桶以及版本化的存储桶。
6.4.1.3. NFS Ganesha 复制链接链接已复制到粘贴板!
NFS Ganesha 版本更新至 V5.6
在这个版本中,对 NFS Ganesha 的更新版本进行了修复:* FSAL 的 state_free's state_free'
run is actually free_state
is not actually free.* CEPH:修复的 cmount_path
。* CEPH:当前,client_oc
true 已被中断,强制其为 false。
6.4.1.4. RADOS 复制链接链接已复制到粘贴板!
新的报告可用于延迟操作的子事件
在以前的版本中,较慢的操作被标记为延迟,但没有详细描述。
有了这个增强,您可以查看操作延迟子事件的详细描述。
在/off 上打开 noautoscale
标志现在保留每个池的原始自动扩展模式配置。
在以前的版本中,当设置了 no
中保留。因此,在打开/关闭 autoscale
标志时,pg_autoscaler
不会在每个池的自动扩展模式配置noautoscale
标志后,用户必须返回并再次为每个池设置 autoscale 模式。
在这个版本中,pg_autoscaler
模块在设置 noautoscale 标志
后为自动扩展模式保留单独的池配置。
BlueStore 实例无法打开两次
在以前的版本中,当使用容器时,可以创建针对同一块设备 mknod
的不相关的内节点,从而导致多个容器认为它们具有独占访问权限。
有了这个增强,现在实施了针对块设备专用的 O_EXCL
开放标志的强化公告锁定,从而改进了对在一个块设备上运行 OSD 两次的保护。