8.0 发行注记
Red Hat Ceph Storage 8.0 发行注记
摘要
使开源包含更多 复制链接链接已复制到粘贴板!
红帽致力于替换我们的代码、文档和 Web 属性中存在问题的语言。我们从这四个术语开始:master、slave、黑名单和白名单。由于此项工作十分艰巨,这些更改将在即将推出的几个发行版本中逐步实施。有关更多详情,请参阅我们的首席技术官 Chris Wright 提供的消息。
提供有关 Red Hat Ceph Storage 文档的反馈 复制链接链接已复制到粘贴板!
我们感谢您对文档提供反馈信息。请让我们了解如何改进文档。要做到这一点,请创建一个 Bugzilla ticket:
- 进入 Bugzilla 网站。
- 在组件下拉列表中选择 Documentation。
- 在 Sub-Component 下拉菜单中,选择适当的子组件。
- 选择相应的文档版本。
- 在 Summary 和 Description 字段中填写您要改进的建议。包括文档相关部分的链接。
- 可选:添加一个附件(若有)。
- 点 Submit Bug。
第 1 章 简介 复制链接链接已复制到粘贴板!
Red Hat Ceph Storage 是一个可大规模扩展、开放、软件定义的存储平台,它将最稳定版本的 Ceph 存储系统与 Ceph 管理平台、部署实用程序和支持服务相结合。
Red Hat Ceph Storage 文档位于 https://docs.redhat.com/en/documentation/red_hat_ceph_storage/8。
第 2 章 致谢 复制链接链接已复制到粘贴板!
Red Hat Ceph Storage 版本 8.0 包含 Red Hat Ceph Storage 团队的许多贡献。此外,Ceph 社区中个人和组织的贡献质量和数量有显著的增长。我们借此感谢 Red Hat Ceph Storage 团队的所有成员、Ceph 社区中的所有个人贡献者,并且包括但不限于:
- Intel®
- Fujitsu ®
- UnitedStack
- Yahoo ™
- Ubuntu Kylin
- Mellanox ®
- CERN ™
- Deutsche Telekom
- Mirantis ®
- SanDisk ™
- SUSE ®
第 3 章 新功能 复制链接链接已复制到粘贴板!
本节列出了本 Red Hat Ceph Storage 版本中引入的所有主要更新、增强功能和新功能。
3.1. Cephadm 实用程序 复制链接链接已复制到粘贴板!
现在,可以为 Grafana、Prometheus 和 Alertmanager 监控堆栈部署高可用性
在这个版本中,cephadm mgmt-gateway 服务提供更好的可靠性,并通过允许这些关键服务无缝功能来确保不间断监控,即使在发生单个实例失败时也是如此。高可用性对于保持 Ceph 集群健康和性能的可见性至关重要,并及时响应任何问题。
利用高可用性实现连续的不间断操作,以提高 Ceph 集群的稳定性和弹性。
有关更多信息,请参阅使用 Ceph 管理网关。
用于 Ceph 对象网关的 EC 池的新简化部署
Ceph 对象网关管理器模块现在可以为 rgw 服务创建池。在池中,数据池可以根据提供的规格接收属性。
此功能增强简化了部署,供 Ceph 对象网关使用 EC 而不是副本的用户使用 Ceph 对象网关池。
要创建带有指定属性的数据池,请使用以下命令:
ceph rgw realm bootstrap -i <path-to-spec-file> --start-radosgw
ceph rgw realm bootstrap -i <path-to-spec-file> --start-radosgw
目前,此规格的 EC 配置集字段仅使用 k、m、pg_num 和 crush-device-class 属性。如果设置了其他属性,或者池类型被复制,则键值对将传递给 ceph osd pool create 命令。Ceph 对象网关区域的其他池,如 bucket 索引池,都作为带有默认设置的复制池创建。
自签名证书可由 cephadm 在 Ceph 对象网关服务规格中生成
在这个版本中,将 generate_cert: true 添加到 Ceph 对象网关服务规格文件中,使 cephadm 为 Ceph 对象网关服务生成自签名证书。这可实现,而不必手动创建证书并插入到规格文件中。
使用 generate_cert: true 适用于 Ceph 对象网关服务,包括基于 Ceph 对象网关规范文件中包含的 zonegroup_hostnames 参数的 SAN 修改。
以下是 Ceph 对象网关规格文件的示例:
此规格文件会生成一个自签名证书,其中包含以下输出:
X509v3 Subject Alternative Name:
DNS:s3.example.com, DNS:s3.foo.com
X509v3 Subject Alternative Name:
DNS:s3.example.com, DNS:s3.foo.com
现在,为 Ceph 对象网关守护进程用户将 rgw_run_sync_thread 设置为 'false'
在这个版本中,在 Ceph 对象网关规格的 spec 部分下将 disable_multisite_sync_traffic 设置为 'true',Cephadm 将处理将 rgw_run_sync_thread 设置设置为该服务下 Ceph Object Gateway 守护进程的 'false'。这将停止 Ceph 对象网关守护进程生成线程,以处理数据和元数据的同步。现在,Ceph 对象网关守护进程用户的 rgw_run_sync_thread 设置为 'false' 的过程现在通过 Ceph 对象网关规格文件自动执行。
cephadm 现在可以使用 TCP 而不是 HTTP 模式的 ingress 服务的 haproxy 守护进程通过 Ceph 对象网关部署入口
在 TCP 模式中设置 可让加密消息直接通过 haproxy haproxy 传递给 Ceph 对象网关,而无需了解消息内容。这允许端到端 SSL 用于入口和 Ceph 对象网关设置。
在这个版本中,用户可以为 rgw 服务指定一个证书,而不是 ingress 服务。在 ingress 规格中指定 use_tcp_mode_over_rgw 作为 True,以获取以 TCP 模式部署该服务的 haproxy 守护进程,而不是在 HTTP 模式中。
新的 cmount_path 选项,带有为 CephFS 生成的唯一用户 ID
借助此项功能增强,您可以添加可选的 cmount_path 选项,并为每个 Ceph 文件系统生成唯一的用户 ID。唯一的用户 ID 允许在多个 Ganesha 导出间共享 CephFS 客户端。在导出之间减少客户端也会减少单个 CephFS 客户端的内存用量。
共享同一 FSAL 块的导出会将单个 Ceph 用户客户端链接到它们
在以前的版本中,在升级的集群中,导出创建失败并显示 "Error EPERM: Failed to update caps" 信息。
在这个版本中,在创建导出时修改用户密钥生成,以便共享同一 Ceph 文件系统抽象层(FSAL)块的任何导出都将只有一个 Ceph 用户客户端链接到它们。此功能增强还可防止 NFS Ganesha 中的内存消耗问题。
3.2. Ceph 仪表板 复制链接链接已复制到粘贴板!
添加了当守护进程关闭时的健康警告
在以前的版本中,如果没有健康警告和警报来通知 mgr、mds 和 rgw 守护进程是否停机。
在这个版本中,当任何 mgr、mds 和 rgw 守护进程都停机时,会发出健康警告。
Bugzilla:2138386
Ceph 对象网关 NFS 导出管理现在可通过 Ceph 控制面板访问
在以前的版本中,Ceph 对象网关 NFS 导出管理只能通过命令行界面使用。
借助此项功能增强,Ceph 控制面板也支持管理基于所选 Ceph 对象网关用户创建的导出。
有关编辑 bucket 的更多信息,请参阅在 Ceph 控制面板中管理 NFS Ganesha 导出。
使用默认域、区域和 zone group 增强多站点创建
在以前的版本中,在创建带有默认域、区域或 zone group 的多站点后,Ceph 对象网关服务需要手动重启。
在这个版本中,由于引进了新的多站点复制向导,会自动完成任何必要的服务重启。
Ceph 仪表板现在支持 EC 8+6 配置集
在这个版本中,仪表板支持纠删代码 8+6 配置集。
在存储桶创建过程中在多站点配置中启用或禁用存储桶的复制
Ceph 对象网关 bucket 创建表单中添加了一个新的复制复选框。此功能增强允许从多站点配置中的特定存储桶启用或禁用复制。
通过 Ceph 控制面板进行新的同步策略管理
在以前的版本中,无法从 Ceph 控制面板管理同步策略。
在这个版本中,您可以通过进入 Object>Multi-site 来直接从 Ceph Dashboard 管理同步策略。
改进了 Ceph 控制面板中的服务器端加密配置体验
在这个版本中,通过导航菜单中的 Objects>Configuration 可以轻松地找到服务器端加密。
在创建过程中启用池的镜像的新选项
在以前的版本中,在池创建过程中没有在池上启用镜像功能的选项。
借助此项功能增强,可以直接从 Create Pool 表单启用镜像功能。
在集中式日志中增强 Ceph 对象网关 ops 和审计日志的输出
在这个版本中,您可以在 Ceph 控制面板集中式日志中看到 Ceph 对象网关 ops 和 audit log recollection。
改进了使用 Ceph 控制面板创建纠删代码池时的体验
在以前的版本中,在创建纠删代码(EC)配置集(如 HDD、SSD 等)时,Ceph 集群中的设备会被自动选择。当使用 EC 池指定设备类时,池只会创建一个放置组,自动扩展无法正常工作。
在这个版本中,需要手动选择设备类,并自动选择所有设备并可用。
Ceph 仪表板上增强的多集群视图
在以前的版本中,在多集群设置中连接的集群无法看到 Ceph Cluster Grafana 仪表板,且多集群无法通过仪表板通过 mTLS 完全配置。
通过这些改进,用户可以在两个集群中连接启用了 mTLS 的多集群设置。当进入 Multi-Cluster > Manage Clusters 时,用户也可以通过扩展特定的集群行来查看单独的集群 Grafana 仪表板。
CephFS 子卷组和子卷现在可以直接从 Create NFS 导出表单中选择
在以前的版本中,在创建 CephFS NFS 导出时,您需要在创建 NFS 导出前了解现有的子卷和子卷组,并将信息手动输入到表单中。
在这个版本中,一旦选择了卷,就可以使用相关的子卷组和子卷来无缝选择 Create NFS 导出表单。
非默认域同步状态现在对 Ceph 对象网关可见
在以前的版本中,只有默认域同步状态在 Ceph Dashboard 的 Object>Overview sync 状态中可见。
在这个版本中,会显示任何所选对象网关的同步状态,即使它处于非默认域中。
Grafana 中的新的 RGW 同步概述仪表板
在这个版本中,您可以从 Grafana 中的新 RGW 同步概述仪表板中每个分片的时间跟踪复制差异。
通过 Ceph 控制面板进行新的 S3 存储桶生命周期管理
在这个版本中,可以通过 Ceph Dashboard 中的 Edit Bucket 表单来管理存储桶生命周期。
有关编辑存储桶的更多信息,请参阅 控制面板上的编辑 Ceph 对象网关存储桶。
3.3. Ceph 文件系统 复制链接链接已复制到粘贴板!
snapdiff API 现在只同步两个快照之间的文件差异
在这个版本中,snapdiff API 只用来同步两个快照之间的文件的不同。同步只避免在增量快照同步过程中批量复制,从而提高性能,因为只有 snapdiff delta 正在同步。
数据复制监控逻辑的新指标
此功能增强为复制启动和结束通知提供了标记的指标。
新标记的指标有: last_synced_start,last_synced_end,last_synced_duration, 和 last_synced_bytes。
增强的在对等状态中的远程元数据信息
在这个版本中,当远程快照中存在无效元数据时,对等 状态 输出显示状态为 ,failed, 和 'failure_reason'。
对 NFS-Ganesha async FSAL 的新支持
在这个版本中,引入了非阻塞 Ceph 文件系统抽象层(FSAL)或 async。FSAL 可减少线程利用率、提高性能和降低资源利用率。
对 ear 标记子卷的新支持
在以前的版本中,Ceph 存储系统不支持在同一子卷中使用的混合协议。尝试使用混合协议可能会导致数据崩溃。
在这个版本中,子卷具有协议隔离。隔离可防止数据完整性问题,并降低管理多协议环境(如 SMB 和 NFS)的复杂性。
3.4. Ceph 对象网关 复制链接链接已复制到粘贴板!
CopyObject API 现在可用于在存储类间复制对象
在以前的版本中,对象只能复制到同一存储类中。这限制了 CopyObject 功能的范围。用户必须下载对象,然后将它们重新上传到其他存储类。
在这个版本中,对象可以从服务器端复制到同一 Ceph 对象网关集群内的任何存储类。
改进了 Ceph 对象网关的读取操作
借助此项功能增强,将读取关联性添加到 Ceph 对象网关。读取关联性通过添加标志并设置正确的 CRUSH 位置,允许读取对最接近的 OSD 的读取调用。
在关闭过程中,S3 请求不再关闭传输中
在以前的版本中,一些客户端在关闭期间在传输期间关闭 S3 请求会出现问题,而不等待。
在这个版本中,可以配置 S3 请求(默认关闭)以等待 rgw_exit_timeout_secs 参数中定义的持续时间,以便在无条件退出 Ceph 对象网关进程前等待所有未完成的请求。Ceph 对象网关将等待最多 120 秒(可配置),以便在无条件退出前,等待所有持续 S3 请求完成。在此期间,不接受新的 S3 请求。
在容器化部署中,还需要额外的 extra_container_args 参数配置 --stop-timeout=120 (或 rgw_exit_timeout_secs 参数的值(如果不是默认)。
现在支持使用 copy-object API 复制加密对象
在以前的版本中,在 Ceph 对象网关中,不支持使用 copy-object API 复制加密对象,因为其服务器端加密支持。
在这个版本中,支持使用 copy-object API 复制加密对象,而依赖复制对象操作的工作负载也可以使用服务器端加密。
新的 S3 额外校验和
在这个版本中,增加了对 S3 额外校验和的支持。这个新支持为传输和静态数据提供了改进的数据完整性。其他支持允许在 S3 操作中使用强大的对象数据的校验和,如 SHA256 和 checksum assertions。
对 S3 GetObjectAttributes API 的新支持
GetObjectAttributes API 返回有关 S3 对象的各种传统和非传统元数据。元数据返回包括对象上的 S3 额外的校验和,以及最初存储为多部分上传的对象部分。GetObjectAttributes 在 AWS CLI 中公开。
通过多个位置提高了 Ceph 对象网关集群的效率
在这个版本中,如果可能,从放置组中最接近的物理 OSD 实例读取数据。
因此,本地读取提高了跨多个物理位置的 Ceph 对象网关集群的效率。
在事件记录中观察到租户所有者的格式更改: ownerIdentity -> principalId
在这个版本中,在存储桶通知中,owner Id 内部的 principalId 现在包含带有租户 ID 的完整用户 ID。
可以添加客户端 ID,并且可以在 Ceph 对象网关内的现有 OIDC 供应商中更新 thumbprint 列表
在以前的版本中,用户无法添加新客户端 ID 或更新 OIDC 供应商中的 thumbprint 列表。
在这个版本中,用户可以添加新的客户端 ID 或更新 OIDC 供应商中的 thumbprint 列表,任何现有的 thumbprint 列表都会被替换。
3.5. 多站点 Ceph 对象网关 复制链接链接已复制到粘贴板!
新的多站点配置标头
在这个版本中,在多站点配置中写入的对象 GetObject 和 HeadObject 响应包括 x-amz-replication-status: PENDING 标头。复制成功后,标头的值将变为 COMPLETED。
用于主题和通知元数据的新 notification_v2 区域功能
在这个版本中,保存在全新安装部署(Greenfield)中的存储桶通知和主题在区域间同步。
当升级到 Red Hat Ceph Storage 8.0 时,需要通过启用 notification_v2 功能来添加此增强功能。
3.6. RADOS 复制链接链接已复制到粘贴板!
现在可以在集群中观察 balanced 主放置组
在以前的版本中,用户只能使用 offline osdmaptool 平衡 primaries。
在这个版本中,upmap balancer 提供了自动平衡功能。用户现在可以在 upmap-read' 或 'read 模式之间进行选择。upmap-read 模式提供同步 upmap 和 read 优化。read 模式只能用于优化读取。
有关更多信息,请参阅使用 Ceph 管理器模块。
用于纠删代码池的新 MSR CRUSH 规则
多步骤(MSR)是 Ceph 集群中的 CRUSH 规则类型,用于定义如何在存储设备之间分发数据。MSR 可确保有效的数据检索、平衡和容错。
在这个版本中,crush-osds-per-failure-domain 和 crush-num-failure-domains 可以在它们创建过程中为纠删代码池指定 crush-osds-per-failure-domain。这些池使用新引入的 MSR crush 规则将多个 OSD 放置到每个故障域中。例如,14 个 OSD 划分到 4 个主机。
如需更多信息,请参阅 Ceph 纠删代码。
三个可用区的新通用扩展集群配置
在以前的版本中,当没有启用扩展模式的情况下,无法应用扩展对等规则来防止放置组(PG)处于激活状态。
对于三个可用区的通用集群配置,支持三个数据中心,每个站点包含两个数据副本。这有助于确保即使在数据中心中断期间,数据仍可从另一个站点访问并写入。使用这个配置,池复制大小为 6,池 min_size 为 3。
如需更多信息,请参阅三个可用区的通用扩展集群配置
3.7. RADOS 块设备 (RBD) 复制链接链接已复制到粘贴板!
添加了对从另一个集群实时导入镜像的支持
在这个版本中,您可以从另一个 Ceph 集群在不同的镜像格式或布局之间迁移。当启动实时迁移时,源镜像会深度复制到目标镜像,拉取所有快照历史记录,同时保留可能数据的稀疏分配。
如需更多信息,请参阅 镜像实时迁移。
新的支持从非用户类型快照克隆镜像
在这个版本中,增加了对从非用户类型快照克隆 Ceph 块设备镜像的支持。现在,通过 rbd clone 命令的 add-snap -id 选项支持从使用 命令创建的组快照克隆新组。
rbd group snap create
如需更多信息 ,请参阅关闭块设备快照。
为 Ceph 块设备添加新命令
添加了两个新命令用于增强 Ceph 块设备使用。rbd group info 命令显示组的相关信息。rbd group snap info 命令显示组快照的信息。
新的支持从 NBD 导出实时导入镜像
在这个版本中,带有加密的镜像支持从 NBD 导出进行实时迁移。
如需更多信息,请参阅 流。
3.8. RBD 镜像功能 复制链接链接已复制到粘贴板!
rbd mirror pool enable 命令的新 optional -remote-namespace 参数
在这个版本中,Ceph 块设备具有 rbd mirror pool enable 命令的新 optional --remote-namespace 参数。此参数提供池中要镜像到另一集群中相同名称池中不同命名空间的选项。
第 4 章 程序错误修复 复制链接链接已复制到粘贴板!
本节论述了在这个 Red Hat Ceph Storage 发行版本中修复的用户有严重影响的错误。此外,部分还包括之前版本中发现的固定已知问题的描述。
4.1. Cephadm 实用程序 复制链接链接已复制到粘贴板!
original_weight 字段作为 OSD 移除队列的属性添加
在以前的版本中,cephadm osd removal 队列没有 original_weight 的参数。因此,cephadm 模块会在 OSD 移除过程中崩溃。在这个版本中,origin_weight 字段作为 osd removal 队列的属性添加,cephadm 在 OSD 移除过程中不再崩溃。
Cephadm 在大型部署过程中不再随机标记主机离线
在以前的版本中,当 Cephadm 在大型部署中有一个短命令超时时,主机会在主机检查过程中随机标记为离线。
在这个版本中,删除简短的超时时间。cephadm 现在依赖于 mgr/cephadm/default_cephadm_command_timeout 设置指定的超时。
ssh_keepalive_interval 间隔和 ssh_keepalive_count_max 设置现在可以通过 mgr/cephadm/ssh_keepalive_interval 和 mgr/cephadm/ssh_keepalive_count_max 设置进行配置。
这些设置可让用户更好地控制主机在 Cephadm 受管集群中被标记为离线的情况,Cephadm 在大型部署期间不再随机标记主机离线。
Bugzilla:2308688
自定义 Webhook 现在在 custom-receiver 接收器下指定。
在以前的版本中,自定义 Alertmanager Webhook 在 Alertmanager 配置文件中的 默认 接收器中指定。因此,自定义警报不会发送到指定的 Webhook,除非警报与任何其他接收器不匹配。
在这个版本中,自定义 Webhook 在 custom-receiver 接收器下指定。现在,即使警报与另一个接收器匹配,警报也会发送到自定义 Webhook。
Bugzilla:2313614
4.2. Ceph 仪表板 复制链接链接已复制到粘贴板!
在网络安全扫描过程中,cherrypy 不再卡住
在以前的版本中,由于 cheroot 软件包中的一个错误,在扫描网络的一些安全扫描过程中会卡住 cherrypy。因此,Ceph 控制面板变得无响应,需要重启 mgr 模块。
在这个版本中,cheroot 软件包已被更新,并解决了这个问题。
区存储类详情现在显示正确的压缩信息
在以前的版本中,为区详情设置错误的压缩信息。因此,存储类部分下的区详情显示不正确的压缩信息。
在这个版本中,存储类信息被修正,区详情现在显示正确的压缩信息。
现在正确设置了区存储类详情值
在以前的版本中,为区详情中的存储类设置错误的数据池值。因此,当创建多个存储类时,用户界面中的数据池值不正确。
在这个版本中,在区详情中为存储类设置了正确的值。
_nogroup 现在列在 Subvolume Group 列表中,即使 _nogroup中没有子卷
在以前的版本中,当克隆子卷时,如果没有 _nogroup 子卷,则不会列出 _nogroup 子卷组。因此,用户无法选择 _nogroup 作为子卷组。
在这个版本中,在克隆子卷时,_nogroup 也会列在 Subvolume Group 列表中,即使 _nogroup 中没有子卷。
控制面板中显示了名称中包含 $ 的正确 UID
在以前的版本中,当用户通过 CLI 创建用户时,在 Ceph 控制面板中显示名称中包含 $ 的错误 UID。
在这个版本中,会显示正确的 UID,即使使用 CLI 在名称中创建包含 $ 的用户。
文件和 对象中的 NFS 现在有单独的路由
在以前的版本中,相同的路由用于对象中的 File 和 NFS 中的 NFS。从可用性角度造成问题,因为 File 和 Object 中的 NFS 导航链接都突出显示。用户需要为视图、文件和对象选择存储后端 。
在这个版本中,文件和对象中的 NFS 具有单独的路由,且不会要求用户输入存储后端,从而提高可用性。
现在,在 NFS 导出创建过程中添加了伪路径和 CephFS 路径的验证
在以前的版本中,在创建 NFS 导出过程中,必须手动输入 psuedo 路径。因此,无法验证 CephFS 路径。
在这个版本中,伪路径字段会留空,用户输入路径,CephFS 路径会从所选子卷组和子卷获取更新路径。现在,为 CephFS 路径添加的无效值也有一个验证。如果用户尝试将 CephFS 路径更改为无效值,则导出创建会失败。
现在,在创建导出时,用户会被提示输入路径
在以前的版本中,创建导出不会提示输入路径,默认是 /。
在这个版本中,当试图直接在文件系统中创建导出时,它会提示输入一个路径。如果输入无效的路径,则不被允许创建。另外,当直接输入 CephFS 文件系统的路径时,会出现一个警告,表示 CephFS 卷 '/' not allowed"。
无法删除名称中包含 "." 和 "/" 的快照
当使用 "." 作为名称创建快照时,无法删除它。
作为临时解决方案,用户必须避免使用 "." 和 "/" 创建快照名称。
现在,在迁移到多站点后会添加一个 period 更新提交
在以前的版本中,在完成迁移到多站点表单后会有一个 period 提交。因此,尽管配置了端点,也会显示 master 区域没有端点的警告。
在这个版本中,在迁移到多站点表单后会添加一个周期更新提交,且不会发出警告。
性能统计延迟图现在显示正确的数据
在以前的版本中,因为在代码中处理 NaN 值的方式,Object > Overview > Performance 统计中的延迟图不会显示数据。
在这个版本中,延迟图会如预期显示正确的数据。
现在,在删除域时会显示"删除域"对话框
在以前的版本中,当点 "Delete realm" 时,删除域对话框不会显示,因为它无法正常工作。
在这个版本中,删除域对话框会被正确加载,用户可以删除域。
现在,在部署 Ceph 对象网关守护进程前设置 rgw_realm、rgw_zonegroup 和 rgw_zone 等配置值
在以前的版本中,在部署 Ceph 对象网关守护进程后,rgw_realm、rgw_zonegroup 和 rgw_zone 等配置值会被设置。这会导致 Ceph 对象网关守护进程在默认 realm、zone group 和 zone 配置中部署,而不是指定的配置。这需要重新启动,以便在正确的 realm、zone group 和 zone 配置下进行部署。
在这个版本中,配置值会在部署 Ceph 对象网关守护进程前设置,它们部署到规格中的指定 realm、zone group 和 zone 中。
4.3. Ceph 文件系统 复制链接链接已复制到粘贴板!
cephfs-top 期间的例外已被修复
在以前的版本中,在终端空间不足的情况下,cephfs-top 命令没有足够的空间来运行,并会抛出异常。
在这个版本中,在大型和小型窗口运行 cephfs-top 命令时会出现异常问题。
路径受限 cephx 凭证不再对删除目录的快照进行权限检查
在以前的版本中,路径限制检查会在匿名路径中为通过快照访问的未链接的目录构建。因此,路径受限 cephx 凭证会在删除目录的快照中失败权限检查。
在这个版本中,为访问检查构建的路径由快照时目录的原始路径构建,并且成功通过访问检查。
Bugzilla:2293353
MDS 不再请求不必要的授权 PIN
在以前的版本中,MDS 可能会不必要为一些工作负载获取远程授权 PIN,从而导致元数据操作较慢。
在这个版本中,MDS 不再请求不必要的授权 PIN,从而导致正常的元数据性能。
正确处理内核驱动程序的错误补丁,MDS 不再进入无限循环
在以前的版本中,对内核驱动程序的错误补丁会导致 MDS 进入无限循环处理操作,因为 MDS 非常大不可用。
在这个版本中,内核驱动程序中的错误消息会被正确处理,MDS 不再进入无限循环。
Bugzilla:2303693
现在,当阻止列表或失败时,mirror 守护进程可以重启
在以前的版本中,取时间差异会导致负秒,永远不会达到阈值。因此,当列入黑名单或失败时,镜像守护进程不会重启。
在这个版本中,时间差异计算已被修正。
ceph fs status 命令的 JSON 输出现在可以正确地打印 rank 字段
在以前的版本中,由于 ceph fs status 命令的 JSON 输出中的错误,standby-replay MDS 守护进程的 rank 字段不正确。其中 {rank}-s 格式而不是 {rank} 格式,其中 {rank} 是活跃的 MDS,它会显示 standby-replay 如下,而是显示随机 {rank}。
在这个版本中,ceph fs status 命令的 JSON 输出可以正确地打印 standby-replay MDS 的 rank 字段,格式为 '{rank}-s'。
sync_duration 现在以秒为单位计算
在以前的版本中,同步持续时间是以毫秒计算的。这会导致可用性问题,因为所有其他计算都以秒为单位。
在这个版本中,sync_duration 会显示以秒为单位。
现在,实现了锁定来保护对共享数据结构的访问
在以前的版本中,在没有锁定的情况下访问共享数据结构会导致使用 CephFS 客户端库的应用抛出错误。
在这个版本中,实施一个名为 mutex 的锁定,以保护使用 Ceph 客户端库的共享数据结构和应用可以正常工作。
snap-schedule manager 模块可以正确地强制全局 mds_max_snaps_per_dir 配置选项
在以前的版本中,配置值无法从 MDS 正确检索。因此,snap-schedule manager 模块不会强制 mds_max_snaps_per_dir 设置,并强制默认限制为 100。
在这个版本中,配置项会从 MDS 正确获取。snap-schedule manager 模块可以正确地强制全局 mds_max_snaps_per_dir 配置选项。
CephFS FUSE 客户端现在可以正确访问指定的 mds auth caps 路径
在以前的版本中,当验证 mds auth caps FUSE 客户端无法访问特定路径时,当解析路径时,即使其路径被指定为 mds auth caps。
在这个版本中,在验证 mds auth caps 时解析路径问题已被修复,路径可以如预期访问。
4.4. Ceph 对象网关 复制链接链接已复制到粘贴板!
JSON 语句上的 SQL 查询不再将 键 与 数组 或对象混淆
在以前的版本中,在某些情况下,JSON 结构上的 SQL 语句的结果会与 数组 混淆。或对象 因此,没有定义 venue.id,其 id 作为 'venue 对象中的 key 值,它会保留遍历整个 JSON 对象。
在这个版本中,SQL 引擎已被修复,以避免 键 与 数组 或对象 混合的错误结果,并根据查询返回正确的结果。
现在,本地验证引擎的错误代码被正确返回
在以前的版本中,当本地身份验证引擎以身份验证顺序指定,以及以前的身份验证引擎不适用时,会返回不正确的错误代码。因此,返回不正确的错误代码。
在这个版本中,当以前的外部身份验证引擎不适用于验证请求,并且返回正确的错误代码时,代码会返回本地身份验证引擎的错误代码。
现在,生命周期转换适用于包含 "Date" 的规则
在以前的版本中,由于生命周期转换代码中存在一个错误,包含 "Date" 的规则不会被处理,从而导致对象满足条件,无法过渡到其他存储类。
在这个版本中,生命周期转换适用于包含 "Date" 的规则。
现在,通知会在生命周期转换中发送
在以前的版本中,在转换时分配的逻辑(与过期不同)丢失。因此,在转换时不会看到通知。
在这个版本中,添加了新的逻辑,通知会在生命周期转换时发送。
现在,允许使用 IAM 策略权限批量对象删除
在以前的版本中,在批处理删除过程中,也称为多对象删除过程,因为如果没有显式或隐式拒绝,IAM 策略的评估会返回 AccessDenied 输出。即使存在 Allow 权限,AccessDenied 也会发生。因此,批处理删除会失败,并显示 AccessDenied 错误。
在这个版本中,策略会如预期评估,并在启用 IAM 策略时批量删除成功。
现在删除 S3 对象可以正确地释放存储空间
在以前的版本中,当删除 CopyObject 且大小大于 4 MB 时,对象无法正确释放该对象使用的所有存储空间。在这个版本中,源和目标句柄被明确传递给各种 RGWRados 调用路径,存储可以按预期释放。
对带有临时凭证的 S3 请求正确强制实施 assume-roles 的配额和速率限制设置
在以前的版本中,当临时凭证用于服务 S3 请求时,使用 assume-role 的用户的信息没有从后端存储成功加载。因此,用户配额或速率限制设置不会用于临时凭证。
在这个版本中,信息从后端存储加载,即使使用临时凭证进行身份验证,且所有设置都成功应用。
预先签名的 URL 现在通过 Keystone EC2 身份验证接受
在以前的版本中,正确构建预签名的 HTTP PUT URL 会失败,并带有 403/Access Denied 错误。这是因为在通过 Keystone EC2 (Swift S3 模拟)进行身份验证时,处理包含 CORS 的 HTTP OPTIONS 请求签名计算更改了一些预签名的 URL。
在这个版本中,为 Keystone EC2 问题单引入了一个 CORS HTTP OPTIONS 的新工作流,预签名 URL 不再意外失败。
现在,radosgw-admin 通知输出的 JSON 已被修正
在以前的版本中,当存储桶通知配置有元数据和标签过滤器时,get/list 输出的 radosgw-admin notification 的输出是不正确的 JSON。因此,任何 JSON 解析器(如 jquery )都会读取输出会失败。
在这个版本中,radosgw-admin 的 JSON 输出已被修正。
集群现在可以使用 QAT 和非 QAT Ceph 对象网关守护进程进行配置
在以前的版本中,QAT 只能在新设置上配置(仅限绿字段)。因此,无法在与非 QAT (常规)Ceph 对象网关守护进程相同的集群中配置 QAT Ceph 对象网关守护进程。
在这个版本中,同一集群中可以配置 QAT 和非 QAT Ceph 对象网关守护进程。
Ceph 对象网关现在使用 checksum 和其他假设流量容许 minio SDK
在以前的版本中,一些版本的 minio 客户端 SDK 将缺少多部分对象的附加部分号。这会导致多部分上传意外错误。
在这个版本中,带有和不带部分数字后缀的校验和都可接受。当校验和没有在上传部分时,修复也允许来自 init-multipart 的校验和类型。
对于带有空实例的非当前对象,生命周期转换不再会失败
在以前的版本中,当启用存储桶版本控制时,旧的普通对象条目会通过在其原始 head/old 对象中将其实例更新为 "null"。因此,对于一个实例为空的非当前对象,生命周期转换会失败。
在这个版本中,代码已被修正,在更新存储桶索引条目时保留实例为空,生命周期转换适用于转换为版本的所有普通条目。
AST 结构 SQL 语句不再导致崩溃
在以前的版本中,在某些情况下,由于不正确的语义与 Parquet 流,SQL 引擎生成的 AST 创建错误,并会出现崩溃。
在这个版本中,为 AST 结构进行更多安全检查,并解决了声明处理时间,并避免崩溃。
bucket 策略授权现在可以按预期工作
在以前的版本中,只有存储桶所有者才能从存储桶设置、获取和删除存储桶通知的配置。即使存储桶策略授权了另一个用户来运行这些操作,也会发生这种情况。
在这个版本中,配置存储桶通知的授权可以正常工作。
bucket 策略评估现在可以按预期工作,并为策略所允许的操作允许跨租户访问
在以前的版本中,由于一个不正确的值存储桶租户,在存储桶策略评估访问期间为 S3 操作定义了,即使它们在存储桶策略中被明确允许。因此,存储桶策略评估失败,以及存储桶策略允许的 S3 操作被拒绝。
在这个版本中,当从后端存储获取存储桶策略时,请求的存储桶租户名称会被正确传递。然后,租户与作为 S3 操作请求的一部分传递的 bucket 租户匹配,S3 操作可以正常工作。
SSL 会话现在可以重复使用连接来上传多个对象
在以前的版本中,在使用 SSL 的连续对象上传过程中,每个对象会发生加密协商。因此,每秒传输率会较低对象的性能。
在这个版本中,SSL 会话重复使用机制会被激活,允许支持客户端重复使用现有的 SSL 连接来上传多个对象。这可避免重新调整每个对象的 SSL 连接的性能损失。
4.5. 多站点 Ceph 对象网关 复制链接链接已复制到粘贴板!
第二个站点上带有 null 版本 ID 的对象
在以前的版本中,第二个站点上不会删除带有 null 版本 ID 的对象。在多站点环境中,删除其中一个站点上带有 null 版本 ID 的对象不会删除第二个站点上的对象。
在这个版本中,第二个站点上带有 null 版本 ID 的对象会被删除。
在二级区中创建存储桶不再失败
在以前的版本中,当二级区使用位置约束转发 create_bucket 请求时,存储桶会将 content_length 设置为非零值。但是,从 second zone 转发时,content_length 不会在主区域中解析。因此,当运行 create_bucket 操作且 content_length 为 0 时,带有现有有效负载哈希时,存储桶无法复制。
在这个版本中,当 CreateBucket 操作转发到主区时,会包括一个请求正文,并且存储桶会如预期创建。
copyObject 请求现在如预期复制
在以前的版本中,copy_object 默认保留源属性。因此,在检查 RGW_ATTR_OBJ_REPLICATION_TRACE 期间,如果 trace 中已存在目标区域,将发出 NOT_MODIFIED 错误。这会导致复制对象失败。
在这个版本中,源对象 RGW_ATTR_OBJ_REPLICATION_TRACE 属性会在 copy_object 和 CopyObject 请求按预期删除。
4.6. RADOS 复制链接链接已复制到粘贴板!
新添加的容量不再标记为已分配
在以前的版本中,新添加的容量会自动标记为已分配。因此,添加磁盘容量不会添加可用空间。
在这个版本中,添加的容量被标记为可用容量,重启 OSD 后,新添加的容量会被识别为添加的空间。
Bugzilla:2296247
BlueStore 现在可以与 OSD 正常工作
在以前的版本中,ceph-bluestore-tool show-label 不适用于挂载的 OSD,ceph-volume lvm zap 命令无法清除 OSD 的身份。在这个版本中,show-label 属性不需要对磁盘进行独占访问。另外,ceph-volume 命令现在使用 ceph-bluestore-tool zap 来清除 OSD 设备。
BlueStore 不再覆盖标签
在以前的版本中,BlueFS 会写入标签保留的位置。因此,OSD 不会如预期启动。
在这个版本中,标签位置被标记为 reserved,且不会覆盖。BlueStore 现在挂载,OSD 会如预期启动。
RocksDB 文件现在仅在需要时占用尽可能多的空间
在以前的版本中,RocksDB 文件是通常预分配的,但永远不会截断。这会导致浪费被分配给永远不会使用的文件的磁盘空间。
在这个版本中,实施了正确的截断,将未使用的分配移回空闲池。
监控在崩溃或关闭测试过程中不再处于选举状态
在以前的版本中,只有进入 stretch_mode 时才会填充 MonitorMap 的 disallowed_leaders 属性。然而,在有些情况下,只有 revived 不会立即进入 stretch_mode,因为它们会处于 probing 状态。这会导致跨集群的监控器之间设置的 disallowed_leaders 不匹配。因此,监控器无法选举领导,选举会卡住,从而导致 Ceph 无响应。
在这个版本中,监控器不必处于 stretch_mode 来填充 disallowed_leaders 属性。监控在崩溃或关闭测试过程中不再处于选举状态。
4.7. RADOS 块设备 (RBD) 复制链接链接已复制到粘贴板!
在处理丢弃 I/O 请求时,librbd 不再崩溃
在以前的版本中,由于一个实施缺陷,librbd 会在处理启用了日志记录功能的镜像中丢弃 I/O 请求时崩溃。临时解决方法是,将 rbd_skip_partial_discard 选项设置为 'false'(默认为 'true')。
在这个版本中,实施缺陷已被修复,librbd 不再崩溃,不再需要临时解决方案。
如果遇到 0 化块设备镜像,RBD du 命令不再崩溃
在以前的版本中,由于一个实施缺陷,如果 rbd du 命令遇到 0 化 RBD 镜像,则它会崩溃。
在这个版本中,实施缺陷已被修复,如果遇到 0 化 RBD 镜像,rbd du 命令不再崩溃。
rbd_diff_iterate2 () API 为带有 LUKS 加密加载的块设备镜像返回正确的结果
在以前的版本中,由于一个实现缺陷,rbd_diff_iterate2 () API 返回带有 LUKS 加密载入的 RBD 镜像不正确的结果。
在这个版本中,rbd_diff_iterate2 () API 返回带有 LUKS 加密载入的 RBD 镜像的正确结果。
Bugzilla:2292562
导入或实时迁移后不再跳过加密的镜像解密
在以前的版本中,由于一个实现缺陷,当从实时迁移或导入的加密镜像读取时,会跳过解密。因此,加密缓冲区(ciphertext)而不是实际存储的数据(plaintext)返回给用户。
在这个版本中,当从正在实时迁移或导入的加密镜像读取时,解密不再被跳过,且实际存储的数据(plaintext)返回给用户,如预期。
Bugzilla:2303528
加密规格现在始终传播到迁移源
在以前的版本中,由于一个实现缺陷,当打开正在实时迁移或导入的加密克隆镜像时,加密规格不会传播到迁移源。因此,正在实时迁移或导入的加密克隆镜像不会被打开。对用户的唯一临时解决方案是通过复制加密规格来传递加密规格两次。
在这个版本中,加密规格总是传播到迁移源。
Bugzilla:2308345
4.8. RBD 镜像功能 复制链接链接已复制到粘贴板!
rbd-mirror 守护进程现在可以正确地处理过时的 PoolReplayer 实例
在以前的版本中,由于一个实现缺陷,rbd-mirror 守护进程没有在刷新镜像对等配置时正确忽略过时的 PoolReplayer 实例。因此,没有不必要的资源消耗和池 Replayer 实例的数量相互竞争,从而导致 rbd-mirror 守护进程健康状况报告为 ERROR,复制在某些情况下会挂起。要恢复复制,管理员必须重启 rbd-mirror 守护进程。
在这个版本中,实施缺陷已被修正,rbd-mirror 守护进程现在可以正确处理过时的 PoolReplayer 实例。
4.9. NFS Ganesha 复制链接链接已复制到粘贴板!
现在,配置重新载入过程使用的所有内存都会被发布
在以前的版本中,重新载入导出不会释放配置重新加载进程使用的所有内存,从而导致内存占用量增加。
在这个版本中,配置重新加载过程消耗的所有内存都会被释放,从而减少内存占用量。
reap_expired_client_list 不再导致死锁
在以前的版本中,在某些情况下,reap_expired_client_list 会创建一个死锁。这是因为两个线程会相互等待来获取锁定。
在这个版本中,锁定顺序已被解决,且不会发生死锁。
文件解析和启动时间会显著减少
在以前的版本中,由于对解析令牌的管理不佳,配置文件解析速度太慢。
在这个版本中,令牌查找被 AVL 树替代,从而减少了解析时间和启动时间。
第 5 章 技术预览 复制链接链接已复制到粘贴板!
本节概述了此 Red Hat Ceph Storage 发行版本中引入或更新的技术预览功能。
技术预览功能不包括在红帽生产服务级别协议(SLA)中,且其功能可能并不完善。因此,红帽不建议在生产环境中使用它们。这些技术预览功能可以使用户提早试用新的功能,并有机会在开发阶段提供反馈意见。
如需红帽技术预览功能支持范围的更多信息,请参阅 https://access.redhat.com/support/offerings/techpreview/。
用户可以将旧数据归档到 AWS 存储桶
在这个版本中,用户可以启用到远程云服务的数据,如 Amazon Web Services (AWS),作为生命周期配置的一部分。如需了解更多详细信息,请参阅过渡到 Amazon S3 云服务。
将 S3 选择的应用程序扩展到 Apache Parquet 格式
在这个版本中,有两个 S3 选择工作流,一个用于 CSV,一个用于 Parquet,为 CSV 和 Parquet 对象提供 S3 选择操作。如需了解更多详细信息,请参阅 Red Hat Ceph Storage Developer Guide 中的 S3 选择操作。
现在支持 bucket 粒度多站点同步策略
红帽现在支持存储桶粒度多站点同步策略。如需了解更多详细信息,请参阅 Red Hat Ceph Storage Object Gateway 指南中的使用多站点同步策略部分。 https://access.redhat.com/documentation/zh-cn/red_hat_ceph_storage/8/html-single/object_gateway_guide/#using-multisite-sync-policies
现在支持服务器端加密
在这个版本中,红帽为管理 Server-Side 加密提供支持。这可让 S3 用户通过带有 Amazon S3 管理的加密密钥(SSE-S3)通过 Server-Side 加密来保护剩余的数据。
用户可以使用 PutBucketEncryption S3 功能来强制实施对象加密
在以前的版本中,为了保护数据,为了保护数据,用户需要为每个请求添加一个标头,所有情况下都无法实现这个标头。
在这个版本中,Ceph 对象网关已被更新,以支持 PutBucketEncryption S3 操作。用户可以在 Ceph 对象网关中使用 PutBucketEncryption S3 功能,而无需为每个请求添加标头。这由 Ceph 对象网关处理。
5.1. Cephadm 实用程序 复制链接链接已复制到粘贴板!
新的 Ceph 管理网关和 OAuth2 代理服务,以统一访问和高可用性
借助此项功能增强,Ceph 控制面板引入了 Ceph 管理网关(mgmt-gateway)和 OAuth2 代理服务(oauth2-proxy)。使用 Ceph 管理网关(mgmt-gateway)和 OAuth2 代理(oauth2-proxy),在配置了单点登录(SSO)时,nginx 会自动通过 oauth2-proxy 将用户定向到配置的身份提供程序(IdP)。
5.2. Ceph 仪表板 复制链接链接已复制到粘贴板!
新的 OAuth2 SSO
OAuth2 SSO 使用 oauth2-proxy 服务与 Ceph 管理网关(mgmt-gateway)一起使用,从而提供统一访问和改进的用户体验。
5.3. Ceph 对象网关 复制链接链接已复制到粘贴板!
对 Ceph 对象网关的新存储桶日志支持
bucket 日志记录提供了记录存储桶的所有访问权限的机制。日志数据可用于监控存储桶活动,检测未经授权的访问,了解存储桶使用情况,并使用日志作为存储桶更改的日志。日志记录存储在单独的存储桶中的对象中,并稍后进行分析。日志记录配置在存储桶级别完成,可以随时启用或禁用。日志存储桶可以从多个存储桶中积累日志。配置 的前缀 可用于区分不同存储桶的日志。
出于性能考虑,即使日志记录被写入持久性存储,日志对象仅在可配置的时间或达到最大对象大小为 128 MB 后出现在日志存储桶中。将日志对象添加到日志存储桶的目的是,如果没有将更多记录写入到对象,它也可能保留在日志存储桶之外,即使在配置的时间过后也是如此。
有两个日志类型: standard 和 journal。默认日志记录类型是 标准。
当设置为 standard 时,日志记录在存储桶操作完成后写入日志存储桶。因此,日志记录操作可能会失败,且不代表客户端。
当设置为 journal 时,记录会在存储桶操作完成前写入日志存储桶。因此,如果日志记录操作失败,且向客户端返回错误,则操作不会运行。
您可以完成以下存储桶日志操作: enable、disable 和 get。
通过 Identity and Access Management (IAM)支持用户帐户
在这个版本中,Ceph 对象网关支持用户帐户作为可选功能,以启用与 AWS Identity and Access Management (IAM)中的用户、组和角色类似的自助服务管理。
使用 cloud-restore 功能恢复转换为远程云端点的对象
在这个版本中,cloud-restore 功能被实现。此功能允许用户将对象恢复到远程云端点,使用 S3 restore-object API 或利用 read-through 选项重新移除。
第 6 章 已知问题 复制链接链接已复制到粘贴板!
本节记录了本版本的 Red Hat Ceph Storage 中已知的问题。
6.1. Cephadm 实用程序 复制链接链接已复制到粘贴板!
在入口规格中使用 haproxy_qat_support 设置会导致 haproxy 守护进程失败部署
目前,会存在 haproxy_qat_support,但在入口规格中无法正常工作。添加了它,以允许 haproxy 在带有 QAT 硬件的机器上卸载加密操作,旨在提高性能。因为不完整的代码更新,添加的功能无法按预期工作。如果使用 haproxy_qat_support 设置,则 haproxy 守护进程将无法部署。
要避免这个问题,请不要在后续发行版本中修复设置前使用此设置。
当 Cephadm 最初部署 Prometheus 时,PROMETHEUS_API_HOST 可能无法设置
目前,当 Cephadm 最初部署 Prometheus 时,PROMETHEUS_API_HOST 可能无法设置。当使用- skip-monitoring-stack 引导集群时,通常会看到此问题,然后在以后部署 Prometheus。因此,一些监控信息可能不可用。
作为临时解决方案,请使用命令 ceph orch redeploy prometheus 设置 PROMETHEUS_API_HOST,因为它重新部署 Prometheus 守护进程。另外,可以使用 ceph dashboard set-prometheus-api-host <value> 命令来手动设置该值。
6.2. Ceph Manager 插件 复制链接链接已复制到粘贴板!
有时 ceph-mgr 模块临时不可用,它们的命令失败
有时,balancer 模块在 ceph-mgr 重启后需要很长时间才能加载。因此,其他 ceph-mgr 模块可能会临时不可用,它们的命令会失败。
例如,
[ceph: root@host01 /]# ceph crash ls Error ENOTSUP: Warning: due to ceph-mgr restart, some PG states may not be up to date Module 'crash' is not enabled/loaded (required by command 'crash ls'): use `ceph mgr module enable crash` to enable it
[ceph: root@host01 /]# ceph crash ls
Error ENOTSUP: Warning: due to ceph-mgr restart, some PG states may not be up to date
Module 'crash' is not enabled/loaded (required by command 'crash ls'): use `ceph mgr module enable crash` to enable it
作为临时解决方案,在 ceph-mgr 重启后,某些 ceph-mgr 模块的命令会失败,使用 ceph balancer status 命令检查负载均衡器的状态。例如,这可能会在升级过程中发生。* 如果负载均衡器之前是活跃的 "active": true,但现在它被标记为 "active": false,检查其状态,直到它再次活跃,然后重新运行其他 ceph-mgr 模块命令。* 在其他情况下,尝试关闭 balancer ceph-mgr 模块。Ceph balancer 关闭 平衡后,重新运行其他 ceph-mgr 模块命令。
6.3. Ceph 仪表板 复制链接链接已复制到粘贴板!
在多站点配置后,Ceph Object Gateway 页面不会加载
Ceph 对象网关页面没有加载,因为控制面板在多站点配置期间找不到新域的正确访问密钥和 secret 密钥。
作为临时解决方案,请使用 ceph dashboard set-rgw-credentials 命令来手动更新密钥。
当通过 subvolume 标签页浏览时,CephFS 路径使用正确的子卷路径更新
在 CephFS 的 Create NFS Export 表单中,CephFS 路径更新子卷组路径,而不是子卷。
目前,还没有临时解决方案。
多站点自动化向导为红帽和 IBM Storage Ceph 产品都包括多集群
在多站点自动化向导中提到了红帽和 IBM Storage Ceph 产品,以引用多集群。只有 IBM Storage Ceph 支持多集群。
Ceph 控制面板中显示已弃用的 iSCSI 功能
目前,虽然 iSCSI 是已弃用的功能,但它显示在 Ceph 控制面板中。
iSCSI 功能的 UI 不可用。
6.4. Ceph 对象网关 复制链接链接已复制到粘贴板!
匿名用户无法下载作为 Swift SLO 上传的对象
匿名用户无法下载作为 Swift SLO 上传的对象。
目前,这个问题还没有临时解决方案。
并非所有明显的读取都可以在本地执行
目前,如果 RADOS 对象最近已经创建并且在某些情况下已修改,则无法立即进行本地读取。即使正确配置并运行,并非所有明显的读取都可以在本地执行。这是因为 RADOS 协议的限制。在测试环境中,许多对象被创建,可轻松创建只读 I/O 示例。
6.5. 多站点 Ceph 对象网关 复制链接链接已复制到粘贴板!
由租户用户创建的存储桶无法正确复制
目前,由租户用户创建的存储桶不会正确复制。
为避免这个问题,存储桶所有者应避免使用租户的用户在 second zone 上创建存储桶,而是仅在 master zone 上创建它们。
当运行 Red Hat Ceph Storage 8.0 的 second zone 从 pre-8.0 元数据 master 区域复制用户元数据时,这些用户的访问密钥被错误地标记为"inactive"。
目前,当运行 Red Hat Ceph Storage 8.0 的二级区从 pre-8.0 元数据 master 区域复制用户元数据时,这些用户的访问密钥会错误地标记为"inactive"。非活动密钥无法用于验证请求,因此这些用户被拒绝访问 second zone。
作为临时解决方案,必须在其他站点前升级当前的主区。
6.6. RADOS 复制链接链接已复制到粘贴板!
放置组不会以 upmap-read 和 read balancer 模式缩减
目前,对于待处理的合并的放置组(PG),pg-upmap-primary 项没有正确删除。例如,当在池中删除 bulk 标志时,或者池中 PG 数量减少的任何情况。因此,PG 缩减进程会卡住,受影响池中的 PG 数量不会按预期减少。
作为临时解决方案,删除受影响池的 OSD map 中的 pg_upmap_primary 条目。要查看条目,请运行 ceph osd dump 命令,然后运行 ceph osd rm-pg-upmap-primary PG_ID 以访问受影响池中的 PG。
在使用临时解决方案后,PG scale-down 进程会如预期恢复。
第 7 章 异步勘误更新 复制链接链接已复制到粘贴板!
本节论述了 z-stream 版本的 bug 修复、已知问题和增强。
7.1. Red Hat Ceph Storage 8.0z1 复制链接链接已复制到粘贴板!
Red Hat Ceph Storage release 8.0z1 现已正式发布。RHSA-2024:10956 和 RHSA-2024:10957 公告中列出了更新中包含的安全更新和程序错误修复。
7.2. Red Hat Ceph Storage 8.0z2 复制链接链接已复制到粘贴板!
Red Hat Ceph Storage release 8.0z2 现已正式发布。此更新包括的程序错误修正信息包括在 RHBA-2025:2457 和 RHBA-2025:2458 公告中。
7.2.1. 功能增强 复制链接链接已复制到粘贴板!
7.2.1.1. Ceph 文件系统 复制链接链接已复制到粘贴板!
quota.max_bytes 现在被设置成更了解的大小值。
在以前的版本中,quota.max_bytes 值是以字节为单位设置的,从而导致难以设置或更改的大小值非常大。
在这个版本中,quota.max_bytes 值可以使用用户友好的值设置,如 K/Ki、M/Mi、G/Gi 或 T/Ti。例如,10GiB 或 100K。
现在,可以使用 ceph fs 命令列出为 Ceph 文件系统镜像配置的目录。
在以前的版本中,要列出为镜像配置的目录,用户必须通过 peer 列表。
在这个版本中,用户可以使用 ceph fs snapshot mirror ls FS_NAME 命令列出为镜像配置的目录。这提供了为镜像配置的目录的直接列表。
7.2.1.2. Ceph 对象网关 复制链接链接已复制到粘贴板!
增加使用命名空间存储桶索引条目的订购存储桶列表的效率。
在以前的版本中,当忽略命名空间的存储桶索引条目时,代码仍然可以访问忽略的条目。因此,忽略的延迟发生在忽略的列表中。
在这个版本中,代码可避免访问忽略的条目,提高了排序存储桶列表的效率。
可以使用 radosgw-admin 命令行在没有密钥的情况下创建用户
在以前的版本中,没有使用 radosgw-admin 命令行的密钥来创建 Ceph 对象网关(RGW)用户。此功能仅适用于 adminops。
在这个版本中,当- generate-key false 标志设置为 radosgw-admin user create,在命令行中提供没有密钥的 RGW 用户的 provision。
7.2.1.3. RADOS 复制链接链接已复制到粘贴板!
admin socket 命令现在可用于默认参数。
在以前的版本中,列出带有 bluestore 分配器碎片图的 allocator histogram = 管理 socket 无法用于带有默认参数的 bluefs-db 和 bluefs-wal。
在这个版本中,admin socket 命令可用于默认参数。
通过 admin socket 命令检查磁盘分配器状态
此增强在分配器分数之间提供了一个中间点,它给出一个数字,并使用 allocator 转储来列出所有空闲的块。
因此,碎片直方图按大小分组自由块,从而给出一些分配器状态。这样可以估算当前碎片的严重性。碎片直方图适用于 block/bluefs-db/bluefs-wal 分配器。额外的参数 disk_alloc 会影响计算有多少可用块与 disk_alloc 边界未对齐。额外的参数 num_buckets 决定直方图的大小,但粒度保持不变。例如:
bluestore allocator fragmentation histogram block 4096 12
bluestore allocator fragmentation histogram block 4096 12
7.2.2. 已知问题 复制链接链接已复制到粘贴板!
7.2.2.1. Ceph 对象网关 复制链接链接已复制到粘贴板!
使用 AWS CLI 执行多部分上传时,Ceph 对象网关会崩溃。
目前,在使用 AWS CLI 进行多部分上传过程中,RGW 会崩溃,因为新的 checksum 算法和报告 AWS S3 和 AWS SDK 中引入的行为,特别是新的 CRC64NVME checksum 算法。
作为临时解决方案,请使用早期版本的 AWS CLI 客户端。
如需更多信息,请参阅 RGWPutObj_Cksum 功能中的多部分上传过程中崩溃的 RGW 服务。
radosgw-admin user stats --reset-stats ERROR: value too large for defined data type。
目前,运行安全用户重置统计的某些环境中 RADOS RETURNVEC (64 字节)的默认大小太小。
作为临时解决方案,将 osd_max_write_op_reply_len 增加到 128 (测试的最大值)。在这个版本中,用户重置统计信息可以成功完成。
7.3. Red Hat Ceph Storage 8.0z3 复制链接链接已复制到粘贴板!
Red Hat Ceph Storage release 8.0z3 现已正式发布。此更新包括的程序错误修正信息包括在 RHSA-2025:3635 和 RHBA-2025:3638 公告中。
7.3.1. 功能增强 复制链接链接已复制到粘贴板!
7.3.1.1. Cephadm 实用程序 复制链接链接已复制到粘贴板!
崩溃服务的核心转储现在可用
在以前的版本中,在崩溃过程中不会生成或截断内核转储,转储很难重现。因此,用户会丢失宝贵的调试信息。
在这个版本中,相关的内核转储和 cephadm 大小会增加,用户可以如预期访问崩溃服务的内核转储。
7.3.1.2. Ceph 对象网关 复制链接链接已复制到粘贴板!
bucket 通知现在发送到多节点 Kafka 集群
在以前的版本中,Ceph 对象网关只能向单一节点 Kafka 集群发送消息。
在这个版本中,存储桶通知可以发送到多节点 Kafka 集群。使用多节点 Kafka 集群支持,现在集群的高可用性(HA)正确使用。如果节点处于 down 状态,则其他 Kafka 节点处于 down 状态,现在可以发送信息。另外,因为 Ceph 对象网关现在连接到每个节点,因此因为主题分区不会复制到所有节点,因此不再发生存储桶通知失败。
7.4. Red Hat Ceph Storage 8.0z4 复制链接链接已复制到粘贴板!
Red Hat Ceph Storage release 8.0z4 现已正式发布。此更新包括的程序错误修正信息包括在 RHBA-2025:8259 和 RHBA-2025:8260 公告中。
7.5. Red Hat Ceph Storage 8.0z5 复制链接链接已复制到粘贴板!
Red Hat Ceph Storage release 8.0z5 现已正式发布。此更新包括的程序错误修正信息包括在 RHBA-2025:8694 和 RHBA-2025:8695 公告中。
第 8 章 源 复制链接链接已复制到粘贴板!
更新的 Red Hat Ceph Storage 源代码软件包位于以下位置:
- 对于 Red Hat Enterprise Linux 9 :https://ftp.redhat.com/redhat/linux/enterprise/9Base/en/RHCEPH/SRPMS/