发行注记


Red Hat Ceph Storage 5.2

Red Hat Ceph Storage 5.2 发行注记

Red Hat Ceph Storage Documentation Team

摘要

本发行注记介绍了为 Red Hat Ceph Storage 5 产品版本实施的主要功能、功能增强、已知问题和程序错误修复。这包括 Red Hat Ceph Storage 5.2 发行版本的前一个发行注记。

使开源包含更多

红帽致力于替换我们的代码、文档和 Web 属性中存在问题的语言。我们从这四个术语开始:master、slave、黑名单和白名单。由于此项工作十分艰巨,这些更改将在即将推出的几个发行版本中逐步实施。有关更多详情,请参阅我们的首席技术官 Chris Wright 提供的消息

提供有关 Red Hat Ceph Storage 文档的反馈

我们感谢您对文档提供反馈信息。请让我们了解如何改进文档。要做到这一点,创建一个 Bugzilla ticket:

+ .进入 Bugzilla 网站。在组件下拉列表中,选择 Documentation。在 Sub-Component 下拉菜单中,选择适当的子组件。选择相应的文档版本。在 SummaryDescription 字段中填写您要改进的建议。包括文档相关部分的链接。可选:添加一个附件(若有)。点 Submit Bug

第 1 章 简介

Red Hat Ceph Storage 是一个可大规模扩展、开放、软件定义的存储平台,它将最稳定版本的 Ceph 存储系统与 Ceph 管理平台、部署实用程序和支持服务相结合。

Red Hat Ceph Storage 文档位于 https://access.redhat.com/documentation/zh-cn/red_hat_ceph_storage/5

第 2 章 致谢

Red Hat Ceph Storage 5 项目见证了 Ceph 社区中个人和组织贡献的质量和贡献数量的增长。我们借此感谢 Red Hat Ceph Storage 团队的所有成员、Ceph 社区中的所有个人贡献者,并且包括但不限于:

  • Intel®
  • Fujitsu ®
  • UnitedStack
  • Yahoo ™
  • Ubuntu Kylin
  • Mellanox ®
  • CERN ™
  • Deutsche Telekom
  • Mirantis ®
  • SanDisk ™
  • SUSE

第 3 章 新功能

本节列出了本 Red Hat Ceph Storage 版本中引入的所有主要更新、增强功能和新功能。

3.1. Cephadm 实用程序

Cephadm-Ansible 模块

Cephadm-Ansible 软件包提供了几个模块,用于将新的集成的 control plane cephadm 打包给那些希望使用 Ansible 管理其整个数据中心的用户。它并不会提供与 Ceph-Ansible 的向后兼容性,但它旨在提供一组受支持的 playbook,供客户用来更新其 Ansible 集成。

如需了解更多详细信息,请参阅 cephadm-ansible 模块

Red Hat Enterprise Linux 9 支持 bootstrap Red Hat Ceph Storage 集群

在这个版本中,Red Hat Enterprise Linux 9 主机上提供了 Cephadm bootstrap,以启用 Red Hat Ceph Storage 5.2 支持 Red Hat Enterprise Linux 9。用户现在可以在 Red Hat Enterprise Linux 9 主机上引导 Ceph 集群。

cephadm rm-cluster 命令清理主机中的旧 systemd 单元文件

在以前的版本中,rm-cluster 命令在不删除 systemd 单元文件的情况下停止守护进程。

在这个版本中,cephadm rm-cluster 命令和清除守护进程会清理旧的 systemd 单元文件并从主机中清除。

如果无法应用规格,则 cephadm 会引发一个健康状况警告

在以前的版本中,应用规格失败只会被报告为一个服务事件,用户通常不会检查这类事件。

在这个版本中,如果应用规格失败(如 iscsi 规格中不正确的池名称),会为用户提供一个 cephadm 健康警告。

Red Hat Ceph Storage 5.2 支持升级

从 Red Hat Ceph Storage 5.2 开始,您可以通过多个较小的步骤有选择性地在 cephadm 中升级大型 Ceph 集群。

ceph orch upgrade start 命令接受以下参数:

  • --daemon-types
  • --hosts
  • --services
  • --limit

这些参数有选择地升级与提供的值相匹配的守护进程。

注意

如果这些参数导致 cephadm 不会按照支持的顺序升级守护进程,则会被拒绝。

注意

如果您活跃的 Ceph Manager 守护进程在 Red Hat Ceph Storage 5.2 构建中,则会接受这些升级参数。从早期版本升级到 Red Hat Ceph Storage 5.2 不支持这些参数。

在具有 OSD 的主机上,fs.aio-max-nr 设置为 1048576

在以前的版本中,在由 Cephadm 管理的主机上将 fs.aio-max-nr 保留为默认值 65536 可能会导致一些 OSD 出现崩溃的问题。

在这个版本中,fs.aio-max-nr 在带有 OSD 的主机上被设置为 1048576。因此,OSD 不会因为 fs.aio-max-nr 参数的值太低出现崩溃。

ceph orch rm <service-name> 命令会告知用户要删除的服务是否存在。

在以前的版本中,删除服务总是会返回一个成功的信息,即使不存在服务,这会导致用户的混淆。

在这个版本中,运行 ceph orch rm SERVICE_NAME 命令可告知用户试图删除的服务是否存在于 cephadm 中。

一个新的用于重新分片的 playbook rocksdb-resharding.yml 现在在 cephadm-ansible 中可用

在以前的版本中,rocksdb 重新分片的过程需要非常繁琐的手动步骤。

在这个版本中,可以使用 cephadm-ansible playbook rocksdb-resharding.yml 启用 rocksdb 重新分片,从而简化了分片的过程。

cephadm 现在支持在没有 LVM 层的情况下部署 OSD

在这个版本中,为了支持对其 OSD 不希望使用一个 LVM 层的用户,为原始 OSD 提供了 cephadmceph-volume 支持。您可以在传递到 Cephadm 的 OSD 规格文件中包括 "method: raw",以在不使用 LVM 层的 Cephadm 的情况下在原始模式中部署 OSD。

在这个版本中,cephadm 支持在 OSD 规范 yaml 文件中使用 method: raw,在没有 LVM 层的情况下以原始模式部署 OSD。

如需了解更多详细信息,请参阅在特定设备和主机上部署 Ceph OSD

3.2. Ceph 仪表板

可以在服务底层守护进程上执行启动、停止、重启和重新部署操作

在以前的版本中,只能创建、编辑和删除编配服务。不会在服务的底层守护进程中进行操作

在这个版本中,可以在编排器服务的底层守护进程上执行启动、停止、重启和重新部署等操作。

Ceph 控制面板的 OSD 页面和登录页面在 OSD 的使用量栏中显示不同的项目

在以前的版本中,当 OSD 达到接近完全或完整状态时,集群健康状态都会更改为 WARN 或 ERROR 状态,但在登录页面中没有与失败相关的信息。

在这个版本中,当 OSD 接近全满比例或全满时,该特定 OSD 的 OSD 页以及首页会在使用量栏中显示不同的颜色。

仪表板显示 onode hit 或 miss 计数器

在这个版本中,仪表板提供了从 Bluestore 统计数据中拉取的详细信息,以显示 onode 击中或未击中的数量,以帮助您降低每个 OSD 的 RAM 能否帮助提高集群性能。

用户可以查看特定守护进程的 CPU 和内存使用情况

在这个版本中,您可以在 Red Hat Ceph Storage Dashboard 的 Cluster > Host> Daemons 中看到特定守护进程的 CPU 和内存用量。

改进了 rbd-mirroring 的 Ceph Dashboard 功能

在这个版本中,Ceph 控制面板中的 RBD 镜像功能会增强,其具备以前仅在命令行界面 (CLI) 中出现的以下功能:

  • 支持在镜像中启用或禁用镜像。
  • 支持提升和演示操作。
  • 支持重新同步镜像。
  • 改进编辑站点名称的可见性并创建 bootstrap 密钥。
  • 如果不存在,则包括自动创建 rbd-mirror 的按钮的空白页面会出现。

用户现在可以在 Red Hat Ceph Storage 仪表板上以简单和高级模式创建 OSD

在这个版本中,为了简化集群的 OSD 部署,使用更简单的部署场景"简单"和"高级"模式(用于 OSD 创建)。

现在,您可以从三个新选项中选择:

  • 成本/容量优化:所有可用的 HDD 均用于部署 OSD。
  • 吞吐量优化:对于 DB/WAL 设备,支持 HDD 和 SSD。
  • IOPS 优化:所有可用的 NVME 用作数据设备。

如需了解更多详细信息,请参阅使用 Ceph 编排器管理 OSD

Ceph Dashboard Login 页面显示可自定义文本

企业用户希望确保任何访问他们的系统均被确认,并承诺遵守法律/安全条款。

在这个版本中,Ceph Dashboard 登录页面上提供了一个占位符,以显示自定义横幅或警告文本。Ceph 控制面板管理员可以通过以下命令设置、编辑、删除横幅:

示例

[ceph: root@host01 /]# ceph dashboard set-login-banner -i filename.yaml
[ceph: root@host01 /]# ceph dashboard get-login-banner
[ceph: root@host01 /]# ceph dashboard unset-login-banner
Copy to Clipboard Toggle word wrap

启用后,仪表板登录页面会显示可定制的文本。

Ceph 仪表板上显示了主版本号和内部 Ceph 版本

在这个版本中,Ceph 仪表板上也会显示内部 Ceph 版本,以帮助用户将 Red Hat Ceph Storage downstream 版本与 Ceph 内部版本关联。例如,Version: 16.2.9-98-gccaadd。点顶部导航栏,点问号菜单(?),然后进入到 About 模态框以识别 Red Hat Ceph Storage 发行号以及对应的 Ceph 版本。

3.3. Ceph 文件系统

在外部模式下配置的 ODF 中的 CephFS 子卷可以使用新功能

如果 ODF 中的 CephFS 配置为外部模式,用户通常会使用诸如卷/子卷元数据来存储一些 Openshift 特定元数据信息,如来自 volumes/subvolumes 的 PVC/PV/命名空间。

在这个版本中,添加了以下能力以从 CephFS 子卷中 set, get, update, list, 和 remove 自定义元数据。

使用以下命令,以键值对的形式在子卷中设置自定义元数据:

语法

ceph fs subvolume metadata set VOLUME_NAME SUBVOLUME_NAME KEY_NAME VALUE [--group-name SUBVOLUME_GROUP_NAME]
Copy to Clipboard Toggle word wrap

使用 metadata 键在子卷上设置自定义元数据:

语法

ceph fs subvolume metadata get VOLUME_NAME SUBVOLUME_NAME KEY_NAME [--group-name SUBVOLUME_GROUP_NAME ]
Copy to Clipboard Toggle word wrap

列出子卷上的自定义元数据、键-值对和数据集:

语法

ceph fs subvolume metadata ls VOLUME_NAME SUBVOLUME_NAME [--group-name SUBVOLUME_GROUP_NAME ]
Copy to Clipboard Toggle word wrap

使用 metadata 键删除子卷上设置的自定义元数据:

语法

ceph fs subvolume metadata rm VOLUME_NAME SUBVOLUME_NAME KEY_NAME [--group-name SUBVOLUME_GROUP_NAME ] [--force]
Copy to Clipboard Toggle word wrap

在使用 clone status 命令时显示克隆失败的原因

在以前的版本中,当克隆失败时,查看日志是检查失败的唯一方法。

在这个发行版本中,克隆失败的原因将显示在 clone status 命令的输出中:

示例

[ceph: root@host01 /]#  ceph fs clone status cephfs clone1
{
  "status": {
    "state": "failed",
    "source": {
      "volume": "cephfs",
      "subvolume": "subvol1",
      "snapshot": "snap1"
      "size": "104857600"
    },
    "failure": {
      "errno": "122",
      "errstr": "Disk quota exceeded"
    }
  }
}
Copy to Clipboard Toggle word wrap

克隆失败的原因分为两个字段:

  • errno : 错误号
  • error_msg : 失败错误字符串

3.4. Ceph Manager 插件

CephFS NFS 导出可以通过 ceph nfs export apply 命令动态更新

在以前的版本中,当更新 CephFS NFS 导出时,NFS-Ganesha 服务器总是重启。这会临时影响 ganesha 服务器提供的所有客户端连接,包括这些未更新的导出。

在这个版本中,可以使用 ceph nfs export apply 命令动态更新 CephFS NFS 导出。每当更新 CephFS NFS 导出时,NFS 服务器不再重启。

3.5. Ceph 卷实用程序

在重新部署 OSD 之前,用户不需要手动擦除设备

在以前的版本中,在重新部署 OSD 之前,用户被强制手动擦除设备。

在这个版本中,当没有卷组或逻辑卷时,设备中的物理卷会被删除,因此在重新部署 OSD 前,sers 不再强制手动擦除设备。

3.6. Ceph 对象网关

Ceph 对象网关现在可以配置为将其 Ops Log 定向到普通的 Unix 文件。

在这个版本中,可以将 Ceph 对象网关配置为将其 Ops 日志定向到普通 Unix 文件,因为与 Unix 域套接字相比,在某些站点中使用基于文件的日志更为简单。日志文件的内容与默认配置中的 Ops 日志套接字发送的内容完全相同。

使用 radosgw lc process 命令处理单个存储桶的生命周期

在这个版本中,用户可以使用 radosgw-admin lc process 命令通过指定其名称 --bucket 或 ID --bucket-id 来仅处理来自命令行界面的单个存储桶的生命周期,如调试等。

用户身份信息被添加到 Ceph 对象网关 Ops Log 输出中

在这个版本中,用户身份信息被添加到 Ops Log 输出中,以便客户访问这些信息以审核 S3 访问。在 Ceph Object Gateway Ops Log 的所有版本中,S3 请求都可以可靠地跟踪用户身份。

Ceph 对象网关的 HTTP 访问日志记录的日志级别可以使用 debug_rgw_access 参数单独控制

在这个版本中,Ceph 对象网关的 HTTP 访问日志记录的日志级别可以通过 debug_rgw_access 参数单独控制,从而让用户能够禁用所有 Ceph 对象网关日志记录,如 debug_rgw=0,除了这些 HTTP 访问日志行除外。

更新存储桶索引时减少了 20 个 Ceph 对象网关日志消息

在这个版本中,当更新存储桶索引时,Ceph Object Gateway 级别 20 日志消息会减少,以删除没有添加值的消息,并减少日志大小。

3.7. 多站点 Ceph 对象网关

current_time 字段添加到多个 FQDN -admin 命令的输出中

在这个版本中,在多个 radosgw-admin 命令中增加了 current_time 字段,特别是 sync status, bucket sync status, metadata sync status, data sync status, 和 bilog status

HTTP 客户端的日志记录

在以前的版本中,Ceph 对象网关不会打印 HTTP 响应正文,也不会有办法与响应匹配。

在这个版本中,通过维护一个与 async HTTP 客户端的 HTTP 响应和错误正文匹配的 HTTP 请求来实施更加全面的 HTTP 客户端日志。将 Ceph 对象网关调试设置为 twenty 时,将打印错误正文和其他详细信息。

OpenStack Keystone 的只读角色现在可用

OpenStack Keystone 服务提供三个角色: adminmemberreader。为扩展 OpenStack 的基于角色的访问控制(RBAC)功能,现在可以为 Keystone 服务中的特定用户分配一个新的只读管理员角色。

RBAC 的支持范围基于 OpenStack 发行版本。

3.8. 软件包

grafana 容器的新版本提供了安全修复并改进功能

在这个版本中,一个新的 grafana 容器版本,使用 grafana v8.3.5 构建,它提供安全修复和增强的功能。

3.9. RADOS

pg_autoscale_mode 设置为 on时,不再报告 MANY_OBJECTS_PER_PG 警告

在以前的版本中,Ceph 健康警告 MANY_OBJECTS_PER_PG 在实例中报告 pg_autoscale_mode 被设为 on,且报告健康警告的不同模式之间没有区别。

在这个版本中,当 pg_autoscale_mode 设置为 on 时,会添加一个检查来省略 MANY_OBJECTS_PER_PG 警告。

OSD 以聚合格式向 Ceph Manager 服务报告较慢的操作详情

在以前的版本中,较慢的请求可能对在日志中生成大量的信息,并导致大量使用 monitor 数据库空间。

在这个版本中,请求会逐渐记录在集群日志中,按操作类型和池信息登录,并基于 OSD 报告在 manager 服务中聚合了运行详情的慢速操作详情。

用户现在可以阻止一个 CIDR 范围列表

在这个版本中,除了个别客户端实例和 IP 外,您还可以阻止 CIDR 范围列出。在某些情况下,您要阻止整个数据中心或机架中的所有客户端,而不是将各个客户端指定为 blocklist。例如,工作负载故障转移到不同的机器集,并希望防止旧工作负载实例继续部分操作。现在,可以使用与现有"blocklist"命令类似的"块列表"范围。

3.10. Ceph Ansible 实用程序

新的 Ansible playbook 现在可用于备份和恢复 Ceph 文件

在以前的版本中,当用户在将操作系统从 Red Hat Enterprise Linux 7 升级到 Red Hat Enterprise Linux 8 时,或者重新置备其机器时,用户需要手动备份和恢复文件,特别是在使用大型集群部署时。

在这个版本中,将 backup-and-restore-ceph-files.yml playbook 添加到备份和恢复 Ceph 文件,如 /etc/ceph/var/lib/ceph,无需用户手动恢复文件。

第 4 章 技术预览

本节概述了此 Red Hat Ceph Storage 发行版本中引入或更新的技术预览功能。

重要

红帽产品服务级别协议(SLA)不支持技术预览功能,且其功能可能并不完善,因此红帽不建议在生产环境中使用它们。这些技术预览功能可以使用户提早试用新的功能,并有机会在开发阶段提供反馈意见。

有关红帽技术预览功能支持范围的更多信息,请参阅技术预览功能支持范围

带有 HA 的 NFS 提高了 NFS 部署的可用性

在这个版本中,NFS 支持 HA 功能,以提高 NFS 部署的可用性。您可以部署由 haproxykeepalived 支持的 NFS。如果放置指定了更多主机,但限制了与 count 属性一起使用的主机数量,则 NFS 守护进程会在 NFS 主机离线时部署到其他主机上。

如需了解更多详细信息 ,请参阅使用 Ceph 编排器管理 NFS Ganesha 网关

4.1. Ceph 对象网关

Ceph 对象网关技术预览支持 S3 透明加密

在这个版本中,Ceph Object Gateway 使用 SSE-S3S3 PutBucketEncryption API 为 S3 透明加密提供技术预览支持。

4.2. RADOS 块设备

名为persistent write log cache(持久性写日志缓存)的 librbd 插件,以缩短延迟

在这个版本中,名为 Persistent Write Log Cache (PWL) 的新 librbd 插件提供了一个持久的、具有容错的回写缓存,目标为 SSD 设备。它大大缩短延迟,同时还提高了低 io_depths 的性能。这个缓存使用日志排序的回写设计,它会在内部维护检查点,以便刷新回集群的写入始终崩溃。即使客户端缓存完全丢失,磁盘镜像仍然一致,但数据也会过时。

第 5 章 过时的功能

本节概述了在 Red Hat Ceph Storage 发行本的所有次版本中弃用的功能。

重要

弃用的功能在 Red Hat Ceph Storage 5 生命周期结束前一直被支持。弃用的功能可能在以后的主要发行本中不被支持,因此不建议在新的部署中使用。有关特定主要发行本中已弃用功能的最新列表,请参考最新版本的发行文档。

对 CephFS 的 NFS 支持现已弃用

对 CephFS 的 NFS 支持现已弃用。OpenStack Manila 中 NFS 的 Red Hat Ceph Storage 支持不会受到影响。弃用的功能只会在当前版本的生命周期内收到程序错误修复,并可能在以后的发行版本中删除。有关此技术的相关文档被识别为 "Limited Availability"。

iSCSI 支持现已弃用

iSCSI 支持现已弃用 NVMEoF 支持。弃用的功能只会在当前版本的生命周期内收到程序错误修复,并可能在以后的发行版本中删除。有关此技术的相关文档被识别为 "Limited Availability"。

第 6 章 程序错误修复

本节论述了在 Red Hat Ceph Storage 发行版本中修复的具有显著用户影响的错误。此外,部分还包括之前版本中发现的固定已知问题的描述。

6.1. Cephadm 实用程序

容器进程数限制设置为 max

在以前的版本中,容器上的进程数量限制 2048 会阻止新的进程超过限制。

在这个版本中,进程数限制被设置为 max,它允许您根据每个目标需要创建多个 luns。但是,这个数字仍然受服务器资源的限制。

(BZ#1976128)

在批量创建 OSD 时,将不再使用不可用设备

在以前的版本中,带有 GPT 标头的设备不会标记为不可用。Cephadm 会尝试在这些设备上创建 OSD,以及其他有效的设备,导致批处理 OSD 创建失败,因为 OSD 无法在采用 GPT 标头的设备上创建。这不会创建 OSD。

在这个版本中,在批处理中创建 OSD 且具有 GPT 标头的设备不再阻止在有效设备中创建 OSD 时,不可用设备不再会被使用。

(BZ#1962511)

如果用户为 --format 参数提供了一个不支持的格式,会收到一个回溯信息

在以前的版本中,编配器会在收到一个不支持的 --format 参数时抛出异常,从而导致通过 --format 带有不支持格式的用户接收回溯信息。

在这个版本中,不支持的格式会被正确处理,为用户提供一个不支持的格式的信息,说明格式不受支持。

(BZ#2006214)

现在,在没有依赖项错误的情况下可以安装 ceph-common 软件包

在以前的版本中,在将 Red Hat Ceph Storage 4 升级到 Red Hat Ceph Storage 5 后,缺少几个软件包会导致依赖关系错误。

在这个版本中,删除了 Red Hat Ceph Storage 4 软件包,且可以在 preflight playbook 执行过程中安装 ceph-common 软件包,且没有任何错误。

(BZ#2008402)

tcmu-runner 守护进程不再报告为 stray 守护进程

在以前的版本中,tcmu-runner 守护进程不会被 cephadm 主动跟踪,因为它们被视为 iSCSI 的一部分。这会导致 tcmu-runner 守护进程被报告为 stray 守护进程,因为 cephadm 没有跟踪它们。

在这个版本中,当 tcmu-runner 守护进程与已知 iSCSI 守护进程匹配时,它不会标记为 stray 守护进程。

(BZ#2018906)

用户可以使用活跃的管理器重新添加主机,而无需显式 IP

在以前的版本中,当 cephadm 尝试从容器中解析当前主机的 IP 地址时,它有机会解析回送地址。如果用户希望重新添加带有活跃 Ceph Manager,则需要一个显式 IP;如果用户未提供,则用户会收到错误消息。

在当前修复中,如果未明确提供,cephadm 会在重新添加主机时重复利用旧 IP,并且名称解析返回回送地址。用户现在可以在没有显式 IP 的情况下使用活跃管理器重新添加主机。

(BZ#2024301)

cephadm 验证守护进程的 fsid 是否在与预期的 fsid匹配时推断配置

在以前的版本中,在 cephadm 中,无法检查守护进程的 fsid 是否存在与预期 fsid 匹配的配置。因此,如果用户有一个 /var/lib/ceph/FSID/DAEMON_NAME 目录,它带有一个 fsid 而不是期望的,则来自该守护进程目录中的配置仍会被推断。

在这个版本中,检查是通过验证 fsid 是否与预期匹配进行的,用户不再会收到“failed to probe daemons or devices" 错误。

(BZ#2024720)

cephadm 支持使用不同名称复制客户端密钥环

在以前的版本中,当复制客户端密钥环 ceph.keyring 时,cephadm 会在目的地强制使用文件名。

在这个版本中,cephadm 支持使用不同名称复制客户端密钥环,从而消除复制时自动重命名的问题。

(BZ#2028628)

用户可使用 -c ceph.conf 选项使用多个公共网络引导集群

在以前的版本中,当 cephadm 作为 -c ceph.conf 选项的一部分提供时,cephadm 不会解析多个公共网络。因此,无法使用多个公共网络引导集群。

在这个版本中,从提供的 ceph.conf 文件中,public network 字段会被正确解析,现在可以用来填充 public_network mon 配置字段,用户可以使用 -c ceph.conf 选项让用户引导集群提供多个公共网络。

(BZ#2035179)

使用数字服务 ID 设置 MDS 服务会抛出错误以提醒用户

在以前的版本中,使用数字服务 ID 设置 MDS 服务会导致 MDS 守护进程崩溃。

在这个版本中,如果尝试创建带有数字服务 ID 的 MDS 服务,则会立即引发错误以警告,并警告用户不使用数字服务 ID。

(BZ#2039669)

ceph orch redeploy mgr 命令重新部署活跃管理器守护进程最后

在以前的版本中,ceph orch redeploy mgr 命令会导致 Ceph Manager 守护进程持续重新部署自己,而不清除调度的重新部署操作,这会导致 Ceph Manager 守护进程无法正常进行。

在这个版本中,重新部署的排序进行了调整,因此活跃的管理器守护进程始终会被重新部署,而命令 ceph orch redeploy mgr 现在只重新部署每个 Ceph Manager。

(BZ#2042602)

现在支持使用带有自定义名称的集群

在以前的版本中,使用带有自定义名称的 Ceph OSD 容器失败,因为 cephadm 不会在 unit.run 文件中传播自定义集群。

在这个版本中,cephadm 更改 LVM 元数据并强制实施默认集群名称"Ceph",因此使用带有自定义集群名称的集群可以正常工作。

(BZ#2058038)

cephadm 不再将 docker.io 添加到为 ceph orch upgrade start 命令提供的镜像名称中

在以前的版本中,cephadmdocker.io 添加到来自非限定 registry 的任何镜像,因此无法从非限定 registry(如本地 registry)传递镜像,因为无法拉取此镜像。

从 Red Hat Ceph Storage 5.2 开始,docker.io 不再添加到镜像名称中,除非名称对于上游 Ceph 镜像(如 ceph/ceph:v17 )匹配。在运行 ceph orch upgrade 命令时,用户可以从本地 registry 传递镜像,Cephadm 可以升级到该镜像。

注意

从 5.2 开始,这仅适用于升级。从 5.1 升级到 5.2 仍会受到此问题的影响。

(BZ#2077843)

旧版守护进程中的 Cephadm 不再有意外的配置文件

在以前的版本中,Cephadm 会推断来自旧守护进程的配置文件,无论守护进程仍然存在,具体取决于存在 /var/lib/ceph/{mon|osd|mgr} 目录。这会导致某些任务(如刷新磁盘)在存在这些目录的节点中失败,因为 Cephadm 会在尝试忽略不存在的配置文件时抛出错误。

在这个版本中,Cephadm 不再从旧守护进程中推断配置文件,而是在推断前检查现有配置文件。由于旧守护进程 目录存在,Cephadm 不会在刷新主机上的守护进程或设备时遇到问题。

(BZ#2080242)

.rgw.root 池不再自动创建

在以前的版本中,为多站点存在 Ceph 对象网关的额外检查,即使用户删除了它,也会导致 .rgw.root 池自动创建。

从 Red Hat Ceph Storage 5.2 开始,删除了多站点检查,且 .rgw.root 池不再会被自动创建,除非用户执行 Ceph 对象网关 - 创建相关的操作。

(BZ#2083885)

Ceph Manager 守护进程从 cephadm的放置规格中不再指定的主机中删除

在以前的版本中,即使当前活跃的管理器守护进程不再与管理器服务规格中指定的放置匹配,也不会从 cephadm 中删除。当用户更改服务规格时,服务规格都无法排除当前活跃管理器的主机,它们最终会遇到额外的管理器,直到它们导致故障转移。

在这个版本中,如果有一个待机可用且活动管理器位于不再与服务规格匹配的主机上,cephadm 会失败。Ceph Manager 守护进程已从 cephadm 中的放置规格中不再指定的主机中删除,即使管理器是活跃的。

(BZ#2086438)

因为一个不正确的 URL 造成一个 404 错误,从而导致 tracebacks 信息被记录在日志中。

在以前的版本中,cephadm 会错误地组成 prometheus 接收器的 URL,从而导致在日志中出现一个 traceback,因为尝试访问不正确的 URL 时会出现 404 错误。

在这个版本中,URL 格式化已被修复,并避免了 404 错误。追溯不再被记录。

(BZ#2087736)

cephadm 不再删除主机级别的 osd_memory_target 配置设置

在以前的版本中,如果将 osd_memory_target_autotune 全局关闭,cephadm 将删除用户在主机级别为 osd_memory_target 设置的值。此外,对于具有 FQDN 名称的主机,虽然 CRUSH 映射使用短名称,但 cephadm 仍然会使用 FQDN 设置配置选项。因此,用户无法在主机级别手动设置 osd_memory_targetosd_memory_target 自动性能优化无法使用 FQDN 主机。

在这个版本中,如果 osd_memory_target_autotune 设置为 falseosd_memory_target 配置设置在主机一级不再会被从 cephadm 中删除。在设置主机级别 osd_memory_target 时,它也始终为主机指定一个短名称。如果在主机级别 osd_memory_target_autotune 被设置为 false,用户可以手动设置 osd_memory_target,并可以选择不从 cephadm 中删除。另外,自动调整应该使用 FQDN 名称添加到 cephadm 中的主机。

(BZ#2092089)

Cephadm 使用 FQDN 构建 alertmanager Webhook URL

在以前的版本中,Cephadm 根据它为主机存储的 IP 地址选择 alertmanager Webhook URL。这会导致问题,因为这些 Webhook URL 无法用于某些部署。

在这个版本中,Cephadm 使用 FQDN 来构建 alertmanager webhook URL,启用 Webhook URL 以用于以前破坏的一些部署情况。

(BZ#2099348)

6.2. Ceph 仪表板

Ceph 仪表板上的 drain 操作可确保安全地删除主机

在以前的版本中,每当用户在不移动所有守护进程的情况下删除 Ceph 仪表板中的主机时,主机都会转换为不可用状态或 ghost 状态。

在这个版本中,用户可以使用仪表板上的 drain 操作将所有守护进程从主机移出。在成功完成 drain 操作后,可以安全地删除主机。

(BZ#1889976)

性能详情图显示了 Ceph 控制面板中所需的数据

在以前的版本中,由于相关指标已过时,守护进程的性能详情图不会在执行 put/get 操作时显示任何数据。

在这个版本中,相关的指标为最新指标,性能详情图会显示所需的数据。

(BZ#2054967)

Alertmanager 显示正确的 MTU 不匹配 警报

在以前的版本中,Alertmanager 显示处于 down 状态的卡的假 MTU 不匹配 警报。

在这个版本中,Alertmanager 显示正确的 MTU 不匹配 警报。

(BZ#2057307)

PG 状态图不再显示未知放置组状态

在以前的版本中,snaptrim_wait PG 状态被错误地解析并分成 2 个状态(snaptrimwait, which are not valid PG states.),它们不是有效的 PG 状态。这会导致 PG 状态图错误地显示一些处于未知状态的 PG,即使它们都处于已知状态。

在这个版本中,snaptrim_wait 和所有包含下划线的状态都会被正确解析,未知的 PG 状态不再显示在 PG 状态图表中。

(BZ#2077827)

Ceph 控制面板改进了用户界面

在以前的版本中,在 Ceph Dashboard 用户界面中发现以下问题,在使用多路径存储集群测试时会导致它不可用:

  • 在带有多路径存储设备的情况下,如果在 Physical Disks 页面中选择了磁盘,则会选择多个磁盘,表的选择计数会递增,直到表在一分钟内停止响应。
  • Device Health 页面显示获取 SMART 数据时出现的错误。
  • Hosts 页面中的 Services 列显示很多条目,从而减少了可读性。

在这个版本中,会实现以下修复,从而改进了用户界面:

  • 修复了物理磁盘页面中的磁盘选择问题。
  • 添加用于获取 scsi 设备 SMART 数据的选项。
  • Services 列被重命名为 Service Instances,只有这个服务的实例名称和实例数才会在徽标中显示。

(BZ#2097487)

6.3. Ceph 文件系统

获取任何目录的 ceph.dir.layout 返回最接近的继承布局

在以前的版本中,目录路径不会遍历 root 来查找最接近的继承布局,从而导致系统为没有特别设置布局的目录返回 “No such attribute”消息。

在这个版本中,目录路径会遍历 root 来查找最先继承的布局,并从目录层次结构中获取任何目录的 ceph.dir.layout

(BZ#1623330)

subvolumegroup ls API 会过滤内部垃圾目录 _deleting

在以前的版本中,subvolumegroup ls API 不会过滤内部垃圾目录 _deleting,从而导致它被列为 subvolumegroup

在这个版本中,subvolumegroup ls API 会过滤内部回收目录 _deletingsubvolumegroup ls API 不显示内部回收目录 _deleting

(BZ#2029307)

竞争条件不再造成集群中的 MDS 混淆

在以前的版本中,在 messenger 设置过程中有一个 MDS 中的竞争条件,这会导致与集群中的其他 MDS 混淆,从而导致其他 MDS 拒绝通信。

在这个版本中,争用条件会被重新处理,在 MDS 之间建立成功通信。

(BZ#2030540)

MDS 现在可以触发对在线清理进行重新集成

在以前的版本中,stray reintegrations 仅在客户端请求中触发,从而导致清除内节点需要客户端昂贵的递归目录列表。

在这个版本中,MDS 可以触发与在线清理功能集成。

(BZ#2041563)

如果目标目录已满,MDS 会重新整合 stray

在以前的版本中,如果链接的目标目录完整导致 stray 目录被填满,MDS 不会重新集成它们。

在这个版本中,即使目标目录已满,也不会发生改变,MDS 也会继续集成。

(BZ#2041571)

在复制数据后,克隆强制配额

在以前的版本中,在从源快照复制数据前,克隆的配额会被设置,在从源复制整个数据前强制实施配额。如果源的配额超过配额,这会导致子卷快照克隆失败。由于配额在字节范围内不严格强制执行,因此有可能实现。

在这个版本中,在复制数据后,在克隆上强制配额。快照克隆总是成功与配额无关。

(BZ#2043602)

灾难恢复自动化和计划在 ceph-mgr 重启后恢复

在以前的版本中,调度不会在 ceph-mgr 启动期间启动,这会影响到快照调度会在 ceph-mgr 重新启动时间进行恢复的用户。

在这个版本中,调度会在 ceph-mgr 重启中启动,灾难恢复自动化和计划,如快照复制,在 ceph-mgr 重启后立即恢复,而无需手动干预。

(BZ#2055173)

mdlog 在打开文件以读取时立即清除

在以前的版本中,当打开文件读取时,MDS 会从其他客户端撤销 Fw 功能,当 Fw 功能被释放时,MDS 无法立即清除 mdlog,并阻止 Fr 功能。这会导致请求文件的进程大约为 5 秒,直到 mdlog 每 5 秒定期清除 MDS。

在这个版本中,当释放 Fw 功能时,立即触发 mdlog flush,您可以快速打开文件以读取。

(BZ#2076850)

不再允许删除特定克隆状态的子卷克隆

在以前的版本中,如果在克隆没有处于 COMPLETEDCANCELLED 状态时,如果删除子卷克隆,则不会从索引跟踪持续克隆时删除克隆。这会导致对应的克隆器线程无限期重试克隆,从而导致 ENOENT 失败。当默认克隆线程数设置为四时,尝试删除四个克隆会导致所有四个线程进入阻塞状态,允许不完成任何待处理的克隆。

在这个版本中,除非克隆处于 COMPLETEDCANCELLED 状态,否则不会被删除。克隆器线程不再阻止,因为克隆被删除,以及从索引中跟踪持续克隆的条目。因此,待处理的克隆会如预期继续完成。

(BZ#2081596)

新客户端与旧的 Ceph 集群兼容

在以前的版本中,新客户端与旧的 Ceph 集群不兼容,从而导致旧集群触发 abort() 在收到未知指标时崩溃 MDS 守护进程。

在这个版本中,确保检查客户端中的功能位并仅收集并仅发送 MDS 支持的指标。新客户端与旧的 ceph 兼容。

(BZ#2081929)

Ceph 目录服务器在并发查找和非链接操作过程中不再崩溃

在以前的版本中,在代码中存在错误假设,它会被按并发查找和从 Ceph 客户端的未链接操作,从而导致 Ceph 元数据服务器崩溃。

最新的修复程序将断言移到相关的位置,即在并发查找和未连接操作期间进行。因此,Ceph 元数据服务器可以在不崩溃的情况下提供 Ceph 客户端操作。

(BZ#2093065)

在获取未链接的目录时,MDS 不再崩溃

在以前的版本中,当获取未链接的目录时,项目的版本会被错误地初始化,从而导致在执行完整性检查时 MDS 崩溃。

在这个版本中,在获取未链接的目录时,项目的版本和内节点版本会被初始化,允许 MDS 在不崩溃的情况下执行完整性检查。

(BZ#2108656)

6.4. Ceph Manager 插件

缺少的指针添加到 PriorityCache perf 计数器构建器,perf 输出返回 prioritycache 键名称

在以前的版本中,PriorityCache perf 计数器构建器缺少了必要的指针,从而导致 perf 计数器输出, ceph tell DAEMON_TYPE.DAEMON_ID perf dumpceph tell DAEMON_TYPE.DAEMON_ID perf schema,以返回空字符串而不是 prioritycache 密钥。缺少的键会导致 collectd-ceph 插件失败。

在这个版本中,缺少的指针添加到 PriorityCache perf 计数器构建器中。perf 输出返回 prioritycache 键名称。

(BZ#2064627)

带有原生 CephFS 和外部 Red Hat Ceph Storage 5 的 OpenStack 16.x Manila 漏洞

在以前的版本中,运行 OpenStack 16.x(带有 Manila)和外部 Red Hat Ceph Storage 4 的客户,升级到 Red Hat Ceph Storage 5.0、5.0.x、5.1 或 5.1.x 可能会受到漏洞的影响。此漏洞允许 OpenStack Manila 用户/租户(Ceph 文件系统共享的所有者)安全地获取由 CephFS 支持的任何 Manila 共享,甚至整个 CephFS 文件系统。此漏洞是因为 Ceph Manager 中的 "volumes" 插件中的一个错误造成的。此插件负责管理 Ceph 文件系统子卷,供 OpenStack Manila 服务用作向 Manila 用户提供共享的一种方式。

在这个版本中,此漏洞已被修复。运行 OpenStack 16.x(通过 Manila 提供原生 CephFS 访问功能的用户),升级到外部 Red Hat Ceph Storage 5.0、5.0.x、5.1 或 5.1.x 应该升级到 Red Hat Ceph Storage 5.2。仅通过 NFS 提供访问权限的客户不会受到影响。

(BZ#2056108)

6.5. Ceph 卷实用程序

缺少的后端端口被添加,可以激活 OSD

在以前的版本中,因为缺少后向移植导致 OSD 无法激活。

在这个版本中,添加了缺少的后向移植,并且可以激活 OSD。

(BZ#2093022)

6.6. Ceph 对象网关

版本化存储桶的生命周期策略在 reshards 之间会失败

在以前的版本中,因为内部逻辑错误,存储桶上的生命周期处理在存储桶重新划分期间会禁用,从而导致不处理受影响的存储桶的生命周期策略。

在这个版本中,这个程序错误已被重新处理,版本存储桶的生命周期策略不会在重新划分之间失败。

(BZ#1962575)

已删除对象不再列在存储桶索引中

在以前的版本中,如果删除对象操作未正常完成,则对象将在存储桶索引中列出,从而导致应该已被删除的对象仍然被列出。

在这个版本中,用于完成未完成事务的内部的"dir_suggest"已被修复,删除的对象将不再被列出。

(BZ#1996667)

Ceph 对象网关的 zone group 作为 awsRegion 值发送

在以前的版本中,AWS Region 的值没有在事件记录中使用 zonegroup 填充。

在这个版本中,Ceph Object Gateway 的 zone group 将作为 awsRegion 值发送。

(BZ#2004171)

当提供了空主题列表时,Ceph 对象网关会删除所有通知主题

在以前的版本中,在 Ceph 对象网关中,通知主题会按照名称准确删除,但不会遵循 AWS 行为在给定空主题名称时删除所有主题,从而导致几个客户存储桶通知工作流无法使用 Ceph 对象网关。

在这个版本中,改变了明确处理空主题列表的方法,Ceph 对象网关会在提供空主题列表时删除所有通知主题。

(BZ#2017389)

在对无索引存储桶进行存储桶列表、存储桶统计以及类似的操作中不再会出现崩溃的问题。

在以前的版本中,一些操作(包括常规存储桶列表)会错误地尝试从索引存储桶访问索引信息导致崩溃。

在这个版本中,添加了对无索引存储桶的新检查,因此不会出现存储桶列表、存储桶统计和类似操作的崩溃问题。

(BZ#2043366)

内部表索引无法成为负数

在以前的版本中,在持续运行一段时间后,内部表中的一个索引可以成为负状态,这会导致 Ceph 对象网关崩溃。

在这个版本中,索引无法成为负数,Ceph 对象网关不再崩溃。

(BZ#2079089)

在启用了 FIPS 的环境中,明确允许使用 MD5,并且可以完成 S3 多部件操作

在以前的版本中,在启用了 FIPS 的环境中,默认不允许使用 MD5 摘要,除非明确排除非加密目的。因此,在 S3 完成多部分上传操作过程中发生了 segfault。

在这个版本中,为 S3 完整多部分 PUT 操作在启用了 FIPS 环境中使用 MD5 进行非加密目的,可以显式允许 S3 多部分操作。

(BZ#2088602)

radosgw-admin 命令的结果代码 2002 被明确转换为 2

在以前的版本中,S3 的内部 NoSuchBucket 错误转换中的变化错误地改变了来自 radosgw-admin bucket stats 的错误代码,从而导致程序检查这些 radosgw-admin 命令的 shell 结果代码会看到不同的结果代码。

在这个版本中,结果代码 2002 被明确转换为 2,用户可以看到原始行为。

(BZ#2100967)

在启用了 FIPS 的环境中,明确允许使用 MD5,并且可以完成 S3 多部件操作

在以前的版本中,在启用了 FIPS 的环境中,默认不允许使用 MD5 摘要,除非明确排除非加密目的。因此,在 S3 完成多部分上传操作过程中发生了 segfault。

在这个版本中,为 S3 完整多部分 PUT 操作在启用了 FIPS 环境中使用 MD5 进行非加密目的,可以显式允许 S3 多部分操作。

6.7. 多站点 Ceph 对象网关

RADOSGW-admin bi purge 命令适用于已删除的存储桶

在以前的版本中,radosgw-admin bi purge 命令需要一个存储桶入口点对象,如果该对象对于删除的存储桶不存时,会导致 bi purge 在删除存储桶后无法清理清除。

在这个版本中,bi purge 接受 --bucket-id,以避免对 bucket 入口点的需求,命令可用于已删除的存储桶。

(BZ#1910503)

空指针检查不再会导致多站点数据同步崩溃

在以前的版本中,空指针访问会导致多站点数据同步。

在这个版本中,空指针检查已被成功实现,防止出现任何可能的崩溃。

(BZ#1967901)

当遇到错误时,元数据同步不再卡住

在以前的版本中,元数据同步中的一些错误不会重试,从而导致在 Ceph Object Gateway 多站点配置中发生某种错误时同步无法卡住。

在这个版本中,重试过程被修正,在遇到错误时元数据同步不会卡住。

(BZ#2068039)

rgw_data_notify_interval_msec=0 参数添加特殊处理

在以前的版本中,rgw_data_notify_interval_msec 没有针对 0 进行特殊处理,从而导致主站点填充带有通知的二级站点。

在这个版本中,添加了 rgw_data_notify_interval_msec=0 的特殊处理,现在可以禁用 async 数据通知。

(BZ#2102365)

6.8. RADOS

如果在集群升级后没有设置 require-osd-release 标志,Ceph 集群会发出警告。

在以前的版本中,在代码重构过程中意外删除升级后,检测 require-osd-release 标记的代码逻辑。由于升级后 ceph -s 输出中没有引发警告,在对集群进行改变时没有将标志设置为适当的版本会导致出现问题,如放置组 (PG) 一直处于某些状态,消耗大量 Ceph 进程内存,请求变慢等问题。

在这个版本中,如果在集群升级后没有设置 require-osd-release 标志,Ceph 集群会发出警告。

(BZ#1988773)

PG 不再错误地处于 remapped+peering 状态。

在以前的版本中,由于一个逻辑错误,当以扩展模式运行集群时,一些放置组 (PG) 可能会在某些集群条件下永久卡在 remapped+peering 状态,从而导致数据不可用,直到 OSD 被离线为止。

在这个版本中,PG 选择稳定的 OSD 集,它们不会再卡在 remapped+peering 状态。

(BZ#2042417)

OSD 部署工具会在对集群进行更改时成功部署所有 OSD

KVMonitor paxos 服务管理在执行集群更改时添加、删除或修改的密钥。在以前的版本中,当使用 OSD 部署工具添加新 OSD 时,添加密钥而无需验证服务是否可以写入它。因此,paxos 代码中会出现断言失败,从而导致监控器崩溃。

最新的修复程序可确保 KVMonitor 服务可以在添加新 OSD 之前写入,否则,重新将命令推送回相关队列,以便稍后重试。OSD 部署工具可在没有任何问题的情况下成功部署所有 OSD。

(BZ#2086419)

可以通过脱机和在线修剪删除 PG 日志条目损坏

在以前的版本中,在低级 PG 分割操作期间,PG 日志 dups 条目的修剪会无法被 PG 自动扩展器使用,超过人为 operator 的频率。使 dups 修剪导致 PG 日志的内存增长造成大量内存增长,因为 OSD 内存不足时会导致 OSD 崩溃。重启 OSD 不会解决此问题,因为 PG 日志存储在磁盘上,并在启动时重新加载到 RAM。

在这个版本中,离线(使用 ceph-objectstore-tool 命令)和在线(带有 OSD)进行修剪可能会移除 PG Log 的损坏的 dups 条目,该条目会阻塞修建机制并导致内存增长。实施了调试功能,它将 dups 条目的数量输出到 OSD 的日志,以帮助调查未来。

(BZ#2093031)

6.9. RBD 镜像功能

为所有镜像正确更新 last_copied_object_number

在以前的版本中,因为一个实现缺陷,last_copied_object_number 值只针对完全分配的镜像被正确更新。这会导致 last_copied_object_number 值对于任何稀疏镜像不正确,在突然 rbd-mirror 守护进程重启时会丢失镜像复制进度。

在这个版本中,为所有镜像和 rbd-mirror 守护进程重启正确更新 last_copied_object_number 值,镜像会从之前停止的位置恢复复制。

(BZ#2019909)

当镜像被提升为主时,现有调度会生效

在以前的版本中,由于 ill-sidered 优化,现有调度不会在镜像提升后生效,从而导致基于快照的镜像过程没有为最近提升的镜像启动。

在这个版本中,优化会导致这个问题被删除,当镜像被提升为主,基于快照的镜像过程会如预期时,现有调度会生效。

(BZ#2020618)

基于快照的镜像过程不再被取消

在以前的版本中,因为内部竞争条件,rbd mirror snapshot schedule add 命令将被取消。如果没有可用于其他现有计划,则基于快照的镜像流程不会启动受影响的镜像。

在这个版本中,竞争条件已被修复,基于快照的镜像过程会如预期启动。

(BZ#2069720)

如果远程镜像不是主镜像,则不再尝试 replay 或 resync

在以前的版本中,由于一个实施缺陷,即使远程镜像不是主镜像,也会尝试重播或重新同步。这会导致基于快照的镜像运行到 livelock,并持续报告 "failed to unlink local peer from remote image" 错误。

在这个版本中,当远程镜像不是主时,实施缺陷已被修复,不会尝试重播或重新同步,则不会报告任何错误。

(BZ#2081715)

在二级集群上的 rbd-mirror 守护进程使用的镜像快照不会被删除

在以前的版本中,因为内部竞争条件,从属集群中 rbd-mirror 守护进程所使用的镜像快照将被删除,从而导致受影响镜像停止基于快照的镜像过程,报告了 "sit-brain" 错误。

在这个版本中,镜像快照队列会长度扩展,镜像快照清理过程会相应修改。辅助集群上的 rbd-mirror 守护进程使用的镜像快照不再被删除,基于快照的镜像进程不会停止。

(BZ#2092838)

如果所有者在 schedule_request_lock()期间被锁定,逻辑不再会导致 RBD 镜像崩溃

在以前的版本中,在 schedule_request_lock() 中,对于已锁定的所有者,块设备镜像将崩溃,镜像同步将停止。

在这个版本中,如果所有者已被锁定,则 schedule_request_lock() 会正常中止,且块设备镜像不会崩溃。

(BZ#2102227)

镜像复制不再停止并出现 incomplete local non-primary snapshot 错误

在以前的版本中,由于一个实施缺陷,在突然的 rbd-mirror 守护进程重启时,镜像复制会停止,并显示 incomplete local non-primary snapshot 错误。

在这个版本中,镜像复制不再会停止并出现 incomplete local non-primary snapshot 错误。这个过程可以正常工作。

(BZ#2105454)

6.10. Ceph Ansible 实用程序

在迁移到 cephadm 时,为 autotune_memory_target_ratio 设置了正确的值

在以前的版本中,当迁移到 cephadm 时,根据部署、HCI 或非HCI,不会为 autotune_memory_target_ratio 设置正确的值。因此,没有设置比率,两个部署之间没有区别。

在这个版本中,cephadm-adopt playbook 根据部署的类型设置正确的比例,并为 autotune_memory_target_ratio 参数设置正确的值。

(BZ#2028693)

第 7 章 已知问题

本节记录了本版本的 Red Hat Ceph Storage 中已知的问题。

7.1. Cephadm 实用程序

崩溃守护进程可能无法向存储集群发送崩溃报告

由于崩溃守护进程配置存在问题,可能无法从 crash 守护进程向集群发送崩溃报告。

(BZ#2062989)

在升级到 Red Hat Ceph Storage 5.2 时,用户会发出警告

在以前的版本中,在 Red Hat Ceph Storage 5 中进行的重新分片存储桶可能无法被 Red Hat Ceph Storage 5.2 Ceph 对象网关守护进程识别。因此,添加了一个升级警告或阻塞程序,以确保所有升级到 Red Hat Ceph Storage 5.2 的用户都了解这个问题,如果用户之前已使用 Red Hat Ceph Storage 5.1,则可以降级它们。

作为临时解决方案,用户无法使用对象存储或从 5.1 以外的版本升级 mgr/cephadm/no_five_one_rgw --force 以删除 warning/blocker 并将所有操作返回到正常操作。通过设置此配置选项,用户已确认他们在升级到 Red Hat Ceph Storage 5.2 之前已了解 Ceph 对象网关问题。

(BZ#2104780)

NFS 守护进程所基于的虚拟 IP 上的 HA 支持的 I/O 操作不会在故障切换 HAProxy 配置中维护,不会通过 NFS 守护进程更新

当通过 NFS 守护进程从离线到在线主机失败时,HAProxy 配置不会更新。因此,支持 HA 的 I/O 操作会被定向到 NFS 守护进程所在的虚拟 IP,且不会在故障转移中维护。

(BZ#2106849)

7.2. Ceph 仪表板

从 Ceph 控制面板创建使用 SSL 的入口服务无法正常工作

从 Ceph 控制面板使用 SSL 创建 ingress 服务不工作,因为表单会要求用户填充 Private key 字段,而这不是必需的字段。

为解决这个问题,可以使用 Ceph 编配器 CLI 成功创建入口服务。

(BZ#2080276)

对于包含 SSD 和 NVMe 设备的集群,建议使用 " throughput-optimized" 选项

在以前的版本中,每当集群只有一个 SSD 设备或 SSD 设备和 NVMe 设备时,建议使用 " throughputput-optimized" 选项,即使它不应该是,且不会对用户或集群造成影响。

作为临时解决方案,用户可以根据所需规格和"Simple"模式中的所有选项仍可使用这个 UI 问题来使用"高级"模式来部署 OSD。

(BZ#2101680)

7.3. Ceph 文件系统

getpath 命令会导致自动化失败

假设 getpath 命令返回的目录名是快照要在其中创建的目录下,创建快照会导致自动化失败和混乱。

作为临时解决方案,建议使用较高级别的目录路径添加到 snap-schedule add 命令中。快照比 getpath 命令返回的级别高一个级别。

(BZ#2053706)

7.4. Ceph 对象网关

不支持使用 Ceph 对象网关配置的 Red Hat Ceph Storage 5.1 升级到 Red Hat Ceph Storage 5.2

由于一个已知问题 BZ#2100602,不支持从任何 Ceph 对象网关(RGW)集群(单站点或多站点)上的 Red Hat Ceph Storage 5.1 升级到 Red Hat Ceph Storage 5.2。

如需更多信息,请参阅 RGW 的升级支持限制

警告

请勿将 Red Hat Ceph Storage 5.1 和 Ceph 对象网关(单站点或多站点)上运行的 Red Hat Ceph Storage 集群升级到 Red Hat Ceph Storage 5.2 版本。

第 8 章 源

更新的 Red Hat Ceph Storage 源代码软件包位于以下位置:

法律通告

Copyright © 2023 Red Hat, Inc.
The text of and illustrations in this document are licensed by Red Hat under a Creative Commons Attribution–Share Alike 3.0 Unported license ("CC-BY-SA"). An explanation of CC-BY-SA is available at http://creativecommons.org/licenses/by-sa/3.0/. In accordance with CC-BY-SA, if you distribute this document or an adaptation of it, you must provide the URL for the original version.
Red Hat, as the licensor of this document, waives the right to enforce, and agrees not to assert, Section 4d of CC-BY-SA to the fullest extent permitted by applicable law.
Red Hat, Red Hat Enterprise Linux, the Shadowman logo, the Red Hat logo, JBoss, OpenShift, Fedora, the Infinity logo, and RHCE are trademarks of Red Hat, Inc., registered in the United States and other countries.
Linux® is the registered trademark of Linus Torvalds in the United States and other countries.
Java® is a registered trademark of Oracle and/or its affiliates.
XFS® is a trademark of Silicon Graphics International Corp. or its subsidiaries in the United States and/or other countries.
MySQL® is a registered trademark of MySQL AB in the United States, the European Union and other countries.
Node.js® is an official trademark of Joyent. Red Hat is not formally related to or endorsed by the official Joyent Node.js open source or commercial project.
The OpenStack® Word Mark and OpenStack logo are either registered trademarks/service marks or trademarks/service marks of the OpenStack Foundation, in the United States and other countries and are used with the OpenStack Foundation's permission. We are not affiliated with, endorsed or sponsored by the OpenStack Foundation, or the OpenStack community.
All other trademarks are the property of their respective owners.
返回顶部
Red Hat logoGithubredditYoutubeTwitter

学习

尝试、购买和销售

社区

关于红帽文档

通过我们的产品和服务,以及可以信赖的内容,帮助红帽用户创新并实现他们的目标。 了解我们当前的更新.

让开源更具包容性

红帽致力于替换我们的代码、文档和 Web 属性中存在问题的语言。欲了解更多详情,请参阅红帽博客.

關於紅帽

我们提供强化的解决方案,使企业能够更轻松地跨平台和环境(从核心数据中心到网络边缘)工作。

Theme

© 2025 Red Hat