第 7 章 已知问题


本节介绍了 Red Hat OpenShift Container Storage 4.7 中已知的问题。

如果 RHCS 集群中的活跃 mgr 发生变化,则 RGW 指标不再可用

当一个活跃的 MGR 陷入外部集群模式时,OpenShift Container Platform(OCP)会停止从 Red Hat Ceph Storage(RHCS)集群收集任何进一步的指标,即使 MGR 重新连接。这意味着,当与当前活动的 MGR 的连接丢失后,RADOS 对象网关(RGW)指标将不再收集。

对于 Red Hat OpenShift Container Storage 4.7,临时解决方案如下:

当外部 RHCS 备份活跃的 MGR 后,再次运行 python 脚本 ceph-external-cluster-details-exporter.py,并收集 JSON 输出文件。在 OCP 一侧,更新名为 rook-ceph-external-cluster-details 的外部 secret,以及之前收集的 JSON 文件输出。这会触发协调,OCP 会再次获取指标。

(BZ#1908238)

Vault 中的 OSD 密钥不会在 OpenShift Container Storage 集群卸载过程中删除

目前,当 Vault Key/Value(K/V)Secret 引擎 API 时,OSD 的主要加密密钥是从 Vault 升级到 Vault 时软删除,版本 2 用于使用 KMS 进行集群范围的加密。这意味着密钥元数据仍然可见,并且能够检索密钥的任何版本。

临时解决方案:使用 vault kv metadata delete 命令手动删除密钥的元数据。

(BZ#1975323)

MDS 报告被过度化缓存

Rook 以前在升级时没有应用 mds_cache_memory_limit。这意味着,没有应用该选项的 OpenShift Container Storage 4.2 集群没有使用正确的值更新,这通常是 pod 内存限值的大小。因此,处于 standby-replay 中的 MDS 可能会报告过度化的缓存。

(BZ#1944148)

当同时启用了 flexibleScaling 和 arbiter 时,存储集群阶段为 Ready

如果启用了仲裁和灵活扩展时,存储集群 CR 有不正确的规格。这意味着,用户可以看到 READY 状态的存储集群,即使有带有错误 arbiter 和 flexibleScaling 的消息也无法启用。这不会影响功能。

(BZ#1946595)

无法通过 OpenShift Container Storage 节点标签标记仲裁节点

如果使用 OpenShift Container Storage 节点标签、cluster.ocs.openshift.io/openshift-storage 标记,则仲裁节点被视为有效的非仲裁节点。这意味着,非仲裁资源的放置会取消确定。要临时解决这个问题,请不要使用 OpenShift Container Storage 节点标签标记仲裁节点,以便只有仲裁资源放置在仲裁节点上。

(BZ#1947110)

noobaa-db-pg-0 的问题

当托管节点停机时,noobaa-db-pg-0 pod 不会迁移到其他节点。当节点作为迁移 noobaa-db-pg-0 pod 的迁移被阻断时,NooBaa 将无法工作。

(BZ#1783961)

Restore Snapshot/Clone 带有比父 PVC 更大的大小进行操作时,会造成一个无限循环。

当大小大于父 PVC 时,Ceph CSI 不支持恢复快照或创建克隆。因此,Restore Snapshot/Clone 带有更大大小的操作时会导致出现无限的循环。要解决这个问题,删除待处理的 PVC。要获得较大的 PVC,请根据您要使用的操作完成以下之一:

  • 如果使用 Snapshots,恢复现有的快照来创建与父 PVC 大小相同的卷,然后将其附加到 pod,然后将 PVC 扩展至所需大小。如需更多信息,请参阅 卷快照
  • 如果使用 Clone,克隆父 PVC 来创建与父 PVC 大小相同的卷,然后将其附加到 pod,并将它扩展至所需大小。如需更多信息,请参阅卷克隆

(BZ#1870334)

在磁盘替换后,Ceph 状态为 HEALTH_WARN

在磁盘替换后,即使所有 OSD pod 已启动并正在运行,也会看到 1 daemons have recently crashed 警告。此警告会导致 Ceph 的状态发生更改。Ceph 状态应当是 HEALTH_OK,而非 HEALTH_WARN。要解决这个问题,rshceph-tools pod 并静默警告,Ceph 健康状况将返回到 HEALTH_OK

(BZ#1896810)

无法通过用户界面为加密的 OpenShift Container Storage 集群执行设备替换操作

在加密的 OpenShift Container Storage 集群中,发现结果 CR 发现由 Ceph OSD(Object Storage Daemon)支持的设备与 Ceph 警报报告的不同。当点击警报时,用户会看到 Disk not found 消息。由于不匹配,控制台 UI 无法为 OpenShift Container Storage 用户启用磁盘替换选项。要解决这个问题,请在替换设备指南中的 CLI 步骤对失败的设备进行替换。

(BZ#1906002)

新恢复的 PVC 无法被挂载

如果某些 OCP 节点在版本早于 8.2 的 Red Hat Enterprise Linux 版本中运行,并且从中恢复的快照已被删除,则新恢复的 PVC 无法挂载,为了避免这个问题,请不要删除在恢复的 PVC 被删除前 PVC 的快照。

(BZ#1956232)

在点开始替换前,磁盘的状态为 replacement ready

当磁盘有相同的名称时,用户界面不能区分在不同或同一节点上的新磁盘失败和以前失败的磁盘。由于这个名称相同的问题,无法进行磁盘替换,因为用户界面会认为这个新失败的磁盘已被替换。要临时解决这个问题,请按照以下步骤执行:

  1. 在 OpenShift Container Platform Web Console Administrator
  2. Home Search
  3. 资源下拉列表中 搜索 TemplateInstance
  4. 选择 TemplateInstance,并确保选择 openshift-storage 命名空间
  5. 删除所有模板实例。

(BZ#1958875)

Red Hat logoGithubredditYoutubeTwitter

学习

尝试、购买和销售

社区

关于红帽文档

通过我们的产品和服务,以及可以信赖的内容,帮助红帽用户创新并实现他们的目标。 了解我们当前的更新.

让开源更具包容性

红帽致力于替换我们的代码、文档和 Web 属性中存在问题的语言。欲了解更多详情,请参阅红帽博客.

關於紅帽

我们提供强化的解决方案,使企业能够更轻松地跨平台和环境(从核心数据中心到网络边缘)工作。

Theme

© 2026 Red Hat
返回顶部