6.6. Rook
使用相同的存储桶名称置备对象存储桶声明
在以前的版本中,对于绿色字段用例,创建具有相同存储桶名称的两个对象存储桶声明(OBC)从用户界面成功。虽然创建了两个 OBC,第二个 OBC 指向无效的凭证。
在这个版本中,创建具有相同存储桶名称的第二个 OBC 会被阻止,且无法再为绿色字段用例创建两个存储桶名称相同的 OBC。
更改用于外部模式部署的 Python 脚本的参数名称
在以前的版本中,当在外部模式中使用 Ceph 存储部署 OpenShift Data Foundation 时,提取 Ceph 集群详情的 Python 脚本具有参数名称 --cluster-name
,这可能是 Ceph 集群的名称被误解。但是,它代表了 Ceph 管理员提供的 OpenShift 集群的名称。
在这个版本中,--cluster-name
标志被改为 --k8s-cluster-name'
。旧的标志 --cluster-name
也支持到自动化中使用的升级集群。
在检测 Multus 网络附加定义 CIDRS 时 pod 放置配置不正确
在以前的版本中,有些 OpenShift Data Foundation 集群在没有 Multus 集群网络的情况下将网络"canary" pod 调度到节点上,因为 OpenShift Data Foundation 在检测 Multus Network Attachment Definition CIDRS 时无法正确处理 pod 放置配置。
在这个版本中,OpenShift Data Foundation 被修复为 Multus 网络 "canary" pod 处理 pod 放置。因此,不再会遇到网络"canary"调度错误。
部署策略以避免 rook-ceph-exporter pod 重启
在以前的版本中,rook-ceph-exporter
pod 在新安装的 HCI 集群上多次重启,这会导致 exporter pod 和 Ceph 健康状况崩溃,显示 WARN 状态。这是因为使用 RollingRelease
重启导出器会导致竞争条件崩溃。
在这个版本中,部署策略被改为 Recreate
。因此,导出器 pod 不再崩溃,且没有更多 Ceph 健康 WARN 状态。
rook-ceph-rgw-ocs-storagecluster-cephobjectstore-a
pod 一直处于 CrashLoopBackOff
状态
在以前的版本中,rook-ceph-rgw-ocs-storagecluster-cephobjectstore-a
pod 处于 CrashLoopBackOff
状态,因为 RADOS 网关(RGW)多站点 zonegroup 没有创建并获取,错误处理被报告错误的文本。
在这个版本中,多站点配置中的错误处理错误已被修复,并通过获取之前创建的特定 rgw-realm
获取 zonegroup 来提高 zonegroup。因此,多站点配置和 rook-ceph-rgw-ocs-storagecluster-cephobjectstore-a
pod 已被成功创建。