2.6. 使用外部 Ceph 部署升级的注意事项
如果您单独部署了 Red Hat Ceph Storage 系统,然后使用 director 部署和配置 OpenStack,您可以使用 Red Hat OpenStack Platform 框架进行升级,以使用外部 Ceph 部署进行原位升级。这种场景与升级使用 director 部署的 Ceph 集群不同。
在规划和准备使用外部 Ceph 部署的原位升级时,您必须考虑的不同:
- 在将 Red Hat OpenStack Platform 部署从版本 13 升级到 16.1 之前,您必须将 Red Hat Ceph Storage 集群从版本 3 升级到 4。有关更多信息,请参阅 Red Hat Ceph Storage 4 安装指南中的升级 Red Hat Ceph Storage 集群。
- 在将 Red Hat Ceph Storage 集群从版本 3 升级到 4 后,Red Hat OpenStack Platform 13 可能仍然运行 RHCSv3 客户端组件,但它们与 RHCSv4 集群兼容。
- 您可以按照 Framework for Upgrades (13 to 16.1)文档中的升级路径,并在适用的情况下完成支持此特定场景的条件步骤。条件步骤以以下语句开头:"如果您正在使用外部 Ceph 部署升级"。
-
使用外部 Ceph 部署升级时,作为 overcloud 升级过程的一部分安装 RHCSv4
ceph-ansible
。当您升级使用 director 部署的 Ceph 集群时,您可以在 overcloud 升级过程完成后安装 RHCSv4ceph-ansible
。
当您将 Red Hat Ceph Storage 集群从以前支持的版本升级到 4.2z2 时,升级会在 HEALTH_WARN
状态下完成存储集群,并显示错误消息,显示 monitor 允许不安全的 global_id
重新声明。这是因为补丁的 CVE (CVE-2021-20288),请参阅 带有 'mons 的 Ceph HEALTH_WARN 在安装/升级到 RHCS 4.2z2 (或更新版本)后允许不安全的 global_id reclaim'。
由于 CVE 因 CVE 而显示 HEALTH_WARN
状态,因此可以临时静默健康警告。但是,如果您更改了警告,您没有了解连接到集群的潜在旧和未修补的客户端,则存在风险。有关沟通健康警告的更多信息,请参阅 Red Hat Ceph Storage 文档中的升级 Red Hat Ceph Storage 集群。
在所有客户端都已升级前,不要手动禁用 global_id_reclaim
,否则它们无法连接。您可以以 root
用户身份运行以下命令查看连接到集群的未修补客户端列表:
# ceph health detail