第 1 章 将 Red Hat Ceph Storage 集群从 RHCS 4 升级到 RHCS 5
作为存储管理员,您可以将 Red Hat Ceph Storage 集群从 Red Hat Ceph Storage 4 升级到 Red Hat Ceph Storage 5。升级过程包括以下任务:
- 如果您的存储集群仍在运行 Red Hat Enterprise Linux 7,将存储集群中的主机操作系统版本从 Red Hat Enterprise Linux 7 升级到 Red Hat Enterprise Linux 8。
- 如果该节点仍在运行 Red Hat Enterprise Linux 7,请将 Ceph Ansible 管理节点上的主机操作系统版本从 Red Hat Enterprise Linux 7 升级到 Red Hat Enterprise Linux 8。
- 使用 Ansible playbook 将 Red Hat Ceph Storage 4 存储集群升级到 Red Hat Ceph Storage 5。
如果您要从 Red Hat Enterprise Linux 7.9 上的 Red Hat Ceph Storage 4.3 升级到在 Red Hat Enterprise Linux 9 上运行的 Red Hat Ceph Storage 5.2 ,请先将主机的操作系统从 Red Hat Enterprise Linux 7.9 升级到 Red Hat Enterprise Linux 8.x,然后升级 Red Hat Ceph Storage,然后再升级到 Red Hat Enterprise Linux 9.x。
如果您的 Red Hat Ceph Storage 4 集群已在 Red Hat Enterprise Linux 8 中运行,请参阅将在 Red Hat Enterprise Linux 8 中运行的 Red Hat Ceph Storage 从 RHCS4 升级到 RHCS 5。
leapp
不支持对具有加密分区的加密 OSD 或 OSD 进行升级。如果您的 OSD 已加密,并且您要升级主机操作系统,请在升级操作系统前在 ceph-ansible 中
禁用 dmcrypt
。有关使用 leapp
的更多信息,请参阅从 Red Hat Enterprise Linux 7 升级到 Red Hat Enterprise Linux 8 以及从 Red Hat Enterprise Linux 8 升级到 Red Hat Enterprise Linux 9。
Red Hat Ceph Storage 5 目前不支持 ceph-ansible
。这意味着,当您将存储集群迁移到 Red Hat Ceph Storage 5 后,您必须使用 cephadm
和 cephadm-ansible
执行后续更新。
当从 Red Hat Ceph Storage 4 升级到 Red Hat Ceph Storage 5 时,不要将 bluestore_fsck_quick_fix_on_mount
参数设置为 true
,或者不运行 ceph-bluestore-tool --path PATH_TO_OSD --command quick-fix|repair
命令,因为它可能会导致格式的 OMAP 密钥并导致数据损坏。
在 Ceph Object Gateway 存储集群中(单站点或多站点)从 Red Hat Ceph Storage 5.0 升级到 Red Hat Ceph Storage 5.2 被支持,但在升级您的存储集群前需要设置 ceph config set mgr mgr/cephadm/no_five_one_rgw true --force
选项。
由于一个已知问题,在 Ceph Object Gateway 存储集群中从 Red Hat Ceph Storage 5.1 升级到 Red Hat Ceph Storage 5.2 不被支持。如需更多信息,请参阅 Support Restrictions for upgrades for RADOS Gateway (RGW) on Red Hat Red Hat Ceph Storage 5.2 知识库文章。
如果您计划升级到 Red Hat Ceph Storage 5.0z4,请参阅知识库文章从 Red Hat Ceph Storage 4.2 z4 升级到 5.0z4。
对于 Red Hat Ceph Storage,默认将 bluefs_buffered_io
选项设为 True
。这个选项使 BlueFS 能够在某些情况下执行缓冲的读取,并允许内核页面缓存作为辅助缓存进行读取,如 RocksDB 块读取。例如,如果 RocksDB 块缓存不足以在 OMAP 迭代期间保存所有块,则可以从页面缓存而不是磁盘中读取它们。当 osd_memory_target 太小而无法存放块缓存中的所有条目时,这可显著提高性能。目前,启用 bluefs_buffered_io
并禁用系统级别交换可防止性能下降。
有关 bluefs_buffered_io
的当前设置的更多信息,请参阅 Red Hat Ceph Storage 管理指南中的查看 bluefs_buffered_io
设置章节。
在将集群从 Red Hat Ceph Storage 4 升级到 Red Hat Ceph Storage 5 时,您需要在所有客户端节点上升级 ceph-common
软件包。要升级 ceph-common
软件包,请在其他守护进程升级后在所有客户端上运行 yum update ceph-common
命令。
Red Hat Ceph Storage 5 仅支持容器化守护进程。它不支持非容器化存储集群。如果您要将非容器化存储集群从 Red Hat Ceph Storage 4 升级到 Red Hat Ceph Storage 5,升级过程包括转换为容器化部署。
1.1. 先决条件
- 正在运行的 Red Hat Ceph Storage 4 集群。
- 有效的客户订阅。
- 对 Ansible 管理节点的根级别访问权限.
- 对存储集群中所有节点的根级别访问权限。
- 用于 Ansible 应用的 Ansible 用户帐户。
- 启用 Red Hat Ceph Storage 工具和 Ansible 存储库。
您可以手动将 Red Hat Ceph Storage 集群中的 Ceph 文件系统 (CephFS) 元数据服务器 (MDS) 软件同时升级到新的主版本。底层 XFS 文件系统必须格式化为支持 ftype=1
或 d_type
。运行 xfs_info /var
命令以确保 ftype
设置为 1
。如果 ftype
的值不是 1
,请附加新磁盘或创建卷。在此新设备之上,创建新的 XFS 文件系统并将其挂载到 /var/lib/containers
。
从 Red Hat Enterprise Linux 8 开始,mkfs.xfs
默认启用 ftype=1
。