7.5. 将 Red Hat Ceph Storage RBD 迁移到外部 RHEL 节点
对于运行 Red Hat Ceph Storage 7 或更高版本的超融合基础架构(HCI)或专用存储节点,您必须将 Red Hat OpenStack Platform control plane 中包含的守护进程迁移到现有的外部 Red Hat Enterprise Linux (RHEL)节点。外部 RHEL 节点通常包括 HCI 环境或专用存储节点的 Compute 节点。
先决条件
- 完成 Red Hat OpenStack Platform 17.1 环境中的任务。有关更多信息,请参阅 Red Hat Ceph Storage 先决条件。
7.5.1. 将 Ceph Manager 守护进程迁移到 Red Hat Ceph Storage 节点 复制链接链接已复制到粘贴板!
您必须将 Ceph Manager 守护进程从 Red Hat OpenStack Platform (RHOSP) Controller 节点迁移到一组目标节点。如果使用 Hyperconverged Infrastructure (HCI)拓扑部署 Red Hat Ceph Storage,则目标节点可以是现有的 Red Hat Ceph Storage 节点,或 RHOSP Compute 节点。
以下流程使用 cephadm
和 Ceph Orchestrator 来驱动 Ceph Manager 迁移,使用 Ceph spec 修改放置并重新调度 Ceph Manager 守护进程。Ceph 管理器以主动/被动状态运行。它还提供许多模块,包括 Ceph 编排器。ceph-mgr
提供的每个潜在的模块(如 Ceph 控制面板)都会隐式迁移 Ceph Manager。
流程
SSH 到目标节点,并启用访问 Ceph Manager 服务所需的防火墙规则:
dports="6800:7300" ssh heat-admin@<target_node> sudo iptables -I INPUT \ -p tcp --match multiport --dports $dports -j ACCEPT;
dports="6800:7300" ssh heat-admin@<target_node> sudo iptables -I INPUT \ -p tcp --match multiport --dports $dports -j ACCEPT;
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 将
<target_node
> 替换为 Red Hat Ceph Storage 环境中列出的主机的主机名。运行ceph orch host ls
以查看主机列表。为每个目标节点重复此步骤。
检查规则是否已正确应用到目标节点并保留它们:
sudo iptables-save sudo systemctl restart iptables
$ sudo iptables-save $ sudo systemctl restart iptables
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 如果在现有部署中使用了
nftables
,请编辑/etc/nftables/tripleo-rules.nft
并添加以下内容:# 113 ceph_mgr {'dport': ['6800-7300', 8444]} add rule inet filter TRIPLEO_INPUT tcp dport { 6800-7300,8444 } ct state new counter accept comment "113 ceph_mgr"
# 113 ceph_mgr {'dport': ['6800-7300', 8444]} add rule inet filter TRIPLEO_INPUT tcp dport { 6800-7300,8444 } ct state new counter accept comment "113 ceph_mgr"
Copy to Clipboard Copied! Toggle word wrap Toggle overflow - 保存该文件。
重启
nftables
服务:sudo systemctl restart nftables
$ sudo systemctl restart nftables
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 验证是否应用了规则:
sudo nft list ruleset | grep ceph_mgr
$ sudo nft list ruleset | grep ceph_mgr
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 准备目标节点以托管新的 Ceph Manager 守护进程,并将
mgr
标签添加到目标节点:sudo cephadm shell -- ceph orch host label add <target_node> mgr
$ sudo cephadm shell -- ceph orch host label add <target_node> mgr
Copy to Clipboard Copied! Toggle word wrap Toggle overflow - 对托管 Ceph Manager 守护进程的每个目标节点重复步骤 1-7。
获取 Ceph Manager 规格:
$ SPEC_DIR=${SPEC_DIR:-"$PWD/ceph_specs"} $ mkdir -p ${SPEC_DIR} $ sudo cephadm shell -- ceph orch ls --export mgr > ${SPEC_DIR}/mgr
$ SPEC_DIR=${SPEC_DIR:-"$PWD/ceph_specs"} $ mkdir -p ${SPEC_DIR} $ sudo cephadm shell -- ceph orch ls --export mgr > ${SPEC_DIR}/mgr
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 编辑检索到的 spec,并将
label: mgr
部分添加到placement
部分:service_type: mgr service_id: mgr placement: label: mgr
service_type: mgr service_id: mgr placement: label: mgr
Copy to Clipboard Copied! Toggle word wrap Toggle overflow - 保存 spec。
使用 Ceph 编排器应用带有
cephadm
的 spec:SPEC_DIR=${SPEC_DIR:-"$PWD/ceph_specs"} sudo cephadm shell -m ${SPEC_DIR}/mgr -- ceph orch apply -i /mnt/mgr
$ SPEC_DIR=${SPEC_DIR:-"$PWD/ceph_specs"} $ sudo cephadm shell -m ${SPEC_DIR}/mgr -- ceph orch apply -i /mnt/mgr
Copy to Clipboard Copied! Toggle word wrap Toggle overflow
验证
验证目标节点上是否创建了新的 Ceph Manager 守护进程:
sudo cephadm shell -- ceph orch ps | grep -i mgr sudo cephadm shell -- ceph -s
$ sudo cephadm shell -- ceph orch ps | grep -i mgr $ sudo cephadm shell -- ceph -s
Copy to Clipboard Copied! Toggle word wrap Toggle overflow Ceph 管理器守护进程计数应当与添加
mgr
标签的主机数量匹配。注意迁移不会缩小 Ceph Manager 守护进程。计数由目标节点数量增加,并将 Ceph Monitor 守护进程迁移到 Red Hat Ceph Storage 节点停用 Ceph 管理器实例。有关更多信息,请参阅将 Ceph Monitor 守护进程迁移到 Red Hat Ceph Storage 节点。
7.5.2. 将 Ceph Monitor 守护进程迁移到 Red Hat Ceph Storage 节点 复制链接链接已复制到粘贴板!
您必须将 Ceph Monitor 守护进程从 Red Hat OpenStack Platform (RHOSP) Controller 节点移到一组目标节点。如果使用 Hyperconverged Infrastructure (HCI)拓扑部署 Red Hat Ceph Storage,则目标节点可以是现有的 Red Hat Ceph Storage 节点,或 RHOSP Compute 节点。额外的 Ceph 监控器部署到目标节点上,它们被提升为 _admin
节点,您可以使用它们来管理 Red Hat Ceph Storage 集群并执行第 2 天操作。
要迁移 Ceph Monitor 守护进程,您必须执行以下高级别步骤:
对托管 Ceph 监控器的任何其他 Controller 节点重复这些步骤,直到您将所有 Ceph Monitor 守护进程迁移到目标节点。
7.5.2.1. 为 Ceph 监控迁移配置目标节点 复制链接链接已复制到粘贴板!
通过执行以下操作,为 Ceph Monitor 迁移准备目标 Red Hat Ceph Storage 节点:
- 在目标节点中启用防火墙规则并保留它们。
-
创建一个基于标签的 spec,并使用
cephadm
应用它。 - 确保在迁移过程中维护 Ceph Monitor 仲裁。
流程
SSH 到目标节点,并启用访问 Ceph 监控服务所需的防火墙规则:
for port in 3300 6789; { ssh heat-admin@<target_node> sudo iptables -I INPUT \ -p tcp -m tcp --dport $port -m conntrack --ctstate NEW \ -j ACCEPT; }
$ for port in 3300 6789; { ssh heat-admin@<target_node> sudo iptables -I INPUT \ -p tcp -m tcp --dport $port -m conntrack --ctstate NEW \ -j ACCEPT; }
Copy to Clipboard Copied! Toggle word wrap Toggle overflow -
将
<target_node
> 替换为托管新 Ceph Monitor 的节点的主机名。
-
将
检查规则是否已正确应用到目标节点并保留它们:
sudo iptables-save sudo systemctl restart iptables
$ sudo iptables-save $ sudo systemctl restart iptables
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 如果在现有部署中使用了
nftables
,请编辑/etc/nftables/tripleo-rules.nft
并添加以下内容:# 110 ceph_mon {'dport': [6789, 3300, '9100']} add rule inet filter TRIPLEO_INPUT tcp dport { 6789,3300,9100 } ct state new counter accept comment "110 ceph_mon"
# 110 ceph_mon {'dport': [6789, 3300, '9100']} add rule inet filter TRIPLEO_INPUT tcp dport { 6789,3300,9100 } ct state new counter accept comment "110 ceph_mon"
Copy to Clipboard Copied! Toggle word wrap Toggle overflow - 保存该文件。
重启
nftables
服务:sudo systemctl restart nftables
$ sudo systemctl restart nftables
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 验证是否应用了规则:
sudo nft list ruleset | grep ceph_mon
$ sudo nft list ruleset | grep ceph_mon
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 要将现有的 Ceph Monitor 迁移到目标 Red Hat Ceph Storage 节点,请从第一个 Ceph Monitor 或第一个 Controller 节点检索 Red Hat Ceph Storage mon spec:
SPEC_DIR=${SPEC_DIR:-"$PWD/ceph_specs"} mkdir -p ${SPEC_DIR} sudo cephadm shell -- ceph orch ls --export mon > ${SPEC_DIR}/mon
$ SPEC_DIR=${SPEC_DIR:-"$PWD/ceph_specs"} $ mkdir -p ${SPEC_DIR} $ sudo cephadm shell -- ceph orch ls --export mon > ${SPEC_DIR}/mon
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 在
placement
部分添加label:mon
部分:service_type: mon service_id: mon placement: label: mon
service_type: mon service_id: mon placement: label: mon
Copy to Clipboard Copied! Toggle word wrap Toggle overflow - 保存 spec。
使用 Ceph 编排器应用带有
cephadm
的 spec:SPEC_DIR=${SPEC_DIR:-"$PWD/ceph_specs"} sudo cephadm shell -m ${SPEC_DIR}/mon -- ceph orch apply -i /mnt/mon
$ SPEC_DIR=${SPEC_DIR:-"$PWD/ceph_specs"} $ sudo cephadm shell -m ${SPEC_DIR}/mon -- ceph orch apply -i /mnt/mon
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 将
mon
标签扩展到剩余的 Red Hat Ceph Storage 目标节点,以确保在迁移过程中维护仲裁:for item in $(sudo cephadm shell -- ceph orch host ls --format json | jq -r '.[].hostname'); do sudo cephadm shell -- ceph orch host label add $item mon; sudo cephadm shell -- ceph orch host label add $item _admin; done
for item in $(sudo cephadm shell -- ceph orch host ls --format json | jq -r '.[].hostname'); do sudo cephadm shell -- ceph orch host label add $item mon; sudo cephadm shell -- ceph orch host label add $item _admin; done
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 注意应用
mon
spec 允许现有策略使用标签
,而不是主机。因此,任何具有
mon
标签的节点都可以托管 Ceph Monitor 守护进程。仅执行此步骤一次,以避免在迁移多个 Ceph monitor 时进行多次迭代。检查 Red Hat Ceph Storage 和 Ceph 编排器守护进程列表的状态。确保 Ceph 监控器位于仲裁中,并由
ceph orch
命令列出:Copy to Clipboard Copied! Toggle word wrap Toggle overflow Copy to Clipboard Copied! Toggle word wrap Toggle overflow 在剩余的流程过程中使用的第一个 Controller 节点设置 Ceph 客户端,以便与 Red Hat Ceph Storage 交互。在存储网络上设置一个额外的 IP 地址,在第一个 Controller 节点停用时用于与 Red Hat Ceph Storage 交互:
备份
ceph_client_backup
目录中/etc/ceph
的内容。mkdir -p $HOME/ceph_client_backup sudo cp -R /etc/ceph/* $HOME/ceph_client_backup
$ mkdir -p $HOME/ceph_client_backup $ sudo cp -R /etc/ceph/* $HOME/ceph_client_backup
Copy to Clipboard Copied! Toggle word wrap Toggle overflow -
在属于存储网络的 VLAN 上的 IP 地址后,编辑
/etc/os-net-config/config.yaml
和 add- ip_netmask: 172.17.3.200
。将172.17.3.200
替换为存储网络上的任何其他可用 IP 地址,这些 IP 地址可静态分配给controller-0
。 保存文件并刷新
controller-0
网络配置:sudo os-net-config -c /etc/os-net-config/config.yaml
$ sudo os-net-config -c /etc/os-net-config/config.yaml
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 验证 Controller 节点中是否存在 IP 地址:
ip -o a | grep 172.17.3.200
$ ip -o a | grep 172.17.3.200
Copy to Clipboard Copied! Toggle word wrap Toggle overflow Ping IP 地址,并确认它可以访问:
ping -c 3 172.17.3.200
$ ping -c 3 172.17.3.200
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 验证您可以与 Red Hat Ceph Storage 集群交互:
sudo cephadm shell -c $HOME/ceph_client_backup/ceph.conf -k $HOME/ceph_client_backup/ceph.client.admin.keyring -- ceph -s
$ sudo cephadm shell -c $HOME/ceph_client_backup/ceph.conf -k $HOME/ceph_client_backup/ceph.client.admin.keyring -- ceph -s
Copy to Clipboard Copied! Toggle word wrap Toggle overflow
后续步骤
继续下一步 Draining 源节点。
7.5.2.2. 排空源节点 复制链接链接已复制到粘贴板!
排空源节点,并从 Red Hat Ceph Storage 集群中删除源节点主机。
流程
在源节点上,备份
/etc/ceph/
目录,以运行cephadm
,并从源节点获取 Red Hat Ceph Storage 集群的 shell:mkdir -p $HOME/ceph_client_backup sudo cp -R /etc/ceph $HOME/ceph_client_backup
$ mkdir -p $HOME/ceph_client_backup $ sudo cp -R /etc/ceph $HOME/ceph_client_backup
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 确定活跃的
ceph-mgr
实例:sudo cephadm shell -- ceph mgr stat
$ sudo cephadm shell -- ceph mgr stat
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 如果
ceph-mgr
在源节点上活跃,则失败:sudo cephadm shell -- ceph mgr fail <mgr_instance>
$ sudo cephadm shell -- ceph mgr fail <mgr_instance>
Copy to Clipboard Copied! Toggle word wrap Toggle overflow -
将
<mgr_instance
> 替换为 Ceph Manager 守护进程失败。
-
将
在
cephadm
shell 中,删除源节点上的标签:for label in mon mgr _admin; do sudo cephadm shell -- ceph orch host label rm <source_node> $label; done
$ for label in mon mgr _admin; do sudo cephadm shell -- ceph orch host label rm <source_node> $label; done
Copy to Clipboard Copied! Toggle word wrap Toggle overflow -
将
<source_node
> 替换为源节点的主机名。
-
将
可选:如果 Ceph Monitor 守护进程仍在运行,请确保从源节点中删除 Ceph Monitor 守护进程:
sudo cephadm shell -- ceph orch daemon rm mon.<source_node> --force
$ sudo cephadm shell -- ceph orch daemon rm mon.<source_node> --force
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 排空源节点以删除所有剩余的守护进程:
sudo cephadm shell -- ceph orch host drain <source_node>
$ sudo cephadm shell -- ceph orch host drain <source_node>
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 从 Red Hat Ceph Storage 集群中删除源节点主机:
sudo cephadm shell -- ceph orch host rm <source_node> --force
$ sudo cephadm shell -- ceph orch host rm <source_node> --force
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 注意源节点不再是集群的一部分,在运行
sudo cephadm shell -- ceph orch host ls
时,不应出现在 Red Hat Ceph Storage 主机列表中。但是,如果您在源节点上运行sudo podman ps
,则列表可能会显示 Ceph 监控器和 Ceph 管理器仍然在运行。sudo podman ps
[root@controller-1 ~]# sudo podman ps CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES 5c1ad36472bc registry.redhat.io/ceph/rhceph@sha256:320c364dcc8fc8120e2a42f54eb39ecdba12401a2546763b7bef15b02ce93bc4 -n mon.contro... 35 minutes ago Up 35 minutes ago ceph-f6ec3ebe-26f7-56c8-985d-eb974e8e08e3-mon-controller-1 3b14cc7bf4dd registry.redhat.io/ceph/rhceph@sha256:320c364dcc8fc8120e2a42f54eb39ecdba12401a2546763b7bef15b02ce93bc4 -n mgr.contro... 35 minutes ago Up 35 minutes ago ceph-f6ec3ebe-26f7-56c8-985d-eb974e8e08e3-mgr-controller-1-mtxohd
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 要清理现有容器并从源节点中删除
cephadm
数据,请联系红帽支持。确认 mons 仍在仲裁中:
sudo cephadm shell -- ceph -s sudo cephadm shell -- ceph orch ps | grep -i mon
$ sudo cephadm shell -- ceph -s $ sudo cephadm shell -- ceph orch ps | grep -i mon
Copy to Clipboard Copied! Toggle word wrap Toggle overflow
后续步骤
继续下一步 迁移 Ceph Monitor IP 地址。
7.5.2.3. 迁移 Ceph 监控 IP 地址 复制链接链接已复制到粘贴板!
您必须将 Ceph Monitor IP 地址迁移到目标 Red Hat Ceph Storage 节点。IP 地址迁移假定目标节点最初由 director 部署,并且网络配置由 os-net-config
管理。
流程
从
mon_host
行上的$HOME/ceph_client_backup/ceph.conf
文件获取原始 Ceph Monitor IP 地址,例如:mon_host = [v2:172.17.3.60:3300/0,v1:172.17.3.60:6789/0] [v2:172.17.3.29:3300/0,v1:172.17.3.29:6789/0] [v2:172.17.3.53:3300/0,v1:172.17.3.53:6789/0]
mon_host = [v2:172.17.3.60:3300/0,v1:172.17.3.60:6789/0] [v2:172.17.3.29:3300/0,v1:172.17.3.29:6789/0] [v2:172.17.3.53:3300/0,v1:172.17.3.53:6789/0]
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 将上一步中检索到的 IP 地址与源节点上的存储网络 IP 地址匹配,并查找 Ceph Monitor IP 地址:
ip -o -4 a | grep 172.17.3
[tripleo-admin@controller-0 ~]$ ip -o -4 a | grep 172.17.3 9: vlan30 inet 172.17.3.60/24 brd 172.17.3.255 scope global vlan30\ valid_lft forever preferred_lft forever 9: vlan30 inet 172.17.3.13/32 brd 172.17.3.255 scope global vlan30\ valid_lft forever preferred_lft forever
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 确认位于源节点上的
/etc/
目录中的 os-net-config 配置中存在 Ceph Monitor IP 地址:os-net-config
grep "172.17.3.60" /etc/os-net-config/config.yaml
[tripleo-admin@controller-0 ~]$ grep "172.17.3.60" /etc/os-net-config/config.yaml - ip_netmask: 172.17.3.60/24
Copy to Clipboard Copied! Toggle word wrap Toggle overflow -
编辑
/etc/os-net-config/config.yaml
文件并删除ip_netmask
行。 保存文件并刷新节点网络配置:
sudo os-net-config -c /etc/os-net-config/config.yaml
$ sudo os-net-config -c /etc/os-net-config/config.yaml
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 验证源节点中不存在 IP 地址,例如:
ip -o a | grep 172.17.3.60
[controller-0]$ ip -o a | grep 172.17.3.60
Copy to Clipboard Copied! Toggle word wrap Toggle overflow -
SSH 到目标节点,如
cephstorage-0
,再为新 Ceph 监控器添加 IP 地址。 -
在目标节点上,编辑
/etc/os-net-config/config.yaml
,并添加您在源节点中删除的ip_netmask: 172.17.3.60
行。 保存文件并刷新节点网络配置:
sudo os-net-config -c /etc/os-net-config/config.yaml
$ sudo os-net-config -c /etc/os-net-config/config.yaml
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 验证目标节点中是否存在 IP 地址。
ip -o a | grep 172.17.3.60
$ ip -o a | grep 172.17.3.60
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 从 Ceph 客户端节点
controller-0
,ping 迁移到目标节点的 IP 地址,并确认它仍然可以被访问:ping -c 3 172.17.3.60
[controller-0]$ ping -c 3 172.17.3.60
Copy to Clipboard Copied! Toggle word wrap Toggle overflow
后续步骤
继续下一步 ,在目标节点上重新部署 Ceph Monitor。
7.5.2.4. 在目标节点上重新部署 Ceph Monitor 复制链接链接已复制到粘贴板!
您可以使用迁移到目标节点的 IP 地址在目标节点上重新部署 Ceph Monitor。
流程
从 Ceph 客户端节点(如
controller-0
)获取 Ceph mon spec:SPEC_DIR=${SPEC_DIR:-"$PWD/ceph_specs"} sudo cephadm shell -- ceph orch ls --export mon > ${SPEC_DIR}/mon
$ SPEC_DIR=${SPEC_DIR:-"$PWD/ceph_specs"} $ sudo cephadm shell -- ceph orch ls --export mon > ${SPEC_DIR}/mon
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 编辑检索到的 spec,并添加
unmanaged: true
关键字:service_type: mon service_id: mon placement: label: mon unmanaged: true
service_type: mon service_id: mon placement: label: mon unmanaged: true
Copy to Clipboard Copied! Toggle word wrap Toggle overflow - 保存 spec。
使用 Ceph 编排器应用带有
cephadm
的 spec:SPEC_DIR=${SPEC_DIR:-"$PWD/ceph_specs"} sudo cephadm shell -m ${SPEC_DIR}/mon -- ceph orch apply -i /mnt/mon
$ SPEC_DIR=${SPEC_DIR:-"$PWD/ceph_specs"} $ sudo cephadm shell -m ${SPEC_DIR}/mon -- ceph orch apply -i /mnt/mon
Copy to Clipboard Copied! Toggle word wrap Toggle overflow Ceph 监控守护进程标记为
非受管
,您现在可以重新部署现有的守护进程并将其绑定到迁移的 IP 地址。删除目标节点上现有的 Ceph Monitor:
sudo cephadm shell -- ceph orch daemon rm mon.<target_node> --force
$ sudo cephadm shell -- ceph orch daemon rm mon.<target_node> --force
Copy to Clipboard Copied! Toggle word wrap Toggle overflow -
将
<target_node
> 替换为 Red Hat Ceph Storage 集群中包含的目标节点的主机名。
-
将
使用迁移的 IP 地址在目标节点上重新部署新的 Ceph Monitor:
sudo cephadm shell -- ceph orch daemon add mon <target_node>:<ip_address>
$ sudo cephadm shell -- ceph orch daemon add mon <target_node>:<ip_address>
Copy to Clipboard Copied! Toggle word wrap Toggle overflow -
将
<ip_address
> 替换为迁移的 IP 地址的 IP 地址。
-
将
获取 Ceph Monitor 规格:
SPEC_DIR=${SPEC_DIR:-"$PWD/ceph_specs"} sudo cephadm shell -- ceph orch ls --export mon > ${SPEC_DIR}/mon
$ SPEC_DIR=${SPEC_DIR:-"$PWD/ceph_specs"} $ sudo cephadm shell -- ceph orch ls --export mon > ${SPEC_DIR}/mon
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 编辑检索到的 spec,并将
unmanaged
关键字设置为false
:service_type: mon service_id: mon placement: label: mon unmanaged: false
service_type: mon service_id: mon placement: label: mon unmanaged: false
Copy to Clipboard Copied! Toggle word wrap Toggle overflow - 保存 spec。
使用 Ceph 编排器应用带有
cephadm
的 spec:SPEC_DIR=${SPEC_DIR:-"$PWD/ceph_specs"} sudo cephadm shell -m ${SPEC_DIR}/mon -- ceph orch apply -i /mnt/mon
$ SPEC_DIR=${SPEC_DIR:-"$PWD/ceph_specs"} $ sudo cephadm shell -m ${SPEC_DIR}/mon -- ceph orch apply -i /mnt/mon
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 新的 Ceph 监控器在带有原始 IP 地址的目标节点上运行。
确定正在运行的
mgr
:sudo cephadm shell -- ceph mgr stat
$ sudo cephadm shell -- ceph mgr stat
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 通过强制失败来刷新 Ceph Manager 信息:
sudo cephadm shell -- ceph mgr fail
$ sudo cephadm shell -- ceph mgr fail
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 刷新
OSD
信息:sudo cephadm shell -- ceph orch reconfig osd.default_drive_group
$ sudo cephadm shell -- ceph orch reconfig osd.default_drive_group
Copy to Clipboard Copied! Toggle word wrap Toggle overflow
后续步骤
重复从第 Drain 开始的步骤,为要停用的每个节点重复源 节点。在 Ceph 监控迁移后,继续执行验证 Red Hat Ceph Storage 集群的 下一步。
7.5.2.5. 在 Ceph 监控迁移后验证 Red Hat Ceph Storage 集群 复制链接链接已复制到粘贴板!
将 Ceph Monitor 守护进程迁移到目标节点后,验证 Red Hat Ceph Storage 集群是否正常运行。
流程
验证 Red Hat Ceph Storage 集群是否健康:
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 验证 Red Hat Ceph Storage mons 是否使用旧 IP 地址运行。SSH 到目标节点,并验证 Ceph 监控守护进程是否已绑定到预期的 IP 和端口:
netstat -tulpn | grep 3300
$ netstat -tulpn | grep 3300
Copy to Clipboard Copied! Toggle word wrap Toggle overflow