21.4. 重新引导 Ceph Storage (OSD) 集群
完成以下步骤以重新引导 Ceph Storage (OSD) 节点集群。
先决条件
在运行
ceph-mon服务的 Ceph 监控器或 Controller 节点上,检查 Red Hat Ceph Storage 集群状态是否健康,并且 pg 状态为active+clean:sudo cephadm -- shell ceph status
$ sudo cephadm -- shell ceph statusCopy to Clipboard Copied! Toggle word wrap Toggle overflow 如果 Ceph 集群处于健康状态,它会返回
HEALTH_OK状态。如果 Ceph 集群状态不健康,它会返回
HEALTH_WARN或HEALTH_ERR的状态。有关故障排除指南,请参阅 Red Hat Ceph Storage 5 故障排除指南。
流程
登录到运行
ceph-mon服务的 Ceph Monitor 或 Controller 节点,并临时禁用 Ceph Storage 集群重新平衡:sudo cephadm shell -- ceph osd set noout sudo cephadm shell -- ceph osd set norebalance
$ sudo cephadm shell -- ceph osd set noout $ sudo cephadm shell -- ceph osd set norebalanceCopy to Clipboard Copied! Toggle word wrap Toggle overflow 注意如果您有 multistack 或分布式计算节点(DCN)架构,您必须在设置
noout和norebalance标志时指定 Ceph 集群名称。例如:sudo cephadm shell -c /etc/ceph/<cluster>.conf -k /etc/ceph/<cluster>.client.keyring。- 选择第一个要重新引导的 Ceph Storage 节点并登录到该节点。
重新引导节点:
sudo reboot
$ sudo rebootCopy to Clipboard Copied! Toggle word wrap Toggle overflow - 稍等片刻,直到节点启动。
登录节点并检查 Ceph 集群状态:
sudo cephadm -- shell ceph status
$ sudo cephadm -- shell ceph statusCopy to Clipboard Copied! Toggle word wrap Toggle overflow 确认
pgmap报告的所有pgs的状态是否都正常 (active+clean)。- 注销节点,重新引导下一个节点,并检查其状态。重复此过程,直到您已重新引导所有 Ceph Storage 节点。
完成后,登录到运行
ceph-mon服务的 Ceph Monitor 或 Controller 节点,并启用 Ceph 集群重新平衡:sudo cephadm shell -- ceph osd unset noout sudo cephadm shell -- ceph osd unset norebalance
$ sudo cephadm shell -- ceph osd unset noout $ sudo cephadm shell -- ceph osd unset norebalanceCopy to Clipboard Copied! Toggle word wrap Toggle overflow 注意如果您有 multistack 或分布式计算节点(DCN)架构,您必须在取消设置
noout和norebalance标志时指定 Ceph 集群名称。例如:sudo cephadm shell -c /etc/ceph/<cluster>.conf -k /etc/ceph/<cluster>.client.keyring执行最后的状态检查,确认集群报告
HEALTH_OK:sudo cephadm shell ceph status
$ sudo cephadm shell ceph statusCopy to Clipboard Copied! Toggle word wrap Toggle overflow