2.6. 关闭并重启 Red Hat Ceph Storage 集群
按照以下步骤关闭并重启 Ceph 集群:
先决条件
-
具有
root访问权。
流程
关闭 Red Hat Ceph Storage 集群
停止此群集和任何其他客户端上的 RBD 镜像、NFS-Ganesha 网关和 RADOS 网关。
在 NFS-Ganesha 网关节点上:
# systemctl stop nfs-ganesha.service在 RADOS 网关节点上:
# systemctl stop ceph-radosgw.target
-
在继续操作前,集群必须处于健康状态(
Health_OK和所有 PGactive+clean)。使用客户端密钥环(如 Ceph 监控器或 OpenStack 控制器节点)在节点上运行ceph status,以确保集群正常运行。 如果使用 Ceph 文件系统(
CephFS),则必须关闭CephFS集群。关闭CephFS集群的方法是将等级数量减少到1,设置cluster_down标志,然后失败最后一个等级。例如:#ceph fs set <fs_name> max_mds 1 #ceph mds deactivate <fs_name>:1 # rank 2 of 2 #ceph status # wait for rank 1 to finish stopping #ceph fs set <fs_name> cluster_down true #ceph mds fail <fs_name>:0设置
cluster_down标志可防止待机接管失败的等级。设置
noout、norecover、norebalance、nobackfill、nodown和pause标志。使用客户端密钥环(如 Ceph 监控器或 OpenStack 控制器节点)在节点上运行以下内容:#ceph osd set noout #ceph osd set norecover #ceph osd set norebalance #ceph osd set nobackfill #ceph osd set nodown #ceph osd set pause逐一关闭 OSD 节点:
[root@osd ~]# systemctl stop ceph-osd.target逐一关闭监控节点:
[root@mon ~]# systemctl stop ceph-mon.target
重启 Red Hat Ceph Storage 集群
打开监控节点:
[root@mon ~]# systemctl start ceph-mon.target打开 OSD 节点:
[root@osd ~]# systemctl start ceph-osd.target- 等待所有节点出现。验证所有服务均已启动,并且节点之间连接正常。
取消设置
noout、norecover、norebalance、nobackfill、nodown和pause标志。使用客户端密钥环(如 Ceph 监控器或 OpenStack 控制器节点)在节点上运行以下内容:#ceph osd unset noout #ceph osd unset norecover #ceph osd unset norebalance #ceph osd unset nobackfill #ceph osd unset nodown #ceph osd unset pause如果使用 Ceph 文件系统(
CephFS),则必须通过将cluster_down标志设置为false来激活CephFS集群:[root@admin~]# ceph fs set <fs_name> cluster_down false启动 RADOS 网关和 NFS-Ganesha 网关。
在 RADOS 网关节点上:
# systemctl start ceph-radosgw.target在 NFS-Ganesha 网关节点上:
# systemctl start nfs-ganesha.service
-
验证集群处于健康状态(
Health_OK和所有 PGactive+clean)。使用客户端密钥环(如 Ceph 监控器或 OpenStack 控制器节点)在节点上运行ceph status,以确保集群正常运行。