2.6. 关闭并重启 Red Hat Ceph Storage 集群
按照以下步骤关闭并重启 Ceph 集群:
先决条件
-
具有
root
访问权。
流程
关闭 Red Hat Ceph Storage 集群
停止此群集和任何其他客户端上的 RBD 镜像、NFS-Ganesha 网关和 RADOS 网关。
在 NFS-Ganesha 网关节点上:
# systemctl stop nfs-ganesha.service
在 RADOS 网关节点上:
# systemctl stop ceph-radosgw.target
-
在继续操作前,集群必须处于健康状态(
Health_OK
和所有 PGactive+clean
)。使用客户端密钥环(如 Ceph 监控器或 OpenStack 控制器节点)在节点上运行ceph status
,以确保集群正常运行。 如果使用 Ceph 文件系统(
CephFS
),则必须关闭CephFS
集群。关闭CephFS
集群的方法是将等级数量减少到1
,设置cluster_down
标志,然后失败最后一个等级。例如:#ceph fs set <fs_name> max_mds 1 #ceph mds deactivate <fs_name>:1 # rank 2 of 2 #ceph status # wait for rank 1 to finish stopping #ceph fs set <fs_name> cluster_down true #ceph mds fail <fs_name>:0
设置
cluster_down
标志可防止待机接管失败的等级。设置
noout
、norecover
、norebalance
、nobackfill
、nodown
和pause
标志。使用客户端密钥环(如 Ceph 监控器或 OpenStack 控制器节点)在节点上运行以下内容:#ceph osd set noout #ceph osd set norecover #ceph osd set norebalance #ceph osd set nobackfill #ceph osd set nodown #ceph osd set pause
逐一关闭 OSD 节点:
[root@osd ~]# systemctl stop ceph-osd.target
逐一关闭监控节点:
[root@mon ~]# systemctl stop ceph-mon.target
重启 Red Hat Ceph Storage 集群
打开监控节点:
[root@mon ~]# systemctl start ceph-mon.target
打开 OSD 节点:
[root@osd ~]# systemctl start ceph-osd.target
- 等待所有节点出现。验证所有服务均已启动,并且节点之间连接正常。
取消设置
noout
、norecover
、norebalance
、nobackfill
、nodown
和pause
标志。使用客户端密钥环(如 Ceph 监控器或 OpenStack 控制器节点)在节点上运行以下内容:#ceph osd unset noout #ceph osd unset norecover #ceph osd unset norebalance #ceph osd unset nobackfill #ceph osd unset nodown #ceph osd unset pause
如果使用 Ceph 文件系统(
CephFS
),则必须通过将cluster_down
标志设置为false
来激活CephFS
集群:[root@admin~]# ceph fs set <fs_name> cluster_down false
启动 RADOS 网关和 NFS-Ganesha 网关。
在 RADOS 网关节点上:
# systemctl start ceph-radosgw.target
在 NFS-Ganesha 网关节点上:
# systemctl start nfs-ganesha.service
-
验证集群处于健康状态(
Health_OK
和所有 PGactive+clean
)。使用客户端密钥环(如 Ceph 监控器或 OpenStack 控制器节点)在节点上运行ceph status
,以确保集群正常运行。