第 11 章 使用 Ceph Orchestrator(Limited Availability)管理 NFS-Ganesha 网关
作为存储管理员,您可以将 Orchestrator 与后端的 Cephadm 搭配使用,以部署 NFS-Ganesha 网关。Cephadm 利用预定义的 RADOS 池和可选命名空间部署 NFS Ganesha。
该技术是有限可用性。如需更多信息,请参阅 已弃用的功能 章节。
红帽支持仅对 NFS v4.0+ 协议进行 CephFS 导出。
本节涵盖了以下管理任务:
- 使用 Ceph Orchestrator 创建 NFS-Ganesha 集群。
- 使用命令行界面部署 NFS-Ganesha 网关。
- 使用服务规格部署 NFS-Ganesha 网关。
- 为 CephFS/NFS 服务实施 HA。
- 使用 Ceph Orchestrator 更新 NFS-Ganesha 集群。
- 使用 Ceph 编排器查看 NFS-Ganesha 集群信息。
- 使用 Ceph Orchestrator 获取 NFS-Ganesha 集群日志。
- 使用 Ceph 编排器设置自定义 NFS-Ganesha 配置。
- 使用 Ceph 编排器重置自定义 NFS-Ganesha 配置。
- 使用 Ceph Orchestrator 删除 NFS-Ganesha 集群。
- 使用 Ceph Orchestrator 移除 NFS Ganesha 网关。
先决条件
- 一个正在运行的 Red Hat Ceph Storage 集群。
- 所有节点的根级别访问权限。
- 主机添加到集群中。
- 部署所有管理器、监控器和 OSD 守护进程。
11.1. 使用 Ceph Orchestrator 创建 NFS-Ganesha 集群
您可以使用 Ceph Orchestrator 的 mgr/nfs
模块来创建 NFS-Ganesha 集群。此模块使用后端中的 Cephadm 部署 NFS 集群。
这会为所有 NFS-Ganesha 守护进程、基于 clusterid
的新用户和通用 NFS-Ganesha 配置 RADOS 对象创建一个通用恢复池。
对于每个守护进程,池中都会创建一个新用户和一个通用配置。虽然所有集群都有与集群名称不同的命名空间,但它们使用相同的恢复池。
先决条件
- 一个正在运行的 Red Hat Ceph Storage 集群。
- 主机添加到集群中。
- 部署所有管理器、监控器和 OSD 守护进程。
流程
登录到 Cephadm shell:
示例
[root@host01 ~]# cephadm shell
启用
mgr/nfs
模块:示例
[ceph: root@host01 /]# ceph mgr module enable nfs
创建集群:
语法
ceph nfs cluster create CLUSTER_NAME ["HOST_NAME_1 HOST_NAME_2 HOST_NAME_3"]
CLUSTER_NAME 是一个任意字符串,HOST_NAME_1 是一个可选字符串,表示主机要部署 NFS-Ganesha 守护进程。
示例
[ceph: root@host01 /]# ceph nfs cluster create nfsganesha "host01 host02" NFS Cluster Created Successful
这会创建一个 NFS-Ganesha 集群
nfsganesha
,并在host01
和host02
上有一个守护进程。
验证
列出集群详情:
示例
[ceph: root@host01 /]# ceph nfs cluster ls
显示 NFS-Ganesha 集群信息:
语法
ceph nfs cluster info CLUSTER_NAME
示例
[ceph: root@host01 /]# ceph nfs cluster info nfsganesha
其它资源
- 如需更多信息,请参阅 Red Hat Ceph Storage 文件系统指南中的 通过 NFS 协议导出 Ceph 文件系统命名空间部分。
- 如需更多信息 ,请参阅 Red Hat Ceph Storage Operations 指南中的使用服务规格部署 Ceph 守护进程。