第 6 章 NFS 集群和导出管理
作为存储管理员,您可以创建一个 NFS 集群,对其进行自定义,并通过 NFS 协议导出 Ceph 文件系统命名空间。
先决条件
- 一个运行良好、健康的 Red Hat Ceph Storage 集群。
-
安装和配置 Ceph 元数据服务器守护进程 (
ceph-mds
)。 - 创建并挂载 Ceph 文件系统。
6.1. 创建 NFS 集群
使用 nfs cluster create
命令创建 NFS 集群。这会为所有 NFS Ganesa 守护进程、基于集群名称的新用户以及通用 NFS Ganesha 配置 RADOS 对象创建一个通用恢复池。
先决条件
- 一个运行良好、健康的 Red Hat Ceph Storage 集群。
- 现有的 Ceph 文件系统.
- Ceph 监控器的 root 级别访问。
-
在 Ceph 管理器主机上安装
nfs-ganesha
、nfs-ganesha-ceph
、nfs-ganesha-rados-grace
和nfs-ganesha-rados-urls
软件包。 - 对客户端的 root 级别访问。
流程
登录到 Cephadm shell:
示例
[root@mds ~]# cephadm shell
启用 Ceph Manager NFS 模块:
示例
[ceph: root@host01 /]# ceph mgr module enable nfs
创建 NFS Ganesha 集群:
语法
ceph nfs cluster create CLUSTER_NAME [PLACEMENT] [--ingress] [--virtual_ip IP_ADDRESS] [--ingress-mode {default|keepalive-only|haproxy-standard|haproxy-protocol}] [--port PORT]
示例
[ceph: root@host01 /]# ceph nfs cluster create nfs-cephfs "host01 host02" NFS Cluster Created Successfully
在本例中,NFS Ganesha 集群名称为
nfs-cephfs
,守护进程容器则部署到host01
,和host02
。重要红帽只支持每个主机运行一个 NFS Ganesha 守护进程。
验证 NFS Ganesha 集群信息:
语法
ceph nfs cluster info [CLUSTER_NAME]
示例
[ceph: root@host01 /]# ceph nfs cluster info nfs-cephfs { "nfs-cephfs": [ { "hostname": "host01", "ip": "10.74.179.124", "port": 2049 }, { "hostname": "host02", "ip": "10.74.180.160", "port": 2049 } ] }
注意指定 CLUSTER_NAME 是可选的。