第 6 章 NFS 集群和导出管理


作为存储管理员,您可以创建一个 NFS 集群,对其进行自定义,并通过 NFS 协议导出 Ceph 文件系统命名空间。

先决条件

  • 一个运行良好、健康的 Red Hat Ceph Storage 集群。
  • 安装和配置 Ceph 元数据服务器守护进程 (ceph-mds)。
  • 创建并挂载 Ceph 文件系统。

6.1. 创建 NFS 集群

使用 nfs cluster create 命令创建 NFS 集群。这会为所有 NFS Ganesa 守护进程、基于集群名称的新用户以及通用 NFS Ganesha 配置 RADOS 对象创建一个通用恢复池。

先决条件

  • 一个运行良好、健康的 Red Hat Ceph Storage 集群。
  • 现有的 Ceph 文件系统.
  • Ceph 监控器的 root 级别访问。
  • 在 Ceph 管理器主机上安装 nfs-ganeshanfs-ganesha-cephnfs-ganesha-rados-gracenfs-ganesha-rados-urls 软件包。
  • 对客户端的 root 级别访问。

流程

  1. 登录到 Cephadm shell:

    示例

    [root@mds ~]# cephadm shell

  2. 启用 Ceph Manager NFS 模块:

    示例

    [ceph: root@host01 /]# ceph mgr module enable nfs

  3. 创建 NFS Ganesha 集群:

    语法

    ceph nfs cluster create CLUSTER_NAME [PLACEMENT] [--ingress] [--virtual_ip IP_ADDRESS] [--ingress-mode {default|keepalive-only|haproxy-standard|haproxy-protocol}] [--port PORT]

    示例

    [ceph: root@host01 /]# ceph nfs cluster create nfs-cephfs "host01 host02"
    NFS Cluster Created Successfully

    在本例中,NFS Ganesha 集群名称为 nfs-cephfs,守护进程容器则部署到 host01,和 host02

    重要

    红帽只支持每个主机运行一个 NFS Ganesha 守护进程。

  4. 验证 NFS Ganesha 集群信息:

    语法

    ceph nfs cluster info [CLUSTER_NAME]

    示例

    [ceph: root@host01 /]# ceph nfs cluster info nfs-cephfs
    {
        "nfs-cephfs": [
            {
                "hostname": "host01",
                "ip": "10.74.179.124",
                "port": 2049
            },
            {
                "hostname": "host02",
                "ip": "10.74.180.160",
                "port": 2049
            }
        ]
    }

    注意

    指定 CLUSTER_NAME 是可选的。

Red Hat logoGithubRedditYoutubeTwitter

学习

尝试、购买和销售

社区

关于红帽文档

通过我们的产品和服务,以及可以信赖的内容,帮助红帽用户创新并实现他们的目标。

让开源更具包容性

红帽致力于替换我们的代码、文档和 Web 属性中存在问题的语言。欲了解更多详情,请参阅红帽博客.

關於紅帽

我们提供强化的解决方案,使企业能够更轻松地跨平台和环境(从核心数据中心到网络边缘)工作。

© 2024 Red Hat, Inc.