3.3. 创建 Ceph 文件系统


您可以在 Ceph 监控节点上创建 Ceph 文件系统 (CephFS)。

重要

默认情况下,每个 Ceph 存储集群只能创建一个 CephFS。

先决条件

  • 一个运行良好、健康的 Red Hat Ceph Storage 集群。
  • 安装和配置 Ceph 元数据服务器守护进程 (ceph-mds)。
  • Ceph 监控节点的根级别访问权限。

流程

  1. 创建两个池,一个用于存储数据,另一个用于存储元数据:

    语法

    ceph osd pool create NAME _PG_NUM

    示例

    [root@mon ~]# ceph osd pool create cephfs_data 64
    [root@mon ~]# ceph osd pool create cephfs_metadata 64

    通常,元数据池可以从比较保守的 PG 数量开始,因为它的对象通常比数据池少得多。如果需要,可以增加 PG 数量。推荐的元数据池大小范围从 64 个 PG 到 512 PG。数据池的大小与您文件系统中预期的文件的编号和大小成比例。

    重要

    对于元数据池,请考虑使用:

    • 更高的复制级别,因为对此池的任何数据丢失都可能会导致整个文件系统无法访问。
    • 延迟较低的存储(如 Solid-State Drive(SSD)磁盘),因为这会直接影响客户端上观察到的文件系统操作延迟。
  2. 创建 CephFS:

    语法

    ceph fs new NAME METADATA_POOL DATA_POOL

    示例

    [root@mon ~]# ceph fs new cephfs cephfs_metadata cephfs_data

  3. 验证一个或多个 MDS 是否根据您的配置进入活跃状态。

    语法

    ceph fs status NAME

    示例

    [root@mon ~]# ceph fs status cephfs
    cephfs - 0 clients
    ======
    +------+--------+-------+---------------+-------+-------+
    | Rank | State  |  MDS  |    Activity   |  dns  |  inos |
    +------+--------+-------+---------------+-------+-------+
    |  0   | active | node1 | Reqs:    0 /s |   10  |   12  |
    +------+--------+-------+---------------+-------+-------+
    +-----------------+----------+-------+-------+
    |       Pool      |   type   |  used | avail |
    +-----------------+----------+-------+-------+
    | cephfs_metadata | metadata | 4638  | 26.7G |
    |   cephfs_data   |   data   |    0  | 26.7G |
    +-----------------+----------+-------+-------+
    
    +-------------+
    | Standby MDS |
    +-------------+
    |    node3    |
    |    node2    |
    +-------------+----

其它资源

Red Hat logoGithubRedditYoutubeTwitter

学习

尝试、购买和销售

社区

关于红帽文档

通过我们的产品和服务,以及可以信赖的内容,帮助红帽用户创新并实现他们的目标。

让开源更具包容性

红帽致力于替换我们的代码、文档和 Web 属性中存在问题的语言。欲了解更多详情,请参阅红帽博客.

關於紅帽

我们提供强化的解决方案,使企业能够更轻松地跨平台和环境(从核心数据中心到网络边缘)工作。

© 2024 Red Hat, Inc.