4.2. Ceph 文件系统子卷组


作为存储管理员,您可以创建、列出、获取绝对路径,以及删除 Ceph 文件系统 (CephFS) 子卷组。CephFS 子卷组是目录级别的抽象,对一组子卷的影响策略(如文件布局)。

从 Red Hat Ceph Storage 5.0 开始,不支持 subvolume 组群快照功能。您只能列出并删除这些子卷组的现有快照。

本节描述了如何:

4.2.1. 创建文件系统子卷组

这部分论述了如何创建 Ceph 文件系统 (CephFS) 子卷组。

注意

在创建子卷组时,您可以在八进制数中指定其数据池布局、uid、gid 和文件模式。默认情况下,使用八进制文件模式 '755'、uid '0'、gid '0' 和其父目录的数据池布局创建子卷组。

注意

请参阅 在文件系统子卷组中设置和管理 配额,以便在创建子卷组时设置配额。

先决条件

  • 部署的 Ceph 文件系统正常工作的 Red Hat Ceph Storage 存储群集。
  • 至少对 Ceph 监控器具有读取访问权限。
  • Ceph 管理器节点上的读写功能。

流程

  • 创建 CephFS 子卷组:

    语法

    ceph fs subvolumegroup create VOLUME_NAME GROUP_NAME [--pool_layout DATA_POOL_NAME --uid UID --gid GID --mode OCTAL_MODE]

    示例

    [ceph: root@host01 /]# ceph fs subvolumegroup create cephfs subgroup0

    即使子卷组已存在,命令也会成功。

4.2.2. 在文件系统子卷组中设置和管理配额

本节论述了如何在 Ceph 文件系统(CephFS)子卷组中设置和管理配额。

先决条件

  • 部署的 Ceph 文件系统正常工作的 Red Hat Ceph Storage 存储群集。
  • 至少对 Ceph 监控器具有读取访问权限。
  • Ceph 管理器节点上的读写功能。

流程

  1. 在创建子卷组时,通过提供大小(以字节为单位)来设置配额:

    语法

    ceph fs subvolumegroup create VOLUME_NAME GROUP_NAME [--size SIZE_IN_BYTES] [--pool_layout DATA_POOL_NAME] [--uid UID] [--gid GID] [--mode OCTAL_MODE]

    示例

    [ceph: root@host01 /]# ceph fs subvolumegroup create cephfs subvolgroup_2 10737418240

  2. 重新定义子卷组大小:

    语法

    ceph fs subvolumegroup resize VOLUME_NAME GROUP_NAME new_size [--no_shrink]

    示例

    [ceph: root@host01 /]# ceph fs subvolumegroup resize cephfs subvolgroup_2 20737418240
    [
        {
            "bytes_used": 10768679044
        },
        {
            "bytes_quota": 20737418240
        },
        {
            "bytes_pcent": "51.93"
        }
    ]

  3. 获取子卷组的元数据:

    语法

    ceph fs subvolumegroup info VOLUME_NAME GROUP_NAME

    示例

    [ceph: root@host01 /]# ceph fs subvolumegroup info cephfs subvolgroup_2
    {
        "atime": "2022-10-05 18:00:39",
        "bytes_pcent": "51.85",
        "bytes_quota": 20768679043,
        "bytes_used": 10768679044,
        "created_at": "2022-10-05 18:00:39",
        "ctime": "2022-10-05 18:21:26",
        "data_pool": "cephfs.cephfs.data",
        "gid": 0,
        "mode": 16877,
        "mon_addrs": [
            "60.221.178.236:1221",
            "205.64.75.112:1221",
            "20.209.241.242:1221"
        ],
        "mtime": "2022-10-05 18:01:25",
        "uid": 0
    }

4.2.3. 列出文件系统子卷组

本节介绍列出 Ceph 文件系统 (CephFS) 子卷组的步骤。

先决条件

  • 部署的 Ceph 文件系统正常工作的 Red Hat Ceph Storage 存储群集。
  • 至少对 Ceph 监控器具有读取访问权限。
  • Ceph 管理器节点上的读写功能。
  • CephFS 子卷组。

流程

  • 列出 CephFS 子卷组:

    语法

    ceph fs subvolumegroup ls VOLUME_NAME

    示例

    [ceph: root@host01 /]# ceph fs subvolumegroup ls cephfs

4.2.4. 获取文件系统子卷组的绝对路径

本节介绍如何获取 Ceph 文件系统 (CephFS) 子卷组的绝对路径。

先决条件

  • 部署的 Ceph 文件系统正常工作的 Red Hat Ceph Storage 存储群集。
  • 至少对 Ceph 监控器具有读取访问权限。
  • Ceph 管理器节点上的读写功能。
  • CephFS 子卷组。

流程

  • 获取 CephFS 子卷组的绝对路径:

    语法

    ceph fs subvolumegroup getpath VOLUME_NAME GROUP_NAME

    示例

    [ceph: root@host01 /]# ceph fs subvolumegroup getpath cephfs subgroup0

4.2.5. 列出文件系统子卷组的快照

本节提供列出 Ceph 文件系统 (CephFS) 子卷组快照的步骤。

先决条件

  • 部署的 Ceph 文件系统正常工作的 Red Hat Ceph Storage 存储群集。
  • 至少对 Ceph 监控器具有读取访问权限。
  • Ceph 管理器节点上的读写功能。
  • CephFS 子卷组。
  • 子卷组的快照。

流程

  • 列出 CephFS 子卷组的快照:

    语法

    ceph fs subvolumegroup snapshot ls VOLUME_NAME GROUP_NAME

    示例

    [ceph: root@host01 /]# ceph fs subvolumegroup snapshot ls cephfs subgroup0

4.2.6. 删除文件系统子卷组的快照

本节提供删除 Ceph 文件系统 (CephFS) 子卷组快照的步骤。

注意

使用 --force 标志时,命令可以成功,否则如果快照不存在,则会失败。

先决条件

  • 部署的 Ceph 文件系统正常工作的 Red Hat Ceph Storage 存储群集。
  • 至少对 Ceph 监控器具有读取访问权限。
  • Ceph 管理器节点上的读写功能。
  • Ceph 文件系统卷.
  • 子卷组的快照。

流程

  • 移除 CephFS 子卷组的快照:

    语法

    ceph fs subvolumegroup snapshot rm VOLUME_NAME GROUP_NAME SNAP_NAME [--force]

    示例

    [ceph: root@host01 /]# ceph fs subvolumegroup snapshot rm cephfs subgroup0 snap0 --force

4.2.7. 删除文件系统子卷组

本节介绍如何删除 Ceph 文件系统 (CephFS) 子卷组。

注意

如果子卷组未为空或不存在,则移除子卷组会失败。--force 标志允许删除不存在的子卷组。

先决条件

  • 部署的 Ceph 文件系统正常工作的 Red Hat Ceph Storage 存储群集。
  • 至少对 Ceph 监控器具有读取访问权限。
  • Ceph 管理器节点上的读写功能。
  • CephFS 子卷组。

流程

  • 删除 CephFS 子卷组:

    语法

    ceph fs subvolumegroup rm VOLUME_NAME GROUP_NAME [--force]

    示例

    [ceph: root@host01 /]# ceph fs subvolumegroup rm cephfs subgroup0 --force

Red Hat logoGithubRedditYoutubeTwitter

学习

尝试、购买和销售

社区

关于红帽文档

通过我们的产品和服务,以及可以信赖的内容,帮助红帽用户创新并实现他们的目标。

让开源更具包容性

红帽致力于替换我们的代码、文档和 Web 属性中存在问题的语言。欲了解更多详情,请参阅红帽博客.

關於紅帽

我们提供强化的解决方案,使企业能够更轻松地跨平台和环境(从核心数据中心到网络边缘)工作。

© 2024 Red Hat, Inc.