3.3. 创建 Ceph 文件系统
您可以在 Ceph 监控节点上创建 Ceph 文件系统 (CephFS)。
重要
默认情况下,每个 Ceph 存储集群只能创建一个 CephFS。
先决条件
- 一个运行良好、健康的 Red Hat Ceph Storage 集群。
-
安装和配置 Ceph 元数据服务器守护进程 (
ceph-mds
)。 - Ceph 监控节点的根级别访问权限。
流程
创建两个池,一个用于存储数据,另一个用于存储元数据:
语法
ceph osd pool create NAME _PG_NUM
ceph osd pool create NAME _PG_NUM
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 示例
ceph osd pool create cephfs_data 64 ceph osd pool create cephfs_metadata 64
[root@mon ~]# ceph osd pool create cephfs_data 64 [root@mon ~]# ceph osd pool create cephfs_metadata 64
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 通常,元数据池可以从比较保守的 PG 数量开始,因为它的对象通常比数据池少得多。如果需要,可以增加 PG 数量。推荐的元数据池大小范围从 64 个 PG 到 512 PG。数据池的大小与您文件系统中预期的文件的编号和大小成比例。
重要对于元数据池,请考虑使用:
- 更高的复制级别,因为对此池的任何数据丢失都可能会导致整个文件系统无法访问。
- 延迟较低的存储(如 Solid-State Drive(SSD)磁盘),因为这会直接影响客户端上观察到的文件系统操作延迟。
创建 CephFS:
语法
ceph fs new NAME METADATA_POOL DATA_POOL
ceph fs new NAME METADATA_POOL DATA_POOL
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 示例
ceph fs new cephfs cephfs_metadata cephfs_data
[root@mon ~]# ceph fs new cephfs cephfs_metadata cephfs_data
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 验证一个或多个 MDS 是否根据您的配置进入活跃状态。
语法
ceph fs status NAME
ceph fs status NAME
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 示例
Copy to Clipboard Copied! Toggle word wrap Toggle overflow
其它资源
- 详情请参阅 Red Hat Ceph Storage 安装指南中的启用 Red Hat Ceph Storage 存储库一节。
- 如需了解更多详细信息,请参见 Red Hat Ceph Storage 策略指南中的 池 一章。
- 有关 Ceph 文件系统限制的更多详细信息,请参见 Red Hat Ceph Storage File System Guide 中 的The Ceph File System 部分。
- 有关安装 Red Hat Ceph Storage 集群的详细信息,请参阅 Red Hat Ceph Storage Installation Guide。
- 如需了解更多详细信息,请参阅 Red Hat Ceph Storage 安装指南中的安装元数据服务器 部分。