3.3. 创建 Ceph 文件系统
您可以在 Ceph 监控节点上创建 Ceph 文件系统 (CephFS)。
重要
默认情况下,每个 Ceph 存储集群只能创建一个 CephFS。
先决条件
- 一个运行良好、健康的 Red Hat Ceph Storage 集群。
-
安装和配置 Ceph 元数据服务器守护进程 (
ceph-mds
)。 - Ceph 监控节点的根级别访问权限。
流程
创建两个池,一个用于存储数据,另一个用于存储元数据:
语法
ceph osd pool create NAME _PG_NUM
示例
[root@mon ~]# ceph osd pool create cephfs_data 64 [root@mon ~]# ceph osd pool create cephfs_metadata 64
通常,元数据池可以从比较保守的 PG 数量开始,因为它的对象通常比数据池少得多。如果需要,可以增加 PG 数量。推荐的元数据池大小范围从 64 个 PG 到 512 PG。数据池的大小与您文件系统中预期的文件的编号和大小成比例。
重要对于元数据池,请考虑使用:
- 更高的复制级别,因为对此池的任何数据丢失都可能会导致整个文件系统无法访问。
- 延迟较低的存储(如 Solid-State Drive(SSD)磁盘),因为这会直接影响客户端上观察到的文件系统操作延迟。
创建 CephFS:
语法
ceph fs new NAME METADATA_POOL DATA_POOL
示例
[root@mon ~]# ceph fs new cephfs cephfs_metadata cephfs_data
验证一个或多个 MDS 是否根据您的配置进入活跃状态。
语法
ceph fs status NAME
示例
[root@mon ~]# ceph fs status cephfs cephfs - 0 clients ====== +------+--------+-------+---------------+-------+-------+ | Rank | State | MDS | Activity | dns | inos | +------+--------+-------+---------------+-------+-------+ | 0 | active | node1 | Reqs: 0 /s | 10 | 12 | +------+--------+-------+---------------+-------+-------+ +-----------------+----------+-------+-------+ | Pool | type | used | avail | +-----------------+----------+-------+-------+ | cephfs_metadata | metadata | 4638 | 26.7G | | cephfs_data | data | 0 | 26.7G | +-----------------+----------+-------+-------+ +-------------+ | Standby MDS | +-------------+ | node3 | | node2 | +-------------+----
其它资源
- 详情请参阅 Red Hat Ceph Storage 安装指南中的启用 Red Hat Ceph Storage 存储库一节。
- 如需了解更多详细信息,请参见 Red Hat Ceph Storage 策略指南中的 池 一章。
- 有关 Ceph 文件系统限制的更多详细信息,请参见 Red Hat Ceph Storage File System Guide 中 的The Ceph File System 部分。
- 有关安装 Red Hat Ceph Storage 集群的详细信息,请参阅 Red Hat Ceph Storage Installation Guide。
- 如需了解更多详细信息,请参阅 Red Hat Ceph Storage 安装指南中的安装元数据服务器 部分。