3.2. Ceph ファイルシステムの作成
本セクションでは、モニターノードで Ceph File System を作成する方法を説明します。
デフォルトでは、Ceph Storage クラスターに Ceph File System を 1 つだけ作成できます。詳しくは、「CephFS の制限」 を参照してください。
前提条件
- Ceph Storage クラスターがない場合はデプロイします。詳細は、『 Installation Guide for Red Hat Enterprise Linux 』または『 Installation Guide for Ubuntu 』を参照してください。
-
Ceph Metadata Server デーモン(
ceph-mds
)をインストールして設定します。詳細は、『 Installation Guide for Red Hat Enterprise Linux 』の「 Installing Metadata Servers 」または「 Installation Guide for Ubuntu 」を参照してください。 ceph-common
パッケージをインストールします。On Red Hat Enterprise Linux:
# yum install ceph-common
Ubuntu の場合:
$ sudo apt-get install ceph-common
リポジトリーを有効にし、定義したクライアントノードに ceph-common
パッケージをインストールするには、『 Installation Guide for Red Hat Enterprise Linux 』の「 Installing the Ceph Client Role 」または「 Installation Guide for Ubuntu 」を参照してください。
手順
Monitor ホストと root
ユーザーで、以下のコマンドを使用します。
プールを2つ作成します。1つはデータの保存用で、もう1つはメタデータの保存用です。
ceph osd pool create <name> <pg_num>
以下のように、プール名と配置グループ(PG)の数を指定します。
[root@monitor ~]# ceph osd pool create cephfs-data 64 [root@monitor ~]# ceph osd pool create cephfs-metadata 64
通常、メタデータプールはデータプールよりもはるかに少ない数の PG で始めることができます。必要に応じて PG の数を増やすことができます。64 PG から 512 PG に推奨されるメタデータプールサイズの範囲。データプールのサイズは、ファイルシステムで予想されるファイルの数およびサイズに比例します。
重要メタデータプールについては、の使用を検討してください。
- このプールのデータ損失によりファイルシステム全体がアクセスできなくなる可能性があるため、レプリケーションレベルが高くなります。
- Solid-state Drive(SSD)ディスクなどのレイテンシーが低いストレージは、クライアントでのファイルシステム操作のレイテンシーに直接影響するためです。
Ceph File System を作成します。
ceph fs new <name> <metadata-pool> <data-pool>
Ceph File System の名前、メタデータおよびデータプールの名前を指定します。以下に例を示します。
[root@monitor ~]# ceph fs new cephfs cephfs-metadata cephfs-data
設定に応じて、1 つ以上の MDS が active の状態に入力されていることを確認します。
ceph fs status <name>
Ceph File System の名前を指定します。以下に例を示します。
[root@monitor ~]# ceph fs status cephfs cephfs - 0 clients ====== +------+--------+-------+---------------+-------+-------+ | Rank | State | MDS | Activity | dns | inos | +------+--------+-------+---------------+-------+-------+ | 0 | active | node1 | Reqs: 0 /s | 10 | 12 | +------+--------+-------+---------------+-------+-------+ +-----------------+----------+-------+-------+ | Pool | type | used | avail | +-----------------+----------+-------+-------+ | cephfs_metadata | metadata | 4638 | 26.7G | | cephfs_data | data | 0 | 26.7G | +-----------------+----------+-------+-------+ +-------------+ | Standby MDS | +-------------+ | node3 | | node2 | +-------------+----
その他のリソース
- Red Hat Enterprise Linux の『 Red Hat Ceph Storage 3 インストールガイド』の「Red Hat Ceph Storage リポジトリーの有効化 」セクション
- Ubuntu の Red Hat Ceph Storage リポジトリーの有効化 Red Hat Ceph Storage 3 インストールガイド
- Red Hat Ceph Storage 3 の『ストレージ戦略 』ガイドの「 プール 」の章