2.5. Ceph Orchestrator を使用した MDS サービスの管理
ストレージ管理者は、バックエンドにて Cephadm と Ceph Orchestrator を使用して MDS サービスをデプロイできます。デフォルトでは、Ceph File System (CephFS) はアクティブな MDS デーモンを 1 つだけ使用します。ただし、多くのクライアントがあるシステムでは複数のアクティブな MDS デーモンを使用する利点があります。
このセクションでは、以下の管理タスクを説明します。
前提条件
- 稼働中の Red Hat Ceph Storage クラスターがある。
- すべてのノードへの root レベルのアクセス。
- ホストがクラスターに追加されている。
- すべてのマネージャー、モニター、および OSD デーモンがデプロイされます。
2.5.1. コマンドラインインターフェイスを使用した MDS サービスのデプロイ リンクのコピーリンクがクリップボードにコピーされました!
Ceph Orchestrator を使用すると、コマンドラインインターフェイスで placement 仕様を使用して、Metadata Server (MDS) サービスをデプロイできます。Ceph File System (CephFS) には、1 つ以上の MDS が必要です。
最低でも、Ceph File System (CephFS) データ用のプール 1 つと CephFS メタデータ用のプール 1 つの 2 つのプールがあるようにしてください。
前提条件
- 稼働中の Red Hat Ceph Storage クラスターがある。
- ホストがクラスターに追加されている。
- すべてのマネージャー、モニター、および OSD デーモンがデプロイされます。
手順
Cephadm シェルにログインします。
例
[root@host01 ~]# cephadm shell- 配置仕様を使用して MDS デーモンをデプロイする方法は 2 つあります。
方法 1
ceph fs volumeを使用して MDS デーモンを作成します。これにより、CephFS に関連付けられた CephFS ボリュームとプールが作成され、ホストで MDS サービスも開始されます。構文
ceph fs volume create FILESYSTEM_NAME --placement="NUMBER_OF_DAEMONS HOST_NAME_1 HOST_NAME_2 HOST_NAME_3"注記デフォルトでは、このコマンドに対してレプリケートされたプールが作成されます。
例
[ceph: root@host01 /]# ceph fs volume create test --placement="2 host01 host02"
方法 2
プール、CephFS を作成してから、配置仕様を使用して MDS サービスをデプロイします。
CephFS のプールを作成します。
構文
ceph osd pool create DATA_POOL [PG_NUM] ceph osd pool create METADATA_POOL [PG_NUM]例
[ceph: root@host01 /]# ceph osd pool create cephfs_data 64 [ceph: root@host01 /]# ceph osd pool create cephfs_metadata 64通常、メタデータプールは、データプールよりもオブジェクトがはるかに少ないため、控えめな数の配置グループ (PG) で開始できます。必要に応じて PG の数を増やすことができます。プールサイズの範囲は 64 PG ~ 512 PG です。データプールのサイズは、ファイルシステム内で予想されるファイルの数とサイズに比例します。
重要メタデータプールでは、以下を使用することを検討してください。
- このプールへのデータ損失によりファイルシステム全体にアクセスできなくなる可能性があるため、レプリケーションレベルが高くなります。
- Solid-State Drive (SSD) ディスクなどのレイテンシーが低くなるストレージ。これは、クライアントで観察されるファイルシステム操作のレイテンシーに直接影響するためです。
データプールおよびメタデータプールのファイルシステムを作成します。
構文
ceph fs new FILESYSTEM_NAME METADATA_POOL DATA_POOL例
[ceph: root@host01 /]# ceph fs new test cephfs_metadata cephfs_dataceph orch applyコマンドを使用して MDS サービスをデプロイします。構文
ceph orch apply mds FILESYSTEM_NAME --placement="NUMBER_OF_DAEMONS HOST_NAME_1 HOST_NAME_2 HOST_NAME_3"例
[ceph: root@host01 /]# ceph orch apply mds test --placement="2 host01 host02"
検証
サービスをリスト表示します。
例
[ceph: root@host01 /]# ceph orch lsCephFS のステータスを確認します。
例
[ceph: root@host01 /]# ceph fs ls [ceph: root@host01 /]# ceph fs statusホスト、デーモン、およびプロセスをリスト表示します。
構文
ceph orch ps --daemon_type=DAEMON_NAME例
[ceph: root@host01 /]# ceph orch ps --daemon_type=mds
2.5.2. サービス仕様を使用した MDS サービスのデプロイ リンクのコピーリンクがクリップボードにコピーされました!
Ceph Orchestrator を使用すると、サービス仕様を使用して MDS サービスをデプロイできます。
少なくとも 2 つのプールがあることを確認してください。1 つは Ceph File System (CephFS) データ用で、もう 1 つは CephFS メタデータ用です。
前提条件
- 稼働中の Red Hat Ceph Storage クラスターがある。
- ホストがクラスターに追加されている。
- すべてのマネージャー、モニター、および OSD デーモンがデプロイされます。
手順
mds.yamlファイルを作成します。例
[root@host01 ~]# touch mds.yamlmds.yamlファイルを編集し、以下の詳細を含めます。構文
service_type: mds service_id: FILESYSTEM_NAME placement: hosts: - HOST_NAME_1 - HOST_NAME_2 - HOST_NAME_3例
service_type: mds service_id: fs_name placement: hosts: - host01 - host02YAML ファイルをコンテナー内のディレクトリーにマウントします。
例
[root@host01 ~]# cephadm shell --mount mds.yaml:/var/lib/ceph/mds/mds.yamlそのディレクトリーに移動します。
例
[ceph: root@host01 /]# cd /var/lib/ceph/mds/Cephadm シェルにログインします。
例
[root@host01 ~]# cephadm shell以下のディレクトリーに移動します。
例
[ceph: root@host01 /]# cd /var/lib/ceph/mds/サービス仕様を使用して MDS サービスをデプロイします。
構文
ceph orch apply -i FILE_NAME.yaml例
[ceph: root@host01 mds]# ceph orch apply -i mds.yamlMDS サービスがデプロイされ、機能したら、CephFS を作成します。
構文
ceph fs new CEPHFS_NAME METADATA_POOL DATA_POOL例
[ceph: root@host01 /]# ceph fs new test metadata_pool data_pool
検証
サービスをリスト表示します。
例
[ceph: root@host01 /]# ceph orch lsホスト、デーモン、およびプロセスをリスト表示します。
構文
ceph orch ps --daemon_type=DAEMON_NAME例
[ceph: root@host01 /]# ceph orch ps --daemon_type=mds
2.5.3. Ceph Orchestrator を使用した MDS サービスの削除 リンクのコピーリンクがクリップボードにコピーされました!
ceph orch rm コマンドを使用してサービスを削除できます。または、ファイルシステムおよび関連するプールを削除できます。
前提条件
- 稼働中の Red Hat Ceph Storage クラスターがある。
- すべてのノードへの root レベルのアクセス。
- ホストがクラスターに追加されている。
- ホストにデプロイされた MDS デーモン 1 つ以上。
手順
- MDS デーモンをクラスターから削除する方法は 2 つあります。
方法 1
CephFS ボリューム、関連するプール、およびサービスを削除します。
Cephadm シェルにログインします。
例
[root@host01 ~]# cephadm shell設定パラメーター
mon_allow_pool_deleteをtrueに設定します。例
[ceph: root@host01 /]# ceph config set mon mon_allow_pool_delete trueファイルシステムを削除します。
構文
ceph fs volume rm FILESYSTEM_NAME --yes-i-really-mean-it例
[ceph: root@host01 /]# ceph fs volume rm cephfs-new --yes-i-really-mean-itこのコマンドは、ファイルシステム、そのデータ、メタデータプールを削除します。また、有効な
ceph-mgrOrchestrator モジュールを使用して MDS を削除しようとします。
方法 2
ceph orch rmコマンドを使用して、クラスター全体から MDS サービスを削除します。サービスをリスト表示します。
例
[ceph: root@host01 /]# ceph orch lsサービスの削除
構文
ceph orch rm SERVICE_NAME例
[ceph: root@host01 /]# ceph orch rm mds.test
検証
ホスト、デーモン、およびプロセスをリスト表示します。
構文
ceph orch ps例
[ceph: root@host01 /]# ceph orch ps