ファイルシステムガイド
Ceph ファイルシステムの設定とマウント
概要
第1章 Ceph ファイルシステムの紹介 リンクのコピーリンクがクリップボードにコピーされました!
ストレージ管理者として、Ceph File System (CephFS) 環境を管理するための機能、システムコンポーネント、および制限事項について理解することができます。
1.1. Ceph File System の機能と強化点 リンクのコピーリンクがクリップボードにコピーされました!
Ceph File System (CephFS) は、Ceph の RADOS (Reliable Autonomic Distributed Object Storage) と呼ばれる分散オブジェクトストアの上に構築された POSIX 規格と互換性のあるファイルシステムです。CephFS は、Red Hat Ceph Storage クラスターへのファイルアクセスを提供し、可能な限り POSIX セマンティクスを使用します。たとえば、NFS のような他の多くの一般的なネットワークファイルシステムとは対照的に、CephFS はクライアント間で強力なキャッシュコヒーレンシーを維持します。目標は、ファイルシステムを使用するプロセスが、異なるホストに存在するときも、同じホストにいるときも、同じように動作することです。ただし、CephFS は厳密な POSIX セマンティクスから乖離している場合もあります。
Ceph File System には、以下のような機能や強化があります。
- スケーラビリティー
- Ceph File System は、メタデータサーバーの水平方向のスケーリングと、個々の OSD ノードでのクライアントの直接の読み書きにより、高いスケーラビリティーを実現しています。
- 共有ファイルシステム
- Ceph File System は共有ファイルシステムなので、複数のクライアントが同じファイルシステム上で同時に作業することができます。
- 複数のファイルシステム
- 1 つのストレージクラスターで複数のファイルシステムをアクティブにできます。各 CephFS には、独自のプールのセットと、独自のメタデータサーバー (MDS) ランクのセットがあります。複数のファイルシステムをデプロイメントする場合は、MDS デーモンの数を増やす必要があります。これにより、メタデータのスループットを向上させることができますが、同時に運用コストも増加します。また、特定のファイルシステムへのクライアントのアクセスを制限することもできます。
- 高可用性
- Ceph File System には、Ceph Metadata Server (MDS) のクラスターが用意されています。1 つはアクティブで、他はスタンバイモードです。アクティブなデータシートが不意に終了した場合、スタンバイデータシートの 1 つがアクティブになります。その結果、サーバーが故障してもクライアントのマウントは継続して動作します。この動作により、Ceph File System は可用性が高くなります。さらに、複数のアクティブなメタデータサーバーを設定することも可能です。
- 設定可能なファイルおよびディレクトリーレイアウト
- Ceph File System では、ファイルやディレクトリーのレイアウトを設定して、複数のプール、プールの名前空間、オブジェクト間のファイルストライピングモードを使用することができます。
- POSIX アクセスコントロールリスト (ACL)
-
Ceph File System は POSIX Access Control Lists (ACL) をサポートしています。ACL は、カーネルバージョン
kernel-3.10.0-327.18.2.el7以降のカーネルクライアントとしてマウントされた Ceph File Systems でデフォルトで有効になります。FUSE クライアントとしてマウントされた Ceph File Systems で ACL を使用するには、ACL を有効にする必要があります。 - クライアントクオータ
- Ceph File System は、システム内のあらゆるディレクトリーにクォータを設定することをサポートしています。クオータは、ディレクトリー階層のそのポイントの下に保存されているバイト数やファイル数を制限することができます。CephFS クライアントクオータはデフォルトで有効です。
CephFS EC プールはアーカイブのみを目的としています。
関連情報
- Ceph Metadata サーバーをインストールするには、オペレーションガイドの Ceph Orchestrator を使用した MDS サービスの管理 セクションを参照してください。
- Ceph File System を作成するには、ファイルシステムガイドの Ceph File System の導入 セクションを参照してください。
1.2. Ceph File System のコンポーネント リンクのコピーリンクがクリップボードにコピーされました!
Ceph File System には 2 つの主要コンポーネントがあります。
- Clients
-
CephFS クライアントは、FUSE クライアントの
ceph-fuseやカーネルクライアントのkcephfsなど、CephFS を使用するアプリケーションの代わりに I/O 操作を行います。CephFS クライアントは、アクティブな Metadata Server にメタデータの要求を送信します。その代わり、CephFS クライアントはファイルのメタデータ認識し、メタデータとファイルデータの両方を安全にキャッシュすることができます。 - メタデータサーバー (MDS)
MDS では以下のことを行います。
- CephFS クライアントにメタデータを提供します。
- Ceph File System に保存されているファイルに関連するメタデータを管理します。
- 共有されている Red Hat Ceph Storage クラスターへのアクセスを調整します。
- ホットなメタデータをキャッシュして、バッキングメタデータプールストアへのリクエストを減らします。
- CephFS クライアントのキャッシュを管理して、キャッシュコヒーレンスを維持します。
- アクティブなデータシート間でホットメタデータを複製します。
- メタデータミューテーションをコンパクトジャーナルにまとめて、バックメタデータプールに定期的にフラッシュします。
-
CephFS では、少なくとも 1 つの Metadata Server デーモン (
ceph-mds) の実行が必要です。
下図は、Ceph File System のコンポーネント層を示しています。
一番下の層は、基礎となるコアストレージクラスターコンポーネントを表しています。
-
Ceph OSD (
ceph-osd) Ceph File System のデータとメタデータが格納されています。 -
Ceph File System のメタデータを管理する Ceph Metadata Servers (
ceph-mds)。 -
クラスターマップのマスターコピーを管理する Ceph Monitors (
ceph-mon)。
Ceph Storage プロトコル層は、コアストレージクラスターと対話するための Ceph ネイティブ librados ライブラリーを表します。
CephFS ライブラリー層には、librados の上で動作し、Ceph File System を表す CephFS libcephfs ライブラリーが含まれます。
一番上の層は、Ceph File Systems にアクセスできる 2 種類の Ceph クライアントを表しています。
下の図は、Ceph File System のコンポーネントがどのように相互に作用するかを詳しく示しています。
関連情報
- Ceph Metadata サーバーをインストールするには、ファイルシステムガイドの Ceph Orchestrator を使用した MDS サービスの管理 セクションを参照してください。
- Ceph File System を作成するには、ファイルシステムガイド の Red Hat Ceph File System の導入 セクションを参照してください。
1.3. Ceph File System と SELinux リンクのコピーリンクがクリップボードにコピーされました!
Red Hat Enterprise Linux 8.3 および Red Hat Ceph Storage 4.2 より、Ceph File Systems (CephFS) 環境での Security-Enhanced Linux (SELinux) の使用をサポートしています。CephFS では、任意の SELinux ファイルタイプを設定できるようになったほか、個々のファイルに特定の SELinux タイプを割り当てることもできます。このサポートは、Ceph File System Metadata Server (MDS)、CephFS File System in User Space (FUSE) クライアント、および CephFS カーネルクライアントに適用されます。
関連情報
- SELinux の詳細については、Red Hat Enterprise Linux 8 の SELinux の使い方ガイド を参照してください。
1.4. Ceph File System の制限と POSIX 規格 リンクのコピーリンクがクリップボードにコピーされました!
Ceph File System は、以下の点で厳密な POSIX セマンティクスから乖離しています。
-
クライアントがファイルの書き込みに失敗した場合、書き込み操作は必ずしも Atomic ではありません。例えば、
O_SYNCフラグで開かれた 8MB のバッファーを持つファイルに対して、クライアントがwrite()システムコールを呼び出したところ、予期せぬ終了で、書き込み操作が部分的にしかできなくなってしまうことがあります。ローカルファイルシステムを含め、ほとんどのファイルシステムがこのような動作をします。 - 書き込み操作が同時に行われる状況では、オブジェクトの境界を超えた書き込み操作は必ずしも Atomic ではありません。例えば、ライター A が "aa|aa"、ライター B が "bb|bb" を同時に書いた場合、"|" はオブジェクトの境界であり、本来の"aa|aa" や "bb|bb" ではなく、"aa|bb" が書かれてしまいます。
-
POSIX には
telldir()やseekdir()というシステムコールがあり、カレントディレクトリーのオフセットを取得して、そこまでシークすることができます。CephFS はいつでもディレクトリーを断片化できるため、ディレクトリーの安定した整数オフセットを返すことは困難です。そのため、0 以外のオフセットでseekdir()システムコールを呼び出しても、動作する場合がありますが、動作を保証するものではありません。seekdir()をオフセット 0 で呼び出すと必ず動作します。これは、rewinddir()システムコールと同等のものです。 -
スパースファイルは、
stat()システムコールのst_blocksフィールドに正しく伝わりませんでした。st_blocksフィールドには、ファイルサイズをブロックサイズで割った商が常に入力されているため、CephFS では、割り当てられたり書き込まれたりしたファイルの一部を明示的に追跡しません。この動作により、duなどのユーティリティーが使用スペースを過大評価してしまいます。 -
mmap()システムコールでファイルを複数のホストのメモリーにマッピングした場合、書き込み操作が他のホストのキャッシュに一貫して伝わらない。つまり、あるページがホスト A でキャッシュされ、ホスト B で更新された場合、ホスト A のページはコヒーレントに無効にはなりません。 -
CephFS クライアントには、スナップショットへのアクセス、作成、削除、名前の変更に使用される隠れた
.snapディレクトリーがあります。このディレクトリーはreaddir()システムコールから除外されていますが、同名のファイルやディレクトリーを作成しようとしたプロセスはエラーを返します。この隠しディレクトリーの名前は、マウント時に-o snapdirname=.<new_name>オプションを使用するか、client_snapdir設定オプションを使用して変更できます。
関連情報
- Ceph Metadata サーバーをインストールするには、ファイルシステムガイドの Ceph Orchestrator を使用した MDS サービスの管理 セクションを参照してください。
- Ceph File System を作成するには、ファイルシステムガイド の Red Hat Ceph File System の導入 セクションを参照してください。
第2章 Ceph File System Metadata Server リンクのコピーリンクがクリップボードにコピーされました!
ストレージ管理者として、Ceph File System (CephFS) Metadata Server (MDS) のさまざまな状態について学ぶとともに、CephFS MDS ランキングの仕組み、MDS スタンバイデーモンの設定、キャッシュサイズの制限についても学ぶことができます。これらの概念を知ることで、ストレージ環境に合わせて MDS デーモンを設定することができます。
前提条件
- 実行中、および正常な Red Hat Ceph Storage クラスター
-
Ceph Metadata Server デーモン (
ceph-mds) のインストール。MDS デーモンの設定の詳細は、Red Hat Ceph Storage File System ガイド の Ceph Orchestrator を使用した MDS サービスの管理 セクションを参照してください。
2.1. Metadata Server デーモンの状態 リンクのコピーリンクがクリップボードにコピーされました!
Metadata Server (MDS) のデーモンは、2 つの状態で動作します。
- Active: Ceph File System に保存されているファイルとディレクトリーのメタデータを管理します。
- Standby — バックアップとして機能し、アクティブな MDS デーモンが反応しなくなったときにアクティブになります。
デフォルトでは、Ceph File System はアクティブな MDS デーモンを 1 つだけ使用します。ただし、多くのクライアントがあるシステムでは複数のアクティブな MDS デーモンを使用する利点があります。
ファイルシステムでは、複数のアクティブな MDS デーモンを使用するように設定することで、大規模なワークロードに対してメタデータのパフォーマンスを拡張することができます。メタデータの負荷パターンが変化したときに、アクティブな MDS デーモンがメタデータのワークロードを動的に分担します。なお、複数のアクティブな MDS デーモンを持つシステムでは、高可用性を維持するためにスタンバイ MDS デーモンが必要となります。
Active MDS デーモンが停止したときの動作について
アクティブな MDS が応答しなくなると、Ceph Monitor デーモンは mds_beacon_grace オプションで指定された値に等しい秒数だけ待機します。指定した時間が経過してもアクティブな MDS が応答しない場合、Ceph Monitor は MDS デーモンを laggy としてマークします。設定に応じて、いずれかのスタンバイデーモンがアクティブになります。
mds_beacon_grace の値を変更するには、Ceph の設定ファイルにこのオプションを追加して、新しい値を指定します。
2.2. メタデータサーバーのランク リンクのコピーリンクがクリップボードにコピーされました!
各 Ceph File System (CephFS) には、ランクの数があり、デフォルトでは 1 つで、ゼロから始まります。
ランクは、メタデータのワークロードを複数の Metadata Server (MDS) デーモン間で共有する方法を定義します。ランク数は、一度にアクティブにすることができる MDS デーモンの最大数です。各 MDS デーモンは、そのランクに割り当てられた CephFS メタデータのサブセットを処理します。
各 MDS デーモンは、最初はランクなしで起動します。Ceph Monitor は、デーモンにランクを割り当てます。MDS デーモンは一度に 1 つのランクしか保持できません。デーモンがランクを失うのは、停止したときだけです。
max_mds の設定は、作成されるランクの数を制御します。
CephFS の実際のランク数は、新しいランクを受け入れるための予備のデーモンが利用できる場合にのみ増加します。
ランクステート
ランクには、以下の状態があります。
- Up: MDS デーモンに割り当てられたランクです。
- Failed: どの MDS デーモンにも関連付けられていないランクです。
-
Damaged: メタデータが破損していたり、欠落していたりと、ダメージを受けているランクです。オペレーターが問題を解決して、破損したランクに
ceph mds repairedコマンドを使用するまで、破損したランクはどの MDS デーモンにも割り当てられません。
2.3. メタデータサーバーのキャッシュサイズ制限 リンクのコピーリンクがクリップボードにコピーされました!
Ceph File System (CephFS) の Metadata Server (MDS) キャッシュのサイズを以下の方法で制限できます。
メモリーの制限:
mds_cache_memory_limitオプションを使用します。Red Hat では、mds_cache_memory_limitに 8 GB ~ 64 GB の値を推奨しています。より多くのキャッシュを設定すると、復元で問題が発生する可能性があります。この制限は、MDS の望ましい最大メモリー使用量の約 66% です。注記mds_cache_memory_limitのデフォルト値は 4 GB です。デフォルト値は推奨範囲外であるため、Red Hat では前述の範囲内に値を設定することを推奨します。重要Red Hat は inode 数制限の代わりにメモリー制限を使用することを推奨します。
-
Inode 数:
mds_cache_sizeオプションを使用します。デフォルトでは、inode 数による MDS キャッシュの制限は無効になっています。
また、MDS の操作に mds_cache_reservation オプションを使用することで、キャッシュの予約を指定することができます。キャッシュ予約は、メモリーまたは inode の上限に対する割合で制限され、デフォルトでは 5 % に設定されています。このパラメーターの目的は、データシートが新しいメタデータの操作に使用するために、キャッシュのメモリーを余分に確保することです。その結果、データシートは一般的にメモリー制限値以下で動作することになります。これは、データシートは、未使用のメタデータをキャッシュに落とすために、クライアントから古い状態を呼び出すためです。
mds_cache_reservation オプションは、MDS ノードがキャッシュが大きすぎることを示すヘルスアラートを Ceph Monitors に送信する場合を除き、すべての状況で mds_health_cache_threshold オプションを置き換えます。デフォルトでは、mds_health_cache_threshold は最大キャッシュサイズの 150% です。
キャッシュの制限はハードな制限ではないことに注意してください。CephFS クライアントや MDS のバグ、または誤動作するアプリケーションが原因で、MDS のキャッシュサイズが超過する可能性があります。mds_health_cache_threshold オプションは、ストレージクラスターの健全性に関する警告メッセージを設定し、データシートがキャッシュを縮小できない原因をオペレーターが調査できるようにします。
関連情報
- 詳細は、Red Hat Ceph Storage File System ガイド の Metadata Server daemon configuration reference セクションで詳しく説明しています。
2.4. ファイルシステムアフィニティー リンクのコピーリンクがクリップボードにコピーされました!
Ceph File System (CephFS) が特定の Ceph Metadata Server (MDS) を別の Ceph MDS よりも優先するように設定できます。例えば、新しくて高速なハードウェアで動作している MDS を、古くて低速なハードウェアで動作しているスタンバイ MDS よりも優先的に使用したいとします。mds_join_fs オプションを設定することで、この優先順位を指定することができ、このファイルシステムのアフィニティーが実行されます。Ceph Monitor は、mds_join_fs が失敗したランクのファイルシステム名と同じである MDS スタンバイデーモンを優先します。standby-replay デーモンを選択してから、別のスタンバイデーモンを選択します。mds_join_fs オプションを指定したスタンバイデーモンが存在しない場合、Ceph Monitors は、最後の手段として、通常のスタンバイを交換用に選択するか、その他の利用可能なスタンバイを選択します。Ceph Monitor は、Ceph ファイルシステムを定期的に検査して、親和性の低い Ceph MDS の代わりに親和性の高いスタンバイが利用できるかどうかを確認します。
2.5. Ceph Orchestrator を使用した MDS サービスの管理 リンクのコピーリンクがクリップボードにコピーされました!
ストレージ管理者は、バックエンドにて Cephadm と Ceph Orchestrator を使用して MDS サービスをデプロイできます。デフォルトでは、Ceph File System (CephFS) はアクティブな MDS デーモンを 1 つだけ使用します。ただし、多くのクライアントがあるシステムでは複数のアクティブな MDS デーモンを使用する利点があります。
このセクションでは、以下の管理タスクを説明します。
前提条件
- 稼働中の Red Hat Ceph Storage クラスターがある。
- すべてのノードへの root レベルのアクセス。
- ホストがクラスターに追加されている。
- すべてのマネージャー、モニター、および OSD デーモンがデプロイされます。
2.5.1. コマンドラインインターフェイスを使用した MDS サービスのデプロイ リンクのコピーリンクがクリップボードにコピーされました!
Ceph Orchestrator を使用すると、コマンドラインインターフェイスで placement 仕様を使用して、Metadata Server (MDS) サービスをデプロイできます。Ceph ファイルシステム (CephFS) には、1 つ以上の MDS が必要です。
最低でも、Ceph ファイルシステム (CephFS) データ用のプール 1 つと CephFS メタデータ用のプール 1 つの 2 つのプールがあるようにしてください。
前提条件
- 稼働中の Red Hat Ceph Storage クラスターがある。
- ホストがクラスターに追加されている。
- すべてのマネージャー、モニター、および OSD デーモンがデプロイされます。
手順
Cephadm シェルにログインします。
例
cephadm shell
[root@host01 ~]# cephadm shellCopy to Clipboard Copied! Toggle word wrap Toggle overflow - 配置仕様を使用して MDS デーモンをデプロイする方法は 2 つあります。
方法 1
ceph fs volumeを使用して MDS デーモンを作成します。これにより、CephFS に関連付けられた CephFS ボリュームとプールが作成され、ホストで MDS サービスも開始されます。構文
ceph fs volume create FILESYSTEM_NAME --placement="NUMBER_OF_DAEMONS HOST_NAME_1 HOST_NAME_2 HOST_NAME_3"
ceph fs volume create FILESYSTEM_NAME --placement="NUMBER_OF_DAEMONS HOST_NAME_1 HOST_NAME_2 HOST_NAME_3"Copy to Clipboard Copied! Toggle word wrap Toggle overflow 注記デフォルトでは、このコマンドに対してレプリケートされたプールが作成されます。
例
[ceph: root@host01 /]# ceph fs volume create test --placement="2 host01 host02"
[ceph: root@host01 /]# ceph fs volume create test --placement="2 host01 host02"Copy to Clipboard Copied! Toggle word wrap Toggle overflow
方法 2
プール、CephFS を作成してから、配置仕様を使用して MDS サービスをデプロイします。
CephFS のプールを作成します。
構文
ceph osd pool create DATA_POOL [PG_NUM] ceph osd pool create METADATA_POOL [PG_NUM]
ceph osd pool create DATA_POOL [PG_NUM] ceph osd pool create METADATA_POOL [PG_NUM]Copy to Clipboard Copied! Toggle word wrap Toggle overflow 例
[ceph: root@host01 /]# ceph osd pool create cephfs_data 64 [ceph: root@host01 /]# ceph osd pool create cephfs_metadata 64
[ceph: root@host01 /]# ceph osd pool create cephfs_data 64 [ceph: root@host01 /]# ceph osd pool create cephfs_metadata 64Copy to Clipboard Copied! Toggle word wrap Toggle overflow 通常、メタデータプールは、データプールよりもオブジェクトがはるかに少ないため、控えめな数の配置グループ (PG) で開始できます。必要に応じて PG の数を増やすことができます。プールサイズの範囲は 64 PG ~ 512 PG です。データプールのサイズは、ファイルシステム内で予想されるファイルの数とサイズに比例します。
重要メタデータプールでは、以下を使用することを検討してください。
- このプールへのデータ損失によりファイルシステム全体にアクセスできなくなる可能性があるため、レプリケーションレベルが高くなります。
- Solid-State Drive (SSD) ディスクなどのレイテンシーが低くなるストレージ。これは、クライアントで観察されるファイルシステム操作のレイテンシーに直接影響するためです。
データプールおよびメタデータプールのファイルシステムを作成します。
構文
ceph fs new FILESYSTEM_NAME METADATA_POOL DATA_POOL
ceph fs new FILESYSTEM_NAME METADATA_POOL DATA_POOLCopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
[ceph: root@host01 /]# ceph fs new test cephfs_metadata cephfs_data
[ceph: root@host01 /]# ceph fs new test cephfs_metadata cephfs_dataCopy to Clipboard Copied! Toggle word wrap Toggle overflow ceph orch applyコマンドを使用して MDS サービスをデプロイします。構文
ceph orch apply mds FILESYSTEM_NAME --placement="NUMBER_OF_DAEMONS HOST_NAME_1 HOST_NAME_2 HOST_NAME_3"
ceph orch apply mds FILESYSTEM_NAME --placement="NUMBER_OF_DAEMONS HOST_NAME_1 HOST_NAME_2 HOST_NAME_3"Copy to Clipboard Copied! Toggle word wrap Toggle overflow 例
[ceph: root@host01 /]# ceph orch apply mds test --placement="2 host01 host02"
[ceph: root@host01 /]# ceph orch apply mds test --placement="2 host01 host02"Copy to Clipboard Copied! Toggle word wrap Toggle overflow
検証
サービスをリスト表示します。
例
[ceph: root@host01 /]# ceph orch ls
[ceph: root@host01 /]# ceph orch lsCopy to Clipboard Copied! Toggle word wrap Toggle overflow CephFS のステータスを確認します。
例
[ceph: root@host01 /]# ceph fs ls [ceph: root@host01 /]# ceph fs status
[ceph: root@host01 /]# ceph fs ls [ceph: root@host01 /]# ceph fs statusCopy to Clipboard Copied! Toggle word wrap Toggle overflow ホスト、デーモン、およびプロセスをリスト表示します。
構文
ceph orch ps --daemon_type=DAEMON_NAME
ceph orch ps --daemon_type=DAEMON_NAMECopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
[ceph: root@host01 /]# ceph orch ps --daemon_type=mds
[ceph: root@host01 /]# ceph orch ps --daemon_type=mdsCopy to Clipboard Copied! Toggle word wrap Toggle overflow
2.5.2. サービス仕様を使用した MDS サービスのデプロイ リンクのコピーリンクがクリップボードにコピーされました!
Ceph Orchestrator を使用すると、サービス仕様を使用して MDS サービスをデプロイできます。
少なくとも 2 つのプールがあることを確認してください。1 つは Ceph ファイルシステム (CephFS) データ用で、もう 1 つは CephFS メタデータ用です。
前提条件
- 稼働中の Red Hat Ceph Storage クラスターがある。
- ホストがクラスターに追加されている。
- すべてのマネージャー、モニター、および OSD デーモンがデプロイされます。
手順
mds.yamlファイルを作成します。例
touch mds.yaml
[root@host01 ~]# touch mds.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow mds.yamlファイルを編集し、以下の詳細を含めます。構文
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 例
Copy to Clipboard Copied! Toggle word wrap Toggle overflow YAML ファイルをコンテナー内のディレクトリーにマウントします。
例
cephadm shell --mount mds.yaml:/var/lib/ceph/mds/mds.yaml
[root@host01 ~]# cephadm shell --mount mds.yaml:/var/lib/ceph/mds/mds.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow そのディレクトリーに移動します。
例
[ceph: root@host01 /]# cd /var/lib/ceph/mds/
[ceph: root@host01 /]# cd /var/lib/ceph/mds/Copy to Clipboard Copied! Toggle word wrap Toggle overflow Cephadm シェルにログインします。
例
cephadm shell
[root@host01 ~]# cephadm shellCopy to Clipboard Copied! Toggle word wrap Toggle overflow 以下のディレクトリーに移動します。
例
[ceph: root@host01 /]# cd /var/lib/ceph/mds/
[ceph: root@host01 /]# cd /var/lib/ceph/mds/Copy to Clipboard Copied! Toggle word wrap Toggle overflow サービス仕様を使用して MDS サービスをデプロイします。
構文
ceph orch apply -i FILE_NAME.yaml
ceph orch apply -i FILE_NAME.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
[ceph: root@host01 mds]# ceph orch apply -i mds.yaml
[ceph: root@host01 mds]# ceph orch apply -i mds.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow MDS サービスがデプロイされ、機能したら、CephFS を作成します。
構文
ceph fs new CEPHFS_NAME METADATA_POOL DATA_POOL
ceph fs new CEPHFS_NAME METADATA_POOL DATA_POOLCopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
[ceph: root@host01 /]# ceph fs new test metadata_pool data_pool
[ceph: root@host01 /]# ceph fs new test metadata_pool data_poolCopy to Clipboard Copied! Toggle word wrap Toggle overflow
検証
サービスをリスト表示します。
例
[ceph: root@host01 /]# ceph orch ls
[ceph: root@host01 /]# ceph orch lsCopy to Clipboard Copied! Toggle word wrap Toggle overflow ホスト、デーモン、およびプロセスをリスト表示します。
構文
ceph orch ps --daemon_type=DAEMON_NAME
ceph orch ps --daemon_type=DAEMON_NAMECopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
[ceph: root@host01 /]# ceph orch ps --daemon_type=mds
[ceph: root@host01 /]# ceph orch ps --daemon_type=mdsCopy to Clipboard Copied! Toggle word wrap Toggle overflow
2.5.3. Ceph Orchestrator を使用した MDS サービスの削除 リンクのコピーリンクがクリップボードにコピーされました!
ceph orch rm コマンドを使用してサービスを削除できます。または、ファイルシステムおよび関連するプールを削除できます。
前提条件
- 稼働中の Red Hat Ceph Storage クラスターがある。
- すべてのノードへの root レベルのアクセス。
- ホストがクラスターに追加されている。
- ホストにデプロイされた MDS デーモン 1 つ以上。
手順
- MDS デーモンをクラスターから削除する方法は 2 つあります。
方法 1
CephFS ボリューム、関連するプール、およびサービスを削除します。
Cephadm シェルにログインします。
例
cephadm shell
[root@host01 ~]# cephadm shellCopy to Clipboard Copied! Toggle word wrap Toggle overflow 設定パラメーター
mon_allow_pool_deleteをtrueに設定します。例
[ceph: root@host01 /]# ceph config set mon mon_allow_pool_delete true
[ceph: root@host01 /]# ceph config set mon mon_allow_pool_delete trueCopy to Clipboard Copied! Toggle word wrap Toggle overflow ファイルシステムを削除します。
構文
ceph fs volume rm FILESYSTEM_NAME --yes-i-really-mean-it
ceph fs volume rm FILESYSTEM_NAME --yes-i-really-mean-itCopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
[ceph: root@host01 /]# ceph fs volume rm cephfs-new --yes-i-really-mean-it
[ceph: root@host01 /]# ceph fs volume rm cephfs-new --yes-i-really-mean-itCopy to Clipboard Copied! Toggle word wrap Toggle overflow このコマンドは、ファイルシステム、そのデータ、メタデータプールを削除します。また、有効な
ceph-mgrOrchestrator モジュールを使用して MDS を削除しようとします。
方法 2
ceph orch rmコマンドを使用して、クラスター全体から MDS サービスを削除します。サービスをリスト表示します。
例
[ceph: root@host01 /]# ceph orch ls
[ceph: root@host01 /]# ceph orch lsCopy to Clipboard Copied! Toggle word wrap Toggle overflow サービスの削除
構文
ceph orch rm SERVICE_NAME
ceph orch rm SERVICE_NAMECopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
[ceph: root@host01 /]# ceph orch rm mds.test
[ceph: root@host01 /]# ceph orch rm mds.testCopy to Clipboard Copied! Toggle word wrap Toggle overflow
検証
ホスト、デーモン、およびプロセスをリスト表示します。
構文
ceph orch ps
ceph orch psCopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
[ceph: root@host01 /]# ceph orch ps
[ceph: root@host01 /]# ceph orch psCopy to Clipboard Copied! Toggle word wrap Toggle overflow
2.6. ファイルシステムのアフィニティーを設定する リンクのコピーリンクがクリップボードにコピーされました!
特定の Ceph Metadata Server (MDS) に対する Ceph File System (CephFS) のアフィニティーを設定します。
前提条件
- 正常で稼働している Ceph File System。
- Ceph Monitor ノードへの root レベルのアクセス。
手順
Ceph File System の現在の状態を確認します。
例
Copy to Clipboard Copied! Toggle word wrap Toggle overflow ファイルシステムのアフィニティーを設定します。
構文
ceph config set STANDBY_DAEMON mds_join_fs FILE_SYSTEM_NAME
ceph config set STANDBY_DAEMON mds_join_fs FILE_SYSTEM_NAMECopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
ceph config set mds.b mds_join_fs cephfs01
[root@mon ~]# ceph config set mds.b mds_join_fs cephfs01Copy to Clipboard Copied! Toggle word wrap Toggle overflow Ceph MDS のフェイルオーバーイベントが発生すると、ファイルシステムはアフィニティーが設定されているスタンバイデーモンを優先します。
例
Copy to Clipboard Copied! Toggle word wrap Toggle overflow - 1
mds.bデーモンのファイルシステムダンプの出力にjoin_fscid=27が含まれるようになりました。
重要ファイルシステムがデグレードまたはアンダーサイズの状態である場合、ファイルシステムのアフィニティーを実施するためのフェイルオーバーは発生しません。
2.7. 複数のアクティブな Metadata Server デーモンの設定 リンクのコピーリンクがクリップボードにコピーされました!
複数のアクティブなメタデータサーバー (MDS) デーモンを設定し、大規模システムのメタデータのパフォーマンスを拡張します。
スタンバイ状態の MDS デーモンをすべてアクティブ状態に変換しないでください。Ceph File System (CephFS) は、高可用性を維持するために、少なくとも 1 つのスタンバイ MDS デーモンを必要とします。
前提条件
- MDS ノードでの Ceph 管理機能。
- Ceph Monitor ノードへの root レベルのアクセス。
手順
max_mdsパラメーターには、アクティブな MDS デーモンの数を設定してください。構文
ceph fs set NAME max_mds NUMBER
ceph fs set NAME max_mds NUMBERCopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
ceph fs set cephfs max_mds 2
[root@mon ~]# ceph fs set cephfs max_mds 2Copy to Clipboard Copied! Toggle word wrap Toggle overflow この例では、
cephfsという CephFS でアクティブな MDS デーモンの数を 2 つに増やしています。注記Ceph は、新しいランクを取るために予備の MDS デーモンが利用できる場合にのみ、CephFS の実際のランク数を増やします。
アクティブな MDS デーモンの数を確認します。
構文
ceph fs status NAME
ceph fs status NAMECopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
Copy to Clipboard Copied! Toggle word wrap Toggle overflow
関連情報
- 詳細は、Red Hat Ceph Storage ファイルシステムガイド の Metadata Server の状態 セクションを参照してください。
- 詳細は、Red Hat Ceph Storage File System ガイド の アクティブ MDS デーモンデーモンの数を減らす セクションを参照してください。
- 詳細は、Red Hat Ceph Storage 管理ガイド の Ceph ユーザーの管理 セクションを参照してください。
2.8. スタンバイデーモンの数の設定 リンクのコピーリンクがクリップボードにコピーされました!
各 Ceph File System (CephFS) では、健全であると判断するために必要なスタンバイデーモンの数を指定できます。この数には、ランク不具合を待っている standby-replay デーモンも含まれます。
前提条件
- Ceph Monitor ノードへの root レベルのアクセス。
手順
特定の CephFS のスタンバイデーモンの予想数を設定します。
構文
ceph fs set FS_NAME standby_count_wanted NUMBER
ceph fs set FS_NAME standby_count_wanted NUMBERCopy to Clipboard Copied! Toggle word wrap Toggle overflow 注記NUMBER を 0 にすると、デーモンのヘルスチェックが無効になります。
例
ceph fs set cephfs standby_count_wanted 2
[root@mon ~]# ceph fs set cephfs standby_count_wanted 2Copy to Clipboard Copied! Toggle word wrap Toggle overflow この例では、予想されるスタンバイデーモンの数を 2 に設定しています。
2.9. standby-replay 用 Metadata Server の設定 リンクのコピーリンクがクリップボードにコピーされました!
各 Ceph File System (CephFS) を設定して、standby-replay の Metadata Server (MDS) デーモンを追加します。これにより、アクティブな MDS が利用できなくなった場合のフェイルオーバー時間を短縮することができます。
この特定の standby-replay デーモンは、アクティブなデータシートのメタデータジャーナルに従います。standby-replay デーモンは、同一ランクのアクティブなデータシートでのみ使用され、他のランクでは使用できません。
standby-replay を使用する場合は、すべてのアクティブなデータシートに standby-replay デーモンが必要です。
前提条件
- Ceph Monitor ノードへの root レベルのアクセス。
手順
特定の CephFS の standby-replay を設定します。
構文
ceph fs set FS_NAME allow_standby_replay 1
ceph fs set FS_NAME allow_standby_replay 1Copy to Clipboard Copied! Toggle word wrap Toggle overflow 例
ceph fs set cephfs allow_standby_replay 1
[root@mon ~]# ceph fs set cephfs allow_standby_replay 1Copy to Clipboard Copied! Toggle word wrap Toggle overflow この例では、ブール値が
1であるため、standby-replay デーモンをアクティブな Ceph MDS デーモンに割り当てることができます。
2.10. エフェメラルピニングポリシー リンクのコピーリンクがクリップボードにコピーされました!
エフェメラルピンは、サブツリーの静的なパーティションであり、拡張属性を使用したポリシーで設定できます。ポリシーでは、ディレクトリーにエフェメラルピンを自動的に設定することができます。ディレクトリーにエフェメラルピンを設定すると、そのピンは自動的に特定のランクに割り当てられ、すべての Ceph MDS ランクに均一に分散されるようになります。どのランクが割り当てられるかは、一貫したハッシュとディレクトリーの inode 番号によって決定されます。エフェメラルピンは、ディレクトリーの inode がファイルシステムのキャッシュから削除されても持続しません。Ceph Metadata Server (MDS) をフェイルオーバーする際には、エフェメラルピンがジャーナルに記録されるため、Ceph MDS スタンバイサーバーがこの情報を失うことはありません。エフェメラルピンを使用する際のポリシーは 2 種類あります。
attr パッケージと jq パッケージのインストールは、エフェメラルピニングポリシーの前提条件です。
- Distributed (分散)
-
このポリシーでは、ディレクトリーの直接の子のすべてが、一時的にピン留めされなければならないことを強制します。たとえば、分散ポリシーを使用して、ユーザーのホームディレクトリーを Ceph File System クラスター全体に広げることができます。
ceph.dir.pin.distributed拡張属性を設定して、このポリシーを有効にします。
構文
setfattr -n ceph.dir.pin.distributed -v 1 DIRECTORY_PATH
setfattr -n ceph.dir.pin.distributed -v 1 DIRECTORY_PATH
例
setfattr -n ceph.dir.pin.distributed -v 1 dir1/
[root@host01 mount]# setfattr -n ceph.dir.pin.distributed -v 1 dir1/
- ランダム
-
このポリシーでは、子孫のサブディレクトリーが一時的にピン留めされる可能性があります。エフェメラルピン留めが可能なディレクトリーの割合をカスタマイズできます。
ceph.dir.pin.randomを設定し、パーセンテージを設定することで、このポリシーを有効にします。Red Hat では、このパーセンテージを 1% (0.01)より小さい値に設定することを推奨します。サブツリーのパーティションの数が多すぎると、パフォーマンスが低下します。mds_export_ephemeral_random_maxCeph MDS 設定オプションを設定することで、最大の割合を設定できます。パラメーターmds_export_ephemeral_distributedおよびmds_export_ephemeral_randomはすでに有効になっています。
構文
setfattr -n ceph.dir.pin.random -v PERCENTAGE_IN_DECIMAL DIRECTORY_PATH
setfattr -n ceph.dir.pin.random -v PERCENTAGE_IN_DECIMAL DIRECTORY_PATH
例
setfattr -n ceph.dir.pin.random -v 0.01 dir1/
[root@host01 mount]# setfattr -n ceph.dir.pin.random -v 0.01 dir1/
ピニングを有効にした後、次のいずれかのコマンドを実行して 確認 できます。
構文
getfattr -n ceph.dir.pin.random DIRECTORY_PATH getfattr -n ceph.dir.pin.distributed DIRECTORY_PATH
getfattr -n ceph.dir.pin.random DIRECTORY_PATH
getfattr -n ceph.dir.pin.distributed DIRECTORY_PATH
例
例
[ceph: root@host01 /]# ceph tell mds.a get subtrees | jq '.[] | [.dir.path, .auth_first, .export_pin]'
[ceph: root@host01 /]# ceph tell mds.a get subtrees | jq '.[] | [.dir.path, .auth_first, .export_pin]'
ディレクトリーが固定されている場合、export_pin の値は、ランク 0 に固定されている場合は 0、ランク 1 に固定されている場合は 1、などとなります。ディレクトリーが固定されていない場合、値は -1 です。
パーティション設定ポリシーを 削除 するには、拡張属性を削除するか、値を 0 に設定します。
構文
setfattr -n ceph.dir.pin.distributed -v 0 DIRECTORY_PATH
setfattr -n ceph.dir.pin.distributed -v 0 DIRECTORY_PATH
例
setfattr -n ceph.dir.pin.distributed -v 0 dir1/
[root@host01 mount]# setfattr -n ceph.dir.pin.distributed -v 0 dir1/
次のコマンドのいずれかを実行して 確認 できます。構文
getfattr -n ceph.dir.pin.distributed DIRECTORY_PATH
getfattr -n ceph.dir.pin.distributed DIRECTORY_PATH
例
getfattr -n ceph.dir.pin.distributed dir1/
[root@host01 mount]# getfattr -n ceph.dir.pin.distributed dir1/
エクスポートピンの場合は、拡張属性を削除するか、拡張属性を -1 に設定します。
構文
setfattr -n ceph.dir.pin -v -1 DIRECTORY_PATH
setfattr -n ceph.dir.pin -v -1 DIRECTORY_PATH
例
setfattr -n ceph.dir.pin -v -1 dir1/
[root@host01 mount]# setfattr -n ceph.dir.pin -v -1 dir1/
2.11. ディレクトリーツリーを特定のランクに手動で固定する リンクのコピーリンクがクリップボードにコピーされました!
メタデータを特定の Ceph Metadata Server (MDS) ランクに明示的にマッピングすることで、ダイナミックバランサーをオーバーライドしたい場合もあります。これを手動で行うことで、アプリケーションの負荷を均等に分散したり、ユーザーのメタデータ要求が Ceph File System クラスターに与える影響を抑えることができます。ディレクトリーを手動で固定することは、ceph.dir.pin 拡張属性を設定することで、エクスポートピンとも呼ばれます。
ディレクトリーのエクスポートピンは、最も近い親ディレクトリーから継承されますが、そのディレクトリーにエクスポートピンを設定することで、上書きすることができます。例えば、あるディレクトリーにエクスポートピンを設定すると、そのディレクトリーのすべてのサブディレクトリーに影響します。
mkdir -p a/b setfattr -n ceph.dir.pin -v 1 a/ setfattr -n ceph.dir.pin -v 0 a/b
[root@client ~]# mkdir -p a/b
[root@client ~]# setfattr -n ceph.dir.pin -v 1 a/
[root@client ~]# setfattr -n ceph.dir.pin -v 0 a/b
前提条件
- 稼働中の Red Hat Ceph Storage クラスターがある。
- 実行中の Ceph File System
- CephFS クライアントへのルートレベルのアクセス。
-
attrパッケージのインストール。
手順
ディレクトリーにエクスポートピンを設定します。
構文
setfattr -n ceph.dir.pin -v RANK PATH_TO_DIRECTORY
setfattr -n ceph.dir.pin -v RANK PATH_TO_DIRECTORYCopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
setfattr -n ceph.dir.pin -v 2 cephfs/home
[root@client ~]# setfattr -n ceph.dir.pin -v 2 cephfs/homeCopy to Clipboard Copied! Toggle word wrap Toggle overflow
2.12. アクティブな Metadata Server デーモンの数を減らす方法 リンクのコピーリンクがクリップボードにコピーされました!
アクティブな Ceph File System (CephFS) メタデータサーバー (MDS) デーモンの数を減らす方法。
前提条件
-
削除するランクは最初にアクティブにする必要があります。つまり、
max_mdsパラメーターで指定された MDS デーモンの数と同じである必要があります。 - Ceph Monitor ノードへの root レベルのアクセス。
手順
max_mdsパラメーターで指定された MDS デーモンの数を設定します。構文
ceph fs status NAME
ceph fs status NAMECopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 管理機能を持つノードで、
max_mdsパラメーターを必要なアクティブな MDS デーモンの数に変更します。構文
ceph fs set NAME max_mds NUMBER
ceph fs set NAME max_mds NUMBERCopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
ceph fs set cephfs max_mds 1
[root@mon ~]# ceph fs set cephfs max_mds 1Copy to Clipboard Copied! Toggle word wrap Toggle overflow -
Ceph File System のステータスを監視して、ストレージクラスターが新しい
max_mds値を安定させるのを待機します。 アクティブな MDS デーモンの数を確認します。
構文
ceph fs status NAME
ceph fs status NAMECopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
Copy to Clipboard Copied! Toggle word wrap Toggle overflow
関連情報
- Red Hat Ceph Storage ファイルシステムガイド の Metadata Server デーモンの状態 セクションを参照してください。
- Red Hat Ceph Storage ファイルシステムガイド の 複数のアクティブな Metadata Server デーモンの設定 セクションを参照してください。
- Red Hat Ceph Storage クラスターのインストールの詳細は、Red Hat Ceph Storage インストールガイド を参照してください。
2.13. Ceph メタデータサーバークライアントのメトリクスを表示する リンクのコピーリンクがクリップボードにコピーされました!
コマンドラインインターフェイスを使用して、Ceph メタデータサーバー (MDS) のメトリクスを表示できます。CephFS は、Perf Counters を使用してメトリクスを追跡します。counter dump コマンドを使用してメトリクスを表示できます。
前提条件
- 実行中の IBM Storage Ceph クラスター。
手順
mdsサービスの名前を取得します。構文
[ceph: root@mds-host01 /]# ceph orch ps | grep mds
[ceph: root@mds-host01 /]# ceph orch ps | grep mdsCopy to Clipboard Copied! Toggle word wrap Toggle overflow クライアントメトリクスごとの MDS を確認します。
構文
[ceph: root@mds-host01 /]# ceph tell MDS_SERVICE_NAME counter dump
[ceph: root@mds-host01 /]# ceph tell MDS_SERVICE_NAME counter dumpCopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
Copy to Clipboard Copied! Toggle word wrap Toggle overflow
クライアントメトリクスの説明
CephFS はクライアントメトリクスを、クライアントのパフォーマンスを監視するために使用できるラベル付きパフォーマンスカウンターとしてエクスポートします。CephFS は以下のクライアントメトリクスをエクスポートします。
| 名前 | タイプ | 説明 |
|---|---|---|
| cap_hits | ゲージ | キャップ総数に対するファイル機能ヒットの割合。 |
| cap_miss | ゲージ | キャップ総数に対するファイル機能ミスの割合。 |
| avg_read_latency | ゲージ | 読み取りレイテンシーの平均値。 |
| avg_write_latency | ゲージ | 書き込みレイテンシーの平均値。 |
| avg_metadata_latency | ゲージ | メタデータレイテンシーの平均値。 |
| dentry_lease_hits | ゲージ | dentry リース要求総数に対する配布された dentry リースヒットの割合。 |
| dentry_lease_miss | ゲージ | dentry リース要求総数に対する配布された dentry リースミスの割合。 |
| opened_files | ゲージ | 開かれたファイルの数。 |
| opened_inodes | ゲージ | 開かれた inode の数。 |
| pinned_icaps | ゲージ | 固定された Inode キャップの数。 |
| total_inodes | ゲージ | ノードの総数。 |
| total_read_ops | ゲージ | すべてのプロセスで生成された読み取り操作の総数。 |
| total_read_size | ゲージ | すべてのプロセスで生成された入出力操作で読み取られたバイト数。 |
| total_write_ops | ゲージ | すべてのプロセスで生成された書き込み操作の総数。 |
| total_write_size | ゲージ | すべてのプロセスで生成された入出力操作で書き込まれたバイト数。 |
第3章 Ceph File System のデプロイメント リンクのコピーリンクがクリップボードにコピーされました!
ストレージ管理者は、ストレージ環境に Ceph File Systems (CephFS) をデプロイでき、ストレージのニーズを満たすためにクライアントがそれらの Ceph File System をマウントすることができます。
基本的に、デプロイメントワークフローは以下の 3 つのステップになります。
- Ceph Monitor ノードで Ceph File Systems を作成します。
- 適切な機能を持つ Ceph クライアントユーザーを作成し、Ceph File System がマウントされるノードでクライアントキーを利用できるようにします。
- カーネルクライアントまたは File System in User Space (FUSE) クライアントで使用して、専用のノードに CephFS をマウントします。
前提条件
- 実行中、および正常な Red Hat Ceph Storage クラスター
-
Ceph Metadata Server デーモン (
ceph-mds) のインストールおよび設定
3.1. レイアウト、クォータ、スナップショット、およびネットワークの制限 リンクのコピーリンクがクリップボードにコピーされました!
これらのユーザー機能は、必要な要件に基づいて Ceph File System (CephFS) へのアクセスを制限するのに役立ちます。
rw を除くすべてのユーザーケイパビリティーフラグは、アルファベット順に指定する必要があります。
レイアウトとクォータ
レイアウトまたはクォータを使用する場合には、rw 機能に加えて、クライアントが p フラグが必要になります。p フラグを設定すると、特殊拡張属性 (ceph. 接頭辞が付いた属性) で設定されるすべての属性を制限します。また、これによりレイアウトを持つ openc 操作など、これらのフィールドを設定する他の方法が制限されます。
例
この例では、client.0 はファイルシステムの cephfs_a のレイアウトとクォータを修正できますが、client.1 はできません。
スナップショット
スナップショットの作成または削除時に、クライアントは rw 機能に加えて s フラグが必要になります。機能文字列に p フラグも含まれる場合は、s フラグがこれの後に表示される必要があります。
例
client.0
key: AQAz7EVWygILFRAAdIcuJ10opU/JKyfFmxhuaw==
caps: [mds] allow rw, allow rws path=/temp
caps: [mon] allow r
caps: [osd] allow rw tag cephfs data=cephfs_a
client.0
key: AQAz7EVWygILFRAAdIcuJ10opU/JKyfFmxhuaw==
caps: [mds] allow rw, allow rws path=/temp
caps: [mon] allow r
caps: [osd] allow rw tag cephfs data=cephfs_a
この例では、client.0 はファイルシステムの cephfs_a の temp ディレクトリーでスナップショットを作成または削除することができます。
ネットワーク
特定のネットワークから接続するクライアントを制限します。
例
client.0 key: AQAz7EVWygILFRAAdIcuJ10opU/JKyfFmxhuaw== caps: [mds] allow r network 10.0.0.0/8, allow rw path=/bar network 10.0.0.0/8 caps: [mon] allow r network 10.0.0.0/8 caps: [osd] allow rw tag cephfs data=cephfs_a network 10.0.0.0/8
client.0
key: AQAz7EVWygILFRAAdIcuJ10opU/JKyfFmxhuaw==
caps: [mds] allow r network 10.0.0.0/8, allow rw path=/bar network 10.0.0.0/8
caps: [mon] allow r network 10.0.0.0/8
caps: [osd] allow rw tag cephfs data=cephfs_a network 10.0.0.0/8
オプションのネットワークおよび接頭辞長は CIDR 表記です (例: 10.3.0.0/16)。
関連情報
- Ceph ユーザー機能の設定に関する詳細は、Red Hat Ceph Storage File System ガイド の Ceph File System のクライアント セクションを参照してください。
3.2. Ceph ファイルシステムの作成 リンクのコピーリンクがクリップボードにコピーされました!
Ceph Monitor ノードで複数の Ceph File Systems (CephFS) を作成することができます。
前提条件
- 実行中、および正常な Red Hat Ceph Storage クラスター
-
Ceph Metadata Server デーモン (
ceph-mds) のインストールおよび設定 - Ceph Monitor ノードへの root レベルのアクセス。
- Ceph クライアントノードへのルートレベルのアクセスがある。
手順
Ceph Storage クラスターを使用するようにクライアントノードを設定します。
Red Hat Ceph Storage Tools リポジトリーを有効にします。
Red Hat Enterprise Linux 8
subscription-manager repos --enable=rhceph-6-tools-for-rhel-8-x86_64-rpms
[root@client01 ~]# subscription-manager repos --enable=rhceph-6-tools-for-rhel-8-x86_64-rpmsCopy to Clipboard Copied! Toggle word wrap Toggle overflow Red Hat Enterprise Linux 9
subscription-manager repos --enable=rhceph-6-tools-for-rhel-9-x86_64-rpms
[root@client01 ~]# subscription-manager repos --enable=rhceph-6-tools-for-rhel-9-x86_64-rpmsCopy to Clipboard Copied! Toggle word wrap Toggle overflow ceph-fuseパッケージをインストールします。dnf install ceph-fuse
[root@client ~]# dnf install ceph-fuseCopy to Clipboard Copied! Toggle word wrap Toggle overflow Ceph クライアントキーリングを Ceph Monitor ノードからクライアントノードにコピーします。
構文
scp root@MONITOR_NODE_NAME:/etc/ceph/KEYRING_FILE /etc/ceph/
scp root@MONITOR_NODE_NAME:/etc/ceph/KEYRING_FILE /etc/ceph/Copy to Clipboard Copied! Toggle word wrap Toggle overflow MONITOR_NODE_NAME は、Ceph Monitor ホスト名または IP アドレスに置き換えます。
例
scp root@192.168.0.1:/etc/ceph/ceph.client.1.keyring /etc/ceph/
[root@client ~]# scp root@192.168.0.1:/etc/ceph/ceph.client.1.keyring /etc/ceph/Copy to Clipboard Copied! Toggle word wrap Toggle overflow Ceph 設定ファイルを Monitor ノードからクライアントノードにコピーします。
構文
scp root@MONITOR_NODE_NAME:/etc/ceph/ceph.conf /etc/ceph/ceph.conf
scp root@MONITOR_NODE_NAME:/etc/ceph/ceph.conf /etc/ceph/ceph.confCopy to Clipboard Copied! Toggle word wrap Toggle overflow MONITOR_NODE_NAME は、Ceph Monitor ホスト名または IP アドレスに置き換えます。
例
scp root@192.168.0.1:/etc/ceph/ceph.conf /etc/ceph/ceph.conf
[root@client ~]# scp root@192.168.0.1:/etc/ceph/ceph.conf /etc/ceph/ceph.confCopy to Clipboard Copied! Toggle word wrap Toggle overflow 設定ファイルに適切なパーミッションを設定します。
chmod 644 /etc/ceph/ceph.conf
[root@client ~]# chmod 644 /etc/ceph/ceph.confCopy to Clipboard Copied! Toggle word wrap Toggle overflow
Ceph ファイルシステムを作成します。
構文
ceph fs volume create FILE_SYSTEM_NAME
ceph fs volume create FILE_SYSTEM_NAMECopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
ceph fs volume create cephfs01
[root@mon ~]# ceph fs volume create cephfs01Copy to Clipboard Copied! Toggle word wrap Toggle overflow この手順を繰り返して、追加のファイルシステムを作成します。
注記このコマンドを実行すると、Ceph は新しいプールを自動的に作成し、新しいファイルシステムをサポートする新たな Ceph Metadata Server (MDS) デーモンをデプロイします。また、これにより MDS アフィニティーを適宜設定します。
Ceph クライアントから新しい Ceph File System へのアクセスを確認します。
Ceph クライアントが新しいファイルシステムへのアクセスを承認します。
構文
ceph fs authorize FILE_SYSTEM_NAME CLIENT_NAME DIRECTORY PERMISSIONS
ceph fs authorize FILE_SYSTEM_NAME CLIENT_NAME DIRECTORY PERMISSIONSCopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 注記必要に応じて、
root_squashオプションを指定することで安全対策を追加できます。これにより、uid=0またはgid=0のクライアントが書き込み操作を行うのを許可することで、誤って削除のシナリオは阻止されますが、読み取り操作は引き続き許可されます。例
Copy to Clipboard Copied! Toggle word wrap Toggle overflow この例では、
/volumesディレクトリーツリー内ではファイルシステムcephfs01に対してroot_squashが有効になります。重要Ceph クライアントは、それが承認されている CephFS のみを認識することができます。
Ceph ユーザーのキーリングを Ceph クライアントノードにコピーします。
構文
ceph auth get CLIENT_NAME > OUTPUT_FILE_NAME scp OUTPUT_FILE_NAME TARGET_NODE_NAME:/etc/ceph
ceph auth get CLIENT_NAME > OUTPUT_FILE_NAME scp OUTPUT_FILE_NAME TARGET_NODE_NAME:/etc/cephCopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
ceph auth get client.1 > ceph.client.1.keyring scp ceph.client.1.keyring client:/etc/ceph
[root@mon ~]# ceph auth get client.1 > ceph.client.1.keyring exported keyring for client.1 [root@mon ~]# scp ceph.client.1.keyring client:/etc/ceph root@client's password: ceph.client.1.keyring 100% 178 333.0KB/s 00:00Copy to Clipboard Copied! Toggle word wrap Toggle overflow Ceph クライアントノードで、新しいディレクトリーを作成します。
構文
mkdir PATH_TO_NEW_DIRECTORY_NAME
mkdir PATH_TO_NEW_DIRECTORY_NAMECopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
mkdir /mnt/mycephfs
[root@client ~]# mkdir /mnt/mycephfsCopy to Clipboard Copied! Toggle word wrap Toggle overflow Ceph クライアントノードで、新しい Ceph File System をマウントします。
構文
ceph-fuse PATH_TO_NEW_DIRECTORY_NAME -n CEPH_USER_NAME --client-fs=_FILE_SYSTEM_NAME
ceph-fuse PATH_TO_NEW_DIRECTORY_NAME -n CEPH_USER_NAME --client-fs=_FILE_SYSTEM_NAMECopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
ceph-fuse /mnt/mycephfs/ -n client.1 --client-fs=cephfs01
[root@client ~]# ceph-fuse /mnt/mycephfs/ -n client.1 --client-fs=cephfs01 ceph-fuse[555001]: starting ceph client 2022-05-09T07:33:27.158+0000 7f11feb81200 -1 init, newargv = 0x55fc4269d5d0 newargc=15 ceph-fuse[555001]: starting fuseCopy to Clipboard Copied! Toggle word wrap Toggle overflow - Ceph クライアントノードで、新しいマウントポイントのディレクトリーコンテンツをリスト表示するか、新しいマウントポイントにファイルを作成します。
3.3. Ceph ファイルシステムへのイレイジャーコーディングされたプールの追加 リンクのコピーリンクがクリップボードにコピーされました!
デフォルトでは、Ceph はデータプールにレプリケートされたプールを使用します。必要に応じて、Ceph File System に新たなイレイジャーコーディングデータプールを追加することもできます。イレイジャーコーディングプールが対応する Ceph File Systems (CephFS) は、複製されたプールでサポートされる Ceph File Systems と比較して、全体的なストレージの使用量を使用します。イレイジャーコーディングされたプールは、全体的なストレージを使用しますが、レプリケートされたプールよりも多くのメモリーおよびプロセッサーリソースを使用します。
CephFS EC プールはアーカイブのみを目的としています。
実稼働環境では、CephFS にデフォルトのレプリケートデータプールを使用することを推奨します。CephFS で inode を作成すると、デフォルトのデータプールに少なくとも 1 つのオブジェクトが作成されます。デフォルトのデータにレプリケートされたプールを使用すると、小規模なオブジェクト書き込みパフォーマンスを向上し、バックトレースを更新する読み取りパフォーマンスが向上します。
前提条件
- 稼働中の Red Hat Ceph Storage クラスターがある。
- 既存の Ceph File System。
- BlueStore OSD を使用するプール。
- Ceph Monitor ノードへの root レベルのアクセス。
-
attrパッケージのインストール。
手順
CephFS 用のイレイジャーコーディングデータプールを作成します。
構文
ceph osd pool create DATA_POOL_NAME erasure
ceph osd pool create DATA_POOL_NAME erasureCopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
ceph osd pool create cephfs-data-ec01 erasure
[root@mon ~]# ceph osd pool create cephfs-data-ec01 erasure pool 'cephfs-data-ec01' createdCopy to Clipboard Copied! Toggle word wrap Toggle overflow プールが追加されたことを確認します。
例
ceph osd lspools
[root@mon ~]# ceph osd lspoolsCopy to Clipboard Copied! Toggle word wrap Toggle overflow 消去コード化されたプールでのオーバーライトを有効にします。
構文
ceph osd pool set DATA_POOL_NAME allow_ec_overwrites true
ceph osd pool set DATA_POOL_NAME allow_ec_overwrites trueCopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
ceph osd pool set cephfs-data-ec01 allow_ec_overwrites true
[root@mon ~]# ceph osd pool set cephfs-data-ec01 allow_ec_overwrites true set pool 15 allow_ec_overwrites to trueCopy to Clipboard Copied! Toggle word wrap Toggle overflow Ceph File System のステータスを確認します。
構文
ceph fs status FILE_SYSTEM_NAME
ceph fs status FILE_SYSTEM_NAMECopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 既存の CephFS にイレイジャーコーディングのデータプールを追加します。
構文
ceph fs add_data_pool FILE_SYSTEM_NAME DATA_POOL_NAME
ceph fs add_data_pool FILE_SYSTEM_NAME DATA_POOL_NAMECopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
ceph fs add_data_pool cephfs-ec cephfs-data-ec01
[root@mon ~]# ceph fs add_data_pool cephfs-ec cephfs-data-ec01Copy to Clipboard Copied! Toggle word wrap Toggle overflow この例では、新しいデータプール
cephfs-data-ec01を、既存のイレイジャーコーディングのファイルシステムcephfs-ecに追加します。イレイジャーコーディングされたプールが Ceph File System に追加されていることを確認します。
構文
ceph fs status FILE_SYSTEM_NAME
ceph fs status FILE_SYSTEM_NAMECopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 新しいディレクトリーにファイルレイアウトを設定します。
構文
mkdir PATH_TO_DIRECTORY setfattr -n ceph.dir.layout.pool -v DATA_POOL_NAME PATH_TO_DIRECTORY
mkdir PATH_TO_DIRECTORY setfattr -n ceph.dir.layout.pool -v DATA_POOL_NAME PATH_TO_DIRECTORYCopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
mkdir /mnt/cephfs/newdir setfattr -n ceph.dir.layout.pool -v cephfs-data-ec01 /mnt/cephfs/newdir
[root@mon ~]# mkdir /mnt/cephfs/newdir [root@mon ~]# setfattr -n ceph.dir.layout.pool -v cephfs-data-ec01 /mnt/cephfs/newdirCopy to Clipboard Copied! Toggle word wrap Toggle overflow この例では、
/mnt/cephfs/newdirディレクトリーで作成されるすべての新しいファイルは、ディレクトリーレイアウトを継承して、新たに追加したレイジャーコーディングプールにデータを配置します。
関連情報
- CephFS MDS の詳細は、Red Hat Ceph Storage File System ガイド の Ceph File System Metadata Server を参照してください。
- 詳細は、Red Hat Ceph Storage File System ガイド の Ceph File Systems の作成 セクションを参照してください。
- 詳細は、Red Hat Ceph Storage ストレージストラテジーガイド の イレイジャーコードプール を参照してください。
- 詳細は、Red Hat Ceph Storage ストレージストラテジーガイド の 上書きによるイレイジャーコーディング セクションを参照してください。
3.4. Ceph ファイルシステム用のクライアントユーザーの作成 リンクのコピーリンクがクリップボードにコピーされました!
Red Hat Ceph Storage は認証に cephx を使用します。これはデフォルトで有効になります。Ceph File System で cephx を使用するには、Ceph Monitor ノードで正しい承認機能を持つユーザーを作成し、そのキーを Ceph File System がマウントされるノードで利用できるようにします。
前提条件
- 稼働中の Red Hat Ceph Storage クラスターがある。
- Ceph Metadata Server デーモン (ceph-mds) のインストールおよび設定
- Ceph Monitor ノードへの root レベルのアクセス。
- Ceph クライアントノードへのルートレベルのアクセスがある。
手順
モニターノードの Cephadm シェルにログインします。
例
cephadm shell
[root@host01 ~]# cephadm shellCopy to Clipboard Copied! Toggle word wrap Toggle overflow Ceph Monitor ノードで、クライアントユーザーを作成します。
構文
ceph fs authorize FILE_SYSTEM_NAME client.CLIENT_NAME /DIRECTORY CAPABILITY [/DIRECTORY CAPABILITY] PERMISSIONS ...
ceph fs authorize FILE_SYSTEM_NAME client.CLIENT_NAME /DIRECTORY CAPABILITY [/DIRECTORY CAPABILITY] PERMISSIONS ...Copy to Clipboard Copied! Toggle word wrap Toggle overflow クライアントを、ファイルシステム
cephfs_aのtempディレクトリーでのみ書き込みするよう制限するには、以下を実行します。例
[ceph: root@host01 /]# ceph fs authorize cephfs_a client.1 / r /temp rw client.1 key = AQBSdFhcGZFUDRAAcKhG9Cl2HPiDMMRv4DC43A==
[ceph: root@host01 /]# ceph fs authorize cephfs_a client.1 / r /temp rw client.1 key = AQBSdFhcGZFUDRAAcKhG9Cl2HPiDMMRv4DC43A==Copy to Clipboard Copied! Toggle word wrap Toggle overflow クライアントを
tempディレクトリーに完全に制限するには、root (/) ディレクトリーを削除します。例
[ceph: root@host01 /]# ceph fs authorize cephfs_a client.1 /temp rw
[ceph: root@host01 /]# ceph fs authorize cephfs_a client.1 /temp rwCopy to Clipboard Copied! Toggle word wrap Toggle overflow
注記ファイルシステム名、
allまたはアスタリスク (*) をファイルシステム名として指定することにより、すべてのファイルシステムへのアクセスが付与されます。通常、シェルから保護するには、アスタリスクを引用符で囲む必要があります。作成したキーを確認します。
構文
ceph auth get client.ID
ceph auth get client.IDCopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
Copy to Clipboard Copied! Toggle word wrap Toggle overflow キーリングをクライアントにコピーします。
Ceph Monitor ノードで、キーリングをファイルにエクスポートします。
構文
ceph auth get client.ID -o ceph.client.ID.keyring
ceph auth get client.ID -o ceph.client.ID.keyringCopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
[ceph: root@host01 /]# ceph auth get client.1 -o ceph.client.1.keyring exported keyring for client.1
[ceph: root@host01 /]# ceph auth get client.1 -o ceph.client.1.keyring exported keyring for client.1Copy to Clipboard Copied! Toggle word wrap Toggle overflow Ceph Monitor ノードからクライアントノードの
/etc/ceph/ディレクトリーに、クライアントキーリングをコピーします。構文
scp /ceph.client.ID.keyring root@CLIENT_NODE_NAME:/etc/ceph/ceph.client.ID.keyring
scp /ceph.client.ID.keyring root@CLIENT_NODE_NAME:/etc/ceph/ceph.client.ID.keyringCopy to Clipboard Copied! Toggle word wrap Toggle overflow CLIENT_NODE_NAME を Ceph クライアントのノード名または IP に置き換えます。
例
[ceph: root@host01 /]# scp /ceph.client.1.keyring root@client01:/etc/ceph/ceph.client.1.keyring
[ceph: root@host01 /]# scp /ceph.client.1.keyring root@client01:/etc/ceph/ceph.client.1.keyringCopy to Clipboard Copied! Toggle word wrap Toggle overflow
クライアントノードから、キーリングファイルに適切なパーミッションを設定します。
構文
chmod 644 ceph.client.ID.keyring
chmod 644 ceph.client.ID.keyringCopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
chmod 644 /etc/ceph/ceph.client.1.keyring
[root@client01 ~]# chmod 644 /etc/ceph/ceph.client.1.keyringCopy to Clipboard Copied! Toggle word wrap Toggle overflow
関連情報
- 詳細は、Red Hat Ceph Storage 管理ガイド の Ceph ユーザー管理 の章を参照してください。
3.5. Ceph File System のカーネルクライアントとしてのマウント リンクのコピーリンクがクリップボードにコピーされました!
Ceph File System (CephFS) は、システムの起動時に手動で、または自動でカーネルクライアントとしてマウントできます。
Red Hat Enterprise Linux の他に、他の Linux ディストリビューションで実行しているクライアントは許可されますが、サポートされていません。これらのクライアントの使用時に、CephFS Metadata Server またはその他のストレージクラスターで問題が見つかる場合、Red Hat はそれらに対応します。原因がクライアント側にある場合は、Linux ディストリビューションのカーネルベンダーがこの問題に対応する必要があります。
前提条件
- Linux ベースのクライアントノードへのルートレベルのアクセス。
- Ceph Monitor ノードへの root レベルのアクセス。
- 既存の Ceph File System。
手順
Ceph Storage クラスターを使用するようにクライアントノードを設定します。
Red Hat Ceph Storage 7 Tools リポジトリーを有効にします。
Red Hat Enterprise Linux 9
subscription-manager repos --enable=rhceph-6-tools-for-rhel-9-x86_64-rpms
[root@client01 ~]# subscription-manager repos --enable=rhceph-6-tools-for-rhel-9-x86_64-rpmsCopy to Clipboard Copied! Toggle word wrap Toggle overflow ceph-commonパッケージをインストールします。dnf install ceph-common
[root@client01 ~]# dnf install ceph-commonCopy to Clipboard Copied! Toggle word wrap Toggle overflow モニターノードの Cephadm シェルにログインします。
例
cephadm shell
[root@host01 ~]# cephadm shellCopy to Clipboard Copied! Toggle word wrap Toggle overflow Ceph クライアントキーリングを Ceph Monitor ノードからクライアントノードにコピーします。
構文
scp /ceph.client.ID.keyring root@CLIENT_NODE_NAME:/etc/ceph/ceph.client.ID.keyring
scp /ceph.client.ID.keyring root@CLIENT_NODE_NAME:/etc/ceph/ceph.client.ID.keyringCopy to Clipboard Copied! Toggle word wrap Toggle overflow CLIENT_NODE_NAME を Ceph クライアントのホスト名または IP アドレスに置き換えます。
例
[ceph: root@host01 /]# scp /ceph.client.1.keyring root@client01:/etc/ceph/ceph.client.1.keyring
[ceph: root@host01 /]# scp /ceph.client.1.keyring root@client01:/etc/ceph/ceph.client.1.keyringCopy to Clipboard Copied! Toggle word wrap Toggle overflow Ceph 設定ファイルを Monitor ノードからクライアントノードにコピーします。
構文
scp /etc/ceph/ceph.conf root@CLIENT_NODE_NAME:/etc/ceph/ceph.conf
scp /etc/ceph/ceph.conf root@CLIENT_NODE_NAME:/etc/ceph/ceph.confCopy to Clipboard Copied! Toggle word wrap Toggle overflow CLIENT_NODE_NAME を Ceph クライアントのホスト名または IP アドレスに置き換えます。
例
[ceph: root@host01 /]# scp /etc/ceph/ceph.conf root@client01:/etc/ceph/ceph.conf
[ceph: root@host01 /]# scp /etc/ceph/ceph.conf root@client01:/etc/ceph/ceph.confCopy to Clipboard Copied! Toggle word wrap Toggle overflow クライアントノードから、設定ファイルに適切なパーミッションを設定します。
chmod 644 /etc/ceph/ceph.conf
[root@client01 ~]# chmod 644 /etc/ceph/ceph.confCopy to Clipboard Copied! Toggle word wrap Toggle overflow - automatically または manually のいずれかを選択します。
Manually Mounting
クライアントノードにマウントディレクトリーを作成します。
構文
mkdir -p MOUNT_POINT
mkdir -p MOUNT_POINTCopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
mkdir -p /mnt/cephfs
[root@client01 ~]# mkdir -p /mnt/cephfsCopy to Clipboard Copied! Toggle word wrap Toggle overflow Ceph ファイルシステムをマウントします。複数の Ceph Monitor アドレスを指定するには、
mountコマンドでコンマで区切って、マウントポイントを指定し、クライアント名を設定します。注記Red Hat Ceph Storage 4.1 の時点で、
mount.cephはキーリングファイルを直接読み取りできます。そのため、シークレットファイルは不要になりました。name=CLIENT_IDでクライアント ID を指定すると、mount.cephは適切なキーリングファイルを検索します。構文
mount -t ceph MONITOR-1_NAME:6789,MONITOR-2_NAME:6789,MONITOR-3_NAME:6789:/ MOUNT_POINT -o name=CLIENT_ID,fs=FILE_SYSTEM_NAME
mount -t ceph MONITOR-1_NAME:6789,MONITOR-2_NAME:6789,MONITOR-3_NAME:6789:/ MOUNT_POINT -o name=CLIENT_ID,fs=FILE_SYSTEM_NAMECopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
mount -t ceph mon1:6789,mon2:6789,mon3:6789:/ /mnt/cephfs -o name=1,fs=cephfs01
[root@client01 ~]# mount -t ceph mon1:6789,mon2:6789,mon3:6789:/ /mnt/cephfs -o name=1,fs=cephfs01Copy to Clipboard Copied! Toggle word wrap Toggle overflow 注記1 つのホスト名が複数の IP アドレスに解決するように DNS サーバーを設定できます。次に、コンマ区切りリストを指定する代わりに、
mountコマンドでその 1 つのホスト名を使用できます。注記また、Monitor ホスト名は
:/に置き換えられ、mount.cephは Ceph 設定ファイルを読み取り、どのモニターに接続するかを判断することもできます。注記nowsyncオプションを設定して、Red Hat Ceph Storage クラスターでファイルの作成と削除を非同期的に実行できます。これにより、整合性に影響を与えずにこれらのシステムコールのラウンドトリップレイテンシーを回避することで、一部のワークロードのパフォーマンスが改善されます。nowsyncオプションには、Red Hat Enterprise Linux 9.0 以降を搭載したカーネルクライアントが必要です。例
mount -t ceph mon1:6789,mon2:6789,mon3:6789:/ /mnt/cephfs -o nowsync,name=1,fs=cephfs01
[root@client01 ~]# mount -t ceph mon1:6789,mon2:6789,mon3:6789:/ /mnt/cephfs -o nowsync,name=1,fs=cephfs01Copy to Clipboard Copied! Toggle word wrap Toggle overflow ファイルシステムが正常にマウントされていることを確認します。
構文
stat -f MOUNT_POINT
stat -f MOUNT_POINTCopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
stat -f /mnt/cephfs
[root@client01 ~]# stat -f /mnt/cephfsCopy to Clipboard Copied! Toggle word wrap Toggle overflow
自動マウント
クライアントホストで、Ceph ファイルシステムをマウントする新しいディレクトリーを作成します。
構文
mkdir -p MOUNT_POINT
mkdir -p MOUNT_POINTCopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
mkdir -p /mnt/cephfs
[root@client01 ~]# mkdir -p /mnt/cephfsCopy to Clipboard Copied! Toggle word wrap Toggle overflow 以下のように
/etc/fstabファイルを編集します。構文
#DEVICE PATH TYPE OPTIONS MON_0_HOST:PORT, MOUNT_POINT ceph name=CLIENT_ID, MON_1_HOST:PORT, ceph.client_mountpoint=/VOL/SUB_VOL_GROUP/SUB_VOL/UID_SUB_VOL, fs=FILE_SYSTEM_NAME, MON_2_HOST:PORT:/q[_VOL_]/SUB_VOL/UID_SUB_VOL, [ADDITIONAL_OPTIONS]
#DEVICE PATH TYPE OPTIONS MON_0_HOST:PORT, MOUNT_POINT ceph name=CLIENT_ID, MON_1_HOST:PORT, ceph.client_mountpoint=/VOL/SUB_VOL_GROUP/SUB_VOL/UID_SUB_VOL, fs=FILE_SYSTEM_NAME, MON_2_HOST:PORT:/q[_VOL_]/SUB_VOL/UID_SUB_VOL, [ADDITIONAL_OPTIONS]Copy to Clipboard Copied! Toggle word wrap Toggle overflow 最初の列 は、Ceph Monitor ホスト名とポート番号を設定します。
2 列目 は、マウントポイントを設定します。
3 列目 は、ファイルシステムのタイプ (ここでは CephFS 用
ceph) を設定します。4 番目のコラム は、
nameおよびsecretfileオプションを使用してユーザー名やシークレットファイルなどのさまざまなオプションを設定します。ceph.client_mountpointオプションを使用して、特定のボリューム、サブボリューム、およびサブボリュームを設定できます。ネットワークサブシステムの開始後にファイルシステムがマウントされ、ハングやネットワークの問題を回避するために、
_netdevオプションを設定します。アクセス時間情報が必要ない場合は、noatimeオプションを設定するとパフォーマンスが向上します。5 番目のコラムと 6 番目のコラム をゼロに設定します。
例
#DEVICE PATH TYPE OPTIONS DUMP FSCK mon1:6789, /mnt/cephfs ceph name=1, 0 0 mon2:6789, ceph.client_mountpoint=/my_vol/my_sub_vol_group/my_sub_vol/0, mon3:6789:/ fs=cephfs01, _netdev,noatime#DEVICE PATH TYPE OPTIONS DUMP FSCK mon1:6789, /mnt/cephfs ceph name=1, 0 0 mon2:6789, ceph.client_mountpoint=/my_vol/my_sub_vol_group/my_sub_vol/0, mon3:6789:/ fs=cephfs01, _netdev,noatimeCopy to Clipboard Copied! Toggle word wrap Toggle overflow Ceph File System は、次回のシステム起動時にマウントされます。
注記Red Hat Ceph Storage 4.1 の時点で、
mount.cephはキーリングファイルを直接読み取りできます。そのため、シークレットファイルは不要になりました。name=CLIENT_IDでクライアント ID を指定すると、mount.cephは適切なキーリングファイルを検索します。注記また、Monitor ホスト名は
:/に置き換えられ、mount.cephは Ceph 設定ファイルを読み取り、どのモニターに接続するかを判断することもできます。
関連情報
-
mount(8)man ページを参照してください。 - Ceph ユーザーの作成の詳細は、Red Hat Ceph Storage 管理ガイド の Ceph ユーザー管理 の章を参照してください。
- 詳細は、Red Hat Ceph Storage File System ガイド の Ceph File Systems の作成 セクションを参照してください。
3.6. Ceph File System の FUSE クライアントとしてのマウント リンクのコピーリンクがクリップボードにコピーされました!
Ceph File System (CephFS) は、システムの起動時に手動で、または自動で File System in User Space (FUSE) クライアントとしてマウントできます。
前提条件
- Linux ベースのクライアントノードへのルートレベルのアクセス。
- Ceph Monitor ノードへの root レベルのアクセス。
- 既存の Ceph File System。
手順
Ceph Storage クラスターを使用するようにクライアントノードを設定します。
Red Hat Ceph Storage 7 Tools リポジトリーを有効にします。
Red Hat Enterprise Linux 8
subscription-manager repos --enable=6-tools-for-rhel-8-x86_64-rpms
[root@client01 ~]# subscription-manager repos --enable=6-tools-for-rhel-8-x86_64-rpmsCopy to Clipboard Copied! Toggle word wrap Toggle overflow Red Hat Enterprise Linux 9
subscription-manager repos --enable=6-tools-for-rhel-9-x86_64-rpms
[root@client01 ~]# subscription-manager repos --enable=6-tools-for-rhel-9-x86_64-rpmsCopy to Clipboard Copied! Toggle word wrap Toggle overflow ceph-fuseパッケージをインストールします。dnf install ceph-fuse
[root@client01 ~]# dnf install ceph-fuseCopy to Clipboard Copied! Toggle word wrap Toggle overflow モニターノードの Cephadm シェルにログインします。
例
cephadm shell
[root@host01 ~]# cephadm shellCopy to Clipboard Copied! Toggle word wrap Toggle overflow Ceph クライアントキーリングを Ceph Monitor ノードからクライアントノードにコピーします。
構文
scp /ceph.client.ID.keyring root@CLIENT_NODE_NAME:/etc/ceph/ceph.client.ID.keyring
scp /ceph.client.ID.keyring root@CLIENT_NODE_NAME:/etc/ceph/ceph.client.ID.keyringCopy to Clipboard Copied! Toggle word wrap Toggle overflow CLIENT_NODE_NAME を Ceph クライアントのホスト名または IP アドレスに置き換えます。
例
[ceph: root@host01 /]# scp /ceph.client.1.keyring root@client01:/etc/ceph/ceph.client.1.keyring
[ceph: root@host01 /]# scp /ceph.client.1.keyring root@client01:/etc/ceph/ceph.client.1.keyringCopy to Clipboard Copied! Toggle word wrap Toggle overflow Ceph 設定ファイルを Monitor ノードからクライアントノードにコピーします。
構文
scp /etc/ceph/ceph.conf root@CLIENT_NODE_NAME:/etc/ceph/ceph.conf
scp /etc/ceph/ceph.conf root@CLIENT_NODE_NAME:/etc/ceph/ceph.confCopy to Clipboard Copied! Toggle word wrap Toggle overflow CLIENT_NODE_NAME を Ceph クライアントのホスト名または IP アドレスに置き換えます。
例
[ceph: root@host01 /]# scp /etc/ceph/ceph.conf root@client01:/etc/ceph/ceph.conf
[ceph: root@host01 /]# scp /etc/ceph/ceph.conf root@client01:/etc/ceph/ceph.confCopy to Clipboard Copied! Toggle word wrap Toggle overflow クライアントノードから、設定ファイルに適切なパーミッションを設定します。
chmod 644 /etc/ceph/ceph.conf
[root@client01 ~]# chmod 644 /etc/ceph/ceph.confCopy to Clipboard Copied! Toggle word wrap Toggle overflow - automatically または manually のいずれかを選択します。
Manually Mounting
クライアントノードで、マウントポイントのディレクトリーを作成します。
構文
mkdir PATH_TO_MOUNT_POINT
mkdir PATH_TO_MOUNT_POINTCopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
mkdir /mnt/mycephfs
[root@client01 ~]# mkdir /mnt/mycephfsCopy to Clipboard Copied! Toggle word wrap Toggle overflow 注記MDS 機能で
pathオプションを使用した場合、マウントポイントはpathで指定されたもの内になければなりません。ceph-fuseユーティリティーを使用して Ceph ファイルシステムをマウントします。構文
ceph-fuse -n client.CLIENT_ID --client_fs FILE_SYSTEM_NAME MOUNT_POINT
ceph-fuse -n client.CLIENT_ID --client_fs FILE_SYSTEM_NAME MOUNT_POINTCopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
ceph-fuse -n client.1 --client_fs cephfs01 /mnt/mycephfs
[root@client01 ~]# ceph-fuse -n client.1 --client_fs cephfs01 /mnt/mycephfsCopy to Clipboard Copied! Toggle word wrap Toggle overflow 注記/etc/ceph/ceph.client.CLIENT_ID.keyringであるユーザーキーリングのデフォルト名と場所を使用しない場合は--keyringオプションを使用してユーザーキーリングへのパスを指定します。以下に例を示します。例
ceph-fuse -n client.1 --keyring=/etc/ceph/client.1.keyring /mnt/mycephfs
[root@client01 ~]# ceph-fuse -n client.1 --keyring=/etc/ceph/client.1.keyring /mnt/mycephfsCopy to Clipboard Copied! Toggle word wrap Toggle overflow 注記-rオプションを使用して、そのパスを root として処理するように指示します。構文
ceph-fuse -n client.CLIENT_ID MOUNT_POINT -r PATH
ceph-fuse -n client.CLIENT_ID MOUNT_POINT -r PATHCopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
ceph-fuse -n client.1 /mnt/cephfs -r /home/cephfs
[root@client01 ~]# ceph-fuse -n client.1 /mnt/cephfs -r /home/cephfsCopy to Clipboard Copied! Toggle word wrap Toggle overflow 注記エビクトされた Ceph クライアントを自動的に再接続する場合は
--client_reconnect_stale=trueオプションを追加します。例
ceph-fuse -n client.1 /mnt/cephfs --client_reconnect_stale=true
[root@client01 ~]# ceph-fuse -n client.1 /mnt/cephfs --client_reconnect_stale=trueCopy to Clipboard Copied! Toggle word wrap Toggle overflow ファイルシステムが正常にマウントされていることを確認します。
構文
stat -f MOUNT_POINT
stat -f MOUNT_POINTCopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
stat -f /mnt/cephfs
[root@client01 ~]# stat -f /mnt/cephfsCopy to Clipboard Copied! Toggle word wrap Toggle overflow
自動マウント
クライアントノードで、マウントポイントのディレクトリーを作成します。
構文
mkdir PATH_TO_MOUNT_POINT
mkdir PATH_TO_MOUNT_POINTCopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
mkdir /mnt/mycephfs
[root@client01 ~]# mkdir /mnt/mycephfsCopy to Clipboard Copied! Toggle word wrap Toggle overflow 注記MDS 機能で
pathオプションを使用した場合、マウントポイントはpathで指定されたもの内になければなりません。以下のように
/etc/fstabファイルを編集します。構文
#DEVICE PATH TYPE OPTIONS DUMP FSCK HOST_NAME:PORT, MOUNT_POINT fuse.ceph ceph.id=CLIENT_ID, 0 0 HOST_NAME:PORT, ceph.client_mountpoint=/VOL/SUB_VOL_GROUP/SUB_VOL/UID_SUB_VOL, HOST_NAME:PORT:/ ceph.client_fs=FILE_SYSTEM_NAME,ceph.name=USERNAME,ceph.keyring=/etc/ceph/KEYRING_FILE, [ADDITIONAL_OPTIONS]#DEVICE PATH TYPE OPTIONS DUMP FSCK HOST_NAME:PORT, MOUNT_POINT fuse.ceph ceph.id=CLIENT_ID, 0 0 HOST_NAME:PORT, ceph.client_mountpoint=/VOL/SUB_VOL_GROUP/SUB_VOL/UID_SUB_VOL, HOST_NAME:PORT:/ ceph.client_fs=FILE_SYSTEM_NAME,ceph.name=USERNAME,ceph.keyring=/etc/ceph/KEYRING_FILE, [ADDITIONAL_OPTIONS]Copy to Clipboard Copied! Toggle word wrap Toggle overflow 最初の列 は、Ceph Monitor ホスト名とポート番号を設定します。
2 列目 は、マウントポイントを設定します。
3 列目 は、ファイルシステムのタイプ (ここでは CephFS 用
fuse.ceph) を設定します。4 列目 は、
ceph.nameおよびceph.keyringオプションを使用して、ユーザー名やキーリングなどのさまざまなオプションを設定します。ceph.client_mountpointオプションを使用して、特定のボリューム、サブボリューム、およびサブボリュームを設定できます。アクセスする Ceph File System を指定するには、ceph.client_fsオプションを使用します。ネットワークサブシステムの開始後にファイルシステムがマウントされ、ハングやネットワークの問題を回避するために、_netdevオプションを設定します。アクセス時間情報が必要ない場合は、noatimeオプションを設定するとパフォーマンスが向上します。エビクションの後に自動的に再接続する必要がある場合は、client_reconnect_stale=trueオプションを設定します。5 番目のコラムと 6 番目のコラム をゼロに設定します。
例
#DEVICE PATH TYPE OPTIONS DUMP FSCK mon1:6789, /mnt/mycephfs fuse.ceph ceph.id=1, 0 0 mon2:6789, ceph.client_mountpoint=/my_vol/my_sub_vol_group/my_sub_vol/0, mon3:6789:/ ceph.client_fs=cephfs01,ceph.name=client.1,ceph.keyring=/etc/ceph/client1.keyring, _netdev,defaults#DEVICE PATH TYPE OPTIONS DUMP FSCK mon1:6789, /mnt/mycephfs fuse.ceph ceph.id=1, 0 0 mon2:6789, ceph.client_mountpoint=/my_vol/my_sub_vol_group/my_sub_vol/0, mon3:6789:/ ceph.client_fs=cephfs01,ceph.name=client.1,ceph.keyring=/etc/ceph/client1.keyring, _netdev,defaultsCopy to Clipboard Copied! Toggle word wrap Toggle overflow Ceph File System は、次回のシステム起動時にマウントされます。
第4章 Ceph ファイルシステムボリューム、サブボリュームグループ、およびサブボリュームの管理 リンクのコピーリンクがクリップボードにコピーされました!
ストレージ管理者は、Red Hat の Ceph Container Storage Interface (CSI) を使用して Ceph File System (CephFS) エクスポートを管理できます。また、OpenStack のファイルシステムサービス (Manila) などの他のサービスは、一般的なコマンドラインインターフェイスを使用して対話できます。Ceph Manager デーモンの volumes モジュール (ceph-mgr) は、Ceph File Systems (CephFS) をエクスポートする機能を実装します。
Ceph Manager ボリュームモジュールは、以下のファイルシステムのエクスポートの抽象化を実装します。
- CephFS ボリューム
- CephFS サブボリュームグループ
- CephFS サブボリューム
4.1. Ceph File System ボリューム リンクのコピーリンクがクリップボードにコピーされました!
ストレージ管理者は、Ceph File System (CephFS) ボリュームの作成、リスト表示、および削除を行うことができます。CephFS ボリュームは、Ceph File Systems の抽象化です。
このセクションでは、以下を行う方法を説明します。
4.1.1. Ceph ファイルシステムボリュームの作成 リンクのコピーリンクがクリップボードにコピーされました!
Ceph Orchestrator は、Ceph File System (CephFS) の Metadata Server (MDS) を作成する Ceph Manager のモジュールです。このセクションでは、CephFS ボリュームを作成する方法を説明します。
これにより、データおよびメタデータプールと共に Ceph File System が作成されます。
前提条件
- Ceph File System がデプロイされている稼働中の Red Hat Ceph Storage クラスター。
- Ceph Monitor での少なくとも読み取りアクセス。
- Ceph Manager ノードの読み取りおよび書き込み機能。
手順
モニターノードに CephFS ボリュームを作成します。
構文
ceph fs volume create VOLUME_NAME
ceph fs volume create VOLUME_NAMECopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
[ceph: root@host01 /]# ceph fs volume create cephfs
[ceph: root@host01 /]# ceph fs volume create cephfsCopy to Clipboard Copied! Toggle word wrap Toggle overflow
4.1.2. Ceph ファイルシステムボリュームの一覧表示 リンクのコピーリンクがクリップボードにコピーされました!
このセクションでは、Ceph File System (CephFS) ボリュームをリスト表示する手順について説明します。
前提条件
- Ceph File System がデプロイされている稼働中の Red Hat Ceph Storage クラスター。
- Ceph Monitor での少なくとも読み取りアクセス。
- Ceph Manager ノードの読み取りおよび書き込み機能。
- CephFS ボリューム。
手順
CephFS ボリュームをリスト表示します。
例
[ceph: root@host01 /]# ceph fs volume ls
[ceph: root@host01 /]# ceph fs volume lsCopy to Clipboard Copied! Toggle word wrap Toggle overflow
4.1.3. Ceph ファイルシステムボリュームに関する情報の表示 リンクのコピーリンクがクリップボードにコピーされました!
CephFS ボリュームのデータおよびメタデータプールの属性、保留中のサブボリュームの削除数など、Ceph ファイルシステム (CephFS) ボリュームに関する基本的な詳細を一覧表示できます。
前提条件
- Ceph File System がデプロイされている稼働中の Red Hat Ceph Storage クラスター。
- Ceph Monitor での少なくとも読み取りアクセス。
- Ceph Manager ノードの読み取りおよび書き込み機能。
- CephFS ボリュームが作成されている。
手順
CephFS ボリュームに関する情報を表示します。
構文
ceph fs volume info VOLUME_NAME
ceph fs volume info VOLUME_NAMECopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
Copy to Clipboard Copied! Toggle word wrap Toggle overflow
ceph fs volume info コマンドの出力には以下が含まれます。
-
mon_addrs: モニターアドレスの一覧。 -
pending_subvolume_deletions: 削除保留中のサブボリュームの数。 pools: データおよびメタデータプールの属性。-
avail: 利用可能な空き容量 (バイト単位)。 -
name: プールの名前。 -
used: 消費されたストレージの量 (バイト単位)。
-
-
used_size: CephFS ボリュームの現在の使用サイズ (バイト単位)。
4.1.4. Ceph ファイルシステムボリュームの削除 リンクのコピーリンクがクリップボードにコピーされました!
Ceph Orchestrator は、Ceph File System (CephFS) の Metadata Server (MDS) を削除する Ceph Manager のモジュールです。このセクションでは、Ceph File System (CephFS) ボリュームを削除する方法を説明します。
前提条件
- Ceph File System がデプロイされている稼働中の Red Hat Ceph Storage クラスター。
- Ceph Monitor での少なくとも読み取りアクセス。
- Ceph Manager ノードの読み取りおよび書き込み機能。
- CephFS ボリューム。
手順
mon_allow_pool_deleteオプションがtrueに設定されていない場合は、CephFS ボリュームを削除する前にtrueに設定します。例
[ceph: root@host01 /]# ceph config set mon mon_allow_pool_delete true
[ceph: root@host01 /]# ceph config set mon mon_allow_pool_delete trueCopy to Clipboard Copied! Toggle word wrap Toggle overflow CephFS ボリュームを削除します。
構文
ceph fs volume rm VOLUME_NAME [--yes-i-really-mean-it]
ceph fs volume rm VOLUME_NAME [--yes-i-really-mean-it]Copy to Clipboard Copied! Toggle word wrap Toggle overflow 例
[ceph: root@host01 /]# ceph fs volume rm cephfs --yes-i-really-mean-it
[ceph: root@host01 /]# ceph fs volume rm cephfs --yes-i-really-mean-itCopy to Clipboard Copied! Toggle word wrap Toggle overflow
4.2. Ceph File System サブボリュームグループ リンクのコピーリンクがクリップボードにコピーされました!
ストレージ管理者は、Ceph File System (CephFS) サブボリュームグループの作成、リスト表示、取得、および削除できます。CephFS サブボリュームグループは、サブボリュームのセット全体で、ファイルレイアウトなどのポリシーに影響を与えるディレクトリーレベルで抽象化されます。
Red Hat Ceph Storage 5.0 以降では、サブボリュームグループスナップショット機能はサポートされません。これらのサブボリュームグループの既存のスナップショットのみをリスト表示および削除できます。
このセクションでは、以下を行う方法を説明します。
4.2.1. ファイルシステムのサブボリュームグループの作成 リンクのコピーリンクがクリップボードにコピーされました!
このセクションでは、Ceph File System (CephFS) サブボリュームグループを作成する方法を説明します。
subvolume グループを作成する場合は、そのデータプールのレイアウト (uid、gid、および file モード) を 8 進数で指定できます。デフォルトでは、サブボリュームグループは、親ディレクトリーの 8 進数ファイルモード '755'、uid '0'、gid '0'、およびデータプールレイアウトで作成されます。
サブボリュームグループの作成中にクォータを設定するには、ファイルシステムサブボリュームグループでのクォータの設定と管理 を参照してください。
前提条件
- Ceph File System がデプロイされている稼働中の Red Hat Ceph Storage クラスター。
- Ceph Monitor での少なくとも読み取りアクセス。
- Ceph Manager ノードの読み取りおよび書き込み機能。
手順
CephFS サブボリュームグループを作成します。
構文
ceph fs subvolumegroup create VOLUME_NAME GROUP_NAME [--pool_layout DATA_POOL_NAME --uid UID --gid GID --mode OCTAL_MODE]
ceph fs subvolumegroup create VOLUME_NAME GROUP_NAME [--pool_layout DATA_POOL_NAME --uid UID --gid GID --mode OCTAL_MODE]Copy to Clipboard Copied! Toggle word wrap Toggle overflow 例
[ceph: root@host01 /]# ceph fs subvolumegroup create cephfs subgroup0
[ceph: root@host01 /]# ceph fs subvolumegroup create cephfs subgroup0Copy to Clipboard Copied! Toggle word wrap Toggle overflow subvolume グループがすでに存在している場合でも、コマンドは成功します。
4.2.2. ファイルシステムサブボリュームグループのクォータの設定と管理 リンクのコピーリンクがクリップボードにコピーされました!
このセクションでは、Ceph ファイルシステム (CephFS) サブボリュームグループでクォータを設定および管理する方法について説明します。
前提条件
- Ceph File System がデプロイされている稼働中の Red Hat Ceph Storage クラスター。
- Ceph Monitor での少なくとも読み取りアクセス。
- Ceph Manager ノードの読み取りおよび書き込み機能。
手順
サイズをバイト単位で指定して、サブボリュームグループの作成中にクォータを設定します。
構文
ceph fs subvolumegroup create VOLUME_NAME GROUP_NAME [--size SIZE_IN_BYTES] [--pool_layout DATA_POOL_NAME] [--uid UID] [--gid GID] [--mode OCTAL_MODE]
ceph fs subvolumegroup create VOLUME_NAME GROUP_NAME [--size SIZE_IN_BYTES] [--pool_layout DATA_POOL_NAME] [--uid UID] [--gid GID] [--mode OCTAL_MODE]Copy to Clipboard Copied! Toggle word wrap Toggle overflow 例
[ceph: root@host01 /]# ceph fs subvolumegroup create cephfs subvolgroup_2 10737418240
[ceph: root@host01 /]# ceph fs subvolumegroup create cephfs subvolgroup_2 10737418240Copy to Clipboard Copied! Toggle word wrap Toggle overflow サブボリュームグループのサイズを変更します。
構文
ceph fs subvolumegroup resize VOLUME_NAME GROUP_NAME new_size [--no_shrink]
ceph fs subvolumegroup resize VOLUME_NAME GROUP_NAME new_size [--no_shrink]Copy to Clipboard Copied! Toggle word wrap Toggle overflow 例
Copy to Clipboard Copied! Toggle word wrap Toggle overflow サブボリュームグループのメタデータを取得します。
構文
ceph fs subvolumegroup info VOLUME_NAME GROUP_NAME
ceph fs subvolumegroup info VOLUME_NAME GROUP_NAMECopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
Copy to Clipboard Copied! Toggle word wrap Toggle overflow
4.2.3. ファイルシステムのサブボリュームグループのリスト表示 リンクのコピーリンクがクリップボードにコピーされました!
このセクションでは、Ceph File System (CephFS) サブボリュームグループをリスト表示する手順について説明します。
前提条件
- Ceph File System がデプロイされている稼働中の Red Hat Ceph Storage クラスター。
- Ceph Monitor での少なくとも読み取りアクセス。
- Ceph Manager ノードの読み取りおよび書き込み機能。
- CephFS サブボリュームグループ
手順
CephFS サブボリュームグループをリスト表示します。
構文
ceph fs subvolumegroup ls VOLUME_NAME
ceph fs subvolumegroup ls VOLUME_NAMECopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
[ceph: root@host01 /]# ceph fs subvolumegroup ls cephfs
[ceph: root@host01 /]# ceph fs subvolumegroup ls cephfsCopy to Clipboard Copied! Toggle word wrap Toggle overflow
4.2.4. ファイルシステムのサブボリュームグループの絶対パスを取得中 リンクのコピーリンクがクリップボードにコピーされました!
このセクションでは、Ceph File System (CephFS) サブボリュームの絶対パスを取得する方法を説明します。
前提条件
- Ceph File System がデプロイされている稼働中の Red Hat Ceph Storage クラスター。
- Ceph Monitor での少なくとも読み取りアクセス。
- Ceph Manager ノードの読み取りおよび書き込み機能。
- CephFS サブボリュームグループ
手順
CephFS サブボリュームの絶対パスを取得します。
構文
ceph fs subvolumegroup getpath VOLUME_NAME GROUP_NAME
ceph fs subvolumegroup getpath VOLUME_NAME GROUP_NAMECopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
[ceph: root@host01 /]# ceph fs subvolumegroup getpath cephfs subgroup0
[ceph: root@host01 /]# ceph fs subvolumegroup getpath cephfs subgroup0Copy to Clipboard Copied! Toggle word wrap Toggle overflow
4.2.5. ファイルシステムのサブボリュームグループのスナップショットのリスト表示 リンクのコピーリンクがクリップボードにコピーされました!
このセクションでは、Ceph File System (CephFS) サブボリュームグループのスナップショットをリスト表示する手順について説明します。
前提条件
- Ceph File System がデプロイされている稼働中の Red Hat Ceph Storage クラスター。
- Ceph Monitor での少なくとも読み取りアクセス。
- Ceph Manager ノードの読み取りおよび書き込み機能。
- CephFS サブボリュームグループ
- サブボリュームグループのスナップショット。
手順
CephFS サブボリュームグループのスナップショットをリスト表示します。
構文
ceph fs subvolumegroup snapshot ls VOLUME_NAME GROUP_NAME
ceph fs subvolumegroup snapshot ls VOLUME_NAME GROUP_NAMECopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
[ceph: root@host01 /]# ceph fs subvolumegroup snapshot ls cephfs subgroup0
[ceph: root@host01 /]# ceph fs subvolumegroup snapshot ls cephfs subgroup0Copy to Clipboard Copied! Toggle word wrap Toggle overflow
4.2.6. ファイルシステムのサブボリュームグループのスナップショットの削除 リンクのコピーリンクがクリップボードにコピーされました!
このセクションでは、Ceph File System (CephFS) サブボリュームグループのスナップショットを削除する手順について説明します。
--force フラグを使用すると、コマンドを正常に実行でき、スナップショットが存在しない場合には失敗します。
前提条件
- Ceph File System がデプロイされている稼働中の Red Hat Ceph Storage クラスター。
- Ceph Monitor での少なくとも読み取りアクセス。
- Ceph Manager ノードの読み取りおよび書き込み機能。
- Ceph File System ボリューム。
- サブボリュームグループのスナップショット。
手順
CephFS サブボリュームグループのスナップショットを削除します。
構文
ceph fs subvolumegroup snapshot rm VOLUME_NAME GROUP_NAME SNAP_NAME [--force]
ceph fs subvolumegroup snapshot rm VOLUME_NAME GROUP_NAME SNAP_NAME [--force]Copy to Clipboard Copied! Toggle word wrap Toggle overflow 例
[ceph: root@host01 /]# ceph fs subvolumegroup snapshot rm cephfs subgroup0 snap0 --force
[ceph: root@host01 /]# ceph fs subvolumegroup snapshot rm cephfs subgroup0 snap0 --forceCopy to Clipboard Copied! Toggle word wrap Toggle overflow
4.2.7. ファイルシステムのサブボリュームグループの削除 リンクのコピーリンクがクリップボードにコピーされました!
このセクションでは、Ceph File System (CephFS) サブボリュームグループを削除する方法を説明します。
サブボリュームグループが空であるか、存在しないと、そのグループの削除に失敗します。--force フラグは、存在しないサブボリュームグループの削除を許可します。
前提条件
- Ceph File System がデプロイされている稼働中の Red Hat Ceph Storage クラスター。
- Ceph Monitor での少なくとも読み取りアクセス。
- Ceph Manager ノードの読み取りおよび書き込み機能。
- CephFS サブボリュームグループ
手順
CephFS サブボリュームグループを削除します。
構文
ceph fs subvolumegroup rm VOLUME_NAME GROUP_NAME [--force]
ceph fs subvolumegroup rm VOLUME_NAME GROUP_NAME [--force]Copy to Clipboard Copied! Toggle word wrap Toggle overflow 例
[ceph: root@host01 /]# ceph fs subvolumegroup rm cephfs subgroup0 --force
[ceph: root@host01 /]# ceph fs subvolumegroup rm cephfs subgroup0 --forceCopy to Clipboard Copied! Toggle word wrap Toggle overflow
4.3. Ceph File System サブボリューム リンクのコピーリンクがクリップボードにコピーされました!
ストレージ管理者は、Ceph File System (CephFS) サブボリュームの作成、リスト表示、取得、メタデータの取得、削除が可能です。また、これらのサブボリュームのスナップショットの作成、リスト表示、および削除も可能です。CephFS サブボリュームは、独立した Ceph File Systems ディレクトリーツリーの抽象化です。
このセクションでは、以下を行う方法を説明します。
4.3.1. ファイルシステムのサブボリュームの作成 リンクのコピーリンクがクリップボードにコピーされました!
このセクションでは、Ceph File System (CephFS) サブボリュームを作成する方法を説明します。
サブボリュームを作成する場合、そのサブボリュームグループ、データプールレイアウト、uid、gid、ファイルモード (8 進数)、およびサイズ (バイト単位) を指定できます。サブボリュームは、--namespace-isolated オプションを指定することで、別の RADOS namespace に作成できます。デフォルトでは、サブボリュームはデフォルトの subvolume グループ内に作成され、サブボリュームグループの 8 進数ファイルモード '755'、サブボリュームグループの gid、親ディレクトリーのデータプールレイアウトとサイズ制限がありません。
前提条件
- Ceph File System がデプロイされている稼働中の Red Hat Ceph Storage クラスター。
- Ceph Monitor での少なくとも読み取りアクセス。
- Ceph Manager ノードの読み取りおよび書き込み機能。
手順
CephFS サブボリュームを作成します。
構文
ceph fs subvolume create VOLUME_NAME SUBVOLUME_NAME [--size SIZE_IN_BYTES --group_name SUBVOLUME_GROUP_NAME --pool_layout DATA_POOL_NAME --uid _UID --gid GID --mode OCTAL_MODE] [--namespace-isolated]
ceph fs subvolume create VOLUME_NAME SUBVOLUME_NAME [--size SIZE_IN_BYTES --group_name SUBVOLUME_GROUP_NAME --pool_layout DATA_POOL_NAME --uid _UID --gid GID --mode OCTAL_MODE] [--namespace-isolated]Copy to Clipboard Copied! Toggle word wrap Toggle overflow 例
ceph fs subvolume create cephfs sub0 --group_name subgroup0 --namespace-isolated
[root@mon ~]# ceph fs subvolume create cephfs sub0 --group_name subgroup0 --namespace-isolatedCopy to Clipboard Copied! Toggle word wrap Toggle overflow subvolume がすでに存在している場合でも、コマンドは成功します。
4.3.2. ファイルシステムのサブボリュームのリスト表示 リンクのコピーリンクがクリップボードにコピーされました!
このセクションでは、Ceph File System (CephFS) サブボリュームをリスト表示する手順について説明します。
前提条件
- Ceph File System がデプロイされている稼働中の Red Hat Ceph Storage クラスター。
- Ceph Monitor での少なくとも読み取りアクセス。
- Ceph Manager ノードの読み取りおよび書き込み機能。
- CephFS サブボリューム。
手順
CephFS サブボリュームをリスト表示します。
構文
ceph fs subvolume ls VOLUME_NAME [--group_name SUBVOLUME_GROUP_NAME]
ceph fs subvolume ls VOLUME_NAME [--group_name SUBVOLUME_GROUP_NAME]Copy to Clipboard Copied! Toggle word wrap Toggle overflow 例
ceph fs subvolume ls cephfs --group_name subgroup0
[root@mon ~]# ceph fs subvolume ls cephfs --group_name subgroup0Copy to Clipboard Copied! Toggle word wrap Toggle overflow
4.3.3. ファイルシステムのサブボリュームのサイズ変更 リンクのコピーリンクがクリップボードにコピーされました!
このセクションでは、Ceph File System (CephFS) サブボリュームのサイズを変更する方法を説明します。
ceph fs subvolume resize コマンドは、new_size で指定されたサイズでサブボリュームのクォータのサイズを変更します。--no_shrink フラグは、サブボリュームが現在使用されているサブボリュームのサイズを下回って縮小するのを防ぎます。サブボリュームは、f または infinite を new_size として渡すと、無限にリサイズできます。
前提条件
- Ceph File System がデプロイされている稼働中の Red Hat Ceph Storage クラスター。
- Ceph Monitor での少なくとも読み取りアクセス。
- Ceph Manager ノードの読み取りおよび書き込み機能。
- CephFS サブボリューム。
手順
CephFS サブボリュームのサイズを変更します。
構文
ceph fs subvolume resize VOLUME_NAME SUBVOLUME_NAME NEW_SIZE [--group_name SUBVOLUME_GROUP_NAME] [--no_shrink]
ceph fs subvolume resize VOLUME_NAME SUBVOLUME_NAME NEW_SIZE [--group_name SUBVOLUME_GROUP_NAME] [--no_shrink]Copy to Clipboard Copied! Toggle word wrap Toggle overflow 例
ceph fs subvolume resize cephfs sub0 1024000000 --group_name subgroup0 --no_shrink
[root@mon ~]# ceph fs subvolume resize cephfs sub0 1024000000 --group_name subgroup0 --no_shrinkCopy to Clipboard Copied! Toggle word wrap Toggle overflow
4.3.4. ファイルシステムのサブボリュームの絶対パスを取得中 リンクのコピーリンクがクリップボードにコピーされました!
このセクションでは、Ceph File System (CephFS) サブボリュームの絶対パスを取得する方法を説明します。
前提条件
- Ceph File System がデプロイされている稼働中の Red Hat Ceph Storage クラスター。
- Ceph Monitor での少なくとも読み取りアクセス。
- Ceph Manager ノードの読み取りおよび書き込み機能。
- CephFS サブボリューム。
手順
CephFS サブボリュームの絶対パスを取得します。
構文
ceph fs subvolume getpath VOLUME_NAME SUBVOLUME_NAME [--group_name _SUBVOLUME_GROUP_NAME]
ceph fs subvolume getpath VOLUME_NAME SUBVOLUME_NAME [--group_name _SUBVOLUME_GROUP_NAME]Copy to Clipboard Copied! Toggle word wrap Toggle overflow 例
ceph fs subvolume getpath cephfs sub0 --group_name subgroup0
[root@mon ~]# ceph fs subvolume getpath cephfs sub0 --group_name subgroup0Copy to Clipboard Copied! Toggle word wrap Toggle overflow
4.3.5. ファイルシステムのサブボリュームのメタデータの取得 リンクのコピーリンクがクリップボードにコピーされました!
このセクションでは、Ceph File System (CephFS) サブボリュームのメタデータを取得する方法について説明します。
前提条件
- Ceph File System がデプロイされている稼働中の Red Hat Ceph Storage クラスター。
- Ceph Monitor での少なくとも読み取りアクセス。
- Ceph Manager ノードの読み取りおよび書き込み機能。
- CephFS サブボリューム。
手順
CephFS サブボリュームのメタデータを取得します。
構文
ceph fs subvolume info VOLUME_NAME SUBVOLUME_NAME [--group_name SUBVOLUME_GROUP_NAME]
ceph fs subvolume info VOLUME_NAME SUBVOLUME_NAME [--group_name SUBVOLUME_GROUP_NAME]Copy to Clipboard Copied! Toggle word wrap Toggle overflow 例
ceph fs subvolume info cephfs sub0 --group_name subgroup0
[root@mon ~]# ceph fs subvolume info cephfs sub0 --group_name subgroup0Copy to Clipboard Copied! Toggle word wrap Toggle overflow 出力例
Copy to Clipboard Copied! Toggle word wrap Toggle overflow
出力形式は JSON で、以下のフィールドが含まれます。
- atime: "YYYY-MM-DD HH:MM:SS" 形式のサブボリュームパスのアクセス時間。
- bytes_pcent: クォータが設定されている場合に使用するクォータ。それ以外の場合は "undefined" を表示します。
- bytes_quota: クォータが設定されている場合のクォータサイズ (バイト単位)。それ以外の場合は "infinite" を表示します。
- bytes_used: サブボリュームの現在の使用サイズ (バイト単位)。
- created_at: サブボリュームを作成する時間 ("YYYY-MM-DD HH:MM:SS" 形式)。
- ctime: サブボリュームの時間を "YYYY-MM-DD HH:MM:SS" 形式で変更します。
- data_pool: サブボリュームが属するデータプール。
- features: snapshot-clone"、"snapshot-autoprotect"、"snapshot-retention" などのサブボリュームでサポートされる機能。
-
flavor: サブボリュームのバージョン。バージョン 1 の場合は
1、バージョン 2 の場合は2です。 - gid: サブボリュームパスのグループ ID。
- モード: サブボリュームパスのモード。
- mon_addrs: モニターアドレスのリスト。
- mtime: サブボリュームパスの変更時間 ("YYYY-MM-DD HH:MM:SS" 形式)。
- path: サブボリュームの絶対パス。
- pool_namespace: サブボリュームの RADOS 名前空間。
- state: サブボリュームの現在の状態 (例: "complete" または "snapshot-retained"d)
- type: クローンかサブボリュームかを示すサブボリュームタイプ。
- uid : サブボリュームパスのユーザー ID。
4.3.6. ファイルシステムのサブボリュームのスナップショットの作成 リンクのコピーリンクがクリップボードにコピーされました!
このセクションでは、Ceph File System (CephFS) サブボリュームのスナップショットを作成する方法を説明します。
前提条件
- Ceph File System がデプロイされている稼働中の Red Hat Ceph Storage クラスター。
- Ceph Monitor での少なくとも読み取りアクセス。
- Ceph Manager ノードの読み取りおよび書き込み機能。
- CephFS サブボリューム。
-
クライアントの読み取り (
r) および書き込み (w) 機能のほかに、クライアントはファイルシステム内のディレクトリーパスにsフラグも必要になります。
手順
sフラグがディレクトリーに設定されていることを確認します。構文
ceph auth get CLIENT_NAME
ceph auth get CLIENT_NAMECopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
Copy to Clipboard Copied! Toggle word wrap Toggle overflow Ceph File System サブボリュームのスナップショットを作成します。
構文
ceph fs subvolume snapshot create VOLUME_NAME SUBVOLUME_NAME SNAP_NAME [--group_name GROUP_NAME]
ceph fs subvolume snapshot create VOLUME_NAME SUBVOLUME_NAME SNAP_NAME [--group_name GROUP_NAME]Copy to Clipboard Copied! Toggle word wrap Toggle overflow 例
ceph fs subvolume snapshot create cephfs sub0 snap0 --group_name subgroup0
[root@mon ~]# ceph fs subvolume snapshot create cephfs sub0 snap0 --group_name subgroup0Copy to Clipboard Copied! Toggle word wrap Toggle overflow
4.3.7. スナップショットからのサブボリュームのクローン作成 リンクのコピーリンクがクリップボードにコピーされました!
サブボリュームスナップショットのクローン作成により、サブボリュームを作成できます。これは、スナップショットからサブボリュームにデータをコピーする非同期操作です。
非常に大規模なデータセットの場合、クローン作成は非効率的です。
前提条件
- Ceph File System がデプロイされている稼働中の Red Hat Ceph Storage クラスター。
- Ceph Monitor での少なくとも読み取りアクセス。
- Ceph Manager ノードの読み取りおよび書き込み機能。
スナップショットの作成や書き込み機能の削除に加えて、クライアントはファイルシステム内のディレクトリーパスに
sフラグが必要です。構文
CLIENT_NAME key = AQAz7EVWygILFRAAdIcuJ12opU/JKyfFmxhuaw== caps mds = allow rw, allow rws path=DIRECTORY_PATH caps mon = allow r caps osd = allow rw tag cephfs data=DIRECTORY_NAMECLIENT_NAME key = AQAz7EVWygILFRAAdIcuJ12opU/JKyfFmxhuaw== caps mds = allow rw, allow rws path=DIRECTORY_PATH caps mon = allow r caps osd = allow rw tag cephfs data=DIRECTORY_NAMECopy to Clipboard Copied! Toggle word wrap Toggle overflow 以下の例では、
client.0はファイルシステムcephfs_aのbarディレクトリーにスナップショットを作成または削除することができます。例
[client.0] key = AQAz7EVWygILFRAAdIcuJ12opU/JKyfFmxhuaw== caps mds = "allow rw, allow rws path=/bar" caps mon = "allow r" caps osd = "allow rw tag cephfs data=cephfs_a"[client.0] key = AQAz7EVWygILFRAAdIcuJ12opU/JKyfFmxhuaw== caps mds = "allow rw, allow rws path=/bar" caps mon = "allow r" caps osd = "allow rw tag cephfs data=cephfs_a"Copy to Clipboard Copied! Toggle word wrap Toggle overflow
手順
Ceph File System (CephFS) ボリュームを作成します。
構文
ceph fs volume create VOLUME_NAME
ceph fs volume create VOLUME_NAMECopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
ceph fs volume create cephfs
[root@mon ~]# ceph fs volume create cephfsCopy to Clipboard Copied! Toggle word wrap Toggle overflow これにより、CephFS ファイルシステム、そのデータおよびメタデータプールが作成されます。
サブボリュームグループを作成します。デフォルトでは、サブボリュームグループは、モード '755' および、親ディレクトリーのデータプールレイアウトで作成されます。
構文
ceph fs subvolumegroup create VOLUME_NAME GROUP_NAME [--pool_layout DATA_POOL_NAME --uid UID --gid GID --mode OCTAL_MODE]
ceph fs subvolumegroup create VOLUME_NAME GROUP_NAME [--pool_layout DATA_POOL_NAME --uid UID --gid GID --mode OCTAL_MODE]Copy to Clipboard Copied! Toggle word wrap Toggle overflow 例
ceph fs subvolumegroup create cephfs subgroup0
[root@mon ~]# ceph fs subvolumegroup create cephfs subgroup0Copy to Clipboard Copied! Toggle word wrap Toggle overflow サブボリュームを作成します。デフォルトでは、サブボリュームはデフォルトの subvolume グループ内に作成され、サブボリュームグループの 8 進数ファイルモード '755'、サブボリュームグループの gid、親ディレクトリーのデータプールレイアウトとサイズ制限がありません。
構文
ceph fs subvolume create VOLUME_NAME SUBVOLUME_NAME [--size SIZE_IN_BYTES --group_name SUBVOLUME_GROUP_NAME --pool_layout DATA_POOL_NAME --uid _UID --gid GID --mode OCTAL_MODE]
ceph fs subvolume create VOLUME_NAME SUBVOLUME_NAME [--size SIZE_IN_BYTES --group_name SUBVOLUME_GROUP_NAME --pool_layout DATA_POOL_NAME --uid _UID --gid GID --mode OCTAL_MODE]Copy to Clipboard Copied! Toggle word wrap Toggle overflow 例
ceph fs subvolume create cephfs sub0 --group_name subgroup0
[root@mon ~]# ceph fs subvolume create cephfs sub0 --group_name subgroup0Copy to Clipboard Copied! Toggle word wrap Toggle overflow サブボリュームのスナップショットを作成します。
構文
ceph fs subvolume snapshot create VOLUME_NAME _SUBVOLUME_NAME SNAP_NAME [--group_name SUBVOLUME_GROUP_NAME]
ceph fs subvolume snapshot create VOLUME_NAME _SUBVOLUME_NAME SNAP_NAME [--group_name SUBVOLUME_GROUP_NAME]Copy to Clipboard Copied! Toggle word wrap Toggle overflow 例
ceph fs subvolume snapshot create cephfs sub0 snap0 --group_name subgroup0
[root@mon ~]# ceph fs subvolume snapshot create cephfs sub0 snap0 --group_name subgroup0Copy to Clipboard Copied! Toggle word wrap Toggle overflow クローン操作を開始します。
注記デフォルトでは、クローン作成されたサブボリュームがデフォルトのグループに作成されます。
ソースサブボリュームとターゲットのクローンがデフォルトのグループにある場合は、以下のコマンドを実行します。
構文
ceph fs subvolume snapshot clone VOLUME_NAME SUBVOLUME_NAME SNAP_NAME TARGET_CLONE_NAME
ceph fs subvolume snapshot clone VOLUME_NAME SUBVOLUME_NAME SNAP_NAME TARGET_CLONE_NAMECopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
ceph fs subvolume snapshot clone cephfs sub0 snap0 clone0
[root@mon ~]# ceph fs subvolume snapshot clone cephfs sub0 snap0 clone0Copy to Clipboard Copied! Toggle word wrap Toggle overflow ソースサブボリュームがデフォルト以外のグループにある場合は、以下のコマンドでソース subvolume グループを指定します。
構文
ceph fs subvolume snapshot clone VOLUME_NAME SUBVOLUME_NAME SNAP_NAME TARGET_CLONE_NAME --group_name SUBVOLUME_GROUP_NAME
ceph fs subvolume snapshot clone VOLUME_NAME SUBVOLUME_NAME SNAP_NAME TARGET_CLONE_NAME --group_name SUBVOLUME_GROUP_NAMECopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
ceph fs subvolume snapshot clone cephfs sub0 snap0 clone0 --group_name subgroup0
[root@mon ~]# ceph fs subvolume snapshot clone cephfs sub0 snap0 clone0 --group_name subgroup0Copy to Clipboard Copied! Toggle word wrap Toggle overflow ターゲットのクローンがデフォルト以外のグループにある場合は、以下のコマンドでターゲットグループを指定します。
構文
ceph fs subvolume snapshot clone VOLUME_NAME SUBVOLUME_NAME SNAP_NAME TARGET_CLONE_NAME --target_group_name SUBVOLUME_GROUP_NAME
ceph fs subvolume snapshot clone VOLUME_NAME SUBVOLUME_NAME SNAP_NAME TARGET_CLONE_NAME --target_group_name SUBVOLUME_GROUP_NAMECopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
ceph fs subvolume snapshot clone cephfs sub0 snap0 clone0 --target_group_name subgroup1
[root@mon ~]# ceph fs subvolume snapshot clone cephfs sub0 snap0 clone0 --target_group_name subgroup1Copy to Clipboard Copied! Toggle word wrap Toggle overflow
clone 操作のステータスを確認します。
構文
ceph fs clone status VOLUME_NAME CLONE_NAME [--group_name TARGET_GROUP_NAME]
ceph fs clone status VOLUME_NAME CLONE_NAME [--group_name TARGET_GROUP_NAME]Copy to Clipboard Copied! Toggle word wrap Toggle overflow 例
Copy to Clipboard Copied! Toggle word wrap Toggle overflow
関連情報
- Red Hat Ceph Storage 管理ガイド の Ceph ユーザーの管理 セクションを参照してください。
4.3.8. ファイルシステムのサブボリュームのスナップショットのリスト表示 リンクのコピーリンクがクリップボードにコピーされました!
このセクションでは、Ceph File システム (CephFS) サブボリュームのスナップショットをリスト表示する手順について説明します。
前提条件
- Ceph File System がデプロイされている稼働中の Red Hat Ceph Storage クラスター。
- Ceph Monitor での少なくとも読み取りアクセス。
- Ceph Manager ノードの読み取りおよび書き込み機能。
- CephFS サブボリューム。
- サブボリュームのスナップショット。
手順
CephFS サブボリュームのスナップショットをリスト表示します。
構文
ceph fs subvolume snapshot ls VOLUME_NAME SUBVOLUME_NAME [--group_name SUBVOLUME_GROUP_NAME]
ceph fs subvolume snapshot ls VOLUME_NAME SUBVOLUME_NAME [--group_name SUBVOLUME_GROUP_NAME]Copy to Clipboard Copied! Toggle word wrap Toggle overflow 例
ceph fs subvolume snapshot ls cephfs sub0 --group_name subgroup0
[root@mon ~]# ceph fs subvolume snapshot ls cephfs sub0 --group_name subgroup0Copy to Clipboard Copied! Toggle word wrap Toggle overflow
4.3.9. ファイルシステムサブボリュームのスナップショットのメタデータの取得。 リンクのコピーリンクがクリップボードにコピーされました!
このセクションでは、Ceph File System (CephFS) サブボリュームのスナップショットのメタデータを取得する手順について説明します。
前提条件
- CephFS がデプロイされている稼働中の Red Hat Ceph Storage クラスター。
- Ceph Monitor での少なくとも読み取りアクセス。
- Ceph Manager ノードの読み取りおよび書き込み機能。
- CephFS サブボリューム。
- サブボリュームのスナップショット。
手順
CephFS サブボリュームのスナップショットのメタデータを取得します。
構文
ceph fs subvolume snapshot info VOLUME_NAME SUBVOLUME_NAME SNAP_NAME [--group_name SUBVOLUME_GROUP_NAME]
ceph fs subvolume snapshot info VOLUME_NAME SUBVOLUME_NAME SNAP_NAME [--group_name SUBVOLUME_GROUP_NAME]Copy to Clipboard Copied! Toggle word wrap Toggle overflow 例
ceph fs subvolume snapshot info cephfs sub0 snap0 --group_name subgroup0
[root@mon ~]# ceph fs subvolume snapshot info cephfs sub0 snap0 --group_name subgroup0Copy to Clipboard Copied! Toggle word wrap Toggle overflow 出力例
Copy to Clipboard Copied! Toggle word wrap Toggle overflow
出力形式は JSON で、以下のフィールドが含まれます。
- created_at: スナップショットの作成時間 ("YYYY-MM-DD HH:MM:SS:ffffff" 形式)。
- data_pool: スナップショットが属するデータプール。
- has_pending_clones: スナップショットの選択が進行中の場合は "yes" そうでなければ "no"。
- サイズ: スナップショットサイズ (バイト単位)。
4.3.10. ファイルシステムのサブボリュームの削除 リンクのコピーリンクがクリップボードにコピーされました!
このセクションでは、Ceph File System (CephFS) サブボリュームを削除する方法を説明します。
ceph fs subvolume rm コマンドは、2 つのステップでサブボリュームとその内容を削除します。まず、サブボリュームをゴミ箱フォルダーに移動し、そのコンテンツを非同期的にパージします。
サブボリュームは、--retain-snapshots オプションを使用してサブボリュームの既存のスナップショットを保持できます。スナップショットが保持されると、そのサブボリュームは、保持済みスナップショットが関係するすべての操作に対して空であると見なされます。保持されるスナップショットは、サブボリュームを再作成するクローンソースとして使用するか、新しいサブボリュームにクローンを作成します。
前提条件
- Ceph File System がデプロイされている稼働中の Red Hat Ceph Storage クラスター。
- Ceph Monitor での少なくとも読み取りアクセス。
- Ceph Manager ノードの読み取りおよび書き込み機能。
- CephFS サブボリューム。
手順
CephFS サブボリュームを削除します。
構文
ceph fs subvolume rm VOLUME_NAME SUBVOLUME_NAME [--group_name SUBVOLUME_GROUP_NAME] [--force] [--retain-snapshots]
ceph fs subvolume rm VOLUME_NAME SUBVOLUME_NAME [--group_name SUBVOLUME_GROUP_NAME] [--force] [--retain-snapshots]Copy to Clipboard Copied! Toggle word wrap Toggle overflow 例
ceph fs subvolume rm cephfs sub0 --group_name subgroup0 --retain-snapshots
[root@mon ~]# ceph fs subvolume rm cephfs sub0 --group_name subgroup0 --retain-snapshotsCopy to Clipboard Copied! Toggle word wrap Toggle overflow 保持されるスナップショットからサブボリュームを再作成するには、以下を実行します。
構文
ceph fs subvolume snapshot clone VOLUME_NAME DELETED_SUBVOLUME RETAINED_SNAPSHOT NEW_SUBVOLUME --group_name SUBVOLUME_GROUP_NAME --target_group_name SUBVOLUME_TARGET_GROUP_NAME
ceph fs subvolume snapshot clone VOLUME_NAME DELETED_SUBVOLUME RETAINED_SNAPSHOT NEW_SUBVOLUME --group_name SUBVOLUME_GROUP_NAME --target_group_name SUBVOLUME_TARGET_GROUP_NAMECopy to Clipboard Copied! Toggle word wrap Toggle overflow - NEW_SUBVOLUMEは、以前に削除された同じサブボリュームにするか、新しいサブボリュームにクローンを作成します。
例
ceph fs subvolume snapshot clone cephfs sub0 snap0 sub1 --group_name subgroup0 --target_group_name subgroup0
[root@mon ~]# ceph fs subvolume snapshot clone cephfs sub0 snap0 sub1 --group_name subgroup0 --target_group_name subgroup0Copy to Clipboard Copied! Toggle word wrap Toggle overflow
4.3.11. ファイルシステムのサブボリュームのスナップショットの削除 リンクのコピーリンクがクリップボードにコピーされました!
このセクションでは、Ceph File System (CephFS) サブボリュームグループのスナップショットを削除する手順について説明します。
--force フラグを使用すると、コマンドを正常に実行でき、スナップショットが存在しない場合には失敗します。
前提条件
- Ceph File System がデプロイされている稼働中の Red Hat Ceph Storage クラスター。
- Ceph Monitor での少なくとも読み取りアクセス。
- Ceph Manager ノードの読み取りおよび書き込み機能。
- Ceph File System ボリューム。
- サブボリュームグループのスナップショット。
手順
CephFS サブボリュームのスナップショットを削除します。
構文
ceph fs subvolume snapshot rm VOLUME_NAME SUBVOLUME_NAME SNAP_NAME [--group_name GROUP_NAME --force]
ceph fs subvolume snapshot rm VOLUME_NAME SUBVOLUME_NAME SNAP_NAME [--group_name GROUP_NAME --force]Copy to Clipboard Copied! Toggle word wrap Toggle overflow 例
ceph fs subvolume snapshot rm cephfs sub0 snap0 --group_name subgroup0 --force
[root@mon ~]# ceph fs subvolume snapshot rm cephfs sub0 snap0 --group_name subgroup0 --forceCopy to Clipboard Copied! Toggle word wrap Toggle overflow
4.4. Ceph File System サブボリュームのメタデータ情報 リンクのコピーリンクがクリップボードにコピーされました!
ストレージ管理者は、Ceph File System (CephFS) サブボリュームのメタデータ情報を設定、取得、一覧表示、および削除できます。
カスタムメタデータは、ユーザーがメタデータをサブボリュームに保存するためのものです。ユーザーは xattr と同様のキーと値のペアを Ceph ファイルシステムに保存できます。
このセクションでは、以下を行う方法を説明します。
4.4.1. ファイルシステムサブボリュームでのカスタムメタデータの設定 リンクのコピーリンクがクリップボードにコピーされました!
ファイルシステムサブボリュームにカスタムメタデータをキーと値のペアとして設定できます。
key_name がすでに存在する場合、古い値は新しい値に置き換えられます。
KEY_NAME と VALUE は、python の string.printable で指定されている ASCII 文字の文字列である必要があります。KEY_NAME は大文字と小文字が区別されず、常に小文字で保存されます。
サブボリュームのカスタムメタデータは、サブボリュームのスナップショット作成時に保持されないため、サブボリュームスナップショットのクローン作成時にも保持されません。
前提条件
- 稼働中の Red Hat Ceph Storage クラスターがある。
- Ceph ファイルシステム (CephFS)、CephFS ボリューム、サブボリュームグループ、およびサブボリュームが作成されました。
手順
CephFS サブボリュームにメタデータを設定します。
構文
ceph fs subvolume metadata set VOLUME_NAME SUBVOLUME_NAME KEY_NAME VALUE [--group_name SUBVOLUME_GROUP_NAME]
ceph fs subvolume metadata set VOLUME_NAME SUBVOLUME_NAME KEY_NAME VALUE [--group_name SUBVOLUME_GROUP_NAME]Copy to Clipboard Copied! Toggle word wrap Toggle overflow 例
[ceph: root@host01 /]# ceph fs subvolume metadata set cephfs sub0 test_meta cluster --group_name subgroup0
[ceph: root@host01 /]# ceph fs subvolume metadata set cephfs sub0 test_meta cluster --group_name subgroup0Copy to Clipboard Copied! Toggle word wrap Toggle overflow オプション:
KEY_NAMEにスペースを含むカスタムメタデータを設定します。例
[ceph: root@host01 /]# ceph fs subvolume metadata set cephfs sub0 "test meta" cluster --group_name subgroup0
[ceph: root@host01 /]# ceph fs subvolume metadata set cephfs sub0 "test meta" cluster --group_name subgroup0Copy to Clipboard Copied! Toggle word wrap Toggle overflow これにより、
KEY_NAMEを持つ別のメタデータが VALUEclusterのtest metaとして作成されます。オプション: 同じメタデータに別の値を設定することもできます。
例
[ceph: root@host01 /]# ceph fs subvolume metadata set cephfs sub0 "test_meta" cluster2 --group_name subgroup0
[ceph: root@host01 /]# ceph fs subvolume metadata set cephfs sub0 "test_meta" cluster2 --group_name subgroup0Copy to Clipboard Copied! Toggle word wrap Toggle overflow
4.4.2. ファイルシステムサブボリュームでのカスタムメタデータの取得 リンクのコピーリンクがクリップボードにコピーされました!
ボリューム内、およびオプションで特定のサブボリュームグループ内の Ceph ファイルシステム (CephFS) のカスタムメタデータ (キーと値のペア) を取得できます。
前提条件
- 稼働中の Red Hat Ceph Storage クラスターがある。
- CephFS ボリューム、サブボリュームグループ、およびサブボリュームが作成されました。
- CephFS サブボリュームで作成されたカスタムメタデータ。
手順
CephFS サブボリュームのメタデータを取得します。
構文
ceph fs subvolume metadata get VOLUME_NAME SUBVOLUME_NAME KEY_NAME [--group_name SUBVOLUME_GROUP_NAME]
ceph fs subvolume metadata get VOLUME_NAME SUBVOLUME_NAME KEY_NAME [--group_name SUBVOLUME_GROUP_NAME]Copy to Clipboard Copied! Toggle word wrap Toggle overflow 例
[ceph: root@host01 /]# ceph fs subvolume metadata get cephfs sub0 test_meta --group_name subgroup0 cluster
[ceph: root@host01 /]# ceph fs subvolume metadata get cephfs sub0 test_meta --group_name subgroup0 clusterCopy to Clipboard Copied! Toggle word wrap Toggle overflow
4.4.3. ファイルシステムサブボリュームでのカスタムメタデータの一覧表示 リンクのコピーリンクがクリップボードにコピーされました!
ボリューム内の Ceph ファイルシステム (CephFS) のキーに関連付けられたカスタムメタデータを一覧表示し、オプションで特定のサブボリュームグループ内に一覧表示することもできます。
前提条件
- 稼働中の Red Hat Ceph Storage クラスターがある。
- CephFS ボリューム、サブボリュームグループ、およびサブボリュームが作成されました。
- CephFS サブボリュームで作成されたカスタムメタデータ。
手順
CephFS サブボリュームのメタデータを一覧表示します。
構文
ceph fs subvolume metadata ls VOLUME_NAME SUBVOLUME_NAME [--group_name SUBVOLUME_GROUP_NAME]
ceph fs subvolume metadata ls VOLUME_NAME SUBVOLUME_NAME [--group_name SUBVOLUME_GROUP_NAME]Copy to Clipboard Copied! Toggle word wrap Toggle overflow 例
[ceph: root@host01 /]# ceph fs subvolume metadata ls cephfs sub0 { "test_meta": "cluster" }[ceph: root@host01 /]# ceph fs subvolume metadata ls cephfs sub0 { "test_meta": "cluster" }Copy to Clipboard Copied! Toggle word wrap Toggle overflow
4.4.4. ファイルシステムサブボリュームからのカスタムメタデータの削除 リンクのコピーリンクがクリップボードにコピーされました!
ボリューム内、およびオプションで特定のサブボリュームグループ内の Ceph ファイルシステム (CephFS) のカスタムメタデータ (キーと値のペア) を削除できます。
前提条件
- 稼働中の Red Hat Ceph Storage クラスターがある。
- CephFS ボリューム、サブボリュームグループ、およびサブボリュームが作成されました。
- CephFS サブボリュームで作成されたカスタムメタデータ。
手順
CephFS サブボリュームのカスタムメタデータを削除します。
構文
ceph fs subvolume metadata rm VOLUME_NAME SUBVOLUME_NAME KEY_NAME [--group_name SUBVOLUME_GROUP_NAME]
ceph fs subvolume metadata rm VOLUME_NAME SUBVOLUME_NAME KEY_NAME [--group_name SUBVOLUME_GROUP_NAME]Copy to Clipboard Copied! Toggle word wrap Toggle overflow 例
[ceph: root@host01 /]# ceph fs subvolume metadata rm cephfs sub0 test_meta --group_name subgroup0
[ceph: root@host01 /]# ceph fs subvolume metadata rm cephfs sub0 test_meta --group_name subgroup0Copy to Clipboard Copied! Toggle word wrap Toggle overflow メタデータを一覧表示します。
例
[ceph: root@host01 /]# ceph fs subvolume metadata ls cephfs sub0 {}[ceph: root@host01 /]# ceph fs subvolume metadata ls cephfs sub0 {}Copy to Clipboard Copied! Toggle word wrap Toggle overflow
第5章 Ceph File System 管理 リンクのコピーリンクがクリップボードにコピーされました!
ストレージ管理者は、以下のような共通の Ceph File System (CephFS) の管理タスクを実行することができます。
-
CephFS メトリックのリアルタイム監視については、「
cephfs-topユーティリティーの使用」 を参照してください。 - 特定の MDS ランクにディレクトリーをマッピングする場合は、「ディレクトリーツリーから Metadata Server デーモンのランクへのマッピング」 を参照してください。
- MDS ランクからディレクトリーの関連付けを解除する場合は、「Metadata Server デーモンのランクからディレクトリーツリーの解除」 を参照してください。
- 新しいデータプールの追加は、「データプールの追加」を参照してください。
- クォータの使用は、7章Ceph File システムのクォータ を参照してください。
- ファイルとディレクトリーレイアウトを使用する場合は、8章ファイルとディレクトリーのレイアウト を参照してください。
- Ceph File System の削除中は「Ceph ファイルシステムの削除」を参照してください。
- クライアント機能は、「クライアント機能」 を参照してください。
-
ceph mds failコマンドの使用は、「ceph mds failコマンドの使用」 を参照してください。 - CephFS クライアントを手動でエビクトします。詳細は 「Ceph File System クライアントの手動エビクト」 を参照してください。
前提条件
- 実行中、および正常な Red Hat Ceph Storage クラスター
-
Ceph Metadata Server デーモン (
ceph-mds) のインストールおよび設定 - Ceph ファイルシステムを作成してマウントします。
5.1. cephfs-top ユーティリティーの使用 リンクのコピーリンクがクリップボードにコピーされました!
Ceph File System (CephFS) は、リアルタイムに Ceph File Systems でメトリックを表示する top のようなユーティリティーを提供します。cephfs-top ユーティリティーは、Ceph Manager の stats モジュールを使用してクライアントパフォーマンスメトリックを取得して表示する curses ベースの Python スクリプトです。
現在、cephfs-top ユーティリティーは約 10,000 のクライアントをサポートしています。
現在、Red Hat Enterprise Linux 9.2 カーネルで、パフォーマンス統計がすべて利用できるわけではありません。cephfs-top は Red Hat Enterprise Linux 9 以降でサポートされており、Red Hat Enterprise Linux の標準ターミナルの 1 つを使用します。
cephfs-top ユーティリティーと互換性のある Python の最小バージョンは 3.6.0 です。
前提条件
- 正常かつ稼働中の Red Hat Ceph Storage クラスター
- Ceph File System のデプロイメント
- Ceph クライアントノードへのルートレベルのアクセスがある。
-
cephfs-topパッケージのインストール
手順
Red Hat Ceph Storage 7 ツールリポジトリーがまだ有効になっていない場合は、有効にします。
Red Hat Enterprise Linux 9
subscription-manager repos --enable=rhceph-7-tools-for-rhel-9-x86_64-rpms
[root@client ~]# subscription-manager repos --enable=rhceph-7-tools-for-rhel-9-x86_64-rpmsCopy to Clipboard Copied! Toggle word wrap Toggle overflow cephfs-topパッケージをインストールします。例
dnf install cephfs-top
[root@client ~]# dnf install cephfs-topCopy to Clipboard Copied! Toggle word wrap Toggle overflow Ceph Manager
statsプラグインを有効にします。例
ceph mgr module enable stats
[root@client ~]# ceph mgr module enable statsCopy to Clipboard Copied! Toggle word wrap Toggle overflow Ceph ユーザー
client.fstopを作成します。例
ceph auth get-or-create client.fstop mon 'allow r' mds 'allow r' osd 'allow r' mgr 'allow r' > /etc/ceph/ceph.client.fstop.keyring
[root@client ~]# ceph auth get-or-create client.fstop mon 'allow r' mds 'allow r' osd 'allow r' mgr 'allow r' > /etc/ceph/ceph.client.fstop.keyringCopy to Clipboard Copied! Toggle word wrap Toggle overflow 注記必要に応じて、
--id引数を使用して、client.fstop以外の別の Ceph ユーザーを指定します。cephfs-topユーティリティーを起動します。例
Copy to Clipboard Copied! Toggle word wrap Toggle overflow
5.1.1. cephfs-top ユーティリティーの対話型コマンド リンクのコピーリンクがクリップボードにコピーされました!
特定のファイルシステムを選択し、cephfs-top ユーティリティーの対話型コマンドを使用して、そのファイルシステムに関連するメトリックを表示します。
m- 説明
- ファイルシステムの選択: 選択するファイルシステムのメニューを表示します。
q- 説明
- 終了: すべてのファイルシステム情報が表示されたホーム画面にいる場合は、ユーティリティーを終了します。ホーム画面にいない場合は、ホーム画面にリダイレクトされます。
s- 説明
- ソートフィールドの選択: ソートフィールドを指定します。‘cap_hit’ がデフォルトです。
l- 説明
- クライアントの制限: 表示するクライアント数の制限を設定します。
r- 説明
- リセット: ソートフィールドと制限値をデフォルトにリセットします。
メトリクス表示は、矢印キー、PgUp/PgDn、Home/End、およびマウスを使用してスクロールできます。
ファイルシステム選択メニューの開始と終了の例
5.1.2. cephfs-top ユーティリティーのオプション リンクのコピーリンクがクリップボードにコピーされました!
cephfs-top ユーティリティーコマンドをさまざまなオプションとともに使用できます。
例
cephfs-top --selftest
[root@client ~]# cephfs-top --selftest
selftest ok
--cluster NAME_OF_THE_CLUSTER- 説明
-
このオプションを使用すると、デフォルト以外のクラスター名に接続できます。デフォルト名は
cephです。
--id user- 説明
-
これは、Ceph クラスターに接続するクライアントであり、デフォルトでは
fstopです。
--selftest- 説明
-
このオプションを使用すると、セルフテストを実行できます。このモードは、
statsモジュールの健全性チェックを実行します。
--conffile PATH_TO_THE_CONFIGURATION_FILE- 説明
- このオプションを使用すると、Ceph クラスター設定ファイルへのパスを指定できます。
-d/--delay INTERVAL_IN_SECONDS- 説明
cephfs-topユーティリティーは、デフォルトで統計を毎秒更新します。このオプションを使用すると、更新間隔を変更できます。注記間隔は 1 秒以上にする必要があります。小数秒は尊重されます。
--dump- 説明
- このオプションを使用すると、curses 表示を作成せずにメトリクスを標準出力にダンプできます。
--dumpfs FILE_SYSTEM_NAME- 説明
- このオプションを使用すると、curses 表示を作成せずに、指定されたファイルシステムのメトリクスを標準出力にダンプできます。
5.2. MDS Autoscaler モジュールの使用 リンクのコピーリンクがクリップボードにコピーされました!
MDS Autoscaler モジュールは、Ceph File System (CephFS) を監視し、十分な MDS デーモンが利用可能であることを確認します。MDS サービスの Orchestrator バックエンドの配置仕様を調整することで機能します。
モジュールは、以下のファイルシステム設定をモニタリングして、配置数の調整を通知します。
-
max_mdsファイルシステムの設定 -
standby_count_wantedファイルシステムの設定
Ceph monitor デーモンは、これらの設定に応じて MDS をプロモートまたは停止します。mds_autoscaler は、オーケストレーターによって起動する MDS の数を調整します。
前提条件
- 正常かつ稼働中の Red Hat Ceph Storage クラスター
- Ceph File System のデプロイメント
- Ceph Monitor ノードへの root レベルのアクセス。
手順
MDS Autoscaler モジュールを有効にします。
例
[ceph: root@host01 /]# ceph mgr module enable mds_autoscaler
[ceph: root@host01 /]# ceph mgr module enable mds_autoscalerCopy to Clipboard Copied! Toggle word wrap Toggle overflow
5.3. カーネルクライアントとしてマウントされた Ceph File Systems のアンマウント リンクのコピーリンクがクリップボードにコピーされました!
カーネルクライアントとしてマウントされている Ceph File System をアンマウントする方法。
前提条件
- マウントを実行するノードへの Root レベルのアクセス。
手順
カーネルクライアントとしてマウントされている Ceph File System をアンマウントするには、以下を実行します。
構文
umount MOUNT_POINT
umount MOUNT_POINTCopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
umount /mnt/cephfs
[root@client ~]# umount /mnt/cephfsCopy to Clipboard Copied! Toggle word wrap Toggle overflow
関連情報
-
umount(8)man ページ
5.4. FUSE クライアントとしてマウントされている Ceph File Systems のアンマウント リンクのコピーリンクがクリップボードにコピーされました!
File System in User Space (FUSE) クライアントとしてマウントされている Ceph File System のアンマウント。
前提条件
- FUSE クライアントノードへのルートレベルのアクセス。
手順
FUSE にマウントされた Ceph File System をアンマウントするには、以下を実行します。
構文
fusermount -u MOUNT_POINT
fusermount -u MOUNT_POINTCopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
fusermount -u /mnt/cephfs
[root@client ~]# fusermount -u /mnt/cephfsCopy to Clipboard Copied! Toggle word wrap Toggle overflow
関連情報
-
ceph-fuse(8)man ページ
5.5. ディレクトリーツリーから Metadata Server デーモンのランクへのマッピング リンクのコピーリンクがクリップボードにコピーされました!
ディレクトリーとそのサブディレクトリーを特定のアクティブな Metadata Server (MDS) ランクにマッピングするには、そのメタデータがランクを保持する MDS デーモンによってのみ管理されるようにします。このアプローチにより、アプリケーションの負荷や、ユーザーのメタデータ要求の影響をストレージクラスター全体に均等に分散させることができます。
内部バランサーは、すでにアプリケーションの負荷を動的に分散します。そのため、特定の慎重に選択したアプリケーションに対して、ディレクトリーツリーのみをマップします。
さらに、ディレクトリーがランクにマップされると、バランサーはこれを分割できません。そのため、マップされたディレクトリー内の多数の操作を行うと、ランクおよびそれを管理する MDS デーモンをオーバーロードできます。
前提条件
- 少なくとも 2 つのアクティブな MDS デーモン。
- CephFS クライアントノードへのユーザーアクセス
-
マウントされた Ceph File System を含む CephFS クライアントノードに
attrパッケージがインストールされていることを確認します。
手順
Ceph ユーザーのケイパビリティーに
pフラグを追加します。構文
ceph fs authorize FILE_SYSTEM_NAME client.CLIENT_NAME /DIRECTORY CAPABILITY [/DIRECTORY CAPABILITY] ...
ceph fs authorize FILE_SYSTEM_NAME client.CLIENT_NAME /DIRECTORY CAPABILITY [/DIRECTORY CAPABILITY] ...Copy to Clipboard Copied! Toggle word wrap Toggle overflow 例
Copy to Clipboard Copied! Toggle word wrap Toggle overflow ディレクトリーに
ceph.dir.pin拡張属性を設定します。構文
setfattr -n ceph.dir.pin -v RANK DIRECTORY
setfattr -n ceph.dir.pin -v RANK DIRECTORYCopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
setfattr -n ceph.dir.pin -v 2 /temp
[user@client ~]$ setfattr -n ceph.dir.pin -v 2 /tempCopy to Clipboard Copied! Toggle word wrap Toggle overflow この例では、
/tempディレクトリーとそのすべてのサブディレクトリーを rank 2 に割り当てます。
関連情報
-
pフラグの詳細は、Red Hat Ceph Storage ファイルシステムガイド の レイアウト、クォータ、スナップショット、ネットワークの制限 についてのセクションを参照してください。 - 詳細は、Red Hat Ceph Storage File System ガイド の ディレクトリーツリーを特定のランクに手動で固定する セクションを参照してください。
- 詳細は、Red Hat Ceph Storage ファイルシステムガイド の 複数のアクティブな Metadata Server デーモンの設定 セクションを参照してください。
5.6. Metadata Server デーモンのランクからディレクトリーツリーの解除 リンクのコピーリンクがクリップボードにコピーされました!
特定のアクティブなメタデータサーバー (MDS) ランクからディレクトリーの関連付けを解除します。
前提条件
- Ceph File System (CephFS) クライアントノードへのユーザーアクセス
-
マウントされた CephFS を持つクライアントノードに
attrパッケージがインストールされていることを確認します。
手順
ディレクトリーの
ceph.dir.pin拡張属性を -1 に設定します。構文
setfattr -n ceph.dir.pin -v -1 DIRECTORY
setfattr -n ceph.dir.pin -v -1 DIRECTORYCopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
setfattr -n ceph.dir.pin -v -1 /home/ceph-user
[user@client ~]$ setfattr -n ceph.dir.pin -v -1 /home/ceph-userCopy to Clipboard Copied! Toggle word wrap Toggle overflow 注記/home/ceph-user/の個別にマッピングされたサブディレクトリーは影響を受けません。
関連情報
- 詳細は、Red Hat Ceph Storage File System ガイド の ディレクトリーツリーから Metadata Server デーモンのランクへのマッピング セクションを参照してください。
5.7. データプールの追加 リンクのコピーリンクがクリップボードにコピーされました!
Ceph File System (CephFS) では、データの保存に使用する複数のプールの追加をサポートします。これは以下に役立ちます。
- ログデータの冗長性プールの削減。
- SSD または NVMe プールへのユーザーのホームディレクトリーの保存。
- 基本的なデータ分離。
Ceph File System で別のデータプールを使用する前に、このセクションで説明されているように追加する必要があります。
デフォルトでは、ファイルデータを保存するために、CephFS は作成中に指定された初期データプールを使用します。セカンダリーデータプールを使用するには、ファイルシステム階層の一部を設定して、そのプールにファイルデータを保存するか、必要に応じてそのプールの名前空間内にファイルデータを保存し、ファイルおよびディレクトリーのレイアウトを使用します。
前提条件
- Ceph Monitor ノードへの root レベルのアクセス。
手順
新しいデータプールを作成します。
構文
ceph osd pool create POOL_NAME
ceph osd pool create POOL_NAMECopy to Clipboard Copied! Toggle word wrap Toggle overflow 以下を置き換えます。
-
POOL_NAMEは、プールの名前に置き換えます。
例
[ceph: root@host01 /]# ceph osd pool create cephfs_data_ssd pool 'cephfs_data_ssd' created
[ceph: root@host01 /]# ceph osd pool create cephfs_data_ssd pool 'cephfs_data_ssd' createdCopy to Clipboard Copied! Toggle word wrap Toggle overflow -
メタデータサーバーの制御の下に、新たに作成されたプールを追加します。
構文
ceph fs add_data_pool FS_NAME POOL_NAME
ceph fs add_data_pool FS_NAME POOL_NAMECopy to Clipboard Copied! Toggle word wrap Toggle overflow 以下を置き換えます。
-
FS_NAMEは、ファイルシステムの名前に置き換えます。 -
POOL_NAMEは、プールの名前に置き換えます。
たとえば、以下のようになります。
[ceph: root@host01 /]# ceph fs add_data_pool cephfs cephfs_data_ssd added data pool 6 to fsmap
[ceph: root@host01 /]# ceph fs add_data_pool cephfs cephfs_data_ssd added data pool 6 to fsmapCopy to Clipboard Copied! Toggle word wrap Toggle overflow -
プールが正常に追加されたことを確認します。
例
[ceph: root@host01 /]# ceph fs ls name: cephfs, metadata pool: cephfs_metadata, data pools: [cephfs_data cephfs_data_ssd]
[ceph: root@host01 /]# ceph fs ls name: cephfs, metadata pool: cephfs_metadata, data pools: [cephfs_data cephfs_data_ssd]Copy to Clipboard Copied! Toggle word wrap Toggle overflow オプション: ファイルシステムからデータプールを削除します。
構文
ceph fs rm_data_pool FS_NAME POOL_NAME
ceph fs rm_data_pool FS_NAME POOL_NAMECopy to Clipboard Copied! Toggle word wrap Toggle overflow たとえば、以下のようになります。
[ceph: root@host01 /]# ceph fs rm_data_pool cephfs cephfs_data_ssd removed data pool 6 from fsmap
[ceph: root@host01 /]# ceph fs rm_data_pool cephfs cephfs_data_ssd removed data pool 6 from fsmapCopy to Clipboard Copied! Toggle word wrap Toggle overflow プールが正常に削除されたことを確認します。
例
[ceph: root@host01 /]# ceph fs ls name: cephfs, metadata pool: cephfs_metadata, data pools: [cephfs.cephfs.data]
[ceph: root@host01 /]# ceph fs ls name: cephfs, metadata pool: cephfs_metadata, data pools: [cephfs.cephfs.data]Copy to Clipboard Copied! Toggle word wrap Toggle overflow
-
cephx認証を使用する場合は、クライアントが新しいプールにアクセスできることを確認してください。
関連情報
- 詳細は、Red Hat Ceph Storage File System ガイド の ファイルおよびディレクトリーレイアウト セクションを参照してください。
- 詳細は、Red Hat Ceph Storage File System ガイド の Ceph File System のクライアントユーザーの作成 セクションを参照してください。
5.8. Ceph File System クラスターの停止 リンクのコピーリンクがクリップボードにコピーされました!
down フラグを true に設定すると、Ceph File System (CephFS) クラスターを停止することができます。これにより、ジャーナルをメタデータプールにフラッシュして Metadata Server (MDS) デーモンを正常にシャットダウンし、すべてのクライアント I/O が停止します。
また、CephFS クラスターを迅速に停止してファイルシステムの削除をテストし、メタデータサーバー (MDS) デーモン (障害復旧シナリオなど) を停止することもできます。これにより、MDS のスタンバイデーモンがファイルシステムをアクティベートしないように jointable フラグが設定されます。
前提条件
- Ceph Monitor ノードへの root レベルのアクセス。
手順
CephFS クラスターが停止しているには、以下を実行します。
構文
ceph fs set FS_NAME down true
ceph fs set FS_NAME down trueCopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
[ceph: root@host01 /]# ceph fs set cephfs down true
[ceph: root@host01 /]# ceph fs set cephfs down trueCopy to Clipboard Copied! Toggle word wrap Toggle overflow CephFS クラスターを起動するには、以下をバックアップします。
構文
ceph fs set FS_NAME down false
ceph fs set FS_NAME down falseCopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
[ceph: root@host01 /]# ceph fs set cephfs down false
[ceph: root@host01 /]# ceph fs set cephfs down falseCopy to Clipboard Copied! Toggle word wrap Toggle overflow
または
CephFS クラスターを迅速に停止するには、以下を実行します。
構文
ceph fs fail FS_NAME
ceph fs fail FS_NAMECopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
[ceph: root@host01 /]# ceph fs fail cephfs
[ceph: root@host01 /]# ceph fs fail cephfsCopy to Clipboard Copied! Toggle word wrap Toggle overflow 注記CephFS クラスターのバックアップを作成するには、
cephfsをjoinableに設定します。構文
ceph fs set FS_NAME joinable true
ceph fs set FS_NAME joinable trueCopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
[ceph: root@host01 /]# ceph fs set cephfs joinable true cephfs marked joinable; MDS may join as newly active.
[ceph: root@host01 /]# ceph fs set cephfs joinable true cephfs marked joinable; MDS may join as newly active.Copy to Clipboard Copied! Toggle word wrap Toggle overflow
5.9. Ceph ファイルシステムの削除 リンクのコピーリンクがクリップボードにコピーされました!
Ceph File System (CephFS) を削除できます。その前に、すべてのデータのバックアップを作成し、すべてのクライアントがローカルにファイルシステムのマウントを解除していることを確認します。
この操作は破壊的で、Ceph File System に保存されているデータが永続的にアクセスできないようにします。
前提条件
- データのバックアップを作成します。
- Ceph Monitor ノードへの root レベルのアクセス。
手順
ストレージクラスターに down のマークを付けます。
構文
ceph fs set FS_NAME down true
ceph fs set FS_NAME down trueCopy to Clipboard Copied! Toggle word wrap Toggle overflow - 置き換え
- FS_NAME は、削除する Ceph File System の名前に置き換えます。
例
[ceph: root@host01 /]# ceph fs set cephfs down true cephfs marked down.
[ceph: root@host01 /]# ceph fs set cephfs down true cephfs marked down.Copy to Clipboard Copied! Toggle word wrap Toggle overflow Ceph File System のステータス表示
ceph fs status
ceph fs statusCopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
Copy to Clipboard Copied! Toggle word wrap Toggle overflow Ceph ファイルシステムを削除します。
構文
ceph fs rm FS_NAME --yes-i-really-mean-it
ceph fs rm FS_NAME --yes-i-really-mean-itCopy to Clipboard Copied! Toggle word wrap Toggle overflow - 置き換え
- FS_NAME は、削除する Ceph File System の名前に置き換えます。
例
[ceph: root@host01 /]# ceph fs rm cephfs --yes-i-really-mean-it
[ceph: root@host01 /]# ceph fs rm cephfs --yes-i-really-mean-itCopy to Clipboard Copied! Toggle word wrap Toggle overflow ファイルシステムが正常に削除されたことを確認します。
例
[ceph: root@host01 /]# ceph fs ls
[ceph: root@host01 /]# ceph fs lsCopy to Clipboard Copied! Toggle word wrap Toggle overflow - 任意です。削除されたファイルシステムに関連付けられたデータおよびメタデータプールを削除します。
関連情報
- Red Hat Ceph Storage ストレージストラテジーガイド の プールの削除 セクションを参照してください。
5.10. ceph mds fail コマンドの使用 リンクのコピーリンクがクリップボードにコピーされました!
ceph mds fail コマンドを使用して、以下を実行します。
-
MDS デーモンを失敗としてマークします。デーモンがアクティブで適切なスタンバイデーモンが利用可能な場合で、
standby-replay設定を無効にした後にスタンバイデーモンがアクティブな場合には、このコマンドを使用すると standby デーモンへのフェイルオーバーを強制します。standby-replayデーモンを無効にすることで、新規のstandby-replayデーモンが割り当てられないようにします。 - 実行中の MDS デーモンを再起動します。デーモンがアクティブで、適切なスタンバイデーモンが利用できる場合には、"failed" デーモンはスタンバイデーモンになります。
前提条件
- Ceph MDS デーモンのインストールおよび設定
手順
デーモンが失敗するには、以下を実行します。
構文
ceph mds fail MDS_NAME
ceph mds fail MDS_NAMECopy to Clipboard Copied! Toggle word wrap Toggle overflow MDS_NAME は、MDS ノード
standby-replayの名前です。例
[ceph: root@host01 /]# ceph mds fail example01
[ceph: root@host01 /]# ceph mds fail example01Copy to Clipboard Copied! Toggle word wrap Toggle overflow 注記Ceph MDS 名は、
ceph fs statusコマンドで確認することができます。
5.11. クライアント機能 リンクのコピーリンクがクリップボードにコピーされました!
Ceph File System (CephFS) 機能を設定する際には、クライアントが Ceph File Systems を使用できるようにサポートしておく必要のある場合があります。これらの機能がないクライアントでは、他の CephFS クライアントを中断したり、予期せぬ動作をすることがあります。また、古いものや、クライアントが Ceph File System に接続しないように、新機能が必要になる場合があります。
新たに追加された機能がない CephFS クライアントは自動的にエビクトされます。
fs features ls コマンドを使用して、すべての CephFS 機能をリスト表示できます。fs required_client_features コマンドを使用して要件を追加または削除できます。
構文
fs required_client_features FILE_SYSTEM_NAME add FEATURE_NAME fs required_client_features FILE_SYSTEM_NAME rm FEATURE_NAME
fs required_client_features FILE_SYSTEM_NAME add FEATURE_NAME
fs required_client_features FILE_SYSTEM_NAME rm FEATURE_NAME
機能の説明
reply_encoding- 説明
- Ceph Metadata Server(MDS) は、クライアントがこの機能をサポートする場合は、拡張可能な形式で応答要求をエンコードします。
reclaim_client- 説明
- Ceph MDS により、新しいクライアントがデッド、クライアントの状態が停止するなど、別のクライアントを回収できます。この機能は、NFS Ganesha により使用されます。
lazy_caps_wanted- 説明
- 古いクライアントが再開すると、Ceph MDS は、クライアントがこの機能をサポートしている場合に限り、明示的に必要な機能を再発行する必要があります。
multi_reconnect- 説明
- Ceph MDS フェイルオーバーのイベントの後に、クライアントは再接続メッセージを MDS に送信してキャッシュ状態を再確立します。クライアントは、大きな再接続メッセージを複数のメッセージに分割できます。
deleg_ino- 説明
- Ceph MDS は、クライアントがこの機能に対応していると、inode 数をクライアントに委譲します。inode 番号を委譲することは、クライアントが非同期ファイルの作成を行うための前提条件です。
metric_collect- 説明
- CephFS クライアントは、パフォーマンスメトリックを Ceph MDS に送信することができます。
alternate_name- 説明
- CephFS クライアントは、ディレクトリーエントリーの代替名を設定して理解することができます。この機能により、暗号化されたファイル名を使用できます。
5.12. Ceph File System クライアントのエビクション リンクのコピーリンクがクリップボードにコピーされました!
Ceph File System (CephFS) クライアントが応答しない、または不正な動作をする場合、強制的に終了したり、CephFS にアクセスしないようにエビクトする必要がある場合があります。CephFS クライアントをエビクトすると、さらにメタデータサーバー (MDS) デーモンおよび Ceph OSD デーモンと通信できなくなります。CephFS クライアントがエビクション時に CephFS に I/O をバッファーする場合、フラッシュされていないデータはすべて失われます。CephFS クライアントのエビクションプロセスは、すべてのクライアントタイプに適用されます。FUSE マウント、カーネルマウント、NFS ゲートウェイ、および libcephfs API ライブラリーを使用するプロセス。
CephFS クライアントを自動的にエビクトできます。これにより、MDS デーモンと一時的に通信できない場合、または手動での通信を行うことができます。
自動クライアントエビクション
以下のシナリオにより、CephFS クライアントの自動エビクションが発生します。
-
CephFS クライアントがデフォルトの 300 秒にわたってアクティブな MDS デーモンと通信していない場合、または
session_autocloseオプションで設定した場合。 -
mds_cap_revoke_eviction_timeoutオプションが設定されている場合、CephFS クライアントは設定される期間 (秒単位) の制限メッセージに対応しない。mds_cap_revoke_eviction_timeoutオプションはデフォルトで無効にされています。 -
MDS の起動またはフェイルオーバー時に、MDS デーモンは、すべての CephFS クライアントが新しい MDS デーモンに接続するのを待機する再接続フェーズを通過します。CephFS クライアントがデフォルトの時間枠内に 45 秒以内に再接続できない場合、または
mds_reconnect_timeoutオプションで設定した場合。
5.13. ブロックリスト Ceph File System クライアント リンクのコピーリンクがクリップボードにコピーされました!
Ceph File System (CephFS) クライアントのブロック機能は、デフォルトで有効になっています。エビクションコマンドを単一の Metadata Server (MDS) デーモンに送信すると、拒否リストが他の MDS デーモンに伝播されます。これは、CephFS クライアントがデータオブジェクトにアクセスできないようにするため、他の CephFS クライアントを更新し、拒否されたクライアントエントリーを含む最新の Ceph OSD マップと共に MDS デーモンを更新する必要があります。
Ceph OSD マップの更新時に内部の “osdmap epoch barrier“ メカニズムが使用されます。バリアは、ENOSPC やエビクションからのブロックリスト化されたクライアントなど、同じ RADOS オブジェクトへのアクセスが許可される可能性のある機能が割り当てられている前に、CephFS クライアントが機能を受信するために十分な最近の Ceph OSD マップがあることを検証することです。
低速なノードまたは信頼できないネットワークが原因で CephFS クライアントのエビクションが頻繁に行われていて、根本的な問題を修正できない場合、MDS により厳格に見なっているよう依頼できます。MDS セッションを単純にドロップすることで、遅い CephFS クライアントに応答することができますが、CephFS クライアントがセッションを再度開いたことを許可し、Ceph OSD との通信を継続できます。mds_session_blocklist_on_timeout および mds_session_blocklist_on_evict オプションを false に設定すると、このモードが有効になります。
ブロックリストが無効になっている場合、エビクトされた CephFS クライアントはコマンドの送信先となる MDS デーモンにのみ影響を与えます。複数のアクティブな MDS デーモンがあるシステムでは、エビクションコマンドを各アクティブなデーモンに送信する必要があります。
5.14. Ceph File System クライアントの手動エビクト リンクのコピーリンクがクリップボードにコピーされました!
Ceph File System (CephFS) クライアントを手動でエビクトして、クライアントの誤作動やクライアントノードへのアクセスがない場合や、クライアントの動作がタイムアウトするのを待たずに、クライアントセッションがタイムアウトするのを待たずに、Ceph File System (CephFS) クライアントを手動でエビクトする場合があります。
前提条件
- Ceph Monitor ノードへの root レベルのアクセス。
手順
クライアントリストを確認します。
構文
ceph tell DAEMON_NAME client ls
ceph tell DAEMON_NAME client lsCopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 指定した CephFS クライアントをエビクトします。
構文
ceph tell DAEMON_NAME client evict id=ID_NUMBER
ceph tell DAEMON_NAME client evict id=ID_NUMBERCopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
[ceph: root@host01 /]# ceph tell mds.0 client evict id=4305
[ceph: root@host01 /]# ceph tell mds.0 client evict id=4305Copy to Clipboard Copied! Toggle word wrap Toggle overflow
5.15. ブロックリストからの Ceph File System クライアントの削除 リンクのコピーリンクがクリップボードにコピーされました!
場合によっては、以前のブロックリストされた Ceph File System (CephFS) クライアントがストレージクラスターに再接続できるようにすることが役に立つ場合があります。
blocklist から CephFS クライアントを削除すると、データの整合性はリスクに伴います。また、その結果、CephFS クライアントが完全に確実に機能することを保証することはありません。エビクション後に完全に正常な CephFS クライアントを取得するには、CephFS クライアントをアンマウントして新規マウントを行うのが最適です。その他の CephFS クライアントが、拒否リストされた CephFS クライアントによってバッファーされた I/O を実行してデータの破損につながるファイルにアクセスしている場合は、データが破損する可能性があります。
前提条件
- Ceph Monitor ノードへの root レベルのアクセス。
手順
ブロックリストを確認します。
例
[ceph: root@host01 /]# ceph osd blocklist ls listed 1 entries 127.0.0.1:0/3710147553 2022-05-09 11:32:24.716146
[ceph: root@host01 /]# ceph osd blocklist ls listed 1 entries 127.0.0.1:0/3710147553 2022-05-09 11:32:24.716146Copy to Clipboard Copied! Toggle word wrap Toggle overflow ブロックリストから CephFS クライアントを削除します。
構文
ceph osd blocklist rm CLIENT_NAME_OR_IP_ADDR
ceph osd blocklist rm CLIENT_NAME_OR_IP_ADDRCopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
[ceph: root@host01 /]# ceph osd blocklist rm 127.0.0.1:0/3710147553 un-blocklisting 127.0.0.1:0/3710147553
[ceph: root@host01 /]# ceph osd blocklist rm 127.0.0.1:0/3710147553 un-blocklisting 127.0.0.1:0/3710147553Copy to Clipboard Copied! Toggle word wrap Toggle overflow オプションで、ブロックリストからカーネルベースの CephFS クライアントを自動的に再接続できます。カーネルベースの CephFS クライアントで、手動マウントを行う場合は
cleanに以下のオプションを設定するか、/etc/fstabファイルのエントリーで自動的にマウントします。recover_session=clean
recover_session=cleanCopy to Clipboard Copied! Toggle word wrap Toggle overflow 任意で、ブロックリストから削除すると、FUSE ベースの CephFS クライアントを自動的に再接続できます。FUSE クライアントで、手動マウントを行う場合は以下のオプションを
trueに設定するか、/etc/fstabファイルのエントリーで自動的にマウントします。client_reconnect_stale=true
client_reconnect_stale=trueCopy to Clipboard Copied! Toggle word wrap Toggle overflow
第6章 NFS クラスターとエクスポート管理 リンクのコピーリンクがクリップボードにコピーされました!
ストレージ管理者は、NFS クラスターを作成してカスタマイズし、NFS プロトコル経由で Ceph File System 名前空間をエクスポートできます。
前提条件
- 実行中、および正常な Red Hat Ceph Storage クラスター
-
Ceph Metadata Server デーモン (
ceph-mds) のインストールおよび設定 - Ceph ファイルシステムを作成してマウントします。
6.1. NFS クラスターの作成 リンクのコピーリンクがクリップボードにコピーされました!
nfs cluster create コマンドを使用して NFS クラスターを作成します。これにより、すべての NFS Ganesha デーモン、クラスター名に基づく新しいユーザー、および共通の NFS Ganesha 設定 RADOS オブジェクトに共通の回復プールが作成されます。
前提条件
- 実行中、および正常な Red Hat Ceph Storage クラスター
- 既存の Ceph File System。
- Ceph Monitor への root レベルのアクセス。
-
Ceph Manager ホスト上の
nfs-ganesha、nfs-ganesha-ceph、nfs-ganesha -graceおよびnfs-ganesha-rados-urlsパッケージをインストールします。 - クライアントへの root レベルのアクセス。
手順
Cephadm シェルにログインします。
例
cephadm shell
[root@mds ~]# cephadm shellCopy to Clipboard Copied! Toggle word wrap Toggle overflow Ceph Manager の NFS モジュールを有効にします。
例
[ceph: root@host01 /]# ceph mgr module enable nfs
[ceph: root@host01 /]# ceph mgr module enable nfsCopy to Clipboard Copied! Toggle word wrap Toggle overflow NFS Ganesha クラスターを作成します。
構文
ceph nfs cluster create CLUSTER_NAME [PLACEMENT] [--ingress] [--virtual_ip IP_ADDRESS] [--ingress-mode {default|keepalive-only|haproxy-standard|haproxy-protocol}] [--port PORT]ceph nfs cluster create CLUSTER_NAME [PLACEMENT] [--ingress] [--virtual_ip IP_ADDRESS] [--ingress-mode {default|keepalive-only|haproxy-standard|haproxy-protocol}] [--port PORT]Copy to Clipboard Copied! Toggle word wrap Toggle overflow 例
[ceph: root@host01 /]# ceph nfs cluster create nfs-cephfs "host01 host02" NFS Cluster Created Successfully
[ceph: root@host01 /]# ceph nfs cluster create nfs-cephfs "host01 host02" NFS Cluster Created SuccessfullyCopy to Clipboard Copied! Toggle word wrap Toggle overflow この例では、NFS Ganesha クラスター名は
nfs-cephfsで、デーモンコンテナーはhost01およびhost02にデプロイされます。重要Red Hat は、1 つのホストにつき 1 つの NFS Ganesha デーモンのみをサポートします。
NFS-Ganesha クラスター情報を検証します。
構文
ceph nfs cluster info [CLUSTER_NAME]
ceph nfs cluster info [CLUSTER_NAME]Copy to Clipboard Copied! Toggle word wrap Toggle overflow 例
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 注記CLUSTER_NAME の指定は任意です。
6.2. NFS 設定のカスタマイズ リンクのコピーリンクがクリップボードにコピーされました!
設定ファイルを使用して NFS クラスターをカスタマイズします。これにより、NFS クラスターは指定された設定を使用し、デフォルトの設定ブロックよりも優先されます。
前提条件
- 実行中、および正常な Red Hat Ceph Storage クラスター
- Ceph Metadata Server (MDS) ノードへのルートレベルのアクセス。
-
ceph nfs cluster createコマンドを使用して作成された NFS クラスター。
手順
設定ファイルを作成します。
例
[ceph: root@host01 /]# touch nfs-cephfs.conf
[ceph: root@host01 /]# touch nfs-cephfs.confCopy to Clipboard Copied! Toggle word wrap Toggle overflow 次のブロックを使用して、設定ファイルでのログ記録を有効にします。
例
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 新しい設定を行います。
構文
ceph nfs cluster config set CLUSTER_NAME -i PATH_TO_CONFIG_FILE
ceph nfs cluster config set CLUSTER_NAME -i PATH_TO_CONFIG_FILECopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
[ceph: root@host01 /]# ceph nfs cluster config set nfs-cephfs -i nfs-cephfs.conf NFS-Ganesha Config Set Successfully
[ceph: root@host01 /]# ceph nfs cluster config set nfs-cephfs -i nfs-cephfs.conf NFS-Ganesha Config Set SuccessfullyCopy to Clipboard Copied! Toggle word wrap Toggle overflow カスタマイズされた NFS Ganesha 設定を表示します。
構文
ceph nfs cluster config get CLUSTER_NAME
ceph nfs cluster config get CLUSTER_NAMECopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
Copy to Clipboard Copied! Toggle word wrap Toggle overflow これにより、ユーザー定義の設定の出力が提供されます (存在する場合)。
オプション: ユーザー定義の設定を削除する場合は、次のコマンドを実行します。
構文
ceph nfs cluster config reset CLUSTER_NAME
ceph nfs cluster config reset CLUSTER_NAMECopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
[ceph: root@host01 /]# ceph nfs cluster config reset nfs-cephfs NFS-Ganesha Config Reset Successfully
[ceph: root@host01 /]# ceph nfs cluster config reset nfs-cephfs NFS-Ganesha Config Reset SuccessfullyCopy to Clipboard Copied! Toggle word wrap Toggle overflow
6.3. NFS プロトコルを介した Ceph File System 名前空間のエクスポート (可用性に制限あり) リンクのコピーリンクがクリップボードにコピーされました!
NFS Ganesha ファイルサーバーを使用して、Ceph File Systems (CephFS) 名前空間を NFS プロトコルでエクスポートすることができます。CephFS namespace をエクスポートするには、まず実行中の NFS Ganesha クラスターが必要です。
この技術には、利用制限があります。詳細は、Deprecated functionality の章を参照してください。
Red Hat は、NFS バージョン 4.0 以降のみをサポートします。
NFS クライアントは、ネイティブ NFS マウント経由で CephFS スナップショットを作成できません。スナップショットの要件に合わせて、サーバー側のオペレーターツールを使用する必要があります。
前提条件
- 実行中、および正常な Red Hat Ceph Storage クラスター
-
ceph nfs cluster createコマンドを使用して作成された NFS クラスター。
手順
CephFS エクスポートを作成します。
注記NFS エクスポートを作成するときに
cmount_pathオプションを使用しないでください。これは、値が '/' 以外のcmount_pathを使用すると、以前に定義された NFS エクスポートにアクセスできなくなるという既知の問題があるためです。構文
ceph nfs export create cephfs CLUSTER_NAME BINDING FILE_SYSTEM_NAME [--readonly] [--path=PATH_WITHIN_CEPHFS]
ceph nfs export create cephfs CLUSTER_NAME BINDING FILE_SYSTEM_NAME [--readonly] [--path=PATH_WITHIN_CEPHFS]Copy to Clipboard Copied! Toggle word wrap Toggle overflow 例
Copy to Clipboard Copied! Toggle word wrap Toggle overflow この例では、BINDING (
/ceph) は pseudo root パスであり、これは一意のパスと絶対パスになります。注記--readonlyオプションは、読み取り専用のパーミッションでパスをエクスポートし、デフォルトは read、および write のパーミッションになります。注記PATH_WITHIN_CEPHFS はサブボリュームになります。以下のコマンドを使用して、絶対サブボリュームパスを取得できます。
構文
ceph fs subvolume getpath VOLUME_NAME SUBVOLUME_NAME [--group_name SUBVOLUME_GROUP_NAME]
ceph fs subvolume getpath VOLUME_NAME SUBVOLUME_NAME [--group_name SUBVOLUME_GROUP_NAME]Copy to Clipboard Copied! Toggle word wrap Toggle overflow 例
[ceph: root@host01 /]# ceph fs subvolume getpath cephfs sub0
[ceph: root@host01 /]# ceph fs subvolume getpath cephfs sub0Copy to Clipboard Copied! Toggle word wrap Toggle overflow 疑似ルート名に基づいてエクスポートブロックを表示します。
構文
ceph nfs export get CLUSTER_NAME BINDING
ceph nfs export get CLUSTER_NAME BINDINGCopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
Copy to Clipboard Copied! Toggle word wrap Toggle overflow NFS エクスポートをリスト表示します。
構文
ceph nfs export ls CLUSTER_NAME [--detailed]
ceph nfs export ls CLUSTER_NAME [--detailed]Copy to Clipboard Copied! Toggle word wrap Toggle overflow 例
Copy to Clipboard Copied! Toggle word wrap Toggle overflow NFS エクスポートの情報を取得します。
構文
ceph nfs export info CLUSTER_NAME [PSEUDO_PATH]
ceph nfs export info CLUSTER_NAME [PSEUDO_PATH]Copy to Clipboard Copied! Toggle word wrap Toggle overflow 例
Copy to Clipboard Copied! Toggle word wrap Toggle overflow クライアントホストで、エクスポートされた Ceph File System をマウントします。
構文
mount -t nfs -o port=GANESHA_PORT HOST_NAME:BINDING LOCAL_MOUNT_POINT
mount -t nfs -o port=GANESHA_PORT HOST_NAME:BINDING LOCAL_MOUNT_POINTCopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
mount -t nfs -o port=2049 host01:/ceph/ /mnt/nfs-cephfs
[root@client01 ~]# mount -t nfs -o port=2049 host01:/ceph/ /mnt/nfs-cephfsCopy to Clipboard Copied! Toggle word wrap Toggle overflow システムの起動時に自動的にマウントするには、改行を追加して
/etc/fstabファイルを開いて編集します。構文
HOST_NAME:BINDING LOCAL_MOUNT_POINT nfs4 defaults,seclabel,vers=4.2,proto=tcp,port=2049 0 0
HOST_NAME:BINDING LOCAL_MOUNT_POINT nfs4 defaults,seclabel,vers=4.2,proto=tcp,port=2049 0 0Copy to Clipboard Copied! Toggle word wrap Toggle overflow 例
host01:/ceph/ /mnt/nfs-cephfs nfs4 defaults,seclabel,vers=4.2,proto=tcp,port=2049 0 0
host01:/ceph/ /mnt/nfs-cephfs nfs4 defaults,seclabel,vers=4.2,proto=tcp,port=2049 0 0Copy to Clipboard Copied! Toggle word wrap Toggle overflow
クライアントホストで、
Ingressサービスで作成されたエクスポートされた NFS Ceph File System をマウントするには、以下を実行します。構文
mount -t nfs VIRTUAL_IP_ADDRESS:BINDING LOCAL_MOUNT_POINT
mount -t nfs VIRTUAL_IP_ADDRESS:BINDING LOCAL_MOUNT_POINTCopy to Clipboard Copied! Toggle word wrap Toggle overflow -
VIRTUAL_IP_ADDRESS は、NFS クラスターの作成に使用される
--ingress--virtual-ipIP アドレスに置き換えます。 - BINDING は、擬似ルートパスに置き換えます。
LOCAL_MOUNT_POINT は、エクスポートをマウントするマウントポイントに置き換えます。
例
mount -t nfs 10.10.128.75:/nfs-cephfs /mnt
[root@client01 ~]# mount -t nfs 10.10.128.75:/nfs-cephfs /mntCopy to Clipboard Copied! Toggle word wrap Toggle overflow この例では、マウントポイント
/mntに--ingress --virtual-ip 10.10.128.75で作成した NFS クラスターに存在するエクスポートnfs-cephfsをマウントします。
-
VIRTUAL_IP_ADDRESS は、NFS クラスターの作成に使用される
6.4. Ceph ファイルシステムのエクスポートの変更 リンクのコピーリンクがクリップボードにコピーされました!
設定ファイルを使用してエクスポート内の次のパラメーターを変更できます。
-
access_type:RW、RO、またはNONEのいずれかになります。 -
squash:No_Root_Squash、None、またはRoot_Squashのいずれかになります。 -
security_label: これはtrueまたはfalseです。
前提条件
- 実行中、および正常な Red Hat Ceph Storage クラスター
- NFS エクスポートが作成されました。
手順
疑似ルート名に基づいてエクスポートブロックを表示します。
構文
ceph nfs export get CLUSTER_NAME BINDING
ceph nfs export get CLUSTER_NAME BINDINGCopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 設定ファイルをエクスポートします。
例
[ceph: root@host01 /]# ceph nfs export get nfs-cephfs /ceph > export.conf
[ceph: root@host01 /]# ceph nfs export get nfs-cephfs /ceph > export.confCopy to Clipboard Copied! Toggle word wrap Toggle overflow エクスポート情報を編集します。
構文
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 例
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 上記の例では、
access_typeがROからRWに変更されます。仕様を適用します。
構文
ceph nfs export apply CLUSTER_NAME PATH_TO_EXPORT_FILE
ceph nfs export apply CLUSTER_NAME PATH_TO_EXPORT_FILECopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
[ceph: root@host01 /]# ceph nfs export apply nfs-cephfs -i export.conf Added export /ceph
[ceph: root@host01 /]# ceph nfs export apply nfs-cephfs -i export.conf Added export /cephCopy to Clipboard Copied! Toggle word wrap Toggle overflow 更新されたエクスポート情報を取得します。
構文
ceph nfs export get CLUSTER_NAME BINDING
ceph nfs export get CLUSTER_NAME BINDINGCopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
Copy to Clipboard Copied! Toggle word wrap Toggle overflow
6.5. カスタム Ceph ファイルシステムエクスポートの作成 リンクのコピーリンクがクリップボードにコピーされました!
Ceph File System (CepFS) エクスポートをカスタマイズし、設定を適用できます。
前提条件
- 実行中、および正常な Red Hat Ceph Storage クラスター
-
ceph nfs cluster createコマンドを使用して作成された NFS クラスター。 - CephFS が作成されている。
手順
カスタムファイルを作成します。
例
[ceph: root@host01 /]# touch export_new.conf
[ceph: root@host01 /]# touch export_new.confCopy to Clipboard Copied! Toggle word wrap Toggle overflow カスタムファイルを使用してエクスポートを作成します。
構文
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 例
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 仕様を適用します。
構文
ceph nfs export apply CLUSTER_NAME -i PATH_TO_EXPORT_FILE
ceph nfs export apply CLUSTER_NAME -i PATH_TO_EXPORT_FILECopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
[ceph: root@host01 /]# ceph nfs export apply nfs-cephfs -i new_export.conf Added export /ceph1
[ceph: root@host01 /]# ceph nfs export apply nfs-cephfs -i new_export.conf Added export /ceph1Copy to Clipboard Copied! Toggle word wrap Toggle overflow 更新されたエクスポート情報を取得します。
構文
ceph nfs export get CLUSTER_NAME BINDING
ceph nfs export get CLUSTER_NAME BINDINGCopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
Copy to Clipboard Copied! Toggle word wrap Toggle overflow
6.6. Ceph ファイルシステムのエクスポートの削除 リンクのコピーリンクがクリップボードにコピーされました!
Ceph Export rm コマンドを使用して、Ceph File System (CephFS) NFS エクスポートを削除できます。
前提条件
- 実行中、および正常な Red Hat Ceph Storage クラスター
- CephFS が作成されている。
手順
CephFS エクスポートを削除します。
構文
ceph nfs export rm CLUSTER_NAME BINDING
ceph nfs export rm CLUSTER_NAME BINDINGCopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
[ceph: root@host01 /]# ceph nfs export rm nfs-cephfs /ceph
[ceph: root@host01 /]# ceph nfs export rm nfs-cephfs /cephCopy to Clipboard Copied! Toggle word wrap Toggle overflow
6.7. NFS クラスターの削除 リンクのコピーリンクがクリップボードにコピーされました!
nfs cluster rm コマンドを使用して、NFS クラスターを削除します。これにより、デプロイされたクラスターが削除されます。NFS デーモンと入力サービスの削除は非同期です。ceph orch ls コマンドで削除状況を確認します。
前提条件
- 実行中、および正常な Red Hat Ceph Storage クラスター
- Ceph Metadata Server (MDS) ノードへのルートレベルのアクセス。
-
ceph nfs cluster createコマンドを使用してデプロイされた NFS デーモン。
手順
Cephadm シェルにログインします。
例
cephadm shell
[root@mds ~]# cephadm shellCopy to Clipboard Copied! Toggle word wrap Toggle overflow NFS Ganesha クラスターを削除します。
構文
ceph nfs cluster rm CLUSTER_NAME
ceph nfs cluster rm CLUSTER_NAMECopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
[ceph: root@host01 /]# ceph nfs cluster rm nfs-cephfs
[ceph: root@host01 /]# ceph nfs cluster rm nfs-cephfsCopy to Clipboard Copied! Toggle word wrap Toggle overflow
第7章 Ceph File システムのクォータ リンクのコピーリンクがクリップボードにコピーされました!
ストレージ管理者は、ファイルシステム内の任意のディレクトリーでクォータを表示、設定、および削除できます。クォータの制限は、バイト数またはディレクトリー内のファイル数に配置できます。
前提条件
- 実行中、および正常な Red Hat Ceph Storage クラスター
- Ceph File System のデプロイメント
-
attrパッケージがインストールされていることを確認します。
7.1. Ceph File システムのクォータ リンクのコピーリンクがクリップボードにコピーされました!
Ceph File System (CephFS) のクォータにより、ディレクトリー構造に保存されたファイルの数またはバイト数を制限できます。Ceph File System のクォータは、FUSE クライアントまたはカーネルクライアント (バージョン 4.17 以降) を使用して完全にサポートされます。
制限
- CephFS のクォータは、設定された制限に達するとデータの書き込みを停止するためにファイルシステムをマウントするクライアントとの協調に依存しています。ただし、クォータのみでは、信頼できないクライアントがファイルシステムを埋めないようにすることはできません。
- ファイルシステムにデータを書き込むプロセスが、設定された制限に到達したら、データ量がクォータ制限を超えるか、プロセスがデータの書き込みを停止するまでの短い期間が長くなります。通常、期間 (秒) は数十秒で測定されます。ただし、プロセスは、その期間中データの書き込みを続けます。プロセスが書き込む追加データ量は、停止前の経過時間によって異なります。
-
パスベースのアクセス制限を使用する場合は、クライアントが制限されているディレクトリーのクォータを設定するか、その下でネスト化されたディレクトリーにクォータを設定してください。クライアントが MDS 機能に基づいて特定のパスへのアクセス制限があり、そのクォータがクライアントにアクセスできない上位ディレクトリーに設定されている場合、クライアントはクォータを強制しません。たとえば、クライアントが
/home/ディレクトリーにアクセスできず、クォータが/home/で設定されている場合、クライアントは/home/user/ディレクトリーのクォータを強制できません。 - 削除または変更されたスナップショットファイルデータは、クォータに対してカウントされません。
-
setxattrの使用時、NFS クライアントを使用したクォータのサポートはありません。NFS のファイルレベルのクォータはサポートされません。NFS 共有でクォータを使用するには、サブボリュームをエクスポートし、--sizeオプションを設定します。
7.2. クォータの表示 リンクのコピーリンクがクリップボードにコピーされました!
getfattr コマンドおよび ceph.quota 拡張属性を使用して、ディレクトリーのクォータ設定を表示します。
属性が inode に表示されると、そのディレクトリーにクォータが設定されている必要があります。属性が inode に表示されない場合は、ディレクトリーにはクォータセットがありませんが、親ディレクトリーにはクォータが設定されている可能性があります。拡張属性の値が 0 の場合、クォータは設定されません。
前提条件
- Ceph クライアントノードへの root レベルのアクセス。
-
attrパッケージがインストールされます。
手順
CephFS クォータを表示するには、以下を実行します。
バイト制限クォータの使用:
構文
getfattr -n ceph.quota.max_bytes DIRECTORY
getfattr -n ceph.quota.max_bytes DIRECTORYCopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
getfattr -n ceph.quota.max_bytes /mnt/cephfs/
[root@client ~]# getfattr -n ceph.quota.max_bytes /mnt/cephfs/ getfattr: Removing leading '/' from absolute path names # file: mnt/cephfs/ ceph.quota.max_bytes="100000000"Copy to Clipboard Copied! Toggle word wrap Toggle overflow この例では、
100000000は 100 MB となります。ファイル制限クォータの使用:
構文
getfattr -n ceph.quota.max_files DIRECTORY
getfattr -n ceph.quota.max_files DIRECTORYCopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
getfattr -n ceph.quota.max_files /mnt/cephfs/
[root@client ~]# getfattr -n ceph.quota.max_files /mnt/cephfs/ getfattr: Removing leading '/' from absolute path names # file: mnt/cephfs/ ceph.quota.max_files="10000"Copy to Clipboard Copied! Toggle word wrap Toggle overflow この例では
10000は 10,000 ファイルと等しくなります。
7.3. クォータの設定 リンクのコピーリンクがクリップボードにコピーされました!
このセクションでは、setfattr コマンドおよび ceph.quota 拡張属性を使用して、ディレクトリーのクォータを設定する方法を説明します。
前提条件
- Ceph クライアントノードへの root レベルのアクセス。
-
attrパッケージがインストールされます。
手順
バイト制限クォータを使用して、ディレクトリーのクォータを設定します。
注記バイト制限クォータとして値 K、Ki、M、Mi、G、Gi、T、および Ti がサポートされています。
構文
setfattr -n ceph.quota.max_bytes -v LIMIT_VALUE DIRECTORY
setfattr -n ceph.quota.max_bytes -v LIMIT_VALUE DIRECTORYCopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
setfattr -n ceph.quota.max_bytes -v 2T /cephfs/
[root@client ~]# setfattr -n ceph.quota.max_bytes -v 2T /cephfs/Copy to Clipboard Copied! Toggle word wrap Toggle overflow ファイル制限クォータを使用して、ディレクトリーのクォータを設定します。
構文
setfattr -n ceph.quota.max_files -v LIMIT_VALUE DIRECTORY
setfattr -n ceph.quota.max_files -v LIMIT_VALUE DIRECTORYCopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
setfattr -n ceph.quota.max_files -v 10000 /cephfs/
[root@client ~]# setfattr -n ceph.quota.max_files -v 10000 /cephfs/Copy to Clipboard Copied! Toggle word wrap Toggle overflow この例では
10000は 10,000 ファイルと等しくなります。注記ファイル LIMIT_VALUE では数値のみがサポートされます。
7.4. クォータの削除 リンクのコピーリンクがクリップボードにコピーされました!
このセクションでは、setfattr コマンドおよび ceph.quota 拡張属性を使用して、ディレクトリーからクォータを削除する方法を説明します。
前提条件
- Ceph クライアントノードへの root レベルのアクセス。
-
attrパッケージがインストールされていることを確認します。
手順
CephFS クォータを削除するには、以下のコマンドを実行します。
バイト制限クォータの使用:
構文
setfattr -n ceph.quota.max_bytes -v 0 DIRECTORY
setfattr -n ceph.quota.max_bytes -v 0 DIRECTORYCopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
setfattr -n ceph.quota.max_bytes -v 0 /mnt/cephfs/
[root@client ~]# setfattr -n ceph.quota.max_bytes -v 0 /mnt/cephfs/Copy to Clipboard Copied! Toggle word wrap Toggle overflow ファイル制限クォータの使用:
構文
setfattr -n ceph.quota.max_files -v 0 DIRECTORY
setfattr -n ceph.quota.max_files -v 0 DIRECTORYCopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
setfattr -n ceph.quota.max_files -v 0 /mnt/cephfs/
[root@client ~]# setfattr -n ceph.quota.max_files -v 0 /mnt/cephfs/Copy to Clipboard Copied! Toggle word wrap Toggle overflow
第8章 ファイルとディレクトリーのレイアウト リンクのコピーリンクがクリップボードにコピーされました!
ストレージ管理者は、ファイルまたはディレクトリーのデータがオブジェクトにマップされる方法を制御できます。
このセクションでは、以下を行う方法を説明します。
前提条件
- 実行中、および正常な Red Hat Ceph Storage クラスター
- Ceph File System のデプロイメント
-
attrパッケージのインストール
8.1. ファイルとディレクトリーレイアウトの概要 リンクのコピーリンクがクリップボードにコピーされました!
このセクションでは、Ceph File System のコンテキストにおけるファイルおよびディレクトリーのレイアウトを説明します。
ファイルまたはディレクトリーのレイアウトは、そのコンテンツを Ceph RADOS オブジェクトにマッピングする方法を制御します。ディレクトリーレイアウトは、主にそのディレクトリー内の新しいファイルに継承されたレイアウトを設定します。
ファイルまたはディレクトリーのレイアウトを表示および設定するには、仮想拡張属性または拡張ファイル属性 (xattrs) を使用します。layout 属性の名前は、ファイルが通常のファイルかディレクトリーであるかによって異なります。
-
通常ファイルのレイアウト属性は
ceph.file.layoutという名前です。 -
ディレクトリーのレイアウト属性は
ceph.dir.layoutと呼ばれます。
レイアウトの継承
ファイルは、作成時に、親ディレクトリーのレイアウトを継承します。ただし、後続の親ディレクトリーのレイアウトは子には影響を及ぼしません。ディレクトリーにレイアウトが設定されていない場合、ファイルはディレクトリー構造のレイアウトで最も近いディレクトリーからレイアウトを継承します。
8.2. ファイルとディレクトリーレイアウトフィールドの設定 リンクのコピーリンクがクリップボードにコピーされました!
setfattr コマンドを使用して、ファイルまたはディレクトリーにレイアウトフィールドを設定します。
ファイルのレイアウトフィールドを修正すると、ファイルは空にする必要があります。指定しない場合は、エラーが発生します。
前提条件
- ノードへのルートレベルのアクセス。
手順
ファイルまたはディレクトリーのレイアウトフィールドを変更するには、次のコマンドを実行します。
構文
setfattr -n ceph.TYPE.layout.FIELD -v VALUE PATH
setfattr -n ceph.TYPE.layout.FIELD -v VALUE PATHCopy to Clipboard Copied! Toggle word wrap Toggle overflow 以下を置き換えます。
-
TYPE を
fileまたはdirに変更。 - FIELD をフィールドの名前に変更。
- VALUE をフィールドの新しい値に変更。
- PATH をファイルまたはディレクトリーへのパスに変更。
例
setfattr -n ceph.file.layout.stripe_unit -v 1048576 test
[root@mon ~]# setfattr -n ceph.file.layout.stripe_unit -v 1048576 testCopy to Clipboard Copied! Toggle word wrap Toggle overflow -
TYPE を
関連情報
- 詳細は、Red Hat Ceph Storage File System ガイド の ファイルとディレクトリーレイアウトの概要 セクションを参照してください。
-
setfattr(1)の man ページを参照してください。
8.3. ファイルとディレクトリーのレイアウトフィールドの表示 リンクのコピーリンクがクリップボードにコピーされました!
getfattr コマンドを使用して、ファイルまたはディレクトリーのレイアウトフィールドを表示します。
前提条件
- 稼働中の Red Hat Ceph Storage クラスターがある。
- ストレージクラスター内のすべてのノードへの root レベルのアクセス。
手順
1 つの文字列としてファイルまたはディレクトリーのレイアウトフィールドを表示するには、次のコマンドを実行します。
構文
getfattr -n ceph.TYPE.layout PATH
getfattr -n ceph.TYPE.layout PATHCopy to Clipboard Copied! Toggle word wrap Toggle overflow - 置き換え
- PATH をファイルまたはディレクトリーへのパスに変更。
-
TYPE を
fileまたはdirに変更。
例
getfattr -n ceph.dir.layout /home/test
[root@mon ~]# getfattr -n ceph.dir.layout /home/test ceph.dir.layout="stripe_unit=4194304 stripe_count=2 object_size=4194304 pool=cephfs_data"Copy to Clipboard Copied! Toggle word wrap Toggle overflow
ディレクトリーには、設定するまで明示的なレイアウトがありません。そのため、表示する変更がないため、最初に設定せずにレイアウトを表示しようとすると失敗します。
関連情報
-
getfattr(1)man ページ - 詳細は、Red Hat Ceph Storage File System ガイド の ファイルおよびディレクトリーレイアウトフィールドの設定 セクションを参照してください。
8.4. 個々のレイアウトフィールドの表示 リンクのコピーリンクがクリップボードにコピーされました!
getfattr コマンドを使用して、ファイルまたはディレクトリーの個別のレイアウトフィールドを表示します。
前提条件
- 稼働中の Red Hat Ceph Storage クラスターがある。
- ストレージクラスター内のすべてのノードへの root レベルのアクセス。
手順
ファイルまたはディレクトリーの個別のレイアウトフィールドを表示するには、次のコマンドを実行します。
構文
getfattr -n ceph.TYPE.layout.FIELD _PATH
getfattr -n ceph.TYPE.layout.FIELD _PATHCopy to Clipboard Copied! Toggle word wrap Toggle overflow - 置き換え
-
TYPE を
fileまたはdirに変更。 - FIELD をフィールドの名前に変更。
- PATH をファイルまたはディレクトリーへのパスに変更。
-
TYPE を
例
getfattr -n ceph.file.layout.pool test
[root@mon ~]# getfattr -n ceph.file.layout.pool test ceph.file.layout.pool="cephfs_data"Copy to Clipboard Copied! Toggle word wrap Toggle overflow 注記poolフィールドのプールは、名前で示されます。ただし、新規作成されたプールは ID で識別できます。
関連情報
-
getfattr(1)man ページ
8.5. ディレクトリーレイアウトの削除 リンクのコピーリンクがクリップボードにコピーされました!
setfattr コマンドを使用して、ディレクトリーからレイアウトを削除します。
ファイルレイアウトを設定する場合は、ファイルの変更や削除ができません。
前提条件
- レイアウトを含むディレクトリー。
手順
ディレクトリーからレイアウトを削除するには、以下のコマンドを実行します。
構文
setfattr -x ceph.dir.layout DIRECTORY_PATH
setfattr -x ceph.dir.layout DIRECTORY_PATHCopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
setfattr -x ceph.dir.layout /home/cephfs
[user@client ~]$ setfattr -x ceph.dir.layout /home/cephfsCopy to Clipboard Copied! Toggle word wrap Toggle overflow pool_namespaceフィールドを削除するには、以下を実行します。構文
setfattr -x ceph.dir.layout.pool_namespace DIRECTORY_PATH
setfattr -x ceph.dir.layout.pool_namespace DIRECTORY_PATHCopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
setfattr -x ceph.dir.layout.pool_namespace /home/cephfs
[user@client ~]$ setfattr -x ceph.dir.layout.pool_namespace /home/cephfsCopy to Clipboard Copied! Toggle word wrap Toggle overflow 注記pool_namespaceフィールドは、個別に削除できる唯一のフィールドです。
関連情報
-
setfattr(1)man ページ
第9章 Ceph ファイルシステムのスナップショット リンクのコピーリンクがクリップボードにコピーされました!
ストレージ管理者は、Ceph File System (CephFS) ディレクトリーの特定の時点のスナップショットを取得できます。CephFS スナップショットは非同期で、作成するディレクトリースナップショットを選択できます。
前提条件
- 実行中、および正常な Red Hat Ceph Storage クラスター
- Ceph File System のデプロイメント
9.1. Ceph ファイルシステムのスナップショット リンクのコピーリンクがクリップボードにコピーされました!
Ceph File System (CephFS) のスナップショット機能は、新しい Ceph File Systems でデフォルトで有効になっていますが、既存の Ceph File Systems で手動で有効にする必要があります。CephFS スナップショットは、Ceph File System のイミュータブルな、ポイントインタイムビューを作成します。CephFS スナップショットは非同期で、CephFS ディレクトリーの特別な非表示ディレクトリー (.snap) に保存されます。Ceph ファイルシステム内の任意のディレクトリーのスナップショット作成を指定できます。ディレクトリーを指定すると、スナップショットにはその中のすべてのサブディレクトリーも含まれます。
各 Ceph Metadata Server (MDS) クラスターは snap 識別子を別個に割り当てます。1 つのプールを共有する複数の Ceph ファイルシステムのスナップショットを使用すると、スナップショットの競合が発生し、ファイルデータがありません。
9.2. Ceph ファイルシステムのスナップショットの作成 リンクのコピーリンクがクリップボードにコピーされました!
Ceph File System (CephFS) のイミュータブル (ポイントインタイムビュー) を作成するには、スナップショットを作成します。
新しい Ceph ファイルシステムの場合、スナップショットはデフォルトで有効になります。
前提条件
- 実行中、および正常な Red Hat Ceph Storage クラスター
- Ceph File System のデプロイメント
- Ceph Metadata Server (MDS) ノードへのルートレベルのアクセス。
手順
Cephadm シェルにログインします。
例
cephadm shell
[root@mds ~]# cephadm shellCopy to Clipboard Copied! Toggle word wrap Toggle overflow 既存の Ceph ファイルシステムの場合は、スナップショット化機能を有効にします。
構文
ceph fs set FILE_SYSTEM_NAME allow_new_snaps true
ceph fs set FILE_SYSTEM_NAME allow_new_snaps trueCopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
[ceph: root@mds ~]# ceph fs set cephfs01 allow_new_snaps true
[ceph: root@mds ~]# ceph fs set cephfs01 allow_new_snaps trueCopy to Clipboard Copied! Toggle word wrap Toggle overflow .snapディレクトリーに新しい snapshot サブディレクトリーを作成します。構文
mkdir NEW_DIRECTORY_PATH
mkdir NEW_DIRECTORY_PATHCopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
[ceph: root@mds ~]# mkdir /.snap/new-snaps
[ceph: root@mds ~]# mkdir /.snap/new-snapsCopy to Clipboard Copied! Toggle word wrap Toggle overflow この例では
new-snapsサブディレクトリーを作成し、これにより Ceph Metadata Server (MDS) がスナップショットの作成を開始するように通知します。スナップショットを削除するには、以下のコマンドを実行します。
構文
rmdir NEW_DIRECTORY_PATH
rmdir NEW_DIRECTORY_PATHCopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
[ceph: root@mds ~]# rmdir /.snap/new-snaps
[ceph: root@mds ~]# rmdir /.snap/new-snapsCopy to Clipboard Copied! Toggle word wrap Toggle overflow 重要基礎となるスナップショットが含まれる可能性のある root レベルのスナップショットの削除を試みると、失敗します。
- Red Hat Ceph Storage File System ガイド の Ceph File System のデプロイメント セクションを参照してください。
第10章 Ceph File System スナップショットのスケジューリング リンクのコピーリンクがクリップボードにコピーされました!
ストレージ管理者は、Ceph File System (CephFS) ディレクトリーの特定の時点のスナップショットを取得できます。CephFS スナップショットは非同期で、作成するディレクトリースナップショットを選択できます。
前提条件
- 実行中、および正常な Red Hat Ceph Storage クラスター
- Ceph File System のデプロイメント
10.1. Ceph ファイルシステムのスナップショットスケジュール リンクのコピーリンクがクリップボードにコピーされました!
Ceph File System (CephFS) は、ファイルシステムディレクトリーのスナップショットをスケジュールできます。スナップショットのスケジューリングは Ceph Manager によって管理され、Python タイマーに依存します。スナップショットスケジュールデータは CephFS メタデータプールにオブジェクトとして保存され、ランタイム時に、スケジュールデータはすべてシリアライズされた SQLite データベースに置かれます。
スケジューラーは、ストレージクラスターが通常の負荷がかかる場合に、スナップショットを個別に維持するために指定された時間に基づいて正確です。Ceph Manager の負荷が高い場合は、スナップショットがすぐにスケジュールされない可能性があり、スナップショットが若干遅延させる可能性があります。この場合、次のスケジュールされたスナップショットは遅延がないかのように動作します。遅延しているスケジュールされたスナップショットでは、スケジュール全体にドリフトが発生しません。
使用方法
Ceph File System (CephFS) のスナップショットスケジューリングは、snap_schedule Ceph Manager モジュールにより管理されます。このモジュールは、スナップショットスケジュールを追加、クエリー、削除し、保持ポリシーを管理するインターフェイスを提供します。このモジュールは ceph fs snap-schedule コマンドも実装し、スケジュールを管理する複数のサブコマンドと保持ポリシーも実装します。すべてのサブコマンドは、CephFS ボリュームパスと subvolume パス引数を取り、複数の Ceph File Systems を使用する場合のファイルシステムパスを指定します。CephFS ボリュームパスを指定しない場合、引数は fs_map にリスト表示されている最初のファイルシステムに対してデフォルトで設定され、subvolume パス引数は何も指定しません。
スナップショットスケジュールは、ファイルシステムパス、繰り返しの間隔、および開始時間で識別されます。繰り返し間隔は、2 つの後続のスナップショットの間隔を定義します。間隔の形式は、数 + 時間指定 h(our)、d(ay)、w(eek) です。たとえば、間隔が 4h であれば、4 時間ごとに 1 つのスナップショットが必要になります。開始時間は ISO 形式の文字列の値 %Y-%m-%dT%H:%M:%S です。指定されていない場合、開始時間は最後の midnight のデフォルト値を使用します。たとえば、デフォルトの開始時間値を使用して、スナップショットを 14:45 にスケジュールすると、繰り返される間隔が 1h になると、最初のスナップショットは 15:00 に作成されます。
保持ポリシーは、ファイルシステムパスと保持ポリシーの仕様で識別されます。保持ポリシーの定義は、COUNT TIME_PERIOD の形式で、数字と時間指定のペア、または連結されたペアのいずれかで構成されます。このポリシーにより、スナップショットの数も保持され、スナップショットは少なくとも特定の期間にわたって保持されます。期間指定子は、h (our)、d (ay)、w (eek)、M (onth)、Y (ear)、n です。n の時間指定は特別な修飾子であり、タイミングに関係なくスナップショットの最後の数を保持します。たとえば、4d は、1 日以上経過した 4 つのスナップショットを保持します。
10.2. Ceph ファイルシステムのスナップショットスケジュールの追加 リンクのコピーリンクがクリップボードにコピーされました!
まだ存在しない CephFS パスのスナップショットスケジュールを追加します。1 つのパスに対して 1 つ以上のスケジュールを作成できます。繰り返される間隔と開始時間が異なる場合、スケジュールは異なると見なされます。
CephFS パスには保持ポリシーを 1 つだけ指定できますが、保持ポリシーは複数のカウントタイムペアを持つことができます。
スケジューラーモジュールが有効になると、ceph fs snap-schedule コマンドを実行すると、利用可能なサブコマンドと、その使用形式が表示されます。
前提条件
- 実行中、および正常な Red Hat Ceph Storage クラスター
- Ceph File System のデプロイメント
- Ceph Manager および Metadata Server (MDS) ノードへのルートレベルのアクセス。
- ファイルシステムで CephFS スナップショットを有効にします。
手順
Ceph Manager ノードで Cephadm シェルにログインします。
例
cephadm shell
[root@host01 ~]# cephadm shellCopy to Clipboard Copied! Toggle word wrap Toggle overflow snap_scheduleモジュールを有効にします。例
[ceph: root@host01 /]# ceph mgr module enable snap_schedule
[ceph: root@host01 /]# ceph mgr module enable snap_scheduleCopy to Clipboard Copied! Toggle word wrap Toggle overflow クライアントノードにログインします。
例
cephadm shell
[root@host02 ~]# cephadm shellCopy to Clipboard Copied! Toggle word wrap Toggle overflow Ceph File System の新しいスケジュールを追加します。
構文
ceph fs snap-schedule add FILE_SYSTEM_VOLUME_PATH REPEAT_INTERVAL [START_TIME] --fs CEPH_FILE_SYSTEM_NAME
ceph fs snap-schedule add FILE_SYSTEM_VOLUME_PATH REPEAT_INTERVAL [START_TIME] --fs CEPH_FILE_SYSTEM_NAMECopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
[ceph: root@host02 /]# ceph fs snap-schedule add /cephfs_kernelf739cwtus2/pmo9axbwsi 1h 2022-06-27T21:50:00 --fs mycephfs
[ceph: root@host02 /]# ceph fs snap-schedule add /cephfs_kernelf739cwtus2/pmo9axbwsi 1h 2022-06-27T21:50:00 --fs mycephfsCopy to Clipboard Copied! Toggle word wrap Toggle overflow 注記START_TIME は、ISO8601 形式で表されます。
この例では、ファイルシステム
mycephfs内のパス/cephfsのスナップショットスケジュールを作成し、1 時間ごとにスナップショットを作成し、2022 年 6 月 27 日午後 9 時 50 分に開始します。CephFS ボリュームパスのスナップショット用に新たな保持ポリシーを追加します。
構文
ceph fs snap-schedule retention add FILE_SYSTEM_VOLUME_PATH [COUNT_TIME_PERIOD_PAIR] TIME_PERIOD COUNT
ceph fs snap-schedule retention add FILE_SYSTEM_VOLUME_PATH [COUNT_TIME_PERIOD_PAIR] TIME_PERIOD COUNTCopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
[ceph: root@host02 /]# ceph fs snap-schedule retention add /cephfs h 14 [ceph: root@host02 /]# ceph fs snap-schedule retention add /cephfs d 4 [ceph: root@host02 /]# ceph fs snap-schedule retention add /cephfs 14h4w
[ceph: root@host02 /]# ceph fs snap-schedule retention add /cephfs h 141 [ceph: root@host02 /]# ceph fs snap-schedule retention add /cephfs d 42 [ceph: root@host02 /]# ceph fs snap-schedule retention add /cephfs 14h4w3 Copy to Clipboard Copied! Toggle word wrap Toggle overflow スナップショットスケジュールを一覧表示して、新しいスケジュールが作成されたことを確認します。
構文
ceph fs snap-schedule list FILE_SYSTEM_VOLUME_PATH [--format=plain|json] [--recursive=true]
ceph fs snap-schedule list FILE_SYSTEM_VOLUME_PATH [--format=plain|json] [--recursive=true]Copy to Clipboard Copied! Toggle word wrap Toggle overflow 例
[ceph: root@host02 /]# ceph fs snap-schedule list /cephfs --recursive=true
[ceph: root@host02 /]# ceph fs snap-schedule list /cephfs --recursive=trueCopy to Clipboard Copied! Toggle word wrap Toggle overflow この例では、ディレクトリーツリーのすべてのスケジュールをリスト表示しています。
スナップショットスケジュールのステータスを確認します。
構文
ceph fs snap-schedule status FILE_SYSTEM_VOLUME_PATH [--format=plain|json]
ceph fs snap-schedule status FILE_SYSTEM_VOLUME_PATH [--format=plain|json]Copy to Clipboard Copied! Toggle word wrap Toggle overflow 例
[ceph: root@host02 /]# ceph fs snap-schedule status /cephfs --format=json
[ceph: root@host02 /]# ceph fs snap-schedule status /cephfs --format=jsonCopy to Clipboard Copied! Toggle word wrap Toggle overflow 以下の例では、CephFS
/cephfsパスのスナップショットスケジュールのステータスを JSON 形式で表示しています。デフォルトの形式はプレーンテキストで、指定されていない場合はプレーンテキストになります。
10.3. Ceph File System サブボリュームのスナップショットスケジュールの追加 リンクのコピーリンクがクリップボードにコピーされました!
Ceph File System (CephFS) サブボリュームスナップショットの保持ポリシーを管理するために、1 つのパスに対して異なるスケジュールを設定できます。
繰り返される間隔と開始時間が異なる場合、スケジュールは異なると見なされます。
まだ存在しない CephFS ファイルパスのスナップショットスケジュールを追加します。CephFS パスには保持ポリシーを 1 つだけ指定できますが、保持ポリシーは複数のカウントタイムペアを持つことができます。
スケジューラーモジュールが有効になると、ceph fs snap-schedule コマンドを実行すると、利用可能なサブコマンドと、その使用形式が表示されます。
前提条件
- Ceph File System (CephFS) がデプロイされた稼働中の Red Hat Ceph Storage クラスター。
- Ceph Monitor での少なくとも読み取りアクセス。
- Ceph Manager ノードの読み取りおよび書き込み機能。
- CephFS サブボリュームとサブボリュームグループが作成されました。
以下のスナップショットスケジュールを作成できます。
- サブボリューム内のディレクトリー。
- デフォルトグループ内のサブボリューム。
- デフォルト以外のグループ内のサブボリューム。
ただし、コマンドは異なります。
手順
サブボリューム内のディレクトリーのスナップショットスケジュールを作成するには、以下を実行します。
ディレクトリーが存在するサブボリュームの絶対パスを取得します。
構文
ceph fs subvolume getpath VOLUME_NAME SUBVOLUME_NAME SUBVOLUME_GROUP_NAME
ceph fs subvolume getpath VOLUME_NAME SUBVOLUME_NAME SUBVOLUME_GROUP_NAMECopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
[ceph: root@host02 /]# ceph fs subvolume getpath cephfs subvol_1 subvolgroup_1
[ceph: root@host02 /]# ceph fs subvolume getpath cephfs subvol_1 subvolgroup_1Copy to Clipboard Copied! Toggle word wrap Toggle overflow サブボリューム内のディレクトリーにスナップショットスケジュールを追加します。
構文
ceph fs snap-schedule add SUBVOLUME_DIR_PATH SNAP_SCHEDULE [START_TIME] --fs CEPH_FILE_SYSTEM_NAME --subvol SUBVOLUME_NAME
ceph fs snap-schedule add SUBVOLUME_DIR_PATH SNAP_SCHEDULE [START_TIME] --fs CEPH_FILE_SYSTEM_NAME --subvol SUBVOLUME_NAMECopy to Clipboard Copied! Toggle word wrap Toggle overflow 注記snap-schedule コマンドのパスは <absolute_path_of_ subvolume>/<relative_path_of_test_dir> になります。サブボリュームの absolute_path については、手順 1 を参照してください。
例
[ceph: root@host02 /]# ceph fs snap-schedule add /cephfs_kernelf739cwtus2/pmo9axbwsi 1h 2022-06-27T21:50:00 --fs cephfs --subvol subvol_1 Schedule set for path /..
[ceph: root@host02 /]# ceph fs snap-schedule add /cephfs_kernelf739cwtus2/pmo9axbwsi 1h 2022-06-27T21:50:00 --fs cephfs --subvol subvol_1 Schedule set for path /..Copy to Clipboard Copied! Toggle word wrap Toggle overflow 注記START_TIME は、ISO8601 形式で表されます。
この例では、サブボリュームパスのスナップショットスケジュールを作成し、1 時間ごとにスナップショットを作成します。2022 年 6 月 27 日午後 9 時 50 分に開始します。
デフォルトグループ内のサブボリュームのスナップショットスケジュールを作成するには、次のコマンドを実行します。
構文
ceph fs snap-schedule add /.. SNAP_SCHEDULE [START_TIME] --fs CEPH_FILE_SYSTEM_NAME --subvol _SUBVOLUME_NAME
ceph fs snap-schedule add /.. SNAP_SCHEDULE [START_TIME] --fs CEPH_FILE_SYSTEM_NAME --subvol _SUBVOLUME_NAMECopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
[ceph: root@host02 /]# ceph fs snap-schedule add - 2M --subvol sv_non_def_1
[ceph: root@host02 /]# ceph fs snap-schedule add - 2M --subvol sv_non_def_1Copy to Clipboard Copied! Toggle word wrap Toggle overflow 注記パスは定義する必要があり、空のままにすることはできません。パス文字列の値には依存関係がないため、
/、-`、または/..として定義できます。デフォルト以外のグループ内のサブボリュームのスナップショットスケジュールを作成するには、次のコマンドを実行します。
構文
ceph fs snap-schedule add /.. SNAP_SCHEDULE [START_TIME] --fs CEPH_FILE_SYSTEM_NAME --subvol _SUBVOLUME_NAME --group NON_DEFAULT_SUBVOLGROUP_NAME
ceph fs snap-schedule add /.. SNAP_SCHEDULE [START_TIME] --fs CEPH_FILE_SYSTEM_NAME --subvol _SUBVOLUME_NAME --group NON_DEFAULT_SUBVOLGROUP_NAMECopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
[ceph: root@host02 /]# ceph fs snap-schedule add - 2M --fs cephfs --subvol sv_non_def_1 --group svg1
[ceph: root@host02 /]# ceph fs snap-schedule add - 2M --fs cephfs --subvol sv_non_def_1 --group svg1Copy to Clipboard Copied! Toggle word wrap Toggle overflow 注記パスは定義する必要があり、空のままにすることはできません。パス文字列の値には依存関係がないため、
/、-`、または/..として定義できます。
10.3.1. CephFS ボリュームパスのスナップショットスケジュールの保持ポリシーを追加する リンクのコピーリンクがクリップボードにコピーされました!
常にボリュームパスに保持するスナップショットの数を定義するには、スナップショットスケジュールを作成した後、保持ポリシーを追加する必要があります。
保持ポリシーは、サブボリュームグループ内のディレクトリー、デフォルトグループ内のサブボリューム、デフォルト以外のグループ内のサブボリュームに対して作成できます。
前提条件
- Ceph File System (CephFS) がデプロイされた、稼働中の正常な IBM Storage Ceph クラスター。
- Ceph モニターに対する最小限の読み取りアクセス。
- Ceph Manager ノードの読み取りおよび書き込み機能。
- CephFS サブボリュームとサブボリュームグループが作成されました。
- スナップショットスケジュール。
手順
CephFS サブボリュームのディレクトリーに、スナップショットスケジュールの新しい保持ポリシーを追加します。
構文
ceph fs snap-schedule retention add SUBVOLUME_DIR_PATH [COUNT_TIME_PERIOD_PAIR] TIME_PERIOD COUNT
ceph fs snap-schedule retention add SUBVOLUME_DIR_PATH [COUNT_TIME_PERIOD_PAIR] TIME_PERIOD COUNTCopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
[ceph: root@host02 /]# ceph fs snap-schedule retention add /volumes/_nogroup/subvol_1/85a615da-e8fa-46c1-afc3-0eb8ae64a954/.. h 14 [ceph: root@host02 /]# ceph fs snap-schedule retention add /volumes/_nogroup/subvol_1/85a615da-e8fa-46c1-afc3-0eb8ae64a954/.. d 4 [ceph: root@host02 /]# ceph fs snap-schedule retention add /volumes/_nogroup/subvol_1/85a615da-e8fa-46c1-afc3-0eb8ae64a954/.. 14h4w Retention added to path /volumes/_nogroup/subvol_1/85a615da-e8fa-46c1-afc3-0eb8ae64a954/..
[ceph: root@host02 /]# ceph fs snap-schedule retention add /volumes/_nogroup/subvol_1/85a615da-e8fa-46c1-afc3-0eb8ae64a954/.. h 141 [ceph: root@host02 /]# ceph fs snap-schedule retention add /volumes/_nogroup/subvol_1/85a615da-e8fa-46c1-afc3-0eb8ae64a954/.. d 42 [ceph: root@host02 /]# ceph fs snap-schedule retention add /volumes/_nogroup/subvol_1/85a615da-e8fa-46c1-afc3-0eb8ae64a954/.. 14h4w3 Retention added to path /volumes/_nogroup/subvol_1/85a615da-e8fa-46c1-afc3-0eb8ae64a954/..Copy to Clipboard Copied! Toggle word wrap Toggle overflow デフォルトグループ内のサブボリューム用に作成されたスナップショットスケジュールに、保持ポリシーを追加します。
構文
ceph fs snap-schedule retention add / [COUNT_TIME_PERIOD_PAIR] TIME_PERIOD_COUNT --fs CEPH_FILE_SYSTEM_NAME --subvol SUBVOLUME_NAME
ceph fs snap-schedule retention add / [COUNT_TIME_PERIOD_PAIR] TIME_PERIOD_COUNT --fs CEPH_FILE_SYSTEM_NAME --subvol SUBVOLUME_NAMECopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
[ceph: root@host02 /]# ceph fs snap-schedule retention add / 5h --fs cephfs --subvol sv_sched Retention added to path /volumes/sv_sched/e704342a-ff07-4763-bb0b-a46d9dda6f27/..
[ceph: root@host02 /]# ceph fs snap-schedule retention add / 5h --fs cephfs --subvol sv_sched Retention added to path /volumes/sv_sched/e704342a-ff07-4763-bb0b-a46d9dda6f27/..Copy to Clipboard Copied! Toggle word wrap Toggle overflow 重要パス (/) を定義する必要があり、空のままにすることはできません。パス文字列の値には依存関係がないため、/、-、または /… として定義できます。
デフォルト以外のグループ内のサブボリュームグループ用に作成されたスナップショットスケジュールに、保持ポリシーを追加します。
構文
ceph fs snap-schedule retention add / [COUNT_TIME_PERIOD_PAIR] TIME_PERIOD_COUNT --fs CEPH_FILE_SYSTEM_NAME --subvol SUBVOLUME_NAME --group NON_DEFAULT_SUBVOLGROUP_NAME
ceph fs snap-schedule retention add / [COUNT_TIME_PERIOD_PAIR] TIME_PERIOD_COUNT --fs CEPH_FILE_SYSTEM_NAME --subvol SUBVOLUME_NAME --group NON_DEFAULT_SUBVOLGROUP_NAMECopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
[ceph: root@host02 /]# ceph fs snap-schedule retention add / 5h --fs cephfs --subvol sv_sched --group subvolgroup_cg Retention added to path /volumes/subvolgroup_cg/sv_sched/e704342a-ff07-4763-bb0b-a54j0dda7f16/..
[ceph: root@host02 /]# ceph fs snap-schedule retention add / 5h --fs cephfs --subvol sv_sched --group subvolgroup_cg Retention added to path /volumes/subvolgroup_cg/sv_sched/e704342a-ff07-4763-bb0b-a54j0dda7f16/..Copy to Clipboard Copied! Toggle word wrap Toggle overflow 重要パス (/) を定義する必要があり、空のままにすることはできません。パス文字列の値には依存関係がないため、/、-、または /… として定義できます。
10.3.2. CephFS スナップショットスケジュールのリスト表示 リンクのコピーリンクがクリップボードにコピーされました!
スナップショットスケジュールをリスト化し、それに従うことで、堅牢なデータ保護と効率的な管理が可能になります。
前提条件
- Ceph File System (CephFS) がデプロイされた、稼働中の正常な IBM Storage Ceph クラスター。
- Ceph モニターに対する最小限の読み取りアクセス。
- Ceph Manager ノードの読み取りおよび書き込み機能。
- CephFS サブボリュームとサブボリュームグループが作成されました。
- スナップショットスケジュール。
手順
スナップショットスケジュールをリスト表示します。
構文
ceph fs snap-schedule list SUBVOLUME_VOLUME_PATH [--format=plain|json] [--recursive=true]
ceph fs snap-schedule list SUBVOLUME_VOLUME_PATH [--format=plain|json] [--recursive=true]Copy to Clipboard Copied! Toggle word wrap Toggle overflow 例
[ceph: root@host02 /]# ceph fs snap-schedule list / --recursive=true /volumes/_nogroup/subv1/85a615da-e8fa-46c1-afc3-0eb8ae64a954/.. 4h
[ceph: root@host02 /]# ceph fs snap-schedule list / --recursive=true /volumes/_nogroup/subv1/85a615da-e8fa-46c1-afc3-0eb8ae64a954/.. 4hCopy to Clipboard Copied! Toggle word wrap Toggle overflow この例では、ディレクトリーツリーのすべてのスケジュールをリスト表示しています。
10.3.3. CephFS スナップショットスケジュールのステータスを確認する リンクのコピーリンクがクリップボードにコピーされました!
サブボリューム内のディレクトリーに作成されたスナップショット、デフォルトのサブボリュームグループ内のサブボリューム、デフォルト以外のグループに作成されたサブボリュームについては、手順内のコマンドを使用してスナップショットスケジュールのステータスを確認できます。
前提条件
- Ceph File System (CephFS) がデプロイされた、稼働中の正常な IBM Storage Ceph クラスター。
- Ceph モニターに対する最小限の読み取りアクセス。
- Ceph Manager ノードの読み取りおよび書き込み機能。
- CephFS サブボリュームとサブボリュームグループが作成されました。
- スナップショットスケジュール。
手順
サブボリューム内のディレクトリーに対して作成されたスナップショットスケジュールのステータスを確認します。
構文
ceph fs snap-schedule status SUBVOLUME_DIR_PATH [--format=plain|json]
ceph fs snap-schedule status SUBVOLUME_DIR_PATH [--format=plain|json]Copy to Clipboard Copied! Toggle word wrap Toggle overflow 例
[ceph: root@host02 /]# ceph fs snap-schedule status /volumes/_nogroup/subv1/85a615da-e8fa-46c1-afc3-0eb8ae64a954/.. --format=json {"fs": "cephfs", "subvol": "subvol_1", "path": "/volumes/_nogroup/subvol_1/85a615da-e8fa-46c1-afc3-0eb8ae64a954/..", "rel_path": "/..", "schedule": "4h", "retention": {"h": 14}, "start": "2022-05-16T14:00:00", "created": "2023-03-20T08:47:18", "first": null, "last": null, "last_pruned": null, "created_count": 0, "pruned_count": 0, "active": true}[ceph: root@host02 /]# ceph fs snap-schedule status /volumes/_nogroup/subv1/85a615da-e8fa-46c1-afc3-0eb8ae64a954/.. --format=json {"fs": "cephfs", "subvol": "subvol_1", "path": "/volumes/_nogroup/subvol_1/85a615da-e8fa-46c1-afc3-0eb8ae64a954/..", "rel_path": "/..", "schedule": "4h", "retention": {"h": 14}, "start": "2022-05-16T14:00:00", "created": "2023-03-20T08:47:18", "first": null, "last": null, "last_pruned": null, "created_count": 0, "pruned_count": 0, "active": true}Copy to Clipboard Copied! Toggle word wrap Toggle overflow この例では、
/volumes/_nogroup/subv1/85a615da-e8fa-46c1-afc3-0eb8ae64a954/..パスのスナップショットスケジュールのステータスを JSON 形式で表示します。デフォルトの形式はプレーンテキストで、指定されていない場合はプレーンテキストになります。デフォルトグループ内のサブボリュームに対して作成されたスナップショットスケジュールのステータスを確認します。
構文
ceph fs snap-schedule status --fs CEPH_FILE_SYSTEM_NAME --subvol SUBVOLUME_NAME
ceph fs snap-schedule status --fs CEPH_FILE_SYSTEM_NAME --subvol SUBVOLUME_NAMECopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
[ceph: root@host02 /]# ceph fs snap-schedule status --fs cephfs --subvol sv_sched {"fs": "cephfs", "subvol": "sv_sched", "group": "subvolgroup_cg", "path": "/volumes/subvolgroup_cg/sv_sched/e704342a-ff07-4763-bb0b-a46d9dda6f27/..", "rel_path": "/volumes/subvolgroup_cg/sv_sched/e704342a-ff07-4763-bb0b-a46d9dda6f27/..", "schedule": "1h", "retention": {"h": 5}, "start": "2024-05-21T00:00:00", "created": "2024-05-21T09:18:58", "first": null, "last": null, "last_pruned": null, "created_count": 0, "pruned_count": 0, "active": true}[ceph: root@host02 /]# ceph fs snap-schedule status --fs cephfs --subvol sv_sched {"fs": "cephfs", "subvol": "sv_sched", "group": "subvolgroup_cg", "path": "/volumes/subvolgroup_cg/sv_sched/e704342a-ff07-4763-bb0b-a46d9dda6f27/..", "rel_path": "/volumes/subvolgroup_cg/sv_sched/e704342a-ff07-4763-bb0b-a46d9dda6f27/..", "schedule": "1h", "retention": {"h": 5}, "start": "2024-05-21T00:00:00", "created": "2024-05-21T09:18:58", "first": null, "last": null, "last_pruned": null, "created_count": 0, "pruned_count": 0, "active": true}Copy to Clipboard Copied! Toggle word wrap Toggle overflow 重要パス (/) を定義する必要があり、空のままにすることはできません。パス文字列の値には依存関係がないため、/、-、または /… として定義できます。
- デフォルト以外のグループのサブボリュームに対して作成されたスナップショットスケジュールのステータスを確認します。.Syntax
ceph fs snap-schedule status --fs _CEPH_FILE_SYSTEM_NAME_ --subvol _SUBVOLUME_NAME_ --group _NON-DEFAULT_SUBVOLGROUP_NAME_
ceph fs snap-schedule status --fs _CEPH_FILE_SYSTEM_NAME_ --subvol _SUBVOLUME_NAME_ --group _NON-DEFAULT_SUBVOLGROUP_NAME_
例
[ceph: root@host02 /]# ceph fs snap-schedule status --fs cephfs --subvol sv_sched --group subvolgroup_cg
{"fs": "cephfs", "subvol": "sv_sched", "group": "subvolgroup_cg", "path": "/volumes/subvolgroup_cg/sv_sched/e564329a-kj87-4763-gh0y-b56c8sev7t23/..", "rel_path": "/volumes/subvolgroup_cg/sv_sched/e704342a-ff07-4763-bb0b-a46d9dda6f27/..", "schedule": "1h", "retention": {"h": 5}, "start": "2024-05-21T00:00:00", "created": "2024-05-21T09:18:58", "first": null, "last": null, "last_pruned": null, "created_count": 0, "pruned_count": 0, "active": true}
[ceph: root@host02 /]# ceph fs snap-schedule status --fs cephfs --subvol sv_sched --group subvolgroup_cg
{"fs": "cephfs", "subvol": "sv_sched", "group": "subvolgroup_cg", "path": "/volumes/subvolgroup_cg/sv_sched/e564329a-kj87-4763-gh0y-b56c8sev7t23/..", "rel_path": "/volumes/subvolgroup_cg/sv_sched/e704342a-ff07-4763-bb0b-a46d9dda6f27/..", "schedule": "1h", "retention": {"h": 5}, "start": "2024-05-21T00:00:00", "created": "2024-05-21T09:18:58", "first": null, "last": null, "last_pruned": null, "created_count": 0, "pruned_count": 0, "active": true}
+ 重要: パス (/) を定義する必要があり、空のままにすることはできません。パス文字列の値には依存関係がないため、/、-、または /… として定義できます。
10.4. Ceph ファイルシステムのスナップショットスケジュールのアクティブ化 リンクのコピーリンクがクリップボードにコピーされました!
このセクションでは、Ceph ファイルシステム (CephFS) のスナップショットスケジュールを手動でアクティブに設定する手順を説明します。
前提条件
- Ceph File System (CephFS) がデプロイされた稼働中の Red Hat Ceph Storage クラスター。
- Ceph Monitor での少なくとも読み取りアクセス。
- Ceph Manager ノードの読み取りおよび書き込み機能。
手順
スナップショットスケジュールを有効にします。
構文
ceph fs snap-schedule activate FILE_SYSTEM_VOLUME_PATH [REPEAT_INTERVAL]
ceph fs snap-schedule activate FILE_SYSTEM_VOLUME_PATH [REPEAT_INTERVAL]Copy to Clipboard Copied! Toggle word wrap Toggle overflow 例
[ceph: root@host01 /]# ceph fs snap-schedule activate /cephfs
[ceph: root@host01 /]# ceph fs snap-schedule activate /cephfsCopy to Clipboard Copied! Toggle word wrap Toggle overflow 以下の例では、CephFS
/cephfsパスのすべてのスケジュールを有効にします。
10.5. Ceph ファイルシステムサブボリュームのスナップショットスケジュールのアクティブ化 リンクのコピーリンクがクリップボードにコピーされました!
このセクションでは、Ceph ファイルシステム (CephFS) サブボリュームのスナップショットスケジュールを手動でアクティブに設定する手順を説明します。
前提条件
- Ceph File System (CephFS) がデプロイされた稼働中の Red Hat Ceph Storage クラスター。
- Ceph Monitor での少なくとも読み取りアクセス。
- Ceph Manager ノードの読み取りおよび書き込み機能。
手順
サブボリューム内のディレクトリーに対して作成されたスナップショットスケジュールをアクティブ化します。
構文
ceph fs snap-schedule activate SUBVOL_DIR_PATH [REPEAT_INTERVAL]
ceph fs snap-schedule activate SUBVOL_DIR_PATH [REPEAT_INTERVAL]Copy to Clipboard Copied! Toggle word wrap Toggle overflow 例
[ceph: root@host01 /]# ceph fs snap-schedule activate /volumes/_nogroup/subvol_1/85a615da-e8fa-46c1-afc3-0eb8ae64a954/..
[ceph: root@host01 /]# ceph fs snap-schedule activate /volumes/_nogroup/subvol_1/85a615da-e8fa-46c1-afc3-0eb8ae64a954/..Copy to Clipboard Copied! Toggle word wrap Toggle overflow この例では、CephFS
/volumes/_nogroup/subvol_1/85a615da-e8fa-46c1-afc3-0eb8ae64a954/..パスのすべてのスケジュールをアクティブ化します。デフォルトグループのサブボリュームに対して作成されたスナップショットスケジュールをアクティブ化します。
構文
ceph fs snap-schedule activate /.. REPEAT_INTERVAL --fs CEPH_FILE_SYSTEM_NAME --subvol SUBVOLUME_NAME
ceph fs snap-schedule activate /.. REPEAT_INTERVAL --fs CEPH_FILE_SYSTEM_NAME --subvol SUBVOLUME_NAMECopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
[ceph: root@host02 /]# ceph fs snap-schedule activate / --fs cephfs --subvol sv_sched Schedule activated for path /volumes/subvolgroup_cg/sv_sched/e704342a-ff07-4763-bb0b-a46d9dda6f27/..
[ceph: root@host02 /]# ceph fs snap-schedule activate / --fs cephfs --subvol sv_sched Schedule activated for path /volumes/subvolgroup_cg/sv_sched/e704342a-ff07-4763-bb0b-a46d9dda6f27/..Copy to Clipboard Copied! Toggle word wrap Toggle overflow 重要パス (/) を定義する必要があり、空のままにすることはできません。パス文字列の値には依存関係がないため、/、-、または /… として定義できます。
デフォルト以外のグループのサブボリュームに対して作成されたスナップショットスケジュールをアクティブ化します。
構文
ceph fs snap-schedule activate /.. [REPEAT_INTERVAL] --fs CEPH_FILE_SYSTEM_NAME --subvol SUBVOLUME_NAME --group NON-DEFAULT_GROUP_NAME
ceph fs snap-schedule activate /.. [REPEAT_INTERVAL] --fs CEPH_FILE_SYSTEM_NAME --subvol SUBVOLUME_NAME --group NON-DEFAULT_GROUP_NAMECopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
[ceph: root@host02 /]# ceph fs snap-schedule activate / --fs cephfs --subvol sv_sched --group subvolgroup_cg Schedule activated for path /volumes/subvolgroup_cg/sv_sched/e704342a-ff07-4763-bb0b-a46d9dda6f27/..
[ceph: root@host02 /]# ceph fs snap-schedule activate / --fs cephfs --subvol sv_sched --group subvolgroup_cg Schedule activated for path /volumes/subvolgroup_cg/sv_sched/e704342a-ff07-4763-bb0b-a46d9dda6f27/..Copy to Clipboard Copied! Toggle word wrap Toggle overflow 重要パス (/) を定義する必要があり、空のままにすることはできません。パス文字列の値には依存関係がないため、/、-、または /… として定義できます。
10.6. Ceph ファイルシステムのスナップショットスケジュールの非アクティブ化 リンクのコピーリンクがクリップボードにコピーされました!
このセクションでは、Ceph ファイルシステム (CephFS) のスナップショットスケジュールを手動で非アクティブに設定する手順を説明します。このアクションにより、スナップショットは、再度アクティブ化されるまで、スケジュールから除外されます。
前提条件
- Ceph File System (CephFS) がデプロイされた稼働中の Red Hat Ceph Storage クラスター。
- Ceph Monitor での少なくとも読み取りアクセス。
- Ceph Manager ノードの読み取りおよび書き込み機能。
- スナップショットスケジュールが作成され、アクティブな状態になっています。
手順
CephFS パスのスナップショットスケジュールを非アクティブにします。
構文
ceph fs snap-schedule deactivate FILE_SYSTEM_VOLUME_PATH [REPEAT_INTERVAL]
ceph fs snap-schedule deactivate FILE_SYSTEM_VOLUME_PATH [REPEAT_INTERVAL]Copy to Clipboard Copied! Toggle word wrap Toggle overflow 例
[ceph: root@host02 ~]# ceph fs snap-schedule deactivate /cephfs 1d
[ceph: root@host02 ~]# ceph fs snap-schedule deactivate /cephfs 1dCopy to Clipboard Copied! Toggle word wrap Toggle overflow この例では、
/cephfsパスの日次のスナップショットを非アクティブ化して、それ以降のスナップショットの作成を一時停止します。
10.7. Ceph ファイルシステムサブボリュームのスナップショットスケジュールの非アクティブ化 リンクのコピーリンクがクリップボードにコピーされました!
このセクションでは、Ceph ファイルシステム (CephFS) サブボリュームのスナップショットスケジュールを手動で非アクティブに設定する手順を説明します。このアクションにより、スナップショットは再びアクティブ化されるまでスケジュールから除外されます。
前提条件
- Ceph File System (CephFS) がデプロイされた稼働中の Red Hat Ceph Storage クラスター。
- Ceph Monitor での少なくとも読み取りアクセス。
- Ceph Manager ノードの読み取りおよび書き込み機能。
- スナップショットスケジュールが作成され、アクティブな状態になっています。
手順
CephFS サブボリューム内のディレクトリーのスナップショットスケジュールを非アクティブ化します。
構文
ceph fs snap-schedule deactivate SUBVOL_DIR_PATH [REPEAT_INTERVAL]
ceph fs snap-schedule deactivate SUBVOL_DIR_PATH [REPEAT_INTERVAL]Copy to Clipboard Copied! Toggle word wrap Toggle overflow 例
[ceph: root@host02 ~]# ceph fs snap-schedule deactivate /volumes/_nogroup/subvol_1/85a615da-e8fa-46c1-afc3-0eb8ae64a954/.. 1d
[ceph: root@host02 ~]# ceph fs snap-schedule deactivate /volumes/_nogroup/subvol_1/85a615da-e8fa-46c1-afc3-0eb8ae64a954/.. 1dCopy to Clipboard Copied! Toggle word wrap Toggle overflow この例では、
/volumes/_nogroup/subvol_1/85a615da-e8fa-46c1-afc3-0eb8ae64a954/..パスの日次スナップショットを非アクティブ化し、それ以降のスナップショットの作成を一時停止します。デフォルトグループのサブボリュームに対して作成されたスナップショットスケジュールを非アクティブ化します。
構文
ceph fs snap-schedule deactivate / REPEAT_INTERVAL --fs CEPH_FILE_SYSTEM_NAME --subvol SUBVOLUME_NAME
ceph fs snap-schedule deactivate / REPEAT_INTERVAL --fs CEPH_FILE_SYSTEM_NAME --subvol SUBVOLUME_NAMECopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
[ceph: root@host02 ~]# ceph fs snap-schedule deactivate / --fs cephfs --subvol sv_sched Schedule deactivated for path /volumes/subvolgroup_cg/sv_sched/e704342a-ff07-4763-bb0b-a46d9dda6f27/..
[ceph: root@host02 ~]# ceph fs snap-schedule deactivate / --fs cephfs --subvol sv_sched Schedule deactivated for path /volumes/subvolgroup_cg/sv_sched/e704342a-ff07-4763-bb0b-a46d9dda6f27/..Copy to Clipboard Copied! Toggle word wrap Toggle overflow 重要パス (/) を定義する必要があり、空のままにすることはできません。パス文字列の値には依存関係がないため、/、-、または /… として定義できます。
デフォルト以外のグループのサブボリュームに対して作成されたスナップショットスケジュールを非アクティブ化します。
構文
ceph fs snap-schedule deactivate / REPEAT_INTERVAL --fs CEPH_FILE_SYSTEM_NAME --subvol SUBVOLUME_NAME --group NON-DEFAULT_GROUP_NAME
ceph fs snap-schedule deactivate / REPEAT_INTERVAL --fs CEPH_FILE_SYSTEM_NAME --subvol SUBVOLUME_NAME --group NON-DEFAULT_GROUP_NAMECopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
[ceph: root@host02 ~]# ceph fs snap-schedule deactivate / --fs cephfs --subvol sv_sched --group subvolgroup_cg Schedule deactivated for path /volumes/subvolgroup_cg/sv_sched/e704342a-ff07-4763-bb0b-a46d9dda6f27/..
[ceph: root@host02 ~]# ceph fs snap-schedule deactivate / --fs cephfs --subvol sv_sched --group subvolgroup_cg Schedule deactivated for path /volumes/subvolgroup_cg/sv_sched/e704342a-ff07-4763-bb0b-a46d9dda6f27/..Copy to Clipboard Copied! Toggle word wrap Toggle overflow 重要パス (/) を定義する必要があり、空のままにすることはできません。パス文字列の値には依存関係がないため、/、-、または /… として定義できます。
10.8. Ceph ファイルシステムのスナップショットスケジュールの削除 リンクのコピーリンクがクリップボードにコピーされました!
このセクションでは、Ceph ファイルシステム (CephFS) のスナップショットスケジュールを削除する手順を説明します。
前提条件
- Ceph File System (CephFS) がデプロイされた稼働中の Red Hat Ceph Storage クラスター。
- Ceph Monitor での少なくとも読み取りアクセス。
- Ceph Manager ノードの読み取りおよび書き込み機能。
- スナップショットスケジュールが作成されます。
手順
特定のスナップショットスケジュールを削除します。
構文
ceph fs snap-schedule remove FILE_SYSTEM_VOLUME_PATH [REPEAT_INTERVAL] [START_TIME]
ceph fs snap-schedule remove FILE_SYSTEM_VOLUME_PATH [REPEAT_INTERVAL] [START_TIME]Copy to Clipboard Copied! Toggle word wrap Toggle overflow 例
[ceph: root@host02 ~]# ceph fs snap-schedule remove /cephfs 4h 2022-05-16T14:00:00
[ceph: root@host02 ~]# ceph fs snap-schedule remove /cephfs 4h 2022-05-16T14:00:00Copy to Clipboard Copied! Toggle word wrap Toggle overflow この例では、4 時間ごとにスナップショットを作成し、2022 年 5 月 16 日午後 2:00 に開始する、
/cephfsボリュームの特定のスナップショットスケジュールを削除します。特定の CephFS ボリュームパスのすべてのスナップショットスケジュールを削除します。
構文
ceph fs snap-schedule remove FILE_SYSTEM_VOLUME_PATH
ceph fs snap-schedule remove FILE_SYSTEM_VOLUME_PATHCopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
[ceph: root@host02 ~]# ceph fs snap-schedule remove /cephfs
[ceph: root@host02 ~]# ceph fs snap-schedule remove /cephfsCopy to Clipboard Copied! Toggle word wrap Toggle overflow この例では、
/cephfsボリュームパスのすべてのスナップショットスケジュールを削除します。
10.9. Ceph ファイルシステムサブボリュームのスナップショットスケジュールの削除 リンクのコピーリンクがクリップボードにコピーされました!
このセクションでは、Ceph ファイルシステム (CephFS) サブボリュームのスナップショットスケジュールを削除する手順を説明します。
前提条件
- Ceph File System (CephFS) がデプロイされた稼働中の Red Hat Ceph Storage クラスター。
- Ceph Monitor での少なくとも読み取りアクセス。
- Ceph Manager ノードの読み取りおよび書き込み機能。
- スナップショットスケジュールが作成されます。
手順
CephFS サブボリューム内のディレクトリーに対して作成された特定のスナップショットスケジュールを削除します。
構文
ceph fs snap-schedule remove SUBVOL_DIR_PATH [REPEAT_INTERVAL] [START_TIME]
ceph fs snap-schedule remove SUBVOL_DIR_PATH [REPEAT_INTERVAL] [START_TIME]Copy to Clipboard Copied! Toggle word wrap Toggle overflow 例
[ceph: root@host02 ~]# ceph fs snap-schedule remove /volumes/_nogroup/subvol_1/85a615da-e8fa-46c1-afc3-0eb8ae64a954/.. 4h 2022-05-16T14:00:00
[ceph: root@host02 ~]# ceph fs snap-schedule remove /volumes/_nogroup/subvol_1/85a615da-e8fa-46c1-afc3-0eb8ae64a954/.. 4h 2022-05-16T14:00:00Copy to Clipboard Copied! Toggle word wrap Toggle overflow この例では、2022 年 5 月 16 日午後 2:00 に開始する、4 時間ごとにスナップショットを作成する
/volumes/_nogroup/subvol_1/85a615da-e8fa-46c1-afc3-0eb8ae64a954/..ボリュームの特定のスナップショットスケジュールを削除します。デフォルトグループ内のサブボリュームに対して作成された特定のスナップショットスケジュールを削除します。
構文
ceph fs snap-schedule remove / --fs CEPH_FILESYSTEM_NAME --subvol SUBVOLUME_NAME
ceph fs snap-schedule remove / --fs CEPH_FILESYSTEM_NAME --subvol SUBVOLUME_NAMECopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
[ceph: root@host02 ~]# ceph fs snap-schedule remove / --fs cephfs --subvol sv_sched Schedule removed for path /volumes/subvolgroup_cg/sv_sched/e704342a-ff07-4763-bb0b-a46d9dda6f27/..
[ceph: root@host02 ~]# ceph fs snap-schedule remove / --fs cephfs --subvol sv_sched Schedule removed for path /volumes/subvolgroup_cg/sv_sched/e704342a-ff07-4763-bb0b-a46d9dda6f27/..Copy to Clipboard Copied! Toggle word wrap Toggle overflow 重要パス (/) を定義する必要があり、空のままにすることはできません。パス文字列の値には依存関係がないため、/、-、または /… として定義できます。
デフォルト以外のグループ内のサブボリュームに対して作成された特定のスナップショットスケジュールを削除します。
構文
ceph fs snap-schedule remove / --fs CEPH_FILESYSTEM_NAME --subvol SUBVOLUME_NAME --group NON-DEFAULT_GROUP_NAME
ceph fs snap-schedule remove / --fs CEPH_FILESYSTEM_NAME --subvol SUBVOLUME_NAME --group NON-DEFAULT_GROUP_NAMECopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
[ceph: root@host02 ~]# ceph fs snap-schedule remove / --fs cephfs --subvol sv_sched --group subvolgroup_cg Schedule removed for path /volumes/subvolgroup_cg/sv_sched/e704342a-ff07-4763-bb0b-a46d9dda6f27/..
[ceph: root@host02 ~]# ceph fs snap-schedule remove / --fs cephfs --subvol sv_sched --group subvolgroup_cg Schedule removed for path /volumes/subvolgroup_cg/sv_sched/e704342a-ff07-4763-bb0b-a46d9dda6f27/..Copy to Clipboard Copied! Toggle word wrap Toggle overflow 重要パス (/) を定義する必要があり、空のままにすることはできません。パス文字列の値には依存関係がないため、/、-、または /… として定義できます。
10.10. Ceph ファイルシステムのスナップショットスケジュール保持ポリシーの削除 リンクのコピーリンクがクリップボードにコピーされました!
このセクションでは、Ceph ファイルシステム (CephFS) のスケジュールされたスナップショットの保持ポリシーを削除する手順について説明します。
前提条件
- Ceph File System (CephFS) がデプロイされた稼働中の Red Hat Ceph Storage クラスター。
- Ceph Monitor での少なくとも読み取りアクセス。
- Ceph Manager ノードの読み取りおよび書き込み機能。
- CephFS ボリュームパス用に作成されたスナップショットスケジュール。
手順
CephFS パスの保持ポリシーを削除します。
構文
ceph fs snap-schedule retention remove FILE_SYSTEM_VOLUME_PATH [COUNT_TIME_PERIOD_PAIR] TIME_PERIOD COUNT
ceph fs snap-schedule retention remove FILE_SYSTEM_VOLUME_PATH [COUNT_TIME_PERIOD_PAIR] TIME_PERIOD COUNTCopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
[ceph: root@host02 ~]# ceph fs snap-schedule retention remove /cephfs h 4 [ceph: root@host02 ~]# ceph fs snap-schedule retention remove /cephfs 14d4w
[ceph: root@host02 ~]# ceph fs snap-schedule retention remove /cephfs h 41 [ceph: root@host02 ~]# ceph fs snap-schedule retention remove /cephfs 14d4w2 Copy to Clipboard Copied! Toggle word wrap Toggle overflow
10.11. Ceph ファイルシステムサブボリュームのスナップショットスケジュール保持ポリシーの削除 リンクのコピーリンクがクリップボードにコピーされました!
このセクションでは、Ceph ファイルシステム (CephFS) サブボリュームのスケジュールされたスナップショットの保持ポリシーを削除する手順について説明します。
前提条件
- Ceph File System (CephFS) がデプロイされた稼働中の Red Hat Ceph Storage クラスター。
- Ceph Monitor での少なくとも読み取りアクセス。
- Ceph Manager ノードの読み取りおよび書き込み機能。
- CephFS サブボリュームパス用に作成されたスナップショットスケジュール。
手順
CephFS サブボリューム内のディレクトリーの保持ポリシーを削除します。
構文
ceph fs snap-schedule retention remove SUBVOL_DIR_PATH [COUNT_TIME_PERIOD_PAIR] TIME_PERIOD COUNT
ceph fs snap-schedule retention remove SUBVOL_DIR_PATH [COUNT_TIME_PERIOD_PAIR] TIME_PERIOD COUNTCopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
[ceph: root@host02 ~]# ceph fs snap-schedule retention remove /volumes/_nogroup/subvol_1/85a615da-e8fa-46c1-afc3-0eb8ae64a954/.. h 4 [ceph: root@host02 ~]# ceph fs snap-schedule retention remove /volumes/_nogroup/subvol_1/85a615da-e8fa-46c1-afc3-0eb8ae64a954/.. 14d4w
[ceph: root@host02 ~]# ceph fs snap-schedule retention remove /volumes/_nogroup/subvol_1/85a615da-e8fa-46c1-afc3-0eb8ae64a954/.. h 41 [ceph: root@host02 ~]# ceph fs snap-schedule retention remove /volumes/_nogroup/subvol_1/85a615da-e8fa-46c1-afc3-0eb8ae64a954/.. 14d4w2 Copy to Clipboard Copied! Toggle word wrap Toggle overflow デフォルトグループ内のサブボリュームのスナップショットスケジュールで作成された保持ポリシーを削除します。
構文
ceph fs snap-schedule retention remove / TIME_PERIOD_PAIR TIME_PERIOD COUNT --fs CEPH_FILESYSTEM_NAME --subvol SUBVOLUME_NAME
ceph fs snap-schedule retention remove / TIME_PERIOD_PAIR TIME_PERIOD COUNT --fs CEPH_FILESYSTEM_NAME --subvol SUBVOLUME_NAMECopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
[ceph: root@host02 ~]# ceph fs snap-schedule retention remove / 5h --fs cephfs --subvol sv_sched --group subvolgroup_cg Retention removed from path /volumes/subvolgroup_cg/sv_sched/e704342a-ff07-4763-bb0b-a46d9dda6f27/..
[ceph: root@host02 ~]# ceph fs snap-schedule retention remove / 5h --fs cephfs --subvol sv_sched --group subvolgroup_cg Retention removed from path /volumes/subvolgroup_cg/sv_sched/e704342a-ff07-4763-bb0b-a46d9dda6f27/..Copy to Clipboard Copied! Toggle word wrap Toggle overflow 重要パス (/) を定義する必要があり、空のままにすることはできません。パス文字列の値には依存関係がないため、/、-、または /… として定義できます。
デフォルト以外のグループのサブボリュームのスナップショットスケジュールで作成された保持ポリシーを削除します。
構文
ceph fs snap-schedule retention remove / TIME_PERIOD_PAIR TIME_PERIOD COUNT --fs CEPH_FILESYSTEM_NAME --subvol SUBVOLUME_NAME --group NON-DEFAULT_GROUP_NAME
ceph fs snap-schedule retention remove / TIME_PERIOD_PAIR TIME_PERIOD COUNT --fs CEPH_FILESYSTEM_NAME --subvol SUBVOLUME_NAME --group NON-DEFAULT_GROUP_NAMECopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
[ceph: root@host02 ~]# ceph fs snap-schedule retention remove / 5h --fs cephfs --subvol sv_sched --group subvolgroup_cg Retention removed from path /volumes/subvolgroup_cg/sv_sched/e704342a-ff07-4763-bb0b-a46d9dda6f27/..
[ceph: root@host02 ~]# ceph fs snap-schedule retention remove / 5h --fs cephfs --subvol sv_sched --group subvolgroup_cg Retention removed from path /volumes/subvolgroup_cg/sv_sched/e704342a-ff07-4763-bb0b-a46d9dda6f27/..Copy to Clipboard Copied! Toggle word wrap Toggle overflow 重要パス (/) を定義する必要があり、空のままにすることはできません。パス文字列の値には依存関係がないため、/、-、または /… として定義できます。
- Red Hat Ceph Storage File System ガイド の Ceph File System のデプロイメント セクションを参照してください。
第11章 Ceph File System スナップショットのミラーリング リンクのコピーリンクがクリップボードにコピーされました!
ストレージ管理者は、別の Red Hat Ceph Storage クラスターのリモート Ceph File System に Ceph File System (CephFS) を複製できます。
前提条件
- ソースおよびターゲットストレージクラスターは、Red Hat Ceph Storage 6.0 以降を実行している必要があります。
Ceph File System (CephFS) は、別の Red Hat Ceph Storage クラスター上のリモート CephFS へのスナップショットの非同期レプリケーションをサポートします。スナップショットの同期は、スナップショットデータをリモートの Ceph ファイルシステムにコピーし、同じ名前のリモートターゲットに新しいスナップショットを作成します。スナップショット同期用に特定のディレクトリーを設定できます。
CephFS スナップショットミラーリングの管理は、CephFS ミラーリングデーモン (cephfs-mirror) によって行われます。このスナップショットデータは、リモートの CephFS への一括コピーを実行することで同期されます。スナップショットのペアの同期順序は、snap-id を使用して作成時に決定されます。
ハードリンクの同期はサポートされていません。ハードリンクされたファイルは、通常のファイルとして同期されます。
CephFS スナップショットのミラーリングには、スナップショットインカーネーションや高可用性などの機能が含まれます。これらは、推奨される制御インターフェイスである Ceph Manager mirroring モジュールを介して管理できます。
Ceph Manager モジュールとインターフェイス
Ceph Manager mirroring モジュールは、デフォルトでは無効になっています。ディレクトリースナップショットのミラーリングを管理するためのインターフェイスを提供します。Ceph Manager インターフェイスは、ほとんどの場合、CephFS ミラーリングを管理するためのモニターコマンドのラッパーです。これらは、推奨される制御インターフェイスです。
Ceph Manager mirroring モジュールは、Ceph Manager プラグインとして実装されます。これは、Synchronization のためにディレクトリーを cephfs-mirror デーモンに割り当てるロールを果たします。
Ceph Manager の mirroring モジュールは、ディレクトリースナップショットのミラーリングを制御するコマンドのファミリーも提供します。mirroring モジュールは、cephfs-mirror デーモンを管理しません。cephfs-mirror デーモンの停止、起動、再起動、および有効化は systemctl によって制御されますが、cephadm によって管理されます。
ミラーリングモジュールコマンドは、fs mirror 接頭辞を使用する監視コマンドと比較して、fs snapshot mirror 接頭辞を使用します。module コマンド接頭辞を使用して、ディレクトリースナップショットのミラーリングを制御していることを確認してください。
スナップショットの再生成
スナップショットが削除され、同じ名前で異なる内容で再作成される場合があります。ユーザーは以前に "古い" スナップショットを同期し、ミラーリングが無効になったときにスナップショットを再作成できました。スナップショット名を使用して継続点を推測すると、"新しい" スナップショットが生成され、同期のために取得されることはありません。
セカンダリーファイルシステムのスナップショットには、同期元のスナップショットのスナップ ID が格納されます。このメタデータは、Ceph メタデータサーバーの SnapInfo 構造に保存されます。
高可用性
複数の cephfs-mirror デーモンを 2 つ以上のノードにデプロイして、ディレクトリースナップショットの同期で同時実行を実現できます。cephfs-mirror デーモンがデプロイまたは終了されると、Ceph Manager mirroring モジュールは変更された cephfs-mirror デーモンのセットを検出し、新しいセット間でディレクトリーの割り当てを再調整して、高可用性を提供します。
cephfs-mirror デーモンは、単純な M/N ポリシーを使用して同期負荷を共有します。ここで、M はディレクトリーの数、N は cephfs-mirror デーモンの数です。
Ceph File System ミラーピアの再追加
別のクラスター内の CephFS にピアを再追加または再割り当てする場合は、すべてのミラーデーモンがピアへの同期を停止していることを確認してください。これは、fs mirror status コマンドを使用して確認できます。ピア UUID はコマンド出力に表示されません。
別の CephFS に再追加する前に、同期されたディレクトリーをピアからパージします。特に、新しいプライマリーファイルシステムに存在する可能性のあるディレクトリーを削除します。以前に同期した同じプライマリーファイルシステムにピアを再度追加する場合、これは必要ありません。
11.1. Ceph ファイルシステムのスナップショットミラーの設定 リンクのコピーリンクがクリップボードにコピーされました!
Ceph File System (CephFS) を設定して、リモートの Red Hat Ceph Storage クラスターの別の CephFS にスナップショットを複製するようにミラーリングできます。
リモートストレージクラスターへの同期にかかる時間は、ファイルのサイズとミラーリングパス内のファイルの合計数によって異なります。
前提条件
- ソースおよびターゲットストレージクラスターは、Red Hat Ceph Storage 7.0 以降を実行していて正常である必要があります。
- ソースおよびターゲットストレージクラスターの Ceph Monitor ノードへのルートレベルのアクセス。
- ストレージクラスターにデプロイされた少なくとも 1 つの Ceph ファイルシステム。
手順
Cephadm シェルにログインします。
例
cephadm shell
[root@host01 ~]# cephadm shellCopy to Clipboard Copied! Toggle word wrap Toggle overflow ソースストレージクラスターで、CephFS ミラーリングデーモンをデプロイします。
構文
ceph orch apply cephfs-mirror ["NODE_NAME"]
ceph orch apply cephfs-mirror ["NODE_NAME"]Copy to Clipboard Copied! Toggle word wrap Toggle overflow 例
[ceph: root@host01 /]# ceph orch apply cephfs-mirror "node1.example.com" Scheduled cephfs-mirror update...
[ceph: root@host01 /]# ceph orch apply cephfs-mirror "node1.example.com" Scheduled cephfs-mirror update...Copy to Clipboard Copied! Toggle word wrap Toggle overflow このコマンドにより、
cephfs-mirrorという名前の Ceph ユーザーが作成され、特定のノードにcephfs-mirrorデーモンがデプロイされます。オプション: 複数の CephFS ミラーリングデーモンをデプロイし、高可用性を実現します。
構文
ceph orch apply cephfs-mirror --placement="PLACEMENT_SPECIFICATION"
ceph orch apply cephfs-mirror --placement="PLACEMENT_SPECIFICATION"Copy to Clipboard Copied! Toggle word wrap Toggle overflow 例
[ceph: root@host01 /]# ceph orch apply cephfs-mirror --placement="3 host1 host2 host3" Scheduled cephfs-mirror update...
[ceph: root@host01 /]# ceph orch apply cephfs-mirror --placement="3 host1 host2 host3" Scheduled cephfs-mirror update...Copy to Clipboard Copied! Toggle word wrap Toggle overflow この例では、3 つの
cephfs-mirrorデーモンを異なるホストにデプロイします。警告次のエラーが発生するため、ホストをコンマで区切らないでください。
Error EINVAL: name component must include only a-z, 0-9, and -
Error EINVAL: name component must include only a-z, 0-9, and -Copy to Clipboard Copied! Toggle word wrap Toggle overflow
ターゲットストレージクラスターで、それぞれの CephFS ピア用にユーザーを作成します。
構文
ceph fs authorize FILE_SYSTEM_NAME CLIENT_NAME / rwps
ceph fs authorize FILE_SYSTEM_NAME CLIENT_NAME / rwpsCopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
[ceph: root@host01 /]# ceph fs authorize cephfs client.mirror_remote / rwps [client.mirror_remote] key = AQCjZ5Jg739AAxAAxduIKoTZbiFJ0lgose8luQ==[ceph: root@host01 /]# ceph fs authorize cephfs client.mirror_remote / rwps [client.mirror_remote] key = AQCjZ5Jg739AAxAAxduIKoTZbiFJ0lgose8luQ==Copy to Clipboard Copied! Toggle word wrap Toggle overflow ソースストレージクラスターで、CephFS ミラーリングモジュールを有効にします。
例
[ceph: root@host01 /]# ceph mgr module enable mirroring
[ceph: root@host01 /]# ceph mgr module enable mirroringCopy to Clipboard Copied! Toggle word wrap Toggle overflow ソースストレージクラスターで、Ceph File System でミラーリングを有効にします。
構文
ceph fs snapshot mirror enable FILE_SYSTEM_NAME
ceph fs snapshot mirror enable FILE_SYSTEM_NAMECopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
[ceph: root@host01 /]# ceph fs snapshot mirror enable cephfs
[ceph: root@host01 /]# ceph fs snapshot mirror enable cephfsCopy to Clipboard Copied! Toggle word wrap Toggle overflow オプション: スナップショットミラーリングを無効にします。
構文
ceph fs snapshot mirror disable FILE_SYSTEM_NAME
ceph fs snapshot mirror disable FILE_SYSTEM_NAMECopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
[ceph: root@host01 /]# ceph fs snapshot mirror disable cephfs
[ceph: root@host01 /]# ceph fs snapshot mirror disable cephfsCopy to Clipboard Copied! Toggle word wrap Toggle overflow 警告ファイルシステムでスナップショットミラーリングを無効にすると、設定されたピアが削除されます。ピアをブートストラップして再度インポートする必要があります。
ターゲットピアストレージクラスターを準備します。
ターゲットノードで、
mirroringCeph Manager モジュールを有効にします。例
[ceph: root@host01 /]# ceph mgr module enable mirroring
[ceph: root@host01 /]# ceph mgr module enable mirroringCopy to Clipboard Copied! Toggle word wrap Toggle overflow 同じターゲットノードで、ピアブートストラップを作成します。
構文
ceph fs snapshot mirror peer_bootstrap create FILE_SYSTEM_NAME CLIENT_NAME SITE_NAME
ceph fs snapshot mirror peer_bootstrap create FILE_SYSTEM_NAME CLIENT_NAME SITE_NAMECopy to Clipboard Copied! Toggle word wrap Toggle overflow SITE_NAME は、ターゲットのストレージクラスターを識別するユーザー定義の文字列です。
例
[ceph: root@host01 /]# ceph fs snapshot mirror peer_bootstrap create cephfs client.mirror_remote remote-site {"token": "eyJmc2lkIjogIjBkZjE3MjE3LWRmY2QtNDAzMC05MDc5LTM2Nzk4NTVkNDJlZiIsICJmaWxlc3lzdGVtIjogImJhY2t1cF9mcyIsICJ1c2VyIjogImNsaWVudC5taXJyb3JfcGVlcl9ib290c3RyYXAiLCAic2l0ZV9uYW1lIjogInNpdGUtcmVtb3RlIiwgImtleSI6ICJBUUFhcDBCZ0xtRmpOeEFBVnNyZXozai9YYUV0T2UrbUJEZlJDZz09IiwgIm1vbl9ob3N0IjogIlt2MjoxOTIuMTY4LjAuNTo0MDkxOCx2MToxOTIuMTY4LjAuNTo0MDkxOV0ifQ=="}[ceph: root@host01 /]# ceph fs snapshot mirror peer_bootstrap create cephfs client.mirror_remote remote-site {"token": "eyJmc2lkIjogIjBkZjE3MjE3LWRmY2QtNDAzMC05MDc5LTM2Nzk4NTVkNDJlZiIsICJmaWxlc3lzdGVtIjogImJhY2t1cF9mcyIsICJ1c2VyIjogImNsaWVudC5taXJyb3JfcGVlcl9ib290c3RyYXAiLCAic2l0ZV9uYW1lIjogInNpdGUtcmVtb3RlIiwgImtleSI6ICJBUUFhcDBCZ0xtRmpOeEFBVnNyZXozai9YYUV0T2UrbUJEZlJDZz09IiwgIm1vbl9ob3N0IjogIlt2MjoxOTIuMTY4LjAuNTo0MDkxOCx2MToxOTIuMTY4LjAuNTo0MDkxOV0ifQ=="}Copy to Clipboard Copied! Toggle word wrap Toggle overflow 次の手順で使用する二重引用符の間のトークン文字列をコピーします。
ソースストレージクラスターで、ターゲットストレージクラスターからブートストラップトークンをインポートします。
構文
ceph fs snapshot mirror peer_bootstrap import FILE_SYSTEM_NAME TOKEN
ceph fs snapshot mirror peer_bootstrap import FILE_SYSTEM_NAME TOKENCopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
[ceph: root@host01 /]# ceph fs snapshot mirror peer_bootstrap import cephfs eyJmc2lkIjogIjBkZjE3MjE3LWRmY2QtNDAzMC05MDc5LTM2Nzk4NTVkNDJlZiIsICJmaWxlc3lzdGVtIjogImJhY2t1cF9mcyIsICJ1c2VyIjogImNsaWVudC5taXJyb3JfcGVlcl9ib290c3RyYXAiLCAic2l0ZV9uYW1lIjogInNpdGUtcmVtb3RlIiwgImtleSI6ICJBUUFhcDBCZ0xtRmpOeEFBVnNyZXozai9YYUV0T2UrbUJEZlJDZz09IiwgIm1vbl9ob3N0IjogIlt2MjoxOTIuMTY4LjAuNTo0MDkxOCx2MToxOTIuMTY4LjAuNTo0MDkxOV0ifQ==
[ceph: root@host01 /]# ceph fs snapshot mirror peer_bootstrap import cephfs eyJmc2lkIjogIjBkZjE3MjE3LWRmY2QtNDAzMC05MDc5LTM2Nzk4NTVkNDJlZiIsICJmaWxlc3lzdGVtIjogImJhY2t1cF9mcyIsICJ1c2VyIjogImNsaWVudC5taXJyb3JfcGVlcl9ib290c3RyYXAiLCAic2l0ZV9uYW1lIjogInNpdGUtcmVtb3RlIiwgImtleSI6ICJBUUFhcDBCZ0xtRmpOeEFBVnNyZXozai9YYUV0T2UrbUJEZlJDZz09IiwgIm1vbl9ob3N0IjogIlt2MjoxOTIuMTY4LjAuNTo0MDkxOCx2MToxOTIuMTY4LjAuNTo0MDkxOV0ifQ==Copy to Clipboard Copied! Toggle word wrap Toggle overflow ソースストレージクラスターで、CephFS ミラーピアをリスト表示します。
構文
ceph fs snapshot mirror peer_list FILE_SYSTEM_NAME
ceph fs snapshot mirror peer_list FILE_SYSTEM_NAMECopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
[ceph: root@host01 /]# ceph fs snapshot mirror peer_list cephfs {"e5ecb883-097d-492d-b026-a585d1d7da79": {"client_name": "client.mirror_remote", "site_name": "remote-site", "fs_name": "cephfs", "mon_host": "[v2:10.0.211.54:3300/0,v1:10.0.211.54:6789/0] [v2:10.0.210.56:3300/0,v1:10.0.210.56:6789/0] [v2:10.0.210.65:3300/0,v1:10.0.210.65:6789/0]"}}[ceph: root@host01 /]# ceph fs snapshot mirror peer_list cephfs {"e5ecb883-097d-492d-b026-a585d1d7da79": {"client_name": "client.mirror_remote", "site_name": "remote-site", "fs_name": "cephfs", "mon_host": "[v2:10.0.211.54:3300/0,v1:10.0.211.54:6789/0] [v2:10.0.210.56:3300/0,v1:10.0.210.56:6789/0] [v2:10.0.210.65:3300/0,v1:10.0.210.65:6789/0]"}}Copy to Clipboard Copied! Toggle word wrap Toggle overflow オプション: スナップショットピアを削除します。
構文
ceph fs snapshot mirror peer_remove FILE_SYSTEM_NAME PEER_UUID
ceph fs snapshot mirror peer_remove FILE_SYSTEM_NAME PEER_UUIDCopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
[ceph: root@host01 /]# ceph fs snapshot mirror peer_remove cephfs e5ecb883-097d-492d-b026-a585d1d7da79
[ceph: root@host01 /]# ceph fs snapshot mirror peer_remove cephfs e5ecb883-097d-492d-b026-a585d1d7da79Copy to Clipboard Copied! Toggle word wrap Toggle overflow 注記ピア UUID 値を見つける方法は、Ceph ファイルシステムのミラーステータスの表示 を参照してください。
ソースストレージクラスターで、スナップショットミラーリングのディレクトリーを設定します。
構文
ceph fs snapshot mirror add FILE_SYSTEM_NAME PATH
ceph fs snapshot mirror add FILE_SYSTEM_NAME PATHCopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
[ceph: root@host01 /]# ceph fs snapshot mirror add cephfs /volumes/_nogroup/subvol_1
[ceph: root@host01 /]# ceph fs snapshot mirror add cephfs /volumes/_nogroup/subvol_1Copy to Clipboard Copied! Toggle word wrap Toggle overflow 重要Ceph ファイルシステム内の絶対パスのみが有効です。
注記Ceph Manager の
mirroringモジュールは、パスを正規化します。たとえば、/d1/d2/../dNディレクトリーは/d1/d2と同等です。ミラーリング用にディレクトリーが追加されると、その上位ディレクトリーおよびサブディレクトリーがミラーリング用に追加されなくなります。オプション: ディレクトリーのスナップショットミラーリングを停止します。
構文
ceph fs snapshot mirror remove FILE_SYSTEM_NAME PATH
ceph fs snapshot mirror remove FILE_SYSTEM_NAME PATHCopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
[ceph: root@host01 /]# ceph fs snapshot mirror remove cephfs /home/user1
[ceph: root@host01 /]# ceph fs snapshot mirror remove cephfs /home/user1Copy to Clipboard Copied! Toggle word wrap Toggle overflow
11.2. Ceph File システムのミラーステータスの表示 リンクのコピーリンクがクリップボードにコピーされました!
Ceph File System (CephFS) ミラーデーモン (cephfs-mirror) は、CephFS ミラーリングステータスの変更に関する非同期通知とピアの更新と共に行われます。CephFS ミラーリングモジュールは、ミラーデーモンのステータスを確認するためのミラーデーモンステータスインターフェイスを提供します。詳細については、コマンドを使用して cephfs-mirror 管理ソケットにクエリーを実行し、ミラーのステータスとピアのステータスを取得できます。
前提条件
- 稼働中の Red Hat Ceph Storage クラスターがある。
- ミラーリングが有効にされている Ceph File System のデプロイメントを少なくとも 1 つ。
- CephFS ミラーリングデーモンを実行するノードへのルートレベルのアクセス。
手順
Cephadm シェルにログインします。
例
cephadm shell
[root@host01 ~]# cephadm shellCopy to Clipboard Copied! Toggle word wrap Toggle overflow cephfs-mirrorデーモンのステータスを確認します。構文
ceph fs snapshot mirror daemon status
ceph fs snapshot mirror daemon statusCopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 詳細については、以下で説明する管理ソケットインターフェイスを使用してください。
CephFS ミラーリングデーモンを実行しているノードで Ceph File System ID を見つけます。
構文
ceph --admin-daemon PATH_TO_THE_ASOK_FILE help
ceph --admin-daemon PATH_TO_THE_ASOK_FILE helpCopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
Copy to Clipboard Copied! Toggle word wrap Toggle overflow この例の Ceph File System ID は
cephfs@11です。注記ミラーリングが無効になっている場合、ファイルシステムのそれぞれの
fs mirror statusコマンドは、helpコマンドに表示されません。ミラーステータスを表示します。
構文
ceph --admin-daemon PATH_TO_THE_ASOK_FILE fs mirror status FILE_SYSTEM_NAME@_FILE_SYSTEM_ID
ceph --admin-daemon PATH_TO_THE_ASOK_FILE fs mirror status FILE_SYSTEM_NAME@_FILE_SYSTEM_IDCopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
Copy to Clipboard Copied! Toggle word wrap Toggle overflow - 1
- これは、固有のピア UUID です。
ピアステータスを表示します。
構文
ceph --admin-daemon PATH_TO_ADMIN_SOCKET fs mirror status FILE_SYSTEM_NAME@FILE_SYSTEM_ID PEER_UUID
ceph --admin-daemon PATH_TO_ADMIN_SOCKET fs mirror status FILE_SYSTEM_NAME@FILE_SYSTEM_ID PEER_UUIDCopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
Copy to Clipboard Copied! Toggle word wrap Toggle overflow stateは、以下の 3 つの値のいずれかになります。
連続する失敗のデフォルト数は 10 で、デフォルトの再試行間隔は 60 秒です。
cephfs-mirrorデーモンがマップされているディレクトリーを表示します。構文
ceph fs snapshot mirror dirmap FILE_SYSTEM_NAME PATH
ceph fs snapshot mirror dirmap FILE_SYSTEM_NAME PATHCopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
Copy to Clipboard Copied! Toggle word wrap Toggle overflow - 1
instance_idは、cephfs-mirrorデーモンに関連付けられた RADOS インスタンス ID です。
例
[ceph: root@host01 /]# ceph fs snapshot mirror dirmap cephfs /volumes/_nogroup/subvol_1 { "reason": "no mirror daemons running", "state": "stalled" }[ceph: root@host01 /]# ceph fs snapshot mirror dirmap cephfs /volumes/_nogroup/subvol_1 { "reason": "no mirror daemons running", "state": "stalled"1 }Copy to Clipboard Copied! Toggle word wrap Toggle overflow - 1
stalled状態は、CephFS ミラーリングが停止していることを意味します。
2 番目の例は、ミラーデーモンが実行されていないときのコマンド出力を示しています。
11.3. Ceph File System スナップショットミラーリングのメトリクスを表示する リンクのコピーリンクがクリップボードにコピーされました!
これらのメトリクスを表示すると、パフォーマンスと同期の進行状況を監視するのに役立ちます。カウンターダンプを使用して、Ceph File System スナップショットミラーの健全性とボリュームメトリクスを確認します。
前提条件
- 実行中の IBM Storage Ceph クラスター。
- Ceph File System スナップショットミラーリングのデプロイメントが、少なくとも 1 つ有効になっている。
- Ceph File System ミラーリングデーモンを実行しているノードへのルートレベルのアクセス。
手順
-
asokファイルの名前を取得します。asokファイルはミラーリングデーモンが実行されている場所で使用でき、cephadm シェル内の/var/run/ceph/に配置されています。 CephFS ミラーリングデーモンを実行しているノードで次のコマンドを実行して、ミラーリングメトリクスと同期ステータスを確認します。
構文
[ceph: root@mirror-host01 /]# ceph --admin-daemon ASOK_FILE_NAME counter dump
[ceph: root@mirror-host01 /]# ceph --admin-daemon ASOK_FILE_NAME counter dumpCopy to Clipboard Copied! Toggle word wrap Toggle overflow 例
Copy to Clipboard Copied! Toggle word wrap Toggle overflow
メトリクスの説明:
Labeled Perf Counters は、OCP および ACM ダッシュボードやその他の場所での地理的レプリケーションを監視するための、OCP/ODF ダッシュボードで使用できるメトリクスを生成します。
これにより、cephfs_mirror 同期の進行状況が生成され、監視機能が提供されます。エクスポートされたメトリクスにより、次のアラートに基づく監視が可能になります。
- mirroring_peers
- ミラーリングに関与するピアの数。
- directory_count
- 同期されているディレクトリーの総数。
- mirrored_filesystems
- ミラーリングされているファイルシステムの総数。
- mirror_enable_failures
- ミラーリングの失敗を有効にします。
- snaps_synced
- 正常に同期されたスナップショットの総数。
- sync_bytes
- 同期されている合計バイト数。
- sync_failures
- 失敗したスナップショット同期の総数。
- snaps_deleted
- 削除されたスナップショットの総数。
- snaps_renamed
- 名前が変更されたスナップショットの総数。
- avg_synced_time
- すべてのスナップショット同期にかかる平均時間。
- last_synced_start
- 最後に同期されたスナップショットの同期開始時刻。
- last_synced_end
- 最後に同期されたスナップショットの同期終了時刻。
- last_synced_duration
- 最後の同期の期間。
- last_synced_bytes
- 最後に同期されたスナップショットで同期された合計バイト数。
付録A Ceph File System のヘルスメッセージ リンクのコピーリンクがクリップボードにコピーされました!
クラスターのヘルスチェック
Ceph Monitor デーモンは、メタデータサーバー (MDS) の特定の状態に応じてヘルスメッセージを生成します。以下は、ヘルスメッセージとその説明です。
- mds rank(s) <ranks> have failed
- 現在、1 つ以上の MDS ランクが MDS デーモンに割り当てられていません。ストレージクラスターは、適切な置き換えデーモンが開始するまで回復しません。
- mds rank(s) <ranks> are damaged
- MDS ランクク 1 つまたは複数で、保存されたメタデータに重大な破損が生じ、メタデータが修復されるまで再度起動できません。
- MDS クラスターが動作が低下しています。
-
現在、MDS のランク 1 つ以上が稼働していないため、この状況が解決されるまで、クライアントはメタデータ I/O を一時停止する可能性があります。これには、実行に失敗したか、破損したランクが含まれます。また、MDS で実行していても
active状態でないランクも含まれます (例:replay状態)。 - mds <names> are laggy
-
MDS デーモンは、
mds_beacon_intervalオプションで指定した間隔で、監視にメッセージを送る必要があり、デフォルトは 4 秒です。MDS デーモンが、mds_beacon_graceオプションで指定された時間内にメッセージ送信に失敗した場合、デフォルトは 15 秒です。Ceph Monitor は MDS デーモンにlaggyとマークし、利用可能な場合には自動的にスタンバイデーモンに置き換えます。
デーモンでレポートされたヘルスチェック
MDS デーモンは、さまざまな不要な状況を特定し、それらを ceph status コマンドの出力で返すことができます。これらの条件には人が判読できるメッセージがあり、JSON の出力に表示される MDS_HEALTH を開始するための一意のコードもあります。以下は、デーモンメッセージ、それらのコード、および説明のリストです。
- "Behind on trimming…"
コード: MDS_HEALTH_TRIM
CephFS は、ログセグメントに分割されるメタデータジャーナルを維持します。ジャーナルの長さ (セグメント数) は、
mds_log_max_segments設定で制御されます。セグメントの数が設定を超えた場合、MDS はメタデータの書き込みを開始し、最も古いセグメントを削除 (トリミング) できるようにします。このプロセスの速度が遅い場合や、ソフトウェアのバグがトリミングされると、この健全性メッセージが表示されます。このメッセージに表示されるしきい値は、セグメントの数が doublemds_log_max_segmentsとなるものです。注記トリム警告が発生した場合は、
mds_log_max_segmentsを増やすことを推奨します。ただし、クラスターの健全性が回復し、トリム警告が表示されなくなったら、必ずこの設定をデフォルトにリセットしてください。MDS がトリミングに追いつくことができるように、mds_log_max_segmentsを 256 に設定することを推奨します。- "Client <name> failing to respond to capability release"
コード: MDS_HEALTH_CLIENT_LATE_RELEASE, MDS_HEALTH_CLIENT_LATE_RELEASE_MANY
CephFS クライアントは、MDS により機能が発行されます。この機能はロックのように機能します。たとえば、別のクライアントがアクセスする必要がある場合、MDS はクライアントに対してその機能を解放するよう要求します。クライアントが応答しない場合は、プロンプトが表示されたら、またはこれをまったく使用できない可能性があります。このメッセージは、クライアントが
mds_revoke_cap_timeoutオプションで指定された時間 (デフォルトは 60 秒) に準拠するために時間がかかる場合に表示されます。- "Client <name> failing to respond to cache pressure"
コード: MDS_HEALTH_CLIENT_RECALL, MDS_HEALTH_CLIENT_RECALL_MANY
クライアントはメタデータキャッシュを維持します。クライアントキャッシュ内の inode などの項目は、MDS キャッシュでも固定されます。MDS がキャッシュサイズの制限内に留まるように MDS を縮小する必要がある場合、MDS はメッセージをクライアントに送信してキャッシュを縮小します。クライアントが応答しない場合は、MDS がキャッシュサイズ内に適切に残らないようにすることができます。また、MDS は最終的にメモリーを使い果たし、予期せずに終了する可能性があります。このメッセージは、クライアントが
mds_recall_state_timeoutオプションで指定された時間 (デフォルトは 60 秒) に準拠するために時間がかかる場合に表示されます。詳細は、Metadata Server キャッシュサイズの制限 のセクションを参照してください。- "Client name failing to advance its oldest client/flush tid"
コード: MDS_HEALTH_CLIENT_OLDEST_TID, MDS_HEALTH_CLIENT_OLDEST_TID_MANY
クライアントと MDS サーバー間で通信するための CephFS プロトコルは、oldest tid というフィールドを使用して、MDS が対応するためにクライアント要求が完全に完了している MDS に通知するものです。反応しないクライアントがこのフィールドを進めない場合、MDS はクライアント要求によって使用されるリソースを適切にクリーンアップできなくなる可能性があります。このメッセージは、クライアントが
max_completed_requestsオプション (デフォルトは 100000) で指定された数値よりも多くのリクエストがある場合に表示されます。これは、MDS 側では完全でも、クライアントの 最も古い tid 値について考慮されていないことを示しています。- "Metadata damage detected"
コード: MDS_HEALTH_DAMAGE
メタデータプールから読み取り時に、破損したメタデータまたは欠落しているメタデータが見つかりました。このメッセージは、MDS が動作を継続するために十分な破損した分離されたことを示しています。ただし、クライアントが破損したサブツリーへのアクセスにより I/O エラーが返されることを示します。
damage lsadministration socket コマンドを使用して、破損の詳細を表示します。このメッセージは、破損が発生するとすぐに表示されます。- "MDS in read-only mode"
Code: MDS_HEALTH_READ_ONLY
MDS は読み取り専用モードに入力されており、メタデータの変更を試みるクライアント操作に
EROFSエラーコードを返します。MDS は読み取り専用モードに入ります。- メタデータプールへの書き込み中に書き込みエラーが発生した場合
-
force_readonly管理ソケットコマンドを使用して、管理者が MDS を読み取り専用モードに強制するとき。
- "<N> slow requests are blocked"
コード: MDS_HEALTH_SLOW_REQUEST
1 つ以上のクライアント要求が完了しておらず、MDS が非常に遅いか、バグが発生したことを示しています。
ops管理ソケットコマンドを使用して、未処理のメタデータ操作をリスト表示します。このメッセージは、クライアントの要求がmds_op_complaint_timeオプションで指定した値よりも時間がかかる場合に表示されます (デフォルトは 30 秒)。- "Too many inodes in cache"
- コード: MDS_HEALTH_CACHE_OVERSIZED
MDS は、管理者が設定した制限に準拠するためにキャッシュをトリミングできませんでした。MDS キャッシュが大きすぎると、デーモンは利用可能なメモリーを使い切ったり、予期せずに終了する可能性があります。デフォルトでは、MDS キャッシュサイズが制限よりも 50% を超えると、このメッセージが表示されます。
関連情報
- 詳細は、Red Hat Ceph Storage ファイルシステムガイド の Metadata Server キャッシュサイズの制限 セクションを参照してください。
付録B Metadata Server デーモン設定リファレンス リンクのコピーリンクがクリップボードにコピーされました!
メタデータサーバー (MDS) デーモンの設定に使用できる、このコマンドリストを参照してください。
- mon_force_standby_active
- 説明
-
trueに設定した場合は、スタンバイ再生モードの MDS を強制的にアクティブにします。Ceph 設定ファイルの[mon]または[global]セクションで設定します。 - 型
- Boolean
- デフォルト
-
true
- max_mds
- 説明
-
クラスター作成時にアクティブな MDS デーモンの数。Ceph 設定ファイルの
[mon]または[global]セクションで設定します。 - 型
- 32 ビット整数
- デフォルト
-
1
- mds_cache_memory_limit
- 説明
-
MDS がキャッシュに強制するメモリー制限。Red Hat は、
mds cache sizeパラメーターの代わりにこのパラメーターを使用することを推奨します。 - 型
- 64 ビット整数未署名
- デフォルト
-
4294967296
- mds_cache_reservation
- 説明
- MDS キャッシュが維持するキャッシュ予約、メモリー、または inode。この値は、設定された最大キャッシュの割合です。MDS が予約にデップを開始したら、キャッシュサイズが縮小して予約を復元するまで、クライアントの状態をやり直します。
- 型
- 浮動小数点 (Float)
- デフォルト
-
0.05
- mds_cache_size
- 説明
-
キャッシュする inode の数。値が 0 の場合は、無制限の数字を示します。Red Hat は、MDS キャッシュが使用するメモリー量を制限するために
mds_cache_memory_limitを使用することを推奨します。 - 型
- 32 ビット整数
- デフォルト
-
0
- mds_cache_mid
- 説明
- キャッシュ LRU 内の新しい項目の挿入ポイント (トップ)
- 型
- 浮動小数点 (Float)
- デフォルト
-
0.7
- mds_dir_commit_ratio
- 説明
- 部分的な更新ではなく、Ceph が完全な更新を使用してコミットする前に、ディレクトリーの一部に誤った情報が含まれています。
- 型
- 浮動小数点 (Float)
- デフォルト
-
0.5
- mds_dir_max_commit_size
- 説明
- ディレクトリー更新の最大サイズ (MB 単位)。これを上回ると Ceph がディレクトリーを小規模なトランザクションに分割します。
- 型
- 32 ビット整数
- デフォルト
-
90
- mds_decay_halflife
- 説明
- MDS キャッシュ温度の半減期。
- 型
- 浮動小数点 (Float)
- デフォルト
-
5
- mds_beacon_interval
- 説明
- モニターに送信されるメッセージの頻度 (秒単位)。
- 型
- 浮動小数点 (Float)
- デフォルト
-
4
- mds_beacon_grace
- 説明
-
Ceph が MDS
laggyを宣言する前に acons がなく、置き換えることができる間隔。 - 型
- 浮動小数点 (Float)
- デフォルト
-
15
- mds_blacklist_interval
- 説明
- OSD マップの失敗した MDS デーモンのブラックリスト期間。
- 型
- 浮動小数点 (Float)
- デフォルト
-
24.0*60.0
- mds_session_timeout
- 説明
- Ceph の機能およびリースがタイムアウトするまでのクライアントの非アクティブの間隔 (秒単位)。
- 型
- 浮動小数点 (Float)
- デフォルト
-
60
- mds_session_autoclose
- 説明
-
Ceph が
laggyクライアントセッションを閉じるまでの間隔 (秒単位)。 - 型
- 浮動小数点 (Float)
- デフォルト
-
300
- mds_reconnect_timeout
- 説明
- MDS の再起動時にクライアントが再接続するまで待機する間隔 (秒単位)。
- 型
- 浮動小数点 (Float)
- デフォルト
-
45
- mds_tick_interval
- 説明
- MDS が内部周期的タスクを実行する頻度。
- 型
- 浮動小数点 (Float)
- デフォルト
-
5
- mds_dirstat_min_interval
- 説明
- ツリーで再帰的な統計の伝播を回避する最小間隔 (秒単位)。
- 型
- 浮動小数点 (Float)
- デフォルト
-
1
- mds_scatter_nudge_interval
- 説明
- ディレクトリー統計の急速な変更が反映されます。
- 型
- 浮動小数点 (Float)
- デフォルト
-
5
- mds_client_prealloc_inos
- 説明
- クライアントセッションごとに事前割り当てする inode 番号の数。
- 型
- 32 ビット整数
- デフォルト
-
1000
- mds_early_reply
- 説明
- MDS により、クライアントがジャーナルにコミットする前にリクエスト結果を確認できるかどうかを決定します。
- 型
- Boolean
- デフォルト
-
true
- mds_use_tmap
- 説明
-
ディレクトリーの更新には、
trivialmapを使用します。 - 型
- Boolean
- デフォルト
-
true
- mds_default_dir_hash
- 説明
- ディレクトリーフラグメント間でファイルをハッシュ化するために使用する関数。
- 型
- 32 ビット整数
- デフォルト
-
2、つまりrjenkins
- mds_log
- 説明
-
MDS がジャーナルメタデータの更新を行う必要がある場合は、
trueに設定します。ベンチマークのみを無効にします。 - 型
- Boolean
- デフォルト
-
true
- mds_log_skip_corrupt_events
- 説明
- MDS がジャーナルの再生中に破損したジャーナルイベントをスキップするかどうかを決定します。
- 型
- Boolean
- デフォルト
-
false
- mds_log_max_events
- 説明
-
Ceph がトリミングを開始する前に、ジャーナルの最大イベント。制限を無効にするには
-1に設定します。 - 型
- 32 ビット整数
- デフォルト
-
-1
- mds_log_max_segments
- 説明
-
Ceph がトリミングを開始する前に、ジャーナルのセグメントまたはオブジェクトの最大数。制限を無効にするには
-1に設定します。 - 型
- 32 ビット整数
- デフォルト
-
30
- mds_log_max_expiring
- 説明
- 並行して期限切れになるセグメントの最大数。
- 型
- 32 ビット整数
- デフォルト
-
20
- mds_log_eopen_size
- 説明
-
EOpenイベントにおける inode の最大数。 - 型
- 32 ビット整数
- デフォルト
-
100
- mds_bal_sample_interval
- 説明
- 断片化の決定を行うとき、ディレクトリー温度のサンプル頻度を決定します。
- 型
- 浮動小数点 (Float)
- デフォルト
-
3
- mds_bal_replicate_threshold
- 説明
- Ceph がメタデータを他のノードに複製するまでの最大温度。
- 型
- 浮動小数点 (Float)
- デフォルト
-
8000
- mds_bal_unreplicate_threshold
- 説明
- Ceph が他のノードへのメタデータの複製を停止する前の最小温度。
- 型
- 浮動小数点 (Float)
- デフォルト
-
0
- mds_bal_frag
- 説明
- MDS がディレクトリーをフラグメント化するかどうかを決定します。
- 型
- Boolean
- デフォルト
-
false
- mds_bal_split_size
- 説明
- MDS がディレクトリーのフラグメントを小規模なビットに分割する前にの最大ディレクトリーサイズ。root ディレクトリーには、デフォルトのフラグメントサイズが 10000 です。
- 型
- 32 ビット整数
- デフォルト
-
10000
- mds_bal_split_rd
- 説明
- Ceph がディレクトリーのフラグメントを分割するまでの最大ディレクトリー読み取り温度。
- 型
- 浮動小数点 (Float)
- デフォルト
-
25000
- mds_bal_split_wr
- 説明
- Ceph がディレクトリーのフラグメントを分割するまでの最大ディレクトリー書き込み温度。
- 型
- 浮動小数点 (Float)
- デフォルト
-
10000
- mds_bal_split_bits
- 説明
- ディレクトリーフラグメントを分割するビット数。
- 型
- 32 ビット整数
- デフォルト
-
3
- mds_bal_merge_size
- 説明
- Ceph が隣接ディレクトリーフラグメントをマージしようとする前の最小ディレクトリーサイズ。
- 型
- 32 ビット整数
- デフォルト
-
50
- mds_bal_merge_rd
- 説明
- Ceph が隣接するディレクトリーフラグメントのマージ前の最小限の読み取り温度。
- 型
- 浮動小数点 (Float)
- デフォルト
-
1000
- mds_bal_merge_wr
- 説明
- Ceph が隣接するディレクトリーのフラグメントをマージする前に最小の書き込み温度。
- 型
- 浮動小数点 (Float)
- デフォルト
-
1000
- mds_bal_interval
- 説明
- MDS ノード間のワークロード交換の頻度 (秒単位)。
- 型
- 32 ビット整数
- デフォルト
-
10
- mds_bal_fragment_interval
- 説明
- ディレクトリーの断片化を調整する頻度 (秒単位)。
- 型
- 32 ビット整数
- デフォルト
-
5
- mds_bal_idle_threshold
- 説明
- Ceph がサブツリーをその親に移行する前の最小温度。
- 型
- 浮動小数点 (Float)
- デフォルト
-
0
- mds_bal_max
- 説明
- Ceph が停止する前にバランサーを実行する反復数。テストの目的でのみ使用してください。
- 型
- 32 ビット整数
- デフォルト
-
-1
- mds_bal_max_until
- 説明
- Ceph が停止するまでのバランサーを実行する秒数。テストの目的でのみ使用してください。
- 型
- 32 ビット整数
- デフォルト
-
-1
- mds_bal_mode
- 説明
MDS 負荷を計算する方法:
-
1= ハイブリッド -
2= リクエストレートとレイテンシー。 -
3= CPU 負荷
-
- 型
- 32 ビット整数
- デフォルト
-
0
- mds_bal_min_rebalance
- 説明
- Ceph の移行前の最小サブツリーの温度。
- 型
- 浮動小数点 (Float)
- デフォルト
-
0.1
- mds_bal_min_start
- 説明
- Ceph がサブツリーを検索するまでの最小サブツリーの温度。
- 型
- 浮動小数点 (Float)
- デフォルト
-
0.2
- mds_bal_need_min
- 説明
- 許可するターゲットサブツリーの最小分数。
- 型
- 浮動小数点 (Float)
- デフォルト
-
0.8
- mds_bal_need_max
- 説明
- 許可するターゲットサブツリーサイズの最大分数。
- 型
- 浮動小数点 (Float)
- デフォルト
-
1.2
- mds_bal_midchunk
- 説明
- Ceph は、ターゲットサブツリーサイズのこの分を超えるサブツリーを移行します。
- 型
- 浮動小数点 (Float)
- デフォルト
-
0.3
- mds_bal_minchunk
- 説明
- Ceph は、ターゲットサブツリーサイズのこの分よりも小さいサブツリーを無視します。
- 型
- 浮動小数点 (Float)
- デフォルト
-
0.001
- mds_bal_target_removal_min
- 説明
- Ceph が MDS マップから古い MDS ターゲットを削除する前に、バランサーの反復回数。
- 型
- 32 ビット整数
- デフォルト
-
5
- mds_bal_target_removal_max
- 説明
- Ceph が MDS マップから古い MDS ターゲットを削除するまでのバランサー反復の最大数。
- 型
- 32 ビット整数
- デフォルト
-
10
- mds_replay_interval
- 説明
-
ジャーナルは、
hot standbyのstandby-replayモードの場合にポーリングする間隔です。 - 型
- 浮動小数点 (Float)
- デフォルト
-
1
- mds_shutdown_check
- 説明
- MDS のシャットダウン中にキャッシュをポーリングする間隔。
- 型
- 32 ビット整数
- デフォルト
-
0
- mds_thrash_exports
- 説明
- Ceph はノード間でサブツリーをランダムエクスポートします。テストの目的でのみ使用してください。
- 型
- 32 ビット整数
- デフォルト
-
0
- mds_thrash_fragments
- 説明
- Ceph の無作為に断片化したり、ディレクトリーをマージしたりします。
- 型
- 32 ビット整数
- デフォルト
-
0
- mds_dump_cache_on_map
- 説明
- Ceph は MDS キャッシュの内容を各 MDS マップのファイルにダンプします。
- 型
- Boolean
- デフォルト
-
false
- mds_dump_cache_after_rejoin
- 説明
- Ceph は、リカバリー中にキャッシュを再度参加した後に MDS キャッシュの内容をファイルにダンプします。
- 型
- Boolean
- デフォルト
-
false
- mds_verify_scatter
- 説明
-
Ceph は、さまざまな scatter/gather invariants が
trueであることをアサートします。開発者向けの使用のみ。 - 型
- Boolean
- デフォルト
-
false
- mds_debug_scatterstat
- 説明
-
Ceph は、バリアント内のさまざまな再帰統計が
trueであるアサートされます。開発者向けの使用のみ。 - 型
- Boolean
- デフォルト
-
false
- mds_debug_frag
- 説明
- Ceph は、使用時にディレクトリーの断片化を変えるように検証します。開発者向けの使用のみ。
- 型
- Boolean
- デフォルト
-
false
- mds_debug_auth_pins
- 説明
- デバッグ認証のバリアント。開発者向けの使用のみ。
- 型
- Boolean
- デフォルト
-
false
- mds_debug_subtrees
- 説明
- サブツリーのバリアントのデバッグ開発者向けの使用のみ。
- 型
- Boolean
- デフォルト
-
false
- mds_kill_mdstable_at
- 説明
- Ceph は、MDS テーブルコードに MDS 障害を挿入します。開発者向けの使用のみ。
- 型
- 32 ビット整数
- デフォルト
-
0
- mds_kill_export_at
- 説明
- Ceph は、サブツリーのエクスポートコードに MDS の失敗を注入します。開発者向けの使用のみ。
- 型
- 32 ビット整数
- デフォルト
-
0
- mds_kill_import_at
- 説明
- Ceph は、サブツリーのインポートコードに MDS の失敗を注入します。開発者向けの使用のみ。
- 型
- 32 ビット整数
- デフォルト
-
0
- mds_kill_link_at
- 説明
- Ceph は、ハードリンクコードに MDS 障害を挿入します。開発者向けの使用のみ。
- 型
- 32 ビット整数
- デフォルト
-
0
- mds_kill_rename_at
- 説明
- Ceph は、名前変更コードに MDS の失敗を注入します。開発者向けの使用のみ。
- 型
- 32 ビット整数
- デフォルト
-
0
- mds_wipe_sessions
- 説明
- Ceph は、起動時にすべてのクライアントセッションを削除します。テストの目的でのみ使用してください。
- 型
- Boolean
- デフォルト
-
0
- mds_wipe_ino_prealloc
- 説明
- Ceph は、起動時に inode 事前割り当てメタデータを削除します。テストの目的でのみ使用してください。
- 型
- Boolean
- デフォルト
-
0
- mds_skip_ino
- 説明
- 起動時にスキップする inode 番号の数。テストの目的でのみ使用してください。
- 型
- 32 ビット整数
- デフォルト
-
0
- mds_standby_for_name
- 説明
- MDS デーモンは、この設定で指定された名前の別の MDS デーモンに対するスタンバイです。
- 型
- String
- デフォルト
- 該当なし
- mds_standby_for_rank
- 説明
- MDS デーモンのインスタンスは、このランクの別の MDS デーモンインスタンスに対するスタンバイです。
- 型
- 32 ビット整数
- デフォルト
-
-1
- mds_standby_replay
- 説明
-
MDS デーモンが
hot standbyとして使用する場合にアクティブな MDS のログをポーリングおよび再生するかどうかを決定します。 - 型
- Boolean
- デフォルト
-
false
付録C ジャーナル設定の参照 リンクのコピーリンクがクリップボードにコピーされました!
ジャーナルャー設定に使用できる list コマンドのリファレンス
- journaler_write_head_interval
- 説明
- ジャーナルヘッドオブジェクトを更新する頻度。
- 型
- Integer
- 必須
- いいえ
- デフォルト
-
15
- journaler_prefetch_periods
- 説明
- ジャーナル再生に先行するストライプ期間の数。
- 型
- Integer
- 必須
- いいえ
- デフォルト
-
10
- journaler_prezero_periods
- 説明
- 書き込み位置が 0 より進んだストライプ期間の数。
- 型
- Integer
- 必須
- いいえ
- デフォルト
-
10
- journaler_batch_interval
- 説明
- 人為的に発生する最大レイテンシー (秒単位)。
- 型
- Double
- 必須
- いいえ
- デフォルト
-
.001
- journaler_batch_max
- 説明
- フラッシュを遅延させる最大バイト。
- 型
- 64 ビット未署名の整数
- 必須
- いいえ
- デフォルト
-
0
付録D Ceph File System ミラー設定リファレンス リンクのコピーリンクがクリップボードにコピーされました!
このセクションでは、Ceph ファイルシステム (CephFS) ミラーの設定オプションを一覧表示します。
cephfs_mirror_max_concurrent_directory_syncs- 説明
-
cephfs-mirrorデーモンが同時に同期できるディレクトリースナップショットの最大数。同期スレッドの数を制御します。 - 型
- Integer
- デフォルト
-
3 - Min
-
1
cephfs_mirror_action_update_interval- 説明
- 保留中のミラー更新アクションを処理する間隔 (秒単位)。
- 型
-
secs - デフォルト
-
2 - Min
-
1
cephfs_mirror_restart_mirror_on_blocklist_interval- 説明
-
ブロックリストに登録されたミラーインスタンスを再起動する間隔 (秒単位)。ゼロ (
0) に設定すると、ブロックリストに登録されたインスタンスの再起動が無効になります。 - 型
-
secs - デフォルト
-
30 - Min
-
0
cephfs_mirror_max_snapshot_sync_per_cycle- 説明
- ディレクトリーがワーカースレッドによってミラーリングのために選択されたときに、ミラーリングするスナップショットの最大数。
- 型
- Integer
- デフォルト
-
3 - Min
-
1
cephfs_mirror_directory_scan_interval- 説明
- スナップショットミラーリング用に設定されたディレクトリーをスキャンする間隔 (秒単位)。
- 型
- Integer
- デフォルト
-
10 - Min
-
1
cephfs_mirror_max_consecutive_failures_per_directory- 説明
- ディレクトリーを “failed” としてマークする連続したスナップショット同期の失敗の数。失敗したディレクトリーは、同期のために再試行される頻度が低くなります。
- 型
- Integer
- デフォルト
-
10 - Min
-
0
cephfs_mirror_retry_failed_directories_interval- 説明
- 失敗したディレクトリーの同期を再試行する間隔 (秒単位)。
- 型
- Integer
- デフォルト
-
60 - Min
-
1
cephfs_mirror_restart_mirror_on_failure_interval- 説明
-
失敗したミラーインスタンスを再起動する間隔 (秒単位)。ゼロ (
0) に設定すると、失敗したミラーインスタンスの再起動が無効になります。 - 型
-
secs - デフォルト
-
20 - Min
-
0
cephfs_mirror_mount_timeout- 説明
-
cephfs-mirrorデーモンによるプライマリーまたはセカンダリー CephFS のマウントのタイムアウト (秒単位)。これをより高い値に設定すると、クラスターに到達できない場合にファイルシステムをマウントするときに、ミラーデーモンが停止する可能性があります。このオプションは、通常のclient_mount_timeoutをオーバーライドするために使用されます。 - 型
-
secs - デフォルト
-
10 - Min
-
0