3.3. Ceph ファイルシステム
CephFS クライアントは、メタデータサーバー (MDS) によってブロックリストに登録された後、再接続できるようになる
以前のリリースでは、ネットワークパーティションやその他の一時的なエラーにより、Ceph File System (CephFS) クライアントは MDS によってブロックリストに登録されていました。
このリリースでは、手動で再マウントする必要がないため、CephFS クライアントは、クライアントごとに適切な設定をオンにしてマウントに再接続できます。
MDS 間でサブツリーを自動配布するための一時的なピニングポリシーを使用可能
このリリースでは、サブツリーを固定するための効率的な戦略を導入することでエクスポートピンが改善され、メタデータサーバー (MDS) 間でサブツリーを自動配布できるようになり、手動で固定するためのユーザーの介入がなくなりました。
詳細は、Red Hat Ceph Storage ファイルシステムガイドの 一時ピニングポリシー セクションを参照してください。
mount.ceph
に recover_session=clean
オプションを追加
このリリースでは、mount.ceph
に recover_session=clean
の追加オプションが追加されました。このオプションを使用すると、クライアントは、メタデータサーバー (MDS) によってブロックリストに登録されていることを検出すると、Red Hat Ceph Storage クラスターに自動的に再接続し、マウントが自動的に回復されます。
詳細は、Red Hat Ceph Storage ファイルシステムガイドの ブロックリストからの Ceph ファイルシステムクライアントの削除 セクションを参照してください。
Ceph File System でのメタデータ操作の非同期作成および削除
このリリースでは、Red Hat Enterprise Linux 8.4 カーネルマウントは、Red Hat Ceph Storage クラスターでファイルの作成および削除を非同期に実行できるようになりました。これにより、整合性に影響を与えずにこれらのシステムコールのラウンドトリップレイテンシーを回避することで、一部のワークロードのパフォーマンスが改善されます。非同期ファイルの作成および削除を有効にするには、新しい -o nowsync
マウントオプションを使用します。
Ceph File System (CephFS) が、mds_join_fs
という MDS の設定オプションを提供
このリリースでは、メタデータサーバー (MDS) デーモンをフェイルオーバーするときに、クラスターのモニターは、失敗した rank
のファイルシステム名と等しい mds_join_fs
のスタンバイデーモンを優先します。
mds_join_fs
がファイルシステム name
と等しいスタンバイが存在しない場合は、最後の手段として、置換用の非修飾スタンバイ、またはその他の使用可能なスタンバイを選択します。
詳細は、Red Hat Ceph Storage ファイルシステムガイドの ファイルシステムのアフィニティー セクションを参照してください。
Ceph ファイルシステム間のスナップショットの非同期レプリケーション
このリリースでは、manager プラグインであるミラーリングモジュールが、ディレクトリースナップショットミラーリングを管理するインターフェイスを提供するようになりました。ミラーリングモジュールは、同期のためにミラーデーモンにディレクトリーを割り当てます。現在、単一ミラーデーモンがサポートされ、cephadm
を使用してデプロイできます。
Ceph File System (CephFS) は、cephfs-mirror
ツールを使用して、リモートの CephFS へのスナップショットの非同期レプリケーションをサポートします。ミラーデーモンは、Red Hat Ceph Storage クラスターの複数のファイルシステムのスナップショット同期を処理できます。スナップショットは、スナップショットデータをミラーリングした後、同期されるスナップショットと同じ名前でリモートファイルシステム上の特定のディレクトリーにスナップショットを作成することによって同期されます。
詳細は、Red Hat Ceph Storage ファイルシステムガイドの Ceph ファイルシステムのミラー セクションを参照してください。
cephfs-top
ツールに対応
このリリースでは、cephfs-top
ツールが導入されました。
Ceph は、さまざまな Ceph File System (CephFS) メトリックをリアルタイムで表示するユーティリティーなどの top(1)
を提供します。cephfs-top
は、Ceph Manager の stats
プラグインを使用してメトリックスを取得し、表示する curses ベースの python スクリプトです。
CephFS クライアントでは、さまざまなメトリックスを Ceph Metadata Server (MDS) に定期的に転送します。これにより、集約のためにこれらのメトリックスを MDS ランクゼロに転送します。これらの集約メトリックスは、消費のために Ceph Manager に転送されします。
メトリックスは、global と per-mds の 2 つのカテゴリーに分類されます。グローバルメトリックスは、たとえば、クライアントの読み取りレイテンシー全体として、ファイルシステムのメトリックスのセットを表します。ただし、mds ごとのメトリックスは、MDS によって処理されるサブツリーの数などの特定の MDS ランク用です。
現時点で、グローバルメトリックスは追跡および表示されます。cephfs-top
コマンドは、複数の Ceph File Systems では確実に機能しません。
詳細は、Red Hat Ceph Storage ファイルシステムガイドの cephfs-top
ユーティリティーの使用 セクションを参照してください。
MDS デーモンを mds_autoscaler
プラグインでデプロイ可能
このリリースでは、Ceph File System (CephFS) の要件に対応してメタデータサーバー (MDS) デーモンをデプロイする新しい ceph-mgr プラグインである mds_autoscaler
が利用できるようになりました。有効にすると、mds_autoscaler
は max_mds
の設定にしたがって必要なスタンバイ状態を自動的にデプロイし、アクティブにします。
詳細は、Red Hat Ceph Storage ファイルシステムガイドの MDS autoscaler モジュールの使用 セクションを参照してください。
Ceph File System (CephFS) スクラブが、複数のアクティブな MDS で機能するようになる
以前のリリースでは、ユーザーは max_mds=1
パラメーターを設定し、アクティブなメタデータサーバー (MDS) のみが Ceph File System (CephFS) スクラブ操作を実行するまで待機する必要がありました。
このリリースでは、mds_max
の値に関係なく、ユーザーは複数のアクティブな MDS を使用してランク 0
で実行できるようになりました。
詳細は、Red Hat Ceph Storage ファイルシステムガイドの 複数のアクティブな Metadata Server デーモンの設定 セクションを参照してください。
snap_schedule
プラグインで Ceph File System スナップショットをスケジュール可能
このリリースでは、新しい ceph-mgr プラグイン snap_schedule
が、Ceph File System (CephFS) のスナップショットをスケジューリングできるようになりました。スナップショットは作成、保持、および自動ガべージコレクションにすることができます。