第11章 Ceph File System のミラー
ストレージ管理者は、別の Red Hat Ceph Storage クラスターのリモート Ceph File System に Ceph File System (CephFS) を複製できます。
前提条件
- ソースおよびターゲットストレージクラスターは、Red Hat Ceph Storage 6.0 以降を実行している必要があります。
11.1. Ceph File System ミラーリング
Ceph File System (CephFS) は、別の Red Hat Ceph Storage クラスター上のリモート Ceph FS へのスナップショットの非同期レプリケーションをサポートします。スナップショットの同期は、スナップショットデータをリモートの Ceph ファイルシステムにコピーし、同じ名前のリモートターゲットに新しいスナップショットを作成します。スナップショット同期用に特定のディレクトリーを設定できます。
CephFS ミラーの管理は、CephFS ミラーリングデーモン (cephfs-mirror
) により実行されます。このスナップショットデータは、リモートの CephFS への一括コピーを実行することで同期されます。スナップショットのペアの同期順序は、snap-id
を使用して作成時に決定されます。
ハードリンクの同期はサポートされていません。ハードリンクされたファイルは、通常のファイルとして同期されます。
CephFS ミラーリングには、スナップショットインカーネーションや高可用性などの機能が含まれます。これらは、推奨される制御インターフェイスである Ceph Manager mirroring
モジュールを介して管理できます。
Ceph Manager モジュールとインターフェイス
Ceph Manager mirroring
モジュールは、デフォルトでは無効になっています。ディレクトリースナップショットのミラーリングを管理するためのインターフェイスを提供します。Ceph Manager インターフェイスは、ほとんどの場合、CephFS ミラーリングを管理するためのモニターコマンドのラッパーです。これらは、推奨される制御インターフェイスです。
Ceph Manager mirroring
モジュールは、Ceph Manager プラグインとして実装されます。これは、Synchronization のためにディレクトリーを cephfs-mirror
デーモンに割り当てるロールを果たします。
Ceph Manager の mirroring
モジュールは、ディレクトリースナップショットのミラーリングを制御するコマンドのファミリーも提供します。mirroring
モジュールは、cephfs-mirror
デーモンを管理しません。cephfs-mirror
デーモンの停止、起動、再起動、および有効化は systemctl
によって制御されますが、cephadm
によって管理されます。
ミラーリングモジュールコマンドは、fs mirror
接頭辞を使用する監視コマンドと比較して、fs snapshot mirror
接頭辞を使用します。module コマンド 接頭辞を使用して、ディレクトリースナップショットのミラーリングを制御していることを確認してください。
スナップショットの再生成
スナップショットが削除され、同じ名前で異なる内容で再作成される場合があります。ユーザーは以前に古いスナップショットを同期し、ミラーリングが無効になったときにスナップショットを再作成できました。スナップショット名を使用して継続点を推測すると、新しいスナップショットが生成され、同期のために取得されることはありません。
セカンダリーファイルシステムのスナップショットには、同期元のスナップショットのスナップ ID
が格納されます。このメタデータは、Ceph メタデータサーバーの SnapInfo
構造に保存されます。
高可用性
複数の cephfs-mirror
デーモンを 2 つ以上のノードにデプロイして、ディレクトリースナップショットの同期で同時実行を実現できます。cephfs-mirror
デーモンがデプロイまたは終了されると、Ceph Manager mirroring
モジュールは変更された cephfs-mirror
デーモンのセットを検出し、新しいセット間でディレクトリーの割り当てを再調整して、高可用性を提供します。
cephfs-mirror
デーモンは、単純な M/N ポリシーを使用して同期負荷を共有します。ここで、M はディレクトリーの数、N は cephfs-mirror
デーモンの数です。
Ceph File System ミラーピアの再追加
別のクラスター内の CephFS にピアを再追加または再割り当てする場合は、すべてのミラーデーモンがピアへの同期を停止していることを確認してください。これは、fs mirror status
コマンドを使用して確認できます。ピア UUID はコマンド出力に表示されません。
別の CephFS に再追加する前に、同期されたディレクトリーをピアからパージします。特に、新しいプライマリーファイルシステムに存在する可能性のあるディレクトリーを削除します。以前に同期した同じプライマリーファイルシステムにピアを再度追加する場合、これは必要ありません。
関連情報
-
fs mirror status
コマンドの詳細について は、Ceph ファイルシステムのミラーステータスの表示を 参照してください。