第11章 Ceph File System のミラー


ストレージ管理者は、別の Red Hat Ceph Storage クラスターのリモート Ceph File System に Ceph File System (CephFS) を複製できます。

前提条件

  • ソースおよびターゲットストレージクラスターは、Red Hat Ceph Storage 6.0 以降を実行している必要があります。

11.1. Ceph File System ミラーリング

Ceph File System (CephFS) は、別の Red Hat Ceph Storage クラスター上のリモート Ceph FS へのスナップショットの非同期レプリケーションをサポートします。スナップショットの同期は、スナップショットデータをリモートの Ceph ファイルシステムにコピーし、同じ名前のリモートターゲットに新しいスナップショットを作成します。スナップショット同期用に特定のディレクトリーを設定できます。

CephFS ミラーの管理は、CephFS ミラーリングデーモン (cephfs-mirror) により実行されます。このスナップショットデータは、リモートの CephFS への一括コピーを実行することで同期されます。スナップショットのペアの同期順序は、snap-id を使用して作成時に決定されます。

重要

ハードリンクの同期はサポートされていません。ハードリンクされたファイルは、通常のファイルとして同期されます。

CephFS ミラーリングには、スナップショットインカーネーションや高可用性などの機能が含まれます。これらは、推奨される制御インターフェイスである Ceph Manager mirroring モジュールを介して管理できます。

Ceph Manager モジュールとインターフェイス

Ceph Manager mirroring モジュールは、デフォルトでは無効になっています。ディレクトリースナップショットのミラーリングを管理するためのインターフェイスを提供します。Ceph Manager インターフェイスは、ほとんどの場合、CephFS ミラーリングを管理するためのモニターコマンドのラッパーです。これらは、推奨される制御インターフェイスです。

Ceph Manager mirroring モジュールは、Ceph Manager プラグインとして実装されます。これは、Synchronization のためにディレクトリーを cephfs-mirror デーモンに割り当てるロールを果たします。

Ceph Manager の mirroring モジュールは、ディレクトリースナップショットのミラーリングを制御するコマンドのファミリーも提供します。mirroring モジュールは、cephfs-mirror デーモンを管理しません。cephfs-mirror デーモンの停止、起動、再起動、および有効化は systemctl によって制御されますが、cephadm によって管理されます。

注記

ミラーリングモジュールコマンドは、fs mirror 接頭辞を使用する監視コマンドと比較して、fs snapshot mirror 接頭辞を使用します。module コマンド 接頭辞を使用して、ディレクトリースナップショットのミラーリングを制御していることを確認してください。

スナップショットの再生成

スナップショットが削除され、同じ名前で異なる内容で再作成される場合があります。ユーザーは以前に古いスナップショットを同期し、ミラーリングが無効になったときにスナップショットを再作成できました。スナップショット名を使用して継続点を推測すると、新しいスナップショットが生成され、同期のために取得されることはありません。

セカンダリーファイルシステムのスナップショットには、同期元のスナップショットのスナップ ID が格納されます。このメタデータは、Ceph メタデータサーバーの SnapInfo 構造に保存されます。

高可用性

複数の cephfs-mirror デーモンを 2 つ以上のノードにデプロイして、ディレクトリースナップショットの同期で同時実行を実現できます。cephfs-mirror デーモンがデプロイまたは終了されると、Ceph Manager mirroring モジュールは変更された cephfs-mirror デーモンのセットを検出し、新しいセット間でディレクトリーの割り当てを再調整して、高可用性を提供します。

cephfs-mirror デーモンは、単純な M/N ポリシーを使用して同期負荷を共有します。ここで、M はディレクトリーの数、N は cephfs-mirror デーモンの数です。

Ceph File System ミラーピアの再追加

別のクラスター内の CephFS にピアを再追加または再割り当てする場合は、すべてのミラーデーモンがピアへの同期を停止していることを確認してください。これは、fs mirror status コマンドを使用して確認できます。ピア UUID はコマンド出力に表示されません。

別の CephFS に再追加する前に、同期されたディレクトリーをピアからパージします。特に、新しいプライマリーファイルシステムに存在する可能性のあるディレクトリーを削除します。以前に同期した同じプライマリーファイルシステムにピアを再度追加する場合、これは必要ありません。

関連情報

Red Hat logoGithubRedditYoutubeTwitter

詳細情報

試用、購入および販売

コミュニティー

Red Hat ドキュメントについて

Red Hat をお使いのお客様が、信頼できるコンテンツが含まれている製品やサービスを活用することで、イノベーションを行い、目標を達成できるようにします。

多様性を受け入れるオープンソースの強化

Red Hat では、コード、ドキュメント、Web プロパティーにおける配慮に欠ける用語の置き換えに取り組んでいます。このような変更は、段階的に実施される予定です。詳細情報: Red Hat ブログ.

会社概要

Red Hat は、企業がコアとなるデータセンターからネットワークエッジに至るまで、各種プラットフォームや環境全体で作業を簡素化できるように、強化されたソリューションを提供しています。

© 2024 Red Hat, Inc.