2.4. Ceph Storage
本項では、Ceph Storage の最も重要な新機能について説明します。
- Red Hat Ceph Storage 3.0 のサポート
- 本リリースでは、Red Hat OpenStack でサポートされるデフォルトの Ceph バージョンは、Red Hat Ceph Storage 3.0 (luminous) です。director ではこのバージョンがデフォルトでデプロイされます。Ceph では、バージョン 2.x から 3 へのローリングアップグレードがサポートされるようになりました。Red Hat Ceph Storage 2.x (Jewel) を実行する外部クラスター (director によりデプロイされないクラスター) は、より新しい Ceph クライアントとの互換性を維持します。director を使用して Ceph クラスターをデプロイしていた場合には、OpenStack を新しいリリースにアップグレードすると、Red Hat Ceph Storage も 3.0 にアップグレードされます。
- Ceph Metadata Server と RADOS Gateway ノードのスケールアウト
- Red Hat Ceph Storage 3.0 では、Ceph File System (CephFS) を適切に設定すると、複数のメタデーターサーバー (MDS) にまたがったメタデータロードのスケーリングがサポートされるようになりました。設定が完了すると、Ceph クラスター内で利用可能な追加の専用 MDS サーバーは、この追加の負荷を処理するように自動的に割り当てられます。また、新しい専用の Ceph RADOS Gateway (RGW) ノードを追加して、RGW を必要に応じてスケールアップすることができます。
- NFS を使用する Manila CephFS ストレージ
- Shared File System サービス (manila) は、NFSv4 プロトコルを使用した、Ceph File System (CephFS) によってバッキングされる共有ファイルシステムのマウントをサポートしています。コントローラーノード上で稼働する NFS-Ganesha サーバーを使用して、高可用性 (HA) を使用するテナントに CephFS をエクスポートします。テナントは相互に分離され、提供される NFS ゲートウェイインターフェイスを介してのみ CephFS にアクセスすることができます。この新機能は director に完全に統合されているので、CephFS バックエンドのデプロイと Shared File System サービスの設定が可能です。
- Cinder Ceph の複数のプールのサポートの強化
-
Block Storage (cinder) RADOS Block Device (RBD) バックエンドは、director のテンプレートパラメーター
CinderRbdExtraPools
を使用して、同じ Ceph クラスター内の異なるプールにマッピングすることが可能です。このパラメーターに関連付けられた各 Ceph プールには、CinderRbdPoolName
パラメーターに関連付けられた標準の RBD バックエンドに加えて、新規 Block Storage RBD バックエンドが作成されます。 - ceph-ansible を使用した RBD mirror デーモン
- Ceph rbd-mirror デーモンは、リモートクラスターからイメージの更新をプルして、ローカルクラスター内のイメージに適用します。RBD mirror は、Red Hat Ceph Storage 3.0 (luminous) では ceph-ansible を使用するコンテナーとしてデプロイされます。イメージに関連する OpenStack のメタデータは、rbd-mirror によってはコピーされません。