3.8. RADOS
Ceph の伝送時暗号化
Red Hat Ceph Storage 4 以降では、messenger バージョン 2 プロトコルの導入により、ネットワーク上の全 Ceph トラフィックの暗号化を有効にすることができます。詳細は、Red Hat Ceph Storage 4 の『 Data Security and Hardening Guide 』の「 Architecture Guide and Encryption in transit 」セクションの「Ceph on-wire 暗号化 」の章を参照してください。
OSD BlueStore が完全にサポートされるようになりました。
BlueStore は、OSD デーモンの新しいバックエンドで、ブロックデバイスにオブジェクトを直接格納できるようにします。BlueStore はファイルシステムインターフェースを必要としないため、Ceph Storage クラスターのパフォーマンスが向上します。BlueStore OSD バックエンドの詳細は、Red Hat Ceph Storage 4 の 『管理ガイド』 の「 OSD BlueStore 」の章を参照してください。
FIPS モードの Red Hat Enterprise Linux
今回のリリースにより、FIPS モードが有効になっている Red Hat Enterprise Linux に Red Hat Ceph Storage をインストールできるようになりました。
ceph df
出力と新しい ceph osd df
コマンドの変更
ceph df
コマンドの出力が改善しました。特に、RAW USED 値および % RAW USED 値には、BlueStore パーティションおよび wal
BlueStore パーティションに事前に割り当てられた領域が表示されるようになりました。ceph osd df
コマンドは、書き込みデータの量などの OSD 使用率の統計を表示します。
非アクティブな OSD セットの非同期リカバリー
以前のバージョンでは、Ceph を使用したリカバリーは、それらのオブジェクトが復旧するまでオブジェクトへの書き込み操作をブロックすることで同期プロセスでした。本リリースでは、OSD の非アクティブなセットでのみオブジェクトへの書き込み操作をブロックしないため、リカバリープロセスは非同期になりました。この新機能では、非アクティブなセットで十分な OSD を持つため、レプリカの最小数が必要になります。
新しい設定オプション osd_async_recovery_min_cost
は、非同期リカバリーの量を制御します。このオプションのデフォルト値は 100
です。値が大きいほど非同期リカバリーが少なくなりますが、値が低い場合は非同期リカバリーがより多くなります。
ceph config
を使用してアクセス可能なモニターに設定が保存されるようになりました。
本リリースでは、Red Hat Ceph Storage は、Ceph 設定ファイル(ceph.conf
)を使用する代わりに Monitor の設定を一元化します。以前のリリースでは、ceph.conf
を手動で更新し、適切なノードに配布し、影響を受けるデーモンをすべて再起動していました。今回のリリースより、モニターは ceph.conf
と同じセマンティック構造を持つ設定データベースを管理します。データベースは、ceph config
コマンドでアクセスできます。設定の変更はシステムのデーモンまたはクライアントに即座に適用され、再起動は不要になりました。利用可能なコマンドセットの詳細を確認するには、ceph config -h
コマンドを使用します。Monitor ノードを特定するには、Ceph 設定ファイルは依然として必要になります。
配置グループを自動スケーリング可能に
Red Hat Ceph Storage 4 では、配置グループ(PG)の自動スケーリング機能が導入されました。プール内の配置グループ (PG) 数では、クラスターのピアがデータおよびリバランスの分散方法などの重要な役割を果たします。PG 数の自動スケーリングにより、クラスターの管理が容易になります。新しい pg-autoscaling
コマンドは、PG のスケーリングの推奨事項を示します。または、クラスターの使用状況に応じて PG を自動的にスケーリングします。PG の自動スケーリングの詳細は、Red Hat Ceph Storage 4 の『ストレージ戦略ガイド』 の「 配置グループの自動スケーリング 」セクションを参照してください。
diskprediction
モジュールの概要
Red Hat Ceph Storage の diskprediction
モジュールは、ディスク障害の発生前に予測するためのメトリクスを収集します。モジュールには、cloud と local の 2 つのモードがあります。今回のリリースにより、ローカルモードのみがサポートされるようになりました。ローカルモードでは、データ分析に外部サーバーは必要ありません。ディスク予測サービスに内部予測モジュールを使用し、Ceph システムにディスク予測の結果を返します。
diskprediction
モジュールを有効にするには、以下を実行します。
ceph mgr module enable diskprediction_local
予測モードを設定するには、以下を実行します。
ceph config set global device_failure_prediction_mode local
diskprediction
モジュールを無効にするには、以下を実行します。
ceph config set global device_failure_prediction_mode none
新しい設定可能なオプション: mon_memory_target
Red Hat Ceph Storage 4 では、新たな設定可能なオプション mon_memory_target
が追加されました。これは、Monitor のメモリー使用量のターゲット容量を設定するために使用されます。これは、関連付けられた Monitor デーモンキャッシュの優先度の cache tuner を使用して、割り当ておよび管理するメモリー量を指定します。mon_memory_target
のデフォルト値は 2 GiB に設定され、ランタイム時に以下を使用して変更できます。
# ceph config set global mon_memory_target size
本リリース以前は、クラスターをスケーリングすると、Monitor 固有の RSS 使用率が mon_osd_cache_size
オプションを使用して設定されていたために問題が生じました。今回の機能拡張により、モニターキャッシュに割り当てられるメモリーの管理を改善し、指定された制限内で使用率を維持できるようになりました。