3.8. RADOS


Ceph の伝送時暗号化

Red Hat Ceph Storage 4 以降では、messenger バージョン 2 プロトコルの導入により、ネットワーク上の全 Ceph トラフィックの暗号化を有効にすることができます。詳細は、Red Hat Ceph Storage 4 の『 Data Security and Hardening Guide 』の「 Architecture Guide and Encryption in transit 」セクションの「Ceph on-wire 暗号化 」の章を参照してください。

OSD BlueStore が完全にサポートされるようになりました。

BlueStore は、OSD デーモンの新しいバックエンドで、ブロックデバイスにオブジェクトを直接格納できるようにします。BlueStore はファイルシステムインターフェースを必要としないため、Ceph Storage クラスターのパフォーマンスが向上します。BlueStore OSD バックエンドの詳細は、Red Hat Ceph Storage 4 の 『管理ガイド』 の「 OSD BlueStore 」の章を参照してください。

FIPS モードの Red Hat Enterprise Linux

今回のリリースにより、FIPS モードが有効になっている Red Hat Enterprise Linux に Red Hat Ceph Storage をインストールできるようになりました。

ceph df 出力と新しい ceph osd df コマンドの変更

ceph df コマンドの出力が改善しました。特に、RAW USED 値および % RAW USED 値には、BlueStore パーティションおよび wal BlueStore パーティションに事前に割り当てられた領域が表示されるようになりました。ceph osd df コマンドは、書き込みデータの量などの OSD 使用率の統計を表示します。

非アクティブな OSD セットの非同期リカバリー

以前のバージョンでは、Ceph を使用したリカバリーは、それらのオブジェクトが復旧するまでオブジェクトへの書き込み操作をブロックすることで同期プロセスでした。本リリースでは、OSD の非アクティブなセットでのみオブジェクトへの書き込み操作をブロックしないため、リカバリープロセスは非同期になりました。この新機能では、非アクティブなセットで十分な OSD を持つため、レプリカの最小数が必要になります。

新しい設定オプション osd_async_recovery_min_cost は、非同期リカバリーの量を制御します。このオプションのデフォルト値は 100 です。値が大きいほど非同期リカバリーが少なくなりますが、値が低い場合は非同期リカバリーがより多くなります。

ceph configを使用してアクセス可能なモニターに設定が保存されるようになりました。

本リリースでは、Red Hat Ceph Storage は、Ceph 設定ファイル(ceph.conf)を使用する代わりに Monitor の設定を一元化します。以前のリリースでは、ceph.conf を手動で更新し、適切なノードに配布し、影響を受けるデーモンをすべて再起動していました。今回のリリースより、モニターは ceph.conf と同じセマンティック構造を持つ設定データベースを管理します。データベースは、ceph config コマンドでアクセスできます。設定の変更はシステムのデーモンまたはクライアントに即座に適用され、再起動は不要になりました。利用可能なコマンドセットの詳細を確認するには、ceph config -h コマンドを使用します。Monitor ノードを特定するには、Ceph 設定ファイルは依然として必要になります。

配置グループを自動スケーリング可能に

Red Hat Ceph Storage 4 では、配置グループ(PG)の自動スケーリング機能が導入されました。プール内の配置グループ (PG) 数では、クラスターのピアがデータおよびリバランスの分散方法などの重要な役割を果たします。PG 数の自動スケーリングにより、クラスターの管理が容易になります。新しい pg-autoscaling コマンドは、PG のスケーリングの推奨事項を示します。または、クラスターの使用状況に応じて PG を自動的にスケーリングします。PG の自動スケーリングの詳細は、Red Hat Ceph Storage 4 の『ストレージ戦略ガイド』 の「 配置グループの自動スケーリング 」セクションを参照してください。

diskprediction モジュールの概要

Red Hat Ceph Storage の diskprediction モジュールは、ディスク障害の発生前に予測するためのメトリクスを収集します。モジュールには、cloud と local の 2 つのモードがあります。今回のリリースにより、ローカルモードのみがサポートされるようになりました。ローカルモードでは、データ分析に外部サーバーは必要ありません。ディスク予測サービスに内部予測モジュールを使用し、Ceph システムにディスク予測の結果を返します。

diskprediction モジュールを有効にするには、以下を実行します。

ceph mgr module enable diskprediction_local

予測モードを設定するには、以下を実行します。

ceph config set global device_failure_prediction_mode local

diskprediction モジュールを無効にするには、以下を実行します。

ceph config set global device_failure_prediction_mode none

新しい設定可能なオプション: mon_memory_target

Red Hat Ceph Storage 4 では、新たな設定可能なオプション mon_memory_target が追加されました。これは、Monitor のメモリー使用量のターゲット容量を設定するために使用されます。これは、関連付けられた Monitor デーモンキャッシュの優先度の cache tuner を使用して、割り当ておよび管理するメモリー量を指定します。mon_memory_target のデフォルト値は 2 GiB に設定され、ランタイム時に以下を使用して変更できます。

# ceph config set global mon_memory_target size

本リリース以前は、クラスターをスケーリングすると、Monitor 固有の RSS 使用率が mon_osd_cache_size オプションを使用して設定されていたために問題が生じました。今回の機能拡張により、モニターキャッシュに割り当てられるメモリーの管理を改善し、指定された制限内で使用率を維持できるようになりました。

Red Hat logoGithubRedditYoutubeTwitter

詳細情報

試用、購入および販売

コミュニティー

Red Hat ドキュメントについて

Red Hat をお使いのお客様が、信頼できるコンテンツが含まれている製品やサービスを活用することで、イノベーションを行い、目標を達成できるようにします。

多様性を受け入れるオープンソースの強化

Red Hat では、コード、ドキュメント、Web プロパティーにおける配慮に欠ける用語の置き換えに取り組んでいます。このような変更は、段階的に実施される予定です。詳細情報: Red Hat ブログ.

会社概要

Red Hat は、企業がコアとなるデータセンターからネットワークエッジに至るまで、各種プラットフォームや環境全体で作業を簡素化できるように、強化されたソリューションを提供しています。

© 2024 Red Hat, Inc.