第3章 新機能
本セクションでは、Red Hat Ceph Storage の今回のリリースで導入された主要な更新、機能拡張、新機能のリストを紹介します。
msgr2 プロトコルを使用した有線圧縮が利用可能になりました
今回のリリースでは、ストレージクラスター内のネットワーク操作を保護するために、ネットワーク上の暗号化に加えて、ネットワーク上の圧縮もサポートされています。
詳細は Red Hat Ceph Storage データセキュリティーおよび強化ガイド の 暗号化とキー管理 セクションを参照してください。
Python 通知が効率化されました
以前のリリースでは、現時点ではモジュールを必要としない未使用の通知がいくつかありました。これにより非効率が生じていました。
今回のリリースでは、NotifyType
パラメーターが導入されました。これには、現時点でどのイベントモジュールが消費しているかがアノテーションとして付けられます (例: NotifyType.mon_map
、NotifyType.osd_map
)。結果として、モジュールが要求するイベントのみがキューに入れられます。どのモジュールも消費しないイベントが発行されます。上記の変更により、Python 通知がより効率的になりました。
pg_num
への変更が制限されました。
以前のリリースでは、pgp_num
を超える大規模な変更が pg_num
に加えられた場合に、OSD 別の配置グループの制限に達し、エラーが発生する可能性がありました。
このリリースでは、OSD ごとの配置グループ制限の問題を回避するために、pg_num
への変更が制限されています。
新しい pg_progress
項目が作成されて進行状況の更新に関する配置グループの統計すべてがダンプされなくなります。
以前のリリースでは、pg_dump
項目には不要なフィールドが含まれており、python-land
にコピーすると CPU を浪費していました。これが原因で、ClusterState::lock
の保持時間が長くなっていまし、ms_dispatch
遅延が伸びて一般的にプロセスが遅くなる傾向がありました。
今回のリリースでは、新しい pg_progress
の項目が作成され、mgr tasks
または progress
が必要とするフィールドだけがダンプされるようになります。
mgr_ip
は再フェッチされなくなりました
以前のリリースでは、アクティブな Ceph Manager モジュールの有効な間に mgr_ip
を再フェッチする必要がありました。
今回のリリースでは、アクティブな Ceph Manager モジュールの有効な間に、mgr_ip
は変更されないため、Ceph Manager にコールバックして再フェッチする必要はありません。
WORM 準拠がサポートされるようになりました
Red Hat は WORM 準拠をサポートするようになりました。
詳細は、S3 のオブジェクトロックの有効化 を参照してください。
ユーザーとバケットにレート制限を設定する
このリリースでは、Red Hat Ceph Storage クラスターでの操作に基づいて、ユーザーとバケットにレート制限を設定できます。詳細は、データ取り込みのレート制限 を参照してください。
persistent write log cache という名前の librbd
プラグインでレイテンシーを軽減する
このリリースでは、Persistent Write Log Cache (PWL) という名前の新しい librbd
プラグインが、SSD デバイスを対象とした永続的でフォールトトレラントなライトバックキャッシュを提供します。レイテンシーが大幅に短縮され、低い io_depths
でのパフォーマンスも向上します。このキャッシュは、チェックポイントを内部で維持するログ順のライトバック設計を使用しているため、クラスターにフラッシュバックされる書き込みは、常にクラッシュ整合性が保たれます。クライアントキャッシュが完全になくなった場合でも、ディスクイメージには整合性がありますが、データは古くなったように見えます。
Ceph File System (CephFS) が、スナップショットの高可用性非同期レプリケーションをサポートするようになりました
以前は、ストレージクラスターごとに 1 つの cephfs-mirror
デーモンのみがデプロイされていたため、CephFS はスナップショットディレクトリーの非同期レプリケーションのみをサポートしていました。
このリリースでは、複数の cephfs-mirror
デーモンを 2 つ以上のノードにデプロイしてスナップショット同期の同時実行を実現できるため、高可用性が提供されます。
詳細は、Red Hat Ceph Storage File System Guide の Ceph File System ミラーリング セクションを参照してください。
BlueStore が V3 にアップグレードされました
このリリースでは、BlueStore オブジェクトストアが V3 にアップグレードされました。次の 2 つの機能があります。
- 割り当てメタデータは RocksDB から削除され、OSD 割り当てを使用してアロケーターオブジェクトの完全なデステージとして実行されるようになりました。
- キャッシュエイジビニングを使用すると、古いオノードには、ホットなワークロードデータよりも低い優先度が割り当てられる場合があります。詳細は、Ceph BlueStore を参照してください。
cephadm
を使用してオペレーティングシステムのチューニングプロファイルを管理する
今回のリリースでは、cephadm
を使用して、Red Hat Ceph Storage クラスターのパフォーマンスを向上させるためにオペレーティングシステムのチューニングプロファイルを作成および管理できます。詳細は、cephadm を使用したオペレーティングシステムのチューニングプロファイルの管理 を参照してください。
ファイルシステムを名前でマウントするための新しい cephfs-shell
オプションが導入されました。
以前のリリースでは、cephfs-shell はデフォルトのファイルシステムのみをマウントできました。
今回のリリースでは、CLI オプションが cephfs-shell に追加され、kclient
および ceph-fuse
の mds_namespace=
または fs= オプション
のように、別のファイルシステムを名前を指定してマウントできるようになります。
Day 2 タスクは Ceph Dashboard から実行できるようになりました。
今回のリリースでは、Ceph Dashboard で、アクションの頻度を毎日または毎週とする必要がある Day 2 タスクを実行できます。今回の機能強化により、ダッシュボードの評価機能と顧客エクスペリエンスが向上し、その使いやすさと成熟度が強化されます。これに加えて、ユーザーがタスクを完了するための追加情報を取得する際に役立つ新しい画面上の要素も含まれています。
3.1. Cephadm ユーティリティー リンクのコピーリンクがクリップボードにコピーされました!
cephadm
を使用してカーネルパラメーターを管理するために追加された OS チューニングプロファイル
このリリースでは、ceph-ansible
と同等の機能を実現するために、tuned
プロファイル仕様を適用して、仕様に一致するホストで cephadm
が OS チューニングパラメーターを設定できるようにします。
詳細は、cephadm を使用したオペレーティングシステムのチューニングプロファイルの管理 を参照してください。
ユーザーは、Prometheus 仕様で Prometheus TSDB 保持サイズと時間を簡単に設定できるようになりました
以前は、ユーザーはデフォルトの 15 日間の保持期間と Prometheus からのディスク消費を変更できませんでした。
このリリースでは、ユーザーは cephadm
を介してこれらの設定をカスタマイズできるため、永続的に適用されるため、Prometheus インスタンスがデータを返す量と期間をユーザーが簡単に指定できるようになります。
これを実現するための形式は次のとおりです。
例
安全でないレジストリーを定義する Ansible Playbook が新たに追加されました
以前のリリースは、ネットワーク接続のないインストール環境で多数のホストを含む Red Hat Ceph Storage クラスターをデプロイする場合に、各ホストに /etc/containers/registries.conf
ファイルを設定するのは面倒でした。
今回のリリースでは、/etc/containers/registries.conf
ファイルで安全でないレジストリーを定義するための Ansible Playbook が新たに追加されました。そのため、この新しい Playbook を /etc/containers/registries.conf
に設定できるため、ネットワーク接続のないインストール環境でこのような Ceph クラスターのデプロイがより簡単になりました。