3.6. RADOS
Red Hat Ceph Storage においてイレイジャーコーディング (EC) プールで利用可能な OSD の数を減らして回復
以前は、サイズ k+m
のイレイジャーコード (EC) プールには、復元が機能するために少なくとも k+1
のコピーが必要でした。k
コピーのみが利用可能な場合は、復元が完了しません。
このリリースでは、Red Hat Ceph Storage クラスターは、EC プールで利用可能な k
またはそれ以上のコピーで復元するようになりました。
イレーシャーコード化プールの詳細は、Red Hat Ceph Storage ストレージストラテジーガイドの イレーシャーコード化プール の章を参照してください。
列ファミリーを使用した RocksDB データベースのシャーディングに対応
BlueStore 管理ツールの目標は、読み取りと書き込みの増幅を減らし、圧縮中の DB (データベース) の拡張を減らし、IOPS のパフォーマンスを向上させることです。
このリリースでは、BlueStore 管理ツールを使用してデータベースをリシャード化できるようになりました。RocksDB (DB) データベースのデータは複数の Column Families (CF) に分割されます。各 CF には独自のオプションがあり、omap、オブジェクトデータ、遅延されたキャッシュ書き込み、PGlog などのデータのタイプに応じて分割が実行されます。
シャード化の詳細は、Red Hat Ceph Storage 管理ガイドの BlueStore 管理ツールを使用して RocksDB データベースのリシャード化 セクションを参照してください。
Ceph モニター用に mon_allow_pool_size_one
設定オプションを有効にすることが可能
このリリースでは、設定オプション mon_allow_pool_size_one
を有効にできるようになりました。有効にすると、ユーザーがプールサイズを 1
に設定する場合は、osd pool set size 1
のフラグ --yes-i-really-mean-it
を渡す必要があります。
osd_client_message_cap
オプションが追加
以前のリリースでは、osd_client_message_cap
オプションは削除されました。このリリースでは、osd_client_message_cap
オプションが再導入されました。このオプションは、これらのリクエストをスロットリングして、インフライトクライアント要求の最大数を制御するのに役立ちます。これは、クライアントベースのトラフィックが圧倒的に多いために Ceph OSD がフラップする場合に役立ちます。
Ceph messenger プロトコルが msgr v2.1 に更新
このリリースでは、新しいバージョンの Ceph messenger プロトコル msgr v2.1 が実装され、以前のバージョンである msgr v2.0 に存在する複数のセキュリティー、整合性、および潜在的なパフォーマンスの問題に対応するようになりました。すべての Ceph エンティティー (デーモンおよびクライアントの両方) で、デフォルトで msgr v2.1 に設定されるようになりました。
新しいデフォルトの osd_client_message_cap
値は 256
です。
以前のリリースでは、osd_client_message_cap
のデフォルト値は 0
でした。デフォルト値の 0
は、Ceph OSD のフロー制御機能を無効にし、クライアントトラフィックが多いときに Ceph OSD がフラッピングするのを妨げないようにします。
このリリースでは、osd_client_message_cap
のデフォルト値 256
が、インフライトクライアントリクエストの最大数を制限することで、フロー制御が改善されました。
set_new_tiebreaker
コマンドの追加
今回のリリースにより、ストレージ管理者は、ストレッチモードでストレージクラスターで実行する際に、新しい tiebreak Ceph Monitor を設定できるようになりました。このコマンドは、tiebreaker が失敗して復元できない場合に役に立ちます。