第10章 noautoscale フラグの更新
すべてのプールに対して同時にオートスケーラーを有効または無効にする場合は、noautoscale グローバルフラグを使用できます。このグローバルフラグは、一部の OSD がバウンスされたとき、またはクラスターがメンテナンス中、ストレージクラスターのアップグレード中に役立ちます。アクティビティーの前にフラグを設定し、アクティビティーが完了したらフラグを解除できます。
デフォルトでは、noautoscale フラグは off に設定されています。このフラグが設定されている場合には、すべてのプールで pg_autoscale_mode が off になり、すべてのプールでオートスケーラーが無効になります。
前提条件
- 稼働中の Red Hat Ceph Storage クラスターがある。
- すべてのノードへの root レベルのアクセス。
手順
noautoscaleフラグの値を取得します。例
[ceph: root@host01 /]# ceph osd pool get noautoscale
[ceph: root@host01 /]# ceph osd pool get noautoscaleCopy to Clipboard Copied! Toggle word wrap Toggle overflow アクティビティーの前に
noautoscaleフラグを設定します。例
[ceph: root@host01 /]# ceph osd pool set noautoscale
[ceph: root@host01 /]# ceph osd pool set noautoscaleCopy to Clipboard Copied! Toggle word wrap Toggle overflow アクティビティーの完了時に
noautoscaleフラグの設定を解除します。例
[ceph: root@host01 /]# ceph osd pool unset noautoscale
[ceph: root@host01 /]# ceph osd pool unset noautoscaleCopy to Clipboard Copied! Toggle word wrap Toggle overflow
10.1. ターゲットプールサイズの指定 リンクのコピーリンクがクリップボードにコピーされました!
新規作成されたプールは、クラスター容量の合計を少少なく、システムが PG の数を必要とするシステムに表示されます。ただし、ほとんどの場合、クラスター管理者は、どのプールが時間とともにシステム容量を消費することを認識します。Red Hat Ceph Storage への target size として知られるこの情報を提供する場合、このようなプールは最初からより適切な数の PG (pg_num) を使用できます。このアプローチは、調整を行う際に、pg_num における後続の変更やデータの移動に関連するオーバーヘッドを防ぎます。
プールの target size は、以下の方法で指定できます。
10.1.1. プールの絶対サイズ (バイト単位) を使用して target size を設定します。 リンクのコピーリンクがクリップボードにコピーされました!
手順
プールの絶対サイズ (バイト単位) を使用して
target sizeを設定します。ceph osd pool set pool-name target_size_bytes value
ceph osd pool set pool-name target_size_bytes valueCopy to Clipboard Copied! Toggle word wrap Toggle overflow たとえば、
mypoolが 100T の領域を消費することが予想されるようにシステムに指示します。ceph osd pool set mypool target_size_bytes 100T
$ ceph osd pool set mypool target_size_bytes 100TCopy to Clipboard Copied! Toggle word wrap Toggle overflow
また、任意の --target-size-bytes <bytes> 引数を ceph osd pool create コマンドに追加すると、作成時にプールのターゲットサイズを設定することもできます。
10.1.2. クラスター合計容量を使用したターゲットサイズの指定 リンクのコピーリンクがクリップボードにコピーされました!
手順
クラスター容量の合計の比率を使用して
target sizeを設定します。構文
ceph osd pool set pool-name target_size_ratio ratio
ceph osd pool set pool-name target_size_ratio ratioCopy to Clipboard Copied! Toggle word wrap Toggle overflow 以下に例を示します。
[ceph: root@host01 /]# ceph osd pool set mypool target_size_ratio 1.0
[ceph: root@host01 /]# ceph osd pool set mypool target_size_ratio 1.0Copy to Clipboard Copied! Toggle word wrap Toggle overflow システムに、
target_size_ratioが設定された他のプールと比較して、プールmypoolが 1.0 を消費することが予想されることをシステムに指示します。mypoolがクラスター内の唯一のプールである場合、これは、合計容量の 100% が予想される使用を意味します。target_size_ratioが 1.0 である 2 番目のプールがある場合、両方のプールはクラスター容量の 50% の使用を想定します。
また、任意の --target-size-ratio <ratio> 引数を ceph osd pool create コマンドに追加すると、作成時にプールのターゲットサイズを設定することもできます。
不可能なターゲットサイズ値 (クラスターの合計よりも大きな容量、または 1.0 を超える合計の割合) を指定した場合、クラスターは POOL_TARGET_SIZE_RATIO_OVERCOMMITTED または POOL_TARGET_SIZE_BYTES_OVERCOMMITTED の警告を発生させます。
プールに target_size_ratio と target_size_bytes の両方を指定すると、クラスターは比率のみを考慮し、POOL_HAS_TARGET_SIZE_BYTES_AND_RATIO 正常性の警告を出します。