5.2. Red Hat Ceph Storage 配置グループ
配置グループ (PG) は、大規模な動的で効率的なオブジェクトトラッキングを容易にします。OSD 障害または Ceph Storage クラスターの再調整が発生した場合、Ceph は配置グループと配置グループの内容を移動または複製できます。これにより、Ceph Storage クラスターは効率的に再調整および回復できます。
次のパラメーターが Ceph 設定ファイルに含まれていないかぎり、配置グループとレプリカ数の設定はデフォルトから変更されません。
-
osd_pool_default_size
-
osd_pool_default_pg_num
-
osd_pool_default_pgp_num
openstack overcloud deploy
コマンドを使用して、オーバークラウドをデプロイすると、有効な Red Hat OpenStack Platform サービスごとにプールが作成されます。たとえば、次のコマンドは、Compute サービス (nova)、Block Storage サービス (cinder)、および Image サービス (glance) のプールを作成します。
openstack overcloud deploy --templates \ -e /usr/share/openstack-tripleo-heat-templates/environments/cephadm/cephadm-rbd-only.yaml
コマンドに -e environments/cinder-backup.yaml
を追加すると、backups
という名前のプールが作成されます。
openstack overcloud deploy --templates \ -e /usr/share/openstack-tripleo-heat-templates/environments/cephadm/cephadm-rbd-only.yaml -e environments/cinder-backup.yaml
プールごとに配置グループ番号を設定する必要はありません。pg_autoscale_mode
属性はデフォルトで有効になっています。ただし、target_size_ratio
または pg_num
属性を設定することを推奨します。これにより、データの再調整が最小限に抑えられます。
プールごとに target_size_ratio
属性を設定するには、次の例のような設定ファイルエントリーを使用します。
parameter_defaults: CephPools: - name: volumes target_size_ratio: 0.4 application: rbd - name: images target_size_ratio: 0.1 application: rbd - name: vms target_size_ratio: 0.3 application: rbd
この例では、サービスごとに使用されるデータの割合は次のようになります。
- Cinder ボリューム - 40%
- Glance イメージ - 10%
- Nova vms - 30%
- 他のプール用の空き容量 - 20%
これらの値は、予想される使用量に基づいて設定してください。CephPools
パラメーターをオーバーライドしない場合、各プールはデフォルトの配置グループ番号を使用します。オートスケーラーは使用状況に基づいて時間の経過とともにこの数を自動的に調整しますが、データは Ceph クラスター内で移動されます。これは、計算リソースを使用します。
ターゲットサイズ比ではなく、配置グループ数を設定する場合は、例の target_size_ratio
を pg_num
に置き換えます。予想される使用量に基づいて、プールごとに異なる整数を使用してください。
Red Hat Ceph Storage プロセッサー、ネットワークインターフェイスカード、および電源管理インターフェイスに関する推奨事項は、Red Hat Ceph Storage Hardware Guide を参照してください。