第3章 管理
管理者は、radosgw-admin
コマンドラインインターフェイスを使用して Ceph Object Gateway を管理できます。
- 管理データストレージ
- ストレージポリシー
- インデックスのないバケット
- バケットシャード化
- 圧縮
- ユーザー管理
- クォータ管理
- 用途
- バケット管理
- バケットライフサイクル
- Ceph Object Gateway データレイアウト
- Object Gateway データレイアウトパラメーター
- STS での属性ベースのアクセス制御 (ABAC) のセッションタグ
- Ceph Object Gateway のガベージコレクションの最適化
- Ceph Object Gateway のデータオブジェクトストレージの最適化
- Ceph Object Gateway およびマルチファクター認証
- Ansible を使用した Ceph Object Gateway の削除
3.1. 管理データストレージ
Ceph Object Gateway は、インスタンスのゾーン設定で定義された一連のプールに管理データを保存します。たとえば、後続のセクションで説明したバケット、ユーザー、ユーザークォータおよび使用状況の統計は、Ceph Storage Cluster のプールに保存されます。デフォルトでは、Ceph Object Gateway は以下のプールを作成し、それらをデフォルトゾーンにマッピングします。
-
.rgw.root
-
.default.rgw.control
-
.default.rgw.meta
-
.default.rgw.log
-
.default.rgw.buckets.index
-
.default.rgw.buckets.data
-
.default.rgw.buckets.non-ec
CRUSH ルールセットと配置グループの数を設定できるように、これらのプールを手動で作成することを検討してください。一般的な設定では、Ceph Object Gateway の管理データを格納するプールは、管理データに 10 個のプールがあるため、多くの場合、同じ CRUSH ルールセットを使用し、使用する配置グループの数を少なくします。詳細は、Red Hat Ceph Storage 4 の場合は、プール および ストレージ戦略 ガイドを参照してください。
また、配置グループの計算の詳細については、Ceph Placement Groups(PGs)per Pool Calculator も参照してください。mon_pg_warn_max_per_osd
設定は、プールに過剰な配置グループを割り当てると警告します (つまりデフォルトでは 300)。この値は、ニーズやハードウェアの能力に合わせて調整することができ、n
は OSD あたりの PG の最大数です。
mon_pg_warn_max_per_osd = n