第2章 オーバークラウドノードの準備
本章のシナリオでは、オーバークラウドは 6 台のノードで構成されます。
- 高可用性のコントローラーノード 3 台
- コンピュートノード 3 台
director は、独立した Ceph Storage クラスターを独自のノードでオーバークラウドに統合します。このクラスターは、オーバークラウドとは別々に管理されます。たとえば、Ceph Storage クラスターは、OpenStack Platform director ではなく Ceph 管理ツールを使用してスケーリングします。詳しい情報は、Red Hat Ceph Storage のドキュメントライブラリーを参照してください。
2.1. 既存の Ceph Storage クラスターの設定 リンクのコピーリンクがクリップボードにコピーされました!
お使いの環境に適した Ceph クラスターに以下のプールを作成します。
-
volumes: OpenStack Block Storage (cinder) のストレージ -
images: OpenStack Image Storage (glance) のストレージ -
vms: インスタンスのストレージ -
backups: OpenStack Block Storage Backup (cinder-backup) のストレージ metrics: OpenStack Telemetry Metrics (gnocchi) のストレージ以下のコマンドは指針として使用してください。
ceph osd pool create volumes PGNUM ceph osd pool create images PGNUM ceph osd pool create vms PGNUM ceph osd pool create backups PGNUM ceph osd pool create metrics PGNUM
[root@ceph ~]# ceph osd pool create volumes PGNUM [root@ceph ~]# ceph osd pool create images PGNUM [root@ceph ~]# ceph osd pool create vms PGNUM [root@ceph ~]# ceph osd pool create backups PGNUM [root@ceph ~]# ceph osd pool create metrics PGNUMCopy to Clipboard Copied! Toggle word wrap Toggle overflow オーバークラウドが CephFS がサポートする Shared File System(manila)をデプロイする場合には、CephFS データおよびメタデータプールも作成します。
ceph osd pool create manila_data PGNUM ceph osd pool create manila_metadata PGNUM
[root@ceph ~]# ceph osd pool create manila_data PGNUM [root@ceph ~]# ceph osd pool create manila_metadata PGNUMCopy to Clipboard Copied! Toggle word wrap Toggle overflow PGNUM は配置グループの数に置き換えます。Red Hat は、OSD ごとに約 100 個の配置グループを推奨します。たとえば、OSD の合計数を 100 で乗算して、レプリカ数で除算します (
osd pool default size)。適切な値を判断するには Ceph Placement Groups (PGs) per Pool Calculator を使用することを推奨します。
-
以下の機能を指定して
client.openstackユーザーを Ceph クラスターに作成します。- cap_mgr: “allow *”
- cap_mon: profile rbd
cap_osd: profile rbd pool=volumes, profile rbd pool=vms, profile rbd pool=images, profile rbd pool=backups, profile rbd pool=metrics
以下のコマンドは指針として使用してください。
ceph auth add client.openstack mgr 'allow *' mon 'profile rbd' osd 'profile rbd pool=volumes, profile rbd pool=vms, profile rbd pool=images, profile rbd pool=backups, profile rbd pool=metrics'
[root@ceph ~]# ceph auth add client.openstack mgr 'allow *' mon 'profile rbd' osd 'profile rbd pool=volumes, profile rbd pool=vms, profile rbd pool=images, profile rbd pool=backups, profile rbd pool=metrics'Copy to Clipboard Copied! Toggle word wrap Toggle overflow
client.openstackユーザー向けに作成された Ceph クライアントキーをメモします。Copy to Clipboard Copied! Toggle word wrap Toggle overflow この例の
key値 (AQC+vYNXgDAgAhAAc8UoYt+OTz5uhV7ItLdwUw==) は Ceph クライアントキーです。オーバークラウドが CephFS でサポートされる Shared File System をデプロイする場合は、以下の機能を備えた
client.manilaユーザーを Ceph クラスターに作成します。-
cap_mds:
allow * -
cap_mgr:
allow * -
cap_mon:
allow r, allow command "auth del", allow command "auth caps", allow command "auth get", allow command "auth get-or-create" cap_osd:
allow rw以下のコマンドは指針として使用してください。
ceph auth add client.manila mon 'allow r, allow command "auth del", allow command "auth caps", allow command "auth get", allow command "auth get-or-create"' osd 'allow rw' mds 'allow *' mgr 'allow *'
[root@ceph ~]# ceph auth add client.manila mon 'allow r, allow command "auth del", allow command "auth caps", allow command "auth get", allow command "auth get-or-create"' osd 'allow rw' mds 'allow *' mgr 'allow *'Copy to Clipboard Copied! Toggle word wrap Toggle overflow
-
cap_mds:
manila クライアント名およびオーバークラウドデプロイメントテンプレートで使用するキー値をメモします。
ceph auth get-key client.manila AQDQ991cAAAAABAA0aXFrTnjH9aO39P0iVvYyg==
[root@ceph ~]# ceph auth get-key client.manila AQDQ991cAAAAABAA0aXFrTnjH9aO39P0iVvYyg==Copy to Clipboard Copied! Toggle word wrap Toggle overflow Ceph Storage クラスターのファイルシステム ID をメモします。この値は、クラスターの設定ファイルにある
fsidの設定で指定されています ([global]のセクション下)。[global] fsid = 4b5c8c0a-ff60-454b-a1b4-9747aa737d19 ...
[global] fsid = 4b5c8c0a-ff60-454b-a1b4-9747aa737d19 ...Copy to Clipboard Copied! Toggle word wrap Toggle overflow 注記Ceph Storage クラスターの設定ファイルに関する詳細は、『Red Hat Ceph Storage Configuration Guide』の「Ceph configuration」を参照してください。
Ceph クライアントキーおよびファイルシステム ID、および manila クライアント ID およびキーは、すべて 3章既存の Ceph Storage クラスターとの統合 で後ほど使用されます。