4.2. Red Hat Ceph Storage クラスターの検証
外部 Red Hat Ceph Storage クラスターを設定する場合、プールおよび client.openstack
ユーザーを作成して、これらのプールにアクセスします。オーバークラウドをデプロイしたら、client.openstack
ユーザーの認証情報が含まれるファイルを使用して、Red Hat OpenStack Platform (RHOSP) プールの内容をリスト表示できます。
プールの内容を一覧表示し、Image Service (glance) イメージ、Compute (nova) インスタンス、Block Storage (cinder) ボリューム、および Shared File Systems サービス (manila) ファイル共有の ID が Ceph Storage に存在することを確認します。
手順
アンダークラウドに
stack
ユーザーとしてログインし、stackrc
認証情報ファイルを読み込みます。$ source ~/stackrc
利用可能なサーバーをリスト表示して、システム上のノードの IP アドレスを取得します。
$ metalsmith list +---------------+----------------+---------------+ | ID | Name | Status | Networks | Image | Flavor | +---------------+----------------+---------------+ | d5a621bd-d109-41ae-a381-a42414397802 | compute-0 | ACTIVE | ctlplane=192.168.24.31 | overcloud-full | compute | | 496ab196-d6cb-447d-a118-5bafc5166cf2 | controller-0 | ACTIVE | ctlplane=192.168.24.37 | overcloud-full | controller | | c01e730d-62f2-426a-a964-b31448f250b3 | controller-2 | ACTIVE | ctlplane=192.168.24.55 | overcloud-full | controller | | 36df59b3-66f3-452e-9aec-b7e7f7c54b86 | controller-1 | ACTIVE | ctlplane=192.168.24.39 | overcloud-full | controller | | f8f00497-246d-4e40-8a6a-b5a60fa66483 | compute-1 | ACTIVE | ctlplane=192.168.24.10 | overcloud-full | compute |
SSH を使用して、任意のコンピュートノードにログインします。
$ ssh tripleo-admin@192.168.24.31
director が提供する
CephConfigPath
にファイルceph.conf
および/ceph.client.openstack.keyring
が存在することを確認します。このパスはデフォルトで/var/lib/tripleo-config/ceph
ですが、オーバーライドが存在する場合があります。[tripleo-admin@compute-0 ~]$ sudo ls -l /var/lib/tripleo-config/ceph/ceph.conf -rw-r--r--. 1 root root 1170 Sep 29 23:25 /var/lib/tripleo-config/ceph/ceph.conf [tripleo-admin@compute-0 ~]$ sudo ls -l /var/lib/tripleo-config/ceph/ceph.client.openstack.keyring -rw-------. 1 ceph ceph 253 Sep 29 23:25 /var/lib/tripleo-config/ceph/ceph.client.openstack.keyring
以下のコマンドを入力して、
nova_compute
コンテナーがrbd
コマンドを使用して適切なプールの内容をリスト表示するように強制します。$ sudo podman exec nova_compute /usr/bin/rbd --conf /etc/ceph/ceph.conf --keyring /etc/ceph/ceph.client.openstack.keyring --cluster ceph --id openstack ls vms
プール名は、Ceph Storage クラスターの設定時に作成したイメージ、仮想マシンボリュームおよび共有プール名と一致している必要があります。イメージ、コンピュートインスタンス、ボリューム、共有の ID は、ID の収集 で記録した ID と一致する必要があります。
注記ceph-common package
で提供される/usr/bin/rbd
はデフォルトではオーバークラウドノードにインストールされないため、コマンドの例にはpodman exec nova_compute
という接頭辞が付けられています。ただし、これはnova_compute
コンテナーで利用できます。このコマンドは、ブロックデバイスイメージをリスト表示します。ブロックデバイスイメージの一覧の詳細は、Red Hat Ceph Storage ブロックデバイスガイド の ブロックデバイスイメージの一覧表示 を参照してください。以下の例は、ID の収集 で取得した ID を使用して、各プールに各サービスの ID が存在するかどうかを確認する方法を示しています。
$ sudo podman exec nova_compute /usr/bin/rbd --conf /etc/ceph/ceph.conf --keyring /etc/ceph/ceph.client.openstack.keyring --cluster ceph --id openstack ls images | grep 4485d4c0-24c3-42ec-a158-4d3950fa020b
$ sudo podman exec nova_compute /usr/bin/rbd --conf /etc/ceph/ceph.conf --keyring /etc/ceph/ceph.client.openstack.keyring --cluster ceph --id openstack ls vms | grep 64bcb731-e7a4-4dd5-a807-ee26c669482f
$ sudo podman exec nova_compute /usr/bin/rbd --conf /etc/ceph/ceph.conf --keyring /etc/ceph/ceph.client.openstack.keyring --cluster ceph --id openstack ls volumes | grep aeac15e8-b67f-454f-9486-46b3d75daff4
Shared File Systems サービス共有の存在を確認するには、コントローラーノードにログインする必要があります。
$ sudo podman exec openstack-manila-share-podman-0 ceph -n client.manila fs subvolume ls cephfs | grep ec99db3c-0077-40b7-b09e-8a110e3f73c1