4.2. Ceph Storage クラスターの確認
外部 Ceph Storage クラスターを設定する場合、プールおよび client.openstack ユーザーを作成して、これらのプールにアクセスします。オーバークラウドをデプロイしたら、client.openstack ユーザーの認証情報が含まれるファイルを使用して、Red Hat OpenStack Platform (RHOSP) プールの内容をリスト表示できます。
プールの内容をリスト表示し、glance イメージ、コンピュートインスタンス、および cinder ボリュームの ID が Ceph Storage クラスターに存在することを確認します。
手順
source コマンドでアンダークラウドの認証情報を読み込みます。
[stack@undercloud-0 ~]$ source stackrc利用可能なサーバーをリスト表示して、システム上のノードの IP アドレスを取得します。
(undercloud) [stack@undercloud-0 ~]$ openstack server list +---------------+----------------+---------------+ | ID | Name | Status | Networks | Image | Flavor | +---------------+----------------+---------------+ | d5a621bd-d109-41ae-a381-a42414397802 | compute-0 | ACTIVE | ctlplane=192.168.24.31 | overcloud-full | compute | | 496ab196-d6cb-447d-a118-5bafc5166cf2 | controller-0 | ACTIVE | ctlplane=192.168.24.37 | overcloud-full | controller | | c01e730d-62f2-426a-a964-b31448f250b3 | controller-2 | ACTIVE | ctlplane=192.168.24.55 | overcloud-full | controller | | 36df59b3-66f3-452e-9aec-b7e7f7c54b86 | controller-1 | ACTIVE | ctlplane=192.168.24.39 | overcloud-full | controller | | f8f00497-246d-4e40-8a6a-b5a60fa66483 | compute-1 | ACTIVE | ctlplane=192.168.24.10 | overcloud-full | compute |SSH を使用して、任意のコンピュートノードにログインします。
(undercloud) [stack@undercloud-0 ~]$ ssh heat-admin@192.168.24.31root ユーザーに変更します。
[heat-admin@compute-0 ~]$ sudo su -/etc/ceph/ceph.confファイルおよび/etc/ceph/ceph.client.openstack.keyringファイルが存在することを確認します。[root@compute-0 ~]# ls -l /etc/ceph/ceph.conf -rw-r--r--. 1 root root 1170 Sep 29 23:25 /etc/ceph/ceph.conf [root@compute-0 ~]# ls -l /etc/ceph/ceph.client.openstack.keyring -rw-------. 1 ceph ceph 253 Sep 29 23:25 /etc/ceph/ceph.client.openstack.keyring以下のコマンドを入力して、
nova_computeコンテナーがrbdコマンドを使用して適切なプールの内容をリスト表示するように強制します。# podman exec nova_compute /usr/bin/rbd --conf /etc/ceph/ceph.conf --keyring /etc/ceph/ceph.client.openstack.keyring --cluster ceph --id openstack ls vmsプール名は、Ceph Storage クラスターの設定時に作成したイメージ、仮想マシン、およびボリュームのプール名と一致している必要があります。詳しくは、既存の Ceph Storage クラスターの設定 を参照してください。イメージ、コンピュートインスタンス、およびボリュームの ID は、「ID の収集」で記録した ID と一致する必要があります。
注記ceph-common パッケージで提供される
/usr/bin/rbdはデフォルトではオーバークラウドノードにインストールされないため、コマンドの例にはpodman exec nova_computeという接頭辞が付けられています。ただし、これはnova_computeコンテナーで利用できます。このコマンドは、ブロックデバイスイメージをリスト表示します。詳細は、Ceph Storage ブロックデバイスガイドの ブロックデバイスイメージのリスト表示 を参照してください。以下の例は、「ID の収集」で取得した ID を使用して、各プールに各サービスの ID が存在するかどうかを確認する方法を示しています。
# podman exec nova_compute /usr/bin/rbd --conf /etc/ceph/ceph.conf --keyring /etc/ceph/ceph.client.openstack.keyring --cluster ceph --id openstack ls images | grep 4485d4c0-24c3-42ec-a158-4d3950fa020b # podman exec nova_compute /usr/bin/rbd --conf /etc/ceph/ceph.conf --keyring /etc/ceph/ceph.client.openstack.keyring --cluster ceph --id openstack ls vms | grep 64bcb731-e7a4-4dd5-a807-ee26c669482f # podman exec nova_compute /usr/bin/rbd --conf /etc/ceph/ceph.conf --keyring /etc/ceph/ceph.client.openstack.keyring --cluster ceph --id openstack ls volumes | grep aeac15e8-b67f-454f-9486-46b3d75daff4