4.2. 验证 Ceph Storage 集群
当您配置外部 Ceph Storage 集群时,您可以创建池和 client.openstack
用户来访问这些池。部署 overcloud 后,您可以使用包含 client.openstack
用户凭据的 文件列出 Red Hat OpenStack Platform (RHOSP)池的内容。
列出池的内容,并确认 Ceph Storage 集群上存在 glance 镜像、Compute 实例和 cinder 卷的 ID。
流程
提供 undercloud 凭证:
[stack@undercloud-0 ~]$ source stackrc
列出可用的服务器以检索系统中节点的 IP 地址:
(undercloud) [stack@undercloud-0 ~]$ openstack server list +---------------+----------------+---------------+ | ID | Name | Status | Networks | Image | Flavor | +---------------+----------------+---------------+ | d5a621bd-d109-41ae-a381-a42414397802 | compute-0 | ACTIVE | ctlplane=192.168.24.31 | overcloud-full | compute | | 496ab196-d6cb-447d-a118-5bafc5166cf2 | controller-0 | ACTIVE | ctlplane=192.168.24.37 | overcloud-full | controller | | c01e730d-62f2-426a-a964-b31448f250b3 | controller-2 | ACTIVE | ctlplane=192.168.24.55 | overcloud-full | controller | | 36df59b3-66f3-452e-9aec-b7e7f7c54b86 | controller-1 | ACTIVE | ctlplane=192.168.24.39 | overcloud-full | controller | | f8f00497-246d-4e40-8a6a-b5a60fa66483 | compute-1 | ACTIVE | ctlplane=192.168.24.10 | overcloud-full | compute |
使用 SSH 登录到任何 Compute 节点:
(undercloud) [stack@undercloud-0 ~]$ ssh heat-admin@192.168.24.31
切换到 root 用户:
[heat-admin@compute-0 ~]$ sudo su -
确认存在
/etc/ceph/ceph.conf
和/etc/ceph/ceph.client.openstack.keyring
文件:[root@compute-0 ~]# ls -l /etc/ceph/ceph.conf -rw-r--r--. 1 root root 1170 Sep 29 23:25 /etc/ceph/ceph.conf [root@compute-0 ~]# ls -l /etc/ceph/ceph.client.openstack.keyring -rw-------. 1 ceph ceph 253 Sep 29 23:25 /etc/ceph/ceph.client.openstack.keyring
输入以下命令强制
nova_compute
容器使用rbd
命令列出适当池的内容。# podman exec nova_compute /usr/bin/rbd --conf /etc/ceph/ceph.conf --keyring /etc/ceph/ceph.client.openstack.keyring --cluster ceph --id openstack ls vms
池名称必须与您配置 Ceph Storage 集群时创建的镜像、虚拟机和卷的池名称匹配。如需更多信息,请参阅配置现有的 Ceph Storage 集群。镜像、计算实例和卷的 ID 必须与您记录在 第 4.1 节 “收集 ID” 中的 ID 匹配。
注意example 命令带有
podman exec nova_compute
前缀,因为/usr/bin/rbd
由 ceph-common 软件包提供,默认情况下不会在 overcloud 节点上安装。但是,它在nova_compute
容器中可用。命令列出块设备镜像。有关更多信息,请参阅 Ceph Storage 块设备指南中的列出块设备镜像。以下示例演示了如何使用 第 4.1 节 “收集 ID” 中的 ID 确认每个池是否存在一个 ID。
# podman exec nova_compute /usr/bin/rbd --conf /etc/ceph/ceph.conf --keyring /etc/ceph/ceph.client.openstack.keyring --cluster ceph --id openstack ls images | grep 4485d4c0-24c3-42ec-a158-4d3950fa020b # podman exec nova_compute /usr/bin/rbd --conf /etc/ceph/ceph.conf --keyring /etc/ceph/ceph.client.openstack.keyring --cluster ceph --id openstack ls vms | grep 64bcb731-e7a4-4dd5-a807-ee26c669482f # podman exec nova_compute /usr/bin/rbd --conf /etc/ceph/ceph.conf --keyring /etc/ceph/ceph.client.openstack.keyring --cluster ceph --id openstack ls volumes | grep aeac15e8-b67f-454f-9486-46b3d75daff4