4.2. 验证 Ceph Storage 集群


当您配置外部 Ceph Storage 集群时,您可以创建池和 client.openstack 用户来访问这些池。部署 overcloud 后,您可以使用包含 client.openstack 用户凭据的 文件列出 Red Hat OpenStack Platform (RHOSP)池的内容。

列出池的内容,并确认 Ceph Storage 集群上存在 glance 镜像、Compute 实例和 cinder 卷的 ID。

流程

  1. 提供 undercloud 凭证:

    [stack@undercloud-0 ~]$ source stackrc
  2. 列出可用的服务器以检索系统中节点的 IP 地址:

    (undercloud) [stack@undercloud-0 ~]$ openstack server list
    
    +---------------+----------------+---------------+
    | ID | Name | Status | Networks | Image | Flavor |
    +---------------+----------------+---------------+
    | d5a621bd-d109-41ae-a381-a42414397802 | compute-0 | ACTIVE | ctlplane=192.168.24.31 | overcloud-full | compute |
    | 496ab196-d6cb-447d-a118-5bafc5166cf2 | controller-0 | ACTIVE | ctlplane=192.168.24.37 | overcloud-full | controller |
    | c01e730d-62f2-426a-a964-b31448f250b3 | controller-2 | ACTIVE | ctlplane=192.168.24.55 | overcloud-full | controller |
    | 36df59b3-66f3-452e-9aec-b7e7f7c54b86 | controller-1 | ACTIVE | ctlplane=192.168.24.39 | overcloud-full | controller |
    | f8f00497-246d-4e40-8a6a-b5a60fa66483 | compute-1 | ACTIVE | ctlplane=192.168.24.10 | overcloud-full | compute |
  3. 使用 SSH 登录到任何 Compute 节点:

    (undercloud) [stack@undercloud-0 ~]$ ssh heat-admin@192.168.24.31
  4. 切换到 root 用户:

    [heat-admin@compute-0 ~]$ sudo su -
  5. 确认存在 /etc/ceph/ceph.conf/etc/ceph/ceph.client.openstack.keyring 文件:

    [root@compute-0 ~]# ls -l /etc/ceph/ceph.conf
    
    -rw-r--r--. 1 root root 1170 Sep 29 23:25 /etc/ceph/ceph.conf
    [root@compute-0 ~]# ls -l /etc/ceph/ceph.client.openstack.keyring
    
    -rw-------. 1 ceph ceph 253 Sep 29 23:25 /etc/ceph/ceph.client.openstack.keyring
  6. 输入以下命令强制 nova_compute 容器使用 rbd 命令列出适当池的内容。

    # podman exec nova_compute /usr/bin/rbd --conf /etc/ceph/ceph.conf --keyring /etc/ceph/ceph.client.openstack.keyring --cluster ceph --id openstack ls vms

    池名称必须与您配置 Ceph Storage 集群时创建的镜像、虚拟机和卷的池名称匹配。如需更多信息,请参阅配置现有的 Ceph Storage 集群。镜像、计算实例和卷的 ID 必须与您记录在 第 4.1 节 “收集 ID” 中的 ID 匹配。

    注意

    example 命令带有 podman exec nova_compute 前缀,因为 /usr/bin/rbd 由 ceph-common 软件包提供,默认情况下不会在 overcloud 节点上安装。但是,它在 nova_compute 容器中可用。命令列出块设备镜像。有关更多信息,请参阅 Ceph Storage 块设备指南中的列出块设备镜像

    以下示例演示了如何使用 第 4.1 节 “收集 ID” 中的 ID 确认每个池是否存在一个 ID。

    # podman exec nova_compute /usr/bin/rbd --conf /etc/ceph/ceph.conf --keyring /etc/ceph/ceph.client.openstack.keyring --cluster ceph --id openstack ls images | grep 4485d4c0-24c3-42ec-a158-4d3950fa020b
    
    # podman exec nova_compute /usr/bin/rbd --conf /etc/ceph/ceph.conf --keyring /etc/ceph/ceph.client.openstack.keyring --cluster ceph --id openstack ls vms | grep 64bcb731-e7a4-4dd5-a807-ee26c669482f
    
    # podman exec nova_compute /usr/bin/rbd --conf /etc/ceph/ceph.conf --keyring /etc/ceph/ceph.client.openstack.keyring --cluster ceph --id openstack ls volumes | grep aeac15e8-b67f-454f-9486-46b3d75daff4
Red Hat logoGithubRedditYoutubeTwitter

学习

尝试、购买和销售

社区

关于红帽文档

通过我们的产品和服务,以及可以信赖的内容,帮助红帽用户创新并实现他们的目标。

让开源更具包容性

红帽致力于替换我们的代码、文档和 Web 属性中存在问题的语言。欲了解更多详情,请参阅红帽博客.

關於紅帽

我们提供强化的解决方案,使企业能够更轻松地跨平台和环境(从核心数据中心到网络边缘)工作。

© 2024 Red Hat, Inc.