4.2. Ceph Storage 클러스터 확인
외부 Ceph Storage 클러스터를 구성할 때 풀과 client.openstack 사용자를 생성하여 해당 풀에 액세스합니다. 오버클라우드를 배포한 후 client.openstack 사용자의 자격 증명이 포함된 파일을 사용하여 RHOSP(Red Hat OpenStack Platform) 풀의 콘텐츠를 나열할 수 있습니다.
풀의 콘텐츠를 나열하고 Glance 이미지, Compute 인스턴스 및 cinder 볼륨의 ID가 Ceph Storage 클러스터에 있는지 확인합니다.
절차
언더클라우드 자격 증명을 가져옵니다.
[stack@undercloud-0 ~]$ source stackrc사용 가능한 서버를 나열하여 시스템에 있는 노드의 IP 주소를 검색합니다.
(undercloud) [stack@undercloud-0 ~]$ openstack server list +---------------+----------------+---------------+ | ID | Name | Status | Networks | Image | Flavor | +---------------+----------------+---------------+ | d5a621bd-d109-41ae-a381-a42414397802 | compute-0 | ACTIVE | ctlplane=192.168.24.31 | overcloud-full | compute | | 496ab196-d6cb-447d-a118-5bafc5166cf2 | controller-0 | ACTIVE | ctlplane=192.168.24.37 | overcloud-full | controller | | c01e730d-62f2-426a-a964-b31448f250b3 | controller-2 | ACTIVE | ctlplane=192.168.24.55 | overcloud-full | controller | | 36df59b3-66f3-452e-9aec-b7e7f7c54b86 | controller-1 | ACTIVE | ctlplane=192.168.24.39 | overcloud-full | controller | | f8f00497-246d-4e40-8a6a-b5a60fa66483 | compute-1 | ACTIVE | ctlplane=192.168.24.10 | overcloud-full | compute |SSH를 사용하여 모든 컴퓨팅 노드에 로그인합니다.
(undercloud) [stack@undercloud-0 ~]$ ssh heat-admin@192.168.24.31root 사용자로 전환합니다.
[heat-admin@compute-0 ~]$ sudo su -/etc/ceph/ceph.conf및/etc/ceph/ceph.client.openstack.keyring파일이 있는지 확인합니다.[root@compute-0 ~]# ls -l /etc/ceph/ceph.conf -rw-r--r--. 1 root root 1170 Sep 29 23:25 /etc/ceph/ceph.conf [root@compute-0 ~]# ls -l /etc/ceph/ceph.client.openstack.keyring -rw-------. 1 ceph ceph 253 Sep 29 23:25 /etc/ceph/ceph.client.openstack.keyring다음 명령을 입력하여
nova_compute컨테이너가rbd명령을 사용하여 적절한 풀의 내용을 나열하도록 강제 적용합니다.# podman exec nova_compute /usr/bin/rbd --conf /etc/ceph/ceph.conf --keyring /etc/ceph/ceph.client.openstack.keyring --cluster ceph --id openstack ls vms풀 이름은 Ceph Storage 클러스터를 구성할 때 생성한 이미지, VM 및 볼륨의 풀 이름과 일치해야 합니다. 자세한 내용은 기존 Ceph Storage 클러스터 구성을 참조하십시오. 이미지, Compute 인스턴스 및 볼륨의 ID는 4.1절. “ID 수집” 에 기록한 ID와 일치해야 합니다.
참고ceph-common 패키지에서 제공하는
/usr/bin/rbd는 기본적으로 Overcloud 노드에 설치되지 않으므로 예제 명령 앞에podman exec nova_compute가 있습니다. 그러나nova_compute컨테이너에서 사용할 수 있습니다. 명령은 블록 장치 이미지를 나열합니다. 자세한 내용은 Ceph Storage 블록 장치 가이드의 블록 장치 이미지 나열 을 참조하십시오.다음 예제에서는 4.1절. “ID 수집” 의 ID를 사용하여 각 서비스의 ID가 있는지 확인하는 방법을 보여줍니다.
# podman exec nova_compute /usr/bin/rbd --conf /etc/ceph/ceph.conf --keyring /etc/ceph/ceph.client.openstack.keyring --cluster ceph --id openstack ls images | grep 4485d4c0-24c3-42ec-a158-4d3950fa020b # podman exec nova_compute /usr/bin/rbd --conf /etc/ceph/ceph.conf --keyring /etc/ceph/ceph.client.openstack.keyring --cluster ceph --id openstack ls vms | grep 64bcb731-e7a4-4dd5-a807-ee26c669482f # podman exec nova_compute /usr/bin/rbd --conf /etc/ceph/ceph.conf --keyring /etc/ceph/ceph.client.openstack.keyring --cluster ceph --id openstack ls volumes | grep aeac15e8-b67f-454f-9486-46b3d75daff4