4.2. Ceph Storage 클러스터 확인


외부 Ceph Storage 클러스터를 구성할 때 풀과 client.openstack 사용자를 생성하여 해당 풀에 액세스합니다. 오버클라우드를 배포한 후 client.openstack 사용자의 자격 증명이 포함된 파일을 사용하여 RHOSP(Red Hat OpenStack Platform) 풀의 콘텐츠를 나열할 수 있습니다.

풀의 콘텐츠를 나열하고 Glance 이미지, Compute 인스턴스 및 cinder 볼륨의 ID가 Ceph Storage 클러스터에 있는지 확인합니다.

절차

  1. 언더클라우드 자격 증명을 가져옵니다.

    [stack@undercloud-0 ~]$ source stackrc
  2. 사용 가능한 서버를 나열하여 시스템에 있는 노드의 IP 주소를 검색합니다.

    (undercloud) [stack@undercloud-0 ~]$ openstack server list
    
    +---------------+----------------+---------------+
    | ID | Name | Status | Networks | Image | Flavor |
    +---------------+----------------+---------------+
    | d5a621bd-d109-41ae-a381-a42414397802 | compute-0 | ACTIVE | ctlplane=192.168.24.31 | overcloud-full | compute |
    | 496ab196-d6cb-447d-a118-5bafc5166cf2 | controller-0 | ACTIVE | ctlplane=192.168.24.37 | overcloud-full | controller |
    | c01e730d-62f2-426a-a964-b31448f250b3 | controller-2 | ACTIVE | ctlplane=192.168.24.55 | overcloud-full | controller |
    | 36df59b3-66f3-452e-9aec-b7e7f7c54b86 | controller-1 | ACTIVE | ctlplane=192.168.24.39 | overcloud-full | controller |
    | f8f00497-246d-4e40-8a6a-b5a60fa66483 | compute-1 | ACTIVE | ctlplane=192.168.24.10 | overcloud-full | compute |
  3. SSH를 사용하여 모든 컴퓨팅 노드에 로그인합니다.

    (undercloud) [stack@undercloud-0 ~]$ ssh heat-admin@192.168.24.31
  4. root 사용자로 전환합니다.

    [heat-admin@compute-0 ~]$ sudo su -
  5. /etc/ceph/ceph.conf/etc/ceph/ceph.client.openstack.keyring 파일이 있는지 확인합니다.

    [root@compute-0 ~]# ls -l /etc/ceph/ceph.conf
    
    -rw-r--r--. 1 root root 1170 Sep 29 23:25 /etc/ceph/ceph.conf
    [root@compute-0 ~]# ls -l /etc/ceph/ceph.client.openstack.keyring
    
    -rw-------. 1 ceph ceph 253 Sep 29 23:25 /etc/ceph/ceph.client.openstack.keyring
  6. 다음 명령을 입력하여 nova_compute 컨테이너가 rbd 명령을 사용하여 적절한 풀의 내용을 나열하도록 강제 적용합니다.

    # podman exec nova_compute /usr/bin/rbd --conf /etc/ceph/ceph.conf --keyring /etc/ceph/ceph.client.openstack.keyring --cluster ceph --id openstack ls vms

    풀 이름은 Ceph Storage 클러스터를 구성할 때 생성한 이미지, VM 및 볼륨의 풀 이름과 일치해야 합니다. 자세한 내용은 기존 Ceph Storage 클러스터 구성을 참조하십시오. 이미지, Compute 인스턴스 및 볼륨의 ID는 4.1절. “ID 수집” 에 기록한 ID와 일치해야 합니다.

    참고

    ceph-common 패키지에서 제공하는 /usr/bin/rbd 는 기본적으로 Overcloud 노드에 설치되지 않으므로 예제 명령 앞에 podman exec nova_compute 가 있습니다. 그러나 nova_compute 컨테이너에서 사용할 수 있습니다. 명령은 블록 장치 이미지를 나열합니다. 자세한 내용은 Ceph Storage 블록 장치 가이드의 블록 장치 이미지 나열 을 참조하십시오.

    다음 예제에서는 4.1절. “ID 수집” 의 ID를 사용하여 각 서비스의 ID가 있는지 확인하는 방법을 보여줍니다.

    # podman exec nova_compute /usr/bin/rbd --conf /etc/ceph/ceph.conf --keyring /etc/ceph/ceph.client.openstack.keyring --cluster ceph --id openstack ls images | grep 4485d4c0-24c3-42ec-a158-4d3950fa020b
    
    # podman exec nova_compute /usr/bin/rbd --conf /etc/ceph/ceph.conf --keyring /etc/ceph/ceph.client.openstack.keyring --cluster ceph --id openstack ls vms | grep 64bcb731-e7a4-4dd5-a807-ee26c669482f
    
    # podman exec nova_compute /usr/bin/rbd --conf /etc/ceph/ceph.conf --keyring /etc/ceph/ceph.client.openstack.keyring --cluster ceph --id openstack ls volumes | grep aeac15e8-b67f-454f-9486-46b3d75daff4
Red Hat logoGithubredditYoutubeTwitter

자세한 정보

평가판, 구매 및 판매

커뮤니티

Red Hat 문서 정보

Red Hat을 사용하는 고객은 신뢰할 수 있는 콘텐츠가 포함된 제품과 서비스를 통해 혁신하고 목표를 달성할 수 있습니다. 최신 업데이트를 확인하세요.

보다 포괄적 수용을 위한 오픈 소스 용어 교체

Red Hat은 코드, 문서, 웹 속성에서 문제가 있는 언어를 교체하기 위해 최선을 다하고 있습니다. 자세한 내용은 다음을 참조하세요.Red Hat 블로그.

Red Hat 소개

Red Hat은 기업이 핵심 데이터 센터에서 네트워크 에지에 이르기까지 플랫폼과 환경 전반에서 더 쉽게 작업할 수 있도록 강화된 솔루션을 제공합니다.

Theme

© 2026 Red Hat
맨 위로 이동