3장. 오버클라우드에 기존 Ceph Storage 클러스터 통합


이 장에서는 Overcloud를 생성하고 기존 Ceph Storage 클러스터와 통합하는 방법을 설명합니다. Overcloud 및 Ceph Storage 클러스터를 모두 생성하는 방법에 대한 자세한 내용은 2장. Ceph Storage 노드를 사용하여 오버클라우드 생성 을 참조하십시오.

이 장에서 설명하는 시나리오는 Overcloud의 6개의 노드로 구성됩니다.

  • 고가용성이 있는 컨트롤러 노드 3개
  • 컴퓨팅 노드 세 개

director는 별도의 Ceph Storage 클러스터와 자체 노드를 Overcloud에 통합합니다. 오버클라우드와 독립적으로 이 클러스터를 관리합니다. 예를 들어 OpenStack Platform director가 아닌 Ceph 관리 툴을 사용하여 Ceph Storage 클러스터를 확장합니다.

모든 OpenStack 시스템은 IPMI를 사용하여 전원 관리에 사용하는 베어 메탈 시스템입니다. director가 각 노드에 Red Hat Enterprise Linux 7 이미지를 복사하므로 이러한 노드에 운영 체제가 필요하지 않습니다.

director는 인트로스펙션 및 프로비저닝 프로세스 중에 프로비저닝 네트워크를 통해 컨트롤러 및 컴퓨팅 노드에 통신합니다. 모든 노드는 기본 VLAN을 통해 이 네트워크에 연결됩니다. 이 예제에서는 다음 IP 주소 할당을 사용하여 Provisioning 서브넷으로 192.0.2.0/24를 사용합니다.

Expand
노드 이름IP 주소MAC 주소IPMI IP 주소 

director

192.0.2.1

AA:aa:aa:aa:aa:aa

  

컨트롤러 1

DHCP 정의

b1:b1:b1:b1:b1:b1

192.0.2.205

 

컨트롤러 2

DHCP 정의

b2:b2:b2:b2:b2:b2

192.0.2.206

 

컨트롤러 3

DHCP 정의

b3:b3:b3:b3:b3:b3

192.0.2.207

 

Compute 1

DHCP 정의

c1:c1:c1:c1:c1:c1

192.0.2.208

 

Compute 2

DHCP 정의

c2:c2:c2:c2:c2:c2

192.0.2.209

 

컴퓨팅 3

DHCP 정의

c3:c3:c3:c3:c3:c3

192.0.2.210

 

3.1. 기존 Ceph Storage 클러스터 구성

  1. Ceph 클러스터에 volumes,images, vms 의 세 개의 풀을 만듭니다. 다음 명령을 가이드로 사용하십시오.

    [root@ceph ~]# ceph osd pool create volumes PGNUM
    [root@ceph ~]# ceph osd pool create images PGNUM
    [root@ceph ~]# ceph osd pool create vms PGNUM
    Copy to Clipboard Toggle word wrap

    PGNUM배치 그룹 수로 바꿉니다. OSD당 약 100개를 권장합니다. 예를 들어 총 OSD 수는 100을 복제본 수로 나눕니다(osd 풀 기본 크기). 풀 계산기당 Ceph PG(배치 그룹) 를 사용하여 적절한 값을 결정할 수도 있습니다.

  2. 다음 기능을 사용하여 Ceph 클러스터에 client.openstack 사용자를 생성합니다.

    • cap_mon: r 허용
    • cap_osd: class-read object_prefix rbd_ children을 허용하고, rwx pool=volumes를 허용하고, rwx pool=vms를 허용하고 rwx pool=images를 허용합니다.

      다음 명령을 가이드로 사용합니다.

      [root@ceph ~]# ceph auth add client.openstack mon 'allow r' osd 'allow class-read object_prefix rbd_children, allow rwx pool=volumes, allow rwx pool=vms, allow rwx pool=images'
      Copy to Clipboard Toggle word wrap
  3. 다음으로 client.openstack 사용자에 대해 생성된 Ceph 클라이언트 키를 확인합니다.

    [root@ceph ~]# ceph auth list
    ...
    client.openstack
    	key: AQDLOh1VgEp6FRAAFzT7Zw+Y9V6JJExQAsRnRQ==
    	caps: [mon] allow r
    	caps: [osd] allow class-read object_prefix rbd_children, allow rwx pool=volumes, allow rwx pool=vms, allow rwx pool=images
    ...
    Copy to Clipboard Toggle word wrap

    여기에서 값(AQDLOh1VgEp6FRAAFzT7Zw+Y9V6JJExQAsRQ===)은 Ceph 클라이언트 키입니다.

  4. 마지막으로 Ceph Storage 클러스터의 파일 시스템 ID 를 확인합니다. 이 값은 클러스터의 구성 파일에 있는 fsid 설정으로 지정됩니다 ([global] 섹션 참조).

    [global]
    fsid = 4b5c8c0a-ff60-454b-a1b4-9747aa737d19
    ...
    Copy to Clipboard Toggle word wrap
    참고

    Ceph Storage 클러스터 구성 파일에 대한 자세한 내용은 Configuration Reference ( Red Hat Ceph Storage 구성 가이드)를 참조하십시오.

Ceph 클라이언트 키와 파일 시스템 ID는 모두 3.6절. “기존 Ceph Storage 클러스터와 통합 활성화” 에서 나중에 사용됩니다.

맨 위로 이동
Red Hat logoGithubredditYoutubeTwitter

자세한 정보

평가판, 구매 및 판매

커뮤니티

Red Hat 문서 정보

Red Hat을 사용하는 고객은 신뢰할 수 있는 콘텐츠가 포함된 제품과 서비스를 통해 혁신하고 목표를 달성할 수 있습니다. 최신 업데이트를 확인하세요.

보다 포괄적 수용을 위한 오픈 소스 용어 교체

Red Hat은 코드, 문서, 웹 속성에서 문제가 있는 언어를 교체하기 위해 최선을 다하고 있습니다. 자세한 내용은 다음을 참조하세요.Red Hat 블로그.

Red Hat 소개

Red Hat은 기업이 핵심 데이터 센터에서 네트워크 에지에 이르기까지 플랫폼과 환경 전반에서 더 쉽게 작업할 수 있도록 강화된 솔루션을 제공합니다.

Theme

© 2025 Red Hat