3장. 오버클라우드에 기존 Ceph Storage 클러스터 통합
이 장에서는 Overcloud를 생성하고 기존 Ceph Storage 클러스터와 통합하는 방법을 설명합니다. Overcloud 및 Ceph Storage 클러스터를 모두 생성하는 방법에 대한 자세한 내용은 2장. Ceph Storage 노드를 사용하여 오버클라우드 생성 을 참조하십시오.
이 장에서 설명하는 시나리오는 Overcloud의 6개의 노드로 구성됩니다.
- 고가용성이 있는 컨트롤러 노드 3개
- 컴퓨팅 노드 세 개
director는 별도의 Ceph Storage 클러스터와 자체 노드를 Overcloud에 통합합니다. 오버클라우드와 독립적으로 이 클러스터를 관리합니다. 예를 들어 OpenStack Platform director가 아닌 Ceph 관리 툴을 사용하여 Ceph Storage 클러스터를 확장합니다.
모든 OpenStack 시스템은 IPMI를 사용하여 전원 관리에 사용하는 베어 메탈 시스템입니다. director가 각 노드에 Red Hat Enterprise Linux 7 이미지를 복사하므로 이러한 노드에 운영 체제가 필요하지 않습니다.
director는 인트로스펙션 및 프로비저닝 프로세스 중에 프로비저닝 네트워크를 통해 컨트롤러 및 컴퓨팅 노드에 통신합니다. 모든 노드는 기본 VLAN을 통해 이 네트워크에 연결됩니다. 이 예제에서는 다음 IP 주소 할당을 사용하여 Provisioning 서브넷으로 192.0.2.0/24를 사용합니다.
| 노드 이름 | IP 주소 | MAC 주소 | IPMI IP 주소 | |
|---|---|---|---|---|
| director | 192.0.2.1 | AA:aa:aa:aa:aa:aa | ||
| 컨트롤러 1 | DHCP 정의 | b1:b1:b1:b1:b1:b1 | 192.0.2.205 | |
| 컨트롤러 2 | DHCP 정의 | b2:b2:b2:b2:b2:b2 | 192.0.2.206 | |
| 컨트롤러 3 | DHCP 정의 | b3:b3:b3:b3:b3:b3 | 192.0.2.207 | |
| Compute 1 | DHCP 정의 | c1:c1:c1:c1:c1:c1 | 192.0.2.208 | |
| Compute 2 | DHCP 정의 | c2:c2:c2:c2:c2:c2 | 192.0.2.209 | |
| 컴퓨팅 3 | DHCP 정의 | c3:c3:c3:c3:c3:c3 | 192.0.2.210 |
3.1. 기존 Ceph Storage 클러스터 구성 링크 복사링크가 클립보드에 복사되었습니다!
Ceph 클러스터에
volumes,images,vms의 세 개의 풀을 만듭니다. 다음 명령을 가이드로 사용하십시오.ceph osd pool create volumes PGNUM ceph osd pool create images PGNUM ceph osd pool create vms PGNUM
[root@ceph ~]# ceph osd pool create volumes PGNUM [root@ceph ~]# ceph osd pool create images PGNUM [root@ceph ~]# ceph osd pool create vms PGNUMCopy to Clipboard Copied! Toggle word wrap Toggle overflow PGNUM 을 배치 그룹 수로 바꿉니다. OSD당 약 100개를 권장합니다. 예를 들어 총 OSD 수는 100을 복제본 수로 나눕니다(
osd 풀 기본 크기). 풀 계산기당 Ceph PG(배치 그룹) 를 사용하여 적절한 값을 결정할 수도 있습니다.다음 기능을 사용하여 Ceph 클러스터에
client.openstack사용자를 생성합니다.-
cap_mon:
r 허용 cap_osd:
class-read object_prefix rbd_ children을 허용하고, rwx pool=volumes를 허용하고, rwx pool=vms를 허용하고 rwx pool=images를 허용합니다.다음 명령을 가이드로 사용합니다.
ceph auth add client.openstack mon 'allow r' osd 'allow class-read object_prefix rbd_children, allow rwx pool=volumes, allow rwx pool=vms, allow rwx pool=images'
[root@ceph ~]# ceph auth add client.openstack mon 'allow r' osd 'allow class-read object_prefix rbd_children, allow rwx pool=volumes, allow rwx pool=vms, allow rwx pool=images'Copy to Clipboard Copied! Toggle word wrap Toggle overflow
-
cap_mon:
다음으로
client.openstack 사용자에 대해 생성된 Ceph 클라이언트 키를확인합니다.Copy to Clipboard Copied! Toggle word wrap Toggle overflow 여기에서
키값(AQDLOh1VgEp6FRAAFzT7Zw+Y9V6JJExQAsRQ===)은 Ceph 클라이언트 키입니다.마지막으로 Ceph Storage 클러스터의 파일 시스템 ID 를 확인합니다. 이 값은 클러스터의 구성 파일에 있는
fsid설정으로 지정됩니다([global]섹션 참조).[global] fsid = 4b5c8c0a-ff60-454b-a1b4-9747aa737d19 ...
[global] fsid = 4b5c8c0a-ff60-454b-a1b4-9747aa737d19 ...Copy to Clipboard Copied! Toggle word wrap Toggle overflow 참고Ceph Storage 클러스터 구성 파일에 대한 자세한 내용은 Configuration Reference ( Red Hat Ceph Storage 구성 가이드)를 참조하십시오.
Ceph 클라이언트 키와 파일 시스템 ID는 모두 3.6절. “기존 Ceph Storage 클러스터와 통합 활성화” 에서 나중에 사용됩니다.