6장. Red Hat OpenStack Platform에 2계층 Ceph 스토리지 배포
OpenStack director를 사용하면 Ceph 클러스터에서 특정 계층에 전용 새 Ceph 노드를 추가하여 다양한 Red Hat Ceph Storage 성능 계층을 배포할 수 있습니다.
예를 들어, SSD 드라이브가 있는 새로운 OSD(오브젝트 스토리지 데몬) 노드를 기존 Ceph 클러스터에 추가하여 이러한 노드에 데이터를 저장하기 위한 Block Storage(cinder) 백엔드를 독점적으로 생성할 수 있습니다. 그런 다음 새 블록 스토리지 볼륨을 생성한 사용자는 원하는 성능 계층인 HDD 또는 새 SSD를 선택할 수 있습니다.
이러한 유형의 배포에는 Red Hat OpenStack Platform director가 사용자 지정된 CRUSH 맵을 ceph-ansible에 전달해야 합니다. CRUSH 맵을 사용하면 디스크 성능을 기반으로 OSD 노드를 분할할 수 있지만 이 기능을 사용하여 물리적 인프라 레이아웃을 매핑할 수도 있습니다.
다음 섹션에서는 노드 중 두 노드가 SSD를 사용하고 다른 두 개의 HDD를 사용하는 4개의 노드를 배포하는 방법을 설명합니다. 이 예제는 반복 가능한 패턴을 쉽게 전달할 수 있습니다. 그러나 프로덕션 배포에서는 Red Hat Ceph Storage 하드웨어 선택 가이드에 따라 지원되도록 더 많은 노드와 더 많은 OSD를 사용해야 합니다.
6.1. CRUSH 맵 만들기
CRUSH 맵을 사용하면 OSD 노드를 CRUSH 루트에 배치할 수 있습니다. 기본적으로 "default" root가 생성되고 모든 OSD 노드가 포함됩니다.
지정된 루트 내에서 물리적 토폴로지, 랙, 방 등을 정의한 다음 OSD 노드를 원하는 계층 구조(또는 버킷)에 배치합니다. 기본적으로 물리적 토폴로지는 정의되어 있지 않습니다. 플랫 설계는 모든 노드가 동일한 랙에 있는 것처럼 가정됩니다.
사용자 지정 CRUSH 맵을 만드는 방법에 대한 자세한 내용은 스토리지 전략 가이드의 Crush Administration in the Storage Strategies Guide 를 참조하십시오.