5.2. Ceph Storage 노드 디스크 레이아웃 매핑
컨테이너화된 Ceph Storage를 배포할 때 디스크 레이아웃을 매핑하고 Ceph OSD 서비스의 전용 블록 장치를 지정해야 합니다. 이전에 생성한 환경 파일에서 이 매핑을 수행하여 사용자 지정 Ceph 매개변수인 /home/stack/templates/ceph-config.yaml
을 정의할 수 있습니다.
parameter_defaults
에서 CephAnsibleDisksConfig
리소스를 사용하여 디스크 레이아웃을 매핑합니다. 이 리소스는 다음 변수를 사용합니다.
변수 | 필수 여부 | 기본값(설정이 설정되지 않은 경우) | 설명 |
---|---|---|---|
osd_scenario | 있음 | lvm
참고: Ceph 3.2 이상을 사용하는 새 배포의 경우 |
Ceph 3.2에서 Ceph 3.1에서 값은 OSD를 생성하여 다음 중 하나를 사용하여 OSD를 생성해야 하는지와 같은 저널링 시나리오를 설정합니다.
- 파일 저장( col placed )에 대해
- filestore 전용 장치에 저장 |
devices | 있음 | NONE. 변수를 설정해야 합니다. | OSD용으로 노드에서 사용할 블록 장치 목록입니다. |
dedicated_devices |
예 ( | devices |
장치 아래의 각 항목을 전용 저널링 블록 장치에 매핑하는 블록 장치 목록입니다. |
dmcrypt | 없음 | false |
OSD에 저장된 데이터가 암호화되었는지( |
osd_objectstore | 없음 | bluestore
참고: Ceph 3.2 이상을 사용하는 새 배포의 경우 | Ceph에서 사용하는 스토리지 백엔드를 설정합니다. |
3.3 이전 버전의 ceph-ansible
을 사용하고 osd_scenario
가 col placed 또는 non-
l placed 로 설정된 경우 장치 이름 지정 불일치로 인해 OSD 재부팅 오류가 발생할 수 있습니다. 이 오류에 대한 자세한 내용은 https://bugzilla.redhat.com/show_bug.cgi?id=1670734 을 참조하십시오. 해결 방법에 대한 자세한 내용은 https://access.redhat.com/solutions/3702681 을 참조하십시오.
co
5.2.1. Ceph 3.2 이상에서 BlueStore 사용
OpenStack Platform 13의 새로운 배포는 bluestore를 사용해야 합니다
. filestore
를 사용하는 현재
배포는 Ceph 3.1 이하에서 FileStore 사용에 설명된 대로 filestore를 계속 사용해야 합니다. filestore에서 bluestore 로
의 마이그레이션
은 RHCS 3.x에서 기본적으로 지원되지 않습니다.
절차
Ceph OSD로 사용할 블록 장치를 지정하려면 다음과 같은 변형을 사용합니다.
parameter_defaults: CephAnsibleDisksConfig: devices: - /dev/sdb - /dev/sdc - /dev/sdd - /dev/nvme0n1 osd_scenario: lvm osd_objectstore: bluestore
/dev/nvme0n1
은 더 높은 성능의 장치 클래스입니다. 다른 장치는 SSD이며, 예제 매개 변수 기본값은/dev/sdb
,/dev/sdc
및/dev/sdd
에서 실행되는 OSD 3개를 생성합니다. 3개의 OSD는/dev/nvme0n1
을 BlueStore WAL 장치로 사용합니다. ceph-volume 툴은batch
하위 명령을 사용하여 이 작업을 수행합니다. 각 Ceph 스토리지 노드에 대해 동일한 구성이 복제되며 균일한 하드웨어라고 가정합니다. BlueStore WAL 데이터가 OSD와 동일한 디스크에 있는 경우 다음과 같은 방법으로 매개변수 기본값을 변경합니다.parameter_defaults: CephAnsibleDisksConfig: devices: - /dev/sdb - /dev/sdc - /dev/sdd osd_scenario: lvm osd_objectstore: bluestore