9장. Ceph Orchestrator를 사용하여 MDS 서비스 관리
스토리지 관리자는 백엔드에서 Cephadm과 함께 Ceph Orchestrator를 사용하여 MDS 서비스를 배포할 수 있습니다. 기본적으로 Ceph 파일 시스템(CephFS)은 활성 MDS 데몬을 하나만 사용합니다. 그러나 많은 클라이언트가 있는 시스템은 여러 활성 MDS 데몬의 이점을 활용할 수 있습니다.
이 섹션에서는 다음 관리 작업에 대해 설명합니다.
사전 요구 사항
- 실행 중인 Red Hat Ceph Storage 클러스터.
- 모든 노드에 대한 루트 수준 액세스.
- 호스트가 클러스터에 추가됩니다.
- 모든 manager, monitor 및 OSD 데몬이 배포됩니다.
9.1. 명령줄 인터페이스를 사용하여 MDS 서비스 배포
Ceph Orchestrator를 사용하여 명령줄 인터페이스의 배치
사양을 사용하여 Metadata Server(MDS) 서비스를 배포할 수 있습니다. Ceph 파일 시스템(CephFS)에는 하나 이상의 MDS가 필요합니다.
Ceph 파일 시스템(CephFS) 데이터 및 CephFS 메타데이터에 대해 하나 이상의 풀이 있는지 확인합니다.
사전 요구 사항
- 실행 중인 Red Hat Ceph Storage 클러스터.
- 호스트가 클러스터에 추가됩니다.
- 모든 manager, monitor, OSD 데몬이 배포됩니다.
프로세스
Cephadm 쉘에 로그인합니다.
예
[root@host01 ~]# cephadm shell
- 배치 사양을 사용하여 MDS 데몬을 배포하는 방법은 다음 두 가지가 있습니다.
방법 1
ceph fs 볼륨을
사용하여 MDS 데몬을 생성합니다. 이렇게 하면 CephFS와 연결된 CephFS 볼륨 및 풀이 생성되고 호스트에서 MDS 서비스도 시작됩니다.구문
ceph fs volume create FILESYSTEM_NAME --placement="NUMBER_OF_DAEMONS HOST_NAME_1 HOST_NAME_2 HOST_NAME_3"
참고기본적으로 이 명령에 대해 복제된 풀이 생성됩니다.
예제
[ceph: root@host01 /]# ceph fs volume create test --placement="2 host01 host02"
방법 2
pool, CephFS를 생성한 다음 배치 사양을 사용하여 MDS 서비스를 배포합니다.
CephFS의 풀을 생성합니다.
구문
ceph osd pool create DATA_POOL [PG_NUM] ceph osd pool create METADATA_POOL [PG_NUM]
예제
[ceph: root@host01 /]# ceph osd pool create cephfs_data 64 [ceph: root@host01 /]# ceph osd pool create cephfs_metadata 64
일반적으로 메타데이터 풀은 일반적으로 데이터 풀보다 오브젝트 수가 훨씬 적기 때문에 보수적인 수의 PG(배치 그룹)로 시작할 수 있습니다. 필요한 경우 PG 수를 늘릴 수 있습니다. 풀 크기는 64개의 PG에서 512 PG 사이입니다. 데이터 풀의 크기는 파일 시스템에서 예상되는 파일의 수 및 크기에 비례합니다.
중요메타데이터 풀의 경우 다음을 사용하십시오.
- 이 풀에 대한 데이터가 손실되어 전체 파일 시스템에 액세스할 수 없기 때문에 복제 수준이 높습니다.
- 클라이언트에서 파일 시스템 작업의 관찰된 대기 시간에 직접적인 영향을 미치기 때문에 SSD(Solid-State Drive) 디스크와 같은 대기 시간이 짧은 스토리지입니다.
데이터 풀 및 메타데이터 풀에 대한 파일 시스템을 생성합니다.
구문
ceph fs new FILESYSTEM_NAME METADATA_POOL DATA_POOL
예제
[ceph: root@host01 /]# ceph fs new test cephfs_metadata cephfs_data
ceph orch apply
명령을 사용하여 MDS 서비스를 배포합니다.구문
ceph orch apply mds FILESYSTEM_NAME --placement="NUMBER_OF_DAEMONS HOST_NAME_1 HOST_NAME_2 HOST_NAME_3"
예제
[ceph: root@host01 /]# ceph orch apply mds test --placement="2 host01 host02"
검증
서비스를 나열합니다.
예제
[ceph: root@host01 /]# ceph orch ls
CephFS 상태를 확인합니다.
예제
[ceph: root@host01 /]# ceph fs ls [ceph: root@host01 /]# ceph fs status
호스트, 데몬 및 프로세스를 나열합니다.
구문
ceph orch ps --daemon_type=DAEMON_NAME
예제
[ceph: root@host01 /]# ceph orch ps --daemon_type=mds
추가 리소스
- Ceph 파일 시스템(CephFS) 생성에 대한 자세한 내용은 Red Hat Ceph Storage 파일 시스템 가이드를 참조하십시오.
- 풀 값을 설정하는 방법에 대한 자세한 내용은 풀에서 배치 그룹 수 설정을 참조하십시오.