2.5. Ceph Orchestrator를 사용한 MDS 서비스 관리
스토리지 관리자는 백엔드의 Cephadm과 함께 Ceph Orchestrator를 사용하여 MDS 서비스를 배포할 수 있습니다. 기본적으로 Ceph 파일 시스템(CephFS)은 하나의 활성 MDS 데몬만 사용합니다. 그러나 클라이언트가 많은 시스템은 여러 활성 MDS 데몬을 활용할 수 있습니다.
이 섹션에서는 다음 관리 작업에 대해 설명합니다.
사전 요구 사항
- 실행 중인 Red Hat Ceph Storage 클러스터.
- 모든 노드에 대한 루트 수준 액세스.
- 호스트가 클러스터에 추가됩니다.
- 모든 manager, monitor, OSD 데몬이 배포됩니다.
2.5.1. 명령줄 인터페이스를 사용하여 MDS 서비스 배포
Ceph Orchestrator를 사용하면 명령줄 인터페이스의 배치
사양을 사용하여 메타데이터 서버(MDS) 서비스를 배포할 수 있습니다. Ceph 파일 시스템(CephFS)에는 하나 이상의 MDS가 필요합니다.
Ceph 파일 시스템(CephFS) 데이터용 풀과 CephFS 메타데이터용 풀이 두 개 이상 있어야 합니다.
사전 요구 사항
- 실행 중인 Red Hat Ceph Storage 클러스터.
- 호스트가 클러스터에 추가됩니다.
- 모든 manager, monitor, OSD 데몬이 배포됩니다.
절차
Cephadm 쉘에 로그인합니다.
예제
[root@host01 ~]# cephadm shell
- 배치 사양을 사용하여 MDS 데몬을 배포하는 방법은 다음 두 가지가 있습니다.
방법 1
ceph fs 볼륨을
사용하여 MDS 데몬을 생성합니다. 이렇게 하면 CephFS와 연결된 CephFS 볼륨 및 풀이 생성되고 호스트에서 MDS 서비스도 시작합니다.구문
ceph fs volume create FILESYSTEM_NAME --placement="NUMBER_OF_DAEMONS HOST_NAME_1 HOST_NAME_2 HOST_NAME_3"
참고기본적으로 이 명령에 대해 복제된 풀이 생성됩니다.
예제
[ceph: root@host01 /]# ceph fs volume create test --placement="2 host01 host02"
방법 2
풀, CephFS를 생성한 다음 배치 사양을 사용하여 MDS 서비스를 배포합니다.
CephFS의 풀을 생성합니다.
구문
ceph osd pool create DATA_POOL [PG_NUM] ceph osd pool create METADATA_POOL [PG_NUM]
예제
[ceph: root@host01 /]# ceph osd pool create cephfs_data 64 [ceph: root@host01 /]# ceph osd pool create cephfs_metadata 64
일반적으로 메타데이터 풀은 일반적으로 데이터 풀보다 오브젝트 수가 훨씬 적기 때문에 보수적인 수의 PG(배치 그룹)로 시작할 수 있습니다. 필요한 경우 PG 수를 늘릴 수 있습니다. 풀 크기는 64개의 PG에서 512 PG 사이입니다. 데이터 풀의 크기는 파일 시스템에서 예상되는 파일의 수 및 크기에 비례합니다.
중요메타데이터 풀의 경우 다음을 사용하십시오.
- 이 풀에 대한 데이터가 손실되어 전체 파일 시스템에 액세스할 수 없기 때문에 복제 수준이 높습니다.
- 클라이언트에서 파일 시스템 작업의 관찰된 대기 시간에 직접적인 영향을 미치기 때문에 SSD(Solid-State Drive) 디스크와 같은 대기 시간이 짧은 스토리지입니다.
데이터 풀 및 메타데이터 풀용 파일 시스템을 생성합니다.
구문
ceph fs new FILESYSTEM_NAME METADATA_POOL DATA_POOL
예제
[ceph: root@host01 /]# ceph fs new test cephfs_metadata cephfs_data
ceph orch apply
명령을 사용하여 MDS 서비스를 배포합니다.구문
ceph orch apply mds FILESYSTEM_NAME --placement="NUMBER_OF_DAEMONS HOST_NAME_1 HOST_NAME_2 HOST_NAME_3"
예제
[ceph: root@host01 /]# ceph orch apply mds test --placement="2 host01 host02"
검증
서비스를 나열합니다.
예제
[ceph: root@host01 /]# ceph orch ls
CephFS 상태를 확인합니다.
예제
[ceph: root@host01 /]# ceph fs ls [ceph: root@host01 /]# ceph fs status
호스트, 데몬 및 프로세스를 나열합니다.
구문
ceph orch ps --daemon_type=DAEMON_NAME
예제
[ceph: root@host01 /]# ceph orch ps --daemon_type=mds
추가 리소스
- Ceph 파일 시스템(CephFS) 생성에 대한 자세한 내용은 Red Hat Ceph Storage 파일 시스템 가이드를 참조하십시오.
- 풀 값을 설정하는 방법에 대한 자세한 내용은 풀에서 배치 그룹 수 설정을 참조하십시오.
2.5.2. 서비스 사양을 사용하여 MDS 서비스 배포
Ceph Orchestrator를 사용하면 서비스 사양을 사용하여 MDS 서비스를 배포할 수 있습니다.
Ceph File System(CephFS) 데이터용 풀과 CephFS 메타데이터용 풀이 두 개 이상 있어야 합니다.
사전 요구 사항
- 실행 중인 Red Hat Ceph Storage 클러스터.
- 호스트가 클러스터에 추가됩니다.
- 모든 manager, monitor, OSD 데몬이 배포됩니다.
절차
mds.yaml
파일을 생성합니다.예제
[root@host01 ~]# touch mds.yaml
다음 세부 정보를 포함하도록
mds.yaml
파일을 편집합니다.구문
service_type: mds service_id: FILESYSTEM_NAME placement: hosts: - HOST_NAME_1 - HOST_NAME_2 - HOST_NAME_3
예제
service_type: mds service_id: fs_name placement: hosts: - host01 - host02
컨테이너의 디렉터리 아래에 YAML 파일을 마운트합니다.
예제
[root@host01 ~]# cephadm shell --mount mds.yaml:/var/lib/ceph/mds/mds.yaml
디렉터리로 이동합니다.
예제
[ceph: root@host01 /]# cd /var/lib/ceph/mds/
Cephadm 쉘에 로그인합니다.
예제
[root@host01 ~]# cephadm shell
다음 디렉터리로 이동합니다.
예제
[ceph: root@host01 /]# cd /var/lib/ceph/mds/
서비스 사양을 사용하여 MDS 서비스를 배포합니다.
구문
ceph orch apply -i FILE_NAME.yaml
예제
[ceph: root@host01 mds]# ceph orch apply -i mds.yaml
MDS 서비스가 배포 및 작동하려면 CephFS를 생성합니다.
구문
ceph fs new CEPHFS_NAME METADATA_POOL DATA_POOL
예제
[ceph: root@host01 /]# ceph fs new test metadata_pool data_pool
검증
서비스를 나열합니다.
예제
[ceph: root@host01 /]# ceph orch ls
호스트, 데몬 및 프로세스를 나열합니다.
구문
ceph orch ps --daemon_type=DAEMON_NAME
예제
[ceph: root@host01 /]# ceph orch ps --daemon_type=mds
2.5.3. Ceph Orchestrator를 사용하여 MDS 서비스 제거
ceph orch rm
명령을 사용하여 서비스를 제거할 수 있습니다. 또는 파일 시스템 및 관련 풀을 제거할 수 있습니다.
사전 요구 사항
- 실행 중인 Red Hat Ceph Storage 클러스터.
- 모든 노드에 대한 루트 수준 액세스.
- 호스트가 클러스터에 추가됩니다.
- 호스트에 배포된 하나 이상의 MDS 데몬입니다.
절차
- 클러스터에서 MDS 데몬을 제거하는 방법에는 두 가지가 있습니다.
방법 1
CephFS 볼륨, 관련 풀 및 서비스를 제거합니다.
Cephadm 쉘에 로그인합니다.
예제
[root@host01 ~]# cephadm shell
설정 매개변수
mon_allow_pool_delete
를true
로 설정합니다.예제
[ceph: root@host01 /]# ceph config set mon mon_allow_pool_delete true
파일 시스템을 제거합니다.
구문
ceph fs volume rm FILESYSTEM_NAME --yes-i-really-mean-it
예제
[ceph: root@host01 /]# ceph fs volume rm cephfs-new --yes-i-really-mean-it
이 명령은 파일 시스템, 해당 데이터 및 메타데이터 풀을 제거합니다. 또한 활성화된
ceph-mgr
Orchestrator 모듈을 사용하여 MDS를 제거하려고 합니다.
방법 2
ceph orch rm
명령을 사용하여 전체 클러스터에서 MDS 서비스를 제거합니다.서비스를 나열합니다.
예제
[ceph: root@host01 /]# ceph orch ls
서비스 제거
구문
ceph orch rm SERVICE_NAME
예제
[ceph: root@host01 /]# ceph orch rm mds.test
검증
호스트, 데몬 및 프로세스를 나열합니다.
구문
ceph orch ps
예제
[ceph: root@host01 /]# ceph orch ps
추가 리소스
- 자세한 내용은 Red Hat Ceph Storage Operations Guide 의 명령줄 인터페이스 섹션을 사용하여 MDS 서비스 배포를 참조하십시오.
- 자세한 내용은 Red Hat Ceph Storage 운영 가이드 의 서비스 사양을 사용하여 MDS 서비스 배포를 참조하십시오.