3.3. Ceph 파일 시스템 생성
Ceph Monitor 노드에 Ceph 파일 시스템(CephFS)을 생성할 수 있습니다.
기본적으로 Ceph Storage 클러스터당 하나의 CephFS만 생성할 수 있습니다.
사전 요구 사항
- 실행 중이고 정상적인 Red Hat Ceph Storage 클러스터.
-
Ceph Metadata Server 데몬(
ceph-mds
)의 설치 및 구성. - Ceph 모니터 노드에 대한 루트 수준 액세스.
절차
두 개의 풀, 즉 데이터를 저장하기 위한 풀과 메타데이터를 저장하기 위한 풀을 생성합니다.
구문
ceph osd pool create NAME _PG_NUM
ceph osd pool create NAME _PG_NUM
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 예제
ceph osd pool create cephfs_data 64 ceph osd pool create cephfs_metadata 64
[root@mon ~]# ceph osd pool create cephfs_data 64 [root@mon ~]# ceph osd pool create cephfs_metadata 64
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 일반적으로 메타데이터 풀은 일반적으로 데이터 풀보다 훨씬 적은 수의 배치 그룹(PG)으로 시작할 수 있습니다. 필요한 경우 PG 수를 늘릴 수 있습니다. 권장되는 메타데이터 풀 범위는 64 PG에서 512 PG까지입니다. 데이터 풀의 크기는 파일 시스템에서 예상하는 파일의 수와 크기에 비례합니다.
중요메타데이터 풀의 경우 다음을 사용합니다.
- 이 풀에 대한 데이터가 손실되어 전체 파일 시스템에 액세스할 수 없기 때문에 복제 수준이 높아집니다.
- SSD(Solid-State Drive) 디스크와 같은 대기 시간이 짧은 스토리지가 클라이언트의 파일 시스템 작업 대기 시간에 직접 영향을 미치기 때문입니다.
CephFS를 생성합니다.
구문
ceph fs new NAME METADATA_POOL DATA_POOL
ceph fs new NAME METADATA_POOL DATA_POOL
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 예제
ceph fs new cephfs cephfs_metadata cephfs_data
[root@mon ~]# ceph fs new cephfs cephfs_metadata cephfs_data
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 하나 이상의 MDS가 구성에 따라 활성 상태로 전환되는지 확인합니다.
구문
ceph fs status NAME
ceph fs status NAME
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 예제
Copy to Clipboard Copied! Toggle word wrap Toggle overflow
추가 리소스
- 자세한 내용은 Red Hat Ceph Storage 설치 가이드의 Red Hat Ceph Storage 리포지토리 활성화 섹션을 참조하십시오.
- 자세한 내용은 Red Hat Ceph Storage Storage Strategies Guide 의 풀 장을 참조하십시오.
- Ceph 파일 시스템 제한에 대한 자세한 내용은 Red Hat Ceph Storage 파일 시스템 가이드 의 Ceph 파일 시스템 섹션을 참조하십시오.
- Red Hat Ceph Storage 설치에 대한 자세한 내용은 Red Hat Ceph Storage 설치 가이드 를 참조하십시오.
- 자세한 내용은 Red Hat Ceph Storage 설치 가이드에서 메타데이터 서버 설치를 참조하십시오.