5.7. 데이터 풀 추가
Ceph 파일 시스템(CephFS)은 데이터를 저장하는 데 사용할 두 개 이상의 풀 추가를 지원합니다. 이 기능은 다음에 유용할 수 있습니다.
- 중복 풀 감소에 로그 데이터 저장.
- SSD 또는 NVMe 풀에 사용자 홈 디렉터리 저장.
- 기본 데이터 분리.
Ceph 파일 시스템에서 다른 데이터 풀을 사용하기 전에 이 섹션에 설명된 대로 추가해야 합니다.
기본적으로 CephFS는 파일 데이터를 저장하기 위해 생성 중에 지정된 초기 데이터 풀을 사용합니다. 보조 데이터 풀을 사용하려면 파일 및 디렉터리 레이아웃을 사용하여 해당 풀의 네임스페이스 또는 선택적으로 해당 풀에 파일 데이터를 저장하도록 파일 시스템 계층 구조의 일부를 구성해야 합니다.
사전 요구 사항
- Ceph Monitor 노드에 대한 루트 수준 액세스.
프로세스
새 데이터 풀을 생성합니다.
구문
ceph osd pool create POOL_NAME
교체:
-
POOL_NAME
(풀 이름)입니다.
예
[ceph: root@host01 /]# ceph osd pool create cephfs_data_ssd pool 'cephfs_data_ssd' created
-
메타데이터 서버 제어 아래에 새로 생성된 풀을 추가합니다.
구문
ceph fs add_data_pool FS_NAME POOL_NAME
교체:
-
FS_NAME
파일 시스템의 이름입니다. -
POOL_NAME
(풀 이름)입니다.
예제:
[ceph: root@host01 /]# ceph fs add_data_pool cephfs cephfs_data_ssd added data pool 6 to fsmap
-
풀이 성공적으로 추가되었는지 확인합니다.
예
[ceph: root@host01 /]# ceph fs ls name: cephfs, metadata pool: cephfs_metadata, data pools: [cephfs_data cephfs_data_ssd]
선택 사항: 파일 시스템에서 데이터 풀을 제거합니다.
구문
ceph fs rm_data_pool FS_NAME POOL_NAME
예제:
[ceph: root@host01 /]# ceph fs rm_data_pool cephfs cephfs_data_ssd removed data pool 6 from fsmap
풀이 성공적으로 제거되었는지 확인합니다.
예
[ceph: root@host01 /]# ceph fs ls name: cephfs, metadata pool: cephfs_metadata, data pools: [cephfs.cephfs.data]
-
cephx
인증을 사용하는 경우 클라이언트가 새 풀에 액세스할 수 있는지 확인합니다.
추가 리소스
- 자세한 내용은 Red Hat Ceph Storage 파일 시스템 가이드의 파일및 디렉터리 레이아웃 섹션을 참조하십시오.
- 자세한 내용은 Red Hat Ceph Storage 파일 시스템 가이드의 Ceph 파일시스템용 클라이언트 사용자 생성 섹션을 참조하십시오.