5.8. 데이터 풀 추가
Ceph 파일 시스템(CephFS)은 데이터 저장에 사용할 풀을 두 개 이상 추가할 수 있도록 지원합니다. 이는 다음을 위해 유용할 수 있습니다.
- 축소된 중복 풀에 로그 데이터를 저장합니다.
- SSD 또는 NVMe 풀에 사용자 홈 디렉터리 저장
- 기본 데이터 분리.
Ceph 파일 시스템에서 다른 데이터 풀을 사용하기 전에 이 섹션에 설명된 대로 추가해야 합니다.
기본적으로 CephFS는 파일 데이터를 저장하기 위해 생성 중에 지정된 초기 데이터 풀을 사용합니다. 보조 데이터 풀을 사용하려면 파일 및 디렉터리 레이아웃을 사용하여 해당 풀 또는 해당 풀의 네임스페이스 내에서 파일 데이터를 저장하도록 파일 시스템 계층 구조의 일부도 구성해야 합니다.
사전 요구 사항
- Ceph 모니터 노드에 대한 루트 수준 액세스.
절차
새 데이터 풀을 생성합니다.
구문
ceph osd pool create POOL_NAME
교체:
-
풀 이름이 있는
POOL_NAME
.
예제
[ceph: root@host01 /]# ceph osd pool create cephfs_data_ssd pool 'cephfs_data_ssd' created
-
풀 이름이 있는
메타데이터 서버의 제어 아래에 새로 생성된 풀을 추가합니다.
구문
ceph fs add_data_pool FS_NAME POOL_NAME
교체:
-
파일 시스템 이름이 있는
FS_NAME
. -
풀 이름이 있는
POOL_NAME
.
예제:
[ceph: root@host01 /]# ceph fs add_data_pool cephfs cephfs_data_ssd added data pool 6 to fsmap
-
파일 시스템 이름이 있는
풀이 성공적으로 추가되었는지 확인합니다.
예제
[ceph: root@host01 /]# ceph fs ls name: cephfs, metadata pool: cephfs_metadata, data pools: [cephfs.cephfs.data cephfs_data_ssd]
선택 사항: 파일 시스템에서 데이터 풀을 제거합니다.
구문
ceph fs rm_data_pool FS_NAME POOL_NAME
예제:
[ceph: root@host01 /]# ceph fs rm_data_pool cephfs cephfs_data_ssd removed data pool 6 from fsmap
풀이 성공적으로 제거되었는지 확인합니다.
예제
[ceph: root@host01 /]# ceph fs ls name: cephfs, metadata pool: cephfs_metadata, data pools: [cephfs.cephfs.data]
-
cephx
인증을 사용하는 경우 클라이언트가 새 풀에 액세스할 수 있는지 확인합니다.
추가 리소스
- 자세한 내용은 Red Hat Ceph Storage File System 가이드의 파일 및 디렉터리 레이아웃 섹션을 참조하십시오.
- 자세한 내용은 Red Hat Ceph Storage File System 가이드의 Ceph파일 시스템용 클라이언트 사용자 생성 섹션을 참조하십시오.