6장. NFS 클러스터 및 내보내기 관리
스토리지 관리자는 NFS 클러스터를 생성하고 사용자 지정하고 NFS 프로토콜을 통해 Ceph 파일 시스템 네임스페이스를 내보낼 수 있습니다.
사전 요구 사항
- 실행 중이고 정상적인 Red Hat Ceph Storage 클러스터입니다.
-
Ceph Metadata Server 데몬(
ceph-mds
)의 설치 및 구성. - Ceph 파일 시스템을 생성하고 마운트합니다.
6.1. NFS 클러스터 생성
nfs cluster create
명령을 사용하여 NFS 클러스터를 생성합니다. 이렇게 하면 모든 NFS Ganesha 데몬에 대한 공통 복구 풀, 클러스터 이름을 기반으로 하는 새 사용자, 일반적인 NFS Ganesha 구성 RADOS 오브젝트가 생성됩니다.
사전 요구 사항
- 실행 중이고 정상적인 Red Hat Ceph Storage 클러스터입니다.
- 기존 Ceph 파일 시스템.
- Ceph 모니터에 대한 루트 수준 액세스.
-
Ceph Manager 호스트에
nfs-ganesha
,nfs-ganesha-rados-grace
,nfs-ganesha-rados-urls
패키지를 설치합니다. - 클라이언트에 대한 루트 수준 액세스.
프로세스
Cephadm 쉘에 로그인합니다.
예
[root@mds ~]# cephadm shell
Ceph Manager NFS 모듈을 활성화합니다.
예
[ceph: root@host01 /]# ceph mgr module enable nfs
NFS Ganesha 클러스터를 생성합니다.
구문
ceph nfs cluster create CLUSTER_NAME [PLACEMENT] [--ingress] [--virtual_ip IP_ADDRESS] [--ingress-mode {default|keepalive-only|haproxy-standard|haproxy-protocol}] [--port PORT]
예
[ceph: root@host01 /]# ceph nfs cluster create nfs-cephfs "host01 host02" NFS Cluster Created Successfully
이 예에서 NFS Ganesha 클러스터 이름은
nfs-cephfs
이고 데몬 컨테이너는host01
및host02
에 배포됩니다.중요Red Hat은 호스트당 실행되는 하나의 NFS Ganesha 데몬만 지원합니다.
NFS Ganesha 클러스터 정보를 확인합니다.
구문
ceph nfs cluster info [CLUSTER_NAME]
예
[ceph: root@host01 /]# ceph nfs cluster info nfs-cephfs { "nfs-cephfs": [ { "hostname": "host01", "ip": "10.74.179.124", "port": 2049 }, { "hostname": "host02", "ip": "10.74.180.160", "port": 2049 } ] }
참고CLUSTER_NAME 을 지정하는 것은 선택 사항입니다.