파일 시스템 가이드


Red Hat Ceph Storage 5

Ceph 파일 시스템 구성 및 마운트

Red Hat Ceph Storage Documentation Team

초록

이 가이드에서는 Ceph 메타데이터 서버(MDS)를 구성하는 방법과 Ceph File System(CephFS)을 생성, 마운트 및 작업하는 방법을 설명합니다.
Red Hat은 코드, 문서, 웹 속성에서 문제가 있는 용어를 교체하기 위해 최선을 다하고 있습니다. 먼저 마스터(master), 슬레이브(slave), 블랙리스트(blacklist), 화이트리스트(whitelist) 등 네 가지 용어를 교체하고 있습니다. 이러한 변경 작업은 작업 범위가 크므로 향후 여러 릴리스에 걸쳐 점차 구현할 예정입니다. 자세한 내용은 CTO Chris Wright의 메시지에서 참조하십시오.

1장. Ceph 파일 시스템 소개

스토리지 관리자는 Ceph 파일 시스템(CephFS) 환경을 관리하기 위한 기능, 시스템 구성 요소 및 제한 사항을 이해할 수 있습니다.

1.1. Ceph 파일 시스템 기능 및 개선 사항

Ceph 파일 시스템(CephFS)은 Ceph의 분산 개체 저장소(Reliable Autonomic Distributed Object Storage)를 기반으로 구축된 POSIX 표준과 호환되는 파일 시스템입니다. CephFS는 Red Hat Ceph Storage 클러스터에 대한 파일 액세스를 제공하며 가능한 경우 POSIX 의미 체계를 사용합니다. 예를 들어, NFS와 같은 다른 여러 네트워크 파일 시스템과 달리 CephFS는 클라이언트 간에 강력한 캐시 일관성을 유지합니다. 목표는 파일 시스템을 사용하는 프로세스가 동일한 호스트에 있을 때와 다른 호스트에 있을 때와 동일하게 동작하는 것입니다. 그러나 CephFS는 엄격한 POSIX 의미 체계와 다를 수 있습니다.

Ceph 파일 시스템에는 다음과 같은 기능과 향상된 기능이 있습니다.

확장성
Ceph 파일 시스템은 메타데이터 서버의 수평적 확장 및 개별 OSD 노드에서 직접 클라이언트의 읽기 및 쓰기로 인해 확장성이 높습니다.
공유 파일 시스템
Ceph 파일 시스템은 공유 파일 시스템이므로 여러 클라이언트가 한 번에 동일한 파일 시스템에서 작업할 수 있습니다.
다중 파일 시스템
Red Hat Ceph Storage 5부터는 하나의 스토리지 클러스터에 여러 개의 파일 시스템을 활성화할 수 있습니다. 각 CephFS에는 고유한 풀 세트와 자체 메타데이터 서버(MDS)가 있습니다. 여러 파일 시스템을 배포할 때 더 많은 실행 중인 MDS 데몬이 필요합니다. 이를 통해 메타데이터 처리량이 증가할 수 있지만 운영 비용도 증가합니다. 특정 파일 시스템에 대한 클라이언트 액세스를 제한할 수도 있습니다.
고가용성
Ceph 파일 시스템은 Ceph 메타데이터 서버(MDS) 클러스터를 제공합니다. 하나는 활성 상태이고 다른 하나는 대기 모드입니다. 활성 MDS가 예기치 않게 종료되면 대기 MDS 중 하나가 활성화됩니다. 결과적으로 클라이언트 마운트는 서버 오류를 통해 계속 작동합니다. 이 동작은 Ceph 파일 시스템을 고가용성으로 만듭니다. 또한 여러 활성 메타데이터 서버를 구성할 수 있습니다.
구성 가능한 파일 및 디렉토리 레이아웃
Ceph 파일 시스템을 사용하면 개체 간에 여러 풀, 풀 네임스페이스 및 파일 스트라이핑 모드를 사용하도록 파일과 디렉터리 레이아웃을 구성할 수 있습니다.
POSIX ACL(액세스 제어 목록)
Ceph 파일 시스템은 POSIX ACL(액세스 제어 목록)을 지원합니다. ACL은 커널 버전 kernel-3.10.0-327.18.2.el7 이상을 사용하여 커널 클라이언트로 마운트된 Ceph 파일 시스템에서 기본적으로 활성화됩니다. FUSE 클라이언트로 마운트된 Ceph File Systems에서 ACL을 사용하려면 활성화해야 합니다.
클라이언트 할당량
Ceph 파일 시스템은 시스템의 모든 디렉터리에서 할당량 설정을 지원합니다. 할당량은 디렉토리 계층 구조에서 해당 지점 아래에 저장된 파일 수를 제한할 수 있습니다. CephFS 클라이언트 할당량은 기본적으로 활성화되어 있습니다.
중요

CephFS EC 풀은 아카이브 목적으로만 사용됩니다.

추가 리소스

1.2. Ceph 파일 시스템 구성 요소

Ceph 파일 시스템에는 다음 두 가지 기본 구성 요소가 있습니다.

클라이언트
CephFS 클라이언트는 FUSE 클라이언트용 ceph-fuse 및 커널 클라이언트의 경우 kcephfs 와 같은 CephFS를 사용하여 애플리케이션을 대신하여 I/O 작업을 수행합니다. CephFS 클라이언트는 활성 메타데이터 서버에 메타데이터 요청을 보냅니다. 대신 CephFS 클라이언트는 파일 메타데이터를 학습하고 메타데이터와 파일 데이터를 안전하게 캐싱할 수 있습니다.
메타데이터 서버(MDS)

MDS는 다음을 수행합니다.

  • CephFS 클라이언트에 메타데이터를 제공합니다.
  • Ceph 파일 시스템에 저장된 파일과 관련된 메타데이터를 관리합니다.
  • 공유 Red Hat Ceph Storage 클러스터에 대한 액세스를 조정합니다.
  • 핫 메타데이터를 캐시하여 백업 메타데이터 풀 저장소에 대한 요청을 줄입니다.
  • 캐시 일관성을 유지하기 위해 CephFS 클라이언트의 캐시를 관리합니다.
  • 활성 MDS 간에 핫 메타데이터를 복제합니다.
  • Coales는 메타데이터 변경 사항을 백업 메타데이터 풀에 정기적으로 플러시하여 작은 저널로 바꿉니다.
  • CephFS를 실행하려면 하나 이상의 메타데이터 서버 데몬(ceph-mds)이 필요합니다.

아래 다이어그램은 Ceph 파일 시스템의 구성 요소 계층을 보여줍니다.

157 Ceph 파일 시스템 1021 2

하단 계층은 기본 핵심 스토리지 클러스터 구성 요소를 나타냅니다.

  • Ceph 파일 시스템 데이터 및 메타데이터가 저장되는 Ceph OSD(ceph-osd).
  • Ceph 파일 시스템 메타데이터를 관리하는 Ceph 메타데이터 서버(ceph-mds).
  • 클러스터 맵의 마스터 복사본을 관리하는 Ceph 모니터(ceph-mon).

Ceph Storage 프로토콜 계층은 핵심 스토리지 클러스터와 상호 작용하기 위한 Ceph 네이티브 라이브러리입니다.

CephFS 라이브러리 계층에는 librados 에서 작동하고 Ceph 파일 시스템을 나타내는 CephFS libcephfs 라이브러리가 포함되어 있습니다.

최상위 계층은 Ceph 파일 시스템에 액세스할 수 있는 두 가지 유형의 Ceph 클라이언트를 나타냅니다.

아래 다이어그램은 Ceph 파일 시스템 구성 요소가 서로 상호 작용하는 방법에 대한 자세한 내용을 보여줍니다.

157 Ceph 파일 시스템 1021 1

추가 리소스

1.3. Ceph 파일 시스템 및 SELinux

Red Hat Enterprise Linux 8.3 및 Red Hat Ceph Storage 4.2부터 Ceph 파일 시스템(CephFS) 환경에서 SELinux(Security-Enhanced Linux) 사용 지원이 제공됩니다. 이제 CephFS를 사용하여 SELinux 파일 유형을 개별 파일에 특정 SELinux 유형을 할당할 수 있습니다. 이 지원은 Ceph File System Metadata Server(MDS), CephFS File System in User Space(FUSE) 클라이언트 및 CephFS 커널 클라이언트에 적용됩니다.

추가 리소스

  • SELinux에 대한 자세한 내용은 Using SELinux on Red Hat Enterprise Linux 8에서 참조하십시오.

1.4. Ceph 파일 시스템 제한 사항 및 POSIX 표준

Ceph 파일 시스템은 다음과 같은 방식으로 엄격한 POSIX 의미 체계와 다를 수 있습니다.

  • 클라이언트의 파일 쓰기 시도가 실패하면 쓰기 작업이 반드시 원자성인 것은 아닙니다. 즉, 클라이언트는 8MB 버퍼를 사용하여 O_SYNC 플래그를 사용하여 연 파일에서 write() 시스템 호출을 호출한 다음 예기치 않게 종료되고 쓰기 작업은 부분적으로만 적용할 수 있습니다. 거의 모든 파일 시스템, 로컬 파일 시스템도 이 동작이 있습니다.
  • 쓰기 작업이 동시에 발생하는 경우 개체 경계를 초과하는 쓰기 작업이 반드시 원자성인 것은 아닙니다. 예를 들어, 작성자 A"aa|aa" 와 작성자 B"bb|bb" 를 동시에 작성합니다. 여기서 "|" 는 개체 경계이며 "aa|bb" 는 적절한 "aa|aa"또는 "bb|bb" 보다 작성됩니다.
  • POSIX에는 현재 디렉토리 오프셋을 가져오고 검색할 수 있는 tell dir() 및 seekdir() 시스템 호출이 포함되어 있습니다. CephFS는 언제든지 디렉터리를 조각화할 수 있으므로 디렉터리에 대한 안정적인 정수 오프셋을 반환하기 어렵습니다. 따라서 seekdir() 시스템 호출을 0이 아닌 오프셋으로 호출하면 종종 작동하지 않을 수 있습니다. 0을 오프셋하는 seekdir() 호출이 항상 작동합니다. 이는 rewinddir() 시스템 호출과 동일합니다.
  • 스파스 파일은 stat() 시스템 호출의 st_blocks 필드에 잘못 전파됩니다. st_blocks 필드는 항상 파일 크기를 블록 크기로 나눈 값으로 채우기 때문에 CephFS는 할당되거나 작성된 파일의 일부를 명시적으로 추적하지 않습니다. 이 동작으로 인해 du 와 같은 유틸리티가 사용된 공간을 과다 추정하게 됩니다.
  • mmap() 시스템 호출이 여러 호스트의 메모리에 파일을 매핑하면 쓰기 작업이 다른 호스트의 캐시로 일관되게 전파되지 않습니다. 즉, 페이지가 호스트 A에 캐시된 다음 호스트 B에서 업데이트되면 호스트 A 페이지가 일관되게 무효화되지 않습니다.
  • CephFS 클라이언트에는 스냅샷 액세스, 생성, 삭제 및 이름 변경에 사용되는 숨겨진 .snap 디렉터리가 있습니다. 이 디렉터리는 readdir() 시스템 호출에서 제외되지만 동일한 이름으로 파일 또는 디렉터리를 만들려고 하는 모든 프로세스는 오류를 반환합니다. 이 숨겨진 디렉터리의 이름은 -o snapdirname=.<new_name> 옵션을 사용하거나 client_ snapdir 구성 옵션을 사용하여 마운트 시 변경할 수 있습니다.

추가 리소스

1.5. 추가 리소스

2장. Ceph 파일 시스템 메타데이터 서버

스토리지 관리자는 CephFS MDS 순위 메커니즘, MDS 대기 데몬 구성, 캐시 크기 제한과 함께 Ceph File System(CephFS) 메타데이터 서버(MDS)의 다양한 상태에 대해 알아볼 수 있습니다. 이러한 개념을 알면 스토리지 환경에 대한 MDS 데몬을 구성할 수 있습니다.

2.1. 사전 요구 사항

2.2. metadata 서버 데몬 상태

메타데이터 서버(MDS) 데몬은 다음 두 가지 상태로 작동합니다.

  • 활성 PVC-파일 및 디렉토리에 대한 메타데이터는 Ceph 파일 시스템에 저장합니다.
  • 대기 모드는 백업으로서이며 활성 MDS 데몬이 응답하지 않을 때 활성화됩니다.

기본적으로 Ceph 파일 시스템은 활성 MDS 데몬 하나만 사용합니다. 그러나 많은 클라이언트가 있는 시스템은 여러 개의 활성 MDS 데몬을 활용할 수 있습니다.

대규모 워크로드의 메타데이터 성능을 확장할 수 있도록 여러 개의 활성 MDS 데몬을 사용하도록 파일 시스템을 구성할 수 있습니다. 활성 MDS 데몬은 메타데이터 로드 패턴이 변경될 때 메타데이터 워크로드를 동적으로 공유합니다. 여러 개의 활성 MDS 데몬이 있는 시스템은 여전히 대기 모드 MDS 데몬이 있어야 고가용성을 유지해야 합니다.

활성 MDS 데몬이 실패하면 어떤 오류 발생

활성 MDS가 응답하지 않으면 Ceph Monitor 데몬은 mds_beacon_grace 옵션에 지정된 값과 동일한 수 초를 기다립니다. 지정된 기간이 지난 후에도 활성 MDS가 여전히 응답하지 않는 경우 Ceph Monitor는 MDS 데몬을 laggy 로 표시합니다. 대기 데몬 중 하나가 구성에 따라 활성화됩니다.

참고

mds_beacon_grace 값을 변경하려면 이 옵션을 Ceph 구성 파일에 추가하고 새 값을 지정합니다.

2.3. 메타 데이터 서버 순위

각 Ceph 파일 시스템(CephFS)에는 기본적으로 0부터 시작하는 여러 개의 등급이 있습니다.

순위는 여러 메타데이터 서버(MDS) 데몬 간에 메타데이터 워크로드를 공유하는 방법을 정의합니다. 순위 수는 한 번에 활성화할 수 있는 최대 MDS 데몬 수입니다. 각 MDS 데몬은 해당 순위에 할당된 CephFS 메타데이터의 하위 집합을 처리합니다.

각 MDS 데몬은 처음에는 순위 없이 시작됩니다. Ceph 모니터는 데몬에 순위를 할당합니다. MDS 데몬은 한 번에 하나의 순위만 보유할 수 있습니다. 데몬은 중지된 경우에만 순위가 손실됩니다.

max_mds 설정은 생성할 순위 수를 제어합니다.

CephFS에서 실제 순위 수는 새 등급을 수락할 수 있는 예비 데몬이 있는 경우에만 증가합니다.

순위 상태

순위는 다음과 같습니다.

  • up - MDS 데몬에 할당된 순위입니다.
  • 실패 - MDS 데몬과 연결된 순위입니다.
  • 손상됨 - 손상된 등급으로, 메타데이터가 손상되거나 누락되었습니다. 손상된 등급은 운영자가 문제를 해결할 때까지 MDS 데몬에 할당되지 않으며 손상된 등급에서 ceph mds 복구 명령을 사용합니다.

2.4. 메타데이터 서버 캐시 크기 제한

다음과 같이 Ceph 파일 시스템(CephFS) 메타데이터 서버(MDS) 캐시의 크기를 제한할 수 있습니다.

  • 메모리 제한: mds_cache_memory_limit 옵션을 사용합니다. Red Hat은 mds_cache_memory_limit 의 경우 8GB에서 64GB 사이의 값을 권장합니다. 캐시를 더 많이 설정하면 복구에 문제가 발생할 수 있습니다. 이 제한은 MDS의 원하는 최대 메모리 사용량의 약 66%입니다.

    중요

    Red Hat은 inode 개수 제한 대신 메모리 제한을 사용하는 것이 좋습니다.

  • inode 수: mds_cache_size 옵션을 사용합니다. 기본적으로 inode 개수로 MDS 캐시를 제한하는 것은 비활성화되어 있습니다.

또한 MDS 작업에 mds_cache_reservation 옵션을 사용하여 캐시 예약을 지정할 수 있습니다. 캐시 예약은 메모리 또는 inode 제한의 백분율로 제한되며 기본적으로 5%로 설정됩니다. 이 매개 변수의 의도는 MDS에서 사용할 새 메타데이터 작업을 위해 캐시에 대한 추가 메모리 예약을 유지하는 것입니다. 결과적으로 MDS는 일반적으로 메모리 제한보다 먼저 작동해야 합니다. 이는 캐시에서 사용되지 않는 메타데이터를 제거하기 위해 클라이언트의 이전 상태를 불러올 것이기 때문입니다.

MDS 노드가 캐시를 나타내는 Ceph Monitor에 상태 경고를 전송하는 경우를 제외하고, mds_cache_reservation 옵션은 모든 상황에서 mds_health_cache_threshold 옵션을 대체합니다. 기본적으로 mds_health_cache_threshold 는 최대 캐시 크기의 150%입니다.

캐시 제한은 하드 제한이 아닙니다. CephFS 클라이언트 또는 MDS 또는 오작동 애플리케이션의 버그로 인해 MDS가 캐시 크기를 초과할 수 있습니다. mds_health_cache_threshold 옵션은 MDS에서 MDS가 캐시를 축소할 수 없는 이유를 조사할 수 있도록 스토리지 클러스터 상태 경고 메시지를 구성합니다.

추가 리소스

2.5. 파일 시스템 유사성

다른 Ceph MDS에서 특정 Ceph MDS(메타데이터 서버)를 우선적으로 사용하도록 Ceph 파일 시스템(CephFS)을 구성할 수 있습니다. 예를 들어, MDS가 오래되고 속도가 느린 하드웨어에서 실행되는 대기 모드 MDS보다 우선하고 빠른 최신 하드웨어에서 실행됩니다. 이 파일 시스템 선호도를 적용하는 mds_join_fs 옵션을 설정하여 이 기본 설정을 지정할 수 있습니다. Ceph 모니터는 순위가 실패한 파일 시스템 이름과 mds_join_fs 를 사용하여 MDS 대기 데몬을 선호합니다. standby-replay 데몬은 다른 standby 데몬을 선택하기 전에 선택합니다. mds_join_fs 옵션과 함께 대기 데몬이 없으면 Ceph 모니터는 마지막 수단으로 대체할 일반 대기 또는 기타 사용 가능한 standby를 선택합니다. Ceph 모니터는 Ceph 파일 시스템을 정기적으로 검사하여 Ceph 파일 시스템을 더 낮은 선호도가 있는 Ceph MDS를 대체하는 데 더 강력한 선호도가 있는지 확인합니다.

2.6. Ceph Orchestrator를 사용한 MDS 서비스 관리

스토리지 관리자는 Cephadm과 함께 Ceph Orchestrator를 백엔드에서 사용하여 MDS 서비스를 배포할 수 있습니다. 기본적으로 Ceph 파일 시스템(CephFS)은 활성 MDS 데몬 하나만 사용합니다. 그러나 많은 클라이언트가 있는 시스템은 여러 개의 활성 MDS 데몬을 활용할 수 있습니다.

이 섹션에서는 다음과 같은 관리 작업을 다룹니다.

2.6.1. 사전 요구 사항

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • 모든 노드에 대한 루트 수준 액세스.
  • 호스트가 클러스터에 추가됩니다.
  • 모든 관리자, 모니터 및 OSD 데몬이 배포됩니다.

2.6.2. 명령줄 인터페이스를 사용하여 MDS 서비스 배포

Ceph Orchestrator를 사용하면 명령줄 인터페이스의 배치 사양을 사용하여 메타데이터 서버(MDS) 서비스를 배포할 수 있습니다. Ceph 파일 시스템(CephFS)에는 하나 이상의 MDS가 필요합니다.

참고

Ceph 파일 시스템(CephFS) 데이터용 풀과 CephFS 메타데이터용 풀이 두 개 이상 있는지 확인합니다.

사전 요구 사항

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • 호스트가 클러스터에 추가됩니다.
  • 모든 관리자, 모니터 및 OSD 데몬이 배포됩니다.

절차

  1. Cephadm 쉘에 로그인합니다.

    예제

    [root@host01 ~]# cephadm shell
    Copy to Clipboard

  2. 배치 사양을 사용하여 MDS 데몬을 배포하는 방법은 다음 두 가지가 있습니다.

방법 1

  • ceph fs 볼륨을 사용하여 MDS 데몬을 생성합니다. 그러면 CephFS와 연결된 CephFS 볼륨 및 풀이 생성되고 호스트에서 MDS 서비스도 시작합니다.

    구문

    ceph fs volume create FILESYSTEM_NAME --placement="NUMBER_OF_DAEMONS HOST_NAME_1 HOST_NAME_2 HOST_NAME_3"
    Copy to Clipboard

    참고

    기본적으로 이 명령에 대해 복제된 풀이 생성됩니다.

    예제

    [ceph: root@host01 /]# ceph fs volume create test --placement="2 host01 host02"
    Copy to Clipboard

방법 2

  • 풀인 CephFS를 생성한 다음 배치 사양을 사용하여 MDS 서비스를 배포합니다.

    1. CephFS 풀을 생성합니다.

      구문

      ceph osd pool create DATA_POOL [PG_NUM]
      ceph osd pool create METADATA_POOL [PG_NUM]
      Copy to Clipboard

      예제

      [ceph: root@host01 /]# ceph osd pool create cephfs_data 64
      [ceph: root@host01 /]# ceph osd pool create cephfs_metadata 64
      Copy to Clipboard

      일반적으로 메타데이터 풀은 일반적으로 데이터 풀보다 오브젝트 수가 훨씬 적기 때문에 보수적인 수의 PG(배치 그룹)로 시작할 수 있습니다. 필요한 경우 PG 수를 늘릴 수 있습니다. 풀 크기는 64개의 PG에서 512 PG 사이입니다. 데이터 풀의 크기는 파일 시스템에서 예상되는 파일의 수 및 크기에 비례합니다.

      중요

      메타데이터 풀의 경우 다음을 사용하십시오.

      • 이 풀에 대한 데이터가 손실되어 전체 파일 시스템에 액세스할 수 없기 때문에 복제 수준이 높습니다.
      • 클라이언트에서 파일 시스템 작업의 관찰된 대기 시간에 직접적인 영향을 미치기 때문에 SSD(Solid-State Drive) 디스크와 같은 대기 시간이 짧은 스토리지입니다.
    2. 데이터 풀 및 메타데이터 풀의 파일 시스템을 생성합니다.

      구문

      ceph fs new FILESYSTEM_NAME METADATA_POOL DATA_POOL
      Copy to Clipboard

      예제

      [ceph: root@host01 /]# ceph fs new test cephfs_metadata cephfs_data
      Copy to Clipboard

    3. ceph orch apply 명령을 사용하여 MDS 서비스를 배포합니다.

      구문

      ceph orch apply mds FILESYSTEM_NAME --placement="NUMBER_OF_DAEMONS HOST_NAME_1 HOST_NAME_2 HOST_NAME_3"
      Copy to Clipboard

      예제

      [ceph: root@host01 /]# ceph orch apply mds test --placement="2 host01 host02"
      Copy to Clipboard

검증

  • 서비스를 나열합니다.

    예제

    [ceph: root@host01 /]# ceph orch ls
    Copy to Clipboard

  • CephFS 상태를 확인합니다.

    예제

    [ceph: root@host01 /]# ceph fs ls
    [ceph: root@host01 /]# ceph fs status
    Copy to Clipboard

  • 호스트, 데몬 및 프로세스를 나열합니다.

    구문

    ceph orch ps --daemon_type=DAEMON_NAME
    Copy to Clipboard

    예제

    [ceph: root@host01 /]# ceph orch ps --daemon_type=mds
    Copy to Clipboard

2.6.3. 서비스 사양을 사용하여 MDS 서비스 배포

Ceph Orchestrator를 사용하면 서비스 사양을 사용하여 MDS 서비스를 배포할 수 있습니다.

참고

Ceph File System(CephFS) 데이터용 풀과 CephFS 메타데이터용으로 각각 두 개 이상의 풀이 있는지 확인합니다.

사전 요구 사항

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • 호스트가 클러스터에 추가됩니다.
  • 모든 관리자, 모니터 및 OSD 데몬이 배포됩니다.

절차

  1. mds.yaml 파일을 생성합니다.

    예제

    [root@host01 ~]# touch mds.yaml
    Copy to Clipboard

  2. 다음 세부 사항을 포함하도록 mds.yaml 파일을 편집합니다.

    구문

    service_type: mds
    service_id: FILESYSTEM_NAME
    placement:
      hosts:
      - HOST_NAME_1
      - HOST_NAME_2
      - HOST_NAME_3
    Copy to Clipboard

    예제

    service_type: mds
    service_id: fs_name
    placement:
      hosts:
      - host01
      - host02
    Copy to Clipboard

  3. 컨테이너의 디렉터리에 YAML 파일을 마운트합니다.

    예제

    [root@host01 ~]# cephadm shell --mount mds.yaml:/var/lib/ceph/mds/mds.yaml
    Copy to Clipboard

  4. 디렉터리로 이동합니다.

    예제

    [ceph: root@host01 /]# cd /var/lib/ceph/mds/
    Copy to Clipboard

  5. Cephadm 쉘에 로그인합니다.

    예제

    [root@host01 ~]# cephadm shell
    Copy to Clipboard

  6. 다음 디렉터리로 이동합니다.

    예제

    [ceph: root@host01 /]# cd /var/lib/ceph/mds/
    Copy to Clipboard

  7. 서비스 사양을 사용하여 MDS 서비스를 배포합니다.

    구문

    ceph orch apply -i FILE_NAME.yaml
    Copy to Clipboard

    예제

    [ceph: root@host01 mds]# ceph orch apply -i mds.yaml
    Copy to Clipboard

  8. MDS 서비스가 배포되고 작동되면 CephFS를 생성합니다.

    구문

    ceph fs new CEPHFS_NAME METADATA_POOL DATA_POOL
    Copy to Clipboard

    예제

    [ceph: root@host01 /]# ceph fs new test metadata_pool data_pool
    Copy to Clipboard

검증

  • 서비스를 나열합니다.

    예제

    [ceph: root@host01 /]# ceph orch ls
    Copy to Clipboard

  • 호스트, 데몬 및 프로세스를 나열합니다.

    구문

    ceph orch ps --daemon_type=DAEMON_NAME
    Copy to Clipboard

    예제

    [ceph: root@host01 /]# ceph orch ps --daemon_type=mds
    Copy to Clipboard

2.6.4. Ceph Orchestrator를 사용하여 MDS 서비스 제거

ceph orch rm 명령을 사용하여 서비스를 제거할 수 있습니다. 또는 파일 시스템 및 관련 풀을 제거할 수도 있습니다.

사전 요구 사항

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • 모든 노드에 대한 루트 수준 액세스.
  • 호스트가 클러스터에 추가됩니다.
  • 호스트에 배포된 MDS 데몬이 하나 이상 있습니다.

절차

  • 클러스터에서 MDS 데몬을 제거하는 방법은 다음 두 가지가 있습니다.

방법 1

  • CephFS 볼륨, 관련 풀 및 서비스를 제거합니다.

    1. Cephadm 쉘에 로그인합니다.

      예제

      [root@host01 ~]# cephadm shell
      Copy to Clipboard

    2. 설정 매개 변수 mon_allow_pool_deletetrue로 설정합니다.

      예제

      [ceph: root@host01 /]# ceph config set mon mon_allow_pool_delete true
      Copy to Clipboard

    3. 파일 시스템을 제거합니다.

      구문

      ceph fs volume rm FILESYSTEM_NAME --yes-i-really-mean-it
      Copy to Clipboard

      예제

      [ceph: root@host01 /]# ceph fs volume rm cephfs-new --yes-i-really-mean-it
      Copy to Clipboard

      이 명령은 파일 시스템, 해당 데이터 및 메타데이터 풀을 제거합니다. 또한 활성화된 ceph-mgr Orchestrator 모듈을 사용하여 MDS를 제거합니다.

방법 2

  • ceph orch rm 명령을 사용하여 전체 클러스터에서 MDS 서비스를 제거합니다.

    1. 서비스를 나열합니다.

      예제

      [ceph: root@host01 /]# ceph orch ls
      Copy to Clipboard

    2. 서비스 제거

      구문

      ceph orch rm SERVICE_NAME
      Copy to Clipboard

      예제

      [ceph: root@host01 /]# ceph orch rm mds.test
      Copy to Clipboard

검증

  • 호스트, 데몬 및 프로세스를 나열합니다.

    구문

    ceph orch ps
    Copy to Clipboard

    예제

    [ceph: root@host01 /]# ceph orch ps
    Copy to Clipboard

2.7. 파일 시스템 유사성 구성

특정 Ceph MDS(메타데이터 서버)의 Ceph 파일 시스템(CephFS) 선호도를 설정합니다.

사전 요구 사항

  • 정상적이고 실행 중인 Ceph 파일 시스템.
  • Ceph 모니터 노드에 대한 루트 수준 액세스.

절차

  1. Ceph 파일 시스템의 현재 상태를 확인합니다.

    예제

    [root@mon ~]# ceph fs dump
    dumped fsmap epoch 399
    ...
    Filesystem 'cephfs01' (27)
    ...
    e399
    max_mds 1
    in      0
    up      {0=20384}
    failed
    damaged
    stopped
    ...
    [mds.a{0:20384} state up:active seq 239 addr [v2:127.0.0.1:6854/966242805,v1:127.0.0.1:6855/966242805]]
    
    Standby daemons:
    
    [mds.b{-1:10420} state up:standby seq 2 addr [v2:127.0.0.1:6856/2745199145,v1:127.0.0.1:6857/2745199145]]
    Copy to Clipboard

  2. 파일 시스템 유사성을 설정합니다.

    구문

    ceph config set STANDBY_DAEMON mds_join_fs FILE_SYSTEM_NAME
    Copy to Clipboard

    예제

    [root@mon ~]# ceph config set mds.b mds_join_fs cephfs01
    Copy to Clipboard

    Ceph MDS 페일오버 이벤트 후에는 파일 시스템에서 선호도가 설정된 standby 데몬을 선호합니다.

    예제

    [root@mon ~]# ceph fs dump
    dumped fsmap epoch 405
    e405
    ...
    Filesystem 'cephfs01' (27)
    ...
    max_mds 1
    in      0
    up      {0=10420}
    failed
    damaged
    stopped
    ...
    [mds.b{0:10420} state up:active seq 274 join_fscid=27 addr [v2:127.0.0.1:6856/2745199145,v1:127.0.0.1:6857/2745199145]] 
    1
    
    
    Standby daemons:
    
    [mds.a{-1:10720} state up:standby seq 2 addr [v2:127.0.0.1:6854/1340357658,v1:127.0.0.1:6855/1340357658]]
    Copy to Clipboard

    1
    mds.b 데몬은 파일 시스템 덤프 출력에 join_fscid=27 이 있습니다.
    중요

    파일 시스템이 성능이 저하되거나 크기가 낮은 상태인 경우 파일 시스템 선호도를 적용하기 위해 페일오버가 발생하지 않습니다.

2.8. 여러 활성 메타데이터 서버 데몬 구성

대규모 시스템의 메타데이터 성능을 확장하도록 여러 개의 활성 메타데이터 서버(MDS) 데몬을 구성합니다.

중요

모든 대기 MDS 데몬을 활성 상태로 변환하지 마십시오. Ceph File System(CephFS)에는 고가용성을 유지하기 위해 하나 이상의 대기 MDS 데몬이 필요합니다.

사전 요구 사항

  • MDS 노드의 Ceph 관리 기능.
  • Ceph 모니터 노드에 대한 루트 수준 액세스.

절차

  1. max_mds 매개변수를 원하는 수의 활성 MDS 데몬으로 설정합니다.

    구문

    ceph fs set NAME max_mds NUMBER
    Copy to Clipboard

    예제

    [root@mon ~]# ceph fs set cephfs max_mds 2
    Copy to Clipboard

    이 예에서는 cephfs라는 CephFS에서 활성 MDS 데몬 수가 2개로 증가합니다.

    참고

    예비 MDS 데몬을 사용하여 새 순위를 지정할 수 있는 경우에만 Ceph에서 CephFS의 실제 순위 수를 늘립니다.

  2. 활성 MDS 데몬 수를 확인합니다.

    구문

    ceph fs status NAME
    Copy to Clipboard

    예제

    [root@mon ~]# ceph fs status cephfs
    cephfs - 0 clients
    ======
    +------+--------+-------+---------------+-------+-------+--------+--------+
    | RANK | STATE  |  MDS  |    ACTIVITY   |  DNS  |  INOS |  DIRS  |  CAPS  |
    +------+--------+-------+---------------+-------+-------+--------+--------+
    |  0   | active | node1 | Reqs:    0 /s |   10  |   12  |   12   |   0    |
    |  1   | active | node2 | Reqs:    0 /s |   10  |   12  |   12   |   0    |
    +------+--------+-------+---------------+-------+-------+--------+--------+
    +-----------------+----------+-------+-------+
    |       POOL      |   TYPE   |  USED | AVAIL |
    +-----------------+----------+-------+-------+
    | cephfs_metadata | metadata | 4638  | 26.7G |
    |   cephfs_data   |   data   |    0  | 26.7G |
    +-----------------+----------+-------+-------+
    
    +-------------+
    | STANDBY MDS |
    +-------------+
    |    node3    |
    +-------------+
    Copy to Clipboard

추가 리소스

2.9. 대기 데몬 수 구성

각 Ceph 파일 시스템(CephFS)은 정상으로 간주되는 대기 데몬 수를 지정할 수 있습니다. 이 번호에는 순위 실패를 기다리는 standby-replay 데몬도 포함됩니다.

사전 요구 사항

  • Ceph 모니터 노드에 대한 루트 수준 액세스.

절차

  • 특정 CephFS에 대해 예상되는 대기 데몬 수를 설정합니다.

    구문

    ceph fs set FS_NAME standby_count_wanted NUMBER
    Copy to Clipboard

    참고

    NUMBER 를 0으로 설정하면 데몬 상태 점검이 비활성화됩니다.

    예제

    [root@mon ~]# ceph fs set cephfs standby_count_wanted 2
    Copy to Clipboard

    이 예제에서는 예상되는 standby 데몬 수를 2개로 설정합니다.

2.10. standby-replay 메타데이터 서버 구성

대기 모드 재생 메타데이터 서버(MDS) 데몬을 추가하여 각 Ceph 파일 시스템(CephFS)을 구성합니다. 이렇게 하면 활성 MDS를 사용할 수 없게 되면 장애 조치 시간이 단축됩니다.

이 특정 standby-replay 데몬은 활성 MDS의 메타데이터 저널을 따릅니다. standby-replay 데몬은 동일한 순위의 활성 MDS에서만 사용되며 다른 등급에서는 사용할 수 없습니다.

중요

standby-replay를 사용하는 경우 모든 활성 MDS에 standby-replay 데몬이 있어야 합니다.

사전 요구 사항

  • Ceph 모니터 노드에 대한 루트 수준 액세스.

절차

  • 특정 CephFS에 대해 standby-replay를 설정합니다.

    구문

    ceph fs set FS_NAME allow_standby_replay 1
    Copy to Clipboard

    예제

    [root@mon ~]# ceph fs set cephfs allow_standby_replay 1
    Copy to Clipboard

    이 예에서 부울 값은 1 이며 standby-replay 데몬이 활성 Ceph MDS 데몬에 할당될 수 있습니다.

2.11. 임시 고정 정책

임시 고정은 하위 트리의 정적 파티션이며 확장 특성을 사용하여 정책을 사용하여 설정할 수 있습니다. 정책은 임시 고정을 디렉터리에 자동으로 설정할 수 있습니다. 임시 고정을 디렉터리로 설정하면 모든 Ceph MDS 순위에 균일하게 배포될 수 있으므로 특정 등급에 자동으로 할당됩니다. 등급 지정은 일관된 해시와 디렉터리의 inode 번호를 사용하여 수행됩니다. 디렉터리의 inode가 파일 시스템 캐시에서 삭제되면 임시 고정이 유지되지 않습니다. Ceph MDS(메타데이터 서버)에 장애가 발생하면 임시 고정이 저널에 기록되므로 Ceph MDS 대기 서버에서 이 정보를 손실하지 않습니다. 임시 고정을 사용하는 데는 두 가지 유형의 정책이 있습니다.

참고: attr 패키지를 설치하는 것은 임시 고정 정책에 대한 전제 조건입니다.

분산

이 정책은 모든 디렉터리의 즉각적인 하위 항목을 임시로 고정해야 합니다. 예를 들어 분산 정책을 사용하여 전체 Ceph 파일 시스템 클러스터에 사용자의 홈 디렉터리를 분산합니다. ceph.dir.pin.distributed 확장 속성을 설정하여 이 정책을 활성화합니다.

setfattr -n ceph.dir.pin.distributed -v 1 DIRECTORY_PATH
Copy to Clipboard
임의

이 정책은 하위 하위 디렉터리를 임시로 고정할 수 있는 기회를 적용합니다. 임시로 고정할 수 있는 디렉터리의 백분율을 사용자 지정할 수 있습니다. ceph.dir.pin.random 을 설정하고 백분율을 설정하여 이 정책을 활성화합니다. Red Hat은 이 백분율을 98%(USD)보다 작은 값으로 설정할 것을 권장합니다. 하위 트리 파티션이 너무 많으면 성능이 저하될 수 있습니다. mds_export_ephemeral_random_max Ceph MDS 구성 옵션을 설정하여 최대 백분율을 설정할 수 있습니다. mds_export_ephemeral_distributedmds_export_ephemeral_random 매개변수는 이미 활성화되어 있습니다.

setfattr -n ceph.dir.pin.random -v PERCENTAGE DIRECTORY_PATH
Copy to Clipboard
참고

2.12. 디렉토리 트리를 특정 순서로 수동으로 고정

경우에 따라 메타데이터를 특정 Ceph MDS(메타데이터 서버) 등급에 명시적으로 매핑하여 동적 밸런서를 재정의하는 것이 바람직할 수 있습니다. 이 작업을 수동으로 수행하여 애플리케이션의 부하를 균등하게 분배하거나 Ceph 파일 시스템 클러스터에 대한 사용자 메타데이터 요청의 영향을 제한할 수 있습니다. 수동으로 고정하는 디렉터리는 ceph.dir.pin 확장 속성을 설정하여 내보내기 고정이라고 합니다.

디렉터리의 내보내기 고정은 가장 가까운 상위 디렉토리에서 상속되지만 해당 디렉토리에 내보내기 고정을 설정하여 덮어쓸 수 있습니다. 디렉터리에 내보내기 고정을 설정하면 모든 하위 디렉터리에 영향을 미칩니다. 예를 들면 다음과 같습니다.

[root@client ~]# mkdir -p a/b 
1

[root@client ~]# setfattr -n ceph.dir.pin -v 1 a/ 
2

[root@client ~]# setfattr -n ceph.dir.pin -v 0 a/b 
3
Copy to Clipboard
1
디렉토리 a/a/b 는 모두 내보내기 고정이 설정되지 않고 시작됩니다.
2
이제 a/a/b 디렉토리가 1 순위로 고정되었습니다.
3
이제 디렉토리 a/b0 및 디렉토리 a/ 로 고정되어 있으며 나머지 하위 디렉터리는 여전히 1 에 고정되어 있습니다.

사전 요구 사항

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • 실행 중인 Ceph 파일 시스템.
  • CephFS 클라이언트에 대한 루트 수준 액세스.
  • attr 패키지 설치.

절차

  • 디렉터리에 내보내기 고정을 설정합니다.

    구문

    setfattr -n ceph.dir.pin -v RANK PATH_TO_DIRECTORY
    Copy to Clipboard

    예제

    [root@client ~]# setfattr -n ceph.dir.pin -v 2 cephfs/home
    Copy to Clipboard

2.13. 활성 메타데이터 서버 데몬 수 감소

활성 Ceph 파일 시스템(CephFS) 메타데이터 서버(MDS) 데몬 수를 줄이는 방법.

사전 요구 사항

  • 제거할 순위가 활성 상태여야 합니다. 즉, max_mds 매개변수에 지정된 것과 동일한 수의 MDS 데몬이 있어야 합니다.
  • Ceph 모니터 노드에 대한 루트 수준 액세스.

절차

  1. max_mds 매개변수에 지정된 것과 동일한 MDS 데몬 수를 설정합니다.

    구문

    ceph fs status NAME
    Copy to Clipboard

    예제

    [root@mon ~]# ceph fs status cephfs
    cephfs - 0 clients
    
    +------+--------+-------+---------------+-------+-------+--------+--------+
    | RANK | STATE  |  MDS  |    ACTIVITY   |  DNS  |  INOS |  DIRS  |  CAPS  |
    +------+--------+-------+---------------+-------+-------+--------+--------+
    |  0   | active | node1 | Reqs:    0 /s |   10  |   12  |   12   |   0    |
    |  1   | active | node2 | Reqs:    0 /s |   10  |   12  |   12   |   0    |
    +------+--------+-------+---------------+-------+-------+--------+--------+
    +-----------------+----------+-------+-------+
    |       POOL      |   TYPE   |  USED | AVAIL |
    +-----------------+----------+-------+-------+
    | cephfs_metadata | metadata | 4638  | 26.7G |
    |   cephfs_data   |   data   |    0  | 26.7G |
    +-----------------+----------+-------+-------+
    
    +-------------+
    | Standby MDS |
    +-------------+
    |    node3    |
    +-------------+
    Copy to Clipboard

  2. 관리 기능이 있는 노드에서 max_mds 매개변수를 원하는 수의 활성 MDS 데몬으로 변경합니다.

    구문

    ceph fs set NAME max_mds NUMBER
    Copy to Clipboard

    예제

    [root@mon ~]# ceph fs set cephfs max_mds 1
    Copy to Clipboard

  3. Ceph 파일 시스템 상태를 확인하여 스토리지 클러스터가 새로운 max_mds 값으로 안정화될 때까지 기다립니다.
  4. 활성 MDS 데몬 수를 확인합니다.

    구문

    ceph fs status NAME
    Copy to Clipboard

    예제

    [root@mon ~]# ceph fs status cephfs
    cephfs - 0 clients
    
    +------+--------+-------+---------------+-------+-------+--------+--------+
    | RANK | STATE  |  MDS  |    ACTIVITY   |  DNS  |  INOS |  DIRS  |  CAPS  |
    +------+--------+-------+---------------+-------+-------+--------+--------+
    |  0   | active | node1 | Reqs:    0 /s |   10  |   12  |   12   |   0    |
    +------+--------+-------+---------------+-------+-------+--------|--------+
    +-----------------+----------+-------+-------+
    |       POOl      |   TYPE   |  USED | AVAIL |
    +-----------------+----------+-------+-------+
    | cephfs_metadata | metadata | 4638  | 26.7G |
    |   cephfs_data   |   data   |    0  | 26.7G |
    +-----------------+----------+-------+-------+
    
    +-------------+
    | Standby MDS |
    +-------------+
    |    node3    |
    |    node2    |
    +-------------+
    Copy to Clipboard

추가 리소스

2.14. 추가 리소스

3장. Ceph 파일 시스템 배포

스토리지 관리자는 스토리지 환경에 Ceph 파일 시스템(CephFS)을 배포하고 클라이언트가 이러한 Ceph 파일 시스템을 마운트하여 스토리지 요구 사항을 충족하도록 할 수 있습니다.

기본적으로 배포 워크플로는 다음 세 단계로 구성됩니다.

  1. Ceph 모니터 노드에 Ceph 파일 시스템을 만듭니다.
  2. 적절한 기능을 갖춘 Ceph 클라이언트 사용자를 만들고 Ceph 파일 시스템이 마운트될 노드에서 클라이언트 키를 사용할 수 있도록 합니다.
  3. 커널 클라이언트 또는 FUSE(사용자 공간에서 파일 시스템) 클라이언트를 사용하여 전용 노드에 CephFS를 마운트합니다.

3.1. 사전 요구 사항

  • 실행 중이고 정상적인 Red Hat Ceph Storage 클러스터.
  • Ceph 메타데이터 서버 데몬(ceph-mds)의 설치 및 구성.

3.2. 레이아웃, 할당량, 스냅샷 및 네트워크 제한 사항

이러한 사용자 기능을 사용하면 필요한 요구 사항에 따라 Ceph 파일 시스템(CephFS)에 대한 액세스를 제한할 수 있습니다.

중요

rw 를 제외한 모든 사용자 기능 플래그는 알파벳순으로 지정해야 합니다.

레이아웃 및 할당량

레이아웃 또는 할당량을 사용하는 경우 클라이언트에는 rw 기능 외에도 p 플래그가 필요합니다. p 플래그를 설정하면 ceph. 접두사가 있는 특수 확장 특성으로 설정되는 모든 속성이 제한됩니다. 또한 레이아웃을 사용하는 openc 작업과 같이 이러한 필드를 설정하는 다른 방법이 제한됩니다.

예제

client.0
    key: AQAz7EVWygILFRAAdIcuJ10opU/JKyfFmxhuaw==
    caps: [mds] allow rwp
    caps: [mon] allow r
    caps: [osd] allow rw tag cephfs data=cephfs_a

client.1
    key: AQAz7EVWygILFRAAdIcuJ11opU/JKyfFmxhuaw==
    caps: [mds] allow rw
    caps: [mon] allow r
    caps: [osd] allow rw tag cephfs data=cephfs_a
Copy to Clipboard

이 예에서 client.0 은 파일 시스템 cephfs_a 에서 레이아웃과 할당량을 수정할 수 있지만 client.1 은 수정할 수 없습니다.

스냅샷

스냅샷을 만들거나 삭제할 때 클라이언트에는 rw 기능 외에도 s 플래그가 필요합니다. capabilities 문자열에도 p 플래그가 포함된 경우 s 플래그가 그 뒤에 나타나야 합니다.

예제

client.0
    key: AQAz7EVWygILFRAAdIcuJ10opU/JKyfFmxhuaw==
    caps: [mds] allow rw, allow rws path=/temp
    caps: [mon] allow r
    caps: [osd] allow rw tag cephfs data=cephfs_a
Copy to Clipboard

이 예제에서 client.0 은 파일 시스템 cephfs_atemp 디렉터리에서 스냅샷을 생성하거나 삭제할 수 있습니다.

네트워크

특정 네트워크에서 연결하는 클라이언트 제한.

예제

client.0
  key: AQAz7EVWygILFRAAdIcuJ10opU/JKyfFmxhuaw==
  caps: [mds] allow r network 10.0.0.0/8, allow rw path=/bar network 10.0.0.0/8
  caps: [mon] allow r network 10.0.0.0/8
  caps: [osd] allow rw tag cephfs data=cephfs_a network 10.0.0.0/8
Copy to Clipboard

선택적 네트워크 및 접두사 길이는 CIDR 표기법입니다(예: 10.3.0.0/16 ).

3.3. Ceph 파일 시스템 생성

Ceph 모니터 노드에서 여러 Ceph 파일 시스템(CephFS)을 생성할 수 있습니다.

사전 요구 사항

  • 실행 중이고 정상적인 Red Hat Ceph Storage 클러스터.
  • Ceph 메타데이터 서버 데몬(ceph-mds)의 설치 및 구성.
  • Ceph 모니터 노드에 대한 루트 수준 액세스.
  • Ceph 클라이언트 노드에 대한 루트 수준 액세스.

절차

  1. Ceph 스토리지 클러스터를 사용하도록 클라이언트 노드를 구성합니다.

    1. Red Hat Ceph Storage Tools 리포지토리를 활성화합니다.

      Red Hat Enterprise Linux 8

      [root@client ~]# subscription-manager repos --enable=rhceph-5-tools-for-rhel-8-x86_64-rpms
      Copy to Clipboard

      Red Hat Enterprise Linux 9

      [root@client ~]# subscription-manager repos --enable=rhceph-5-tools-for-rhel-9-x86_64-rpms
      Copy to Clipboard

    2. ceph-fuse 패키지를 설치합니다.

      [root@client ~]# dnf install ceph-fuse
      Copy to Clipboard
    3. Ceph Monitor 노드에서 클라이언트 노드로 Ceph 클라이언트 인증 키를 복사합니다.

      구문

      scp root@MONITOR_NODE_NAME:/etc/ceph/KEYRING_FILE /etc/ceph/
      Copy to Clipboard

      MONITOR_NODE_NAME 을 Ceph Monitor 호스트 이름 또는 IP 주소로 바꿉니다.

      예제

      [root@client ~]# scp root@192.168.0.1:/etc/ceph/ceph.client.1.keyring /etc/ceph/
      Copy to Clipboard

    4. Ceph 모니터 노드에서 클라이언트 노드로 Ceph 구성 파일을 복사합니다.

      구문

      scp root@MONITOR_NODE_NAME:/etc/ceph/ceph.conf /etc/ceph/ceph.conf
      Copy to Clipboard

      MONITOR_NODE_NAME 을 Ceph Monitor 호스트 이름 또는 IP 주소로 바꿉니다.

      예제

      [root@client ~]# scp root@192.168.0.1:/etc/ceph/ceph.conf /etc/ceph/ceph.conf
      Copy to Clipboard

    5. 구성 파일에 적절한 권한을 설정합니다.

      [root@client ~]# chmod 644 /etc/ceph/ceph.conf
      Copy to Clipboard
  2. Ceph 파일 시스템을 만듭니다.

    구문

    ceph fs volume create FILE_SYSTEM_NAME
    Copy to Clipboard

    예제

    [root@mon ~]# ceph fs volume create cephfs01
    Copy to Clipboard

    이 단계를 반복하여 추가 파일 시스템을 생성합니다.

    참고

    이 명령을 실행하면 Ceph에서 새 풀을 자동으로 생성하고 새 파일 시스템을 지원하기 위해 새 Ceph 메타데이터 서버(MDS) 데몬을 배포합니다. 또한 MDS 선호도도 구성합니다.

  3. Ceph 클라이언트에서 새 Ceph 파일 시스템에 대한 액세스 권한을 확인합니다.

    1. 새 파일 시스템에 액세스할 Ceph 클라이언트를 인증합니다.

      구문

      ceph fs authorize FILE_SYSTEM_NAME CLIENT_NAME DIRECTORY PERMISSIONS
      Copy to Clipboard

      중요

      PERMISSIONS 에 대해 지원되는 값은 r (읽기) 및 rw (읽기/쓰기)입니다.

      예제

      [root@mon ~]# ceph fs authorize cephfs01 client.1 / rw
      [client.1]
          key = BQAmthpf81M+JhAAiHDYQkMiCq3x+J0n9e8REK==
      
      [root@mon ~]# ceph auth get client.1
      exported keyring for client.1
      [client.1]
          key = BQAmthpf81M+JhAAiHDYQkMiCq3x+J0n9e8REK==
          caps mds = "allow rw fsname=cephfs01"
          caps mon = "allow r fsname=cephfs01"
          caps osd = "allow rw tag cephfs data=cephfs01"
      Copy to Clipboard

      참고

      선택적으로 root_squash 옵션을 지정하여 안전 측정값을 추가할 수 있습니다. 이로 인해 실수로 uid=0 또는 gid=0 인 클라이언트가 쓰기 작업을 수행하지 못하여 삭제 시나리오를 방지할 수 있지만 읽기 작업을 계속 수행할 수 있습니다.

      예제

      [root@mon ~]# ceph fs authorize cephfs01 client.1 / rw root_squash /volumes rw
      [client.1]
          key = BQAmthpf81M+JhAAiHDYQkMiCq3x+J0n9e8REK==
      
      [root@mon ~]# ceph auth get client.1
      [client.1]
          key = BQAmthpf81M+JhAAiHDYQkMiCq3x+J0n9e8REK==
          caps mds = "allow rw fsname=cephfs01 root_squash, allow rw fsname=cephfs01 path=/volumes"
          caps mon = "allow r fsname=cephfs01"
          caps osd = "allow rw tag cephfs data=cephfs01"
      Copy to Clipboard

      이 예에서 /volumes 디렉토리 트리 내에서는 cephfs01 파일 시스템에 대해 root_squash 가 활성화됩니다.

      중요

      Ceph 클라이언트는 인증된 CephFS만 볼 수 있습니다.

    2. Ceph 사용자의 인증 키를 Ceph 클라이언트 노드에 복사합니다.

      구문

      ceph auth get CLIENT_NAME > OUTPUT_FILE_NAME
      scp OUTPUT_FILE_NAME TARGET_NODE_NAME:/etc/ceph
      Copy to Clipboard

      예제

      [root@mon ~]# ceph auth get client.1 > ceph.client.1.keyring
      exported keyring for client.1
      [root@mon ~]# scp ceph.client.1.keyring client:/etc/ceph
      root@client's password:
      ceph.client.1.keyring                     100%  178   333.0KB/s   00:00
      Copy to Clipboard

    3. Ceph 클라이언트 노드에서 새 디렉터리를 생성합니다.

      구문

      mkdir PATH_TO_NEW_DIRECTORY_NAME
      Copy to Clipboard

      예제

      [root@client ~]# mkdir /mnt/mycephfs
      Copy to Clipboard

    4. Ceph 클라이언트 노드에서 새 Ceph 파일 시스템을 마운트합니다.

      구문

      ceph-fuse PATH_TO_NEW_DIRECTORY_NAME -n CEPH_USER_NAME --client-fs=_FILE_SYSTEM_NAME
      Copy to Clipboard

      예제

      [root@client ~]# ceph-fuse /mnt/mycephfs/ -n client.1 --client-fs=cephfs01
      ceph-fuse[555001]: starting ceph client
      2022-05-09T07:33:27.158+0000 7f11feb81200 -1 init, newargv = 0x55fc4269d5d0 newargc=15
      ceph-fuse[555001]: starting fuse
      Copy to Clipboard

    5. Ceph 클라이언트 노드에서 새 마운트 지점의 디렉터리 내용을 나열하거나 새 마운트 지점에 파일을 만듭니다.

3.4. Ceph 파일 시스템에 삭제 코딩된 풀 추가

기본적으로 Ceph는 데이터 풀에 복제된 풀을 사용합니다. 필요한 경우 삭제로 코딩된 데이터 풀을 Ceph 파일 시스템에 추가할 수도 있습니다. 삭제로 코딩된 풀에서 지원하는 Ceph 파일 시스템(CephFS)은 복제된 풀에서 지원하는 Ceph 파일 시스템에 비해 전체 스토리지를 덜 사용합니다. 삭제로 코딩된 풀은 전체 스토리지를 사용하지 않지만 복제된 풀보다 더 많은 메모리 및 프로세서 리소스를 사용합니다.

중요

CephFS EC 풀은 아카이브 목적으로만 사용됩니다.

중요

프로덕션 환경의 경우 Red Hat은 CephFS에 기본 복제 데이터 풀을 사용하는 것이 좋습니다. CephFS에서 inode를 생성하면 기본 데이터 풀에 하나 이상의 오브젝트가 생성됩니다. 기본 데이터에 복제된 풀을 사용하여 소규모 오브젝트 쓰기 성능을 개선하고 백트레이스를 업데이트하기 위한 읽기 성능을 개선하는 것이 좋습니다.

사전 요구 사항

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • 기존 Ceph 파일 시스템.
  • BlueStore OSD를 사용하는 풀.
  • Ceph 모니터 노드에 대한 루트 수준 액세스.
  • attr 패키지 설치.

절차

  1. CephFS의 삭제로 코딩된 데이터 풀을 생성합니다.

    구문

    ceph osd pool create DATA_POOL_NAME erasure
    Copy to Clipboard

    예제

    [root@mon ~]# ceph osd pool create cephfs-data-ec01 erasure
    pool 'cephfs-data-ec01' created
    Copy to Clipboard

  2. 풀이 추가되었는지 확인합니다.

    예제

    [root@mon ~]# ceph osd lspools
    Copy to Clipboard

  3. 삭제로 코딩된 풀에서 덮어쓰기를 활성화합니다.

    구문

    ceph osd pool set DATA_POOL_NAME allow_ec_overwrites true
    Copy to Clipboard

    예제

    [root@mon ~]# ceph osd pool set cephfs-data-ec01 allow_ec_overwrites true
    set pool 15 allow_ec_overwrites to true
    Copy to Clipboard

  4. Ceph 파일 시스템의 상태를 확인합니다.

    구문

    ceph fs status FILE_SYSTEM_NAME
    Copy to Clipboard

    예제

    [root@mon ~]# ceph fs status cephfs-ec
    cephfs-ec - 14 clients
    =========
    RANK  STATE              MDS                ACTIVITY     DNS    INOS   DIRS   CAPS
     0    active  cephfs-ec.example.ooymyq  Reqs:    0 /s  8231   8233    891    921
           POOL           TYPE     USED  AVAIL
    cephfs-metadata-ec  metadata   787M  8274G
      cephfs-data-ec      data    2360G  12.1T
    
           STANDBY MDS
    cephfs-ec.example.irsrql
    cephfs-ec.example.cauuaj
    Copy to Clipboard

  5. 삭제로 코딩된 데이터 풀을 기존 CephFS에 추가합니다.

    구문

    ceph fs add_data_pool FILE_SYSTEM_NAME DATA_POOL_NAME
    Copy to Clipboard

    예제

    [root@mon ~]# ceph fs add_data_pool cephfs-ec cephfs-data-ec01
    Copy to Clipboard

    이 예제에서는 새 데이터 풀 cephfs-data-ec01 을 기존 삭제 코딩 파일 시스템인 cephfs-ec 에 추가합니다.

  6. 삭제로 코딩된 풀이 Ceph 파일 시스템에 추가되었는지 확인합니다.

    구문

    ceph fs status FILE_SYSTEM_NAME
    Copy to Clipboard

    예제

    [root@mon ~]# ceph fs status cephfs-ec
    cephfs-ec - 14 clients
    =========
    RANK  STATE              MDS                ACTIVITY     DNS    INOS   DIRS   CAPS
     0    active  cephfs-ec.example.ooymyq  Reqs:    0 /s  8231   8233    891    921
           POOL           TYPE     USED  AVAIL
    cephfs-metadata-ec  metadata   787M  8274G
      cephfs-data-ec      data    2360G  12.1T
     cephfs-data-ec01     data       0   12.1T
    
           STANDBY MDS
    cephfs-ec.example.irsrql
    cephfs-ec.example.cauuaj
    Copy to Clipboard

  7. 새 디렉터리에서 파일 레이아웃을 설정합니다.

    구문

    mkdir PATH_TO_DIRECTORY
    setfattr -n ceph.dir.layout.pool -v DATA_POOL_NAME PATH_TO_DIRECTORY
    Copy to Clipboard

    예제

    [root@mon ~]# mkdir /mnt/cephfs/newdir
    [root@mon ~]# setfattr -n ceph.dir.layout.pool -v cephfs-data-ec01 /mnt/cephfs/newdir
    Copy to Clipboard

    이 예에서 /mnt/cephfs/newdir 디렉터리에 생성된 모든 새 파일은 디렉터리 레이아웃을 상속하고 새로 추가된 erasure-coded 풀에 데이터를 배치합니다.

추가 리소스

3.5. Ceph 파일 시스템의 클라이언트 사용자 생성

Red Hat Ceph Storage는 인증에 cephx 를 사용하며, 기본적으로 활성화되어 있습니다. Ceph 파일 시스템과 함께 cephx 를 사용하려면 Ceph 모니터 노드에서 올바른 권한 부여 기능을 가진 사용자를 생성하고 Ceph 파일 시스템을 마운트할 노드에서 해당 키를 사용할 수 있도록 합니다.

사전 요구 사항

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • Ceph 메타데이터 서버 데몬(ceph-mds)의 설치 및 구성.
  • Ceph 모니터 노드에 대한 루트 수준 액세스.
  • Ceph 클라이언트 노드에 대한 루트 수준 액세스.

절차

  1. 모니터 노드의 Cephadm 쉘에 로그인합니다.

    예제

    [root@host01 ~]# cephadm shell
    Copy to Clipboard

  2. Ceph Monitor 노드에서 클라이언트 사용자를 생성합니다.

    구문

    ceph fs authorize FILE_SYSTEM_NAME client.CLIENT_NAME /DIRECTORY CAPABILITY [/DIRECTORY CAPABILITY] ...
    Copy to Clipboard

    • 클라이언트를 파일 시스템 cephfs_atemp 디렉토리에만 작성하도록 제한하려면 다음을 수행합니다.

      예제

      [ceph: root@host01 /]# ceph fs authorize cephfs_a client.1 / r /temp rw
      
      client.1
        key = AQBSdFhcGZFUDRAAcKhG9Cl2HPiDMMRv4DC43A==
      Copy to Clipboard

    • 클라이언트를 temp 디렉토리로 완전히 제한하려면 루트 (/) 디렉토리를 제거합니다.

      예제

      [ceph: root@host01 /]# ceph fs authorize cephfs_a client.1 /temp rw
      Copy to Clipboard

    참고

    파일 시스템 이름으로 모든 파일 시스템에 대한 액세스 권한을 부여합니다. 일반적으로 쉘에서 별표 를 따옴표로 묶어야 합니다.

  3. 생성된 키를 확인합니다.

    구문

    ceph auth get client.ID
    Copy to Clipboard

    예제

    [ceph: root@host01 /]# ceph auth get client.1
    
    client.1
      key = AQBSdFhcGZFUDRAAcKhG9Cl2HPiDMMRv4DC43A==
      caps mds = "allow r, allow rw path=/temp"
      caps mon = "allow r"
      caps osd = "allow rw tag cephfs data=cephfs_a"
    Copy to Clipboard

  4. 인증 키를 클라이언트에 복사합니다.

    1. Ceph Monitor 노드에서 인증 키를 파일로 내보냅니다.

      구문

      ceph auth get client.ID -o ceph.client.ID.keyring
      Copy to Clipboard

      예제

      [ceph: root@host01 /]# ceph auth get client.1 -o ceph.client.1.keyring
      exported keyring for client.1
      Copy to Clipboard

    2. Ceph Monitor 노드에서 클라이언트 인증 키를 클라이언트 노드의 /etc/ceph/ 디렉터리에 복사합니다.

      구문

      scp /ceph.client.ID.keyring root@CLIENT_NODE_NAME:/etc/ceph/ceph.client.ID.keyring
      Copy to Clipboard

      CLIENT_NODE_NAME 을 Ceph 클라이언트 노드 이름 또는 IP로 바꿉니다.

      예제

      [ceph: root@host01 /]# scp /ceph.client.1.keyring root@client01:/etc/ceph/ceph.client.1.keyring
      Copy to Clipboard

  5. 클라이언트 노드에서 인증 키 파일에 대한 적절한 권한을 설정합니다.

    구문

    chmod 644 ceph.client.ID.keyring
    Copy to Clipboard

    예제

    [root@client01 ~]# chmod 644 /etc/ceph/ceph.client.1.keyring
    Copy to Clipboard

추가 리소스

3.6. Ceph 파일 시스템을 커널 클라이언트로 마운트

Ceph 파일 시스템(CephFS)을 시스템 부팅 시 수동 또는 자동으로 커널 클라이언트로 마운트할 수 있습니다.

중요

Red Hat Enterprise Linux 외에도 다른 Linux 배포판에서 실행되는 클라이언트는 허용되지만 지원되지 않습니다. 이러한 클라이언트를 사용할 때 CephFS 메타데이터 서버 또는 스토리지 클러스터의 기타 부분에서 문제가 발견되면 Red Hat이 이를 해결합니다. 클라이언트 측에서 원인을 발견하면 Linux 배포의 커널 벤더가 문제를 해결해야 합니다.

사전 요구 사항

  • Linux 기반 클라이언트 노드에 대한 루트 수준의 액세스.
  • Ceph 모니터 노드에 대한 루트 수준 액세스.
  • 기존 Ceph 파일 시스템.

절차

  1. Ceph 스토리지 클러스터를 사용하도록 클라이언트 노드를 구성합니다.

    1. Red Hat Ceph Storage Tools 리포지토리를 활성화합니다.

      Red Hat Enterprise Linux 8

      [root@client ~]# subscription-manager repos --enable=rhceph-5-tools-for-rhel-8-x86_64-rpms
      Copy to Clipboard

      Red Hat Enterprise Linux 9

      [root@client ~]# subscription-manager repos --enable=rhceph-5-tools-for-rhel-9-x86_64-rpms
      Copy to Clipboard

    2. ceph-common 패키지를 설치합니다.

      [root@client01 ~]# dnf install ceph-common
      Copy to Clipboard
    3. 모니터 노드의 Cephadm 쉘에 로그인합니다.

      예제

      [root@host01 ~]# cephadm shell
      Copy to Clipboard

    4. Ceph Monitor 노드에서 클라이언트 노드로 Ceph 클라이언트 인증 키를 복사합니다.

      구문

      scp /ceph.client.ID.keyring root@CLIENT_NODE_NAME:/etc/ceph/ceph.client.ID.keyring
      Copy to Clipboard

      CLIENT_NODE_NAME 을 Ceph 클라이언트 호스트 이름 또는 IP 주소로 바꿉니다.

      예제

      [ceph: root@host01 /]# scp /ceph.client.1.keyring root@client01:/etc/ceph/ceph.client.1.keyring
      Copy to Clipboard

    5. Ceph 모니터 노드에서 클라이언트 노드로 Ceph 구성 파일을 복사합니다.

      구문

      scp /etc/ceph/ceph.conf root@CLIENT_NODE_NAME:/etc/ceph/ceph.conf
      Copy to Clipboard

      CLIENT_NODE_NAME 을 Ceph 클라이언트 호스트 이름 또는 IP 주소로 바꿉니다.

      예제

      [ceph: root@host01 /]# scp /etc/ceph/ceph.conf root@client01:/etc/ceph/ceph.conf
      Copy to Clipboard

    6. 클라이언트 노드에서 구성 파일에 대한 적절한 권한을 설정합니다.

      [root@client01 ~]# chmod 644 /etc/ceph/ceph.conf
      Copy to Clipboard
    7. 자동 또는 수동으로 마운팅을 선택합니다.

수동 마운트 중

  1. 클라이언트 노드에 마운트 디렉터리를 생성합니다.

    구문

    mkdir -p MOUNT_POINT
    Copy to Clipboard

    예제

    [root@client01 ~]# mkdir -p /mnt/cephfs
    Copy to Clipboard

  2. Ceph 파일 시스템 마운트. 여러 Ceph 모니터 주소를 지정하려면 mount 명령에서 쉼표로 구분하고 마운트 지점을 지정하고 클라이언트 이름을 설정합니다.

    참고

    Red Hat Ceph Storage 4.1부터 mount.ceph 는 인증 키 파일을 직접 읽을 수 있습니다. 따라서 시크릿 파일이 더 이상 필요하지 않습니다. name=CLIENT_ID 를 사용하여 클라이언트 ID만 지정하면 mount.ceph 에서 올바른 인증 키 파일을 찾습니다.

    구문

    mount -t ceph MONITOR-1_NAME:6789,MONITOR-2_NAME:6789,MONITOR-3_NAME:6789:/ MOUNT_POINT -o name=CLIENT_ID,fs=FILE_SYSTEM_NAME
    Copy to Clipboard

    예제

    [root@client01 ~]# mount -t ceph mon1:6789,mon2:6789,mon3:6789:/ /mnt/cephfs -o name=1,fs=cephfs01
    Copy to Clipboard

    참고

    단일 호스트 이름이 여러 IP 주소로 확인되도록 DNS 서버를 구성할 수 있습니다. 그런 다음 쉼표로 구분된 목록을 제공하는 대신 mount 명령과 함께 단일 호스트 이름을 사용할 수 있습니다.

    참고

    Monitor 호스트 이름을 :/ 문자열로 바꾸고 mount.ceph 는 Ceph 구성 파일을 읽고 연결할 모니터를 결정합니다.

    참고

    Red Hat Ceph Storage 클러스터에서 파일 생성 및 제거를 비동기적으로 실행하도록 nowsync 옵션을 설정할 수 있습니다. 이렇게 하면 일관성에 영향을 주지 않고 이러한 시스템 호출의 왕복 대기 시간을 방지하여 일부 워크로드의 성능이 향상됩니다. nowsync 옵션에는 Red Hat Enterprise Linux 8.4 이상의 커널 클라이언트가 필요합니다.

    예제

    [root@client01 ~]# mount -t ceph mon1:6789,mon2:6789,mon3:6789:/ /mnt/cephfs -o nowsync,name=1,fs=cephfs01
    Copy to Clipboard

  3. 파일 시스템이 성공적으로 마운트되었는지 확인합니다.

    구문

    stat -f MOUNT_POINT
    Copy to Clipboard

    예제

    [root@client01 ~]# stat -f /mnt/cephfs
    Copy to Clipboard

자동 마운트 중

  1. 클라이언트 호스트에서 Ceph 파일 시스템을 마운트하기 위한 새 디렉터리를 만듭니다.

    구문

    mkdir -p MOUNT_POINT
    Copy to Clipboard

    예제

    [root@client01 ~]# mkdir -p /mnt/cephfs
    Copy to Clipboard

  2. 다음과 같이 /etc/fstab 파일을 편집합니다.

    구문

    #DEVICE                                              PATH                      TYPE               OPTIONS
    MON_0_HOST:PORT,            MOUNT_POINT          ceph         name=CLIENT_ID,
    MON_1_HOST:PORT,                                                         ceph.client_mountpoint=/VOL/SUB_VOL_GROUP/SUB_VOL/UID_SUB_VOL,                                                       fs=FILE_SYSTEM_NAME,
    MON_2_HOST:PORT:/q[_VOL_]/SUB_VOL/UID_SUB_VOL,            [ADDITIONAL_OPTIONS]
    Copy to Clipboard

    첫 번째 열은 Ceph Monitor 호스트 이름과 포트 번호를 설정합니다.

    두 번째 열은 마운트 지점을 설정합니다.

    세 번째 열에서는 CephFS의 파일 시스템 유형(이 경우 ceph )을 설정합니다.

    네 번째 열 은 이름 및 secretfile 옵션을 사용하여 사용자 이름 및 시크릿 파일과 같은 다양한 옵션을 설정합니다. ceph.client_mountpoint 옵션을 사용하여 특정 볼륨, 하위 볼륨 그룹 및 하위 볼륨을 설정할 수도 있습니다.

    중단 및 네트워킹 문제를 방지하기 위해 네트워킹 하위 시스템을 시작한 후 파일 시스템이 마운트되도록 _netdev 옵션을 설정합니다. 액세스 시간 정보가 필요하지 않은 경우 noatime 옵션을 설정하면 성능이 향상될 수 있습니다.

    다섯 번째 열과 여섯 번째 열을 0으로 설정합니다.

    예제

    #DEVICE         PATH                   TYPE    OPTIONS         DUMP  FSCK
    mon1:6789,      /mnt/cephfs            ceph    name=1,            0     0
    mon2:6789,                                     ceph.client_mountpoint=/my_vol/my_sub_vol_group/my_sub_vol/0,
    mon3:6789:/                                    fs=cephfs01,
                                                   _netdev,noatime
    Copy to Clipboard

    Ceph 파일 시스템이 다음 시스템 부팅 시 마운트됩니다.

    참고

    Red Hat Ceph Storage 4.1부터 mount.ceph 는 인증 키 파일을 직접 읽을 수 있습니다. 따라서 시크릿 파일이 더 이상 필요하지 않습니다. name=CLIENT_ID 를 사용하여 클라이언트 ID만 지정하면 mount.ceph 에서 올바른 인증 키 파일을 찾습니다.

    참고

    Monitor 호스트 이름을 :/ 문자열로 바꾸고 mount.ceph 는 Ceph 구성 파일을 읽고 연결할 모니터를 결정합니다.

추가 리소스

3.7. Ceph 파일 시스템을 FUSE 클라이언트로 마운트

Ceph 파일 시스템(CephFS)을 시스템 부팅 시 수동으로 또는 자동으로 FUSE(사용자 공간) 클라이언트에서 파일 시스템으로 마운트할 수 있습니다.

사전 요구 사항

  • Linux 기반 클라이언트 노드에 대한 루트 수준의 액세스.
  • Ceph 모니터 노드에 대한 루트 수준 액세스.
  • 기존 Ceph 파일 시스템.

절차

  1. Ceph 스토리지 클러스터를 사용하도록 클라이언트 노드를 구성합니다.

    1. Red Hat Ceph Storage Tools 리포지토리를 활성화합니다.

      Red Hat Enterprise Linux 8

      [root@client ~]# subscription-manager repos --enable=rhceph-5-tools-for-rhel-8-x86_64-rpms
      Copy to Clipboard

      Red Hat Enterprise Linux 9

      [root@client ~]# subscription-manager repos --enable=rhceph-5-tools-for-rhel-9-x86_64-rpms
      Copy to Clipboard

    2. ceph-fuse 패키지를 설치합니다.

      [root@client01 ~]# dnf install ceph-fuse
      Copy to Clipboard
    3. 모니터 노드의 Cephadm 쉘에 로그인합니다.

      예제

      [root@host01 ~]# cephadm shell
      Copy to Clipboard

    4. Ceph Monitor 노드에서 클라이언트 노드로 Ceph 클라이언트 인증 키를 복사합니다.

      구문

      scp /ceph.client.ID.keyring root@CLIENT_NODE_NAME:/etc/ceph/ceph.client.ID.keyring
      Copy to Clipboard

      CLIENT_NODE_NAME 을 Ceph 클라이언트 호스트 이름 또는 IP 주소로 바꿉니다.

      예제

      [ceph: root@host01 /]# scp /ceph.client.1.keyring root@client01:/etc/ceph/ceph.client.1.keyring
      Copy to Clipboard

    5. Ceph 모니터 노드에서 클라이언트 노드로 Ceph 구성 파일을 복사합니다.

      구문

      scp /etc/ceph/ceph.conf root@CLIENT_NODE_NAME:/etc/ceph/ceph.conf
      Copy to Clipboard

      CLIENT_NODE_NAME 을 Ceph 클라이언트 호스트 이름 또는 IP 주소로 바꿉니다.

      예제

      [ceph: root@host01 /]# scp /etc/ceph/ceph.conf root@client01:/etc/ceph/ceph.conf
      Copy to Clipboard

    6. 클라이언트 노드에서 구성 파일에 대한 적절한 권한을 설정합니다.

      [root@client01 ~]# chmod 644 /etc/ceph/ceph.conf
      Copy to Clipboard
    7. 자동 또는 수동으로 마운팅을 선택합니다.

수동 마운트 중

  1. 클라이언트 노드에서 마운트 지점의 디렉터리를 생성합니다.

    구문

    mkdir PATH_TO_MOUNT_POINT
    Copy to Clipboard

    예제

    [root@client01 ~]# mkdir /mnt/mycephfs
    Copy to Clipboard

    참고

    경로 옵션을 MDS 기능과 함께 사용한 경우 마운트 지점은 경로에서 지정하는 범위 내에 있어야 합니다.

  2. ceph-fuse 유틸리티를 사용하여 Ceph 파일 시스템을 마운트합니다.

    구문

    ceph-fuse -n client.CLIENT_ID --client_fs FILE_SYSTEM_NAME MOUNT_POINT
    Copy to Clipboard

    예제

    [root@client01 ~]# ceph-fuse -n client.1 --client_fs cephfs01 /mnt/mycephfs
    Copy to Clipboard

    참고

    사용자 인증 키의 기본 이름 및 위치를 사용하지 않는 경우, 즉 /etc/ceph/ceph.client.CLIENT_ID.keyring 인 경우 --keyring 옵션을 사용하여 사용자 인증 키의 경로를 지정합니다.

    예제

    [root@client01 ~]# ceph-fuse -n client.1 --keyring=/etc/ceph/client.1.keyring /mnt/mycephfs
    Copy to Clipboard

    참고

    r 옵션을 사용하여 해당 경로를 루트로 처리하도록 클라이언트에 지시합니다.

    구문

    ceph-fuse -n client.CLIENT_ID MOUNT_POINT -r PATH
    Copy to Clipboard

    예제

    [root@client01 ~]# ceph-fuse -n client.1 /mnt/cephfs -r /home/cephfs
    Copy to Clipboard

    참고

    제거된 Ceph 클라이언트를 자동으로 다시 연결하려면 --client_reconnect_stale=true 옵션을 추가합니다.

    예제

    [root@client01 ~]# ceph-fuse -n client.1 /mnt/cephfs --client_reconnect_stale=true
    Copy to Clipboard

  3. 파일 시스템이 성공적으로 마운트되었는지 확인합니다.

    구문

    stat -f MOUNT_POINT
    Copy to Clipboard

    예제

    [root@client01 ~]# stat -f /mnt/cephfs
    Copy to Clipboard

자동 마운트 중

  1. 클라이언트 노드에서 마운트 지점의 디렉터리를 생성합니다.

    구문

    mkdir PATH_TO_MOUNT_POINT
    Copy to Clipboard

    예제

    [root@client01 ~]# mkdir /mnt/mycephfs
    Copy to Clipboard

    참고

    경로 옵션을 MDS 기능과 함께 사용한 경우 마운트 지점은 경로에서 지정하는 범위 내에 있어야 합니다.

  2. 다음과 같이 /etc/fstab 파일을 편집합니다.

    구문

    #DEVICE                 PATH           TYPE          OPTIONS                  DUMP  FSCK
    HOST_NAME:PORT,     MOUNT_POINT fuse.ceph     ceph.id=CLIENT_ID,        0     0
    HOST_NAME:PORT,                                  ceph.client_mountpoint=/VOL/SUB_VOL_GROUP/SUB_VOL/UID_SUB_VOL,
    HOST_NAME:PORT:/                                 ceph.client_fs=FILE_SYSTEM_NAME,ceph.name=USERNAME,ceph.keyring=/etc/ceph/KEYRING_FILE,
                                                         [ADDITIONAL_OPTIONS]
    Copy to Clipboard

    첫 번째 열은 Ceph Monitor 호스트 이름과 포트 번호를 설정합니다.

    두 번째 열은 마운트 지점을 설정합니다.

    세 번째 열은 CephFS에 대한 파일 시스템 유형(이 경우 fuse.ceph )을 설정합니다.

    네 번째 열ceph.nameceph.keyring 옵션을 사용하여 사용자 이름 및 인증 키와 같은 다양한 옵션을 설정합니다. ceph.client_mountpoint 옵션을 사용하여 특정 볼륨, 하위 볼륨 그룹 및 하위 볼륨을 설정할 수도 있습니다. 액세스할 Ceph 파일 시스템을 지정하려면 ceph.client_fs 옵션을 사용합니다. 중단 및 네트워킹 문제를 방지하기 위해 네트워킹 하위 시스템을 시작한 후 파일 시스템이 마운트되도록 _netdev 옵션을 설정합니다. 액세스 시간 정보가 필요하지 않은 경우 noatime 옵션을 설정하면 성능이 향상될 수 있습니다. 제거 후 자동으로 다시 연결하려면 client_reconnect_stale=true 옵션을 설정합니다.

    다섯 번째 열과 여섯 번째 열을 0으로 설정합니다.

    예제

    #DEVICE         PATH              TYPE         OPTIONS         DUMP  FSCK
    mon1:6789,      /mnt/mycephfs       fuse.ceph    ceph.id=1,         0     0
    mon2:6789,                                     ceph.client_mountpoint=/my_vol/my_sub_vol_group/my_sub_vol/0,
    mon3:6789:/                                    ceph.client_fs=cephfs01,ceph.name=client.1,ceph.keyring=/etc/ceph/client1.keyring,
                                                   _netdev,defaults
    Copy to Clipboard

    Ceph 파일 시스템이 다음 시스템 부팅 시 마운트됩니다.

4장. Ceph 파일 시스템 볼륨, 하위 볼륨 그룹 및 하위 볼륨 관리

스토리지 관리자는 Red Hat의 Ceph CSI(Container Storage Interface)를 사용하여 Ceph File System(CephFS) 내보내기를 관리할 수 있습니다. 또한 와 상호 작용할 공통 명령줄 인터페이스를 갖춤으로써 OpenStack의 파일 시스템 서비스(Manila)와 같은 다른 서비스를 사용할 수 있습니다. Ceph Manager 데몬(ceph-mgr)의 volumes 모듈은 Ceph 파일 시스템(CephFS)을 내보내는 기능을 구현합니다.

Ceph Manager volumes 모듈은 다음 파일 시스템 내보내기 추상화를 구현합니다.

  • CephFS 볼륨
  • CephFS 하위 볼륨 그룹
  • CephFS 하위 볼륨

이 장에서는 다음을 사용하는 방법에 대해 설명합니다.

4.1. Ceph 파일 시스템 볼륨

스토리지 관리자는 Ceph 파일 시스템(CephFS) 볼륨을 생성, 나열 및 제거할 수 있습니다. CephFS 볼륨은 Ceph 파일 시스템에 대한 추상화입니다.

이 섹션에서는 다음을 수행하는 방법에 대해 설명합니다.

4.1.1. 파일 시스템 볼륨 생성

Ceph Manager의 orchestrator 모듈은 Ceph File System(CephFS)용 메타데이터 서버(MDS)를 생성합니다. 이 섹션에서는 CephFS 볼륨을 생성하는 방법에 대해 설명합니다.

참고

이렇게 하면 데이터 및 메타데이터 풀과 함께 Ceph 파일 시스템이 생성됩니다.

사전 요구 사항

  • Ceph 파일 시스템이 배포된 사용 중인 Red Hat Ceph Storage 클러스터.
  • Ceph 모니터에서 최소한 읽기 액세스 권한.
  • Ceph Manager 노드의 읽기 및 쓰기 기능.

절차

  • CephFS 볼륨을 생성합니다.

    구문

    ceph fs volume create VOLUME_NAME
    Copy to Clipboard

    예제

    [root@mon ~]# ceph fs volume create cephfs
    Copy to Clipboard

4.1.2. 파일 시스템 볼륨 나열

이 섹션에서는 Ceph 파일 시스템(CephFS) 볼륨을 나열하는 단계를 설명합니다.

사전 요구 사항

  • Ceph 파일 시스템이 배포된 사용 중인 Red Hat Ceph Storage 클러스터.
  • Ceph 모니터에서 최소한 읽기 액세스 권한.
  • Ceph Manager 노드의 읽기 및 쓰기 기능.
  • CephFS 볼륨.

절차

  • CephFS 볼륨을 나열합니다.

    예제

    [root@mon ~]# ceph fs volume ls
    Copy to Clipboard

4.1.3. 파일 시스템 볼륨 제거

Ceph Manager의 orchestrator 모듈은 Ceph File System(CephFS)의 메타데이터 서버(MDS)를 제거합니다. 이 섹션에서는 Ceph 파일 시스템(CephFS) 볼륨을 제거하는 방법을 보여줍니다.

사전 요구 사항

  • Ceph 파일 시스템이 배포된 사용 중인 Red Hat Ceph Storage 클러스터.
  • Ceph 모니터에서 최소한 읽기 액세스 권한.
  • Ceph Manager 노드의 읽기 및 쓰기 기능.
  • CephFS 볼륨.

절차

  1. mon_allow_pool_delete 옵션이 true 로 설정되지 않은 경우 CephFS 볼륨을 제거하기 전에 true 로 설정합니다.

    예제

    [root@mon ~]# ceph config set mon mon_allow_pool_delete true
    Copy to Clipboard

  2. CephFS 볼륨을 제거합니다.

    구문

    ceph fs volume rm VOLUME_NAME [--yes-i-really-mean-it]
    Copy to Clipboard

    예제

    [root@mon ~]# ceph fs volume rm cephfs --yes-i-really-mean-it
    Copy to Clipboard

4.2. Ceph 파일 시스템 하위 볼륨 그룹

스토리지 관리자는 절대 경로를 생성, 나열, 가져오고 Ceph 파일 시스템(CephFS) 하위 볼륨을 제거할 수 있습니다. CephFS 하위 볼륨 그룹은 하위 볼륨 집합의 정책(예: 파일 레이아웃)에 영향을 미치는 디렉터리 수준에서 추상화됩니다.

Red Hat Ceph Storage 5.0부터 하위 볼륨 그룹 스냅샷 기능은 지원되지 않습니다. 이러한 하위 볼륨 그룹의 기존 스냅샷만 나열하고 제거할 수 있습니다.

이 섹션에서는 다음을 수행하는 방법에 대해 설명합니다.

4.2.1. 파일 시스템 하위 볼륨 그룹 생성

이 섹션에서는 CephFS(Ceph File System) 하위 볼륨 그룹을 생성하는 방법에 대해 설명합니다.

참고

하위 볼륨 그룹을 생성할 때 데이터 풀 레이아웃, uid, gid 및 파일 모드를 8진수 숫자에 지정할 수 있습니다. 기본적으로 하위 볼륨 그룹은 8진수 파일 모드 '755', uid '0', gid '0' 및 상위 디렉터리의 데이터 풀 레이아웃을 사용하여 생성됩니다.

사전 요구 사항

  • Ceph 파일 시스템이 배포된 작동 중인 Red Hat Ceph Storage 클러스터.
  • Ceph 모니터에서 최소한 읽기 액세스 권한.
  • Ceph Manager 노드의 읽기 및 쓰기 기능.

절차

  • CephFS 하위 볼륨 그룹을 생성합니다.

    구문

    ceph fs subvolumegroup create VOLUME_NAME GROUP_NAME [--pool_layout DATA_POOL_NAME --uid UID --gid GID --mode OCTAL_MODE]
    Copy to Clipboard

    예제

    [root@mon ~]# ceph fs subvolumegroup create cephfs subgroup0
    Copy to Clipboard

    이 명령은 하위 볼륨 그룹이 이미 있는 경우에도 성공합니다.

4.2.2. 파일 시스템 하위 볼륨 그룹 나열

이 섹션에서는 Ceph 파일 시스템(CephFS) 하위 볼륨 그룹을 나열하는 단계를 설명합니다.

사전 요구 사항

  • Ceph 파일 시스템이 배포된 사용 중인 Red Hat Ceph Storage 클러스터.
  • Ceph 모니터에서 최소한 읽기 액세스 권한.
  • Ceph Manager 노드의 읽기 및 쓰기 기능.
  • CephFS 하위 볼륨 그룹.

절차

  • CephFS 하위 볼륨 그룹을 나열합니다.

    구문

    ceph fs subvolumegroup ls VOLUME_NAME
    Copy to Clipboard

    예제

    [root@mon ~]# ceph fs subvolumegroup ls cephfs
    Copy to Clipboard

4.2.3. 파일 시스템 하위 볼륨 그룹의 절대 경로 가져오기

이 섹션에서는 Ceph 파일 시스템(CephFS) 하위 볼륨의 절대 경로를 가져오는 방법을 설명합니다.

사전 요구 사항

  • Ceph 파일 시스템이 배포된 사용 중인 Red Hat Ceph Storage 클러스터.
  • Ceph 모니터에서 최소한 읽기 액세스 권한.
  • Ceph Manager 노드의 읽기 및 쓰기 기능.
  • CephFS 하위 볼륨 그룹.

절차

  • CephFS 하위 볼륨 그룹의 절대 경로를 가져옵니다.

    구문

    ceph fs subvolumegroup getpath VOLUME_NAME GROUP_NAME
    Copy to Clipboard

    예제

    [root@mon ~]# ceph fs subvolumegroup getpath cephfs subgroup0
    Copy to Clipboard

4.2.4. 파일 시스템 하위 볼륨의 스냅샷 생성

이 섹션에서는 Ceph 파일 시스템(CephFS) 하위 볼륨 그룹의 스냅샷을 생성하는 방법을 설명합니다.

사전 요구 사항

  • Ceph 파일 시스템이 배포된 사용 중인 Red Hat Ceph Storage 클러스터.
  • Ceph 모니터에서 최소한 읽기 액세스 권한.
  • Ceph Manager 노드의 읽기 및 쓰기 기능.
  • CephFS 하위 볼륨 그룹.
  • 클라이언트는 읽기(r)및 쓰기(w)기능 외에도 파일 시스템 내의 디렉터리 경로에 s 플래그가 필요합니다.

절차

  1. s 플래그가 디렉터리에 설정되어 있는지 확인합니다.

    구문

    ceph auth get CLIENT_NAME
    Copy to Clipboard

    예제

    client.0
        key: AQAz7EVWygILFRAAdIcuJ12opU/JKyfFmxhuaw==
        caps: [mds] allow rw, allow rws path=/bar 
    1
    
        caps: [mon] allow r
        caps: [osd] allow rw tag cephfs data=cephfs_a 
    2
    Copy to Clipboard

    1 2
    이 예제에서 client.0 은 파일 시스템 cephfs_abar 디렉터리에서 스냅샷을 생성하거나 삭제할 수 있습니다.
  2. CephFS 하위 볼륨의 스냅샷을 생성합니다.

    구문

    ceph fs subvolumegroup snapshot create VOLUME_NAME GROUP_NAME SNAP_NAME
    Copy to Clipboard

    예제

    [root@mon ~]# ceph fs subvolumegroup snapshot create cephfs subgroup0 snap0
    Copy to Clipboard

    이 명령은 하위 볼륨 그룹 아래에 있는 모든 하위 볼륨을 암시적으로 스냅샷합니다.

4.2.5. 파일 시스템 하위 볼륨 그룹의 스냅샷 나열

이 섹션에서는 Ceph File System(CephFS) 하위 볼륨의 스냅샷을 나열하는 단계를 제공합니다.

사전 요구 사항

  • Ceph 파일 시스템이 배포된 사용 중인 Red Hat Ceph Storage 클러스터.
  • Ceph 모니터에서 최소한 읽기 액세스 권한.
  • Ceph Manager 노드의 읽기 및 쓰기 기능.
  • CephFS 하위 볼륨 그룹.
  • 하위 볼륨 그룹의 스냅샷.

절차

  • CephFS 하위 볼륨 그룹의 스냅샷을 나열합니다.

    구문

    ceph fs subvolumegroup snapshot ls VOLUME_NAME GROUP_NAME
    Copy to Clipboard

    예제

    [root@mon ~]# ceph fs subvolumegroup snapshot ls cephfs subgroup0
    Copy to Clipboard

4.2.6. 파일 시스템 하위 볼륨 그룹의 스냅샷 제거

이 섹션에서는 Ceph File System(CephFS) 하위 볼륨의 스냅샷을 삭제하는 단계를 제공합니다.

참고

--force 플래그를 사용하면 스냅샷이 없으면 명령이 실패할 수 있습니다.

사전 요구 사항

  • Ceph 파일 시스템이 배포된 사용 중인 Red Hat Ceph Storage 클러스터.
  • Ceph 모니터에서 최소한 읽기 액세스 권한.
  • Ceph Manager 노드의 읽기 및 쓰기 기능.
  • Ceph 파일 시스템 볼륨.
  • 하위 볼륨 그룹의 스냅샷입니다.

절차

  • CephFS 하위 볼륨 그룹의 스냅샷을 제거합니다.

    구문

    ceph fs subvolumegroup snapshot rm VOLUME_NAME GROUP_NAME SNAP_NAME [--force]
    Copy to Clipboard

    예제

    [root@mon ~]# ceph fs subvolumegroup snapshot rm cephfs subgroup0 snap0 --force
    Copy to Clipboard

4.2.7. 파일 시스템 하위 볼륨 그룹 제거

이 섹션에서는 Ceph 파일 시스템(CephFS) 하위 볼륨 그룹을 제거하는 방법을 보여줍니다.

참고

하위 볼륨 그룹이 비어 있지 않거나 존재하지 않는 경우 하위 볼륨 그룹 제거가 실패합니다. --force 플래그를 사용하면 존재하지 않는 하위 볼륨 그룹을 제거할 수 있습니다.

사전 요구 사항

  • Ceph 파일 시스템이 배포된 사용 중인 Red Hat Ceph Storage 클러스터.
  • Ceph 모니터에서 최소한 읽기 액세스 권한.
  • Ceph Manager 노드의 읽기 및 쓰기 기능.
  • CephFS 하위 볼륨 그룹.

절차

  • CephFS 하위 볼륨 그룹을 제거합니다.

    구문

    ceph fs subvolumegroup rm VOLUME_NAME GROUP_NAME [--force]
    Copy to Clipboard

    예제

    [root@mon ~]# ceph fs subvolumegroup rm cephfs subgroup0 --force
    Copy to Clipboard

4.3. Ceph 파일 시스템 하위 볼륨

스토리지 관리자는 절대 경로를 생성, 나열, 가져오기, 메타데이터 가져오기, Ceph 파일 시스템(CephFS) 하위 볼륨을 제거할 수 있습니다. 또한 이러한 하위 볼륨의 스냅샷을 생성, 나열 및 제거할 수도 있습니다. CephFS 하위 볼륨은 독립 Ceph File Systems 디렉터리 트리에 대한 추상화입니다.

이 섹션에서는 다음을 수행하는 방법에 대해 설명합니다.

4.3.1. 파일 시스템 하위 볼륨 생성

이 섹션에서는 Ceph 파일 시스템(CephFS) 하위 볼륨을 생성하는 방법에 대해 설명합니다.

참고

하위 볼륨을 생성할 때 하위 볼륨 그룹, 데이터 풀 레이아웃, uid, gid, 8진수 숫자의 파일 모드를 바이트 단위로 지정할 수 있습니다. 하위 볼륨은 --namespace-isolated 옵션을 지정하여 별도의 RADOS 네임스페이스에 생성할 수 있습니다. 기본적으로 하위 볼륨은 기본 하위 볼륨 그룹 내에 생성되며, 8진수 파일 모드 '755', subvolume 그룹의 uid, subvolume 그룹의 경우 gid, 상위 디렉터리의 데이터 풀 레이아웃, 크기 제한은 없습니다.

사전 요구 사항

  • Ceph 파일 시스템이 배포된 작동 중인 Red Hat Ceph Storage 클러스터.
  • Ceph 모니터에서 최소한 읽기 액세스 권한.
  • Ceph Manager 노드의 읽기 및 쓰기 기능.

절차

  • CephFS 하위 볼륨을 생성합니다.

    구문

    ceph fs subvolume create VOLUME_NAME SUBVOLUME_NAME [--size SIZE_IN_BYTES --group_name SUBVOLUME_GROUP_NAME --pool_layout DATA_POOL_NAME --uid _UID --gid GID --mode OCTAL_MODE] [--namespace-isolated]
    Copy to Clipboard

    예제

    [root@mon ~]# ceph fs subvolume create cephfs sub0 --group_name subgroup0 --namespace-isolated
    Copy to Clipboard

    이 명령은 하위 볼륨이 이미 있는 경우에도 성공합니다.

4.3.2. 파일 시스템 하위 볼륨 나열

이 섹션에서는 Ceph File System(CephFS) 하위 볼륨을 나열하는 단계에 대해 설명합니다.

사전 요구 사항

  • Ceph 파일 시스템이 배포된 사용 중인 Red Hat Ceph Storage 클러스터.
  • Ceph 모니터에서 최소한 읽기 액세스 권한.
  • Ceph Manager 노드의 읽기 및 쓰기 기능.
  • CephFS 하위 볼륨.

절차

  • CephFS 하위 볼륨을 나열합니다.

    구문

    ceph fs subvolume ls VOLUME_NAME [--group_name SUBVOLUME_GROUP_NAME]
    Copy to Clipboard

    예제

    [root@mon ~]# ceph fs subvolume ls cephfs --group_name subgroup0
    Copy to Clipboard

4.3.3. 파일 시스템 하위 볼륨 크기 조정

이 섹션에서는 Ceph File System(CephFS) 하위 볼륨의 크기를 조정하는 단계를 설명합니다.

참고

ceph fs subvolume resize 명령은 new_size 로 지정된 크기를 사용하여 하위 볼륨 할당량의 크기를 조정합니다. --no_shrink 플래그는 하위 볼륨이 현재 사용된 하위 볼륨의 크기를 축소하지 않도록 합니다. 하위 볼륨은 inf 또는 new_size로 무한대로 전달하여 무한 크기로 조정할 수 있습니다.

사전 요구 사항

  • Ceph 파일 시스템이 배포된 사용 중인 Red Hat Ceph Storage 클러스터.
  • Ceph 모니터에서 최소한 읽기 액세스 권한.
  • Ceph Manager 노드의 읽기 및 쓰기 기능.
  • CephFS 하위 볼륨.

절차

  • CephFS 하위 볼륨의 크기를 조정합니다.

    구문

    ceph fs subvolume resize VOLUME_NAME SUBVOLUME_NAME NEW_SIZE [--group_name SUBVOLUME_GROUP_NAME] [--no_shrink]
    Copy to Clipboard

    예제

    [root@mon ~]# ceph fs subvolume resize cephfs sub0 1024000000 --group_name subgroup0 --no_shrink
    Copy to Clipboard

4.3.4. 파일 시스템 하위 볼륨의 절대 경로 가져오기

이 섹션에서는 Ceph 파일 시스템(CephFS) 하위 볼륨의 절대 경로를 가져오는 방법을 설명합니다.

사전 요구 사항

  • Ceph 파일 시스템이 배포된 사용 중인 Red Hat Ceph Storage 클러스터.
  • Ceph 모니터에서 최소한 읽기 액세스 권한.
  • Ceph Manager 노드의 읽기 및 쓰기 기능.
  • CephFS 하위 볼륨.

절차

  • CephFS 하위 볼륨의 절대 경로를 가져옵니다.

    구문

    ceph fs subvolume getpath VOLUME_NAME SUBVOLUME_NAME [--group_name SUBVOLUME_GROUP_NAME]
    Copy to Clipboard

    예제

    [root@mon ~]# ceph fs subvolume getpath cephfs sub0 --group_name subgroup0
    Copy to Clipboard

4.3.5. 파일 시스템 하위 볼륨의 메타데이터 가져오기

이 섹션에서는 Ceph File System(CephFS) 하위 볼륨의 메타데이터를 가져오는 방법을 보여줍니다.

사전 요구 사항

  • Ceph 파일 시스템이 배포된 사용 중인 Red Hat Ceph Storage 클러스터.
  • Ceph 모니터에서 최소한 읽기 액세스 권한.
  • Ceph Manager 노드의 읽기 및 쓰기 기능.
  • CephFS 하위 볼륨.

절차

  • CephFS 하위 볼륨의 메타데이터를 가져옵니다.

    구문

    ceph fs subvolume info VOLUME_NAME SUBVOLUME_NAME [--group_name SUBVOLUME_GROUP_NAME]
    Copy to Clipboard

    예제

    [root@mon ~]# ceph fs subvolume info cephfs sub0 --group_name subgroup0
    Copy to Clipboard

    출력 예

    # ceph fs subvolume info cephfs sub0
    {
        "atime": "2023-07-14 08:52:46",
        "bytes_pcent": "0.00",
        "bytes_quota": 1024000000,
        "bytes_used": 0,
        "created_at": "2023-07-14 08:52:46",
        "ctime": "2023-07-14 08:53:54",
        "data_pool": "cephfs.cephfs.data",
        "features": [
            "snapshot-clone",
            "snapshot-autoprotect",
            "snapshot-retention"
        ],
        "flavor": "2",
        "gid": 0,
        "mode": 16877,
        "mon_addrs": [
            "10.0.208.172:6789",
            "10.0.211.197:6789",
            "10.0.209.212:6789"
        ],
        "mtime": "2023-07-14 08:52:46",
        "path": "/volumes/_nogroup/sub0/834c5cbc-f5db-4481-80a3-aca92ff0e7f3",
        "pool_namespace": "",
        "state": "complete",
        "type": "subvolume",
        "uid": 0
    }
    Copy to Clipboard

출력 형식은 JSON이며 다음 필드를 포함합니다.

  • atime: "YYYY-MM-DD HH:MM:SS" 형식의 하위 볼륨 경로 액세스 시간.
  • bytes_pcent: 할당량이 설정된 경우 백분율에 사용되는 할당량은 "undefined"를 표시합니다.
  • bytes_quota: 할당량 크기가 설정된 경우 바이트 단위이며, 그렇지 않으면 "infinite"를 표시합니다.
  • bytes_used: 현재 사용된 하위 볼륨 크기(바이트)입니다.
  • created_at: "YYYY-MM-DD HH:MM:SS" 형식으로 하위 볼륨을 생성하는 시간.
  • ctime: "YYYY-MM-DD HH:MM:SS" 형식의 하위 볼륨 경로 변경 시간.
  • data_pool: 하위 볼륨이 속한 데이터 풀입니다.
  • features: 하위 볼륨에서 지원하는 기능 (예: , "snapshot-clone", "snapshot-autoprotect", "snapshot-retention".
  • 플레이버: 하위 볼륨 버전, 버전 2의 경우 1 또는 2 의 경우 1입니다.
  • GID: 하위 볼륨 경로의 그룹 ID입니다.
  • mode: 하위 볼륨 경로 모드입니다.
  • mon_addrs: 모니터 주소 목록.
  • mtime: "YYYY-MM-DD HH:MM:SS" 형식의 하위 볼륨 경로 수정 시간.
  • Path (경로): 하위 볼륨의 절대 경로입니다.
  • pool_namespace: 하위 볼륨의 RADOS 네임스페이스입니다.
  • state: subvolume의 현재 상태(예: "완전" 또는 "snapshot-retained").
  • type: clone 또는 subvolume인지 여부를 나타내는 하위 볼륨 유형입니다.
  • UID: 하위 볼륨 경로의 사용자 ID입니다.

4.3.6. 파일 시스템 하위 볼륨 스냅샷 생성

이 섹션에서는 Ceph File System(CephFS) 하위 볼륨의 스냅샷을 생성하는 방법을 보여줍니다.

사전 요구 사항

  • Ceph 파일 시스템이 배포된 사용 중인 Red Hat Ceph Storage 클러스터.
  • Ceph 모니터에서 최소한 읽기 액세스 권한.
  • Ceph Manager 노드의 읽기 및 쓰기 기능.
  • CephFS 하위 볼륨.
  • 클라이언트는 읽기(r)및 쓰기(w)기능 외에도 파일 시스템 내의 디렉터리 경로에 s 플래그가 필요합니다.

절차

  1. s 플래그가 디렉터리에 설정되어 있는지 확인합니다.

    구문

    ceph auth get CLIENT_NAME
    Copy to Clipboard

    예제

    [root@mon ~]# ceph auth get client.0
    [client.0]
        key = AQAz7EVWygILFRAAdIcuJ12opU/JKyfFmxhuaw==
        caps mds = "allow rw, allow rws path=/bar" 
    1
    
        caps mon = "allow r"
        caps osd = "allow rw tag cephfs data=cephfs_a" 
    2
    Copy to Clipboard

    1 2
    이 예제에서 client.0 은 파일 시스템 cephfs_abar 디렉터리에서 스냅샷을 생성하거나 삭제할 수 있습니다.
  2. Ceph File System 하위 볼륨의 스냅샷을 생성합니다.

    구문

    ceph fs subvolume snapshot create VOLUME_NAME SUBVOLUME_NAME SNAP_NAME [--group_name GROUP_NAME]
    Copy to Clipboard

    예제

    [root@mon ~]# ceph fs subvolume snapshot create cephfs sub0 snap0 --group_name subgroup0
    Copy to Clipboard

4.3.7. 스냅샷에서 하위 볼륨 복제

하위 볼륨 스냅샷을 복제하여 하위 볼륨을 생성할 수 있습니다. 스냅샷에서 하위 볼륨으로 데이터 복사와 관련된 비동기 작업입니다.

참고

복제는 매우 큰 데이터 세트에는 비효율적입니다.

사전 요구 사항

  • Ceph 파일 시스템이 배포된 사용 중인 Red Hat Ceph Storage 클러스터.
  • Ceph 모니터에서 최소한 읽기 액세스 권한.
  • Ceph Manager 노드의 읽기 및 쓰기 기능.
  • 스냅샷을 생성하거나 삭제하려면, 읽기 및 쓰기 기능 외에도 클라이언트에는 파일 시스템 내의 디렉터리 경로에 플래그 가 필요합니다.

    구문

    CLIENT_NAME
        key = AQAz7EVWygILFRAAdIcuJ12opU/JKyfFmxhuaw==
        caps mds = allow rw, allow rws path=DIRECTORY_PATH
        caps mon = allow r
        caps osd = allow rw tag cephfs data=DIRECTORY_NAME
    Copy to Clipboard

    예제

    [client.0]
        key = AQAz7EVWygILFRAAdIcuJ12opU/JKyfFmxhuaw==
        caps mds = "allow rw, allow rws path=/bar"
        caps mon = "allow r"
        caps osd = "allow rw tag cephfs data=cephfs_a"
    Copy to Clipboard

    위의 예에서 client.0 은 파일 시스템 cephfs_abar 디렉토리에 스냅샷을 생성하거나 삭제할 수 있습니다.

절차

  1. Ceph 파일 시스템(CephFS) 볼륨을 생성합니다.

    구문

    ceph fs volume create VOLUME_NAME
    Copy to Clipboard

    예제

    [root@mon ~]# ceph fs volume create cephfs
    Copy to Clipboard

    이렇게 하면 CephFS 파일 시스템, 해당 데이터 및 메타데이터 풀이 생성됩니다.

  2. 하위 볼륨 그룹을 생성합니다. 기본적으로 하위 볼륨 그룹은 8진수 파일 모드 '755' 및 상위 디렉터리의 데이터 풀 레이아웃으로 생성됩니다.

    구문

    ceph fs subvolumegroup create VOLUME_NAME GROUP_NAME [--pool_layout DATA_POOL_NAME --uid UID --gid GID --mode OCTAL_MODE]
    Copy to Clipboard

    예제

    [root@mon ~]# ceph fs subvolumegroup create cephfs subgroup0
    Copy to Clipboard

  3. 하위 볼륨을 생성합니다. 기본적으로 하위 볼륨은 기본 하위 볼륨 그룹 내에 생성되며, 8진수 파일 모드 '755', subvolume 그룹의 uid, subvolume 그룹의 경우 gid, 상위 디렉터리의 데이터 풀 레이아웃, 크기 제한은 없습니다.

    구문

    ceph fs subvolume create VOLUME_NAME SUBVOLUME_NAME [--size SIZE_IN_BYTES --group_name SUBVOLUME_GROUP_NAME --pool_layout DATA_POOL_NAME --uid _UID --gid GID --mode OCTAL_MODE]
    Copy to Clipboard

    예제

    [root@mon ~]# ceph fs subvolume create cephfs sub0 --group_name subgroup0
    Copy to Clipboard

  4. 하위 볼륨의 스냅샷을 생성합니다.

    구문

    ceph fs subvolume snapshot create VOLUME_NAME _SUBVOLUME_NAME SNAP_NAME [--group_name SUBVOLUME_GROUP_NAME]
    Copy to Clipboard

    예제

    [root@mon ~]# ceph fs subvolume snapshot create cephfs sub0 snap0  --group_name subgroup0
    Copy to Clipboard

  5. 복제 작업을 시작합니다.

    참고

    기본적으로 복제된 하위 볼륨은 default 그룹에 생성됩니다.

    1. source 하위 볼륨과 대상 복제가 default 그룹에 있는 경우 다음 명령을 실행합니다.

      구문

      ceph fs subvolume snapshot clone VOLUME_NAME SUBVOLUME_NAME SNAP_NAME TARGET_CLONE_NAME
      Copy to Clipboard

      예제

      [root@mon ~]# ceph fs subvolume snapshot clone cephfs sub0 snap0 clone0
      Copy to Clipboard

    2. 기본이 아닌 그룹에 source 하위 볼륨이 있는 경우 다음 명령에서 source 하위 볼륨 그룹을 지정합니다.

      구문

      ceph fs subvolume snapshot clone VOLUME_NAME SUBVOLUME_NAME SNAP_NAME TARGET_CLONE_NAME --group_name SUBVOLUME_GROUP_NAME
      Copy to Clipboard

      예제

      [root@mon ~]# ceph fs subvolume snapshot clone cephfs sub0 snap0 clone0 --group_name subgroup0
      Copy to Clipboard

    3. 대상 복제가 기본이 아닌 그룹에 있는 경우 다음 명령에서 대상 그룹을 지정합니다.

      구문

      ceph fs subvolume snapshot clone VOLUME_NAME SUBVOLUME_NAME SNAP_NAME TARGET_CLONE_NAME --target_group_name SUBVOLUME_GROUP_NAME
      Copy to Clipboard

      예제

      [root@mon ~]# ceph fs subvolume snapshot clone cephfs sub0 snap0 clone0 --target_group_name subgroup1
      Copy to Clipboard

  6. 복제 작업의 상태를 확인합니다.

    구문

    ceph fs clone status VOLUME_NAME CLONE_NAME [--group_name TARGET_GROUP_NAME]
    Copy to Clipboard

    예제

    [root@mon ~]# ceph fs clone status cephfs clone0 --group_name subgroup1
    
    {
      "status": {
        "state": "complete"
      }
    }
    Copy to Clipboard

추가 리소스

4.3.8. 파일 시스템 하위 볼륨의 스냅샷 나열

이 섹션에서는 Ceph 파일 시스템(CephFS) 하위 볼륨의 스냅샷을 나열하는 단계를 설명합니다.

사전 요구 사항

  • Ceph 파일 시스템이 배포된 사용 중인 Red Hat Ceph Storage 클러스터.
  • Ceph 모니터에서 최소한 읽기 액세스 권한.
  • Ceph Manager 노드의 읽기 및 쓰기 기능.
  • CephFS 하위 볼륨.
  • 하위 볼륨의 스냅샷.

절차

  • CephFS 하위 볼륨의 스냅샷을 나열합니다.

    구문

    ceph fs subvolume snapshot ls VOLUME_NAME SUBVOLUME_NAME [--group_name SUBVOLUME_GROUP_NAME]
    Copy to Clipboard

    예제

    [root@mon ~]# ceph fs subvolume snapshot ls cephfs sub0 --group_name subgroup0
    Copy to Clipboard

4.3.9. 파일 시스템 하위 볼륨의 스냅샷 메타데이터 가져오기

이 섹션에서는 Ceph 파일 시스템(CephFS) 하위 볼륨의 스냅샷에 대한 메타데이터를 가져오는 단계를 제공합니다.

사전 요구 사항

  • CephFS가 배포된 Red Hat Ceph Storage 클러스터.
  • Ceph 모니터에서 최소한 읽기 액세스 권한.
  • Ceph Manager 노드의 읽기 및 쓰기 기능.
  • CephFS 하위 볼륨.
  • 하위 볼륨의 스냅샷.

절차

  1. CephFS 하위 볼륨의 스냅샷 메타데이터를 가져옵니다.

    구문

    ceph fs subvolume snapshot info VOLUME_NAME SUBVOLUME_NAME SNAP_NAME [--group_name SUBVOLUME_GROUP_NAME]
    Copy to Clipboard

    예제

    [root@mon ~]# ceph fs subvolume snapshot info cephfs sub0 snap0 --group_name subgroup0
    Copy to Clipboard

    출력 예

    {
        "created_at": "2022-05-09 06:18:47.330682",
        "data_pool": "cephfs_data",
        "has_pending_clones": "no",
        "size": 0
    }
    Copy to Clipboard

출력 형식은 JSON이며 다음 필드를 포함합니다.

  • created_at: "YYYY-MM-DD HH:MM:SS:ffffff" 형식으로 스냅샷 생성 시간.
  • data_pool: 스냅샷이 속한 데이터 풀입니다.
  • has_pending_clones: 스냅샷 복제본이 진행 중인 경우 "예"
  • size: 스냅샷 크기(바이트)입니다.

4.3.10. 파일 시스템 하위 볼륨 제거

이 섹션에서는 Ceph File System(CephFS) 하위 볼륨을 제거하는 단계를 설명합니다.

참고

ceph fs subvolume rm 명령은 하위 볼륨과 해당 콘텐츠를 두 단계로 제거합니다. 먼저 하위 볼륨을 휴지통 폴더로 이동한 다음 해당 콘텐츠를 비동기적으로 제거합니다.

하위 볼륨은 --retain-snapshots 옵션을 사용하여 하위 볼륨의 기존 스냅샷을 유지하여 제거할 수 있습니다. 스냅샷이 유지되면 유지된 스냅샷이 포함되지 않은 모든 작업에 하위 볼륨이 비어 있는 것으로 간주됩니다. 보존된 스냅샷을 복제 소스로 사용하여 하위 볼륨을 다시 생성하거나 최신 하위 볼륨에 복제할 수 있습니다.

사전 요구 사항

  • Ceph 파일 시스템이 배포된 사용 중인 Red Hat Ceph Storage 클러스터.
  • Ceph 모니터에서 최소한 읽기 액세스 권한.
  • Ceph Manager 노드의 읽기 및 쓰기 기능.
  • CephFS 하위 볼륨.

절차

  1. CephFS 하위 볼륨을 제거합니다.

    구문

    ceph fs subvolume rm VOLUME_NAME SUBVOLUME_NAME [--group_name SUBVOLUME_GROUP_NAME] [--force] [--retain-snapshots]
    Copy to Clipboard

    예제

    [root@mon ~]# ceph fs subvolume rm cephfs sub0 --group_name subgroup0 --retain-snapshots
    Copy to Clipboard

  2. 유지된 스냅샷에서 하위 볼륨을 다시 생성하려면 다음을 수행합니다.

    구문

    ceph fs subvolume snapshot clone VOLUME_NAME DELETED_SUBVOLUME RETAINED_SNAPSHOT NEW_SUBVOLUME --group_name SUBVOLUME_GROUP_NAME --target_group_name SUBVOLUME_TARGET_GROUP_NAME
    Copy to Clipboard

    • NEW_SUBVOLUME 는 이전에 삭제한 것과 동일한 하위 볼륨이거나 새 하위 볼륨에 복제할 수 있습니다.

    예제

    [root@mon ~]# ceph fs subvolume snapshot clone cephfs sub0 snap0 sub1 --group_name subgroup0 --target_group_name subgroup0
    Copy to Clipboard

4.3.11. 파일 시스템 하위 볼륨의 스냅샷 제거

이 섹션에서는 Ceph File System(CephFS) 하위 볼륨의 스냅샷을 삭제하는 단계를 제공합니다.

참고

--force 플래그를 사용하면 스냅샷이 없으면 명령이 실패할 수 있습니다.

사전 요구 사항

  • Ceph 파일 시스템이 배포된 사용 중인 Red Hat Ceph Storage 클러스터.
  • Ceph 모니터에서 최소한 읽기 액세스 권한.
  • Ceph Manager 노드의 읽기 및 쓰기 기능.
  • Ceph 파일 시스템 볼륨.
  • 하위 볼륨 그룹의 스냅샷입니다.

절차

  • CephFS 하위 볼륨의 스냅샷을 제거합니다.

    구문

    ceph fs subvolume snapshot rm VOLUME_NAME SUBVOLUME_NAME SNAP_NAME [--group_name GROUP_NAME --force]
    Copy to Clipboard

    예제

    [root@mon ~]# ceph fs subvolume snapshot rm cephfs sub0 snap0 --group_name subgroup0 --force
    Copy to Clipboard

4.4. Ceph 파일 시스템 하위 볼륨에 대한 메타데이터 정보

스토리지 관리자는 Ceph File System(CephFS) 하위 볼륨의 메타데이터 정보를 설정, 가져오기, 나열 및 제거할 수 있습니다.

사용자 지정 메타데이터는 사용자가 해당 메타데이터를 하위 볼륨에 저장하는 것입니다. 사용자는 Ceph 파일 시스템에 xattr 과 유사한 키-값 쌍을 저장할 수 있습니다.

이 섹션에서는 다음을 수행하는 방법에 대해 설명합니다.

4.4.1. 파일 시스템 하위 볼륨에서 사용자 정의 메타데이터 설정

파일 시스템 하위 볼륨의 사용자 지정 메타데이터를 키-값 쌍으로 설정할 수 있습니다.

참고

key_name 이 이미 있으면 이전 값이 새 값으로 교체됩니다.

참고

KEY_NAMEVALUE 는 python의 string.printable 에 지정된 대로 ASCII 문자여야 합니다. KEY_NAME 은 대소문자를 구분하지 않으며 항상 소문자로 저장됩니다.

중요

하위 볼륨의 사용자 지정 메타데이터는 하위 볼륨을 스냅샷할 때 보존되지 않으므로 하위 볼륨 스냅샷을 복제할 때 보존되지 않습니다.

사전 요구 사항

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • Ceph 파일 시스템(CephFS), CephFS 볼륨, 하위 볼륨 그룹, 생성된 하위 볼륨.

절차

  1. CephFS 하위 볼륨에 메타데이터를 설정합니다.

    구문

    ceph fs subvolume metadata set VOLUME_NAME SUBVOLUME_NAME KEY_NAME VALUE [--group_name SUBVOLUME_GROUP_NAME]
    Copy to Clipboard

    예제

    [ceph: root@host01 /]# ceph fs subvolume metadata set cephfs sub0 test_meta cluster --group_name subgroup0
    Copy to Clipboard

  2. 선택 사항: KEY_NAME 에서 공백으로 사용자 정의 메타데이터를 설정합니다.

    예제

    [ceph: root@host01 /]# ceph fs subvolume metadata set cephfs sub0 "test meta" cluster --group_name subgroup0
    Copy to Clipboard

    이렇게 하면 VALUE 클러스터테스트 메타KEY_NAME 을 사용하여 다른 메타데이터가 생성됩니다.

  3. 선택 사항: 다른 값으로 동일한 메타데이터를 설정할 수도 있습니다.

    예제

    [ceph: root@host01 /]# ceph fs subvolume metadata set cephfs sub0 "test_meta" cluster2 --group_name subgroup0
    Copy to Clipboard

4.4.2. 파일 시스템 하위 볼륨에서 사용자 정의 메타데이터 가져오기

특정 하위 볼륨 그룹에서 Ceph File System(CephFS)의 사용자 지정 메타데이터, 키-값 쌍을 가져올 수 있습니다.

사전 요구 사항

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • 생성된 CephFS 볼륨, 하위 볼륨 그룹, 하위 볼륨입니다.
  • CephFS 하위 볼륨에 생성된 사용자 정의 메타데이터입니다.

절차

  • CephFS 하위 볼륨에서 메타데이터를 가져옵니다.

    구문

    ceph fs subvolume metadata get VOLUME_NAME SUBVOLUME_NAME KEY_NAME [--group_name SUBVOLUME_GROUP_NAME]
    Copy to Clipboard

    예제

    [ceph: root@host01 /]# ceph fs subvolume metadata get cephfs sub0 test_meta --group_name subgroup0
    
    cluster
    Copy to Clipboard

4.4.3. 파일 시스템 하위 볼륨의 사용자 정의 메타데이터 나열

볼륨에서 Ceph 파일 시스템(CephFS) 키와 관련된 사용자 정의 메타데이터를 특정 하위 볼륨 그룹에 나열할 수 있습니다.

사전 요구 사항

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • 생성된 CephFS 볼륨, 하위 볼륨 그룹, 하위 볼륨입니다.
  • CephFS 하위 볼륨에 생성된 사용자 정의 메타데이터입니다.

절차

  • CephFS 하위 볼륨의 메타데이터를 나열합니다.

    구문

    ceph fs subvolume metadata ls VOLUME_NAME SUBVOLUME_NAME [--group_name SUBVOLUME_GROUP_NAME]
    Copy to Clipboard

    예제

    [ceph: root@host01 /]# ceph fs subvolume metadata ls cephfs sub0
    {
        "test_meta": "cluster"
    }
    Copy to Clipboard

4.4.4. 파일 시스템 하위 볼륨에서 사용자 정의 메타데이터 제거

특정 하위 볼륨 그룹에서 Ceph File System(CephFS)의 사용자 지정 메타데이터, 키-값 쌍 및 선택적으로 제거할 수 있습니다.

사전 요구 사항

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • 생성된 CephFS 볼륨, 하위 볼륨 그룹, 하위 볼륨입니다.
  • CephFS 하위 볼륨에 생성된 사용자 정의 메타데이터입니다.

절차

  1. CephFS 하위 볼륨에서 사용자 정의 메타데이터를 제거합니다.

    구문

    ceph fs subvolume metadata rm VOLUME_NAME SUBVOLUME_NAME KEY_NAME [--group_name SUBVOLUME_GROUP_NAME]
    Copy to Clipboard

    예제

    [ceph: root@host01 /]# ceph fs subvolume metadata rm cephfs sub0 test_meta --group_name subgroup0
    Copy to Clipboard

  2. 메타데이터를 나열합니다.

    예제

    [ceph: root@host01 /]# ceph fs subvolume metadata ls cephfs sub0
    
    {}
    Copy to Clipboard

4.5. 추가 리소스

5장. Ceph 파일 시스템 관리

스토리지 관리자는 다음과 같은 일반적인 Ceph 파일 시스템(CephFS) 관리 작업을 수행할 수 있습니다.

5.1. 사전 요구 사항

  • 실행 중이고 정상적인 Red Hat Ceph Storage 클러스터.
  • Ceph 메타데이터 서버 데몬(ceph-mds)의 설치 및 구성.
  • Ceph 파일 시스템을 만들고 마운트합니다.

5.2. cephfs-top 유틸리티 사용

Ceph 파일 시스템(CephFS)은 Ceph 파일 시스템에 대한 지표를 실시간으로 표시하는 최상위유틸리티를 제공합니다. cephfs-top 유틸리티는 Ceph Manager stats 모듈을 사용하여 클라이언트 성능 지표를 가져와서 표시하는 기반 Python 스크립트입니다.

현재 cephfs-top 유틸리티는 거의 10k 클라이언트를 지원합니다.

참고

현재 Red Hat Enterprise Linux 8 커널에서 모든 성능 통계를 사용할 수 있는 것은 아닙니다. cephfs-top 는 Red Hat Enterprise Linux 8 이상에서 지원되며 Red Hat Enterprise Linux의 표준 터미널 중 하나를 사용합니다.

중요

cephfs-top 유틸리티의 최소 호환 python 버전은 3.6.0입니다.

사전 요구 사항

  • 정상 실행 중인 Red Hat Ceph Storage 클러스터.
  • Ceph 파일 시스템 배포.
  • Ceph 클라이언트 노드에 대한 루트 수준 액세스.
  • cephfs-top 패키지 설치.

절차

  1. Red Hat Ceph Storage 5 툴 리포지토리가 아직 활성화되어 있지 않은 경우 활성화합니다.

    Red Hat Enterprise Linux 8

    [root@client ~]# subscription-manager repos --enable=rhceph-5-tools-for-rhel-8-x86_64-rpms
    Copy to Clipboard

    Red Hat Enterprise Linux 9

    [root@client ~]# subscription-manager repos --enable=rhceph-5-tools-for-rhel-9-x86_64-rpms
    Copy to Clipboard

  2. cephfs-top 패키지를 설치합니다.

    예제

    [root@client ~]# dnf install cephfs-top
    Copy to Clipboard

  3. Ceph Manager 통계 플러그인을 활성화합니다.

    예제

    [root@client ~]# ceph mgr module enable stats
    Copy to Clipboard

  4. client.fstop Ceph 사용자를 만듭니다.

    예제

    [root@client ~]# ceph auth get-or-create client.fstop mon 'allow r' mds 'allow r' osd 'allow r' mgr 'allow r' > /etc/ceph/ceph.client.fstop.keyring
    Copy to Clipboard

    참고

    선택적으로 --id 인수를 사용하여 client.fstop 이외의 다른 Ceph 사용자를 지정합니다.

  5. cephfs-top 유틸리티를 시작합니다.

    예제

    [root@client ~]# cephfs-top
    cephfs-top - Thu Jun 15 16:27:14 2023
    
    All Filesystem Info
    Total Client(s): 4 - 3 FUSE, 1 kclient, 0 libcephfs
    COMMANDS: m - select a filesystem | s - sort menu | l - limit number of clients | r -reset to default | q - quit
    
    
       client_id  mount_root  chit(%)  dlease(%)  ofiles  oicaps  oinodes  rtio(MB)  raio(MB)  rsp(ms)  wtio(ms)  waio(MB)  wsp(MB/s)  rlatavg(ms)  rlatsd(ms)  wlatavg(ms)  wlatsd(ms)  mlatavg(ms)  mlatsd(ms)  mount_point@host/addr
    
       Filesystem: cephfs1 - 2 clients(s)
    
       4482            /       100.0       0.0       0       1       0       0.0      0.0        0.0      0.0       0.0        0.0        0.0         0.0      0.0            0.0           27.36        0.0       N/A@example/192.168.1.4
       4488            /       100.0       0.0       0       1       0       0.0      0.0        0.0      0.0       0.0        0.0        0.0         0.0      0.0            0.0           0.34        0.0        /mnt/cephfs2@example/192.168.1.4
    
       Filesystem: cephfs2 - 2 clients(s)
    
       4494            /       100.0       0.0       0       1       0       0.0      0.0        0.0      0.0       0.0        0.0        0.0         0.0      0.0            0.0           0.37        0.0        /mnt/cephfs3@example/192.168.1.4
       4500            /       100.0       0.0       0       1       0       0.0      0.0        0.0      0.0       0.0        0.0        0.0         0.0      0.0            0.0           0.29        0.0        /mnt/cephfs4@example/192.168.1.4
    Copy to Clipboard

    참고

    기본적으로 cephfs-top 는 스토리지 클러스터 이름 ceph 에 연결됩니다. 기본이 아닌 스토리지 클러스터 이름을 사용하려면 cephfs-top 유틸리티와 함께 --cluster NAME 옵션을 사용할 수 있습니다.

5.3. MDS 자동 스케일러 모듈 사용

MDS Autoscaler 모듈은 CephFS(Ceph File System)를 모니터링하여 MDS 데몬을 사용할 수 있는지 확인합니다. MDS 서비스의 오케스트레이션 백엔드에 대한 배치 사양을 조정하여 작동합니다.

모듈은 다음 파일 시스템 설정을 모니터링하여 배치 개수 조정에 알립니다.

  • max_mds 파일 시스템 설정
  • standby_count_wanted 파일 시스템 설정

Ceph 모니터 데몬은 여전히 이러한 설정에 따라 MDS를 승격하거나 중지해야 합니다. mds_autoscaler 는 오케스트레이터가 생성하는 MDS 수를 간단하게 조정합니다.

사전 요구 사항

  • 정상 실행 중인 Red Hat Ceph Storage 클러스터.
  • Ceph 파일 시스템 배포.
  • Ceph 모니터 노드에 대한 루트 수준 액세스.

절차

  • MDS 자동 스케일러 모듈을 활성화합니다.

    예제

    [ceph: root@host01 /]# ceph mgr module enable mds_autoscaler
    Copy to Clipboard

5.4. 커널 클라이언트로 마운트된 Ceph 파일 시스템 마운트 해제

커널 클라이언트로 마운트된 Ceph 파일 시스템을 마운트 해제하는 방법.

사전 요구 사항

  • 마운트를 수행하는 노드에 대한 루트 수준 액세스입니다.

절차

  • 커널 클라이언트로 마운트된 Ceph 파일 시스템을 마운트 해제하려면 다음을 수행합니다.

    구문

    umount MOUNT_POINT
    Copy to Clipboard

    예제

    [root@client ~]# umount /mnt/cephfs
    Copy to Clipboard

추가 리소스

  • umount(8) 매뉴얼 페이지

5.5. FUSE 클라이언트로 마운트된 Ceph 파일 시스템 마운트 해제

FUSE(사용자 공간에서 파일 시스템) 클라이언트로 마운트된 Ceph 파일 시스템 마운트 해제.

사전 요구 사항

  • FUSE 클라이언트 노드에 대한 루트 수준 액세스.

절차

  • FUSE에 마운트된 Ceph 파일 시스템을 마운트 해제하려면 다음을 수행합니다.

    구문

    fusermount -u MOUNT_POINT
    Copy to Clipboard

    예제

    [root@client ~]# fusermount -u /mnt/cephfs
    Copy to Clipboard

추가 리소스

  • ceph-fuse(8) 매뉴얼 페이지

5.6. 디렉터리 트리를 메타데이터 서버 데몬 순위에 매핑

디렉터리와 하위 디렉터리를 특정 활성 메타데이터 서버(MDS) 순위로 매핑할 수 있으므로 해당 메타데이터는 해당 순위를 보유하는 MDS 데몬에서만 관리할 수 있습니다. 이 방법을 사용하면 애플리케이션 로드를 균등하게 분배하거나 전체 스토리지 클러스터에 사용자의 메타데이터 요청에 대한 제한 영향을 균등하게 분산할 수 있습니다.

중요

내부 밸런서는 이미 애플리케이션 로드를 동적으로 분배합니다. 따라서 디렉터리 트리만 신중하게 선택한 애플리케이션에 대해 순위를 매깁니다.

또한 디렉터리가 순위에 매핑되면 밸런서에서 해당 디렉터리를 분할할 수 없습니다. 결과적으로 매핑된 디렉토리 내의 많은 작업이 순위와 이를 관리하는 MDS 데몬을 과부하시킬 수 있습니다.

사전 요구 사항

  • 2개 이상의 활성 MDS 데몬.
  • CephFS 클라이언트 노드에 대한 사용자 액세스 권한.
  • attr 패키지가 마운트된 Ceph 파일 시스템이 있는 CephFS 클라이언트 노드에 설치되어 있는지 확인합니다.

절차

  1. Ceph 사용자의 기능에 p 플래그를 추가합니다.

    구문

    ceph fs authorize FILE_SYSTEM_NAME client.CLIENT_NAME /DIRECTORY CAPABILITY [/DIRECTORY CAPABILITY] ...
    Copy to Clipboard

    예제

    [user@client ~]$ ceph fs authorize cephfs_a client.1 /temp rwp
    
    client.1
      key: AQBSdFhcGZFUDRAAcKhG9Cl2HPiDMMRv4DC43A==
      caps: [mds] allow r, allow rwp path=/temp
      caps: [mon] allow r
      caps: [osd] allow rw tag cephfs data=cephfs_a
    Copy to Clipboard

  2. 디렉터리에 ceph.dir.pin 확장 속성을 설정합니다.

    구문

    setfattr -n ceph.dir.pin -v RANK DIRECTORY
    Copy to Clipboard

    예제

    [user@client ~]$ setfattr -n ceph.dir.pin -v 2 /temp
    Copy to Clipboard

    이 예에서는 /temp 디렉토리와 모든 하위 디렉토리를 2 순위를 할당합니다.

추가 리소스

5.7. 메타데이터 서버 데몬 순위에서 디렉터리 트리의 연결 끊기

특정 활성 메타데이터 서버(MDS) 등급에서 디렉터리의 연결을 끊습니다.

사전 요구 사항

  • Ceph 파일 시스템(CephFS) 클라이언트 노드에 대한 사용자 액세스 권한.
  • attr 패키지가 CephFS가 마운트된 클라이언트 노드에 설치되어 있는지 확인합니다.

절차

  • 디렉토리에서 ceph.dir.pin 확장 속성을 -1로 설정합니다.

    구문

    setfattr -n ceph.dir.pin -v -1 DIRECTORY
    Copy to Clipboard

    예제

    [user@client ~]$ setfattr -n ceph.dir.pin -v -1 /home/ceph-user
    Copy to Clipboard

    참고

    /home/ceph-user/ 의 별도로 매핑된 하위 디렉터리는 영향을 받지 않습니다.

추가 리소스

5.8. 데이터 풀 추가

Ceph 파일 시스템(CephFS)은 데이터 저장에 사용할 풀을 두 개 이상 추가할 수 있도록 지원합니다. 이는 다음을 위해 유용할 수 있습니다.

  • 축소된 중복 풀에 로그 데이터를 저장합니다.
  • SSD 또는 NVMe 풀에 사용자 홈 디렉터리 저장
  • 기본 데이터 분리.

Ceph 파일 시스템에서 다른 데이터 풀을 사용하기 전에 이 섹션에 설명된 대로 추가해야 합니다.

기본적으로 CephFS는 파일 데이터를 저장하기 위해 생성 중에 지정된 초기 데이터 풀을 사용합니다. 보조 데이터 풀을 사용하려면 파일 및 디렉터리 레이아웃을 사용하여 해당 풀 또는 해당 풀의 네임스페이스 내에서 파일 데이터를 저장하도록 파일 시스템 계층 구조의 일부도 구성해야 합니다.

사전 요구 사항

  • Ceph 모니터 노드에 대한 루트 수준 액세스.

절차

  1. 새 데이터 풀을 생성합니다.

    구문

    ceph osd pool create POOL_NAME
    Copy to Clipboard

    교체:

    • 풀 이름이 있는 POOL_NAME.

    예제

    [ceph: root@host01 /]# ceph osd pool create cephfs_data_ssd
    
    pool 'cephfs_data_ssd' created
    Copy to Clipboard

  2. 메타데이터 서버의 제어 아래에 새로 생성된 풀을 추가합니다.

    구문

    ceph fs add_data_pool FS_NAME POOL_NAME
    Copy to Clipboard

    교체:

    • 파일 시스템 이름이 있는 FS_NAME.
    • 풀 이름이 있는 POOL_NAME.

    예제:

    [ceph: root@host01 /]# ceph fs add_data_pool cephfs cephfs_data_ssd
    
    added data pool 6 to fsmap
    Copy to Clipboard

  3. 풀이 성공적으로 추가되었는지 확인합니다.

    예제

    [ceph: root@host01 /]# ceph fs ls
    
    name: cephfs, metadata pool: cephfs_metadata, data pools: [cephfs.cephfs.data cephfs_data_ssd]
    Copy to Clipboard

  4. 선택 사항: 파일 시스템에서 데이터 풀을 제거합니다.

    구문

    ceph fs rm_data_pool FS_NAME POOL_NAME
    Copy to Clipboard

    예제:

    [ceph: root@host01 /]# ceph fs rm_data_pool cephfs cephfs_data_ssd
    
    removed data pool 6 from fsmap
    Copy to Clipboard

    1. 풀이 성공적으로 제거되었는지 확인합니다.

      예제

      [ceph: root@host01 /]# ceph fs ls
      
      name: cephfs, metadata pool: cephfs_metadata, data pools: [cephfs.cephfs.data]
      Copy to Clipboard

  5. cephx 인증을 사용하는 경우 클라이언트가 새 풀에 액세스할 수 있는지 확인합니다.

추가 리소스

5.9. Ceph 파일 시스템 클러스터 사용

down 플래그를 true 로 설정하여 Ceph File System(CephFS) 클러스터를 중단할 수 있습니다. 이렇게 하면 메타데이터 풀로 저널을 플러시하고 모든 클라이언트 I/O를 중지하여 메타데이터 서버(MDS) 데몬이 정상적으로 종료됩니다.

또한, 재해 복구 시나리오를 수행하는 경우, CephFS 클러스터를 신속하게 사용하여 파일 시스템의 삭제를 테스트하고 Metadata Server (MDS) 데몬을 중단할 수 있습니다. 이렇게 하면 MDS standby 데몬이 파일 시스템을 활성화하지 못하도록 결합된 플래그가 설정됩니다.

사전 요구 사항

  • Ceph 모니터 노드에 대한 루트 수준 액세스.

절차

  1. CephFS 클러스터를 종료하려면 다음을 수행합니다.

    구문

    ceph fs set FS_NAME down true
    Copy to Clipboard

    예제

    [ceph: root@host01 /]# ceph fs set cephfs down true
    Copy to Clipboard

    1. CephFS 클러스터를 백업하려면 다음을 수행합니다.

      구문

      ceph fs set FS_NAME down false
      Copy to Clipboard

      예제

      [ceph: root@host01 /]# ceph fs set cephfs down false
      Copy to Clipboard

    또는

  1. CephFS 클러스터를 신속하게 중단하려면 다음을 수행합니다.

    구문

    ceph fs fail FS_NAME
    Copy to Clipboard

    예제

    [ceph: root@host01 /]# ceph fs fail cephfs
    Copy to Clipboard

    참고

    CephFS 클러스터를 다시 가져오려면 cephfs조인 가능 으로 설정합니다.

    구문

    ceph fs set FS_NAME joinable true
    Copy to Clipboard

    예제

    [ceph: root@host01 /]# ceph fs set cephfs joinable true
    cephfs marked joinable; MDS may join as newly active.
    Copy to Clipboard

5.10. Ceph 파일 시스템 제거

Ceph 파일 시스템(CephFS)을 제거할 수 있습니다. 이 작업을 수행하기 전에 모든 데이터를 백업하고 모든 클라이언트가 파일 시스템을 로컬로 마운트 해제했는지 확인합니다.

주의

이 작업은 안전하지 않으며 Ceph 파일 시스템에 저장된 데이터에 영구적으로 액세스할 수 없게 만듭니다.

사전 요구 사항

  • 데이터를 백업합니다.
  • Ceph 모니터 노드에 대한 루트 수준 액세스.

절차

  1. 스토리지 클러스터를 down으로 표시합니다.

    구문

    ceph fs set FS_NAME down true
    Copy to Clipboard

    교체
    • 제거할 Ceph 파일 시스템 이름이 있는 FS_NAME.

    예제

    [ceph: root@host01 /]# ceph fs set cephfs down true
    cephfs marked down.
    Copy to Clipboard

  2. Ceph File System의 상태를 표시합니다.

    ceph fs status
    Copy to Clipboard

    예제

    [ceph: root@host01 /]# ceph fs status
    cephfs - 0 clients
    ======
    +-------------------+----------+-------+-------+
    |       POOL        |   TYPE   |  USED | AVAIL |
    +-----------------+------------+-------+-------+
    |cephfs.cephfs.meta | metadata | 31.5M |  52.6G|
    |cephfs.cephfs.data |   data   |    0  |  52.6G|
    +-----------------+----------+-------+---------+
                   STANDBY MDS
    cephfs.ceph-host01
    cephfs.ceph-host02
    cephfs.ceph-host03
    Copy to Clipboard

  3. Ceph 파일 시스템을 제거합니다.

    구문

    ceph fs rm FS_NAME --yes-i-really-mean-it
    Copy to Clipboard

    교체
    • 제거할 Ceph 파일 시스템 이름이 있는 FS_NAME.

    예제

    [ceph: root@host01 /]# ceph fs rm cephfs --yes-i-really-mean-it
    Copy to Clipboard

  4. 파일 시스템이 성공적으로 제거되었는지 확인합니다.

    [ceph: root@host01 /]# ceph fs ls
    Copy to Clipboard
  5. 선택 사항: 제거된 파일 시스템과 관련된 데이터 및 메타데이터 풀을 제거합니다.

추가 리소스

  • Red Hat Ceph Storage Strategies Guide의 Delete a Pool 섹션을 참조하십시오.

5.11. ceph mds fail 명령 사용

ceph mds fail 명령을 사용하여 다음을 수행합니다.

  • MDS 데몬을 실패로 표시합니다. 데몬이 활성 상태이고 적절한 대기 데몬을 사용할 수 있고 standby -replay 구성을 비활성화한 후 standby 데몬이 활성화된 경우 이 명령을 사용하여 대기 데몬에 대한 장애 조치를 강제 적용합니다. standby-replay 데몬을 비활성화하면 standby-replay 데몬이 할당되지 않습니다.
  • 실행 중인 MDS 데몬을 다시 시작합니다. 데몬이 활성 상태이고 적절한 대기 데몬을 사용할 수 있는 경우 "실패한" 데몬은 대기 데몬이 됩니다.

사전 요구 사항

  • Ceph MDS 데몬의 설치 및 구성.

절차

  • 데몬에 실패하려면 다음을 수행합니다.

    구문

    ceph mds fail MDS_NAME
    Copy to Clipboard

    여기서 MDS_NAMEstandby-replay MDS 노드의 이름입니다.

    예제

    [ceph: root@host01 /]# ceph mds fail example01
    Copy to Clipboard

    참고

    ceph fs status 명령에서 Ceph MDS 이름을 찾을 수 있습니다.

5.12. 클라이언트 기능

경우에 따라 클라이언트가 Ceph 파일 시스템을 사용할 수 있도록 지원해야 하는 Ceph 파일 시스템(CephFS) 기능을 설정할 수 있습니다. 이러한 기능이 없는 클라이언트는 다른 CephFS 클라이언트가 중단되거나 예기치 않은 방식으로 작동할 수 있습니다. 또한 이전 및 버그 클라이언트가 Ceph 파일 시스템에 연결하는 것을 방지하기 위해 새로운 기능이 필요할 수 있습니다.

중요

새로 추가된 기능이 없는 CephFS 클라이언트가 자동으로 제거됩니다.

fs features ls 명령을 사용하여 모든 CephFS 기능을 나열할 수 있습니다. fs required_client_features 명령을 사용하여 요구 사항을 추가하거나 제거할 수 있습니다.

구문

fs required_client_features FILE_SYSTEM_NAME add FEATURE_NAME
fs required_client_features FILE_SYSTEM_NAME rm FEATURE_NAME
Copy to Clipboard

기능 설명

reply_encoding
설명
클라이언트에서 이 기능을 지원하는 경우 Ceph 메타데이터 서버(MDS)는 확장 가능한 형식으로 응답 요청을 인코딩합니다.
reclaim_client
설명
Ceph MDS를 사용하면 새 클라이언트가 배달되지 않은 다른 클라이언트 상태를 회수할 수 있습니다. 이 기능은 NFS Ganesha에서 사용합니다.
lazy_caps_wanted
설명
오래된 클라이언트가 다시 시작되면 클라이언트가 이 기능을 지원하는 경우 Ceph MDS에서 명시적으로 원하는 기능만 다시 발행하면 됩니다.
multi_reconnect
설명
Ceph MDS 페일오버 이벤트 후에는 클라이언트에서 다시 연결 메시지를 MDS에 전송하여 캐시 상태를 다시 설정합니다. 클라이언트는 큰 재연결 메시지를 여러 메시지로 나눌 수 있습니다.
deleg_ino
설명
클라이언트에서 이 기능을 지원하는 경우 Ceph MDS는 inode 번호를 클라이언트에 위임합니다. inode 번호 위임은 클라이언트가 비동기 파일 생성을 수행하는 데 필요한 전제 조건입니다.
metric_collect
설명
CephFS 클라이언트는 성능 지표를 Ceph MDS에 전송할 수 있습니다.
alternate_name
설명
CephFS 클라이언트는 디렉터리 항목의 대체 이름을 설정하고 이해할 수 있습니다. 이 기능을 사용하면 암호화된 파일 이름을 사용할 수 있습니다.

5.13. Ceph File System 클라이언트 제거

Ceph 파일 시스템(CephFS) 클라이언트가 응답하지 않거나 오작동하는 경우 강제로 종료하거나 CephFS 액세스에서 제거해야 할 수 있습니다. CephFS 클라이언트를 제거하면 메타데이터 서버(MDS) 데몬 및 Ceph OSD 데몬과 더 이상 통신할 수 없습니다. 제거 시 CephFS 클라이언트가 CephFS에 I/O를 버퍼링하는 경우 플러시되지 않은 데이터는 손실됩니다. CephFS 클라이언트 제거 프로세스는 모든 클라이언트 유형에 적용됩니다. FUSE 마운트, 커널 마운트, NFS 게이트웨이 및 libcephfs API 라이브러리를 사용하는 모든 프로세스.

MDS 데몬과 즉시 통신하지 못하거나 수동으로 통신하지 못하는 경우 CephFS 클라이언트를 자동으로 제거할 수 있습니다.

자동 클라이언트 제거

이러한 시나리오에서는 자동 CephFS 클라이언트 제거가 발생합니다.

  • CephFS 클라이언트가 기본값인 300초 동안 또는 session_autoclose 옵션으로 설정된 경우의 활성 MDS 데몬과 통신하지 않은 경우.
  • mds_cap_revoke_eviction_timeout 옵션이 설정되고 CephFS 클라이언트가 설정된 시간 동안 cap revoke 메시지에 응답하지 않았습니다. mds_cap_revoke_eviction_timeout 옵션은 기본적으로 비활성화되어 있습니다.
  • MDS 시작 또는 페일오버 중에 MDS 데몬은 모든 CephFS 클라이언트가 새 MDS 데몬에 연결할 때까지 대기 단계를 거칩니다. CephFS 클라이언트가 기본 시간 45초 내에 재연결하지 않거나 mds_reconnect_timeout 옵션으로 설정된 경우.

5.14. 블록리스트 Ceph 파일 시스템 클라이언트

Ceph 파일 시스템(CephFS) 클라이언트 블록리스트는 기본적으로 활성화되어 있습니다. 제거 명령을 단일 메타데이터 서버(MDS) 데몬으로 보내면 blocklist를 다른 MDS 데몬으로 전파합니다. 이는 CephFS 클라이언트가 모든 데이터 오브젝트에 액세스하지 못하도록 하기 위해 블록리스트 클라이언트 항목이 포함된 최신 Ceph OSD 맵을 사용하여 다른 CephFS 클라이언트 및 MDS 데몬을 업데이트해야 합니다.

Ceph OSD 맵을 업데이트할 때 내부 "osdmap epoch 장벽" 메커니즘이 사용됩니다. 문제를 해결하기 위한 목적은 ENOSPC 또는 차단된 클라이언트에서 제거에서 차단된 작업과 함께 경쟁하지 않는 것과 동일한 RADOS 오브젝트에 액세스할 수 있는 기능을 할당하기 전에 기능을 충분히 최신 Ceph OSD 맵이 있는지 확인하는 것입니다.

느린 노드 또는 불안정한 네트워크로 인해 CephFS 클라이언트 제거가 자주 발생하고 기본 문제를 해결할 수 없는 경우 MDS에 덜 엄격하게 요청할 수 있습니다. 단순히 MDS 세션을 삭제하면 느린 CephFS 클라이언트에 응답할 수 있지만, CephFS 클라이언트가 세션을 다시 열고 Ceph OSD에 계속 통신할 수 있습니다. mds_session_blocklist_on_timeoutmds_session_blocklist_on_evict 옵션을 false로 설정하면 이 모드가 활성화됩니다.

참고

블록리스트가 비활성화되면 제거된 CephFS 클라이언트는 명령을 전송하는 MDS 데몬에만 적용됩니다. 여러 개의 활성 MDS 데몬이 있는 시스템에서 제거 명령을 각 활성 데몬으로 보내야 합니다.

5.15. Ceph 파일 시스템 클라이언트 수동 제거

클라이언트에서 오류가 발생하고 클라이언트 노드에 액세스할 수 없거나 클라이언트가 종료되면 Ceph 파일 시스템(CephFS) 클라이언트를 수동으로 제거할 수 있습니다. 클라이언트 세션이 시간 초과될 때까지 기다리지 않습니다.

사전 요구 사항

  • Ceph 모니터 노드에 대한 루트 수준 액세스.

절차

  1. 클라이언트 목록을 검토합니다.

    구문

    ceph tell DAEMON_NAME client ls
    Copy to Clipboard

    예제

    [ceph: root@host01 /]# ceph tell mds.0 client ls
    [
        {
            "id": 4305,
            "num_leases": 0,
            "num_caps": 3,
            "state": "open",
            "replay_requests": 0,
            "completed_requests": 0,
            "reconnecting": false,
            "inst": "client.4305 172.21.9.34:0/422650892",
            "client_metadata": {
                "ceph_sha1": "79f0367338897c8c6d9805eb8c9ad24af0dcd9c7",
                "ceph_version": "ceph version 16.2.8-65.el8cp (79f0367338897c8c6d9805eb8c9ad24af0dcd9c7)",
                "entity_id": "0",
                "hostname": "senta04",
                "mount_point": "/tmp/tmpcMpF1b/mnt.0",
                "pid": "29377",
                "root": "/"
            }
        }
    ]
    Copy to Clipboard

  2. 지정된 CephFS 클라이언트를 제거합니다.

    구문

    ceph tell DAEMON_NAME client evict id=ID_NUMBER
    Copy to Clipboard

    예제

    [ceph: root@host01 /]# ceph tell mds.0 client evict id=4305
    Copy to Clipboard

5.16. 블록 목록에서 Ceph 파일 시스템 클라이언트 제거

일부 상황에서는 이전에 차단된 Ceph File System(CephFS) 클라이언트가 스토리지 클러스터에 다시 연결하도록 허용하는 것이 유용할 수 있습니다.

중요

블록 목록에서 CephFS 클라이언트를 제거하면 데이터 무결성이 위험하므로 완전히 정상적이고 기능적인 CephFS 클라이언트가 보장되지 않습니다. 제거 후 완전히 정상인 CephFS 클라이언트를 다시 가져오는 가장 좋은 방법은 CephFS 클라이언트를 마운트 해제하고 새 마운트를 수행하는 것입니다. 다른 CephFS 클라이언트가 차단된 CephFS 클라이언트가 I/O를 버퍼링하는 파일에 액세스하는 경우 데이터가 손상될 수 있습니다.

사전 요구 사항

  • Ceph 모니터 노드에 대한 루트 수준 액세스.

절차

  1. 블록 목록을 검토합니다.

    예제

    [ceph: root@host01 /]# ceph osd blocklist ls
    listed 1 entries
    127.0.0.1:0/3710147553 2022-05-09 11:32:24.716146
    Copy to Clipboard

  2. blocklist에서 CephFS 클라이언트를 제거합니다.

    구문

    ceph osd blocklist rm CLIENT_NAME_OR_IP_ADDR
    Copy to Clipboard

    예제

    [ceph: root@host01 /]# ceph osd blocklist rm 127.0.0.1:0/3710147553
    un-blocklisting 127.0.0.1:0/3710147553
    Copy to Clipboard

  3. 필요한 경우 blocklist에서 제거할 때 커널 기반 CephFS 클라이언트가 자동으로 다시 연결할 수 있습니다. 커널 기반 CephFS 클라이언트에서 수동 마운트를 수행할 때 다음 옵션을 정리 하거나 /etc/fstab 파일의 항목을 사용하여 자동으로 마운트하도록 설정합니다.

    recover_session=clean
    Copy to Clipboard
  4. 필요한 경우 블록 목록에서 제거할 때 FUSE 기반 CephFS 클라이언트가 자동으로 다시 연결할 수 있습니다. FUSE 클라이언트에서 수동 마운트를 수행할 때 다음 옵션을 true 로 설정하거나 /etc/fstab 파일의 항목을 사용하여 자동으로 마운트합니다.

    client_reconnect_stale=true
    Copy to Clipboard

6장. NFS 클러스터 및 내보내기 관리

스토리지 관리자는 NFS 클러스터를 생성하고 사용자 지정하고 NFS 프로토콜을 통해 Ceph 파일 시스템 네임스페이스를 내보낼 수 있습니다.

6.1. 사전 요구 사항

  • 실행 중이고 정상적인 Red Hat Ceph Storage 클러스터.
  • Ceph 메타데이터 서버 데몬(ceph-mds)의 설치 및 구성.
  • Ceph 파일 시스템을 만들고 마운트합니다.

6.2. NFS 클러스터 생성

nfs cluster create 명령을 사용하여 NFS 클러스터를 생성합니다. 이렇게 하면 모든 NFS Ganesa 데몬에 대한 공통 복구 풀, 클러스터 이름을 기반으로 하는 새 사용자, 공통 NFS Ganesha 구성 RADOS 오브젝트가 생성됩니다.

사전 요구 사항

  • 실행 중이고 정상적인 Red Hat Ceph Storage 클러스터.
  • 기존 Ceph 파일 시스템.
  • Ceph 모니터에 대한 루트 수준 액세스.
  • Ceph Manager 호스트에 nfs-ganesha,nfs-ganesha-rados-grace, nfs-ganesha-rados-urls 패키지를 설치합니다.
  • 클라이언트에 대한 루트 수준 액세스입니다.

절차

  1. Cephadm 쉘에 로그인합니다.

    예제

    [root@mds ~]# cephadm shell
    Copy to Clipboard

  2. Ceph Manager NFS 모듈을 활성화합니다.

    예제

    [ceph: root@host01 /]# ceph mgr module enable nfs
    Copy to Clipboard

  3. NFS Ganesha 클러스터를 생성합니다.

    구문

    ceph nfs cluster create CLUSTER_NAME [PLACEMENT] [--ingress] [--virtual_ip IP_ADDRESS] [--ingress-mode {default|keepalive-only|haproxy-standard|haproxy-protocol}] [--port PORT]
    Copy to Clipboard

    예제

    [ceph: root@host01 /]# ceph nfs cluster create nfs-cephfs "host01 host02"
    NFS Cluster Created Successfully
    Copy to Clipboard

    이 예에서 NFS Ganesha 클러스터 이름은 nfs-cephfs 이고 데몬 컨테이너는 host01host02 에 배포됩니다.

    중요

    Red Hat은 호스트당 실행 중인 하나의 NFS Ganesha 데몬만 지원합니다.

  4. NFS Ganesha 클러스터 정보를 확인합니다.

    구문

    ceph nfs cluster info [CLUSTER_NAME]
    Copy to Clipboard

    예제

    [ceph: root@host01 /]# ceph nfs cluster info nfs-cephfs
    {
        "nfs-cephfs": [
            {
                "hostname": "host01",
                "ip": "10.74.179.124",
                "port": 2049
            },
            {
                "hostname": "host02",
                "ip": "10.74.180.160",
                "port": 2049
            }
        ]
    }
    Copy to Clipboard

    참고

    CLUSTER_NAME 을 지정하는 것은 선택 사항입니다.

6.3. NFS 구성 사용자 정의

구성 파일을 사용하여 NFS 클러스터를 사용자 지정합니다. 이를 통해 NFS 클러스터는 지정된 구성을 사용하며 기본 구성 블록보다 우선합니다.

사전 요구 사항

  • 실행 중이고 정상적인 Red Hat Ceph Storage 클러스터.
  • Ceph 메타데이터 서버(MDS) 노드에 대한 루트 수준 액세스.
  • ceph nfs cluster create 명령을 사용하여 생성된 NFS 클러스터입니다.

절차

  1. 구성 파일을 생성합니다.

    예제

    [ceph: root@host01 /]# touch nfs-cephfs.conf
    Copy to Clipboard

  2. 다음 블록을 사용하여 구성 파일에서 로그인을 활성화합니다.

    예제

    [ceph: root@host01 /]# vi nfs-cephfs.conf
    
    LOG {
     COMPONENTS {
         ALL = FULL_DEBUG;
     }
    }
    Copy to Clipboard

  3. 새 구성을 설정합니다.

    구문

    ceph nfs cluster config set CLUSTER_NAME -i PATH_TO_CONFIG_FILE
    Copy to Clipboard

    예제

    [ceph: root@host01 /]# ceph nfs cluster config set nfs-cephfs -i nfs-cephfs.conf
    
    NFS-Ganesha Config Set Successfully
    Copy to Clipboard

  4. 사용자 지정 NFS Ganesha 구성을 확인합니다.

    구문

    ceph nfs cluster config get CLUSTER_NAME
    Copy to Clipboard

    예제

    [ceph: root@host01 /]#  ceph nfs cluster config get nfs-cephfs
    
    LOG {
        COMPONENTS {
            ALL = FULL_DEBUG;
        }
    }
    Copy to Clipboard

    사용자 정의 구성의 경우 출력이 제공됩니다.

  5. 선택 사항: 사용자 정의 구성을 제거하려면 다음 명령을 실행합니다.

    구문

    ceph nfs cluster config reset CLUSTER_NAME
    Copy to Clipboard

    예제

    [ceph: root@host01 /]# ceph nfs cluster config reset nfs-cephfs
    
    NFS-Ganesha Config Reset Successfully
    Copy to Clipboard

6.4. NFS 프로토콜(Limited Availability)을 통해 Ceph 파일 시스템 네임스페이스 내보내기

Ceph 파일 시스템(CephFS) 네임스페이스는 NFS Ganesha 파일 서버를 사용하여 NFS 프로토콜에서 내보낼 수 있습니다. CephFS 네임스페이스를 내보내려면 먼저 실행 중인 NFS Ganesha 클러스터가 있어야 합니다.

참고

이 기술은 제한적인 가용성입니다. 자세한 내용은 사용 중단된 기능 장을 참조하십시오.

중요

Red Hat은 NFS 버전 4.0 이상만 지원합니다.

중요

NFS 클라이언트는 기본 NFS 마운트를 통해 CephFS 스냅샷을 생성할 수 없습니다. 스냅샷 요구 사항에는 서버 측 Operator 툴링을 사용해야 합니다.

사전 요구 사항

  • 실행 중이고 정상적인 Red Hat Ceph Storage 클러스터.
  • ceph nfs cluster create 명령을 사용하여 생성된 NFS 클러스터입니다.

절차

  1. CephFS 내보내기를 생성합니다.

    • Red Hat Ceph Storage 5.0의 경우 다음과 같이 내보내기를 생성합니다.

      구문

      ceph nfs export create cephfs FILE_SYSTEM_NAME CLUSTER_NAME BINDING [--readonly] [--path=PATH_WITHIN_CEPHFS]
      Copy to Clipboard

      예제

      [ceph: root@host01 /]# ceph nfs export create cephfs cephfs01 nfs-cephfs /ceph  --path=/
      Copy to Clipboard

    • Red Hat Ceph Storage 5.1 이상의 경우 다음과 같이 내보내기를 생성합니다.

      구문

      ceph nfs export create cephfs CLUSTER_NAME BINDING FILE_SYSTEM_NAME [--readonly] [--path=PATH_WITHIN_CEPHFS]
      Copy to Clipboard

      예제

      [ceph: root@host01 /]# ceph nfs export create cephfs nfs-cephfs /ceph cephfs01 --path=/
      Copy to Clipboard

      이 예에서 BINDING (/ceph)은 고유해야 하는 의사 루트 경로와 절대 경로입니다.

      참고

      read only 옵션은 읽기 전용 권한, 기본값은 읽기 및 쓰기 권한으로 경로를 내보냅니다.

      참고

      PATH_WITHIN_CEPHFS 는 하위 볼륨일 수 있습니다. 다음 명령을 사용하여 절대 하위 볼륨 경로를 가져올 수 있습니다.

      구문

      ceph fs subvolume getpath VOLUME_NAME SUBVOLUME_NAME [--group_name SUBVOLUME_GROUP_NAME]
      Copy to Clipboard

      예제

      [ceph: root@host01 /]# ceph fs subvolume getpath cephfs sub0
      Copy to Clipboard

  2. 의사 루트 이름을 기반으로 내보내기 블록을 확인합니다.

    구문

    ceph nfs export get CLUSTER_NAME BINDING
    Copy to Clipboard

    예제

    [ceph: root@host01 /]# ceph nfs export get nfs-cephfs /ceph
    {
      "export_id": 1,
      "path": "/",
      "cluster_id": "nfs-cephfs",
      "pseudo": "/ceph",
      "access_type": "RW",
      "squash": "no_root_squash",
      "security_label": true,
      "protocols": [
        4
      ],
      "transports": [
        "TCP"
      ],
      "fsal": {
        "name": "CEPH",
        "user_id": "cephnfs11",
        "fs_name": "cephfs",
        "sec_label_xattr": ""
      },
      "clients": []
    }
    Copy to Clipboard

  3. NFS 내보내기를 나열합니다.

    구문

    ceph nfs export ls CLUSTER_NAME [--detailed]
    Copy to Clipboard

    예제

    [ceph: root@host01 /]# ceph nfs export ls nfs-cephfs
    [
      "/ceph/"
    ]
    [ceph: root@host01 /]# ceph nfs export ls nfs-cephfs --detailed
    [
      {
        "export_id": 100,
        "path": "/",
        "cluster_id": "nfs-cephfs",
        "pseudo": "/ceph/",
        "access_type": "RW",
        "squash": "no_root_squash",
        "security_label": true,
        "protocols": [
          4
        ],
        "transports": [
          "TCP"
        ],
        "fsal": {
          "name": "CEPH",
          "user_id": "nfstest01",
          "fs_name": "cephfs",
          "sec_label_xattr": ""
        },
        "clients": []
      }
    ]
    Copy to Clipboard

  4. NFS 내보내기에 대한 정보를 가져옵니다.

    구문

    ceph nfs export info CLUSTER_NAME [PSEUDO_PATH]
    Copy to Clipboard

    예제

    [ceph: root@host01 /]# ceph nfs export info nfs-cephfs /ceph
    
    {
      "export_id": 1,
      "path": "/",
      "cluster_id": "nfs-cephfs",
      "pseudo": "/ceph",
      "access_type": "RW",
      "squash": "none",
      "security_label": true,
      "protocols": [
        4
      ],
      "transports": [
        "TCP"
      ],
      "fsal": {
        "name": "CEPH",
        "user_id": "nfs.nfs-cephfs.1",
        "fs_name": "cephfs"
      },
      "clients": []
    }
    Copy to Clipboard

  5. 클라이언트 호스트에서 내보낸 Ceph 파일 시스템을 마운트합니다.

    구문

    mount -t nfs -o port=GANESHA_PORT HOST_NAME:BINDING LOCAL_MOUNT_POINT
    Copy to Clipboard

    예제

    [root@client01 ~]# mount -t nfs -o port=2049 host01:/ceph/ /mnt/nfs-cephfs
    Copy to Clipboard

    1. 부팅 시 자동으로 마운트하려면 새 행을 추가하여 /etc/fstab 파일을 열고 편집합니다.

      구문

      HOST_NAME:BINDING   LOCAL_MOUNT_POINT   nfs4   defaults,seclabel,vers=4.2,proto=tcp,port=2049  0  0
      Copy to Clipboard

      예제

      host01:/ceph/   /mnt/nfs-cephfs   nfs4   defaults,seclabel,vers=4.2,proto=tcp,port=2049  0  0
      Copy to Clipboard

  6. 클라이언트 호스트에서 수신 서비스로 생성된 내보낸 NFS Ceph 파일 시스템을 마운트하려면 다음을 수행합니다.

    구문

    mount -t nfs VIRTUAL_IP_ADDRESS:BINDING LOCAL_MOUNT_POINT
    Copy to Clipboard

    • VIRTUAL_IP_ADDRESS 를 NFS 클러스터를 생성하는 데 사용되는 --ingress --virtual-ip IP 주소로 교체합니다.
    • BIND 를 의사 루트 경로로 교체합니다.
    • LOCAL_MOUNT_POINT 를 내보내기를 마운트 지점으로 바꿉니다.

      예제

      [root@client01 ~]# mount -t nfs 10.10.128.75:/nfs-cephfs /mnt
      Copy to Clipboard

      이 예에서는 마운트 지점 /mnt--ingress --virtual-ip 10.10.128.75 로 생성된 NFS 클러스터에 존재하는 내보내기 nfs-cephfs 를 마운트합니다.

6.5. Ceph 파일 시스템 내보내기 수정

구성 파일을 사용하여 내보내기에서 다음 매개변수를 수정할 수 있습니다.

  • access_type - RW,RO 또는 NONE 일 수 있습니다.
  • squash - No_Root_Squash,None 또는 Root_Squash 일 수 있습니다.
  • security_label - true 또는 false 일 수 있습니다.

사전 요구 사항

  • 실행 중이고 정상적인 Red Hat Ceph Storage 클러스터.
  • 생성된 NFS 내보내기입니다.

절차

  1. 의사 루트 이름을 기반으로 내보내기 블록을 확인합니다.

    구문

    ceph nfs export get CLUSTER_NAME BINDING
    Copy to Clipboard

    예제

    [ceph: root@host01 /]# ceph nfs export get nfs-cephfs /ceph
    {
      "export_id": 1,
      "path": "/",
      "cluster_id": "nfs-cephfs",
      "pseudo": "/ceph",
      "access_type": "RO",
      "squash": "none",
      "security_label": true,
      "protocols": [
        4
      ],
      "transports": [
        "TCP"
      ],
      "fsal": {
        "name": "CEPH",
        "user_id": "cephnfs11",
        "fs_name": "cephfs",
        "sec_label_xattr": ""
      },
      "clients": []
    }
    Copy to Clipboard

  2. 구성 파일을 내보냅니다.

    예제

    [ceph: root@host01 /]# ceph nfs export get nfs-cephfs /ceph > export.conf
    Copy to Clipboard

  3. 내보내기 정보를 편집합니다.

    구문

    {
      "export_id": EXPORT_ID,
      "path": "/",
      "cluster_id": "CLUSTER_NAME",
      "pseudo": "CLUSTER_PSEUDO_PATH",
      "access_type": "RW/RO",
      "squash": "SQUASH",
      "security_label": SECURITY_LABEL,
      "protocols": [
        PROTOCOL_ID_
      ],
      "transports": [
        "TCP"
      ],
      "fsal": {
        "name": "NAME",
        "user_id": "USER_ID",
        "fs_name": "FILE_SYSTEM_NAME",
        "sec_label_xattr": ""
      },
      "clients": []
    }
    Copy to Clipboard

    예제

    [ceph: root@host01 /]# vi export.conf
    
    {
      "export_id": 1,
      "path": "/",
      "cluster_id": "nfs-cephfs",
      "pseudo": "/ceph",
      "access_type": "RW",
      "squash": "none",
      "security_label": true,
      "protocols": [
        4
      ],
      "transports": [
        "TCP"
      ],
      "fsal": {
        "name": "CEPH",
        "user_id": "cephnfs11",
        "fs_name": "cephfs",
        "sec_label_xattr": ""
      },
      "clients": []
    }
    Copy to Clipboard

    위의 예에서 access_typeRO 에서 RW 로 수정되었습니다.

  4. 사양을 적용합니다.

    구문

    ceph nfs export apply CLUSTER_NAME PATH_TO_EXPORT_FILE
    Copy to Clipboard

    예제

    [ceph: root@host01 /]# ceph nfs export apply nfs-cephfs -i export.conf
    Added export /ceph
    Copy to Clipboard

  5. 업데이트된 내보내기 정보를 가져옵니다.

    구문

    ceph nfs export get CLUSTER_NAME BINDING
    Copy to Clipboard

    예제

    [ceph: root@host01 /]# ceph nfs export get nfs-cephfs /ceph
    {
      "export_id": 1,
      "path": "/",
      "cluster_id": "nfs-cephfs",
      "pseudo": "/ceph",
      "access_type": "RW",
      "squash": "none",
      "security_label": true,
      "protocols": [
        4
      ],
      "transports": [
        "TCP"
      ],
      "fsal": {
        "name": "CEPH",
        "user_id": "cephnfs11",
        "fs_name": "cephfs",
        "sec_label_xattr": ""
      },
      "clients": []
    }
    Copy to Clipboard

6.6. 사용자 정의 Ceph 파일 시스템 내보내기 생성

Ceph 파일 시스템(CepFS) 내보내기를 사용자 지정하고 구성을 적용할 수 있습니다.

사전 요구 사항

  • 실행 중이고 정상적인 Red Hat Ceph Storage 클러스터.
  • ceph nfs cluster create 명령을 사용하여 생성된 NFS 클러스터입니다.
  • CephFS가 생성되었습니다.

절차

  1. 사용자 지정 파일을 생성합니다.

    예제

    [ceph: root@host01 /]# touch export_new.conf
    Copy to Clipboard

  2. 사용자 지정 파일을 사용하여 내보내기를 생성합니다.

    구문

    EXPORT {
      Export_Id = EXPORT_ID;
      Transports = TCP/UDP;
      Path = PATH;
      Pseudo = PSEUDO_PATH;
      Protocols = NFS_PROTOCOLS;
      Access_Type = ACCESS_TYPE;
      Attr_Expiration_Time = EXPIRATION_TIME;
      Squash = SQUASH;
      FSAL {
        Name = NAME;
        Filesystem = "CEPH_FILE_SYSTEM_NAME";
        User_Id = "USER_ID";
      }
    }
    Copy to Clipboard

    예제

    [ceph: root@host01 /]# cat export_new.conf
    EXPORT {
      Export_Id = 2;
      Transports = TCP;
      Path = /;
      Pseudo = /ceph1/;
      Protocols = 4;
      Access_Type = RW;
      Attr_Expiration_Time = 0;
      Squash = None;
      FSAL {
        Name = CEPH;
        Filesystem = "cephfs";
        User_Id = "nfs.nfs-cephfs.2";
      }
    }
    Copy to Clipboard

  3. 사양을 적용합니다.

    구문

    ceph nfs export apply CLUSTER_NAME -i PATH_TO_EXPORT_FILE
    Copy to Clipboard

    예제

    [ceph: root@host01 /]# ceph nfs export apply nfs-cephfs -i new_export.conf
    Added export /ceph1
    Copy to Clipboard

  4. 업데이트된 내보내기 정보를 가져옵니다.

    구문

    ceph nfs export get CLUSTER_NAME BINDING
    Copy to Clipboard

    예제

    [ceph: root@host01 /]# ceph nfs export get nfs-cephfs /ceph1
    {
      "export_id": 1,
      "path": "/",
      "cluster_id": "nfs-cephfs",
      "pseudo": "/ceph1",
      "access_type": "RW",
      "squash": "None",
      "security_label": true,
      "protocols": [
        4
      ],
      "transports": [
        "TCP"
      ],
      "fsal": {
        "name": "CEPH",
        "user_id": "nfs.nfs-cephfs.2",
        "fs_name": "cephfs",
        "sec_label_xattr": ""
      },
      "clients": []
    }
    Copy to Clipboard

6.7. Ceph 파일 시스템 내보내기 삭제

ceph export rm 명령을 사용하여 Ceph 파일 시스템(CephFS) NFS 내보내기를 삭제할 수 있습니다.

사전 요구 사항

  • 실행 중이고 정상적인 Red Hat Ceph Storage 클러스터.
  • CephFS가 생성되었습니다.

절차

  • CephFS 내보내기를 삭제합니다.

    구문

    ceph nfs export rm CLUSTER_NAME BINDING
    Copy to Clipboard

    예제

    [ceph: root@host01 /]# ceph nfs export rm nfs-cephfs /ceph
    Copy to Clipboard

6.8. NFS 클러스터 삭제

nfs cluster rm 명령을 사용하여 NFS 클러스터를 삭제합니다. 이렇게 하면 배포된 클러스터가 삭제됩니다. NFS 데몬과 Ingress 서비스를 제거하는 것은 비동기적입니다. ceph orch ls 명령을 사용하여 제거 상태를 확인합니다.

사전 요구 사항

  • 실행 중이고 정상적인 Red Hat Ceph Storage 클러스터.
  • Ceph 메타데이터 서버(MDS) 노드에 대한 루트 수준 액세스.
  • ceph nfs cluster create 명령을 사용하여 배포된 NFS 데몬.

절차

  1. Cephadm 쉘에 로그인합니다.

    예제

    [root@mds ~]# cephadm shell
    Copy to Clipboard

  2. NFS Ganesha 클러스터를 제거합니다.

    구문

    ceph nfs cluster rm CLUSTER_NAME
    Copy to Clipboard

    예제

    [ceph: root@host01 /]# ceph nfs cluster rm nfs-cephfs
    Copy to Clipboard

7장. Ceph 파일 시스템 할당량

스토리지 관리자는 파일 시스템의 모든 디렉터리에서 할당량을 보고, 설정하고, 제거할 수 있습니다. 바이트 수 또는 디렉터리 내의 파일 수에 할당량 제한을 배치할 수 있습니다.

7.1. 사전 요구 사항

  • 실행 중이고 정상적인 Red Hat Ceph Storage 클러스터.
  • Ceph 파일 시스템 배포.
  • attr 패키지가 설치되어 있는지 확인합니다.

7.2. Ceph 파일 시스템 할당량

Ceph 파일 시스템(CephFS) 할당량을 사용하면 디렉터리 구조에 저장된 파일 수 또는 바이트 수를 제한할 수 있습니다. Ceph 파일 시스템 할당량은 FUSE 클라이언트 또는 커널 클라이언트 4.17 이상을 사용하여 완벽하게 지원됩니다.

제한

  • CephFS 할당량은 구성된 제한에 도달할 때 데이터 쓰기를 중지하도록 파일 시스템을 마운트하는 클라이언트의 협업에 의존합니다. 그러나 할당량만으로는 신뢰할 수 없는 클라이언트가 파일 시스템을 채우지 못하도록 할 수 없습니다.
  • 파일 시스템에 데이터를 쓰는 프로세스가 구성된 한도에 도달하면 데이터의 양이 할당량 제한에 도달하고 프로세스에서 데이터 쓰기를 중지할 때까지 짧은 시간이 경과합니다. 기간은 일반적으로 10분의 1초 단위로 측정합니다. 그러나 프로세스가 이 시간 동안 계속 데이터를 작성합니다. 프로세스가 쓰기하는 추가 데이터의 양은 중지하기 전에 경과한 시간에 따라 다릅니다.
  • 경로 기반 액세스 제한을 사용하는 경우 클라이언트가 제한된 디렉토리 또는 그 아래에 중첩된 디렉터리에 할당량을 구성해야 합니다. 클라이언트에서 MDS 기능에 따라 특정 경로에 대한 액세스를 제한하고 클라이언트에서 액세스할 수 없는 상위 디렉터리에 할당량이 구성된 경우 클라이언트는 할당량을 적용하지 않습니다. 예를 들어 클라이언트에서 /home/ 디렉터리에 액세스할 수 없고 할당량이 /home /에 구성된 경우 클라이언트는 /home/ user/ 디렉토리에 해당 할당량을 적용할 수 없습니다.
  • 삭제 또는 변경된 스냅샷 파일 데이터는 할당량에 포함되지 않습니다.
  • setxattr 을 사용할 때 NFS 클라이언트의 할당량을 지원하지 않으며 NFS에서 파일 수준 할당량을 지원하지 않습니다. NFS 공유에 할당량을 사용하려면 하위 볼륨을 사용하여 내보내고 --size 옵션을 설정할 수 있습니다.

7.3. 할당량 보기

getfattr 명령과 ceph.quota 확장 속성을 사용하여 디렉터리의 할당량 설정을 확인합니다.

참고

속성이 디렉터리 inode에 표시되면 해당 디렉터리에 할당량이 구성되어 있습니다. 속성이 inode에 표시되지 않으면 상위 디렉터리에 할당량이 구성되었을 수 있지만 디렉터리에 할당량이 설정되지 않습니다. 확장 속성 값이 0 이면 할당량이 설정되지 않습니다.

사전 요구 사항

  • Ceph 클라이언트 노드에 대한 루트 수준 액세스.
  • attr 패키지가 설치되어 있습니다.

절차

  1. CephFS 할당량을 보려면 다음을 수행합니다.

    1. 바이트 제한 할당량 사용:

      구문

      getfattr -n ceph.quota.max_bytes DIRECTORY
      Copy to Clipboard

      예제

      [root@client ~]# getfattr -n ceph.quota.max_bytes /mnt/cephfs/
      getfattr: Removing leading '/' from absolute path names
      # file: mnt/cephfs/
      ceph.quota.max_bytes="100000000"
      Copy to Clipboard

      이 예에서 100000000 은 100MB와 같습니다.

    2. 파일 제한 할당량 사용:

      구문

      getfattr -n ceph.quota.max_files DIRECTORY
      Copy to Clipboard

      예제

      [root@client ~]# getfattr -n ceph.quota.max_files /mnt/cephfs/
      getfattr: Removing leading '/' from absolute path names
      # file: mnt/cephfs/
      ceph.quota.max_files="10000"
      Copy to Clipboard

      이 예제에서는 10000 개 파일은 10,000개입니다.

7.4. 할당량 설정

이 섹션에서는 setfattr 명령과 ceph.quota 확장 속성을 사용하여 디렉터리 할당량을 설정하는 방법에 대해 설명합니다.

사전 요구 사항

  • Ceph 클라이언트 노드에 대한 루트 수준 액세스.
  • attr 패키지가 설치되어 있습니다.

절차

  1. CephFS 할당량을 설정하려면 다음을 수행합니다.

    1. 바이트 제한 할당량 사용:

      구문

      setfattr -n ceph.quota.max_bytes -v 100000000 DIRECTORY
      Copy to Clipboard

      예제

      [root@client ~]# setfattr -n ceph.quota.max_bytes -v 100000000 /cephfs/
      Copy to Clipboard

      이 예에서 100000000 바이트는 100MB와 같습니다.

    2. 파일 제한 할당량 사용:

      구문

      setfattr -n ceph.quota.max_files -v 10000 DIRECTORY
      Copy to Clipboard

      예제

      [root@client ~]# setfattr -n ceph.quota.max_files -v 10000 /cephfs/
      Copy to Clipboard

      이 예제에서는 10000 개 파일은 10,000개입니다.

7.5. 할당량 제거

이 섹션에서는 setfattr 명령과 ceph.quota 확장 속성을 사용하여 디렉터리에서 할당량을 제거하는 방법을 설명합니다.

사전 요구 사항

  • Ceph 클라이언트 노드에 대한 루트 수준 액세스.
  • attr 패키지가 설치되어 있는지 확인합니다.

절차

  1. CephFS 할당량을 제거하려면 다음을 수행합니다.

    1. 바이트 제한 할당량 사용:

      구문

      setfattr -n ceph.quota.max_bytes -v 0 DIRECTORY
      Copy to Clipboard

      예제

      [root@client ~]# setfattr -n ceph.quota.max_bytes -v 0 /mnt/cephfs/
      Copy to Clipboard

    2. 파일 제한 할당량 사용:

      구문

      setfattr -n ceph.quota.max_files -v 0 DIRECTORY
      Copy to Clipboard

      예제

      [root@client ~]# setfattr -n ceph.quota.max_files -v 0 /mnt/cephfs/
      Copy to Clipboard

8장. 파일 및 디렉토리 레이아웃

스토리지 관리자는 파일 또는 디렉터리 데이터가 개체에 매핑되는 방법을 제어할 수 있습니다.

이 섹션에서는 다음을 수행하는 방법에 대해 설명합니다.

8.1. 사전 요구 사항

  • 실행 중이고 정상적인 Red Hat Ceph Storage 클러스터.
  • Ceph 파일 시스템 배포.
  • attr 패키지 설치.

8.2. 파일 및 디렉토리 레이아웃 개요

이 섹션에서는 Ceph 파일 시스템의 컨텍스트에 있는 파일 및 디렉터리 레이아웃에 대해 설명합니다.

파일 또는 디렉토리의 레이아웃은 해당 콘텐츠가 Ceph RADOS 개체에 매핑되는 방법을 제어합니다. 디렉터리 레이아웃은 주로 해당 디렉터리의 새 파일에 대한 상속된 레이아웃을 설정하는 데 사용됩니다.

파일 또는 디렉토리 레이아웃을 보고 설정하려면 가상 확장 속성 또는 확장 파일 속성(xattrs)을 사용합니다. 레이아웃 속성의 이름은 파일이 일반 파일인지 아니면 디렉터리인지에 따라 다릅니다.

  • 일반 파일 레이아웃 속성을 ceph.file.layout 이라고 합니다.
  • 디렉터리 레이아웃 속성을 ceph.dir.layout 이라고 합니다.

레이아웃 상속

파일은 만들 때 상위 디렉터리의 레이아웃을 상속받습니다. 그러나 이후 상위 디렉토리 레이아웃을 변경해도 하위 디렉터리에는 영향을 미치지 않습니다. 디렉터리에 레이아웃이 설정되어 있지 않으면 파일은 가장 가까운 디렉터리에서 디렉터리 구조의 레이아웃까지 레이아웃을 상속합니다.

8.3. 파일 및 디렉토리 레이아웃 필드 설정

setfattr 명령을 사용하여 파일 또는 디렉터리에 레이아웃 필드를 설정합니다.

중요

파일의 레이아웃 필드를 수정할 때 파일이 비어 있어야 하며, 그렇지 않으면 오류가 발생합니다.

사전 요구 사항

  • 노드에 대한 루트 수준 액세스.

절차

  • 파일 또는 디렉터리에서 레이아웃 필드를 수정하려면 다음을 수행합니다.

    구문

    setfattr -n ceph.TYPE.layout.FIELD -v VALUE PATH
    Copy to Clipboard

    교체:

    • file 또는 dirTYPE.
    • 필드 이름으로 FIELD 를 수행합니다.
    • 필드의 새 값이 있는 VALUE 입니다.
    • 파일 또는 디렉토리의 경로가 있는 PATH 입니다.

    예제

    [root@mon ~]# setfattr -n ceph.file.layout.stripe_unit -v 1048576 test
    Copy to Clipboard

추가 리소스

8.4. 파일 및 디렉토리 레이아웃 필드 보기

getfattr 명령을 사용하여 파일 또는 디렉토리의 레이아웃 필드를 보려면 다음을 수행합니다.

사전 요구 사항

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • 스토리지 클러스터의 모든 노드에 대한 루트 수준 액세스.

절차

  • 파일 또는 디렉터리의 레이아웃 필드를 단일 문자열로 보려면 다음을 수행합니다.

    구문

    getfattr -n ceph.TYPE.layout PATH
    Copy to Clipboard

    교체
    • 파일 또는 디렉토리의 경로가 있는 PATH 입니다.
    • file 또는 dirTYPE.

    예제

    [root@mon ~]# getfattr -n ceph.dir.layout /home/test
    ceph.dir.layout="stripe_unit=4194304 stripe_count=2 object_size=4194304 pool=cephfs_data"
    Copy to Clipboard

참고

디렉토리에는 설정될 때까지 명시적으로 레이아웃이 없습니다. 결과적으로 레이아웃을 첫 번째 설정 없이 확인하려고 하면 표시할 변경 사항이 없으므로 실패합니다.

추가 리소스

8.5. 개별 레이아웃 필드 보기

getfattr 명령을 사용하여 파일 또는 디렉토리의 개별 레이아웃 필드를 확인합니다.

사전 요구 사항

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • 스토리지 클러스터의 모든 노드에 대한 루트 수준 액세스.

절차

  • 파일 또는 디렉토리의 개별 레이아웃 필드를 보려면 다음을 수행합니다.

    구문

    getfattr -n ceph.TYPE.layout.FIELD _PATH
    Copy to Clipboard

    교체
    • file 또는 dirTYPE.
    • 필드 이름으로 FIELD 를 수행합니다.
    • 파일 또는 디렉토리의 경로가 있는 PATH 입니다.

    예제

    [root@mon ~]# getfattr -n ceph.file.layout.pool test
    ceph.file.layout.pool="cephfs_data"
    Copy to Clipboard

    참고

    pool 필드의 풀은 이름으로 표시됩니다. 그러나 새로 생성된 풀은 ID로 표시할 수 있습니다.

추가 리소스

8.6. 디렉토리 레이아웃 제거

setfattr 명령을 사용하여 디렉토리에서 레이아웃을 제거합니다.

참고

파일 레이아웃을 설정하면 파일을 변경하거나 제거할 수 없습니다.

사전 요구 사항

  • 레이아웃이 있는 디렉토리.

절차

  1. 디렉토리에서 레이아웃을 제거하려면 다음을 수행합니다.

    구문

    setfattr -x ceph.dir.layout DIRECTORY_PATH
    Copy to Clipboard

    예제

    [user@client ~]$ setfattr -x ceph.dir.layout /home/cephfs
    Copy to Clipboard

  2. pool_namespace 필드를 제거하려면 다음을 수행합니다.

    구문

    setfattr -x ceph.dir.layout.pool_namespace DIRECTORY_PATH
    Copy to Clipboard

    예제

    [user@client ~]$ setfattr -x ceph.dir.layout.pool_namespace /home/cephfs
    Copy to Clipboard

    참고

    pool_namespace 필드는 별도로 제거할 수 있는 유일한 필드입니다.

추가 리소스

  • setfattr(1) 매뉴얼 페이지

9장. Ceph 파일 시스템 스냅샷

스토리지 관리자는 Ceph 파일 시스템(CephFS) 디렉터리의 시점 스냅샷을 만들 수 있습니다. CephFS 스냅샷은 비동기식이며 에 생성되는 디렉터리 스냅샷을 선택할 수 있습니다.

9.1. 사전 요구 사항

  • 실행 중이고 정상적인 Red Hat Ceph Storage 클러스터.
  • Ceph 파일 시스템 배포.

9.2. Ceph 파일 시스템 스냅샷

Ceph 파일 시스템(CephFS) 스냅샷 기능은 새 Ceph 파일 시스템에서 기본적으로 활성화되어 있지만 기존 Ceph 파일 시스템에서 수동으로 활성화해야 합니다. CephFS 스냅샷은 Ceph 파일 시스템의 변경 불가능한 시점 보기를 생성합니다. CephFS 스냅샷은 비동기이며, CephFS 디렉터리 .snap .snap 의 특수 숨겨진 디렉터리에 유지됩니다. Ceph 파일 시스템 내의 모든 디렉터리에 대한 스냅샷 생성을 지정할 수 있습니다. 디렉터리를 지정할 때 스냅샷에는 해당 디렉터리 아래의 모든 하위 디렉터리도 포함됩니다.

주의

각 Ceph 메타데이터 서버(MDS) 클러스터는 스냅숏 식별자를 독립적으로 할당합니다. 단일 풀을 공유하는 여러 Ceph 파일 시스템에 스냅샷을 사용하면 스냅샷이 충돌하고 파일 데이터가 누락됩니다.

9.3. Ceph 파일 시스템의 스냅샷 만들기

스냅샷을 생성하여 Ceph 파일 시스템(CephFS)의 변경 불가능한 시점 보기를 만들 수 있습니다.

참고

새 Ceph 파일 시스템의 경우 스냅샷은 기본적으로 활성화됩니다.

사전 요구 사항

  • 실행 중이고 정상적인 Red Hat Ceph Storage 클러스터.
  • Ceph 파일 시스템 배포.
  • Ceph 메타데이터 서버(MDS) 노드에 대한 루트 수준 액세스.

절차

  1. Cephadm 쉘에 로그인합니다.

    예제

    [root@mds ~]# cephadm shell
    Copy to Clipboard

  2. 기존 Ceph 파일 시스템의 경우 스냅샷 기능을 활성화합니다.

    구문

    ceph fs set FILE_SYSTEM_NAME allow_new_snaps true
    Copy to Clipboard

    예제

    [ceph: root@mds ~]# ceph fs set cephfs01 allow_new_snaps true
    Copy to Clipboard

  3. . snap 디렉터리에 새 스냅샷 하위 디렉터리를 생성합니다.

    구문

    mkdir NEW_DIRECTORY_PATH
    Copy to Clipboard

    예제

    [ceph: root@mds ~]# mkdir /.snap/new-snaps
    Copy to Clipboard

    이 예제에서는 new-snaps 하위 디렉터리를 만들고 이 하위 디렉터리에 Ceph MDS(메타데이터 서버)가 스냅샷 만들기를 시작할 것을 알립니다.

    1. 스냅샷을 삭제하려면 다음을 수행합니다.

      구문

      rmdir NEW_DIRECTORY_PATH
      Copy to Clipboard

      예제

      [ceph: root@mds ~]# rmdir /.snap/new-snaps
      Copy to Clipboard

      중요

      기본 스냅샷이 포함될 수 있는 루트 수준 스냅샷 삭제를 시도하면 실패합니다.

10장. Ceph 파일 시스템 스냅샷 예약

스토리지 관리자는 Ceph 파일 시스템(CephFS) 디렉터리의 시점 스냅샷을 만들 수 있습니다. CephFS 스냅샷은 비동기식이며 에 생성되는 디렉터리 스냅샷을 선택할 수 있습니다.

10.1. 사전 요구 사항

  • 실행 중이고 정상적인 Red Hat Ceph Storage 클러스터.
  • Ceph 파일 시스템 배포.

10.2. Ceph 파일 시스템 스냅샷 일정

Ceph 파일 시스템(CephFS)은 파일 시스템 디렉터리의 스냅샷을 예약할 수 있습니다. 스냅샷 예약은 Ceph Manager에서 관리하며 Python Timers를 사용합니다. 스냅샷 일정 데이터는 CephFS 메타데이터 풀에서 오브젝트로 저장되며 런타임에 모든 일정 데이터가 직렬화된 SQLite 데이터베이스에 있습니다.

중요

스케줄러는 스토리지 클러스터가 정상적인 로드에 있을 때 스냅샷을 구분하기 위한 지정된 시간을 정확하게 기반으로 합니다. Ceph Manager가 과부하 상태인 경우 스냅샷이 즉시 예약되지 않을 수 있으므로 스냅샷이 약간 지연될 수 있습니다. 이 경우 다음 예약된 스냅샷이 지연이 없는 것처럼 작동합니다. 지연된 스냅샷은 전체 일정에 변동되지 않습니다.

사용법

Ceph 파일 시스템(CephFS)의 스냅샷 예약은 snap_schedule Ceph Manager 모듈에서 관리합니다. 이 모듈은 스냅샷 일정을 추가, 쿼리 및 삭제하고 보존 정책을 관리하는 인터페이스를 제공합니다. 이 모듈은 또한 ceph fs snap-schedule 명령을 구현하고, 일정을 관리하는 여러 하위 명령과 보존 정책을 구현합니다. 모든 하위 명령은 CephFS 볼륨 경로와 하위 볼륨 경로 인수를 사용하여 여러 Ceph 파일 시스템을 사용할 때 파일 시스템 경로를 지정합니다. CephFS 볼륨 경로를 지정하지 않으면 인수는 기본적으로 fs_map 에 나열된 첫 번째 파일 시스템으로 설정되며 하위 볼륨 경로 인수의 기본값을 지정하지 않습니다.

스냅샷 일정은 파일 시스템 경로, 반복 간격 및 시작 시간으로 식별됩니다. 반복 간격은 두 개의 후속 스냅샷 간 시간을 정의합니다. 간격 형식은 숫자와 시간 지정자( h(our), d(ay) 또는 w(eek)입니다. 예를 들어, 4h 간격이 있으면 4 시간마다 하나의 스냅샷이 있음을 의미합니다. 시작 시간은 ISO 형식의 문자열 값, %Y-%m-%dT%H:%M:%S 이며 지정되지 않은 경우 시작 시간은 마지막 자정값을 사용합니다. 예를 들어 기본 시작 시간 값을 사용하여 14:45 에 스냅숏을 반복 간격으로 1h 로 예약하면 첫 번째 스냅샷이 15:00에 생성됩니다.

보존 정책은 파일 시스템 경로 및 보존 정책 사양으로 식별됩니다. 보존 정책 정의는 COUNT TIME_PERIOD 형식으로 숫자와 시간 지정자 또는 연결된 쌍으로 구성됩니다. 이 정책은 다수의 스냅샷이 유지되도록 하며 스냅샷은 적어도 지정된 기간 동안입니다. 시간 지정자는 h(our), d(ay), w(eek), m(onth), y(ear) 및 n 입니다. n 시간 지정자는 특수 수정자이므로 타이밍에 관계없이 마지막 수의 스냅샷을 유지합니다. 예를 들어 4d 는 하루 이상 또는 서로 더 오래 떨어져 있는 4개의 스냅샷을 유지하는 것을 의미합니다.

10.3. Ceph 파일 시스템의 스냅샷 일정 추가

아직 존재하지 않는 CephFS 경로에 대한 스냅샷 일정을 추가합니다. 단일 경로에 대해 하나 이상의 일정을 생성할 수 있습니다. 반복 간격과 시작 시간이 다른 경우 일정이 다르게 간주됩니다.

CephFS 경로에는 보존 정책이 하나만 있을 수 있지만, 보존 정책에는 여러 개의 카운트 기간 쌍이 있을 수 있습니다.

참고

scheduler 모듈이 활성화되면 ceph fs snap-schedule 명령을 실행하면 사용 가능한 하위 명령 및 사용 형식이 표시됩니다.

사전 요구 사항

  • 실행 중이고 정상적인 Red Hat Ceph Storage 클러스터.
  • Ceph 파일 시스템 배포.
  • Ceph Manager 및 MDS(메타데이터 서버) 노드에 대한 루트 수준 액세스.
  • 파일 시스템에서 CephFS 스냅샷을 활성화합니다.

절차

  1. Ceph Manager 노드의 Cephadm 쉘에 로그인합니다.

    예제

    [root@host01 ~]# cephadm shell
    Copy to Clipboard

  2. snap_schedule 모듈을 활성화합니다.

    예제

    [ceph: root@host01 /]# ceph mgr module enable snap_schedule
    Copy to Clipboard

  3. 클라이언트 노드에 로그인합니다.

    예제

    [root@host02 ~]# cephadm shell
    Copy to Clipboard

  4. Ceph 파일 시스템에 대한 새 일정을 추가합니다.

    구문

    ceph fs snap-schedule add FILE_SYSTEM_VOLUME_PATH REPEAT_INTERVAL [START_TIME]
    Copy to Clipboard

    예제

    [ceph: root@host02 /]# ceph fs snap-schedule add /cephfs_kernelf739cwtus2/pmo9axbwsi 1h 2022-06-27T21:50:00
    Copy to Clipboard

    참고

    START_TIME 은 ISO 8601 형식으로 표시됩니다.

    이 예에서는 파일 시스템 cephfs 내에 경로 /cephfs 에 대한 스냅샷 일정을 생성하고 2022년 6월 27일 스냅 샷을 2022년 6월 9:50 PM에서 시작합니다.

  5. CephFS 볼륨 경로의 스냅샷에 대한 새 보존 정책을 추가합니다.

    구문

    ceph fs snap-schedule retention add FILE_SYSTEM_VOLUME_PATH [COUNT_TIME_PERIOD_PAIR] TIME_PERIOD COUNT
    Copy to Clipboard

    예제

    [ceph: root@host02 /]# ceph fs snap-schedule retention add /cephfs h 14 
    1
    
    [ceph: root@host02 /]# ceph fs snap-schedule retention add /cephfs d 4 
    2
    
    [ceph: root@host02 /]# ceph fs snap-schedule retention add /cephfs 14h4w 
    3
    Copy to Clipboard

    1
    이 예제에서는 1시간 이상 14개의 스냅샷을 유지합니다.
    2
    이 예제에서는 1일 이상 스냅샷을 4개 이상 유지합니다.
    3
    이 예제에서는 14시간, 매주 스냅숏 4개를 유지합니다.
  6. 스냅샷 일정을 나열하여 새 일정이 생성되었는지 확인합니다.

    구문

    ceph fs snap-schedule list FILE_SYSTEM_VOLUME_PATH [--format=plain|json] [--recursive=true]
    Copy to Clipboard

    예제

    [ceph: root@host02 /]# ceph fs snap-schedule list /cephfs --recursive=true
    Copy to Clipboard

    이 예제에서는 디렉터리 트리의 모든 일정을 나열합니다.

  7. 스냅샷 일정의 상태를 확인합니다.

    구문

    ceph fs snap-schedule status FILE_SYSTEM_VOLUME_PATH [--format=plain|json]
    Copy to Clipboard

    예제

    [ceph: root@host02 /]# ceph fs snap-schedule status /cephfs --format=json
    Copy to Clipboard

    이 예에서는 JSON 형식으로 CephFS /cephfs 경로에 대한 스냅샷 일정의 상태를 표시합니다. 지정되지 않은 경우 기본 형식은 일반 텍스트입니다.

10.4. Ceph File System 하위 볼륨의 스냅샷 일정 추가

Ceph 파일 시스템(CephFS) 하위 볼륨 스냅샷의 보존 정책을 관리하려면 단일 경로에 대해 다른 일정을 지정할 수 있습니다.

반복 간격과 시작 시간이 다른 경우 일정이 다르게 간주됩니다.

아직 존재하지 않는 CephFS 파일 경로에 대한 스냅샷 일정을 추가합니다. CephFS 경로에는 보존 정책이 하나만 있을 수 있지만, 보존 정책에는 여러 개의 카운트 기간 쌍이 있을 수 있습니다.

참고

scheduler 모듈이 활성화되면 ceph fs snap-schedule 명령을 실행하면 사용 가능한 하위 명령 및 사용 형식이 표시됩니다.

중요

현재는 기본 하위 볼륨 그룹에 속하는 하위 볼륨만 스냅샷 작업에 예약할 수 있습니다.

사전 요구 사항

  • Ceph File System(CephFS)이 배포된 작동 중인 Red Hat Ceph Storage 클러스터입니다.
  • Ceph 모니터에서 최소한 읽기 액세스 권한.
  • Ceph Manager 노드의 읽기 및 쓰기 기능.
  • 생성된 CephFS 하위 볼륨 및 하위 볼륨 그룹입니다.

절차

  1. subvolume 경로를 가져옵니다.

    구문

    ceph fs subvolume getpath VOLUME_NAME SUBVOLUME_NAME SUBVOLUME_GROUP_NAME
    Copy to Clipboard

    예제

    [ceph: root@host02 /]# ceph fs subvolume getpath cephfs subvol_1 subvolgroup_1
    Copy to Clipboard

  2. Ceph File System 하위 볼륨 경로에 대한 새 일정을 추가합니다.

    구문

    ceph fs snap-schedule add /.. SNAP_SCHEDULE [START_TIME] --fs CEPH_FILE_SYSTEM_NAME  --subvol SUBVOLUME_NAME
    Copy to Clipboard

    예제

    [ceph: root@host02 /]# ceph fs snap-schedule add /cephfs_kernelf739cwtus2/pmo9axbwsi 1h 2022-06-27T21:50:00 --fs cephfs --subvol subvol_1
    Schedule set for path /..
    Copy to Clipboard

    참고

    START_TIME 은 ISO 8601 형식으로 표시됩니다.

    이 예에서는 하위 볼륨 경로에 대한 스냅샷 일정을 생성하고, 시간마다 스냅 샷을 생성하며 2022년 6월 27일 오전 9:50 PM에서 시작됩니다.

  3. CephFS 하위 볼륨의 스냅샷 스케줄에 대한 새 보존 정책을 추가합니다.

    구문

    ceph fs snap-schedule retention add SUBVOLUME_VOLUME_PATH [COUNT_TIME_PERIOD_PAIR] TIME_PERIOD COUNT
    Copy to Clipboard

    예제

    [ceph: root@host02 /]# ceph fs snap-schedule retention add /volumes/_nogroup/subvol_1/85a615da-e8fa-46c1-afc3-0eb8ae64a954/.. h 14 
    1
    
    [ceph: root@host02 /]# ceph fs snap-schedule retention add /volumes/_nogroup/subvol_1/85a615da-e8fa-46c1-afc3-0eb8ae64a954/.. d 4 
    2
    
    [ceph: root@host02 /]# ceph fs snap-schedule retention add /volumes/_nogroup/subvol_1/85a615da-e8fa-46c1-afc3-0eb8ae64a954/.. 14h4w 
    3
    
    
    Retention added to path /volumes/_nogroup/subvol_1/85a615da-e8fa-46c1-afc3-0eb8ae64a954/..
    Copy to Clipboard

1
이 예제에서는 1시간 이상 14개의 스냅샷을 유지합니다.
2
이 예제에서는 1일 이상 스냅샷을 4개 이상 유지합니다.
3
이 예제에서는 14시간, 매주 스냅숏 4개를 유지합니다.
  1. 스냅샷 일정을 나열합니다.

    구문

    ceph fs snap-schedule list SUBVOLUME_VOLUME_PATH [--format=plain|json] [--recursive=true]
    Copy to Clipboard

    예제

    [ceph: root@host02 /]# ceph fs snap-schedule list / --recursive=true
    
    /volumes/_nogroup/subv1/85a615da-e8fa-46c1-afc3-0eb8ae64a954/.. 4h
    Copy to Clipboard

    이 예제에서는 디렉터리 트리의 모든 일정을 나열합니다.

  2. 스냅샷 일정의 상태를 확인합니다.

    구문

    ceph fs snap-schedule status SUBVOLUME_VOLUME_PATH [--format=plain|json]
    Copy to Clipboard

    예제

    [ceph: root@host02 /]# ceph fs snap-schedule status /volumes/_nogroup/subv1/85a615da-e8fa-46c1-afc3-0eb8ae64a954/.. --format=json
    
    {"fs": "cephfs", "subvol": "subvol_1", "path": "/volumes/_nogroup/subvol_1/85a615da-e8fa-46c1-afc3-0eb8ae64a954/..", "rel_path": "/..", "schedule": "4h", "retention": {"h": 14}, "start": "2022-05-16T14:00:00", "created": "2023-03-20T08:47:18", "first": null, "last": null, "last_pruned": null, "created_count": 0, "pruned_count": 0, "active": true}
    Copy to Clipboard

    이 예에서는 /volumes/_nogroup/subv1/85a615da-e8fa-46c1-afc3-0eb8ae64a954/.. 경로에 대한 스냅샷 일정의 상태를 표시합니다.

10.5. Ceph 파일 시스템의 스냅샷 일정 활성화

이 섹션에서는 Ceph 파일 시스템(CephFS)의 스냅샷 일정을 활성으로 수동으로 설정하는 단계를 제공합니다.

사전 요구 사항

  • 배포된 Ceph File System(CephFS)이 작동하는 Red Hat Ceph Storage 클러스터입니다.
  • Ceph 모니터에서 최소한 읽기 액세스 권한.
  • Ceph Manager 노드의 읽기 및 쓰기 기능.

절차

  • 스냅샷 일정을 활성화합니다.

    구문

    ceph fs snap-schedule activate FILE_SYSTEM_VOLUME_PATH [REPEAT_INTERVAL]
    Copy to Clipboard

    예제

    [ceph: root@host01 /]# ceph fs snap-schedule activate /cephfs
    Copy to Clipboard

    이 예제에서는 CephFS /cephfs 경로에 대한 모든 일정을 활성화합니다.

10.6. Ceph File System 하위 볼륨의 스냅샷 일정 활성화

이 섹션에서는 Ceph File System(CephFS) 하위 볼륨의 스냅샷 일정을 활성으로 수동으로 설정하는 단계를 제공합니다.

사전 요구 사항

  • 배포된 Ceph File System(CephFS)이 작동하는 Red Hat Ceph Storage 클러스터입니다.
  • Ceph 모니터에서 최소한 읽기 액세스 권한.
  • Ceph Manager 노드의 읽기 및 쓰기 기능.

절차

  • 스냅샷 일정을 활성화합니다.

    구문

    ceph fs snap-schedule activate SUB_VOLUME_PATH [REPEAT_INTERVAL]
    Copy to Clipboard

    예제

    [ceph: root@host01 /]# ceph fs snap-schedule activate /volumes/_nogroup/subvol_1/85a615da-e8fa-46c1-afc3-0eb8ae64a954/..
    Copy to Clipboard

    이 예제에서는 CephFS /volumes/_nogroup/subvol_1/85a615da-e8fa-46c1-afc3-0eb8ae64a954/.. 경로의 모든 일정을 활성화합니다.

10.7. Ceph 파일 시스템의 스냅샷 일정 비활성화

이 섹션에서는 Ceph 파일 시스템(CephFS)의 스냅샷 일정을 비활성으로 수동으로 설정하는 단계를 제공합니다. 이 작업은 스케줄링에서 다시 활성화될 때까지 스냅샷을 제외합니다.

사전 요구 사항

  • 배포된 Ceph File System(CephFS)이 작동하는 Red Hat Ceph Storage 클러스터입니다.
  • Ceph 모니터에서 최소한 읽기 액세스 권한.
  • Ceph Manager 노드의 읽기 및 쓰기 기능.
  • 스냅샷 일정이 생성되고 활성 상태입니다.

절차

  • CephFS 경로의 스냅샷 일정을 비활성화합니다.

    구문

    ceph fs snap-schedule deactivate FILE_SYSTEM_VOLUME_PATH [REPEAT_INTERVAL]
    Copy to Clipboard

    예제

    [ceph: root@host02 /]# ceph fs snap-schedule deactivate /cephfs 1d
    Copy to Clipboard

    이 예제에서는 /cephfs 경로에 대한 일일 스냅샷을 비활성화하여 추가 스냅샷 생성을 정지합니다.

10.8. Ceph File System 하위 볼륨의 스냅샷 일정 비활성화

이 섹션에서는 Ceph File System(CephFS) 하위 볼륨의 스냅샷 일정을 비활성으로 수동으로 설정하는 단계를 제공합니다. 이 작업은 스케줄링에서 다시 활성화될 때까지 스냅샷을 제외합니다.

사전 요구 사항

  • 배포된 Ceph File System(CephFS)이 작동하는 Red Hat Ceph Storage 클러스터입니다.
  • Ceph 모니터에서 최소한 읽기 액세스 권한.
  • Ceph Manager 노드의 읽기 및 쓰기 기능.
  • 스냅샷 일정이 생성되고 활성 상태입니다.

절차

  • CephFS 하위 볼륨 경로에 대한 스냅샷 일정을 비활성화합니다.

    구문

    ceph fs snap-schedule deactivate SUB_VOLUME_PATH [REPEAT_INTERVAL]
    Copy to Clipboard

    예제

    [ceph: root@host02 /]# ceph fs snap-schedule deactivate /volumes/_nogroup/subvol_1/85a615da-e8fa-46c1-afc3-0eb8ae64a954/.. 1d
    Copy to Clipboard

    이 예제에서는 /volumes/_nogroup/subvol_1/85a615da-e8fa-46c1-afc3-0eb8ae64a954/.. 경로에 대한 일일 스냅샷을 비활성화하여 추가 스냅샷 생성을 정지합니다.

10.9. Ceph 파일 시스템의 스냅샷 일정 제거

이 섹션에서는 Ceph 파일 시스템(CephFS)의 스냅샷 일정을 제거하는 단계를 제공합니다.

사전 요구 사항

  • 배포된 Ceph File System(CephFS)이 작동하는 Red Hat Ceph Storage 클러스터입니다.
  • Ceph 모니터에서 최소한 읽기 액세스 권한.
  • Ceph Manager 노드의 읽기 및 쓰기 기능.
  • 스냅샷 일정이 생성됩니다.

절차

  1. 특정 스냅샷 일정을 제거합니다.

    구문

    ceph fs snap-schedule remove FILE_SYSTEM_VOLUME_PATH [REPEAT_INTERVAL] [START_TIME]
    Copy to Clipboard

    예제

    [ceph: root@host02 /]# ceph fs snap-schedule remove /cephfs 4h 2022-05-16T14:00:00
    Copy to Clipboard

    이 예제에서는 4시간마다 스냅샷을 생성하는 /cephfs 볼륨의 특정 스냅샷 일정을 제거하고 2022년 5월 16일 오전 2시부터 시작됩니다.

  2. 특정 CephFS 볼륨 경로에 대한 모든 스냅샷 일정을 제거합니다.

    구문

    ceph fs snap-schedule remove FILE_SYSTEM_VOLUME_PATH
    Copy to Clipboard

    예제

    [ceph: root@host02 /]# ceph fs snap-schedule remove /cephfs
    Copy to Clipboard

    이 예제에서는 /cephfs 볼륨 경로에 대한 모든 스냅샷 일정을 제거합니다.

10.10. Ceph File System 하위 볼륨의 스냅샷 일정 제거

이 섹션에서는 Ceph 파일 시스템(CephFS) 하위 볼륨의 스냅샷 일정을 제거하는 단계를 제공합니다.

사전 요구 사항

  • 배포된 Ceph File System(CephFS)이 작동하는 Red Hat Ceph Storage 클러스터입니다.
  • Ceph 모니터에서 최소한 읽기 액세스 권한.
  • Ceph Manager 노드의 읽기 및 쓰기 기능.
  • 스냅샷 일정이 생성됩니다.

절차

  • 특정 스냅샷 일정을 제거합니다.

    구문

    ceph fs snap-schedule remove SUB_VOLUME_PATH [REPEAT_INTERVAL] [START_TIME]
    Copy to Clipboard

    예제

    [ceph: root@host02 /]# ceph fs snap-schedule remove /volumes/_nogroup/subvol_1/85a615da-e8fa-46c1-afc3-0eb8ae64a954/.. 4h 2022-05-16T14:00:00
    Copy to Clipboard

    이 예제에서는 /volumes/_nogroup/subvol_1/85a615da-e8fa-46c1-afc3-0eb8ae64a954/... 볼륨에 대한 특정 스냅샷 일정을 제거합니다. 이 볼륨은 4시간마다 스냅샷을 작성하고 2022년 5월 16일 오후 2시에 시작됩니다.

10.11. Ceph 파일 시스템에 대한 스냅샷 일정 보존 정책 제거

이 섹션에서는 Ceph 파일 시스템(CephFS)에 대해 예약된 스냅샷의 보존 정책을 제거하는 단계를 제공합니다.

사전 요구 사항

  • 배포된 Ceph File System(CephFS)이 작동하는 Red Hat Ceph Storage 클러스터입니다.
  • Ceph 모니터에서 최소한 읽기 액세스 권한.
  • Ceph Manager 노드의 읽기 및 쓰기 기능.
  • CephFS 볼륨 경로에 대해 생성된 스냅샷 일정입니다.

절차

  • CephFS 경로에서 보존 정책을 제거합니다.

    구문

    ceph fs snap-schedule retention remove FILE_SYSTEM_VOLUME_PATH [COUNT_TIME_PERIOD_PAIR] TIME_PERIOD COUNT
    Copy to Clipboard

    예제

    [ceph: root@host02 /]# ceph fs snap-schedule retention remove /cephfs h 4 
    1
    
    [ceph: root@host02 /]# ceph fs snap-schedule retention remove /cephfs 14d4w 
    2
    Copy to Clipboard

    1
    이 예제에서는 4시간 스냅샷을 제거합니다.
    2
    이 예제에서는 매일 14개의 스냅샷과 4개의 매주 스냅샷을 제거합니다.

10.12. Ceph 파일 시스템 하위 볼륨에 대한 스냅샷 일정 보존 정책 제거

이 섹션에서는 Ceph File System(CephFS) 하위 볼륨에 대해 예약된 스냅샷의 보존 정책을 제거하는 단계를 제공합니다.

사전 요구 사항

  • 배포된 Ceph File System(CephFS)이 작동하는 Red Hat Ceph Storage 클러스터입니다.
  • Ceph 모니터에서 최소한 읽기 액세스 권한.
  • Ceph Manager 노드의 읽기 및 쓰기 기능.
  • CephFS 하위 볼륨 경로에 대해 생성된 스냅샷 일정입니다.

절차

  • CephFS 하위 볼륨 경로에서 보존 정책을 제거합니다.

    구문

    ceph fs snap-schedule retention remove SUB_VOLUME_PATH [COUNT_TIME_PERIOD_PAIR] TIME_PERIOD COUNT
    Copy to Clipboard

    예제

    [ceph: root@host02 /]# ceph fs snap-schedule retention remove /volumes/_nogroup/subvol_1/85a615da-e8fa-46c1-afc3-0eb8ae64a954/.. h 4 
    1
    
    [ceph: root@host02 /]# ceph fs snap-schedule retention remove /volumes/_nogroup/subvol_1/85a615da-e8fa-46c1-afc3-0eb8ae64a954/.. 14d4w 
    2
    Copy to Clipboard

    1
    이 예제에서는 4시간 스냅샷을 제거합니다.
    2
    이 예제에서는 매일 14개의 스냅샷과 4개의 매주 스냅샷을 제거합니다.

11장. Ceph 파일 시스템 미러

스토리지 관리자는 Ceph 파일 시스템(CephFS)을 다른 Red Hat Ceph Storage 클러스터에서 원격 Ceph 파일 시스템에 복제할 수 있습니다. Ceph 파일 시스템은 스냅샷 디렉터리의 비동기 복제를 지원합니다.

11.1. 사전 요구 사항

  • 소스 및 대상 스토리지 클러스터에서 Red Hat Ceph Storage 5.0 이상을 실행해야 합니다.

11.2. Ceph 파일 시스템 미러링

Ceph 파일 시스템(CephFS)은 다른 Red Hat Ceph Storage 클러스터에서 원격 Ceph 파일 시스템에 스냅샷의 비동기 복제를 지원합니다. 스냅샷 동기화는 스냅샷 데이터를 원격 Ceph 파일 시스템에 복사하고 동일한 이름으로 원격 타겟에 새 스냅샷을 만듭니다. 스냅샷 동기화를 위해 특정 디렉터리를 구성할 수 있습니다.

CephFS 미러 관리는 CephFS 미러링 데몬(cephfs-mirror)에서 관리합니다. 원격 CephFS에 대량의 복사를 수행하여 이 스냅샷 데이터가 동기화됩니다. 스냅샷 쌍을 동기화하는 선택한 순서는 snap-id 를 사용한 생성을 기반으로 합니다.

중요

하드 링크된 파일은 별도의 파일로 동기화됩니다.

중요

Red Hat은 스토리지 클러스터당 하나의 cephfs-mirror 데몬만 실행할 수 있도록 지원합니다.

Ceph Manager 모듈

Ceph Manager 미러링 모듈은 기본적으로 비활성화되어 있습니다. 디렉터리 스냅샷 미러링을 관리하는 인터페이스를 제공하며 동기화를 위해 cephfs-mirror 데몬에 디렉터리를 할당합니다. Ceph Manager 미러링 모듈은 디렉터리 스냅샷 미러링을 제어하는 명령 제품군도 제공합니다. 미러링 모듈은 cephfs-mirror 데몬을 관리하지 않습니다. cephfs-mirror 데몬의 중지, 시작, 재시작, 활성화는 systemctl 에서 제어하지만 cephadm 에서 관리합니다.

11.3. Ceph 파일 시스템의 스냅샷 미러 구성

미러링을 위해 Ceph 파일 시스템(CephFS)을 구성하여 원격 Red Hat Ceph Storage 클러스터에서 스냅샷을 다른 CephFS에 복제할 수 있습니다.

참고

원격 스토리지 클러스터와 동기화하는 데 걸리는 시간은 파일 크기와 미러링 경로의 총 파일 수에 따라 다릅니다.

사전 요구 사항

  • 소스 및 대상 스토리지 클러스터가 정상이며 Red Hat Ceph Storage 5.0 이상이 실행 중이어야 합니다.
  • 소스 및 대상 스토리지 클러스터의 Ceph 모니터 노드에 대한 루트 수준 액세스.
  • Ceph 파일 시스템을 1개 이상 배포합니다.

절차

  1. 소스 스토리지 클러스터에서 CephFS 미러링 데몬을 배포합니다.

    구문

    ceph orch apply cephfs-mirror ["NODE_NAME"]
    Copy to Clipboard

    예제

    [root@mon ~]# ceph orch apply cephfs-mirror "node1.example.com"
    Scheduled cephfs-mirror update...
    Copy to Clipboard

    이 명령은 Ceph 사용자 cephfs-mirror 를 생성하고 지정된 노드에 cephfs-mirror 데몬을 배포합니다.

  2. 대상 스토리지 클러스터에서 각 CephFS 피어에 대한 사용자를 생성합니다.

    구문

    ceph fs authorize FILE_SYSTEM_NAME CLIENT_NAME / rwps
    Copy to Clipboard

    예제

    [root@mon ~]# ceph fs authorize cephfs client.mirror_remote / rwps
    [client.mirror_remote]
            key = AQCjZ5Jg739AAxAAxduIKoTZbiFJ0lgose8luQ==
    Copy to Clipboard

  3. 소스 스토리지 클러스터에서 CephFS 미러링 모듈을 활성화합니다.

    예제

    [root@mon ~]# ceph mgr module enable mirroring
    Copy to Clipboard

  4. 소스 스토리지 클러스터에서 Ceph 파일 시스템에서 미러링을 활성화합니다.

    구문

    ceph fs snapshot mirror enable FILE_SYSTEM_NAME
    Copy to Clipboard

    예제

    [root@mon ~]# ceph fs snapshot mirror enable cephfs
    Copy to Clipboard

    1. 선택 사항: 스냅샷 미러링을 비활성화하려면 다음 명령을 사용합니다.

      구문

      ceph fs snapshot mirror disable FILE_SYSTEM_NAME
      Copy to Clipboard

      예제

      [root@mon ~]# ceph fs snapshot mirror disable cephfs
      Copy to Clipboard

      주의

      파일 시스템에서 스냅샷 미러링을 비활성화하면 구성된 피어가 제거됩니다. 피어를 부트스트래핑하여 다시 가져와야 합니다.

  5. 대상 피어 스토리지 클러스터를 준비합니다.

    1. 대상 노드에서 mirroring Ceph Manager 모듈을 활성화합니다.

      예제

      [root@mon ~]# ceph mgr module enable mirroring
      Copy to Clipboard

    2. 동일한 대상 노드에서 피어 부트스트랩을 생성합니다.

      구문

      ceph fs snapshot mirror peer_bootstrap create FILE_SYSTEM_NAME CLIENT_NAME SITE_NAME
      Copy to Clipboard

      SITE_NAME 은 대상 스토리지 클러스터를 식별하는 사용자 정의 문자열입니다.

      예제

      [root@mon ~]# ceph fs snapshot mirror peer_bootstrap create cephfs client.mirror_remote remote-site
      {"token": "eyJmc2lkIjogIjBkZjE3MjE3LWRmY2QtNDAzMC05MDc5LTM2Nzk4NTVkNDJlZiIsICJmaWxlc3lzdGVtIjogImJhY2t1cF9mcyIsICJ1c2VyIjogImNsaWVudC5taXJyb3JfcGVlcl9ib290c3RyYXAiLCAic2l0ZV9uYW1lIjogInNpdGUtcmVtb3RlIiwgImtleSI6ICJBUUFhcDBCZ0xtRmpOeEFBVnNyZXozai9YYUV0T2UrbUJEZlJDZz09IiwgIm1vbl9ob3N0IjogIlt2MjoxOTIuMTY4LjAuNTo0MDkxOCx2MToxOTIuMTY4LjAuNTo0MDkxOV0ifQ=="}
      Copy to Clipboard

      다음 단계에서 사용할 큰따옴표 사이에 토큰 문자열을 복사합니다.

  6. 소스 스토리지 클러스터에서 대상 스토리지 클러스터에서 부트스트랩 토큰을 가져옵니다.

    구문

    ceph fs snapshot mirror peer_bootstrap import FILE_SYSTEM_NAME TOKEN
    Copy to Clipboard

    예제

    [root@mon ~]# ceph fs snapshot mirror peer_bootstrap import cephfs eyJmc2lkIjogIjBkZjE3MjE3LWRmY2QtNDAzMC05MDc5LTM2Nzk4NTVkNDJlZiIsICJmaWxlc3lzdGVtIjogImJhY2t1cF9mcyIsICJ1c2VyIjogImNsaWVudC5taXJyb3JfcGVlcl9ib290c3RyYXAiLCAic2l0ZV9uYW1lIjogInNpdGUtcmVtb3RlIiwgImtleSI6ICJBUUFhcDBCZ0xtRmpOeEFBVnNyZXozai9YYUV0T2UrbUJEZlJDZz09IiwgIm1vbl9ob3N0IjogIlt2MjoxOTIuMTY4LjAuNTo0MDkxOCx2MToxOTIuMTY4LjAuNTo0MDkxOV0ifQ==
    Copy to Clipboard

  7. 소스 스토리지 클러스터에서 CephFS 미러 피어를 나열합니다.

    구문

    ceph fs snapshot mirror peer_list FILE_SYSTEM_NAME
    Copy to Clipboard

    예제

    [root@mon ~]# ceph fs snapshot mirror peer_list cephfs
    Copy to Clipboard

    1. 선택 사항: 스냅샷 피어를 제거하려면 다음 명령을 사용합니다.

      구문

      ceph fs snapshot mirror peer_remove FILE_SYSTEM_NAME PEER_UUID
      Copy to Clipboard

      예제

      [root@mon ~]# ceph fs snapshot mirror peer_remove cephfs a2dc7784-e7a1-4723-b103-03ee8d8768f8
      Copy to Clipboard

      참고

      피어 UUID 값을 찾는 방법에 대한 이 절차의 추가 리소스 섹션에서 Ceph 파일 시스템 링크의 미러 상태 보기를 참조하십시오.

  8. 소스 스토리지 클러스터에서 스냅샷 미러링을 위한 디렉터리를 구성합니다.

    구문

    ceph fs snapshot mirror add FILE_SYSTEM_NAME PATH
    Copy to Clipboard

    예제

    [root@mon ~]# ceph fs snapshot mirror add cephfs /volumes/_nogroup/subvol_1
    Copy to Clipboard

    중요

    Ceph 파일 시스템 내부의 절대 경로만 유효합니다.

    참고

    Ceph Manager 미러링 모듈은 경로를 정규화합니다. 예를 들어 /d1/d2/../dN 디렉토리는 /d1/d2 와 동일합니다. 미러링을 위해 디렉토리가 추가되면 상위 디렉토리와 하위 디렉토리가 미러링에 추가되지 않습니다.

    1. 선택 사항: 디렉터리에 대한 스냅샷 미러링을 중지하려면 다음 명령을 사용합니다.

      구문

      ceph fs snapshot mirror remove FILE_SYSTEM_NAME PATH
      Copy to Clipboard

      예제

      [root@mon ~]# ceph fs snapshot mirror remove cephfs /home/user1
      Copy to Clipboard

11.4. Ceph 파일 시스템의 미러 상태 보기

Ceph 파일 시스템(CephFS) 미러 데몬(cephfs-mirror)은 CephFS 미러링 상태 변경과 피어 업데이트에 대한 비동기 알림을 받습니다. 명령으로 cephfs-mirror admin 소켓을 쿼리하여 미러 상태 및 피어 상태를 검색할 수 있습니다.

사전 요구 사항

  • 미러링이 활성화된 Ceph 파일 시스템을 하나 이상 배포합니다.
  • CephFS 미러링 데몬을 실행하는 노드에 대한 루트 수준 액세스입니다.

절차

  1. Cephadm 쉘에 로그인합니다.

    예제

    [root@host01 ~]# cephadm shell
    Copy to Clipboard

  2. CephFS 미러링 데몬을 실행하는 노드에서 Ceph File System ID를 찾습니다.

    구문

    ceph --admin-daemon PATH_TO_THE_ASOK_FILE help
    Copy to Clipboard

    예제

    [ceph: root@host01 /]# ceph --admin-daemon /var/run/ceph/1011435c-9e30-4db6-b720-5bf482006e0e/ceph-client.cephfs-mirror.node1.bndvox.asok help
    {
        ...
        "fs mirror peer status cephfs@11 1011435c-9e30-4db6-b720-5bf482006e0e": "get peer mirror status",
        "fs mirror status cephfs@11": "get filesystem mirror status",
        ...
    }
    Copy to Clipboard

    이 예제의 Ceph 파일 시스템 ID는 cephfs@11 입니다.

  3. 미러 상태를 보려면 다음을 수행합니다.

    구문

    ceph --admin-daemon PATH_TO_THE_ASOK_FILE fs mirror status FILE_SYSTEM_NAME@_FILE_SYSTEM_ID
    Copy to Clipboard

    예제

    [ceph: root@host01 /]# ceph --admin-daemon /var/run/ceph/1011435c-9e30-4db6-b720-5bf482006e0e/ceph-client.cephfs-mirror.node1.bndvox.asok fs mirror status cephfs@11
    {
      "rados_inst": "192.168.0.5:0/1476644347",
      "peers": {
          "1011435c-9e30-4db6-b720-5bf482006e0e": { 
    1
    
              "remote": {
                  "client_name": "client.mirror_remote",
                  "cluster_name": "remote-site",
                  "fs_name": "cephfs"
              }
          }
      },
      "snap_dirs": {
          "dir_count": 1
      }
    }
    Copy to Clipboard

    1
    고유한 피어 UUID입니다.
  4. 피어 상태를 보려면 다음을 수행합니다.

    구문

    ceph --admin-daemon PATH_TO_ADMIN_SOCKET fs mirror status FILE_SYSTEM_NAME@FILE_SYSTEM_ID PEER_UUID
    Copy to Clipboard

    예제

    [ceph: root@host01 /]# ceph --admin-daemon /var/run/ceph/cephfs-mirror.asok fs mirror peer status cephfs@11 1011435c-9e30-4db6-b720-5bf482006e0e
    {
      "/home/user1": {
          "state": "idle", 
    1
    
          "last_synced_snap": {
              "id": 120,
              "name": "snap1",
              "sync_duration": 0.079997898999999997,
              "sync_time_stamp": "274900.558797s"
          },
          "snaps_synced": 2, 
    2
    
          "snaps_deleted": 0, 
    3
    
          "snaps_renamed": 0
      }
    }
    Copy to Clipboard

    상태는 다음 세 값 중 하나일 수 있습니다.

    1
    유휴 상태는 디렉토리가 현재 동기화되지 않음을 의미합니다.
    2
    동기화 는 디렉터리가 현재 동기화됨을 의미합니다.
    3
    실패하면 디렉터리가 연속 오류의 상한에 도달했습니다.

연속된 오류의 기본 수는 10이고 기본 재시도 간격은 60초입니다.

cephfs-mirror 데몬이 다시 시작될 때 동기화 stats:snaps _synced, snaps_deleted 및 snaps _renamed 가 재설정됩니다.

부록 A. Ceph 파일 시스템의 상태 메시지

클러스터 상태 점검

Ceph Monitor 데몬은 메타데이터 서버(MDS)의 특정 상태에 대한 응답으로 상태 메시지를 생성합니다. 다음은 상태 메시지 목록 및 설명입니다.

MDS 순위 <ranks>가 실패했습니다.
하나 이상의 MDS 순위는 현재 MDS 데몬에 할당되지 않습니다. 적절한 교체 데몬이 시작될 때까지 스토리지 클러스터가 복구되지 않습니다.
MDS 순위 <ranks>가 손상되었습니다.
하나 이상의 MDS 등급은 저장된 메타데이터에 심각한 손상을 초래했으며 메타데이터를 복구할 때까지 다시 시작할 수 없습니다.
MDS 클러스터의 성능이 저하됨
하나 이상의 MDS 순위가 현재 실행되지 않고, 클라이언트는 이 상황이 해결될 때까지 메타데이터 I/O를 일시 중지할 수 있습니다. 여기에는 실패 또는 손상된 순위가 포함되며 MDS에서 실행되지만 활성 상태는 아직 활성 상태가 아닌 순위를 포함합니다. 예를 들어 재생 상태의 등급은 재생 상태입니다.
MDS <names>는 laggy입니다.
MDS 데몬은 mds_beacon_interval 옵션에서 지정한 간격으로 감시 메시지를 모니터에 보내야 하며 기본값은 4초입니다. MDS 데몬이 mds_beacon_grace 옵션에 지정된 시간 내에 메시지를 보내지 못하면 기본값은 15초입니다. MDS 데몬을 laggy 로 표시하고 사용 가능한 경우 대기 데몬으로 자동 교체합니다.

데몬으로 보고된 상태 점검

MDS 데몬은 다양한 원하지 않는 조건을 식별하고 ceph status 명령의 출력에 반환할 수 있습니다. 이러한 조건에는 사람이 읽을 수 있는 메시지가 있으며, JSON 출력에 표시되는 MDS_HEALTH 를 시작하는 고유한 코드도 있습니다. 다음은 데몬 메시지, 해당 코드 및 설명 목록입니다.

"스트림 이전 이전…​"

코드: MDS_HEALTH_TRIM

CephFS는 로그 세그먼트로 구분된 메타데이터 저널을 유지 관리합니다. 저널 길이(분위 수)는 mds_log_max_segments 설정에 의해 제어됩니다. 세그먼트 수가 해당 설정을 초과하면 MDS는 가장 오래된 세그먼트를 제거(trim)할 수 있도록 메타데이터를 다시 쓰기 시작합니다. 이 프로세스가 너무 느리거나 소프트웨어 버그로 인해 트리밍을 방지하는 경우 이 상태 메시지가 표시됩니다. 이 메시지의 임계값은 두 배 mds_log_max_segments의 세그먼트 수에 대한 임계값입니다.

참고

트리밍 경고가 발생하면 mds_log_max_segments 를 늘리는 것이 좋습니다. 그러나 클러스터 상태가 복구되고 트리밍 경고가 더 이상 표시되지 않을 때 이 구성이 기본값으로 재설정되어야 합니다. MDS가 트리밍으로 catch할 수 있도록 mds_log_max_segments 를 256으로 설정하는 것이 좋습니다.

"client <name> failing to respond to respond to respond to capacity release"

코드: MDS_HEALTH_CLIENT_LATE_RELEASE, MDS_HEALTH_CLIENT_LATE_RELEASE_MANY

MDS에서 CephFS 클라이언트가 발행하는 기능을 제공합니다. 기능은 잠금처럼 작동합니다. 예를 들어 다른 클라이언트가 액세스 권한이 필요한 경우 MDS는 클라이언트를 요청하여 기능을 릴리스합니다. 클라이언트가 응답하지 않는 경우 즉시 실패하거나 전혀 실패할 수 있습니다. 이 메시지는 클라이언트가 mds_revoke_cap_timeout 옵션(기본값: 60초)에 지정된 시간보다 준수하는 데 시간이 오래 걸리는 경우 표시됩니다.

"client <name> failing to respond to respond to cache pressure"

코드: MDS_HEALTH_CLIENT_RECALL, MDS_HEALTH_CLIENT_RECALL_MANY

클라이언트는 메타데이터 캐시를 유지 관리합니다. 클라이언트 캐시의 inode와 같은 항목도 MDS 캐시에 고정됩니다. MDS에서 캐시를 축소하여 자체 캐시 크기 제한 내에 유지해야 하는 경우 MDS는 메시지를 클라이언트에 전송하여 캐시도 줄입니다. 클라이언트가 응답하지 않는 경우 MDS가 캐시 크기 내에 올바르게 유지되지 못하도록 할 수 있으며 MDS는 결국 메모리가 부족하여 예기치 않게 종료될 수 있습니다. 이 메시지는 클라이언트가 mds_recall_state_timeout 옵션(기본값: 60초)에 지정된 시간보다 준수하는 데 더 많은 시간이 걸리는 경우 표시됩니다. 자세한 내용은 메타데이터 서버 캐시 크기 제한 섹션을 참조하십시오.

"클라이언트 이름이 가장 오래된 클라이언트/플러시 티드를 발전시키지 못했습니다.".

코드: MDS_HEALTH_CLIENT_OLDEST_TID, MDS_HEALTH_CLIENT_OLDEST_TID_MANY

클라이언트와 MDS 서버 간의 통신을 위한 CephFS 프로토콜은 가장 오래된 tid 필드를 사용하여 MDS가 MDS에서 MDS를 잊어버리도록 MDS에 완전히 완료된 MDS에 알립니다. 응답하지 않는 클라이언트가 이 필드를 발전시키지 못하면 MDS에서 클라이언트 요청에 사용하는 리소스를 올바르게 정리하지 못할 수 있습니다. 이 메시지는 클라이언트에 MDS 측에서 완료되지만 클라이언트의 가장 오래된 tid 값에 대해 고려되지 않은 max_completed_requests 옵션(기본값은 100000)으로 지정된 수보다 많은 요청이 있는 경우 표시됩니다.

"메타데이터 손상 감지".

코드: MDS_HEALTH_DAMAGE

metadata 풀에서 읽을 때 손상되었거나 누락된 메타데이터가 발생했습니다. 이 메시지는 클라이언트에서 손상된 하위 트리 반환 I/O 오류에 액세스하지만 MDS가 계속 작동하기 위해 손상이 충분히 격리되었음을 나타냅니다. 손상 ls 관리 소켓 명령을 사용하여 손상에 대한 세부 정보를 확인합니다. 이 메시지는 손상이 발생하는 즉시 표시됩니다.

"읽기 전용 모드의 MDS"

코드: MDS_HEALTH_READ_ONLY

MDS는 읽기 전용 모드로 입력되었으며, 메타데이터를 수정하려는 클라이언트 작업으로 EROFS 오류 코드를 반환합니다. MDS는 읽기 전용 모드로 들어갑니다.

  • metadata 풀에 쓰는 동안 쓰기 오류가 발생하는 경우.
  • 관리자가 force_readonly 관리 소켓 명령을 사용하여 MDS가 읽기 전용 모드로 전환하도록 강제 적용하는 경우.
"<N> 느린 요청이 차단됨"

코드: MDS_HEALTH_SLOW_REQUEST

MDS가 매우 느리거나 버그가 발생하고 있음을 나타내는 하나 이상의 클라이언트 요청이 즉시 완료되지 않았습니다. ops 관리 소켓 명령을 사용하여 탁월한 메타데이터 작업을 나열합니다. 이 메시지는 클라이언트 요청이 mds_op_complaint_time 옵션에서 지정한 값보다 더 많은 시간이 소요된 경우 나타납니다(기본값은 30초).

"캐시에서 너무 많은 inode"
코드: MDS_HEALTH_CACHE_OVERSIZED

MDS는 관리자가 설정한 제한을 준수하도록 캐시를 정리하지 못했습니다. MDS 캐시가 너무 커지면 데몬이 사용 가능한 메모리를 소모하고 예기치 않게 종료될 수 있습니다. 기본적으로 이 메시지는 MDS 캐시 크기가 제한보다 50% 큰 경우 표시됩니다.

추가 리소스

부록 B. 메타데이터 서버 데몬 구성 참조

메타데이터 서버(MDS) 데몬 구성에 사용할 수 있는 이 명령 목록을 참조하십시오.

mon_force_standby_active
설명
true 로 설정하면 모니터에서 MDS를 standby 재생 모드로 강제 활성 상태로 설정합니다. Ceph 구성 파일의 [mon] 또는 [global] 섹션 아래에 를 설정합니다.
유형
부울
Default
true
max_mds
설명
클러스터를 생성하는 동안 활성 MDS 데몬 수입니다. Ceph 구성 파일의 [mon] 또는 [global] 섹션 아래에 를 설정합니다.
유형
32비트 정수
Default
1
mds_cache_memory_limit
설명
MDS가 캐시에 대해 적용하는 메모리 제한. mds 캐시 size 매개변수 대신 이 매개변수를 사용하는 것이 좋습니다.
유형
64비트 정수가 서명되지 않았습니다
Default
1073741824
mds_cache_reservation
설명
MDS 캐시가 유지 관리하기 위한 캐시 예약, 메모리 또는 inode. 값은 구성된 최대 캐시의 백분율입니다. MDS가 예약으로 디핑되기 시작하면 예약을 복원하기 위해 캐시 크기가 축소될 때까지 클라이언트 상태를 기억합니다.
유형
교체
Default
0.05
mds_cache_size
설명
캐시할 inode 수입니다. 값 0은 무제한 수를 나타냅니다. Red Hat은 mds_cache_memory_limit 를 사용하여 MDS 캐시에서 사용하는 메모리 양을 제한하는 것이 좋습니다.
유형
32비트 정수
Default
0
mds_cache_mid
설명
상단의 캐시 LRU에 있는 새 항목에 대한 삽입 지점입니다.
유형
교체
Default
0.7
mds_dir_commit_ratio
설명
Ceph에서 부분 업데이트 대신 전체 업데이트를 사용하여 커밋하기 전에 잘못된 정보가 포함된 일부 디렉터리입니다.
유형
교체
Default
0.5
mds_dir_max_commit_size
설명
Ceph가 디렉터리를 더 작은 트랜잭션으로 분리하기 전 디렉터리 업데이트의 최대 크기(MB)입니다.
유형
32비트 정수
Default
90
mds_decay_halflife
설명
MDS 캐시 온도의 반감기.
유형
교체
Default
5
mds_beacon_interval
설명
모니터에 전송된 종료 메시지의 빈도(초)입니다.
유형
교체
Default
4
mds_beacon_grace
설명
Ceph 이전 비컨티브가 없는 간격은 MDS laggy 를 선언하고 이를 대체할 수 있습니다.
유형
교체
Default
15
mds_blocklist_interval
설명
OSD 맵에서 실패한 MDS 데몬의 blocklist 기간입니다.
유형
교체
Default
24.0*60.0
mds_session_timeout
설명
Ceph가 기능 및 리스를 시간 초과하기 전에 클라이언트 비활성 간격(초)입니다.
유형
교체
Default
60
mds_session_autoclose
설명
Ceph가 laggy 클라이언트 세션을 닫기 전의 간격(초)입니다.
유형
교체
Default
300
mds_reconnect_timeout
설명
MDS 재시작 중에 클라이언트가 다시 연결될 때까지 대기하는 간격(초)입니다.
유형
교체
Default
45
mds_tick_interval
설명
MDS가 내부 주기 작업을 수행하는 빈도.
유형
교체
Default
5
mds_dirstat_min_interval
설명
재귀적 통계를 트리에 전파하지 않도록 하는 최소 간격(초)입니다.
유형
교체
Default
1
mds_scatter_nudge_interval
설명
디렉터리 통계가 얼마나 빨리 변경되어 전파됩니까.
유형
교체
Default
5
mds_client_prealloc_inos
설명
클라이언트 세션마다 사전 할당할 inode 번호 수입니다.
유형
32비트 정수
Default
1000
mds_early_reply
설명
MDS를 통해 클라이언트가 저널에 커밋하기 전에 요청 결과를 볼 수 있는지 여부를 결정합니다.
유형
부울
Default
true
mds_use_tmap
설명
디렉터리 업데이트에 trivialmap 을 사용합니다.
유형
부울
Default
true
mds_default_dir_hash
설명
디렉터리 조각 간에 파일을 해시하는 데 사용하는 함수입니다.
유형
32비트 정수
Default
2, 즉 rjenkins
mds_log
설명
MDS에서 메타데이터 업데이트를 저널링해야 하는 경우 true 로 설정합니다. 벤치마킹에 대해서만 비활성화.
유형
부울
Default
true
mds_log_skip_corrupt_events
설명
저널 재생 중에 MDS가 손상된 저널 이벤트를 건너뛰려고 할지 여부를 결정합니다.
유형
부울
Default
false
mds_log_max_events
설명
Ceph가 트리밍되기 전 저널의 최대 이벤트입니다. 제한을 비활성화하려면 -1 로 설정합니다.
유형
32비트 정수
Default
-1
mds_log_max_segments
설명
Ceph가 트리밍하기 전에 저널의 최대 세그먼트 또는 오브젝트 수입니다. 제한을 비활성화하려면 -1 로 설정합니다.
유형
32비트 정수
Default
30
mds_log_max_expiring
설명
병렬로 만료할 최대 세그먼트 수입니다.
유형
32비트 정수
Default
20
mds_log_eopen_size
설명
EOpen 이벤트의 최대 inode 수입니다.
유형
32비트 정수
Default
100
mds_bal_sample_interval
설명
조각화 결정을 내릴 때 샘플 디렉터리 온도를 얼마나 자주 판별하는지 결정합니다.
유형
교체
Default
3
mds_bal_replicate_threshold
설명
Ceph가 메타데이터를 다른 노드에 복제하기 전의 최대 온도.
유형
교체
Default
8000
mds_bal_unreplicate_threshold
설명
Ceph가 다른 노드에 메타데이터 복제를 중지하기 전 최소 온도입니다.
유형
교체
Default
0
mds_bal_frag
설명
MDS 조각 디렉터리인지 여부를 결정합니다.
유형
부울
Default
false
mds_bal_split_size
설명
MDS 앞의 최대 디렉토리 크기는 디렉토리 내용을 더 작은 비트로 나눕니다. 루트 디렉터리의 기본 내용 크기 제한은 10000입니다.
유형
32비트 정수
Default
10000
mds_bal_split_rd
설명
Ceph가 디렉토리 조각을 분할하기 전에 최대 디렉토리 읽기 전에 온도를 읽습니다.
유형
교체
Default
25000
mds_bal_split_wr
설명
Ceph의 최대 쓰기 온도는 디렉토리 내용을 나눕니다.
유형
교체
Default
10000
mds_bal_split_bits
설명
디렉토리 내용을 분할할 비트 수입니다.
유형
32비트 정수
Default
3
mds_bal_merge_size
설명
Ceph가 인접 디렉토리 내용을 병합하기 전에 최소 디렉토리 크기입니다.
유형
32비트 정수
Default
50
mds_bal_merge_rd
설명
Ceph가 인접한 디렉토리 내용을 병합하기 전에 최소 읽기 온도.
유형
교체
Default
1000
mds_bal_merge_wr
설명
Ceph가 인접한 디렉토리 내용을 병합하기 전에 최소 쓰기 온도.
유형
교체
Default
1000
mds_bal_interval
설명
MDS 노드 간 워크로드 교환 빈도(초)입니다.
유형
32비트 정수
Default
10
mds_bal_fragment_interval
설명
디렉토리 조각화를 조정하는 빈도(초)입니다.
유형
32비트 정수
Default
5
mds_bal_idle_threshold
설명
Ceph에서 하위 트리를 상위 항목으로 다시 마이그레이션하기 전의 최소 온도입니다.
유형
교체
Default
0
mds_bal_max
설명
Ceph가 중지되기 전에 밸런서를 실행하는 반복 횟수입니다. 테스트 목적으로만 사용할 수 있습니다.
유형
32비트 정수
Default
-1
mds_bal_max_until
설명
Ceph가 중지되기 전에 밸런서를 실행할 시간(초)입니다. 테스트 목적으로만 사용할 수 있습니다.
유형
32비트 정수
Default
-1
mds_bal_mode
설명

MDS 로드를 계산하는 방법:

  • 1 = 하이브리드.
  • 2 = 요청 속도 및 대기 시간.
  • 3 = CPU 부하.
유형
32비트 정수
Default
0
mds_bal_min_rebalance
설명
Ceph를 마이그레이션하기 전에 최소 하위 트리 온도.
유형
교체
Default
0.1
mds_bal_min_start
설명
Ceph에서 하위 트리를 검색하기 전에 최소 하위 트리 온도입니다.
유형
교체
Default
0.2
mds_bal_need_min
설명
허용할 대상 하위 트리 크기의 최소 비율입니다.
유형
교체
Default
0.8
mds_bal_need_max
설명
허용할 최대 대상 하위 트리 크기입니다.
유형
교체
Default
1.2
mds_bal_midchunk
설명
Ceph는 대상 하위 트리 크기보다 큰 하위 트리를 마이그레이션합니다.
유형
교체
Default
0.3
mds_bal_minchunk
설명
Ceph는 대상 하위 트리 크기보다 작은 하위 트리를 무시합니다.
유형
교체
Default
0.001
mds_bal_target_removal_min
설명
Ceph가 MDS 맵에서 이전 MDS 대상을 제거하기 전에 최소 밸런서 반복 수입니다.
유형
32비트 정수
Default
5
mds_bal_target_removal_max
설명
Ceph가 MDS 맵에서 이전 MDS 대상을 제거하기 전의 최대 밸런서 반복 수입니다.
유형
32비트 정수
Default
10
mds_replay_interval
설명
핫 대기 모드에 대해 standby-replay 모드에서 저널 폴링 간격입니다.
유형
교체
Default
1
mds_shutdown_check
설명
MDS 종료 중에 캐시 폴링 간격입니다.
유형
32비트 정수
Default
0
mds_thrash_exports
설명
Ceph는 노드 간에 하위 트리를 임의로 내보냅니다. 테스트 목적으로만 사용할 수 있습니다.
유형
32비트 정수
Default
0
mds_thrash_fragments
설명
Ceph는 디렉터리를 임의로 조각화 또는 병합합니다.
유형
32비트 정수
Default
0
mds_dump_cache_on_map
설명
Ceph는 MDS 캐시 콘텐츠를 각 MDS 맵의 파일에 덤프합니다.
유형
부울
Default
false
mds_dump_cache_after_rejoin
설명
Ceph는 복구 중에 캐시에 다시 연결한 후 파일에 MDS 캐시 내용을 덤프합니다.
유형
부울
Default
false
mds_verify_scatter
설명
Ceph는 다양한 분산/gather 불변성이 true 라고 주장합니다. 개발자용.
유형
부울
Default
false
mds_debug_scatterstat
설명
Ceph는 다양한 재귀적 통계가 true라고 주장합니다. 개발자용.
유형
부울
Default
false
mds_debug_frag
설명
편리한 경우 Ceph에서 디렉터리 조각화를 확인합니다. 개발자용.
유형
부울
Default
false
mds_debug_auth_pins
설명
디버그 인증 고정이 invariants입니다. 개발자용.
유형
부울
Default
false
mds_debug_subtrees
설명
변수의 디버깅 하위 트리. 개발자용.
유형
부울
Default
false
mds_kill_mdstable_at
설명
Ceph는 MDS 테이블 코드에 MDS 오류를 삽입합니다. 개발자용.
유형
32비트 정수
Default
0
mds_kill_export_at
설명
Ceph는 하위 트리 내보내기 코드에 MDS 오류를 삽입합니다. 개발자용.
유형
32비트 정수
Default
0
mds_kill_import_at
설명
Ceph는 하위 트리 가져오기 코드에 MDS 오류를 삽입합니다. 개발자용.
유형
32비트 정수
Default
0
mds_kill_link_at
설명
Ceph가 하드 링크 코드에 MDS 오류를 삽입합니다. 개발자용.
유형
32비트 정수
Default
0
mds_kill_rename_at
설명
Ceph에서 이름 변경 코드에 MDS 오류를 삽입합니다. 개발자용.
유형
32비트 정수
Default
0
mds_wipe_sessions
설명
시작 시 Ceph는 모든 클라이언트 세션을 삭제합니다. 테스트 목적으로만 사용할 수 있습니다.
유형
부울
Default
0
mds_wipe_ino_prealloc
설명
Ceph는 시작 시 inode 사전 할당 메타데이터를 삭제합니다. 테스트 목적으로만 사용할 수 있습니다.
유형
부울
Default
0
mds_skip_ino
설명
시작 시 건너뛸 inode 번호 수입니다. 테스트 목적으로만 사용할 수 있습니다.
유형
32비트 정수
Default
0
mds_standby_for_name
설명
MDS 데몬은 이 설정에 지정된 이름의 다른 MDS 데몬에 대한 대기 모드입니다.
유형
문자열
Default
해당 없음
mds_standby_for_rank
설명
MDS 데몬 인스턴스는 이 등급의 다른 MDS 데몬 인스턴스에 대한 대기 모드입니다.
유형
32비트 정수
Default
-1
mds_standby_replay
설명
MDS 데몬이 핫 대기 로 사용될 때 활성 MDS의 로그를 폴링하고 재생하는지 여부를 결정합니다.
유형
부울
Default
false

부록 C. 저널러 구성 참조

저널러 구성에 사용할 수 있는 list 명령의 참조입니다.

journaler_write_head_interval
설명
저널 헤드 오브젝트를 업데이트하는 빈도입니다.
유형
정수
필수 항목
없음
Default
15
journaler_prefetch_periods
설명
저널 재생을 미리 읽을 스트라이프 기간은 몇 개입니까.
유형
정수
필수 항목
없음
Default
10
journaler_prezero_periods
설명
쓰기 위치 앞에 0이 될 스트라이프 기간 수.
유형
정수
필수 항목
없음
Default
10
journaler_batch_interval
설명
인위적으로 발생하는 최대 추가 대기 시간(초)입니다.
유형
두 배
필수 항목
없음
Default
.001
journaler_batch_max
설명
플러시가 지연될 최대 바이트입니다.
유형
64비트 서명되지 않은 정수
필수 항목
없음
Default
0

부록 D. Ceph 파일 시스템 클라이언트 구성 참조

이 섹션에는 Ceph 파일 시스템(CephFS) FUSE 클라이언트의 구성 옵션이 나열되어 있습니다. [client] 섹션의 Ceph 구성 파일에서 설정합니다.

client_acl_type
설명
ACL 유형을 설정합니다. 현재 가능한 값은 POSIX ACL을 활성화하는 posix_acl 이거나 빈 문자열입니다. 이 옵션은 fuse_default_permissionsfalse 로 설정된 경우에만 적용됩니다.
유형
문자열
Default
"" (ACL 강제 없음)
client_cache_mid
설명
클라이언트 캐시 중간 지점을 설정합니다. 중간 지점은 최근에 가장 적게 사용된 목록을 핫 및 웜 목록으로 나눕니다.
유형
교체
Default
0.75
client_cache 크기
설명
클라이언트가 메타데이터 캐시에 보관하는 inode 수를 설정합니다.
유형
정수
Default
16384 (16MB)
client_caps_release_delay
설명
기능 릴리스 간 지연 시간을 초 단위로 설정합니다. 지연은 다른 사용자 공간 작업에 기능이 필요한 경우 클라이언트가 더 이상 필요하지 않은 기능을 릴리스하도록 대기하는 시간(초)을 설정합니다.
유형
정수
Default
5 (초)
client_debug_force_sync_read
설명
true 로 설정하면 클라이언트는 로컬 페이지 캐시를 사용하는 대신 OSD에서 직접 데이터를 읽습니다.
유형
부울
Default
false
client_dirsize_rbytes
설명
true 로 설정하면 디렉터리의 재귀 크기(즉, 모든 하위 항목 합계)를 사용합니다.
유형
부울
Default
true
client_max_inline_size
설명
RADOS에서 별도의 데이터 오브젝트가 아닌 파일 inode에 저장된 인라인 데이터의 최대 크기를 설정합니다. 이 설정은 inline_data 플래그가 MDS 맵에 설정된 경우에만 적용됩니다.
유형
정수
Default
4096
client_metadata
설명
자동으로 생성된 버전, 호스트 이름 및 기타 메타데이터 외에도 각 MDS에 전송된 클라이언트 메타데이터의 쉼표로 구분된 문자열입니다.
유형
문자열
Default
"" (추가 메타데이터 없음)
client_mount_gid
설명
CephFS 마운트의 그룹 ID를 설정합니다.
유형
정수
Default
-1
client_mount_timeout
설명
CephFS 마운트의 시간 제한을 초 단위로 설정합니다.
유형
교체
Default
300.0
client_mount_uid
설명
CephFS 마운트의 사용자 ID를 설정합니다.
유형
정수
Default
-1
client_mountpoint
설명
ceph-fuse 명령의 -r 옵션 대신.
유형
문자열
Default
/
client_oc
설명
개체 캐싱을 활성화합니다.
유형
부울
Default
true
client_oc_max_dirty
설명
오브젝트 캐시에서 최대 더티 바이트 수를 설정합니다.
유형
정수
Default
104857600 (100MB)
client_oc_max_dirty_age
설명
writeback 전에 오브젝트 캐시에서 더티 데이터의 최대 수명(초)을 설정합니다.
유형
교체
Default
5.0 (초)
client_oc_max_objects
설명
오브젝트 캐시에서 최대 오브젝트 수를 설정합니다.
유형
정수
Default
1000
client_oc_size
설명
클라이언트 캐시의 데이터 수를 설정합니다.
유형
정수
Default
209715200 (200 MB)
client_oc_target_dirty
설명
더티 데이터의 대상 크기를 설정합니다. 이 수치를 낮게 유지하는 것이 좋습니다.
유형
정수
Default
8388608 (8MB)
client_permissions
설명
모든 I/O 작업에 대한 클라이언트 권한을 확인합니다.
유형
부울
Default
true
client_quota_df
설명
statfs 작업에 대한 루트 디렉터리 할당량을 보고합니다.
유형
부울
Default
true
client_readahead_max_bytes
설명
향후 읽기 작업을 위해 커널이 미리 읽는 최대 바이트 수를 설정합니다. client_readahead_max_periods 설정으로 재정의합니다.
유형
정수
Default
0 (무제한)
client_readahead_max_periods
설명
커널이 미리 표시되는 파일 레이아웃 기간(개체 크기 * 스트라이프 수)을 설정합니다. client_readahead_max_bytes 설정을 재정의합니다.
유형
정수
Default
4
client_readahead_min
설명
커널이 미리 읽는 최소 숫자 바이트를 설정합니다.
유형
정수
Default
131072 (128KB)
client_snapdir
설명
스냅샷 디렉터리 이름을 설정합니다.
유형
문자열
Default
".snap"
client_tick_interval
설명
기능 갱신과 기타 upkeep 사이의 간격(초)을 설정합니다.
유형
교체
Default
1.0
client_use_random_mds
설명
각 요청에 대해 임의 MDS를 선택합니다.
유형
부울
Default
false
fuse_default_permissions
설명
false 로 설정하면 FUSE에서 권한 적용을 사용하는 대신 ceph-fuse 유틸리티 검사에서 고유한 권한 점검을 수행합니다. 클라이언트 acl type=posix_acl 옵션과 함께 false로 설정하여 POSIX ACL을 활성화합니다.
유형
부울
Default
true
개발자 옵션

이러한 옵션은 내부입니다. 옵션 목록을 완료하기 위해서만 나열되어 있습니다.

client_debug_getattr_caps
설명
MDS의 응답에 필수 기능이 포함되어 있는지 확인합니다.
유형
부울
Default
false
client_debug_inject_tick_delay
설명
클라이언트 틱 사이에 인위적인 지연을 추가합니다.
유형
정수
Default
0
client_inject_fixed_oldest_tid
설명, 유형
부울
Default
false
client_inject_release_failure
설명, 유형
부울
Default
false
client_trace
설명
모든 파일 작업에 대한 추적 파일의 경로입니다. 출력은 Ceph 제약 클라이언트에서 사용하도록 설계되었습니다. 자세한 내용은 ceph-syn(8) 매뉴얼 페이지를 참조하십시오.
유형
문자열
Default
"" (비활성화됨)

법적 공지

Copyright © 2024 Red Hat, Inc.
The text of and illustrations in this document are licensed by Red Hat under a Creative Commons Attribution–Share Alike 3.0 Unported license ("CC-BY-SA"). An explanation of CC-BY-SA is available at http://creativecommons.org/licenses/by-sa/3.0/. In accordance with CC-BY-SA, if you distribute this document or an adaptation of it, you must provide the URL for the original version.
Red Hat, as the licensor of this document, waives the right to enforce, and agrees not to assert, Section 4d of CC-BY-SA to the fullest extent permitted by applicable law.
Red Hat, Red Hat Enterprise Linux, the Shadowman logo, the Red Hat logo, JBoss, OpenShift, Fedora, the Infinity logo, and RHCE are trademarks of Red Hat, Inc., registered in the United States and other countries.
Linux® is the registered trademark of Linus Torvalds in the United States and other countries.
Java® is a registered trademark of Oracle and/or its affiliates.
XFS® is a trademark of Silicon Graphics International Corp. or its subsidiaries in the United States and/or other countries.
MySQL® is a registered trademark of MySQL AB in the United States, the European Union and other countries.
Node.js® is an official trademark of Joyent. Red Hat is not formally related to or endorsed by the official Joyent Node.js open source or commercial project.
The OpenStack® Word Mark and OpenStack logo are either registered trademarks/service marks or trademarks/service marks of the OpenStack Foundation, in the United States and other countries and are used with the OpenStack Foundation's permission. We are not affiliated with, endorsed or sponsored by the OpenStack Foundation, or the OpenStack community.
All other trademarks are the property of their respective owners.
맨 위로 이동
Red Hat logoGithubredditYoutubeTwitter

자세한 정보

평가판, 구매 및 판매

커뮤니티

Red Hat 문서 정보

Red Hat을 사용하는 고객은 신뢰할 수 있는 콘텐츠가 포함된 제품과 서비스를 통해 혁신하고 목표를 달성할 수 있습니다. 최신 업데이트를 확인하세요.

보다 포괄적 수용을 위한 오픈 소스 용어 교체

Red Hat은 코드, 문서, 웹 속성에서 문제가 있는 언어를 교체하기 위해 최선을 다하고 있습니다. 자세한 내용은 다음을 참조하세요.Red Hat 블로그.

Red Hat 소개

Red Hat은 기업이 핵심 데이터 센터에서 네트워크 에지에 이르기까지 플랫폼과 환경 전반에서 더 쉽게 작업할 수 있도록 강화된 솔루션을 제공합니다.

Theme

© 2025 Red Hat