검색

3.3. Ceph 파일 시스템

download PDF

이제 CephFS 클라이언트가 메타데이터 서버(MDS)에 의해 차단 목록에 지정된 후 다시 연결할 수 있습니다.

이전에는 Ceph File System(CephFS) 클라이언트가 네트워크 파티션 또는 기타 임시 오류로 인해 MDS에서 차단 목록에 추가되었습니다.

이번 릴리스에서는 수동 다시 마운트가 필요하지 않으므로 CephFS 클라이언트가 각 클라이언트에 대해 적절한 설정이 ON으로 다시 마운트될 수 있습니다.

이제 사용자는 MDS 간 하위 트리 자동 배포를 위해 임시 고정 정책을 사용할 수 있습니다.

이번 릴리스에서는 하위 트리를 고정하는 효율적인 전략을 도입하여 MDS(메타데이터 서버) 간에 하위 트리를 자동으로 배포하고 수동 고정에 대한 사용자 개입을 제거하여 내보내기 핀을 개선할 수 있습니다.

자세한 내용은 Red Hat Ceph Storage File System Guide임시 고정 정책 섹션을 참조하십시오.

mount.cephrecover_session=clean의 추가 옵션이 있습니다.

이번 릴리스에서는 recover_session=clean 의 추가 옵션이 mount.ceph 에 추가됩니다. 이 옵션을 사용하면 클라이언트가 메타데이터 서버(MDS)에서 차단 목록에 있음을 감지하면 클라이언트가 Red Hat Ceph Storage 클러스터에 자동으로 다시 연결되고 마운트가 자동으로 복구됩니다.

자세한 내용은 Red Hat Ceph Storage File System 가이드의 blocklist에서 Ceph File System클라이언트 제거 섹션을 참조하십시오.

Ceph 파일 시스템에서 메타데이터 작업의 비동기 생성 및 제거

이번 릴리스에서 Red Hat Enterprise Linux 8.4 커널은 이제 Red Hat Ceph Storage 클러스터에서 파일 생성 및 제거를 비동기적으로 실행합니다. 이를 통해 일관성에 영향을 주지 않고 이러한 시스템 호출에 대한 왕복 대기 시간을 방지하여 일부 워크로드의 성능이 향상됩니다. 새로운 -o nowsync 마운트 옵션을 사용하여 비동기 파일 생성 및 삭제를 활성화합니다.

Ceph 파일 시스템(CephFS)에서 mds_join_fs라는 MDS에 대한 구성 옵션을 제공

이번 릴리스에서는 메타데이터 서버(MDS) 데몬을 통해 실패할 때 클러스터의 모니터는 mds_join_fs 가 실패한 순위 의 파일 시스템 이름과 동일한 대기 데몬을 선호합니다.

mds_join_fs 가 파일 시스템 이름과 동일한 대기 시간이 없는 경우 마지막 수단으로 대체 대기 또는 기타 사용 가능한 대기 시간을 선택합니다.

자세한 내용은 Red Hat Ceph Storage File System Guide 의 파일 시스템 선호도 섹션을 참조하십시오.

Ceph 파일 시스템 간 스냅샷 비동기 복제

이번 릴리스에서는 manager 플러그인인 mirroring 모듈이 디렉터리 스냅샷 미러링을 관리하기 위한 인터페이스를 제공합니다. 미러링 모듈은 동기화를 위해 미러 데몬에 디렉터리를 할당합니다. 현재 단일 미러 데몬이 지원되며 cephadm 을 사용하여 배포할 수 있습니다.

Ceph File System(CephFS)은 cephfs-mirror 툴을 통해 원격 CephFS에 대한 비동기 스냅샷 복제를 지원합니다. 미러 데몬은 Red Hat Ceph Storage 클러스터의 여러 파일 시스템에 대한 스냅샷 동기화를 처리할 수 있습니다. 미러링 스냅샷 데이터는 동기화되고 원격 파일 시스템의 지정된 디렉터리에 대해 이름이 동일한 스냅샷을 만들어 미러링 스냅샷 데이터를 동기화합니다.

자세한 내용은 Red Hat Ceph Storage File System Guide의 Ceph 파일 시스템 미러 섹션을 참조하십시오.

cephfs-top 툴이 지원됨

이번 릴리스에서는 cephfs-top 툴이 도입되었습니다.

Ceph는 다양한 Ceph File System(CephFS) 메트릭을 실시간으로 표시하는 유틸리티와 같은 top(1) 를 제공합니다. cephfs-top 은 Ceph Manager의 stats 플러그인을 사용하여 지표를 가져와서 표시하는 curses 기반 python 스크립트입니다.

CephFS 클라이언트는 집계를 위해 이러한 메트릭을 MDS 순위 0으로 전달하는 Ceph Metadata Servers(MDS)에 주기적으로 다양한 지표를 전달합니다. 그런 다음 집계된 지표가 Ceph Manager로 전달됩니다.

지표는 글로벌 및 per-mds의 두 가지 범주로 나뉩니다. 글로벌 메트릭은 파일 시스템의 지표 세트를 전체적으로 나타내는 반면, 클라이언트별 지표는 MDS에서 처리하는 하위 트리 수와 같이 특정 MDS 순위에 대한 지표에 대한 것입니다.

현재 글로벌 메트릭이 추적되고 표시됩니다. cephfs-top 명령은 여러 Ceph File Systems에서 안정적으로 작동하지 않습니다.

자세한 내용은 Red Hat Ceph Storage File System Guide cephfs-top 유틸리티 사용을 참조하십시오.

MDS 데몬은 mds_autoscaler 플러그인을 사용하여 배포할 수 있습니다.

이번 릴리스에서는 Ceph File System(CephFS) 요구 사항에 따라 메타데이터 서버(MDS) 데몬을 배포하는 새로운 ceph-mgr 플러그인인 mds_autoscaler 를 사용할 수 있습니다. 활성화되면 mds_autoscalermax_mds 설정에 따라 필요한 standbys 및 actives를 자동으로 배포합니다.

자세한 내용은 Red Hat Ceph Storage 파일 시스템 가이드 의 MDS 자동 스케일러 모듈 사용 섹션을 참조하십시오.

Ceph File System (CephFS) scrub가 여러 활성 MDS에서 작동합니다.

이전에는 사용자가 max_mds=1 매개 변수를 설정하고 하나의 활성 메타데이터 서버(MDS)만 Ceph File System(CephFS) scrub 작업을 실행할 때까지 기다려야 했습니다.

이번 릴리스에서는 mds_max 값에 관계없이 여러 활성 MDS가 있는 순위 0 에서 스크럽을 실행할 수 있습니다.

자세한 내용은 Red Hat Ceph Storage File System Guide여러 활성 메타데이터 서버 데몬 구성 섹션을 참조하십시오.

Ceph File System 스냅샷을 snap_schedule 플러그인으로 예약할 수 있습니다.

이번 릴리스에서는 새로운 ceph-mgr 플러그인인 snap_schedule 를 사용하여 Ceph File System(CephFS)의 스냅샷을 예약할 수 있습니다. 스냅샷을 생성, 유지 및 자동으로 가비지 수집할 수 있습니다.

Red Hat logoGithubRedditYoutubeTwitter

자세한 정보

평가판, 구매 및 판매

커뮤니티

Red Hat 문서 정보

Red Hat을 사용하는 고객은 신뢰할 수 있는 콘텐츠가 포함된 제품과 서비스를 통해 혁신하고 목표를 달성할 수 있습니다.

보다 포괄적 수용을 위한 오픈 소스 용어 교체

Red Hat은 코드, 문서, 웹 속성에서 문제가 있는 언어를 교체하기 위해 최선을 다하고 있습니다. 자세한 내용은 다음을 참조하세요.Red Hat 블로그.

Red Hat 소개

Red Hat은 기업이 핵심 데이터 센터에서 네트워크 에지에 이르기까지 플랫폼과 환경 전반에서 더 쉽게 작업할 수 있도록 강화된 솔루션을 제공합니다.

© 2024 Red Hat, Inc.