릴리스 노트


Red Hat Ceph Storage 5.0

Red Hat Ceph Storage 5.0z4 릴리스 노트

Red Hat Ceph Storage Documentation Team

초록

릴리스 노트에서는 Red Hat Ceph Storage 5 제품 릴리스에 구현된 주요 기능, 개선 사항, 알려진 문제 및 버그 수정을 설명합니다. 여기에는 현재 릴리스까지 Red Hat Ceph Storage 5.0 릴리스에 대한 이전 릴리스 노트가 포함되어 있습니다.
Red Hat은 코드, 문서, 웹 속성에서 문제가 있는 용어를 교체하기 위해 최선을 다하고 있습니다. 먼저 마스터(master), 슬레이브(slave), 블랙리스트(blacklist), 화이트리스트(whitelist) 등 네 가지 용어를 교체하고 있습니다. 이러한 변경 작업은 작업 범위가 크므로 향후 여러 릴리스에 걸쳐 점차 구현할 예정입니다. 자세한 내용은 CTO Chris Wright의 메시지를 참조하십시오.

보다 포괄적 수용을 위한 오픈 소스 용어 교체

Red Hat은 코드, 문서, 웹 속성에서 문제가 있는 용어를 교체하기 위해 최선을 다하고 있습니다. 먼저 마스터(master), 슬레이브(slave), 블랙리스트(blacklist), 화이트리스트(whitelist) 등 네 가지 용어를 교체하고 있습니다. 이러한 변경 작업은 작업 범위가 크므로 향후 여러 릴리스에 걸쳐 점차 구현할 예정입니다. 자세한 내용은 CTO Chris Wright의 메시지를 참조하십시오.

Red Hat Ceph Storage 설명서에 대한 피드백 제공

문서 개선을 위한 의견을 보내 주십시오. Red Hat이 어떻게 이를 개선할 수 있는지 알려 주십시오. 이렇게 하려면 Bugzilla 티켓을 생성합니다.

+ . Bugzilla 웹 사이트로 이동합니다. . 구성 요소 드롭다운에서 문서를 선택합니다. Sub-Component 드롭다운 목록에서 적절한 하위 구성 요소를 선택합니다. 문서의 적절한 버전을 선택합니다. 요약설명 필드에 개선을 위한 제안 사항을 입력하십시오. 관련 문서의 해당 부분에 대한 링크를 포함합니다. 선택 사항: 첨부 파일(있는 경우)을 추가합니다. 버그 제출을 클릭합니다.

1장. 소개

Red Hat Ceph Storage는 Ceph 스토리지 시스템의 안정적인 버전을 Ceph 관리 플랫폼, 배포 유틸리티 및 지원 서비스와 결합하는 대규모 확장이 가능한 오픈 소프트웨어 정의 스토리지 플랫폼입니다.

Red Hat Ceph Storage 설명서는 https://access.redhat.com/documentation/en-us/red_hat_ceph_storage/5 에서 확인할 수 있습니다.

2장. 감사 인사

Red Hat Ceph Storage 버전 5.0에는 Red Hat Ceph Storage 팀의 많은 기여가 포함되어 있습니다. 또한 Ceph 프로젝트는 Ceph 커뮤니티의 개인 및 조직의 기여도와 품질 및 수량에서 놀라운 성장을 경험하고 있습니다. Red Hat Ceph Storage 팀의 모든 구성원, Ceph 커뮤니티의 개별 기여자, 그리고 다음과 같은 조직의 기여에 국한되지는 않지만 이에 국한되지는 않습니다.

  • Intel®
  • Fujitsu ®
  • UnitedStack
  • Yahoo ™
  • Ubuntu Kylin
  • Mellanox ®
  • CERN ™
  • Deutsche Telekom
  • Mirantis ®
  • SanDisk ™
  • SUSE Linux® Enterprise Server(S1.8.0)

3장. 새로운 기능

이 섹션에는 Red Hat Ceph Storage 릴리스에 도입된 모든 주요 업데이트, 개선 사항 및 새로운 기능이 나열되어 있습니다.

이 릴리스에서 추가된 주요 기능은 다음과 같습니다.

  • 컨테이너화된 클러스터

    Red Hat Ceph Storage 5는 컨테이너화된 데몬만 지원합니다. 컨테이너화되지 않은 스토리지 클러스터는 지원하지 않습니다. 컨테이너화되지 않은 스토리지 클러스터를 Red Hat Ceph Storage 4에서 Red Hat Ceph Storage 5로 업그레이드하는 경우 업그레이드 프로세스에는 컨테이너화된 배포로 변환이 포함됩니다.

    자세한 내용은 Red Hat Ceph Storage 설치 가이드의 RHCS 4에서 RHCS 5로 Red Hat Ceph Storage 클러스터 업그레이드 섹션을 참조하십시오.

  • Cephadm

    Cephadm은 manager 데몬에서 호스트에 연결하여 Red Hat Ceph Storage 5.0 클러스터를 배포하고 관리하는 새로운 컨테이너화된 배포 도구입니다. cephadm 유틸리티는 Red Hat Ceph Storage 배포의 ceph-ansible 을 대체합니다. Cephadm은 Red Hat Ceph Storage를 실행하기 위한 완전한 기능을 갖춘 강력한 관리 계층을 제공하는 것입니다.

    cephadm 명령은 Red Hat Ceph Storage 클러스터의 전체 라이프사이클을 관리합니다.

    Red Hat Ceph Storage 5.0부터는 ceph-ansible 이 더 이상 지원되지 않으며 제품과 호환되지 않습니다. Red Hat Ceph Storage 5.0으로 마이그레이션한 후에는 cephadmcephadm-ansible 을 사용하여 업데이트를 수행해야 합니다.

    cephadm 명령은 다음 작업을 수행할 수 있습니다.

  • 새 Ceph 스토리지 클러스터를 부트스트랩합니다.
  • Ceph CLI(명령줄 인터페이스)에서 작동하는 컨테이너화된 쉘을 시작합니다.
  • 컨테이너화된 데몬 디버깅 지원.

    cephadm 명령은 ssh 를 사용하여 스토리지 클러스터의 노드와 통신하고 Ceph 데몬 컨테이너를 추가, 제거 또는 업데이트합니다. 이를 통해 외부 툴을 사용하지 않고도 Red Hat Ceph Storage 컨테이너를 추가, 제거 또는 업데이트할 수 있습니다.

    cephadm 명령에는 다음 두 가지 주요 구성 요소가 있습니다.

  • cephadm 쉘은 컨테이너 내에서 bash 쉘을 시작합니다. 이를 통해 스토리지 클러스터 설치 및 설정 작업을 실행하고 컨테이너에서 ceph 명령을 실행할 수 있습니다.
  • cephadm 오케스트레이터 명령을 사용하면 Ceph 데몬 및 서비스를 프로비저닝하고 스토리지 클러스터를 확장할 수 있습니다.

    자세한 내용은 Red Hat Ceph Storage 설치 가이드 를 참조하십시오.

  • 관리 API

    관리 API는 Red Hat Ceph Storage 5.0에 적용할 수 있는 관리 스크립트를 생성하고 버전 라이프사이클에 따라 변경되지 않은 상태로 계속 작동합니다. API의 호환되지 않는 버전은 주요 릴리스 줄에서만 발생합니다.

    자세한 내용은 Red Hat Ceph Storage 개발자 가이드 를 참조하십시오.

  • Red Hat Ceph Storage의 연결이 끊긴 설치

    Red Hat Ceph Storage 5.0은 프라이빗 네트워크에서 스토리지 클러스터의 연결이 끊긴 설치 및 부트스트랩을 지원합니다. 연결이 끊긴 설치에서는 네트워크에서 파일을 다운로드하는 대신 사용자 지정 이미지 및 구성 파일 및 로컬 호스트를 사용합니다.

    Red Hat 레지스트리에 액세스할 수 있는 프록시 호스트에서 다운로드한 컨테이너 이미지를 설치하거나 컨테이너 이미지를 로컬 레지스트리에 복사하여 설치할 수 있습니다. 부트스트랩 프로세스에는 이름 및 IP 주소로 추가할 호스트를 식별하는 사양 파일이 필요합니다. 초기 모니터 호스트가 부트 스트랩되면 Ceph intendedchestrator 명령을 사용하여 스토리지 클러스터를 확장하고 구성할 수 있습니다.

    자세한 내용은 Red Hat Ceph Storage 설치 가이드 를 참조하십시오.

  • Ceph 파일 시스템 지역 복제

    Red Hat Ceph Storage 5 릴리스부터 Ceph File Systems(CephFS)를 지리적 위치 또는 다른 사이트 간에 복제할 수 있습니다. 새로운 cephfs-mirror 데몬은 스냅샷의 비동기 복제를 원격 CephFS로 수행합니다.

    자세한 내용은 Red Hat Ceph Storage File System Guide의 Ceph 파일 시스템 미러 섹션을 참조하십시오.

  • 새로운 Ceph File System 클라이언트 성능 툴

    Red Hat Ceph Storage 5 릴리스부터 Ceph File System(CephFS)은 Ceph 파일 시스템에 지표를 실시간으로 표시하는 것과 같은 최상위유틸리티를 제공합니다. cephfs-top 유틸리티는 Ceph Manager 통계 모듈을 사용하여 클라이언트 성능 지표를 가져와서 표시하는 curses기반 Python 스크립트입니다.

    자세한 내용은 Red Hat Ceph Storage File System 가이드 cephfs-top 유틸리티 사용 섹션을 참조하십시오.

  • Red Hat Ceph Storage 대시보드를 사용하여 Ceph 개체 게이트웨이 다중 사이트 모니터링

    Red Hat Ceph Storage 대시보드를 사용하여 Ceph 개체 게이트웨이 다중 사이트 구성을 모니터링할 수 있습니다.

    cephadm 유틸리티를 사용하여 멀티 영역을 설정한 후에는 한 영역의 버킷이 다른 영역과 기타 사이트에 표시됩니다. 대시보드에서 버킷을 생성, 편집, 삭제할 수도 있습니다.

    자세한 내용은 Red Hat Ceph Storage 대시보드 가이드 의 Ceph 대시보드의 다중 사이트 오브젝트 구성 관리 장을 참조하십시오.

  • BlueStore 공간 사용률 개선

    Ceph Object Gateway 및 Ceph 파일 시스템(CephFS)은 작은 오브젝트와 파일을 RADOS에 개별 오브젝트로 저장합니다. 이번 릴리스에서는 SSD에 대한 BlueStore의 min_alloc_size 의 기본값은 4 KB입니다. 이를 통해 성능에 영향을 주지 않고 공간을 효율적으로 사용할 수 있습니다.

    자세한 내용은 Red Hat Ceph Storage 관리 가이드OSD BlueStore 장을 참조하십시오.

3.1. Cephadm 유틸리티

Red Hat Ceph Storage는 이제 Ceph OSD 메모리 타겟을 자동으로 튜닝할 수 있습니다.

이번 릴리스에서는 osd_memory_target_autotune 옵션이 수정되어 예상대로 작동합니다. 사용자는 Red Hat Ceph Storage를 활성화하여 Ceph OSD의 Ceph OSD 메모리 타겟을 스토리지 클러스터에서 자동으로 튜닝하여 Ceph OSD의 메모리 대상을 명시적으로 설정하지 않고도 성능을 향상시킬 수 있습니다. Red Hat Ceph Storage는 사용 가능한 총 메모리 및 노드에서 실행되는 데몬을 평가하여 노드별로 Ceph OSD 메모리 대상을 설정합니다.

사용자는 다음 명령을 실행하여 Ceph OSD에 대해 메모리 자동 튜닝 기능을 활성화할 수 있습니다.

ceph config set osd osd_memory_target_autotune true

3.2. Ceph 대시보드

Ceph Object Gateway 다중 사이트 설정에 대한 그래프를 표시하는 새로운 Grafana 대시보드

이번 릴리스에서는 새로운 Grafana 대시보드를 사용할 수 있으며 양방향 복제 처리량, 폴링 대기 시간 및 실패한 복제를 포함하여 Ceph Object Gateway 다중 사이트 동기화 성능에 대한 그래프가 표시됩니다.

자세한 내용은 Red Hat Ceph Storage 대시보드 가이드의 대시보드의 Ceph개체 게이트웨이 데몬 섹션을 참조하십시오.

Prometheus Alertmanager 규칙은 Red Hat Ceph Storage 대시보드에서 다양한 MTU 설정에 대한 경고를 트리거합니다.

이전에는 네트워킹 문제의 잘 알려진 원인인 MTU 설정이 일치하지 않아 명령줄 인터페이스를 사용하여 식별하고 관리해야 했습니다. 이번 릴리스에서는 노드 또는 해당 노드의 마이너성이 대부분의 노드와 다른 MTU 설정이 있는 경우 Red Hat Ceph Storage 대시보드에서 경고가 트리거됩니다. 사용자는 경고를 음소거하거나 MTU 불일치 설정을 수정할 수 있습니다.

자세한 내용은 Red Hat Ceph Storage 대시보드 가이드의 Ceph 대시보드관리 섹션을 참조하십시오.

Red Hat Ceph Storage 대시보드에서 사용자 및 역할 관리

이번 릴리스에서는 사용자 및 역할 관리를 사용할 수 있습니다. 관리자는 사용자가 Ceph 클러스터에서 OSD를 생성, 업데이트, 나열 및 제거할 수 있도록 세분화된 역할 기반 액세스 제어(RBAC) 정책을 정의할 수 있습니다.

자세한 내용은 Red Hat Ceph Storage 대시보드 가이드의 Ceph 대시보드에서역할 관리를 참조하십시오.

Red Hat Ceph Storage 대시보드는 RBD v1 이미지 지원

이전에는 Red Hat Ceph Storage 대시보드가 표시되고 지원되는 RBD v2 형식 이미지만 표시되었습니다.

이번 릴리스에서는 RBD_FORCE_ALLOW_V11 로 설정하여 v1 RBD 이미지를 관리하고 v2 RBD 이미지로 마이그레이션할 수 있습니다.

자세한 내용은 Red Hat Ceph Storage 대시보드 가이드의 Ceph 대시보드를 사용하여 블록 장치 관리 섹션을 참조하십시오.

Red Hat Ceph Storage 대시보드에서 실패한 OSD를 교체할 수 있습니다.

이번 릴리스에서는 Red Hat Ceph Storage 대시보드에서 OSD_ID 를 유지하여 실패한 OSD를 식별하고 교체할 수 있습니다.

자세한 내용은 Red Hat Ceph Storage 대시보드 가이드의 Ceph대시보드에 오류가 발생한 OSD 교체 를 참조하십시오.

Red Hat Ceph Storage 대시보드에서 Ceph Object Gateway 버킷을 생성할 때 배치 대상 지정

이번 릴리스에서는 Red Hat Ceph Storage 대시보드에서 Ceph Object Gateway 버킷을 생성할 때 배치 대상을 지정할 수 있습니다.

자세한 내용은 Red Hat Ceph Storage 대시보드 가이드의 대시보드에서 Ceph개체 게이트웨이 버킷 생성 섹션을 참조하십시오.

Red Hat Ceph Storage 대시보드에서 Multi- factors Authentication deletes 기능이 활성화됨

이번 릴리스에서는 Red Hat Ceph Storage 대시보드의 Ceph 클러스터에서 특정 버킷에 대해 Multi- factor Authentication Delete(MFA)를 활성화할 수 있습니다.

자세한 내용은 Red Hat Ceph Storage 대시보드 가이드의 대시보드에서 Ceph개체 게이트웨이 버킷 편집 섹션을 참조하십시오.

특정 버킷의 버킷 버전 관리 기능이 Red Hat Ceph Storage 대시보드에서 활성화됨

이번 릴리스에서는 Red Hat Ceph Storage Dashboard의 특정 버킷에 대해 버킷 버전 관리 기능을 활성화할 수 있습니다.

자세한 내용은 Red Hat Ceph Storage 대시보드 가이드의 대시보드에서 Ceph개체 게이트웨이 버킷 편집 섹션을 참조하십시오.

Ceph Object Gateway 버킷의 오브젝트 잠금 기능은 Red Hat Ceph Storage 대시보드에서 활성화됩니다.

이번 릴리스에서는 Red Hat Ceph Storage 대시보드에서 Ceph Object Gateway 버킷에 대해 오브젝트 잠금을 활성화할 수 있습니다.

자세한 내용은 Red Hat Ceph Storage 대시보드 가이드의 대시보드에서 Ceph개체 게이트웨이 버킷 생성 섹션을 참조하십시오.

Red Hat Ceph Storage Dashboard에는 수직 탐색 표시줄이 있습니다.

이번 릴리스에서는 수직 탐색 모음을 사용할 수 있습니다. Red Hat Ceph Storage Dashboard 메뉴의 하트비트 아이콘은 녹색, 노란색, 빨간색 클러스터 상태에 따라 색상이 변경됩니다. Cluster>Monitoring 및 Block>Mirroring과 같은 다른 메뉴에는 특정 구성 요소의 경고 수를 보여주는 색상이 지정된 번호가 매겨진 아이콘이 표시됩니다.

Red Hat Ceph Storage 대시보드의 "box" 페이지에 자세한 정보가 표시됩니다.

이번 릴리스에서는 Red Hat Ceph Storage 대시보드의 "box" 페이지에 Ceph 버전에 대한 정보가 표시됩니다. ceph-mgr 이 실행 중인 호스트 이름, 사용자 이름, 역할 및 브라우저 세부 정보가 표시됩니다.

브라우저 favicon에 클러스터 상태 변경에 대한 아이콘이 포함된 Red Hat 로고가 표시됩니다.

이번 릴리스에서는 브라우저 favicon에 녹색, 노란색 또는 빨간색의 클러스터 상태에 따라 색상을 변경하는 아이콘이 포함된 Red Hat 로고가 표시됩니다.

Red Hat Ceph Storage 대시보드의 오류 페이지가 예상대로 작동합니다.

이번 릴리스에서는 Red Hat Ceph Storage 대시보드의 오류 페이지가 수정되어 예상대로 작동합니다.

사용자는 Red Hat Ceph Storage 대시보드에서 Cephadm 워크플로우를 볼 수 있습니다.

이번 릴리스에서는 Red Hat Ceph Storage에서 Ceph Orchestrator 및 서비스(예: 컨테이너 정보)에 정의된 노드와 같은 인벤토리에 대한 자세한 정보가 표시됩니다. 또한 Red Hat Ceph Storage 대시보드를 사용하면 Ceph 클러스터에서 호스트를 관리할 수 있습니다.

자세한 내용은 Red Hat Ceph Storage 대시보드 가이드의 대시보드에서 Ceph클러스터 모니터링 섹션을 참조하십시오.

사용자는 Red Hat Ceph Storage 대시보드에서 오브젝트 수 및 크기 할당량을 수정할 수 있습니다.

이번 릴리스에서는 이제 Red Hat Ceph Storage 대시보드에서 지정된 풀에 대한 오브젝트 수 및 크기 할당량을 설정하고 수정할 수 있습니다.

자세한 내용은 Red Hat Ceph Storage 대시보드 가이드의 Ceph 대시보드에서풀 생성 섹션을 참조하십시오.

사용자는 Red Hat Ceph Storage 대시보드에서 Ceph File 시스템 스냅샷을 관리할 수 있습니다.

이번 릴리스에서는 사용자가 CephFS(Ceph File System) 스냅샷을 생성 및 삭제하고 Red Hat Ceph Storage 대시보드에서 디렉터리별 할당량을 설정 및 수정할 수 있습니다.

Red Hat Ceph Storage 대시보드의 계정 및 암호 정책 강화

이번 릴리스에서는 최상의 보안 표준을 준수하기 위해 엄격한 암호 및 계정 정책이 구현됩니다. 사용자 암호는 일부 구성 가능한 규칙을 준수해야 합니다. 사용자 계정은 지정된 시간 후에 만료되도록 설정하거나 여러 번 로그인 시도에 실패한 후 잠길 수 있습니다.

사용자는 모든 영역, 영역 그룹 또는 영역에서 사용자 및 버킷을 관리할 수 있습니다.

이번 릴리스에서는 기본 영역뿐만 아니라 사용자가 구성하는 영역, 영역 그룹 또는 영역에 있는 사용자와 버킷을 관리할 수 있습니다.

Red Hat Ceph Storage 대시보드에서 여러 데몬을 관리하려면 Red Hat Ceph Storage 대시보드 가이드 의 Ceph 대시보드에서 다중 사이트 오브젝트 게이트웨이 구성의 버킷 관리를 참조하십시오.

사용자는 Red Hat Ceph Storage 대시보드에서 직관적으로 테넌트 S3 사용자를 생성할 수 있습니다.

이전에는 테넌트가 지정된 S3 사용자가 각각에 대해 직관적인 별도의 입력 필드 대신 "tenant$user"인 사용자 친숙한 구문을 사용하여 생성할 수 있었습니다.

이번 릴리스에서는 Red Hat Ceph Storage 대시보드에서 "tenant$user"를 사용하지 않고도 테넌트 S3 사용자를 직관적으로 만들 수 있습니다.

Red Hat Ceph Storage 대시 보드에서 호스트 관리 지원

이전에는 명령줄 인터페이스를 사용하여 Red Hat Ceph Storage 클러스터에서 호스트를 관리했습니다.

이번 릴리스에서는 Red Hat Ceph Storage 대시보드에서 유지 관리 모드 기능을 사용하여 호스트를 활성화하거나 비활성화할 수 있습니다.

Red Hat Ceph Storage 대시보드에서 중첩된 테이블을 확장하거나 축소할 수 있습니다.

이번 릴리스에서는 중첩된 테이블이 포함된 행을 Red Hat Ceph Storage 대시보드의 행을 클릭하여 확장하거나 축소할 수 있습니다.

3.3. Ceph 파일 시스템

이제 CephFS 클라이언트가 메타데이터 서버(MDS)에 의해 차단 목록에 지정된 후 다시 연결할 수 있습니다.

이전에는 Ceph File System(CephFS) 클라이언트가 네트워크 파티션 또는 기타 임시 오류로 인해 MDS에서 차단 목록에 추가되었습니다.

이번 릴리스에서는 수동 다시 마운트가 필요하지 않으므로 CephFS 클라이언트가 각 클라이언트에 대해 적절한 설정이 ON으로 다시 마운트될 수 있습니다.

이제 사용자는 MDS 간 하위 트리 자동 배포를 위해 임시 고정 정책을 사용할 수 있습니다.

이번 릴리스에서는 하위 트리를 고정하는 효율적인 전략을 도입하여 MDS(메타데이터 서버) 간에 하위 트리를 자동으로 배포하고 수동 고정에 대한 사용자 개입을 제거하여 내보내기 핀을 개선할 수 있습니다.

자세한 내용은 Red Hat Ceph Storage File System Guide임시 고정 정책 섹션을 참조하십시오.

mount.cephrecover_session=clean의 추가 옵션이 있습니다.

이번 릴리스에서는 recover_session=clean 의 추가 옵션이 mount.ceph 에 추가됩니다. 이 옵션을 사용하면 클라이언트가 메타데이터 서버(MDS)에서 차단 목록에 있음을 감지하면 클라이언트가 Red Hat Ceph Storage 클러스터에 자동으로 다시 연결되고 마운트가 자동으로 복구됩니다.

자세한 내용은 Red Hat Ceph Storage File System 가이드의 blocklist에서 Ceph File System클라이언트 제거 섹션을 참조하십시오.

Ceph 파일 시스템에서 메타데이터 작업의 비동기 생성 및 제거

이번 릴리스에서 Red Hat Enterprise Linux 8.4 커널은 이제 Red Hat Ceph Storage 클러스터에서 파일 생성 및 제거를 비동기적으로 실행합니다. 이를 통해 일관성에 영향을 주지 않고 이러한 시스템 호출에 대한 왕복 대기 시간을 방지하여 일부 워크로드의 성능이 향상됩니다. 새로운 -o nowsync 마운트 옵션을 사용하여 비동기 파일 생성 및 삭제를 활성화합니다.

Ceph 파일 시스템(CephFS)에서 mds_join_fs라는 MDS에 대한 구성 옵션을 제공

이번 릴리스에서는 메타데이터 서버(MDS) 데몬을 통해 실패할 때 클러스터의 모니터는 mds_join_fs 가 실패한 순위 의 파일 시스템 이름과 동일한 대기 데몬을 선호합니다.

mds_join_fs 가 파일 시스템 이름과 동일한 대기 시간이 없는 경우 마지막 수단으로 대체 대기 또는 기타 사용 가능한 대기 시간을 선택합니다.

자세한 내용은 Red Hat Ceph Storage File System Guide 의 파일 시스템 선호도 섹션을 참조하십시오.

Ceph 파일 시스템 간 스냅샷 비동기 복제

이번 릴리스에서는 manager 플러그인인 mirroring 모듈이 디렉터리 스냅샷 미러링을 관리하기 위한 인터페이스를 제공합니다. 미러링 모듈은 동기화를 위해 미러 데몬에 디렉터리를 할당합니다. 현재 단일 미러 데몬이 지원되며 cephadm 을 사용하여 배포할 수 있습니다.

Ceph File System(CephFS)은 cephfs-mirror 툴을 통해 원격 CephFS에 대한 비동기 스냅샷 복제를 지원합니다. 미러 데몬은 Red Hat Ceph Storage 클러스터의 여러 파일 시스템에 대한 스냅샷 동기화를 처리할 수 있습니다. 미러링 스냅샷 데이터는 동기화되고 원격 파일 시스템의 지정된 디렉터리에 대해 이름이 동일한 스냅샷을 만들어 미러링 스냅샷 데이터를 동기화합니다.

자세한 내용은 Red Hat Ceph Storage File System Guide의 Ceph 파일 시스템 미러 섹션을 참조하십시오.

cephfs-top 툴이 지원됨

이번 릴리스에서는 cephfs-top 툴이 도입되었습니다.

Ceph는 다양한 Ceph File System(CephFS) 메트릭을 실시간으로 표시하는 유틸리티와 같은 top(1) 를 제공합니다. cephfs-top 은 Ceph Manager의 stats 플러그인을 사용하여 지표를 가져와서 표시하는 curses 기반 python 스크립트입니다.

CephFS 클라이언트는 집계를 위해 이러한 메트릭을 MDS 순위 0으로 전달하는 Ceph Metadata Servers(MDS)에 주기적으로 다양한 지표를 전달합니다. 그런 다음 집계된 지표가 Ceph Manager로 전달됩니다.

지표는 글로벌 및 per-mds의 두 가지 범주로 나뉩니다. 글로벌 메트릭은 파일 시스템의 지표 세트를 전체적으로 나타내는 반면, 클라이언트별 지표는 MDS에서 처리하는 하위 트리 수와 같이 특정 MDS 순위에 대한 지표에 대한 것입니다.

현재 글로벌 메트릭이 추적되고 표시됩니다. cephfs-top 명령은 여러 Ceph File Systems에서 안정적으로 작동하지 않습니다.

자세한 내용은 Red Hat Ceph Storage File System Guide cephfs-top 유틸리티 사용을 참조하십시오.

MDS 데몬은 mds_autoscaler 플러그인을 사용하여 배포할 수 있습니다.

이번 릴리스에서는 Ceph File System(CephFS) 요구 사항에 따라 메타데이터 서버(MDS) 데몬을 배포하는 새로운 ceph-mgr 플러그인인 mds_autoscaler 를 사용할 수 있습니다. 활성화되면 mds_autoscalermax_mds 설정에 따라 필요한 standbys 및 actives를 자동으로 배포합니다.

자세한 내용은 Red Hat Ceph Storage 파일 시스템 가이드 의 MDS 자동 스케일러 모듈 사용 섹션을 참조하십시오.

Ceph File System (CephFS) scrub가 여러 활성 MDS에서 작동합니다.

이전에는 사용자가 max_mds=1 매개 변수를 설정하고 하나의 활성 메타데이터 서버(MDS)만 Ceph File System(CephFS) scrub 작업을 실행할 때까지 기다려야 했습니다.

이번 릴리스에서는 mds_max 값에 관계없이 여러 활성 MDS가 있는 순위 0 에서 스크럽을 실행할 수 있습니다.

자세한 내용은 Red Hat Ceph Storage File System Guide여러 활성 메타데이터 서버 데몬 구성 섹션을 참조하십시오.

Ceph File System 스냅샷을 snap_schedule 플러그인으로 예약할 수 있습니다.

이번 릴리스에서는 새로운 ceph-mgr 플러그인인 snap_schedule 를 사용하여 Ceph File System(CephFS)의 스냅샷을 예약할 수 있습니다. 스냅샷을 생성, 유지 및 자동으로 가비지 수집할 수 있습니다.

3.4. 컨테이너

cephfs-mirror 패키지는 ceph-container ubi8 이미지에 포함되어 있습니다.

이번 릴리스에서는 미러링 Ceph File System(CephFS) 스냅샷을 원격 CephFS로 지원하기 위해 ceph-container ubi8 이미지에 cephfs-mirror 패키지가 포함되어 있습니다. CephFS-mirror를 구성하는 명령을 사용할 수 있습니다.

자세한 내용은 Red Hat Ceph Storage File System Guide의 Ceph 파일 시스템 미러 섹션을 참조하십시오.

3.5. Ceph Object Gateway

rados gw-admin 버킷 통계 명령에서 버킷 이름 또는 ID가 지원됩니다.

이번 릴리스에서는 버킷 이름 또는 ID를 rados gw-admin 버킷 통계 명령에서 인수로 사용할 수 있습니다. 버킷 통계는 Ceph OSD 로그인 대규모 OMAP 오브젝트 경고 클래스를 디버깅하는 데 사용할 수 있는 최신 버킷 인스턴스를 보고합니다.

Ceph Object Gateway의 perfcounters에 새로운 성능 카운터 6개 추가

이번 릴리스에서는 Ceph Object Gateway에서 6개의 성능 카운터를 사용할 수 있습니다. 이러한 카운터는 Ceph Object Gateway 라이프사이클 시스템의 전경 및 백그라운드 처리를 통해 오브젝트 만료 및 라이프사이클 전환 활동을 보고합니다. lc_abort_mpu,lc_expire_current,lc_expire_noncurrentlc_expire_dm 카운터는 오브젝트 만료의 추정을 허용합니다. lc_transition_currentlc_transition_noncurrent 카운터는 라이프사이클 전환에 대한 정보를 제공합니다.

이제 오브젝트 잠금을 사용하여 S3 오브젝트 스토리지에서 WORM과 유사한 기능을 구현할 수 있습니다.

S3 오브젝트 잠금은 S3 오브젝트 스토리지에서 WORM(Write-once-read-many) 기능을 지원하는 주요 메커니즘입니다. 이번 릴리스에서는 Red Hat Ceph Storage 5가 AWS(Amazon Web Services) S3 Object 잠금 데이터 관리 API를 지원하며 사용자는 보존 기간, 법적 보유, 버킷 구성과 같은 오브젝트 잠금 개념을 사용하여 데이터 삭제 권한을 재정의하는 사용자 정의 워크플로우의 일부로 WORM과 같은 기능을 구현할 수 있습니다.

3.6. RADOS

Red Hat Ceph Storage는 삭제 코드(EC) 풀에서 사용 가능한 OSD 수가 적기 때문에 복구됩니다.

이전 버전에서는 크기가 k+m 인 agesure coded (EC) 풀에 복구하려면 최소 k+1 복사본이 필요합니다. k 복사본만 사용할 수 있는 경우 복구가 불완전합니다.

이번 릴리스에서는 Red Hat Ceph Storage 클러스터에서 EC 풀에서 사용 가능한 k 이상의 사본을 사용하여 복구할 수 있습니다.

삭제 코딩된 풀에 대한 자세한 내용은 Red Hat Ceph Storage Storage Strategies Guide코드화된 풀 장을 참조하십시오.

열 제품군을 사용한 MultiplesDB 데이터베이스 분할이 지원됩니다.

BlueStore 관리자 도구를 사용하면 읽기 및 쓰기 간소화, 압축 중에 DB(Database) 확장을 줄이고 IOPS 성능을 향상시키는 것이 목표입니다.

이번 릴리스에서는 BlueStore 관리자 도구를 사용하여 데이터베이스를 다시 지정할 수 있습니다. RobsDB(DB) 데이터베이스의 데이터는 여러 Column Families(CF)로 나뉩니다. 각 CF에는 자체 옵션이 있으며 분할은 omap, 오브젝트 데이터, 지연 캐시된 쓰기 및 PGlog와 같은 데이터 유형에 따라 수행됩니다.

Resharding에 대한 자세한 내용은 Red Hat Ceph Storage 관리 가이드의 BlueStore 관리 툴 섹션을 사용하여 RamsDB 데이터베이스 Resharding을 참조하십시오.

Ceph 모니터에 mon_allow_pool_size_one 구성 옵션을 활성화할 수 있습니다.

이번 릴리스에서는 사용자가 설정 옵션 mon_allow_pool_size_one 을 활성화할 수 있습니다. 활성화하면 사용자는 풀 크기를 1 로 설정하려는 경우 osd pool 에 대해 --yes-i-really-mean-it 플래그를 전달해야 합니다.

osd_client_message_cap 옵션이 다시 추가되었습니다.

이전에는 osd_client_message_cap 옵션이 제거되었습니다. 이번 릴리스에서는 osd_client_message_cap 옵션이 다시 소개되었습니다. 이 옵션은 이러한 요청을 제한하여 진행 중인 클라이언트 요청의 최대 수를 제어하는 데 도움이 됩니다. 이 작업을 수행하면 많은 양의 클라이언트 기반 트래픽으로 인해 Ceph OSD가 플러프될 때 유용할 수 있습니다.

Ceph directorenger 프로토콜이 msgr v2.1로 업데이트되었습니다.

이번 릴리스에서는 새로운 버전의 Ceph directorenger 프로토콜인 msgr v2.1이 구현되어 있으며 이는 이전 버전 msgr v2.0과 관련된 여러 보안, 무결성 및 잠재적인 성능 문제를 해결합니다. 데몬 및 클라이언트 모두 모든 Ceph 엔티티는 기본적으로 msgr v2.1입니다.

새로운 기본 osd_client_message_cap 값은 256

이전에는 osd_client_message_cap 의 기본값이 0 이었습니다. 기본값 0 은 Ceph OSD의 흐름 제어 기능을 비활성화하고 클라이언트 트래픽이 많은 동안 Ceph OSD가 플러쉬하지 않도록 합니다.

이번 릴리스에서는 osd_client_message_cap 에 대한 기본값 256 을 통해 진행 중인 클라이언트 요청의 최대 수를 제한하여 더 나은 흐름 제어 기능을 제공합니다.

set_new_tiebreaker 명령이 추가되었습니다.

이번 릴리스에서는 스토리지 관리자가 확장 모드에서 스토리지 클러스터에서 실행할 때 새로운 tiebreak Ceph Monitor를 설정할 수 있습니다. 이 명령은 tiebreaker가 실패하고 복구할 수 없는 경우 유용할 수 있습니다.

3.7. RADOS 블록 장치(RBD)

librbd small I/O 성능 개선

이전에는 NVMe 기반 Ceph 클러스터에서 내부 스레드 아키텍처가 제한되어 20K 4KiB IOPS를 초과하여 단일 librbd 클라이언트가 어려움을 겪었습니다.

이번 릴리스에서는 새로운 ASIO 기반 neorados API 위에 비동기 반응기 모델로 전환되어 잠재적으로 여러 접점을 통해 잠재적으로 작은 I/O 처리량을 늘리고 대기 시간이 줄어듭니다.

만료된 RBD 이미지 제거 일정으로 설정

이전에는 스토리지 관리자가 rbd recycle remove 명령에 대해 cron과 같은 작업을 설정할 수 있었습니다.

이번 릴리스에서는 만료된 RBD 이미지 제거에 기본 제공 일정을 사용할 수 있습니다. rbd Retain 제거 일정 추가 및 관련 명령을 사용하여 정의된 일정에 따라 만료된 이미지를 자동으로 제거하도록 RBD reverse를 구성할 수 있습니다.

자세한 내용은 Red Hat Ceph Storage Block Device Guide자동 발행기 제거 일정 섹션을 참조하십시오.

새로운 ceph-immutable-object-cache 데몬을 사용하여 변경 불가능한 오브젝트 읽기

이번 릴리스에서는 새로운 ceph-immutable-object-cache 데몬을 하이퍼바이저 노드에 배포하여 변경 불가능한 오브젝트의 읽기(예: 상위 이미지 스냅샷)를 서비스할 수 있습니다. 새로운 parent_cache librbd 플러그인은 상위 이미지에서 읽은 모든 데몬과 일치하여 필요한 경우 캐시에 결과를 추가합니다. 이렇게 하면 여러 가상 머신이 동시에 골든 이미지를 공유하는 시나리오에서 대기 시간이 단축됩니다.

자세한 내용은 Red Hat Ceph Storage Block 장치 가이드 의 'ceph-immutable-object-cache'daemons 관리 장을 참조하십시오.

librbd 기반 클라이언트에서 압축 또는 압축 불가능한 힌트를 전송하기 위한 지원

이전 버전에서는 데이터를 압축할 수 없거나 압축 불가능한지 여부에 관계없이 기본 OSD 오브젝트 저장소 백엔드를 나타내는 방법이 없었습니다.

이번 릴리스에서는 rbd_compression_hint 구성 옵션을 사용하여 기본 OSD 오브젝트 저장소 백엔드에 데이터를 압축할 수 있는지 압축할 수 있는지 여부를 나타낼 수 있습니다. 이 작업은 이미지당, 풀당 또는 전역적으로 수행할 수 있습니다.

자세한 내용은 Red Hat Ceph Storage Block Device Guide의 블록 장치 입력 및 출력 옵션 섹션을 참조하십시오.

librbd 클라이언트에서 읽기-from-replica 정책 덮어쓰기 지원

이전에는 클러스터가 데이터 센터 간에 확장되는 것처럼 inter-DC/AZ 네트워크 트래픽을 제한할 방법이 없었습니다. 기본 OSD는 PG의 다른 OSD와 비교하여 대기 시간이 길고 비용 링크가 더 길 수 있었습니다.

이번 릴리스에서는 rbd_read_from_replica_policy 구성 옵션을 사용할 수 있으며 CRUSH 맵과 CRUSH 계층 구조의 클라이언트 위치에서 임의의 OSD 또는 PG에서 가장 가까운 OSD로 읽기를 보내는 데 사용할 수 있습니다. 이 작업은 이미지당, 풀당 또는 전역적으로 수행할 수 있습니다.

자세한 내용은 Red Hat Ceph Storage Block Device Guide의 블록 장치 입력 및 출력 옵션 섹션을 참조하십시오.

RBD 이미지의 온라인 구문 분석

이전 버전에서는 기본 OSD 오브젝트 저장소에서 0개 및 완전히 할당된 이미지 확장 영역을 위한 공간을 회수하는 것은 매우 번거롭고 오류가 발생했습니다. 이번 릴리스에서는 새로운 rbd sprsify 명령을 사용하여 이미지가 0 데이터의 청크를 스캔하고 기본 OSD 오브젝트 저장소에서 해당 범위를 할당 해제할 수 있습니다.

OCF:ceph:rbd 클러스터 리소스 에이전트에서 네임스페이스 지원

이전에는 네임스페이스 내에 존재하는 이미지에 ocf:ceph:rbd 클러스터 리소스 에이전트를 사용할 수 없었습니다.

이번 릴리스에서는 새 pool_namespace 리소스 에이전트 매개변수를 사용하여 네임스페이스 내의 이미지를 처리할 수 있습니다.

RBD 이미지를 즉시 가져올 수 있습니다.

rbd import 명령을 사용하면 새 이미지가 완전히 채워진 후에만 사용할 수 있습니다.

이번 릴리스에서는 외부 데이터 소스를 지원하도록 이미지 실시간 마이그레이션 기능이 확장되었으며 rbd 가져오기 대신 사용할 수 있습니다. 새 이미지는 원시, qcow 또는 qcow 2 형식의 원격 파일, HTTP(S)를 통해 제공되는 원격 파일 또는 원격 Amazon S3 호환 버킷에 연결할 수 있으며 즉시 사용할 수 있습니다. 이미지는 활성 상태일 때 실행할 수 있는 백그라운드 작업으로 채워집니다.

librbd 내에서 LUKS 암호화 지원

librbd 상단에 QEMU LUKS 암호화 또는 dm-crypt 커널 모듈을 계층화하면 copy-on-write 복제 이미지에서 상위 이미지와 동일한 암호화 키를 사용해야 하는 주요 제한 사항이 있습니다. 이번 릴리스에서는 LUKS 암호화 지원이 librbd 내에 통합되어 있습니다. 이제 새로운 "rbd encryption format" 명령을 사용하여 이미지를 luks1 또는 luks2 암호화된 형식으로 포맷할 수 있습니다.

3.8. RBD 미러링

RBD 이미지의 스냅샷 기반 미러링

저널 기반 미러링은 실제 이미지를 수정하기 전에 이미지에 대한 모든 업데이트가 먼저 관련 저널에 처음 기록되는 이중-쓰기 저하의 비용에서 세분화된 충돌 일치 복제를 제공합니다.

이번 릴리스에서는 저널 기반 미러링 외에도 스냅샷 기반 미러링이 지원됩니다. 이는 이미지를 수동으로 생성하거나 정의된 일정을 사용하여 주기적으로 생성할 수 있는 미러 스냅샷을 사용하여 이미지가 미러링되는 일관된 충돌 복제를 제공합니다. 이는 모든 클라이언트에서 지원되며 덜 엄격한 복구 지점 목표(RPO)가 필요합니다.

3.9. iSCSI Gateway

ceph 상태 출력에서 tcmu-runner 섹션 개선

이전에는 각 iSCSI LUN이 개별적으로 나열되어 ceph 상태 출력이 사용되었습니다.

이번 릴리스에서는 ceph status 명령에서는 보고서를 요약하고 활성 포털 수 및 호스트 수만 표시합니다.

3.10. Ceph Ansible 유틸리티

cephadm-adopt.yml 플레이북은 멱등입니다.

이번 릴리스에서는 cephadm-adopt.yml 플레이북은 멱등이며, 플레이북을 여러 번 실행할 수 있습니다. 첫 번째 시도에서 어떤 이유로든 플레이북이 실패하면 플레이북을 다시 실행할 수 있으며 예상대로 작동합니다.

자세한 내용은 Red Hat Ceph Storage 설치 가이드의 'ceph-ansible' 섹션을 사용하여 Red Hat Ceph Storage 4에서 Red Hat Ceph Storage 5 로의 업그레이드를 참조하십시오.

  1. 이전 Red Hat Ceph Storage를 업그레이드하는 동안 pg_autoscalerbalancer 모듈이 비활성화되어 업그레이드 프로세스 중에 pg_autoscalerbalancer 모듈 비활성화가 지원되지 않았습니다. 이로 인해 pg_autoscaler 가 배치 그룹 번호를 계속 조정하기 때문에 업그레이드 프로세스 중에 배치 그룹 확인이 실패할 수 있습니다.

이번 릴리스에서 Ceph OSD 노드를 업그레이드하기 전에 pg_autoscalerbalancer 모듈을 비활성화한 다음 업그레이드가 완료된 후 다시 활성화합니다.

Ceph Ansible rolling_update.yml 플레이북 개선

이전에는 Ceph Ansible rolling_update.yml 플레이북에서 업그레이드 프로세스 중에 나중에 컨테이너 이미지의 Ceph 버전 요구 사항을 확인했습니다. 이로 인해 업그레이드 프로세스 중 플레이북이 실패했습니다.

이 릴리스에서는 컨테이너 이미지가 Ceph 버전 요구 사항을 충족하지 않는 경우 rolling_update.yml 플레이북은 조기에 실패합니다.

4장. 버그 수정

이 섹션에서는 Red Hat Ceph Storage 릴리스에 수정된 사용자 영향이 있는 버그에 대해 설명합니다. 또한 이 섹션에는 이전 버전에서 발견된 수정된 알려진 문제에 대한 설명이 포함되어 있습니다.

4.1. Cephadm 유틸리티

ceph-volume 명령은 OSD 및 장치를 차단하지 않고 예상대로 실행됩니다.

이전 버전에서는 ceph-volume lvm list 및 ceph-volume 인벤토리와 같은 ceph-volume 명령이 완료되지 않아 OSD를 생성하고, 장치 나열, OSD 나열 등의 기타 ceph-volume 명령을 실행할 수 없었습니다.

이번 업데이트를 통해 이러한 명령의 기본 출력이 Cephadm 로그에 추가되지 않아 cephadm 바이너리에서 시작한 컨테이너에서 모든 ceph-volume 명령이 실행됩니다.

(BZ#1948717)

Ceph OSD ID 클레임 검색은 호스트의 정규화된 도메인 이름과 호스트 이름으로 검색

이전 버전에서는 실패한 Ceph OSD를 교체할 때 CRUSH 맵의 이름이 호스트 이름으로만 표시되고 Ceph OSD ID 클레임을 검색하는 대신 FQDN(정규화된 도메인 이름)을 사용했습니다. 그 결과 Ceph OSD ID 클레임을 찾을 수 없었습니다. 이번 릴리스에서는 Ceph OSD ID 클레임 검색 기능이 호스트 이름에 FQDN과 올바르게 일치하며 Ceph OSD를 교체하는 기능이 예상대로 작동합니다.

(BZ#1954503)

ceph orch ls 명령은 지정된 서비스에 대해 실행 중인 데몬 수를 올바르게 표시합니다.

이전 버전에서는 ceph orch ls --service-type SERVICE_TYPE 명령에서 데몬을 실행하는 서비스의 데몬을 잘못 보고했으며 사용자가 특정 서비스에 대해 실행 중인 데몬 수를 확인할 수 없었습니다. 이번 릴리스에서는 ceph orch ls --service-type SERVICE_TYPE 명령으로 해당 서비스에 대해 실행 중인 데몬 수가 올바르게 표시됩니다.

(BZ#1964951)

사용자가 더 이상 cephadm을 사용하여 Ceph Manager 서비스를 제거할 수 없습니다.

이전에는 사용자가 ceph orch rm mgr 명령을 실행한 경우 cephadm 이 스토리지 클러스터의 모든 Ceph Manager 데몬을 제거하여 스토리지 클러스터에 액세스할 수 없게 되었습니다.

이번 릴리스에서는 ceph orch rm SERVICE_NAME 명령을 사용하여 Ceph Manager, Ceph Monitor 또는 Ceph OSD 서비스를 제거하려고 하면 이러한 서비스를 제거하는 것이 안전하지 않으며 작업이 수행되지 않음을 알리는 경고 메시지가 표시됩니다.

(BZ#1976820)

node-exporteralert-manager 컨테이너 버전이 업데이트되었습니다.

이전 버전에서는 Red Hat Ceph Storage 5.0 node-exporteralert-manager 컨테이너 버전은 버전 4.6을 사용할 수 있고 Red Hat Ceph Storage 4.2에서 사용됩니다.

이번 릴리스에서는 cephadm 명령을 사용하여 Red Hat Ceph Storage 5.0에서 Red Hat Ceph Storage 5.0으로 업그레이드하면 node-exporteralert-manager 컨테이너 버전이 버전 4.6으로 업데이트됩니다.

(BZ#1996090)

4.2. Ceph 대시보드

Red Hat Ceph Storage 대시보드에 액세스할 수 있도록 보안 쿠키 기반 세션이 활성화됨

이전에는 LocalStorage에 정보를 저장하면 브라우저에서 실행되는 모든 세션에서 Red Hat Ceph Storage 대시 보드에 액세스할 수 있어 대시보드가 XSS 공격에 취약했습니다. 이번 릴리스에서는 LocalStorage가 보안 쿠키 기반 세션으로 교체되므로 세션 시크릿은 현재 브라우저 인스턴스에서만 사용할 수 있습니다.

(BZ#1889435)

4.3. Ceph 파일 시스템

지원되지 않는 메트릭을 수신하면 MDS 데몬이 더 이상 충돌하지 않습니다.

이전에는 MDS 데몬에서 커널 클라이언트의 새 지표를 처리할 수 없었습니다. 이로 인해 MDS 데몬이 지원되지 않는 메트릭 수신 시 MDS 데몬이 충돌했습니다.

이번 릴리스에서는 MDS에서 지원되지 않는 메트릭을 삭제하고 예상대로 작동합니다.

(BZ#2030451)

스토리지 클러스터가 가득 차면 데이터 삭제가 허용됩니다.

이전에는 스토리지 클러스터가 가득 차면 구성 파일을 읽는 동안 Ceph Manager가 풀 권한을 확인하는 데 중단되었습니다. Ceph OSD가 가득 차면 Ceph Metadata Server(MDS)에서 쓰기 작업이 발생하지 않아 ENOSPACE 오류가 발생했습니다. 스토리지 클러스터가 전체 비율에 도달하면 사용자가 Ceph Manager 볼륨 플러그인을 사용하여 공간을 확보하기 위해 데이터를 삭제할 수 없었습니다.

이번 릴리스에서는 새로운 FULL 기능이 도입되었습니다. FULL 기능을 사용하면 Ceph Manager가 Ceph OSD 전체 검사를 건너뜁니다. client_check_pool_permission 옵션은 기본적으로 비활성화되지만 이전 릴리스에서는 활성화되었습니다. Ceph Manager에는 FULL 기능이 있으므로 MDS에서 더 이상 Ceph Manager 호출을 차단하지 않습니다. 이로 인해 스토리지 클러스터가 가득 차면 Ceph Manager에서 하위 볼륨 및 스냅샷을 삭제하여 공간을 확보할 수 있습니다.

(BZ#1910272)

Ceph File System 클라이언트의 인증 요청을 처리할 때 Ceph 모니터가 더 이상 충돌하지 않습니다.

이전에는 클라이언트에서 기존 파일 시스템을 볼 수 있는 권한이 없는 경우 클라이언트의 인증 요청을 처리할 때 Ceph 모니터가 충돌했습니다. 이로 인해 Ceph 모니터를 사용할 수 없게 되었습니다. 이번 릴리스에서는 코드 업데이트에서 레거시 파일 시스템 인증 요청 및 인증 요청 처리가 예상대로 작동합니다.

(BZ#1976915)

MGR 로그에서 몇 밀리초 마다 KeyError 표시

이전에는 KeyError 가 몇 밀리초마다 Ceph Manager 로그에 기록되었습니다. 이는 client_metadata[in_progress] 사전에서 요소를 제거하여 존재하지 않는 키가 없기 때문에 KeyError 이었습니다. 결과적으로 로그에서 다른 스택 추적을 찾는 것이 어려웠습니다. 이번 릴리스에서는 Ceph File System 성능 지표 및 Ceph Manager 로그의 KeyError 메시지의 코드 논리가 수정되었습니다.

(BZ#1979520)

특정 복제 상태에 대해 하위 볼륨 복제를 더 이상 삭제할 수 없습니다.

이전 버전에서는 복제본이 COMPLETED 또는 CANCELLED 상태가 아닌 경우 force 옵션을 사용하여 하위 볼륨 복제를 제거하려고 하면 진행 중인 복제본을 추적하는 인덱스에서 복제본이 제거되지 않았습니다. 이로 인해 해당 복제 스레드가 복제를 무기한 다시 시도하여 ENOENT 오류가 발생했습니다. 기본 복제본 스레드 수가 4개로 설정된 경우 4개의 복제를 삭제하려고 하면 4개의 스레드가 모두 차단된 상태로 진입하여 보류 중인 복제본을 완료할 수 없었습니다.

이번 릴리스에서는 복제본이 COMPLETED 또는 CANCELLED 상태인 경우가 아니면 제거되지 않습니다. 복제본은 삭제되어 실행 중인 복제본을 추적하는 인덱스의 항목과 함께 복제 스레드가 더 이상 차단되지 않습니다. 결과적으로 보류 중인 복제가 예상대로 계속 완료됩니다.

(BZ#1980920)

ceph fs snapshot mirror daemon status 명령을 더 이상 파일 시스템 이름이 필요하지 않음

이전에는 사용자가 ceph fs snapshot mirror daemon status 명령에 하나 이상의 파일 시스템 이름을 제공해야 했습니다. 이번 릴리스에서는 더 이상 파일 시스템 이름을 명령 인수로 지정할 필요가 없으며 데몬 상태는 각 파일 시스템을 별도로 표시합니다.

(BZ#1988338)

cephfs-mirror 데몬을 중지하면 불명확한 종료가 발생할 수 있습니다.

이전 버전에서는 cephfs-mirror 종료 프로세스 중 경합 상태로 인해 cephfs-mirror 프로세스가 불명확하게 종료되었습니다. 이번 릴리스에서는 경쟁 조건이 해결되었으며 이로 인해 cephfs-mirror 데몬이 정상적으로 종료됩니다.

(BZ#2002140)

Ceph Metadata Server에서 더 이상 메타데이터 손상 및 실패 경고를 보고하지 않습니다.

이전에는 Ceph 모니터에서 생성 중에 standby-replay 데몬을 위해 순위를 할당했습니다. 이러한 동작으로 인해 Ceph 메타데이터 서버(MDS)가 잘못된 메타데이터 손상 및 실패 경고를 보고할 수 있습니다. 이번 릴리스에서는 생성 중에 Ceph Monitor가 더 이상 대기-재플레이 데몬에 순위를 할당하지 않고 잘못된 메타데이터 손상 및 실패 경고를 제거합니다.

(BZ#2002398)

4.4. Ceph Manager 플러그인

pg_autoscaler 모듈이 더 이상 실패한 op 오류를 보고하지 않습니다.

이전 버전에서는 pg-autoscaler 모듈에서 CRUSH 규칙 단계 set_chooseleaf_vary_r 1 이 있는 경우 풀 상태를 가져오려고 할 때 op 에 대해 KeyError를 보고했습니다. 그 결과 모듈 'pg_autoscaler'를 사용하여 HEALTH_ERR 상태가 표시되는 Ceph 클러스터 상태가 실패했습니다. op error. 이번 릴리스에서는 풀 상태를 가져오고 pg_autoscaler 모듈이 실패한 op 오류를 보고하지 않는 동안 CRUSH 규칙에 대해 op 을 사용하는 유일한 단계가 반복되지 않습니다.

(BZ#1874866)

4.5. Ceph Object Gateway

S3 라이프사이클 만료 헤더 기능은 오브젝트를 예상대로 식별합니다.

이전 버전에서는 라이프사이클 만료가 없는 일부 오브젝트가 GET 또는 HEAD 요청에서 개체 이름을 저장된 라이프사이클 정책과 비교할 때 기능 논리의 오류로 인해 라이프사이클 만료로 잘못 식별되었습니다. 이번 업데이트를 통해 S3 라이프사이클 만료 헤더 기능이 예상대로 작동하고 오브젝트를 올바르게 식별합니다.

(BZ#1786226)

rados gw-admin user list 명령에서 더 이상 Red Hat Ceph Storage 클러스터 4에서 실행하는 데 시간이 오래 걸리지 않습니다.

이전 버전에서는 Red Hat Ceph Storage 클러스터 4에서는 GC shard 수를 제어하는 rgw_gc_max_objs 구성 변수 값이 크게 증가했기 때문에 많은 radosgw-admin 명령의 성능이 영향을 받았습니다. 여기에는 GC와 관련이 없는 radosgw-admin 명령이 포함되어 있습니다. 이번 릴리스에서는 Red Hat Ceph Storage 클러스터 3에서 Red Hat Ceph Storage 클러스터 4로 업그레이드한 후 rados gw-admin 사용자 목록 명령을 실행하는 데 시간이 더 오래 걸리지 않습니다. GC가 작동하기 위해 필요한 radosgw-admin 명령의 성능만 rgw_gc_max_objs 구성의 값으로 영향을 받습니다.

(BZ#1927940)

유효하지 않은 Amazon 리소스 이름 요소가 있는 정책에서는 더 이상 권한 에스컬레이션이 발생하지 않습니다.

이전에는 버킷 정책과 같은 IAM 정책 문서의 잘못된 Amazon 리소스 이름(ARN) 요소를 잘못 처리하면 정책에 포함되지 않은 사용자에게 의도하지 않은 권한이 부여될 수 있었습니다. 이번 릴리스에서는 잘못된 ARN 요소가 있는 정책을 저장하지 않거나 이미 저장된 경우 정책을 올바르게 평가합니다.

(BZ#2007451)

4.6. RADOS

bluestore_cache_trim_max_skip_pinned10000 으로 설정하면 개체의 메타데이터를 트리밍할 수 있습니다.

최근 사용된 최소(LRU) 캐시는 오브젝트의 메타데이터에 사용됩니다. 캐시 트리밍은 최근 액세스한 오브젝트에서 수행됩니다. 고정된 개체는 제거에서 제외됩니다. 이는 Bluestore에서 여전히 사용 중임을 나타냅니다.

이전에는 구성 변수 bluestore_cache_trim_max_skip_pinned 를 제어하면 고정된 오브젝트 수를 제어하여 스크럽 프로세스에서 오브젝트를 장기간 고정할 수 있었습니다. LRU 메타데이터 캐시 하단에 고정된 오브젝트 수가 bluestore_cache_trim_max_skip_pinned 보다 크면 캐시 트리밍이 완료되지 않았습니다.

이번 릴리스에서는 가능한 메타데이터 캐시 수보다 큰 bluestore_cache_trim_max_skip_pinned10000 으로 설정할 수 있습니다. 이를 통해 트리밍 및 메타데이터 캐시 크기가 구성 설정을 준수할 수 있습니다.

(BZ#1931504)

Red Hat Ceph Storage 4에서 HEALTH_WARN 상태로 스토리지 클러스터를 5로 업그레이드

이전에 지원되는 버전에서 Red Hat Ceph Storage 5로 Red Hat Ceph Storage 클러스터를 업그레이드할 때 모니터가 안전하지 않은 global_id 회수를 허용하는 것을 알리는 HEALTH_WARN 상태의 스토리지 클러스터에서 업그레이드가 완료됩니다. 이는 CVE-2021-20288 에서 사용 가능한 세부 정보인 패치된 CVE로 인해 발생합니다.

상태 경고를 음소거하기 위한 권장 사항:

  1. AUTH_INSECURE_GLOBAL_ID_RECLAIM 경고에 대한 ceph 상태 세부 정보 출력을 확인하여 업데이트하지 않은 클라이언트를 식별합니다.
  2. 모든 클라이언트를 Red Hat Ceph Storage 5.0 릴리스로 업그레이드합니다.
  3. 모든 클라이언트가 즉시 업그레이드되지 않으면 상태 경고가 일시적으로 음소거됩니다.

    구문

    ceph health mute AUTH_INSECURE_GLOBAL_ID_RECLAIM 1w  # 1 week
    ceph health mute AUTH_INSECURE_GLOBAL_ID_RECLAIM_ALLOWED 1w  # 1 week

  4. 모든 클라이언트의 유효성 검사가 업데이트되고 AUTH_INSECURE_GLOBAL_ID_RECLAIM 경고가 더 이상 클라이언트에 표시되지 않는 경우 auth_allow_insecure_global_id_reclaimfalse로 설정합니다.

    구문

    ceph config set mon auth_allow_insecure_global_id_reclaim false

  5. AUTH_INSECURE_GLOBAL_ID_RECLAIM 경고로 클라이언트가 나열되어 있지 않은지 확인합니다.

(BZ#1953494)

telnetsDB 플러시 및 컴팩트에 대한 트리거 조건이 예상대로 작동합니다.

bluestore는 데이터를 Blob이라는 청크로 구성하고, 크기는 기본적으로 64K입니다. 큰 쓰기의 경우 64K Blob 쓰기 시퀀스로 분할됩니다.For large writes, it is split into a sequence of 64K blob writes.

이전 버전에서는 지연된 크기가 Blob 크기와 같을 때 모든 데이터가 지연되어 "L" 열 제품군에 배치되었습니다. 일반적인 예로는 bluestore_prefer_deferred_size_hddbluestore_max_blob_size_hdd 매개변수에 대한 값이 64K인 HDD 구성의 경우입니다. 이로 인해 "L" 열이 더 빨리 사용되어 로스DB 플러시 수가 빨라지고 컴팩트가 더 자주 발생합니다. 이 시나리오에 대한 트리거 조건은 Blob의 데이터 크기 였습니다. 최소 지연된 크기의 데이터입니다.

이번 릴리스에서는 지연된 트리거 조건은 Blob이 아닌 디스크에서 확장 영역 크기를 확인합니다. delayed _size 보다 작은 Extent는 지연된 메커니즘으로 이동하고 더 큰 Extent는 즉시 디스크에 기록됩니다. 트리거 조건은 데이터 크기( extent < 최소 지연된 크기 )로 변경됩니다.

작은 쓰기는 "L" 열에 배치되고 이 열의 증가는 추가 압축 없이 속도가 느립니다.

bluestore_prefer_deferred_size 매개변수는 Blob 크기의 간섭 없이 지연된 항목을 제어하고 "writes smaller than this size"에 대한 설명으로 작동합니다.

(BZ#1991677)

큰 경우 Ceph Manager가 pg_numpgp_num으로 증가해도 더 이상 충돌하지 않습니다.

이전에는 배치 그룹을 조정하는 코드가 pg_numpgp_num 매개변수로 올바르게 처리되지 않아 Ceph Manager가 충돌할 수 있는 정수 underflow가 발생했습니다.

이번 릴리스에서는 배치 그룹을 조정하는 코드가 수정되었습니다. 결과적으로 배치 그룹에 대규모의 증가로 인해 Ceph Manager가 충돌하지 않습니다.

(BZ#2001152)

4.7. RADOS 블록 장치(RBD)

librbd 코드는CEPH _OSD_FLAG_FULL_TRY 플래그를 준수합니다.

이전에는 rados_set_pool _full_try() API 함수를 사용하여 complexH_OSD_FLAG_FULL_TRY 를 설정할 수 있었습니다. Red Hat Ceph Storage 5에서 librbd 는 이 플래그를 준수하지 않았습니다. 이로 인해 풀이 가득 차거나 할당량 한도에 도달할 때 쓰기 작업이 대기 중이 되거나 4096H _OSD_FLAG_FLAG_TRY 가 설정된 경우에도 할당량 제한에 도달할 수 있었습니다.

이번 릴리스에서는 librbd 가 이제 complexH _OSD_FLAG_FLAG_TRY 플래그를 준수하고, 설정된 경우 풀이 완료되거나 할당량에 도달할 때 쓰기 작업이 성공하거나 ENOSPC 또는 EDQUOT 메시지와 함께 실패했습니다. RADOS Block Device(RBD) 이미지를 전체 또는 at-quota 풀에서 제거할 수 있습니다.

(BZ#1969301)

4.8. RBD 미러링

rbd 미러 풀 피어 부트스트랩 명령 개선

이전 버전에서는 rbd 미러 풀 피어 부트스트랩 가져오기 명령을 실행하면 librados 가 키 링이 필요하지 않은 경우 누락된 키 링 파일에 대한 오류를 기록했습니다. 키 링이 누락되어 명령이 실패했던 것처럼 표시되는 사이트 관리자가 혼동될 수 있습니다. 이번 릴리스에서는 부트 스트랩 토큰이 키가 포함된 경우와 같이 원격 스토리지 클러스터의 키 링이 필요하지 않은 경우 librados 가 더 이상 오류를 기록하지 않습니다.

(BZ#1981186)

4.9. iSCSI Gateway

gwcli 툴에서 올바른 삭제 코딩된 풀 프로파일 표시

이전에는 gwcli 툴에 agesure coded 풀의 잘못된 k+m 값이 표시되었습니다.

이번 릴리스에서는 gwcli 툴에서 관련 Agesure coded 풀 설정에서 정보를 가져오고 Red Hat Ceph Storage 클러스터는 올바른 삭제 코딩된 풀 프로필을 표시합니다.

(BZ#1840721)

iSCSI가 구성된 스토리지 클러스터 업그레이드가 예상대로 작동합니다.

이전에는 최신 ceph-iscsi 패키지에 더 이상 사용되지 않는 ceph-iscsi 패키지가 없기 때문에 iSCSI가 구성된 스토리지 클러스터 업그레이드가 실패했습니다.

이번 릴리스에서는 RPM 사양 파일에서 ceph-iscsi-tools 패키지가 더 이상 사용되지 않으며 업그레이드가 예상대로 성공합니다.

(BZ#2026582)

tcmu-runner 가 더 이상 "blocklist" 항목을 제거하지 못합니다.

이전에는 tcmu-runner 에서 잘못된 명령을 실행하여 "blocklist" 항목을 제거하여 iSCSI LUN의 성능이 저하되었습니다.

이번 릴리스에서는 blocklist 항목을 제거할 때 올바른 명령을 실행하도록 tcmu-runner 가 업데이트되었습니다. blocklist 항목은 tcmu-runner 에 의해 정리되고 iSCSI LUN이 예상대로 작동합니다.

(BZ#2041127)

tcmu-runner 프로세스는 이제 정상적으로 닫힙니다.

이전 버전에서는 tcmu-runner 프로세스에서 실패한 경로를 잘못 처리하여 uninitialized g_object 메모리가 발생했습니다. 이로 인해 tcmu-runner 프로세스가 예기치 않게 종료될 수 있습니다. 초기화되지 않은 g_object 메모리의 릴리스를 건너뛰도록 소스 코드가 수정되어 tcmu-runner 프로세스가 정상적으로 종료됩니다.

(BZ#2007683)

RADOS 블록 장치 핸들러는 구성 문자열을 올바르게 구문 분석합니다.

이전에는 RADOS Block Device(RBD) 처리기에서 구성 문자열을 구문 분석하는 동안 strtok() 함수를 사용했으며 이는 스레드로부터 안전하지 않았습니다. 이로 인해 이미지를 생성하거나 다시 열 때 이미지 이름의 구성 문자열을 잘못 구문 분석했습니다. 이로 인해 이미지가 열 수 없었습니다. 이번 릴리스에서는 RBD 처리기에서 스레드로부터 안전한 strtok_r() 함수를 사용하므로 구성 문자열을 올바르게 구문 분석할 수 있습니다.

(BZ#2007687)

4.10. Ceph Ansible 유틸리티

cephadm-adopt Playbook에서 새 nfs-ganesha 풀을 생성할 때 풀에서 풀 애플리케이션을 활성화합니다.

이전 버전에서는 cephadm-adopt 플레이북에서 새 nfs-ganesha 풀을 생성할 때 풀에서 풀 애플리케이션을 활성화하지 않았습니다. 이로 인해 한 풀에 풀 애플리케이션이 활성화되지 않은 경고 메시지가 표시되었습니다. 이번 업데이트를 통해 cephadm-adopt 플레이북은 생성된 풀에 풀 애플리케이션을 설정하고 채택 후 더 이상 발생하지 않는 경고입니다.

(BZ#1956840)

cephadm-adopt 플레이북에서 다중 사이트 구성에 대한 기본 영역을 생성하지 않습니다.

이전에는 cephadm-adopt 플레이북에서 다중 사이트 구성이 없는 경우에도 채택 프로세스 중에 기본 영역을 생성해야 했습니다.

이번 릴리스에서는 cephadm-adopt 플레이북에서 다중 사이트 구성이 배포되지 않은 경우 기본 영역 생성을 적용하지 않습니다.

(BZ#1988404)

Ceph Ansible adm-adopt.yml 플레이북은 호스트의 정규화된 도메인 이름으로 노드를 추가할 수 있습니다.

이전에는 Ceph Ansible cephadm -adopt.yml 플레이북을 사용하여 cephadm에 노드를 추가하는 작업이 짧은 호스트 이름을 사용했으며 노드의 현재 FQDN(정규화된 도메인 이름)과 일치하지 않았습니다. 그 결과 FQDN 호스트 이름과 일치하지 않아 채택 플레이북이 실패했습니다.

이번 릴리스에서는 Playbook이 sble_hostname 팩트 대신 ansible_nodename 팩트를 사용하므로 adoption 플레이북에서 FQDN으로 구성된 노드를 추가할 수 있습니다.

(BZ#1997083)

Ceph Ansible adm-adopt Playbook 에서 컨테이너 이미지를 성공적으로 가져옵니다.

이전에는 Ceph Ansible cephadm-adopt 플레이북이 채택 중인 스토리지 클러스터의 컨테이너 레지스트리에 로그인하지 않았습니다. 이번 릴리스에서는 Ceph Ansible adm-adopt Playbook이 컨테이너 레지스트리에 로그인하고 컨테이너 이미지를 예상대로 가져옵니다.

(BZ#2000103)

5장. 기술 프리뷰

이 섹션에서는 Red Hat Ceph Storage 릴리스에 소개되거나 업데이트된 기술 프리뷰 기능에 대해 설명합니다.

중요

기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있으며 프로덕션에 사용하지 않는 것이 좋습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다.

Red Hat 기술 프리뷰 기능 지원 범위에 대한 자세한 내용은 link:https를 참조하십시오.

  • 버킷 세분화된 다중 사이트 복제 [기술 프리뷰]

    이전에는 영역 그룹 내의 모든 버킷이 동일한 데이터가 포함된 미러 복사본이었습니다. 다중 사이트 데이터 흐름은 영역 내에서 또는 영역 간에 발생했습니다. 이 릴리스에서는 버킷 세분화된 다중 사이트 복제를 통해 버킷 수준에서 데이터의 흐름 및 복제를 제어할 수 있습니다. 영역 내의 버킷은 다른 데이터를 포함할 수 있으며 다른 영역의 다른 버킷에서 데이터를 가져올 수 있습니다.

  • S3 개체를 사용하여 데이터를 검색할 때 쉼표로 구분된 값(CSV) 파일을 통해 쿼리를 사용하여 콘텐츠를 필터링하는 방법 [기술 프리뷰]

    S3 Select Object Content API가 이제 기술 프리뷰로 지원됩니다. 이 API는 구조화된 쿼리 언어(SQL)를 통해 S3 오브젝트의 콘텐츠를 필터링합니다. 요청에서 지정된 콘텐츠를 검색하려면 S3 오브젝트의 CSV(콤마로 구분된 값)인 데이터 직렬화 형식을 지정해야 합니다. AWS CLI Select Object Content는 CSV 형식을 사용하여 오브젝트 데이터를 레코드로 구문 분석하고 쿼리에 지정된 레코드만 반환합니다.

5.1. Ceph Object Gateway

다중 사이트 복제 설정의 Ceph 개체 게이트웨이는 이제 AWS 버킷 복제 API 기능의 하위 집합을 지원합니다.

이번 릴리스에서 Ceph Object Gateway는 이제 {Put, Get, Delete} 복제 작업을 비롯한 AWS 버킷 복제 API 기능의 하위 집합을 지원합니다. 이 기능을 사용하면 버킷 복제를 사용할 수 있으며, 현재 최종 사용자 복제 제어 기능을 통해 기존 CephObject Gateway 다중 사이트 복제 설정의 영역 내에서 버킷을 복제할 수 있습니다.

KMIP-protocol 키 관리 서버에 대한 기술 프리뷰 지원

이번 릴리스에서는 IBM SKLM과 같은 KMIP 프로토콜 키 관리 서버에서 기술 프리뷰 지원을 사용할 수 있으므로 Ceph 개체 게이트웨이의 관리 암호화 기능과 함께 사용되는 인기 있는 키 관리 소프트웨어 범위를 확장할 수 있습니다.

5.2. RADOS 블록 장치(RBD)

대기 시간을 줄이기 위해 librbd PMEM 기반 영구 쓰기-백 캐시

이번 릴리스에서는 새로운 pwl_cache librbd 플러그인은 PMEM 장치를 대상으로 하는 로그 구조화된 쓰기-백 캐시를 제공하여 대기 시간을 줄입니다. 이미지 업데이트는 일괄 처리 및 플러시되므로 실제 이미지를 충돌 불일치 상태로 유지합니다. PMEM 장치가 손실된 경우 오래된 것처럼 보일 수 있지만 이미지에 계속 액세스할 수 있습니다.

rbd-nbd 장치에 대한 스냅샷 quiesce 후크 지원

이번 릴리스에서 librbd API는 이제 조정된 스냅샷 생성을 가능하게 하는 quiesce 및 unquiesce 후크를 제공합니다. rbd-nbd 데몬은 선택적으로 매핑된 장치 상단에 마운트된 파일 시스템을 정지하고, 파일 시스템을 일관된 스냅샷을 만듭니다. 이 동작은 rbd-nbd_quiesce 쉘 스크립트를 편집하거나 사용자 지정 실행 파일로 대체하여 사용자 지정할 수 있습니다.

6장. 확인된 문제

이 섹션에서는 Red Hat Ceph Storage 릴리스에 있는 알려진 문제에 대해 설명합니다.

6.1. Cephadm 유틸리티

Red Hat Ceph Storage post-upgrade의 NFS-RGW 문제

RGW-NFS를 사용하는 고객은 Red Hat Ceph Storage 5.1까지 업그레이드를 연기하는 것이 좋습니다.

(BZ#1842808)

ceph orch host rm 명령은 Red Hat Ceph Storage 클러스터 호스트에서 Ceph 데몬을 제거하지 않습니다.

ceph orch host rm 명령은 출력을 제공하지 않습니다. 이로 인해 Ceph 데몬이 실수로 제거되지 않으면 데이터가 손실될 수 있습니다.

이 문제를 해결하려면 사용자가 Ceph 데몬을 수동으로 제거해야 합니다. Red Hat Ceph Storage 클러스터의 호스트를 제거하기 위해 Red Hat Ceph Storage 운영 가이드 의 Ceph Orchestrator를 사용하여 호스트 제거 단계를 따르십시오.

(BZ#1886120)

Red Hat Ceph Storage 클러스터에서 제거된 후에도 Ceph 모니터는 stray 데몬으로 보고

Cephadm은 스토리지 클러스터에서 제거된 경우에도 Ceph 모니터를 스프레이 데몬으로 보고합니다.

이 문제를 해결하려면 ceph mgr fail 명령을 실행하여 관리자가 다시 시작하고 오류를 지울 수 있습니다. 대기 관리자가 없는 경우 ceph mgr fail 명령으로 인해 클러스터가 일시적으로 응답하지 않습니다.

(BZ#1945272)

monitor/s가 _admin 라벨이 없는 노드/s로 이동하면 Cephadm 쉘에 대한 액세스가 손실됩니다.

부트스트랩 후 _admin 레이블이 없는 경우 모니터를 다른 노드로 이동하면 Cephadm 쉘에 대한 액세스가 손실됩니다. 이 문제를 해결하려면 대상 호스트에 _admin 레이블이 있는지 확인합니다.

(BZ#1947497)

standby MDS 데몬이 없는 경우 Cephadm을 사용한 Red Hat Ceph Storage 업그레이드

기존 MDS 서비스가 있고 활성 대기 데몬이 없는 Red Hat Ceph Storage를 업그레이드하는 동안 프로세스가 중단됩니다.

이 문제를 해결하려면 Cephadm을 통해 업그레이드하기 전에 대기 MDS 데몬이 하나 이상 있어야 합니다.

ceph fs status FILE_SYSTEM_NAME .

대기 데몬이 없는 경우 MDS 데몬을 추가한 다음 스토리지 클러스터를 업그레이드합니다. standby 데몬이 있는 경우 업그레이드가 예상대로 작동합니다.

(BZ#1959354)

ceph orch ls 명령은 Red Hat Ceph Storage 클러스터에서 생성할 수 있는 올바른 OSD 수를 나열하지 않습니다.

ceph orch ls 명령은 다음 출력을 제공합니다.

예제

# ceph orch ls

osd.all-available-devices    12/16  4m ago     4h   *

위의 출력에 따라 4개의 OSD가 시작되지 않았습니다.

이 문제를 해결하려면 ceph -s 명령을 실행하여 모든 OSD가 Red Hat Ceph Storage 클러스터에서 실행 중인지 확인합니다.

(BZ#1959508)

ceph orch osd rm help 명령은 잘못된 매개변수 설명을 제공합니다.

ceph orch osd rm help 명령은 ceph orch osd rm SVC_ID …​을 제공합니다. [-replace] [--replace] 매개변수 대신 ceph orch osd rm OSD_ID…​ [--replace] [-force]. 이렇게 하면 OSD를 제거하는 동안 SVC_ID 를 지정하라는 메시지가 표시됩니다.

이 문제를 해결하려면 OSD 식별 OSD_ID 매개변수를 사용하여 Red Hat Ceph Storage 클러스터의 OSD를 제거합니다.

(BZ#1966608)

osd_memory_target_autotune 구성 매개변수를 활성화할 수 있습니다.

이번 릴리스에서는 osd_memory_target_autotune 이 기본적으로 비활성화되어 있습니다. 사용자는 다음 명령을 실행하여 OSD 메모리 자동 조정을 활성화할 수 있습니다.

ceph config set osd osd_memory_target_autotune true

(BZ#1939354)

6.2. Ceph 대시보드

Red Hat Ceph Storage 대시보드의 스토리지 클러스터에서 호스트를 제거하기 전에 호스트에서 서비스 제거

서비스를 제거하기 전에 Red Hat Ceph Storage 대시보드에서 호스트를 제거하면 호스트가 오래된, 일시 중단 또는 유감자가 됩니다.

이 문제를 해결하려면 호스트에서 실행 중인 모든 서비스를 수동으로 제거한 다음 Red Hat Ceph Storage 대시보드를 사용하여 스토리지 클러스터에서 호스트를 제거합니다. 서비스를 제거하지 않고 호스트를 제거하면 호스트를 다시 추가하려면 명령줄 인터페이스를 사용해야 합니다. 서비스를 제거하지 않고 호스트를 제거하는 경우 명령줄 인터페이스를 사용하여 호스트를 다시 추가해야 합니다.

(BZ#1889976)

사용자는 Red Hat Ceph Storage 대시보드에서 하위 볼륨의 스냅샷을 생성할 수 없습니다.

이번 릴리스에서는 Red Hat Ceph Storage 대시보드에서 하위 볼륨의 스냅샷을 생성할 수 없습니다. 사용자가 대시보드에 하위 볼륨의 스냅샷을 생성하는 경우 사용자가 보다 설명적인 오류 메시지 대신 500 오류가 발생합니다.

(BZ#1950644)

Red Hat Ceph Storage 대시보드는 기본 CRUSH 루트 자식의 OSD만 표시

Red Hat Ceph Storage 대시보드는 기본 CRUSH 루트 자식이 데이터 센터, 영역, 랙 및 기타 유형과 같은 다른 CRUSH 유형을 무시하는 것으로 간주합니다. 결과적으로 대시보드의 CRUSH 맵 뷰어에서 기본 CRUSH 루트의 일부가 아닌 OSD가 표시되지 않습니다.

Ceph 대시보드의 스토리지 클러스터 OSD의 트리 보기는 이제 ceph osd 트리 출력과 유사합니다.

(BZ#1953903)

Chrome 확장 또는 플러그인으로 Red Hat Ceph Storage 대시보드에 로그인할 수 없습니다.

브라우저에서 사용되는 플러그인에 대한 Chrome 확장 기능이 있는 경우 사용자는 Red Hat Ceph Storage 대시보드에 로그인할 수 없습니다.

이 문제를 해결하려면 사용 중인 특정 도메인 이름의 쿠키를 지우거나 Incognito 모드를 사용하여 Red Hat Ceph Storage 대시보드에 액세스합니다.

(BZ#1913580)

Red Hat Ceph Storage 대시보드의 그래프가 표시되지 않습니다.

Red Hat Ceph Storage 대시보드의 그래프는 클라이언트 시스템에서 grafana 서버 인증서를 신뢰하지 않으므로 표시되지 않습니다.

이 문제를 해결하려면 클라이언트 인터넷 브라우저에서 Grafana URL을 직접 열고 보안 예외를 수락하여 Ceph 대시보드의 그래프를 확인합니다.

(BZ#1921092)

Red Hat Ceph Storage 클러스터에서 NFS-Ganesha 내보내기 관리 방법

현재 Ceph 클러스터에서 NFS-Ganesha 내보내기를 관리하는 방법은 두 가지가 있습니다. 하나는 대시보드를 사용하고 다른 하나는 명령줄 인터페이스를 사용하는 것입니다. 내보내기가 한 가지 방식으로 생성되는 경우 사용자가 다른 방식으로 내보내기를 관리하지 못할 수 있습니다.

이 문제를 해결하기 위해 Red Hat은 NFS 배포 및 관리 방법을 한 가지 방법으로 준수할 것을 권장하므로 변경할 수 없는 NFS 내보내기의 잠재적인 중복 또는 관리를 방지할 수 있습니다.

(BZ#1939480)

대시보드 관련 URL 및 Grafana API URL은 짧은 호스트 이름으로 액세스할 수 없습니다.

이 문제를 해결하려면 클러스터 드롭다운 메뉴에서 Red Hat Ceph Storage 대시보드의 Manager 모듈을 클릭합니다. 짧은 호스트 이름 URL에서 FQDN URL로 설정을 변경합니다. ceph mgr 모듈을 사용하여 대시보드를 비활성화하고 ceph mgr module enable dashboard 명령을 사용하여 dashboard 모듈을 다시 활성화합니다.

대시보드는 Grafana API URL 및 기타 대시보드 URL에 액세스할 수 있어야 합니다.

(BZ#1964323)

Red Hat Ceph Storage 대시보드에서 HA-Proxy-RGW 서비스 관리가 지원되지 않습니다.

Red Hat Ceph Storage 대시보드는 Ceph Object Gateway에 대한 HA 프록시 서비스를 지원하지 않습니다.

이 문제를 해결하려면 Cephadm CLI를 사용하여 HA 프록시-RGW 서비스를 관리할 수 있습니다. Red Hat Ceph Storage 대시보드에서만 서비스를 볼 수 있습니다.

(BZ#1968397)

Red Hat은 Red Hat Ceph Storage 대시보드의 백엔드에서 Ceph 파일 시스템을 통한 NFS 내보내기를 지원하지 않습니다.

Red Hat은 Red Hat Ceph Storage 대시보드의 Ceph File System(CephFS)을 통해 NFS 내보내기 관리를 지원하지 않습니다. 현재 백엔드의 Ceph 오브젝트 게이트웨이를 사용하여 NFS 내보내기가 지원됩니다.

(BZ#1974599)

6.3. Ceph 파일 시스템

이제 backtrace가 CephFS scrub 작업에 예상대로 작동합니다.

이전에는 역추적이 안정적인 스토리지로 작성되지 않았습니다. 백트레이스가 새 및 동기화되지 않은 항목의 메모리 내 복사본과 일치하지 않는 경우 scrub 활동에서 실패를 보고했습니다. 역추적 불일치는 또한 디스크에 역추적을 저장할 필요가 없기 때문에 영구적으로 제거되어야하는 줄기 항목에도 발생했습니다. 지속적인 메타데이터 I/O로 인해 원시 통계 회계가 인스턴스화되지 않기 때문에 메타데이터 I/O가 많은 경우 원시 통계가 일치하지 않을 수 있습니다.

이 문제를 해결하려면 시스템이 유휴 상태일 때 스크럽을 다시 실행하고 메모리 내 상태를 디스크로 플러시할 수 있는 충분한 시간이 있습니다. 결과적으로 메타데이터가 디스크로 플러시되면 이러한 오류가 해결됩니다. 디스크에 backtrace가 없고 파일이 new인 경우 역추적 검증에 성공하고 항목이 stray이고 삭제에 대한 정보가 표시됩니다.

자세한 내용은 MDSs 보고서가 손상된 메타데이터를 사용하여 KCS Ceph 상태에 HEALTH_ERR이 표시됩니다.

(BZ#1794781)

이제 여러 내보내기를 통해 NFS 마운트에 액세스할 수 있습니다.

이전 버전에서는 여러 CephFS 내보내기가 생성되면 내보내기에 대한 읽기/쓰기가 중단되었습니다. 이로 인해 NFS 마운트에 액세스할 수 없었습니다. 이 문제를 해결하려면 Ganesha 버전 3.3-2에 대해 단일 내보내기가 지원됩니다. 이번 릴리스에서는 Ganesha 버전 3.3-3 이상이 사용될 때 여러 CephFS 내보내기가 지원됩니다.

(BZ#1909949)

cephfs-top 유틸리티에 잘못된 마운트 및 누락된 메트릭이 표시됩니다.

cephfs-top 유틸리티는 현재 Red Hat Enterprise Linux 8과 함께 제공되는 커널보다 최신 커널이 필요합니다. cephfs-top 유틸리티에는 전체 성능 통계 패치 세트가 필요합니다. 현재는 이 알려진 문제에 대한 해결방법이 없습니다.

(BZ#1946516)

6.4. Ceph Object Gateway

버전이 지정된 버킷에 대한 LC 정책이 리스하드 사이에 실패했습니다.

현재 LC 정책이 작동하지 않고 버전이 지정된 버킷에서 버전 관리 및 활성화 후 둘 사이에 재스하드됩니다.

(BZ#1962575)

rados gw-admin 사용자 stats 명령은 size_utilizedsize_kb_utilized 필드에 대한 잘못된 값을 표시합니다.

Red Hat Ceph Storage 클러스터에 버킷을 추가한 후 사용자가 radosgw-admin 사용자 통계 명령을 실행하면 출력에 size_utilizedsize_kb_utilized 필드에 잘못된 값이 표시되고 항상 0으로 표시됩니다.

이 문제에 대한 해결 방법이 없으며 사용자는 이러한 값을 무시할 수 있습니다.

(BZ#1986160)

6.5. 다중 사이트 Ceph 개체 게이트웨이

[5.0][RGW-multisite][Scale-testing][LC]: 기본에서 LC를 통한 16.5M 개체를 삭제해도 보조에서 해당 오브젝트 수가 삭제되지 않습니다.

TODO https://bugzilla.redhat.com/show_bug.cgi?id=1976874

🚧 [rgw-multisite][swift-cosbench]: 인덱스의 크기는 개체 덮어 쓰기 시 안정적으로 업데이트되지 않아 기본 및 보조에 대한 통계가 모호합니다.

TODO https://bugzilla.redhat.com/show_bug.cgi?id=1986826

6.6. Ceph Ansible 유틸리티

Red Hat Ceph Storage 4에서 Red Hat Ceph Storage 5로 업그레이드한 후 rbd-mirroring이 예상대로 작동하지 않습니다.

Red Hat Ceph Storage 4에서 Red Hat Ceph Storage 5로 스토리지 클러스터를 마이그레이션한 후 cephadm-adopt 플레이북에서 rbd-mirroring이 표시되지 않습니다.

이 문제를 해결하려면 피어를 수동으로 추가합니다.

구문

rbd mirror pool peer add POOL_NAME CLIENT_NAME@CLUSTER_NAME

예제

[ceph: root@host01 /]# rbd --cluster site-a mirror pool peer add image-pool client.rbd-mirror-peer@site-b

자세한 내용은 Red Hat Ceph Storage Block Device 가이드의 스토리지 클러스터 피어 추가 섹션을 참조하십시오.

(BZ#1967440)

Grafana 노드에서 대시보드를 활성화하면 cephadm-adopt.yml 플레이북이 현재 실패합니다.

현재 cephadm-adopt.yml 플레이북은 Ceph 모니터에서만 배포된 노드에서 /etc/ceph 디렉터리를 생성하지 않기 때문에 실행되지 않습니다.

이 문제를 해결하려면 플레이북을 실행하기 전에 Ceph 모니터 노드에서 /etc/ceph 디렉터리를 수동으로 생성합니다. ceph 사용자의 UID 및 GID가 디렉터리를 소유하고 있는지 확인합니다.

(BZ#2029697)

6.7. 문서의 알려진 문제

  • Red Hat Ceph Storage 대시보드에서 Ceph File 시스템 스냅샷을 관리하는 사용자 설명서

    이 기능에 대한 자세한 내용은 Red Hat Ceph Storage Dashboard Guide 의 다음 버전에 포함되어 있습니다.

  • Red Hat Ceph Storage 대시보드에서 호스트를 관리하는 사용자 정의 문서

    이 기능에 대한 자세한 내용은 Red Hat Ceph Storage Dashboard Guide 의 다음 버전에 포함되어 있습니다.

  • 사용자가 RBD 이미지를 즉시 가져올 수 있는 문서

    rbd 가져오기 명령에 대한 세부 정보는 Red Hat Ceph Storage Block Device Guide 의 다음 버전에 포함됩니다.

7장. 사용되지 않는 기능

이 섹션에서는 Red Hat Ceph Storage의 이번 릴리스까지 모든 마이너 릴리스에서 더 이상 사용되지 않는 기능에 대한 개요를 제공합니다.

Ceph 구성 파일이 더 이상 사용되지 않음

Ceph 구성 파일(ceph.conf)은 더 이상 사용되지 않으며 Ceph Monitor에 저장된 새로운 중앙 집중식 구성을 사용합니다. 자세한 내용은 Red Hat Ceph Storage 구성 가이드의 Ceph 구성데이터베이스 섹션을 참조하십시오.

Ceph 파일 시스템(CephFS)의 min_compat_client 매개변수가 더 이상 사용되지 않음

min_compat_client 매개변수는 Red Hat Ceph Storage 5.0에서 더 이상 사용되지 않으며 Ceph File Systems(CephFS) 설정을 위해 새 클라이언트 기능이 추가됩니다. 자세한 내용은 Red Hat Ceph Storage 파일 시스템 가이드클라이언트 기능 섹션을 참조하십시오.

Ceph File System 하위 볼륨 그룹의 스냅샷이 더 이상 사용되지 않음

Ceph File System(CephFS) 하위 볼륨 그룹의 스냅샷 기능은 Red Hat Ceph Storage 5.0에서 더 이상 사용되지 않습니다. 필요한 경우 기존 스냅샷을 나열하고 삭제할 수 있습니다. 자세한 내용은 Red Hat Ceph Storage Ceph File System 가이드 의 파일 시스템 하위 볼륨 그룹 목록 및 스냅샷 제거를 참조하십시오.

Cockpit Ceph 설치 프로그램이 더 이상 사용되지 않음

Cockpit Ceph 설치 프로그램을 사용하여 Red Hat Ceph Storage 클러스터 5 설치는 지원되지 않습니다. Cephadm을 사용하여 Red Hat Ceph Storage 클러스터를 설치합니다. 자세한 내용은 Red Hat Ceph Storage 설치 가이드 를 참조하십시오.

8장. 소스

업데이트된 Red Hat Ceph Storage 소스 코드 패키지는 다음 위치에서 사용할 수 있습니다.

법적 공지

Copyright © 2024 Red Hat, Inc.
The text of and illustrations in this document are licensed by Red Hat under a Creative Commons Attribution–Share Alike 3.0 Unported license ("CC-BY-SA"). An explanation of CC-BY-SA is available at http://creativecommons.org/licenses/by-sa/3.0/. In accordance with CC-BY-SA, if you distribute this document or an adaptation of it, you must provide the URL for the original version.
Red Hat, as the licensor of this document, waives the right to enforce, and agrees not to assert, Section 4d of CC-BY-SA to the fullest extent permitted by applicable law.
Red Hat, Red Hat Enterprise Linux, the Shadowman logo, the Red Hat logo, JBoss, OpenShift, Fedora, the Infinity logo, and RHCE are trademarks of Red Hat, Inc., registered in the United States and other countries.
Linux® is the registered trademark of Linus Torvalds in the United States and other countries.
Java® is a registered trademark of Oracle and/or its affiliates.
XFS® is a trademark of Silicon Graphics International Corp. or its subsidiaries in the United States and/or other countries.
MySQL® is a registered trademark of MySQL AB in the United States, the European Union and other countries.
Node.js® is an official trademark of Joyent. Red Hat is not formally related to or endorsed by the official Joyent Node.js open source or commercial project.
The OpenStack® Word Mark and OpenStack logo are either registered trademarks/service marks or trademarks/service marks of the OpenStack Foundation, in the United States and other countries and are used with the OpenStack Foundation's permission. We are not affiliated with, endorsed or sponsored by the OpenStack Foundation, or the OpenStack community.
All other trademarks are the property of their respective owners.
Red Hat logoGithubRedditYoutubeTwitter

자세한 정보

평가판, 구매 및 판매

커뮤니티

Red Hat 문서 정보

Red Hat을 사용하는 고객은 신뢰할 수 있는 콘텐츠가 포함된 제품과 서비스를 통해 혁신하고 목표를 달성할 수 있습니다. 최신 업데이트를 확인하세요.

보다 포괄적 수용을 위한 오픈 소스 용어 교체

Red Hat은 코드, 문서, 웹 속성에서 문제가 있는 언어를 교체하기 위해 최선을 다하고 있습니다. 자세한 내용은 다음을 참조하세요.Red Hat 블로그.

Red Hat 소개

Red Hat은 기업이 핵심 데이터 센터에서 네트워크 에지에 이르기까지 플랫폼과 환경 전반에서 더 쉽게 작업할 수 있도록 강화된 솔루션을 제공합니다.

© 2024 Red Hat, Inc.