릴리스 노트


Red Hat Ceph Storage 4.0

Red Hat Ceph Storage 4.0 릴리스 노트

초록

릴리스 노트 문서에서는 특정 릴리스의 Red Hat Ceph Storage에서 구현된 주요 기능 및 개선 사항을 설명합니다. 이 문서에는 알려진 문제 및 버그 수정도 포함되어 있습니다.

1장. 소개

Red Hat Ceph Storage는 Ceph 스토리지 시스템의 안정적인 버전을 Ceph 관리 플랫폼, 배포 유틸리티 및 지원 서비스와 결합하는 대규모 확장이 가능한 오픈 소프트웨어 정의 스토리지 플랫폼입니다.

Red Hat Ceph Storage 문서는 https://access.redhat.com/documentation/en/red-hat-ceph-storage/ 에서 확인할 수 있습니다.

2장. 감사 인사

Red Hat Ceph Storage 4.0에는 Red Hat Ceph Storage 팀의 많은 기여가 포함되어 있습니다. 또한 Ceph 프로젝트는 Ceph 커뮤니티의 개인 및 조직의 기여도와 품질 및 수량에서 놀라운 성장을 경험하고 있습니다. Red Hat Ceph Storage 팀의 모든 구성원, Ceph 커뮤니티의 개별 기여자, 그리고 다음과 같은 조직의 기여에 추가로 (지대하지 않음) 감사의 말씀을 전합니다.

  • Intel
  • Fujitsu
  • UnitedStack
  • Yahoo
  • UbuntuKylin
  • Mellanox
  • CERN
  • Deutsche Telekom
  • Mirantis
  • SanDisk
  • SUSE

3장. 새로운 기능

이 섹션에는 Red Hat Ceph Storage 릴리스에 도입된 모든 주요 업데이트, 개선 사항 및 새로운 기능이 나열되어 있습니다.

이 릴리스에서 추가된 주요 기능은 다음과 같습니다.

3.1. ceph-ansible utility

ceph-disk 로 생성된 Ceph OSD는 업그레이드 중에 ceph-volume 으로 마이그레이션

Red Hat Ceph Storage 4로 업그레이드할 때 ceph-disk 유틸리티에서 이전에 생성한 모든 Ceph OSD가 이 릴리스에서 더 이상 사용되지 않기 때문에 ceph-volume 유틸리티로 마이그레이션됩니다.

Red Hat Ceph Storage의 베어 메탈 및 컨테이너 배포의 경우 ceph-volume 유틸리티는 ceph-disk 유틸리티에서 배포한 기존 Ceph OSD를 스캔하고 대신 수행합니다. 또한 후속 배포를 위해 이러한 마이그레이션된 장치를 구성에 사용하지 마십시오. 업그레이드 프로세스 중에 새 Ceph OSD를 생성할 수 없습니다.

업그레이드 후 ceph-disk 에서 생성한 모든 Ceph OSD는 ceph-volume 에서 생성한 Ceph OSD처럼 시작하고 작동합니다.

모든 Ceph 서비스를 스케일링하기 위한 Ansible Playbook

이전 버전에서는 ceph-ansible 플레이북에서는 모니터 및 OSD와 같은 핵심 Ceph 제품에만 확장 및 축소 기능을 제한했습니다. 이번 업데이트를 통해 추가 Ansible 플레이북을 사용하면 모든 Ceph 서비스를 확장할 수 있습니다.

단일 패키지로 병합된 Ceph iSCSI 패키지

ceph-iscsi-cliceph-iscsi-config 패키지는 ceph-iscsi 이라는 하나의 패키지로 병합되었습니다.

nfs-ganesha 서비스가 독립 실행형 배포로 지원됩니다.

Red Hat Openstack Directory(OSPd)에는 nfs-ganesha 서비스를 배포하고 이를 구성하여 관리되지 않는 외부, 기존 Ceph 클러스터를 가리킬 수 있는 ceph-ansible 유틸리티가 필요합니다. Red Hat Ceph Storage 4에서 ceph-ansible 을 사용하면 외부 Ceph 클러스터를 사용하여 내부 nfs-ganesha 서비스를 배포할 수 있습니다.

Ceph 컨테이너가 해당 데몬 파일에 로그를 쓸 수 있습니다.

컨테이너화된 Ceph 환경에 대한 이전 로깅 방식은 sosreport 컬렉션을 사용하여 로그 데이터를 볼 때 journalctl 출력을 제한할 수 없었습니다. 이번 릴리스에서는 다음 명령을 사용하여 특정 Ceph 데몬에 대해 로깅을 활성화하거나 비활성화할 수 있습니다.

ceph config set daemon.id log_to_file true
Copy to Clipboard Toggle word wrap

여기서 daemon 은 데몬의 유형이며 id 는 ID입니다. 예를 들어 ID가 mon0 인 Monitor 데몬 로깅을 활성화하려면 다음을 실행합니다.

ceph config set mon.mon0 log_to_file true
Copy to Clipboard Toggle word wrap

이 새로운 기능을 사용하면 디버깅이 쉬워집니다.

TLS 암호화를 사용하도록 Ceph Object Gateway 구성 기능

이번 Red Hat Ceph Storage 릴리스에서는 TCP(Transmission Control Protocol) 트래픽을 보호하기 위해 radosgw_frontend_ssl_certificate 변수를 사용하여 TLS 암호화를 위한 SSL 인증서를 사용하여 Ceph Object Gateway 리스너를 구성하는 기능을 제공합니다.

파일 저장소에서 BlueStore로 OSD를 마이그레이션하기 위한 Ansible Playbook

FileStore에서 BlueStore로 OSD를 마이그레이션하기 위해 새로운 Ansible 플레이북이 추가되었습니다. 오브젝트 저장소 마이그레이션은 Red Hat Ceph Storage 4로의 업그레이드 프로세스의 일부로 이루어지지 않습니다. 업그레이드가 완료된 후 마이그레이션을 수행합니다. 자세한 내용은 Red Hat Ceph Storage 관리 가이드 의 FileStore에서 BlueStore로 오브젝트 저장소를 마이그레이션하는 방법을 참조하십시오.

3.2. Ceph 관리 대시보드

풀 사용에 대한 정보 개선

이번 개선된 기능을 통해 풀 테이블에 중요한 정보가 추가되었습니다. 사용법, 읽기 바이트, 쓰기 바이트, 읽기 작업, 쓰기 작업 등 다음과 같은 열이 추가되었습니다. 배치 그룹 열의 이름이 Pg 상태로 변경되었습니다.

Red Hat Ceph Storage 대시보드 경고

Red Hat Ceph Storage 대시보드는 Ceph 지표 및 구성된 임계값을 기반으로 경고를 지원합니다. Prometheus AlertManager는 경고를 구성, 수집 및 트리거합니다. 경고는 오른쪽 상단에 팝업 알림으로 대시보드에 표시됩니다. 클러스터 > 알림에서 최근 경고에 대한 세부 정보를 볼 수 있습니다. Prometheus에서만 경고를 구성할 수 있지만 Cluster > Silences에서 "Alert Silence"를 생성하여 대시보드에서 일시적으로 음소거할 수 있습니다.

대시보드에서 Ceph 구성 요소 표시 및 숨기기

Red Hat Ceph Storage 대시보드에서는 Ceph iSCSI, RBD 미러링, Ceph 블록 장치, Ceph 파일 시스템 또는 Ceph Object Gateway와 같은 Ceph 구성 요소를 표시하거나 숨길 수 있습니다. 이 기능을 사용하면 구성되지 않은 구성 요소를 숨길 수 있습니다.

Ceph Ansible 플레이북에 Ceph 대시보드가 추가되었습니다.

이번 릴리스에서는 Ceph 대시보드 설치 코드가 Ceph Ansible 플레이북에 병합되었습니다. Ceph Ansible은 Red Hat Ceph Storage 배포 유형, 베어 메탈 또는 컨테이너에 관계없이 Ceph 대시보드의 컨테이너화된 배포를 수행합니다. 이 네 가지 새로운 역할이 추가되었습니다. ceph-grafana,ceph-dashboard,ceph-prometheusceph-node-exporter.

Red Hat Ceph Storage 대시보드 경고

Red Hat Ceph Storage 대시보드는 Ceph 지표 및 구성된 임계값을 기반으로 경고를 지원합니다. Prometheus AlertManager는 경고를 구성, 수집 및 트리거합니다.

대시보드에서 클러스터 계층 구조 보기

Red Hat Ceph Storage 대시보드는 클러스터 계층을 볼 수 있는 기능을 제공합니다. 자세한 내용은 Red Hat Ceph Storage 4용 대시보드 가이드CRUSH 맵 보기 섹션을 참조하십시오.

3.3. Ceph 파일 시스템

이제 Ceph -w 에 CephFS scrubs에 대한 정보가 표시됩니다.

이전에는 메타데이터 서버(MDS) 로그를 확인하는 것 외에는 Ceph File System(CephFS) 상태를 확인할 수 없었습니다. 이번 업데이트를 통해 ceph -w 명령은 상태를 더 잘 이해하기 위해 활성 CephFS 스크럽에 대한 정보를 표시합니다.

CephFS 내보내기 관리를 위한 Ceph -mgr volumes 모듈

이번 릴리스에서는 Ceph Manager(ceph-mgr) volumes 모듈을 제공하여 Ceph File System(CephFS) 내보내기를 관리합니다. volumes 모듈은 다음 파일 시스템 내보내기 추상화를 구현합니다.

  • FS 볼륨, CephFS 파일 시스템 추상화
  • FS 하위 볼륨(독립 CephFS 디렉터리 트리에 대한 추상화)
  • FS 하위 볼륨 그룹 - 하위 볼륨 집합에서 파일 레이아웃과 같은 정책을 적용하기 위해 FS 하위 볼륨보다 큰 디렉터리의 추상화입니다.

또한 이러한 새 명령이 지원됩니다.

  • subvolumes 목록의 FS 하위 볼륨 ls
  • 하위 볼륨 그룹 나열을 위한 FS 하위 볼륨 그룹 ls
  • subvolume 스냅샷을 나열하는 FS 하위 볼륨 스냅샷 ls
  • 하위 볼륨 그룹 스냅샷을 나열하기 위한 FS 하위 볼륨 그룹 스냅샷 ls
  • 스냅샷을 제거하기 위한 FS 하위 볼륨 rm

3.4. Ceph aboutc

Ceph-medic 은 컨테이너에서 실행되는 Ceph의 상태를 확인할 수 있습니다.

이번 릴리스에서는 ceph-medic 유틸리티에서 컨테이너 내에서 실행되는 Red Hat Ceph Storage 클러스터의 상태를 확인할 수 있습니다.

3.5. iSCSI Gateway

이제 ceph-iscsi 서비스에 관리자가 아닌 관리자를 사용할 수 있습니다.

Red Hat Ceph Storage 4부터 관리자 이외의 Ceph 사용자는 모든 iSCSI 게이트웨이의 /etc/ceph/iscsi-gateway.cfgcluster_client_name 을 설정하여 ceph-iscsi 서비스에 사용할 수 있습니다. 이렇게 하면 사용자를 기반으로 리소스를 제한할 수 있습니다.

이제 Ceph iSCSI 게이트웨이를 실행할 수 있습니다.

Red Hat Ceph Storage 4에서 iSCSI 게이트웨이 실행은 이제 유지 관리 또는 리소스 할당을 위해 Ceph iSCSI 클러스터에서 제거할 수 있습니다. 게이트웨이의 iSCSI 대상과 포털이 중지되고 해당 게이트웨이의 모든 iSCSI 대상 개체가 커널 및 게이트웨이 구성에서 제거됩니다. 다운된 게이트웨이 제거는 아직 지원되지 않습니다.

3.6. 오브젝트 게이트웨이

Beast HTTP 프론트 엔드

Red Hat Ceph Storage 4에서 Ceph 오브젝트 게이트웨이의 기본 HTTP 프런트 엔드는 Beast입니다. Beast 프런트 엔드는 HTTP 구문 분석용 Boost.Beast 라이브러리와 비동기 I/O용 Boost.Asio 라이브러리를 사용합니다. 자세한 내용은 Red Hat Ceph Storage 4의 오브젝트 게이트웨이 구성 및 관리 가이드에서 Beast 프런트 엔드 사용을 참조하십시오.

S3 MFA-Delete 지원

이번 릴리스에서는 Ceph Object Gateway에서 Time-Based One-Time Password(TOTP) 일회성 암호를 인증 요소로 사용하여 S3 MFA-Delete를 지원합니다. 이 기능은 부적절한 데이터 제거에 대한 보안이 추가되었습니다. 데이터를 삭제하기 위해 표준 S3 인증 외에도 TOTP 일회성 토큰을 요구하도록 버킷을 구성할 수 있습니다.

이제 사용자는 REST API를 사용하여 새 IAM 정책 및 역할을 생성할 수 있습니다.

Red Hat Ceph Storage 4가 릴리스되면서 IAM 역할 및 사용자 정책에 대한 REST API를 S3 API와 동일한 네임스페이스에서 사용할 수 있으며 Ceph Object Gateway에서 S3 API와 동일한 엔드포인트를 사용하여 액세스할 수 있습니다. 이를 통해 최종 사용자는 REST API를 사용하여 새 IAM 정책 및 역할을 생성할 수 있습니다.

3.7. 패키지

웹 기반 인터페이스를 사용하여 Ceph 클러스터 설치 기능

이번 릴리스에서는 Cockpit 웹 기반 인터페이스가 지원됩니다. Cockpit을 사용하면 기본 또는 컨테이너에 Red Hat Ceph Storage 4 클러스터 및 메타데이터 서버, Ceph 클라이언트 또는 Ceph Object Gateway와 같은 기타 구성 요소를 설치할 수 있습니다. 자세한 내용은 Red Hat Ceph Storage 4 설치 가이드의 Cockpit 웹 사용자 인터페이스를 사용하여 Red Hat Ceph Storage 설치 장을 참조하십시오. Red Hat Ceph Storage 사용 경험이 최소화되어야 합니다.

3.8. RADOS

Ceph 유선 암호화

Red Hat Ceph Storage 4부터 directorenger 버전 2 프로토콜을 도입하여 네트워크를 통해 모든 Ceph 트래픽에 대한 암호화를 활성화할 수 있습니다. 자세한 내용은 Red Hat Ceph Storage 4용 데이터 보안 및 Hardening 가이드의 아키텍처 가이드 및 전송 섹션의 Ceph 유선 암호화 장을 참조하십시오.

OSD BlueStore는 이제 완전히 지원됩니다.

bluestore는 블록 장치에 개체를 직접 저장할 수 있는 OSD 데몬의 새 백엔드입니다. BlueStore에는 파일 시스템 인터페이스가 필요하지 않으므로 Ceph 스토리지 클러스터의 성능이 향상됩니다. BlueStore OSD 백엔드에 대한 자세한 내용은 Red Hat Ceph Storage 4 관리 가이드OSD BlueStore 장을 참조하십시오.

FIPS 모드의 Red Hat Enterprise Linux

이번 릴리스에서는 FIPS 모드가 활성화된 Red Hat Ceph Storage를 Red Hat Enterprise Linux에 설치할 수 있습니다.

ceph df 출력 및 새 ceph osd df 명령 변경

ceph df 명령의 출력이 향상되었습니다. 특히 RAW USED%RAW USED 값에는 dbwal BlueStore 파티션의 미리 할당된 공간이 표시됩니다. ceph osd df 명령은 기록된 데이터 양과 같은 OSD 사용률 통계를 표시합니다.

비작업 OSD 세트에 대한 비동기 복구

이전에는 Ceph를 통한 복구가 이러한 개체가 복구될 때까지 개체에 대한 쓰기 작업을 차단하는 동기 프로세스였습니다. 이번 릴리스에서는 OSD가 작동하지 않는 세트의 오브젝트만 쓰기 작업을 차단하지 않도록 복구 프로세스가 비동기적으로 수행됩니다. 이 새로운 기능에는 작동하지 않는 세트에 OSD가 충분히 있기 때문에 최소 복제본 수가 있어야 합니다.

새로운 설정 옵션 osd_async_recovery_min_ cost 는 비동기 복구의 양을 제어합니다. 이 옵션의 기본값은 100 입니다. 더 높은 값은 비동기 복구가 적다는 것을 의미하지만 더 낮은 값은 비동기 복구가 더 많은 것을 의미합니다.A higher value means asynchronous recovery will be less, whereas a lower value means asynchronous recovery will be more.

이제 ceph 구성을사용하여 액세스할 수 있는 모니터에 구성이 저장됨

이번 릴리스에서 Red Hat Ceph Storage는 Ceph 구성 파일(ceph.conf)을 사용하는 대신 모니터의 구성을 중앙 집중화합니다. 이전에는 설정을 변경하여 ceph.conf 를 수동으로 업데이트하여 적절한 노드에 배포한 다음 영향을 받는 모든 데몬을 다시 시작합니다. 이제 모니터에서 ceph.conf 와 동일한 의미 체계 구조를 가진 구성 데이터베이스를 관리합니다. ceph config 명령으로 데이터베이스에 액세스할 수 있습니다. 구성 변경 사항은 시스템의 데몬 또는 클라이언트에 즉시 적용되고 더 이상 다시 시작할 필요가 없습니다. 사용 가능한 명령 세트에 대한 자세한 내용은 ceph config -h 명령을 사용합니다. 모니터 노드를 식별하는 데 Ceph 구성 파일이 여전히 필요합니다.

배치 그룹을 자동 스케일링할 수 있습니다.

Red Hat Ceph Storage 4에는 PG(자동 확장 배치 그룹)가 도입되었습니다. 풀의 배치 그룹(PG) 수는 클러스터 피어가 데이터를 분산하고, 균형을 조정하는 방법에 중요한 역할을 합니다. PG 수를 자동 확장하여 클러스터를 더 쉽게 관리할 수 있습니다. 새로운 pg-autoscaling 명령은 PG 확장에 대한 권장 사항을 제공하거나 클러스터 사용 방법에 따라 PG를 자동으로 스케일링합니다. 자동 확장 PG에 대한 자세한 내용은 Red Hat Ceph Storage 4용 스토리지 전략 가이드자동 확장 배치 그룹 섹션을 참조하십시오.

diskprediction 모듈 소개

Red Hat Ceph Storage diskprediction 모듈은 디스크 실패를 예측하기 위한 지표를 수집합니다. 이 모듈에는 클라우드 및 로컬의 두 가지 모드가 있습니다. 이번 릴리스에서는 로컬 모드만 지원됩니다. 로컬 모드에서는 데이터 분석을 위해 외부 서버가 필요하지 않습니다. 디스크 예측 서비스에 내부 예측 모듈을 사용한 다음 디스크 예측 결과를 Ceph 시스템으로 반환합니다.

diskprediction 모듈을 활성화하려면 다음을 수행합니다.

ceph mgr module enable diskprediction_local
Copy to Clipboard Toggle word wrap

예측 모드를 설정하려면 다음을 수행합니다.

ceph config set global device_failure_prediction_mode local
Copy to Clipboard Toggle word wrap

diskprediction 모듈을 비활성화하려면 다음을 수행합니다.

ceph config set global device_failure_prediction_mode none
Copy to Clipboard Toggle word wrap

새로운 구성 가능한 옵션: mon_memory_target

Red Hat Ceph Storage 4는 모니터 메모리 사용량을 위해 대상 바이트 양을 설정하는 데 사용되는 새로운 구성 가능한 옵션인 mon_memory_target 을 도입합니다. 연결된 모니터 데몬 캐시에 우선순위 캐시 튜닝기를 사용하여 할당 및 관리할 메모리 양을 지정합니다. mon_memory_target 의 기본값은 2GiB로 설정되고 다음을 사용하여 런타임 중에 변경할 수 있습니다.

# ceph config set global mon_memory_target size
Copy to Clipboard Toggle word wrap

이번 릴리스 이전에는 클러스터 확장으로 Monitor 특정 RSS 사용량이 mon_osd_cache_size 옵션을 사용하여 설정된 제한을 초과하여 문제가 발생했습니다. 이 향상된 기능을 통해 모니터 캐시에 할당된 메모리 관리를 개선하고 지정된 제한 내에서 사용량을 유지할 수 있습니다.

3.9. 블록 장치(RBD)

Ceph 블록 장치 삭제

이전 버전에서는 Ceph Block Device(RBD)에 대한 코딩이 완전히 지원됩니다. 이 기능을 통해 RBD는 데이터를 삭제 코딩된 풀에 저장할 수 있습니다. 자세한 내용은 Red Hat Ceph Storage 4의 스토리지 전략Overwrites 섹션을 참조하십시오.

RBD 성능 모니터링 및 지표 수집 툴

Red Hat Ceph Storage 4는 IOPS, 처리량 및 대기 시간을 위해 집계된 RBD 이미지 지표를 위해 새로운 Ceph 블록 장치 성능 모니터링 유틸리티를 통합합니다. 이미지당 RBD 지표는 Ceph Manager Prometheus 모듈, Ceph Dashboard, rbd perf 이미지 iostat 또는 rbd perf 이미지 iotop 명령을 사용하여 사용할 수 있습니다.

복제된 이미지는 primary 이미지가 아닌 이미지에서 만들 수 있습니다.

미러링되지 않은 상위 이미지에서 복제된 하위 RBD 이미지를 생성할 수 있습니다. 이전에는 미러링된 이미지 복제가 기본 이미지에 대해서만 지원되었습니다. 가상 머신의 골든 이미지를 복제할 때 이 제한으로 인해 golden 이외의 이미지에서 복제된 새 이미지를 생성할 수 없습니다. 이번 업데이트에서는 이 제한이 제거되며 복제된 이미지는 미러링되지 않은 이미지에서 만들 수 있습니다.

동일한 풀 내의 분리된 네임스페이스 내에서 RBD 이미지 분리

RBD 이미지는 동일한 풀 내에서 분리된 네임스페이스 내에서 분리할 수 있습니다. OpenStack 또는 OpenShift Container Storage와 같은 상위 수준의 시스템 없이 Ceph 블록 장치를 직접 사용할 때 특정 RBD 이미지에 대한 사용자 액세스를 제한할 수 없었습니다. CephX 기능과 결합하면 사용자를 특정 풀 네임스페이스로 제한하여 RBD 이미지에 대한 액세스를 제한할 수 있습니다.

동일한 클러스터 내의 다른 풀 간에 RBD 이미지 이동

이 Red Hat Ceph Storage 버전에서는 동일한 클러스터 내의 다른 풀 간에 RBD 이미지를 이동하는 기능이 추가되었습니다. 자세한 내용은 Red Hat Ceph Storage 4용 블록 장치 가이드풀 간 이미지 이동 섹션을 참조하십시오.

장기 실행 RBD 작업을 백그라운드에서 실행할 수 있습니다.

이제 이미지 제거 또는 복제된 이미지 플랫화와 같은 장기 실행 RBD 작업을 백그라운드에서 실행하도록 예약할 수 있습니다. 이미지의 모든 백업 RADOS 개체를 반복하는 것과 관련된 RBD 작업은 이미지 크기에 따라 시간이 오래 걸릴 수 있습니다. CLI를 사용하여 이러한 작업 중 하나를 수행할 때 작업이 완료될 때까지 rbd CLI가 차단됩니다. 이러한 작업은 이제 ceph rbd 작업 add 명령을 사용하여 Ceph Manager에서 백그라운드 작업으로 실행하도록 예약할 수 있습니다. CLI를 사용하여 이러한 작업의 진행 상황도 Ceph 대시보드에 표시됩니다.

3.10. RBD 미러링

단일 스토리지 클러스터에서 RBD 미러 데몬의 여러 활성 인스턴스 지원

Red Hat Ceph Storage 4에서는 단일 스토리지 클러스터에 RBD 미러 데몬의 여러 활성 인스턴스를 배포할 수 있습니다. 이를 통해 여러 RBD 미러 데몬에서 활성 미러링 데몬 수에 걸쳐 이미지를 청크하는 알고리즘을 사용하여 RBD 이미지 또는 풀에 대한 복제를 수행할 수 있습니다.

4장. 기술 프리뷰

이 섹션에서는 Red Hat Ceph Storage 릴리스에 소개되거나 업데이트된 기술 프리뷰 기능에 대해 설명합니다.

중요

기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원하지 않으며, 기능상 완전하지 않을 수 있어 프로덕션에 사용하지 않는 것이 좋습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다.

Red Hat 기술 프리뷰 기능 지원 범위에 대한 자세한 내용은 https://access.redhat.com/support/offerings/techpreview/를 참조하십시오.

4.1. Ceph 파일 시스템

CephFS 스냅샷

Ceph 파일 시스템(CephFS)은 스냅샷을 기술 프리뷰로 사용할 수 있습니다. 스냅샷을 만들 때 파일 시스템의 변경 불가능한 보기를 생성합니다.

4.2. 블록 장치(RBD)

RBD 이미지를 NBD 이미지에 매핑

rbd-nbd 유틸리티는 RADOS Block Device(RBD) 이미지를NBD(Network Block Device)에 매핑하고 Ceph 클라이언트가 Kubernetes 환경의 볼륨 및 이미지에 액세스할 수 있도록 합니다. rbd-nbd 를 사용하려면 rbd-nbd 패키지를 설치합니다. 자세한 내용은 rbd-nbd(7) 매뉴얼 페이지를 참조하십시오.

4.3. 오브젝트 게이트웨이

개체 게이트웨이 아카이브 사이트

이번 릴리스에서는 아카이브 사이트가 기술 프리뷰로 지원됩니다. 아카이브 사이트를 사용하면 아카이브 영역과 연결된 게이트웨이를 통해서만 제거할 수 있는 S3 오브젝트 버전 기록을 보유할 수 있습니다. 다중 영역 구성에 아카이브 영역을 포함하면 하나의 영역에서 S3 오브젝트 기록의 유연성을 유지하면서 버전 S3 오브젝트의 복제본이 나머지 영역에서 사용하는 공간을 절약할 수 있습니다.

디스크 유형별 클러스터 내 계층화

이번 릴리스에서는 예를 들어 대상 및 스토리지 클래스를 배치하기 위해 example 풀과 스토리지 클래스를 배치하기 위한 기능을 사용하여 디스크 유형별로 클러스터 내에서 계층화 기능을 기술 프리뷰로 추가할 수 있습니다. 라이프사이클 전환 규칙을 사용하면 오브젝트가 정책을 기반으로 스토리지 풀 간에 마이그레이션할 수 있습니다.

S3 버킷 알림

S3 버킷 알림이 기술 프리뷰로 지원됩니다. S3 버킷에서 특정 이벤트가 트리거되면 Ceph Object Gateway에서 HTTP, AMQP(Advanced Messagehiera Protocol) 9.1 및 Kafka 엔드포인트로 알림을 보낼 수 있습니다. 또한 알림은 대신 "PubSub" 영역에 저장하거나 끝점으로 보내는 것 외에도 저장할 수 있습니다. "pubsub"는 수신자가 Ceph에서 알림을 가져올 수 있는 게시 서브스크립션 모델입니다.

S3 알림을 사용하려면 librabbitmqlibrdkafka 패키지를 설치합니다.

5장. 사용되지 않는 기능

이 섹션에서는 Red Hat Ceph Storage의 이번 릴리스까지 모든 마이너 릴리스에서 더 이상 사용되지 않는 기능에 대한 개요를 제공합니다.

우분투는 더 이상 지원되지 않습니다.

Ubuntu에 Red Hat Ceph Storage 4 클러스터를 설치하는 것은 더 이상 지원되지 않습니다. Red Hat Enterprise Linux를 기본 운영 체제로 사용하십시오.

5.1. ceph-ansible utility

ceph-ansible 을 사용하여 iSCSI 게이트웨이 구성은 더 이상 지원되지 않습니다.

ceph-ansible 유틸리티를 사용하여 Ceph iSCSI 게이트웨이를 구성하는 것은 더 이상 지원되지 않습니다. ceph-ansible 을 사용하여 게이트웨이를 설치한 다음 Red Hat Ceph Storage 대시보드의 gwcli 유틸리티를 사용하여 게이트웨이를 구성합니다. 자세한 내용은 Red Hat Ceph Storage 4용 블록 장치 가이드 의 Ceph iSCSI 게이트웨이 사용 장을 참조하십시오.

5.2. ceph-disk utility

Ceph-disk 가 더 이상 사용되지 않음

이번 릴리스에서는 ceph-disk 유틸리티가 더 이상 지원되지 않습니다. 대신 ceph-volume 유틸리티를 사용합니다. 자세한 내용은 Red Hat Ceph Storage 4 관리 가이드 ceph-volume replace 'ceph-disk' 섹션을 참조하십시오.

5.3. RADOS

프로덕션에서는 파일 저장소가 더 이상 지원되지 않습니다.

새로운 BlueStore 백엔드가 이제 프로덕션 환경에서 완전히 지원되므로 FileStore OSD 백엔드는 더 이상 사용되지 않습니다. 자세한 내용은 Red Hat Ceph Storage 4 설치 가이드 의 FileStore에서 BlueStore로 오브젝트 저장소를 마이그레이션하는 방법을 참조하십시오.

Ceph 구성이 더 이상 사용되지 않음

Ceph 구성 파일(ceph.conf)은 더 이상 사용되지 않으며 모니터에 저장된 새로운 중앙 집중식 구성을 사용합니다. 자세한 내용은 'ceph config' 릴리스 노트를 사용하여 이제 모니터에 액세스할 수 있는 구성을 참조하십시오.

6장. 버그 수정

이 섹션에서는 Red Hat Ceph Storage 릴리스에서 수정된 사용자에게 상당한 영향을 미치는 버그를 설명합니다. 또한 이 섹션에는 이전 버전에서 발견된 수정된 알려진 문제에 대한 설명이 포함되어 있습니다.

6.1. ceph-ansible utility

Ansible 플레이북은 fuser 명령을 완료하는 데 더 이상 시간이 걸리지 않습니다.

이전에는 수천 개의 프로세스가 실행되는 시스템에서 Ansible 플레이북의 fuser 명령이 /proc 디렉터리에 있는 모든 PID를 반복하므로 완료하는 데 몇 분 또는 시간이 걸릴 수 있었습니다. 이 때문에 처리기 작업은 Ceph 프로세스가 이미 실행 중인지 확인하는 데 시간이 오래 걸립니다. 이번 업데이트에서는 fuser 명령을 사용하는 대신 Ansible 플레이북에서 /proc/net/unix 디렉터리의 소켓 파일을 확인하고 Ceph 소켓을 확인하는 핸들러 작업이 거의 즉시 완료됩니다.

(BZ#1717011)

purge-docker-cluster.yml Ansible 플레이북이 더 이상 실패하지 않습니다.

이전 버전에서는 바이너리가 없거나 제공된 Atomic 호스트 버전이 너무 오래되었기 때문에 RADOS 블록 장치(RBD)를 매핑 해제하려고 할 때 purge-docker-cluster.yml Ansible 플레이북이 실패할 수 있었습니다. 이번 업데이트를 통해 Ansible은 이제 sysfs 메서드를 사용하여 장치 매핑을 해제하고, purge-docker-cluster.yml 플레이북이 더 이상 실패하지 않습니다.

(BZ#1766064)

6.2. 오브젝트 게이트웨이

이제 Days S3 Lifecycle 매개변수를 0으로 설정할 수 있습니다.

Ceph Object Gateway에서 Expiration, Days Lifecycle 구성 매개 변수에 0 값을 허용하지 않았습니다. 결과적으로 오브젝트의 배경 삭제 작업을 트리거하는 데 만료를 0 으로 설정할 수 없었습니다. 이번 업데이트를 통해 예상 날짜를 0 으로 설정할 수 있습니다.

(BZ#1493476)

아카이브 영역은 소스 오브젝트의 현재 버전을 가져옵니다.

여러 소스 영역에서 영역을 아카이브하는 오브젝트를 동기화합니다. 이 동작은 아카이브 영역에서 동일한 오브젝트의 다른 버전으로 이어질 수 있습니다. 이번 업데이트에서는 아카이브 영역이 현재 소스 오브젝트 버전을 가져오도록 하여 중복된 버전이 생성되지 않습니다.

(BZ#1760862)

6.3. RADOS

BlueStore를 사용할 때 expected_num_objects 를 설정하는 메시지가 더 이상 표시되지 않습니다.

이번 업데이트를 통해 BlueStore 풀을 생성하는 동안 expected_num_obejcts 매개변수를 설정하는 것을 권장하는 메시지는 BlueStore OSD 백엔드를 사용할 때 적용되지 않기 때문에 제거되었습니다.

(BZ#1650922)

더 이상 사용되지 않는 JSON 필드가 제거됨

이번 업데이트에서는 ceph status 명령의 JSON 출력에서 더 이상 사용되지 않는 필드를 제거합니다.

(BZ#1739233)

7장. 확인된 문제

이 섹션에서는 Red Hat Ceph Storage 릴리스에 있는 알려진 문제에 대해 설명합니다.

7.1. ceph-ansible utility

Red Hat OpenStack Platform에 Red Hat Ceph Storage 설치 실패

Red Hat OpenStack Platform 16과 함께 Red Hat Ceph Storage를 설치하려고 하면 ceph-ansible 유틸리티가 응답하지 않으며 다음과 유사한 오류를 반환합니다.

'Error: unable to exec into ceph-mon-dcn1-computehci1-2: no container with name or ID ceph-mon-dcn1-computehci1-2 found: no such container'
Copy to Clipboard Toggle word wrap

이 문제를 해결하려면 ceph-ansible/roles/ceph-handler/tasks/ 디렉터리에 있는 handler_osds.yml 파일의 다음 부분을 업데이트합니다.

- name: unset noup flag
  command: "{{ container_exec_cmd | default('') }} ceph --cluster {{ cluster }} osd unset noup"
  delegate_to: "{{ groups[mon_group_name][0] }}"
  changed_when: False
Copy to Clipboard Toggle word wrap

다음으로 변경합니다.

- name: unset noup flag
  command: "{{ hostvars[groups[mon_group_name][0]]['container_exec_cmd'] | default('') }} ceph --cluster {{ cluster }} osd unset noup"
  delegate_to: "{{ groups[mon_group_name][0] }}"
  changed_when: False
Copy to Clipboard Toggle word wrap

그런 다음 설치 프로세스를 다시 시작합니다.

(BZ#1792320)

Ansible이 완료되면 norebalance 플래그를 설정 해제하지 않습니다.

rolling-update.yml Ansible 플레이북은 norebalance 플래그를 완료한 후 설정하지 않습니다. 이 문제를 해결하려면 플래그를 수동으로 설정 해제합니다.

(BZ#1793564)

대시보드가 활성화되면 Ansible에서 다중 사이트 Ceph Object Gateway를 업그레이드하지 못했습니다.

Red Hat Ceph Storage 대시보드가 활성화되면 Ansible을 사용하여 Red Hat Ceph Storage의 추가 버전으로 업그레이드하려고 하면 다중 사이트 설정에서 보조 Ceph Object Gateway 사이트를 업그레이드하려고 할 때 실패합니다. 이 버그는 기본 사이트에서 또는 대시보드가 활성화되지 않은 경우 발생하지 않습니다.

(BZ#1794351)

7.2. Ceph 관리 대시보드

대시보드에 특정 구성 옵션에 대한 올바른 값이 표시되지 않습니다.

Red Hat Ceph Storage 대시보드 및 기본 ceph config show 명령은 모두 fsid 와 같은 특정 구성 옵션의 현재 값을 반환하지 않습니다. 이는 클러스터 배포 후 추가 수정이 필요하지 않은 특정 핵심 옵션이 업데이트되지 않고 기본값이 사용되기 때문일 수 있습니다. 결과적으로 대시보드에는 특정 구성 옵션에 대한 올바른 값이 표시되지 않습니다.

(BZ#1765493, BZ#1772310)

대시보드의 NFS Ganesha

Red Hat Ceph Storage 대시보드는 현재 NFS Ganesha 관리를 지원하지 않습니다.

(BZ#1772316)

대시 보드는 이메일 확인을 지원하지 않습니다.

Red Hat Ceph Storage 대시보드는 사용자 암호를 변경할 때 이메일 확인을 지원하지 않습니다. 대시보드는 SSO(Single Sign-On)를 지원하며 이 기능을 SSO 공급자에 위임할 수 있기 때문입니다.

(BZ#1778608)

읽기 및 쓰기 작업에 대한 OSD 히스토그램 그래프는 명확하지 않습니다.

Red Hat Ceph Storage 대시보드는 읽기 및 쓰기 작업에 대한 OSD 히스토그램 그래프에 번호 또는 설명을 표시하지 않으므로 그래프는 명확하지 않습니다.

(BZ#1779170)

ceph CLI에서 ceph-mgr 모듈이 활성화되면 대시보드에 오류가 반환됩니다.

ceph CLI에서 Telemetry 와 같은 Ceph Manager(ceph-mgr) 모듈을 활성화하면 Red Hat Ceph Storage Dashboard에 다음과 같은 오류 메시지가 표시됩니다.

0 - Unknown Error
Copy to Clipboard Toggle word wrap

또한 대시보드는 Refresh (새로 고침) 버튼을 클릭할 때까지 모듈을 활성화된 것으로 표시하지 않습니다.

(BZ#1785077)

대시보드를 사용하면 LUN ID 및 WWN을 수정할 수 있으므로 데이터 손상이 발생할 수 있습니다.

Red Hat Ceph Storage 대시보드를 사용하면 LUN을 만든 후 필요하지 않은 LUN ID 및 WWN(WWN)을 수정할 수 있습니다. 또한 기본적으로 이 기능을 완전히 지원하지 않는 특정 이니시에이터에서 이러한 매개 변수를 편집하는 것은 위험할 수 있습니다. 결과적으로 이러한 매개변수를 생성한 후 편집하면 데이터 손상이 발생할 수 있습니다. 이를 방지하려면 대시보드에서 LUN ID와 WWN을 수정하지 마십시오.

(BZ#1786455)

대시보드에서는 올바른 Ceph iSCSI 오류 메시지를 제공하지 않습니다.

사용자가 로그인하는 동안 iSCSI 대상을 삭제하려고 할 때 Ceph iSCSI에서 오류를 반환하면 Red Hat Ceph Storage Dashboard는 팝업 알림을 사용하여 해당 오류 코드와 메시지를 대시보드 사용자에게 전달하지 않지만 일반 "500 Internal Server Error"를 표시합니다. 결과적으로 대시보드가 제공하는 메시지는 정보를 제공하지 않으며, 예상 동작("사용자가 사용 중인 리소스를 삭제할 수 없음")은 운영 오류("내부 서버 오류")로 인식됩니다. 이 문제를 해결하려면 대시보드 로그를 참조하십시오.

(BZ#1786457)

대시보드는 iptables 규칙을 비활성화해야 합니다.

Red Hat Ceph Storage 대시보드는 Ceph iSCSI 노드에서 모든 iptables 규칙이 수동으로 비활성화되지 않는 한 게이트웨이 생성과 같은 iSCSI 작업을 수행할 수 없습니다. 이렇게 하려면 root 또는 sudo 사용자로 다음 명령을 사용하십시오.

# iptables -F
Copy to Clipboard Toggle word wrap

재부팅 후 규칙이 다시 활성화됩니다. 다시 비활성화하거나 영구적으로 삭제하십시오.

(BZ#1792818)

7.3. 패키지

현재 버전의 Grafana로 인해 대시보드에서 특정 버그가 발생합니다.

Red Hat Ceph Storage 4는 Grafana 버전 5.2.4를 사용합니다. 이 버전에서는 Red Hat Ceph Storage 대시보드에서 다음과 같은 버그가 발생합니다.

  • Pools > Overall Performance 로 들어가면 Grafana에서 다음 오류를 반환합니다.

    TypeError: l.c[t.type] is undefined
    true
    Copy to Clipboard Toggle word wrap
  • 풀의 성능 세부 정보( > 성능 세부 정보)에서 풀을 선택하면 Grafana 표시줄이 다른 그래프 및 값과 함께 표시되지만 여기에 있으면 안 됩니다.

이러한 버그는 Red Hat Ceph Storage의 향후 릴리스에서 최신 Grafana 버전을 수정한 후 수정될 예정입니다.

(BZ#1786107, BZ#1762197, BZ#1765536)

7.4. Red Hat Enterprise Linux

SELinux가 강제 모드인 경우 Ansible에서 NFS Ganesha를 시작할 수 없습니다.

Red Hat Enterprise Linux 8.1에서 SELinux를 강제 모드로 사용하는 경우 현재 SELinux 정책에서 NFS Ganesha에 필요한 디렉터리를 생성하지 않기 때문에 ceph-ansible 유틸리티는 NFS Ganesha 서비스를 시작하지 못합니다.

(BZ#1794027, BZ#1796160)

8장. 소스

업데이트된 Red Hat Ceph Storage 소스 코드 패키지는 http://ftp.redhat.com/redhat/linux/enterprise/7Server/en/RHCEPH/SRPMS/ 에서 확인할 수 있습니다.

맨 위로 이동
Red Hat logoGithubredditYoutubeTwitter

자세한 정보

평가판, 구매 및 판매

커뮤니티

Red Hat 문서 정보

Red Hat을 사용하는 고객은 신뢰할 수 있는 콘텐츠가 포함된 제품과 서비스를 통해 혁신하고 목표를 달성할 수 있습니다. 최신 업데이트를 확인하세요.

보다 포괄적 수용을 위한 오픈 소스 용어 교체

Red Hat은 코드, 문서, 웹 속성에서 문제가 있는 언어를 교체하기 위해 최선을 다하고 있습니다. 자세한 내용은 다음을 참조하세요.Red Hat 블로그.

Red Hat 소개

Red Hat은 기업이 핵심 데이터 센터에서 네트워크 에지에 이르기까지 플랫폼과 환경 전반에서 더 쉽게 작업할 수 있도록 강화된 솔루션을 제공합니다.

Theme

© 2025 Red Hat