5.2 릴리스 노트


Red Hat Ceph Storage 5.2

Red Hat Ceph Storage 5.2 릴리스 노트

Red Hat Ceph Storage Documentation Team

초록

릴리스 노트에서는 Red Hat Ceph Storage 5 제품 릴리스에 구현된 주요 기능, 개선 사항, 알려진 문제 및 버그 수정에 대해 설명합니다. 여기에는 현재 릴리스까지 Red Hat Ceph Storage 5.2 릴리스의 이전 릴리스 노트가 포함되어 있습니다.

보다 포괄적 수용을 위한 오픈 소스 용어 교체

Red Hat은 코드, 문서, 웹 속성에서 문제가 있는 용어를 교체하기 위해 최선을 다하고 있습니다. 먼저 마스터(master), 슬레이브(slave), 블랙리스트(blacklist), 화이트리스트(whitelist) 등 네 가지 용어를 교체하고 있습니다. 이러한 변경 작업은 작업 범위가 크므로 향후 여러 릴리스에 걸쳐 점차 구현할 예정입니다. 자세한 내용은 CTO Chris Wright의 메시지를 참조하십시오.

Red Hat Ceph Storage 설명서에 대한 피드백 제공

문서 개선을 위한 의견을 보내 주십시오. Red Hat이 어떻게 이를 개선할 수 있는지 알려 주십시오. 이렇게 하려면 Bugzilla 티켓을 생성합니다.

+ . Bugzilla 웹 사이트로 이동합니다. . 구성 요소 드롭다운에서 문서를 선택합니다. Sub-Component 드롭다운 목록에서 적절한 하위 구성 요소를 선택합니다. 문서의 적절한 버전을 선택합니다. 요약설명 필드에 개선을 위한 제안 사항을 입력하십시오. 관련 문서의 해당 부분에 대한 링크를 포함합니다. 선택 사항: 있는 경우 첨부 파일을 추가합니다. 버그 제출을 클릭합니다.

1장. 소개

Red Hat Ceph Storage는 Ceph 스토리지 시스템의 가장 안정적인 버전을 Ceph 관리 플랫폼, 배포 유틸리티 및 지원 서비스와 결합하는 대규모 확장이 가능한 오픈 소프트웨어 정의 스토리지 플랫폼입니다.

Red Hat Ceph Storage 문서는 https://access.redhat.com/documentation/en-us/red_hat_ceph_storage/5 에서 확인할 수 있습니다.

2장. 감사 인사

Red Hat Ceph Storage 5 프로젝트는 Ceph 커뮤니티의 개인 및 조직의 품질 및 기여 횟수에 큰 영향을 미치고 있습니다. Red Hat Ceph Storage 팀의 모든 구성원, Ceph 커뮤니티의 개별 기여자 모두 다음과 같은 조직의 기여도에 대해 감사의 말씀을 전합니다.

  • Intel®
  • Fujitsu®
  • UnitedStack
  • Cryostat ™
  • Ubuntu Kylin
  • Mellanox ®
  • CERN ™
  • Deutsche Telekom
  • Mirantis ®
  • SanDisk ™
  • SUSE

3장. 새로운 기능

이 섹션에는 Red Hat Ceph Storage 릴리스에 도입된 모든 주요 업데이트, 개선 사항 및 새로운 기능이 나열되어 있습니다.

3.1. Cephadm 유틸리티

Cephadm-Ansible 모듈

Cephadm-Ansible 패키지는 Ansible을 사용하여 전체 데이터 센터를 관리하려는 사용자를 위해 새로운 통합 컨트롤 플레인 cephadm 을 래핑하는 여러 모듈을 제공합니다. Ceph-Ansible 와의 이전 버전과의 호환성을 제공하지는 않지만 고객이 Ansible 통합을 업데이트하는 데 사용할 수 있는 지원되는 플레이북 세트를 제공하는 것을 목표로 합니다.

자세한 내용은 cephadm-ansible 모듈을 참조하십시오.

부트스트랩 Red Hat Ceph Storage 클러스터는 Red Hat Enterprise Linux 9에서 지원됩니다.

이번 릴리스에서는 Red Hat Enterprise Linux 9에 대한 Red Hat Ceph Storage 5.2 지원을 활성화하기 위해 Red Hat Enterprise Linux 9 호스트에서 cephadm 부트스트랩을 사용할 수 있습니다. 이제 사용자가 Red Hat Enterprise Linux 9 호스트에서 Ceph 클러스터를 부트스트랩할 수 있습니다.

cephadm rm-cluster 명령은 호스트에서 이전 systemd 장치 파일을 정리합니다.

이전에는 rm-cluster 명령이 systemd 장치 파일을 제거하지 않고 데몬을 제거했습니다.

이번 릴리스에서는 데몬 제거와 함께 cephadm rm-cluster 명령을 사용하여 호스트에서 이전 systemd 장치 파일을 정리합니다.

사양을 적용하지 못하는 경우 cephadm raises health warnings if it fails to apply a specification

이전에는 사양을 적용하는 데 실패가 종종 확인하지 않는 서비스 이벤트로만 보고되었습니다.

이번 릴리스에서는 iscsi 사양의 잘못된 풀 이름과 같은 사양을 적용하지 못하는 경우 cephadm 은 사용자에게 경고합니다.

Red Hat Ceph Storage 5.2에서 중단된 업그레이드 지원

Red Hat Ceph Storage 5.2부터 여러 작은 단계에서 cephadm 의 대규모 Ceph 클러스터를 선택적으로 업그레이드할 수 있습니다.

ceph orch upgrade start 명령은 다음 매개변수를 허용합니다.

  • --daemon-types
  • --hosts
  • --services
  • --limit

이러한 매개변수는 제공된 값과 일치하는 데몬을 선택적으로 업그레이드합니다.

참고

cephadm 이 지원되는 순서로 데몬을 업그레이드하면 이러한 매개변수가 거부됩니다.

참고

활성 Ceph Manager 데몬이 Red Hat Ceph Storage 5.2 빌드에 있는 경우 이러한 업그레이드 매개변수가 허용됩니다. 이전 버전에서 Red Hat Ceph Storage 5.2로 업그레이드해도 이러한 매개변수는 지원되지 않습니다.

FS.aio-max-nr OSD가 있는 호스트에서 1048576로 설정됩니다.

이전에는 Cephadm 에서 관리하는 호스트에서 fs.aio-max-nr 를 기본값 65536 으로 남겨 두면 일부 OSD가 충돌할 수 있었습니다.

이번 릴리스에서는 OSD가 있는 호스트에서 fs.aio-max-nr 가 1048576로 설정되고 fs.aio-max-nr 매개변수 값이 너무 낮기 때문에 OSD가 더 이상 충돌하지 않습니다.

Ceph orch rm <service-name > 명령은 제거하려는 서비스가 있는지 사용자에게 알립니다.

이전 버전에서는 서비스 제거로 인해 존재하지 않는 서비스에도 항상 성공적인 메시지가 반환되어 사용자 간에 혼동이 발생했습니다.

이번 릴리스에서는 ceph orch rm SERVICE_NAME 명령을 실행하면 사용자가 cephadm 에 제거하려는 서비스가 있는지 사용자에게 알립니다.

cephadm-ansible에서 resharding 절차를 위한 새 플레이북 rocksdb-resharding.yml 을 사용할 수 있습니다.

이전에는 rocksdb resharding 프로시저가 번거로운 수동 단계를 수반했습니다.

이번 릴리스에서는 rocksdb 재하드링을 지원하기 위해 cephadm-ansible Playbook, rocksdb-resharding.yml 이 구현되어 프로세스가 쉬워집니다.

cephadm 은 LVM 계층 없이 OSD 배포를 지원

이번 릴리스에서는 OSD, cephadm 또는 ceph-volume 지원에 대해 LVM 계층을 원하지 않는 사용자를 지원하기 위해 원시 OSD에 대해 지원이 제공됩니다. Cephadm에 전달된 OSD 사양 파일에 "method: raw"를 추가하여 LVM 계층 없이 Cephadm을 통해 원시 모드로 OSD를 배포할 수 있습니다.

이번 릴리스에서는 cephadm 은 OSD 사양 yaml 파일에서 method: raw 사용을 지원하여 LVM 계층 없이 원시 모드로 OSD를 배포합니다.

자세한 내용은 특정 장치 및 호스트에 Ceph OSD 배포를 참조하십시오.

3.2. Ceph 대시보드

서비스의 기본 데몬에서 시작, 중지, 재시작, 재배포 작업을 수행할 수 있습니다.

이전에는 오케스트레이터 서비스를 생성, 편집 및 삭제할 수 있었습니다. 서비스의 기본 데몬에서 작업을 수행할 수 없습니다

이번 릴리스에서는 오케스트레이터 서비스의 기본 데몬에서 시작, 중지, 재시작, 재배포와 같은 작업을 수행할 수 있습니다.

Ceph 대시보드의 OSD 페이지 및 랜딩 페이지는 OSD 사용 표시줄에서 다양한 색상으로 표시됩니다.

이전 버전에서는 OSD가 전체 상태 또는 전체 상태에 도달할 때마다 클러스터 상태가 WARN 또는 ERROR 상태로 변경되었지만 시작 페이지에서 실패 표시가 없었습니다.

이번 릴리스에서는 OSD가 거의 전체 비율 또는 전체로 전환되면 특정 OSD와 랜딩 페이지의 OSD 페이지가 사용 표시줄에 서로 다른 색상으로 표시됩니다.

적중 횟수 또는 누락 카운터에 대시보드 표시

이번 릴리스에서는 대시보드가 Bluestore 통계에서 가져온 세부 정보를 제공하여 OSD당 RAM을 늘리는 데 도움이 될 수 있는지 여부를 추론하는 데 도움이 될 수 있도록 Bluestore 통계에서 가져온 세부 정보를 제공합니다.

사용자는 특정 데몬의 CPU 및 메모리 사용량을 볼 수 있습니다.

이번 릴리스에서는 클러스터 > 호스트> 데몬의 Red Hat Ceph Storage 대시보드에서 특정 데몬의 CPU 및 메모리 사용량을 확인할 수 있습니다.

rbd-mirroring의 Ceph 대시보드 기능 개선

이번 릴리스에서는 CLI(명령줄 인터페이스)에만 존재하는 다음 기능을 사용하여 Ceph 대시보드의 RBD 미러링 탭이 향상되었습니다.

  • 이미지에서 미러링 활성화 또는 비활성화를 지원합니다.
  • 작업 승격 및 데모 지원.
  • 이미지 재동기화 지원.
  • 사이트 이름을 편집하고 부트스트랩 키를 만들 수 있는 가시성을 개선합니다.
  • 존재하지 않는 경우 rbd-mirror를 자동으로 생성하는 버튼을 구성하는 빈 페이지가 나타납니다.

사용자는 Red Hat Ceph Storage 대시보드에서 단순하고 고급 모드로 OSD를 생성할 수 있습니다.

이번 릴리스에서는 더 간단한 배포 시나리오, "Simple" 및 OSD 생성을 위한 "고급" 모드를 사용하여 클러스터에 대한 OSD 배포를 단순화합니다.

이제 세 가지 새로운 옵션 중에서 선택할 수 있습니다.

  • 비용/용량 최적화: 사용 가능한 모든 HDD가 OSD를 배포하는 데 사용됩니다.
  • 처리량 최적화: DB/WAL 장치를 위한 데이터 장치 및 SSD에 대해 HDD가 지원됩니다.
  • IOPS 최적화: 사용 가능한 모든 NVME는 데이터 장치로 사용됩니다.

자세한 내용은 Ceph Orchestrator를 사용한 OSD 관리를 참조하십시오.

Ceph 대시보드 로그인 페이지에 사용자 정의 텍스트가 표시됩니다.

기업 사용자는 시스템에 액세스하는 모든 사용자가 자신의 시스템에 액세스하는 사람이 법적/보안 조건을 준수하기 위해 최선을 다하고 있습니다.

이번 릴리스에서는 사용자 지정 배너 또는 경고 텍스트를 표시하기 위해 Ceph 대시보드 로그인 페이지에 자리 표시자가 제공됩니다. Ceph 대시보드 관리자는 다음 명령으로 배너를 설정, 편집 또는 삭제할 수 있습니다.

[ceph: root@host01 /]# ceph dashboard set-login-banner -i filename.yaml
[ceph: root@host01 /]# ceph dashboard get-login-banner
[ceph: root@host01 /]# ceph dashboard unset-login-banner
Copy to Clipboard Toggle word wrap

활성화하면 대시보드 로그인 페이지에 사용자 지정 가능한 텍스트가 표시됩니다.

주요 버전 번호 및 내부 Ceph 버전이 Ceph 대시보드에 표시됩니다.

이번 릴리스에서는 주요 버전 번호와 함께 내부 Ceph 버전도 Ceph 대시보드에 표시되어 사용자가 Red Hat Ceph Storage 다운스트림 릴리스를 Ceph 내부 버전과 관련시킬 수 있습니다. 예를 들어 Version: 16.2.9-98-gccaadd. 상단 탐색 모음을 클릭하고 물음표 메뉴(?)를 클릭하고 About 모달 박스로 이동하여 Red Hat Ceph Storage 릴리스 번호와 해당 Ceph 버전을 확인합니다.

3.3. Ceph 파일 시스템

외부 모드로 구성된 ODF의 CephFS 하위 볼륨에 새 기능을 사용할 수 있습니다.

ODF의 CephFS가 외부 모드로 구성된 경우 사용자는 volume/subvolume 메타데이터를 사용하여 volumes/subvolumes의 PVC/PV/namespace와 같은 일부 Openshift 특정 메타데이터 정보를 저장하는 것과 같습니다.

이번 릴리스에서는 CephFS 하위 볼륨에서 사용자 지정 메타데이터를 설정, 가져오기, 업데이트, 나열 및 제거하는 다음 기능이 추가되었습니다.

다음을 사용하여 하위 볼륨의 사용자 지정 메타데이터를 키-값 쌍으로 설정합니다.

구문

ceph fs subvolume metadata set VOLUME_NAME SUBVOLUME_NAME KEY_NAME VALUE [--group-name SUBVOLUME_GROUP_NAME]
Copy to Clipboard Toggle word wrap

metadata 키를 사용하여 하위 볼륨에 설정된 사용자 정의 메타데이터를 가져옵니다.

구문

ceph fs subvolume metadata get VOLUME_NAME SUBVOLUME_NAME KEY_NAME [--group-name SUBVOLUME_GROUP_NAME ]
Copy to Clipboard Toggle word wrap

하위 볼륨에 설정된 사용자 지정 메타데이터, 키-값 쌍을 나열합니다.

구문

ceph fs subvolume metadata ls VOLUME_NAME SUBVOLUME_NAME [--group-name SUBVOLUME_GROUP_NAME ]
Copy to Clipboard Toggle word wrap

metadata 키를 사용하여 하위 볼륨에 설정된 사용자 정의 메타데이터를 제거합니다.

구문

ceph fs subvolume metadata rm VOLUME_NAME SUBVOLUME_NAME KEY_NAME [--group-name SUBVOLUME_GROUP_NAME ] [--force]
Copy to Clipboard Toggle word wrap

clone status 명령을 사용할 때 복제 실패 이유

이전 버전에서는 복제본에 실패할 때마다 실패 이유를 확인하는 유일한 방법은 로그를 확인하는 것입니다.

이번 릴리스에서는 복제 상태 명령 출력에 복제 실패 이유가 표시됩니다.

[ceph: root@host01 /]#  ceph fs clone status cephfs clone1
{
  "status": {
    "state": "failed",
    "source": {
      "volume": "cephfs",
      "subvolume": "subvol1",
      "snapshot": "snap1"
      "size": "104857600"
    },
    "failure": {
      "errno": "122",
      "errstr": "Disk quota exceeded"
    }
  }
}
Copy to Clipboard Toggle word wrap

복제 실패 이유는 다음 두 필드에 표시됩니다.

  • errno : 오류 번호
  • error_msg : 실패 오류 문자열

3.4. Ceph Manager 플러그인

ceph nfs export apply 명령을 사용하여 CephFS NFS 내보내기를 동적으로 업데이트할 수 있습니다.

이전에는 CephFS NFS 내보내기를 업데이트할 때 NFS-Ganesha 서버가 항상 다시 시작되었습니다. 이는 업데이트되지 않은 내보내기를 포함하여 ganesha 서버에서 제공하는 모든 클라이언트 연결에 일시적으로 영향을 미쳤습니다.

이번 릴리스에서는 ceph nfs export apply 명령을 사용하여 CephFS NFS 내보내기를 동적으로 업데이트할 수 있습니다. CephFS NFS 내보내기가 업데이트될 때마다 NFS 서버가 더 이상 재시작되지 않습니다.

3.5. Ceph Volume 유틸리티

사용자는 OSD를 재배포하기 전에 장치를 수동으로 지우지 않아도 됩니다.

이전에는 OSD를 재배포하기 전에 장치를 수동으로 지워야 했습니다.

이번 릴리스에서는 볼륨 그룹 또는 논리 볼륨이 남아 있지 않으면 장치의 물리 볼륨이 제거되므로 OSD를 재배포하기 전에 장치를 수동으로 초기화하지 않아도 됩니다.

3.6. Ceph Object Gateway

이제 Ops Log를 일반 Unix 파일로 전달하도록 Ceph Object Gateway를 구성할 수 있습니다.

이번 릴리스에서는 파일 기반 로그가 Unix 도메인 소켓에 비해 일부 사이트에서 작업하는 것이 더 간단하기 때문에 Ops Log를 일반 Unix 파일로 전달하도록 Ceph Object Gateway를 구성할 수 있습니다. 로그 파일의 내용은 기본 구성에서 Ops Log 소켓으로 전송되는 내용과 동일합니다.

radosgw lc process 명령을 사용하여 단일 버킷의 라이프사이클을 처리

이번 릴리스에서는 단일 버킷의 라이프사이클을 처리하는 것이 편리하므로 이제 radosgw-admin lc process 명령을 사용하여 --bucket 또는 ID --bucket-id 이름을 지정하여 명령줄 인터페이스에서 단일 버킷의 라이프사이클만 처리할 수 있습니다.

사용자 ID 정보가 Ceph Object Gateway Ops Log 출력에 추가됩니다.

이번 릴리스에서는 Ops Log 출력에 사용자 ID 정보가 추가되어 고객이 S3 액세스 감사를 위해 이 정보에 액세스할 수 있습니다. 모든 버전의 Ceph Object Gateway Ops Log에서 S3 요청으로 사용자 ID를 안정적으로 추적할 수 있습니다.

Ceph Object Gateway의 HTTP 액세스 로깅의 로그 수준은 debug_rgw_access 매개변수를 사용하여 독립적으로 제어할 수 있습니다.

이번 릴리스에서는 debug_rgw_access 매개변수를 사용하여 Ceph Object Gateway의 HTTP 액세스 로깅의 로그 수준을 독립적으로 제어하여 이러한 HTTP 액세스 로그 행을 제외하고 debug_rgw=0 과 같은 모든 Ceph Object Gateway 로깅을 비활성화할 수 있습니다.

버킷 인덱스를 업데이트할 때 레벨 20 Ceph Object Gateway 로그 메시지 감소

이번 릴리스에서는 값을 추가하지 않고 로그 크기를 줄이기 위해 버킷 인덱스를 업데이트할 때 Ceph Object Gateway 수준 20 로그 메시지가 줄어듭니다.

3.7. 다중 사이트 Ceph Object Gateway

current_time 필드가 여러 radosgw-admin 명령의 출력에 추가됩니다.

이번 릴리스에서는 여러 radosgw-admin 명령, 특히 동기화 상태,버킷 동기화 상태,메타데이터 동기화 상태,데이터 동기화 상태 , Bi log 상태에 current_time 필드가 추가됩니다.

HTTP 클라이언트 로깅

이전에는 Ceph Object Gateway가 HTTP 응답의 오류 본문을 출력하지 않았으며 요청에 응답과 일치시킬 수 있는 방법이 없었습니다.

이번 릴리스에서는 async HTTP 클라이언트 및 오류 본문에 대한 HTTP 응답에 HTTP 요청과 일치하도록 태그를 유지 관리하여 HTTP 클라이언트를 더 철저하게 로깅합니다. Ceph Object Gateway debug가 20으로 설정되면 오류 본문 및 기타 세부 정보가 출력됩니다.

OpenStack Keystone에 대한 읽기 전용 역할 사용 가능

OpenStack Keystone 서비스는 admin,member, reader 의 세 가지 역할을 제공합니다. 역할 기반 액세스 제어(RBAC) 기능을 OpenStack으로 확장하기 위해 이제 Keystone 서비스의 특정 사용자에게 새로운 읽기 전용 관리자 역할을 할당할 수 있습니다.

RBAC에 대한 지원 범위는 OpenStack 릴리스를 기반으로 합니다.

3.8. 패키지

새로운 버전의 grafana 컨테이너는 보안 수정 및 향상된 기능을 제공합니다.

이번 릴리스에서는 grafana v8.3.5 가 빌드되어 보안 수정 사항 및 향상된 기능을 제공하는 새로운 버전의 grafana 컨테이너가 빌드되었습니다.

3.9. RADOS

pg_autoscale_modeon으로 설정된 경우 MANY_OBJECTS_PER_PG 경고가 더 이상 보고되지 않음

이전 버전에서는 상태 경고를 보고하는 다양한 모드와 함께 pg_autoscale_mode 가 설정된 인스턴스에서 Ceph 상태 경고 MANY_OBJECTS_PER_PG 가 보고되었습니다.

이번 릴리스에서는 pg_autoscale_modeon 으로 설정된 경우 MANY_OBJECTS_PER_PG 경고 보고를 생략하기 위해 검사가 추가되었습니다.

OSD는 집계된 형식의 작업 세부 정보를 Ceph Manager 서비스에 보고합니다.

이전에는 느린 요청이 너무 많은 세부 정보로 클러스터 로그를 덮어쓰고 모니터 데이터베이스를 채우도록 했습니다.

이번 릴리스에서는 느린 요청이 작업 유형 및 풀 정보로 클러스터 로그에 기록되며 관리자 서비스에 집계된 작업 세부 정보를 보고하는 OSD를 기반으로 합니다.

사용자는 CIDR 범위를 차단할 수 있음

이번 릴리스에서는 개별 클라이언트 인스턴스 및 IP 외에도 CIDR 범위를 차단할 수 있습니다. 특정 상황에서는 개별 클라이언트를 차단 목록에 지정하는 대신 전체 데이터 센터 또는 랙의 모든 클라이언트를 차단 목록에 차단해야 합니다. 예를 들어 워크로드를 다른 머신 세트로 장애 조치하고 이전 워크로드 인스턴스가 계속 부분적으로 작동하지 않도록 하려는 경우입니다. 이제 기존 "블록리스트" 명령과 유사한 "블록 목록 범위"를 사용할 수 있습니다.

3.10. Ceph Ansible 유틸리티

Ceph 파일 백업 및 복원에 새로운 Ansible 플레이북을 사용할 수 있습니다.

이전에는 OS를 Red Hat Enterprise Linux 7에서 Red Hat Enterprise Linux 8로 업그레이드하거나 시스템을 재프로비저닝할 때 사용자가 파일을 수동으로 백업하고 복원해야 했습니다. 특히 대규모 클러스터 배포의 경우 매우 불편했습니다.

이번 릴리스에서는 backup-and-restore-ceph-files.yml 플레이북이 백업에 추가되고 /etc/ceph/var/lib/ceph 와 같은 Ceph 파일을 복원하여 사용자가 파일을 수동으로 복원할 필요가 없습니다.

4장. 기술 프리뷰

이 섹션에서는 이 Red Hat Ceph Storage 릴리스에서 도입되거나 업데이트된 기술 프리뷰 기능에 대한 개요를 제공합니다.

중요

기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있으며 Red Hat은 해당 기능을 프로덕션용으로 사용하지 않는 것이 좋습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다.

Red Hat 기술 프리뷰 기능 지원 범위에 대한 자세한 내용은 기술 프리뷰 기능 지원범위를 참조하십시오.

NFS 배포의 가용성 향상을 위한 HA 지원 NFS

이번 릴리스에서는 NFS 배포 가용성을 개선하기 위해 HA에서 NFS를 지원합니다. haproxykeepalived 에서 지원하는 NFS를 배포할 수 있습니다. 배치에서 더 많은 호스트를 지정하지만 count 속성에 사용되는 호스트 수를 제한하면 NFS 호스트가 오프라인 상태가 되면 NFS 데몬이 다른 호스트에 배포됩니다.

자세한 내용은 Ceph 오케스트레이터를 사용한 NFS Ganesha 게이트웨이 관리를 참조하십시오.

4.1. Ceph Object Gateway

S3 투명 암호화에 대한 Ceph Object Gateway 기술 프리뷰 지원

이번 릴리스에서는 Ceph Object Gateway에서 SSE-S3S3 PutBucketEncryption API를 사용하여 S3 투명 암호화에 대한 기술 프리뷰 지원을 제공합니다.

4.2. RADOS 블록 장치

대기 시간을 줄이기 위해 영구 쓰기 로그 캐시라는 librbd 플러그인

이번 릴리스에서는 PWL(영구 쓰기 로그 캐시)이라는 새로운 librbd 플러그인은 SSD 장치로 대상으로 하는 영구 내결함성 쓰기 캐시를 제공합니다. 대기 시간을 크게 줄이고 낮은 io_depths 의 성능을 향상시킵니다. 이 캐시는 내부적으로 체크포인트를 유지 관리하는 로그 주문 나중 쓰기 설계를 사용하므로 클러스터에 다시 플러시되는 쓰기는 항상 일관성을 유지합니다. 클라이언트 캐시가 완전히 손실되더라도 디스크 이미지는 여전히 일관되게 유지되지만 데이터가 오래된 것처럼 보일 수 있습니다.

5장. 사용되지 않는 기능

이 섹션에서는 Red Hat Ceph Storage 릴리스까지 모든 마이너 릴리스에서 더 이상 사용되지 않는 기능에 대한 개요를 제공합니다.

중요

더 이상 사용되지 않는 기능은 Red Hat Ceph Storage 5가 종료될 때까지 계속 지원됩니다. 사용되지 않는 기능은 이 제품의 향후 주요 릴리스에서 지원되지 않을 가능성이 높으며 새로운 배포에 구현하는 것은 권장되지 않습니다. 특정 주요 릴리스 내에서 더 이상 사용되지 않는 기능의 최신 목록은 최신 릴리스 노트를 참조하십시오.

CephFS에 대한 NFS 지원이 더 이상 사용되지 않음

CephFS에 대한 NFS 지원은 더 이상 사용되지 않습니다. OpenStack Manila에서 NFS에 대한 Red Hat Ceph Storage 지원은 영향을 받지 않습니다. 더 이상 사용되지 않는 기능은 현재 릴리스의 라이프 사이클 동안 버그 수정만 제공되며 향후 릴리스에서 제거될 수 있습니다. 이 기술 관련 문서는 "제한된 가용성"으로 식별됩니다.

iSCSI 지원이 더 이상 사용되지 않음

향후 NVMEoF 지원 대신 iSCSI 지원이 더 이상 사용되지 않습니다. 더 이상 사용되지 않는 기능은 현재 릴리스의 라이프 사이클 동안 버그 수정만 제공되며 향후 릴리스에서 제거될 수 있습니다. 이 기술 관련 문서는 "제한된 가용성"으로 식별됩니다.

6장. 버그 수정

이 섹션에서는 Red Hat Ceph Storage 릴리스에서 수정된 중요한 사용자 영향을 미치는 버그에 대해 설명합니다. 또한 섹션에는 이전 버전에서 발견된 수정된 알려진 문제에 대한 설명이 포함되어 있습니다.

6.1. Cephadm 유틸리티

max로 설정된 컨테이너 프로세스 수 제한

이전에는 컨테이너의 프로세스 번호 제한 2048으로 인해 새 프로세스가 제한을 초과하여 분기되지 않았습니다.

이번 릴리스에서는 프로세스 번호 제한이 max 로 설정되어 대상당 필요에 따라 luns를 생성할 수 있습니다. 그러나 이 수는 여전히 서버 리소스에 의해 제한됩니다.

(BZ#1976128)

배치에서 OSD를 생성할 때 사용할 수 없는 장치가 더 이상 전달되지 않음

이전에는 GPT 헤더가 있는 장치가 사용할 수 없음으로 표시되지 않았습니다. cephadm 은 GPT 헤더가 있는 장치에서 OSD를 생성할 수 없기 때문에 배치 OSD 생성이 실패하는 배치에서 다른 유효한 장치와 함께 해당 장치에 OSD를 생성하려고 했습니다. OSD는 생성되지 않습니다.

이번 수정을 통해 OSD를 배치로 생성할 때 사용할 수 없는 장치가 더 이상 전달되지 않으며 GPT 헤더가 있는 장치가 더 이상 유효한 장치에서 OSD 생성을 차단하지 않습니다.

(BZ#1962511)

지원되지 않는 형식으로 --format 인수를 제공하는 사용자는 역추적을 수신했습니다.

이전에는 오케스트레이터에서 지원되지 않는 --format 인수를 수신할 때마다 예외가 발생하여 지원되지 않는 형식의 --format 을 통과한 사용자가 역추적을 수신했습니다.

이번 수정을 통해 지원되지 않는 형식이 올바르게 처리되고 지원되지 않는 형식을 제공하는 사용자는 형식이 지원되지 않음을 설명하는 메시지를 가져옵니다.

(BZ#2006214)

이제 종속성 오류 없이 ceph-common 패키지를 설치할 수 있습니다.

이전에는 Red Hat Ceph Storage 4를 Red Hat Ceph Storage 5로 업그레이드한 후 몇 가지 패키지로 인해 종속성 오류가 발생했습니다.

이번 수정을 통해 Red Hat Ceph Storage 4 패키지가 제거되고 이제 오류 없이 플레이북 실행 전 실행 중에 ceph-common 패키지를 설치할 수 있습니다.

(BZ#2008402)

tcmu-runner 데몬은 더 이상 stray 데몬으로 보고되지 않습니다.

이전에는 tcmu-runner 데몬이 iSCSI의 일부로 간주되었기 때문에 cephadm 에서 적극적으로 추적하지 않았습니다. 이로 인해 cephadm 이 추적되지 않았기 때문에 tcmu-runner 데몬이 stray 데몬으로 보고되었습니다.

이번 수정을 통해 tcmu-runner 데몬이 알려진 iSCSI 데몬과 일치하면 stray 데몬으로 표시되지 않습니다.

(BZ#2018906)

사용자는 명시적 IP 없이 활성 관리자로 호스트를 다시 추가할 수 있습니다.

이전에는 cephadm 이 컨테이너 내에서 현재 호스트의 IP 주소를 확인하려고 할 때마다 루프백 주소로 확인할 가능성이 있었습니다. 사용자가 활성 Ceph Manager를 사용하여 호스트를 다시 추가하려는 경우 명시적 IP가 필요하며, 사용자가 이를 제공하지 않은 경우 오류 메시지가 표시됩니다.

현재 수정으로 cephadm 은 명시적으로 제공되지 않고 이름 확인에서 루프백 주소를 반환하는 경우 호스트를 다시 추가할 때 이전 IP를 재사용합니다. 이제 명시적 IP 없이 활성 관리자로 호스트를 다시 추가할 수 있습니다.

(BZ#2024301)

cephadm 은 에서 구성을 유추한 데몬의 fsid 가 예상 fsid와 일치하는지 확인합니다.

이전에는 cephadm 에서 예상 fsid 와 일치하는 구성이 유추된 데몬의 fsid 가 있는지 확인하지 않았습니다. 이로 인해 사용자에게 예상되는 fsid 가 아닌 /var/lib/ceph/FSID/DAEMON_NAME 디렉터리가 있는 경우 해당 데몬 디렉터리의 구성이 계속 유추됩니다.

이번 수정을 통해 fsid 가 예상되는 것과 일치하는지 확인하기 위해 검사가 수행되며 사용자는 더 이상 "모드 또는 장치 프로브에 실패" 오류가 발생하지 않습니다.

(BZ#2024720)

cephadm 은 다른 이름으로 클라이언트 키 링 복사 지원

이전에는 클라이언트 인증 ceph.keyring 을 복사할 때 cephadm 가 대상에 파일 이름을 적용했습니다.

현재 수정으로 cephadm 은 다른 이름으로 클라이언트 인증 키 복사를 지원하므로 복사 시 자동 이름 변경 문제가 발생하지 않습니다.

(BZ#2028628)

사용자는 -c ceph.conf 옵션을 사용하여 여러 공용 네트워크를 사용하여 클러스터를 부트스트랩할 수 있습니다.

이전에는 -c ceph.conf 옵션의 일부로 제공된 경우 cephadm 이 부트스트랩 중에 여러 공용 네트워크를 구문 분석하지 않았습니다. 이로 인해 여러 공용 네트워크가 있는 클러스터를 부팅할 수 없었습니다.

현재 수정 사항을 통해 제공된 ceph.conf 파일에서 공용 네트워크 필드가 올바르게 구문 분석되고 이제 public_network mon config 필드를 채우는 데 사용할 수 있으므로 사용자가 -c ceph.conf 옵션을 사용하여 여러 공용 네트워크를 제공하는 클러스터를 부트스트랩할 수 있습니다.

(BZ#2035179)

숫자 서비스 ID로 MDS 서비스를 설정하면 사용자에게 경고 오류가 발생합니다.

이전에는 숫자 서비스 ID로 MDS 서비스를 설정하면 MDS 데몬이 충돌했습니다.

이번 수정을 통해 숫자 서비스 ID로 MDS 서비스를 생성하려고 하면 즉시 경고하고 사용자에게 숫자 서비스 ID를 사용하지 않도록 경고하는 오류가 발생합니다.

(BZ#2039669)

ceph orch redeploy mgr 명령은 활성 Manager 데몬을 마지막으로 재배포합니다.

이전 버전에서는 ceph orch redeploy mgr 명령으로 Ceph Manager 데몬이 예약된 재배포 작업을 지우지 않고 Ceph Manager 데몬이 지속적으로 재배포되어 Ceph Manager 데몬이 무한하게 해제되었습니다.

이번 릴리스에서는 활성 관리자 데몬이 항상 마지막으로 재배포되도록 재배포 순서가 조정되었으며 ceph orch 명령을 ceph orch redeploys mgr 명령은 이제 각 Ceph Manager만 다시 배포합니다.

(BZ#2042602)

사용자 정의 이름이 있는 클러스터 채택이 지원됨

이전에는 cephadmunit.run 파일에서 사용자 정의 클러스터를 전파하지 않아 사용자 정의 이름이 있는 Ceph 클러스터에서 Ceph OSD 컨테이너를 채택하지 못했습니다.

이번 릴리스에서는 cephadm 은 LVM 메타데이터를 변경하고 기본 클러스터 이름 "Ceph"를 적용하여 사용자 지정 클러스터 이름이 있는 클러스터를 예상대로 채택합니다.

(BZ#2058038)

cephadm no longer adds docker.io to the image name provided for the ceph orch upgrade start command

이전에는 cephadm 가 정규화되지 않은 레지스트리의 이미지에 docker.io 를 추가했기 때문에 이 이미지를 가져오지 못하기 때문에 로컬 레지스트리와 같은 정규화되지 않은 레지스트리에서 이미지를 전달할 수 없었습니다.

Red Hat Ceph Storage 5.2부터는 이름이 ceph/ceph:v17 과 같은 업스트림 ceph 이미지와 일치하지 않는 한 docker.io 는 더 이상 이미지 이름에 추가되지 않습니다. ceph orch upgrade 명령을 실행하면 사용자가 로컬 레지스트리에서 이미지를 전달할 수 있으며 Cephadm 은 해당 이미지로 업그레이드할 수 있습니다.

참고

이는 5.2부터의 업그레이드에만 적용됩니다. 5.1에서 5.2로 업그레이드하는 것은 이 문제의 영향을 받지 않습니다.

(BZ#2077843)

cephadm이 더 이상 기존 데몬의 구성 파일을 유추하지 않음

이전 버전에서는 /var/lib/ceph/{mond|mgr} 디렉터리의 존재 여부에 따라 Cephadm 에서 기존 데몬의 구성 파일을 유추했습니다. 이로 인해 디스크 새로 고침과 같은 특정 작업이 이러한 디렉터리가 존재하는 노드에서 실패했습니다. Cephadm 은 존재하지 않는 구성 파일을 유추하려고 할 때 오류가 발생했습니다.

현재 수정판에서는 Cephadm 이 더 이상 기존 데몬의 구성 파일을 유추하지 않습니다. 대신 유추하기 전에 기존 구성 파일을 확인합니다. 기존 데몬 디렉터리가 있으므로 cephadm 은 호스트에서 데몬 또는 장치를 새로 고칠 때 더 이상 문제가 발생하지 않습니다.

(BZ#2080242)

.rgw.root 풀은 더 이상 자동으로 생성되지 않음

이전 버전에서는 다중 사이트의 Ceph Object Gateway에 대한 추가 검사가 존재하여 사용자가 삭제한 경우에도 .rgw.root 풀이 자동으로 생성되었습니다.

Red Hat Ceph Storage 5.2부터 다중 사이트 검사가 제거되고 사용자가 생성할 수 있는 관련 작업을 수행하지 않는 한 .rgw.root 풀이 자동으로 생성되지 않습니다.

(BZ#2083885)

cephadm의 배치 사양에 더 이상 지정되지 않은 호스트에서 Ceph Manager 데몬이 제거됨

이전에는 관리자 서비스 사양에 지정된 배치와 더 이상 일치하지 않는 경우에도 현재 활성 관리자 데몬이 cephadm 에서 제거되지 않았습니다. 사용자가 현재 활성 관리자가었던 호스트를 제외하도록 서비스 사양을 변경할 때마다 장애 조치(failover)가 발생할 때까지 추가 관리자가 됩니다.

이번 수정을 통해 대기가 사용 가능하고 활성 관리자가 서비스 사양과 더 이상 일치하지 않는 호스트에 있는 경우 cephadm 이 관리자를 통해 실패합니다. 관리자가 활성 상태인 경우에도 cephadm 의 배치 사양에 더 이상 지정되지 않은 호스트에서 Ceph Manager 데몬이 제거됩니다.

(BZ#2086438)

잘못된 형식의 URL로 인한 404 오류로 인해 로그에서 역추적이 발생했습니다.

이전에는 cephadm 가 prometheus 수신자의 URL을 잘못 구성하여 잘못된 URL에 액세스하려고 할 때 발생하는 404 오류로 인해 로그에 역추적이 출력되었습니다.

이번 수정을 통해 URL 형식이 수정되었으며 404 오류가 발생하지 않습니다. 역추적은 더 이상 기록되지 않습니다.

(BZ#2087736)

cephadm no longer remove osd_memory_target config settings at host level

이전 버전에서는 osd_memory_target_autotune 이 전역적으로 꺼져 있는 경우 cephadm 에서 사용자가 호스트 수준에서 osd_memory_target 에 설정한 값을 제거했습니다. 또한 CRUSH 맵에서 짧은 이름을 사용하지만 FQDN이 있는 호스트의 경우 cephadm 은 FQDN을 사용하여 config 옵션을 계속 설정했습니다. 이로 인해 호스트 수준에서 osd_memory_target 을 수동으로 설정할 수 없고 osd_memory_target 자동 튜닝이 FQDN 호스트에서 작동하지 않습니다.

이번 수정을 통해 osd_memory_target _ autotune이 false 로 설정된 경우 호스트 수준에서 osd_memory_target 구성 설정이 cephadm 에서 제거되지 않습니다. 또한 호스트 수준 osd_memory_target 을 설정할 때 항상 호스트의 짧은 이름을 사용합니다. 호스트 수준 osd_memory_target_autotunefalse 로 설정된 경우 사용자는 osd_memory_target 을 수동으로 설정하고 cephadm 에서 옵션을 제거하지 않도록 할 수 있습니다. 또한 자동 튜닝은 이제 FQDN 이름을 사용하여 cephadm 에 추가된 호스트에서 작동해야 합니다.

(BZ#2092089)

cephadm 은 FQDN을 사용하여 alertmanager Webhook URL을 빌드합니다.

이전에는 Cephadm 에서 호스트에 저장된 IP 주소를 기반으로 alertmanager 웹 후크 URL을 선택했습니다. 이로 인해 이러한 Webhook URL이 특정 배포에서 작동하지 않기 때문에 문제가 발생했습니다.

이번 수정으로 Cephadm 은 FQDN을 사용하여 alertmanager 웹 후크 URL을 빌드하여 이전에 손상된 일부 배포 상황에서 Webhook URL이 작동하도록 합니다.

(BZ#2099348)

6.2. Ceph 대시보드

Ceph 대시보드에서 드레이닝 작업을 수행하면 호스트를 안전하게 제거할 수 있습니다.

이전에는 사용자가 모든 데몬을 벗어나지 않고 Ceph 대시보드에서 호스트를 제거할 때마다 호스트는 사용할 수 없는 상태 또는 유망 상태로 전환되었습니다.

이번 수정을 통해 대시보드에서 drain 작업을 사용하여 호스트에서 모든 데몬을 이동할 수 있습니다. drain 작업이 성공적으로 완료되면 호스트를 안전하게 제거할 수 있습니다.

(BZ#1889976)

성능 세부 정보 그래프는 Ceph 대시보드에서 필요한 데이터를 보여줍니다.

이전 버전에서는 관련 지표가 오래되어 데몬의 성능 세부 정보 그래프가 put/get 작업이 수행된 경우에도 데이터가 표시되지 않았습니다.

이번 수정으로 관련 메트릭이 최신 상태이며 성능 세부 정보 그래프에 필요한 데이터가 표시됩니다.

(BZ#2054967)

Alertmanager 에 올바른 MTU 불일치 경고가 표시됨

이전에는 Alertmanagerdown 상태인 카드에 대해 false MTU 불일치 경고를 표시했습니다.

이번 수정을 통해 Alertmanager 에 올바른 MTU 불일치 경고가 표시됩니다.

(BZ#2057307)

PG 상태 차트에서 더 이상 알 수 없는 배치 그룹 상태를 표시하지 않음

이전에는 snaptrim_wait 배치 그룹(PG) 상태를 잘못 구문 분석하고 유효한 PG 상태가 아닌 두 가지 상태인 snaptrimwait 으로 분할되었습니다. 이로 인해 PG 상태 차트가 모든 상태가 알려진 경우에도 알 수 없는 상태의 PG를 잘못 표시했습니다.

이번 수정을 통해 snaptrim_wait 및 밑줄을 포함하는 모든 상태가 올바르게 구문 분석되고 알 수 없는 PG 상태가 PG 상태 차트에 표시되지 않습니다.

(BZ#2077827)

Ceph 대시보드 개선 사용자 인터페이스

이전에는 Ceph 대시보드 사용자 인터페이스에서 다음 문제가 확인되어 다중 경로 스토리지 클러스터로 테스트할 때 사용할 수 없게 되었습니다.

  • 클러스터에서 다중 경로 스토리지 장치가 있는 경우 물리적 디스크 페이지에서 디스크 를 선택하면 여러 디스크가 선택되고 테이블의 선택 수가 1분 내에 응답하지 않을 때까지 증가하기 시작합니다.
  • 장치 상태 페이지에 SMART 데이터를 가져오는 동안 오류가 표시되었습니다.
  • Hosts 페이지의 services 열에는 많은 항목이 표시되어 가독성을 줄일 수 있습니다.

이번 릴리스에서는 다음 수정 사항이 구현되어 사용자 인터페이스가 개선되었습니다.

  • 물리 디스크 페이지에서 디스크 선택 문제를 해결했습니다.
  • scsi 장치 SMART 데이터를 가져오는 옵션이 추가되었습니다.
  • services 열의 이름은 Service Instances 로 변경되며 해당 서비스의 인스턴스 이름 및 인스턴스 수만 배지에 표시됩니다.

(BZ#2097487)

6.3. Ceph 파일 시스템

디렉터리에 대해 ceph.dir.layout 을 가져오면 가장 가까운 상속된 레이아웃이 반환됩니다.

이전 버전에서는 디렉터리 경로가 루트로 통과하지 않아 가장 가까운 상속된 레이아웃을 찾기 위해 시스템에서 레이아웃이 구체적으로 설정되지 않은 디렉터리에 대한 "No such attribute" 메시지를 반환했습니다.

이번 수정을 통해 디렉터리 경로는 루트로 이동하여 가장 가까운 상속된 레이아웃을 찾고 디렉터리 계층 구조에서 모든 디렉터리에 대한 ceph.dir.layout 을 가져옵니다.

(BZ#1623330)

하위 볼륨 그룹 ls API는 내부 휴지통 디렉토리 _deleting을 필터링합니다.

이전에는 하위 볼륨 그룹 ls API에서 내부 휴지통 디렉토리 _deleting 을 필터링하지 않아 하위 볼륨 그룹으로 나열되었습니다.

이번 수정으로 subvolumegroup ls API는 내부 휴지통 디렉토리 _deleting 을 필터링하고 하위 볼륨 그룹 ls API에 내부 휴지통 디렉토리 _deleting 이 표시되지 않습니다.

(BZ#2029307)

경쟁 조건으로 인해 더 이상 클러스터의 MDS가 혼동되지 않음

이전에는 대기자 설정 중에 MDS의 경쟁 조건으로 인해 클러스터의 다른 MDS가 혼동되어 다른 MDS가 통신을 거부했습니다.

이번 수정을 통해 경쟁 조건이 수정되어 MDS 간에 성공적으로 통신할 수 있습니다.

(BZ#2030540)

MDS는 이제 온라인 스크러브로 스트레이 재결합을 트리거할 수 있습니다.

이전에는 stray 재결합이 클라이언트 요청에서만 트리거되어 클라이언트에서 비용이 많이 드는 재귀 디렉터리 목록이 필요하기 위해 stray inode를 지우는 프로세스가 발생했습니다.

이번 수정을 통해 MDS는 이제 온라인 스크러브와의 스트레이 재결합을 트리거할 수 있습니다.

(BZ#2041563)

대상 디렉터리가 가득 차면 MDS reintegrates strays

이전에는 링크의 대상 디렉터리가 가득 차면 MDS가 다시 통합되지 않아 stray 디렉터리가 비정상적인 상황에서 채워지지 않았습니다.

이번 수정을 통해 대상 디렉터리가 크기가 변경되지 않도록 가득 차 있는 경우에도 MDS가 스스트레이 통합을 진행합니다.

(BZ#2041571)

데이터를 복사한 후 복제본에 할당량이 적용됨

이전에는 소스 스냅샷에서 데이터를 복사하기 전에 복제본의 할당량이 설정되었으며 소스에서 전체 데이터를 복사하기 전에 할당량이 적용되었습니다. 이로 인해 소스의 할당량이 초과된 경우 하위 볼륨 스냅샷 복제본이 실패합니다. 할당량은 바이트 범위에서 엄격하게 적용되지 않으므로 이는 가능합니다.

이번 수정으로 데이터를 복사한 후 복제본에 할당량이 적용됩니다. 스냅샷 복제본은 할당량과 관계없이 항상 성공합니다.

(BZ#2043602)

ceph-mgr 재시작 후 재해 복구 자동화 및 계획 다시 시작

이전에는 ceph-mgr 시작 중에 스냅샷 일정이 ceph-mgr 재시작 시 재개되었다고 가정한 사용자의 재해 복구 계획에 영향을 미쳤습니다.

이번 수정으로 스케줄은 ceph-mgr 재시작 및 재해 복구 자동화 및 계획(예: 스냅샷 복제)에서 시작하여 수동 개입 없이도 ceph-mgr 을 다시 시작한 후 즉시 다시 시작됩니다.

(BZ#2055173)

읽기 위해 파일을 열 때 즉시 mdlog 가 플러시됩니다.

이전 버전에서는 읽기 위해 파일을 열 때 MDS에서 다른 클라이언트에서 Fw 기능을 취소했으며 Fw 기능이 릴리스되면 MDS에서 mdlog 를 즉시 플러시할 수 없어 Fr 기능을 차단할 수 없었습니다. 이로 인해 mdlog 가 5초마다 주기적으로 플러시될 때까지 파일에 대해 요청된 프로세스가 약 5초 동안 고정됩니다.

이번 릴리스에서는 Fw 기능을 릴리스할 때 원하는 기능이 있을 때 즉시 mdlog 플러시가 트리거되고 빠르게 읽기 위해 파일을 열 수 있습니다.

(BZ#2076850)

특정 복제 상태에는 하위 볼륨 복제 삭제가 더 이상 허용되지 않습니다.

이전 버전에서는 복제가 COMPLETED 또는 CANCELLED 상태가 아닐 때 force 옵션을 사용하여 하위 볼륨 복제를 제거하려고 하면 복제본이 진행 중인 복제본을 추적하는 인덱스에서 제거되지 않았습니다. 이로 인해 해당 복제 스레드가 무기한 복제를 재시도하여 결국 ENOENT 오류가 발생했습니다. 기본 복제 스레드 수가 4개로 설정된 상태에서 4개의 복제를 삭제하려고 하면 4개의 스레드가 모두 차단된 상태로 전환되어 보류 중인 복제를 완료하지 못했습니다.

이 릴리스에서는 복제가 COMPLETED 또는 CANCELLED 상태가 아니면 제거되지 않습니다. 복제 스레드는 복제본이 삭제되고 인덱스의 해당 항목과 함께 진행 중인 복제본을 추적하므로 더 이상 차단되지 않습니다. 결과적으로 보류 중인 복제본이 예상대로 계속 완료됩니다.

(BZ#2081596)

새 클라이언트는 이전 Ceph 클러스터와 호환됩니다.

이전에는 새 클라이언트가 이전 Ceph 클러스터와 호환되지 않아 알 수 없는 메트릭을 수신할 때 이전 클러스터가 abort() 를 트리거하여 MDS 데몬이 충돌했습니다.

이번 수정을 통해 클라이언트의 기능 비트를 확인하고 MDS에서 지원하는 지표만 수집하고 보내야 합니다. 새 클라이언트는 이전 cephs와 호환됩니다.

(BZ#2081929)

동시 조회 및 연결 해제 작업 중에 Ceph Metadata Server가 더 이상 충돌하지 않음

이전 버전에서는 어설션이 코드에 배치되어 Ceph 클라이언트에서 동시 조회 및 연결 해제 작업에 문제가 발생하여 Ceph Metadata Server가 충돌했습니다.

최신 수정에서는 어설션을 동시에 조회 및 연결 해제 작업 중에 가정하는 관련 위치로 이동하여 Ceph Metadata Server가 충돌하지 않고 Ceph 클라이언트 작업을 지속적으로 제공합니다.

(BZ#2093065)

연결되지 않은 디렉토리를 가져올 때 MDSs가 더 이상 충돌하지 않음

이전 버전에서는 연결되지 않은 디렉토리를 가져올 때 예상 버전이 잘못 초기화되어 sanity 검사를 수행할 때 MDS가 충돌했습니다.

이번 수정을 통해 연결되지 않은 디렉토리를 가져올 때 예상 버전과 inode 버전이 초기화되어 MDSs가 충돌하지 않고 sanity 검사를 수행할 수 있습니다.

(BZ#2108656)

6.4. Ceph Manager 플러그인

누락된 포인터가 PriorityCache perf 카운터 빌더에 추가되고 perf 출력은 prioritycache 키 이름을 반환합니다.

이전에는 PriorityCache perf 카운터 빌더에 필요한 포인터가 누락되어 perf 카운터 출력이 생성되어 ceph 는 DAEMON_TYPE . DAEMON_ID perf dump 및 ceph tell DAEMON_TYPE. DAEMON_TYPE.DAEMON_ID perf 스키마 . DAEMON_ID perf 스키마 를 반환하고 prioritycache 키 대신 빈 문자열을 반환했습니다. 이 누락된 키로 인해 collectd-ceph 플러그인에 오류가 발생했습니다.

이번 수정으로 PriorityCache perf 카운터 빌더에 누락된 포인터가 추가됩니다. perf 출력은 prioritycache 키 이름을 반환합니다.

(BZ#2064627)

Native CephFS 및 외부 Red Hat Ceph Storage 5를 사용한 OpenStack 16.x Manila의 취약점

이전에는 Red Hat Ceph Storage 5.0, 5.0.x, 5.1 또는 5.1.x로 업그레이드된 OpenStack 16.x( Manila) 및 외부 Red Hat Ceph Storage 4를 실행 중인 고객은 취약점의 영향을 받을 수 있었습니다. 이 취약점으로 인해 OpenStack Manila 사용자/테넌트(Ceph File System 공유 소유자)가 CephFS 또는 전체 CephFS 파일 시스템에서 지원하는 모든 Manila 공유에 대한 액세스(읽기/쓰기)를 악의적인 얻을 수 있었습니다. 이 취약점은 Ceph Manager의 "volumes" 플러그인의 버그로 인해 발생합니다. 이 플러그인은 Manila 사용자에게 공유를 제공하는 방법으로 OpenStack Manila 서비스에서 사용하는 Ceph 파일 시스템 하위 볼륨을 관리합니다.

이번 릴리스에서는 이 취약점이 해결되었습니다. OpenStack 16.x( Manila에서 기본 CephFS 액세스 제공)를 실행하는 고객은 Red Hat Ceph Storage 5.0, 5.0.x, 5.1 또는 5.1.x로 업그레이드된 고객은 Red Hat Ceph Storage 5.2로 업그레이드해야 합니다. NFS를 통해서만 액세스를 제공한 고객은 영향을 받지 않습니다.

(BZ#2056108)

6.5. Ceph Volume 유틸리티

누락된 백포트가 추가되고 OSD를 활성화할 수 있습니다.

이전에는 백포트가 누락되어 OSD를 활성화할 수 없었습니다.

이번 수정을 통해 누락된 백포트가 추가되고 OSD를 활성화할 수 있습니다.

(BZ#2093022)

6.6. Ceph Object Gateway

reshards 간에 버전이 지정된 버킷에 대한 라이프사이클 정책이 더 이상 실패하지 않음

이전 버전에서는 내부 논리 오류로 인해 버킷 재하드 중에 버킷의 라이프사이클 처리가 비활성화되어 영향을 받는 버킷에 대한 라이프사이클 정책이 처리되지 않았습니다.

이번 수정을 통해 버그가 수정되었으며 버전이 지정된 버킷에 대한 라이프사이클 정책이 더 이상 reshards 간에 실패하지 않습니다.

(BZ#1962575)

삭제된 오브젝트는 더 이상 버킷 인덱스에 나열되지 않음

이전 버전에서는 삭제 오브젝트 작업이 정상적으로 완료되지 않은 경우 버킷 인덱스에 오브젝트가 나열되어 삭제된 오브젝트가 계속 나열되었습니다.

이번 릴리스에서는 불완전한 트랜잭션을 종료하는 내부 "dir_suggest"가 수정되고 삭제된 오브젝트가 더 이상 나열되지 않습니다.

(BZ#1996667)

Ceph Object Gateway의 영역 그룹은 awsRegion 값으로 전송됩니다.

이전에는 awsRegion 의 값이 이벤트 레코드의 zonegroup으로 채워지지 않았습니다.

이번 수정을 통해 Ceph Object Gateway의 영역 그룹이 awsRegion 값으로 전송됩니다.

(BZ#2004171)

Ceph Object Gateway는 빈 주제 목록이 제공될 때 모든 알림 주제를 삭제합니다.

이전에는 Ceph Object Gateway에서 알림 주제를 이름으로 정확하게 삭제했지만 빈 주제 이름이 지정될 때 모든 주제를 삭제하는 데 AWS 동작을 따르지 않아 Ceph Object Gateway에서 몇 가지 고객 버킷 알림 워크플로우를 사용할 수 없었습니다.

이번 수정을 통해 빈 주제 목록에 대한 명시적 처리가 변경되었으며, Ceph Object Gateway는 빈 주제 목록이 제공될 때 모든 알림 주제를 삭제합니다.

(BZ#2017389)

버킷 목록, 버킷 통계 및 유사한 작업에서의 충돌은 인덱스 없는 버킷에 표시되지 않습니다.

이전 버전에서는 일반 버킷 목록을 포함한 여러 작업이 인덱스 없는 버킷의 인덱스 정보에 잘못 액세스하려고 했습니다.

이번 수정을 통해 인덱스 없는 버킷에 대한 새 검사가 추가되어 버킷 목록, 버킷 통계 및 유사한 작업이 표시되지 않습니다.

(BZ#2043366)

내부 테이블 인덱스가 음수가 되는 것을 방지

이전에는 연속 작업 기간 후 내부 테이블로의 인덱스가 음수가 되어 Ceph Object Gateway가 충돌했습니다.

이번 수정을 통해 인덱스가 음수가 되고 Ceph Object Gateway가 더 이상 충돌하지 않습니다.

(BZ#2079089)

FIPS 지원 환경에서 MD5를 명시적으로 사용할 수 있으며 S3 다중 파트 작업을 완료할 수 있습니다.

이전 버전에서는 FIPS 지원 환경에서 암호화 이외의 목적으로 명시적으로 제외하지 않는 한 MD5 다이제스트를 기본적으로 사용할 수 없었습니다. 이로 인해 S3 전체 다중 파트 업로드 작업 중에 segfault가 발생했습니다.

이번 수정을 통해 S3 전체 다중 파트 PUT 작업을 위해 FIPS 지원 환경에서 암호화되지 않은 목적으로 MD5를 사용하는 것이 명시적으로 허용되고 S3 multipart 작업을 완료할 수 있습니다.

(BZ#2088602)

radosgw-admin 명령의 결과 코드 2002가 명시적으로 2로 변환됩니다.

이전 버전에서는 내부 NoSuchBucket 의 S3 오류 변환의 변경으로 인해 radosgw-admin 버킷 통계 명령에서 오류 코드가 실수로 변경되어 해당 radosgw-admin 명령의 쉘 결과 코드를 확인하는 프로그램이 다른 결과 코드를 볼 수 있었습니다.

이번 수정으로 결과 코드 2002는 명시적으로 2로 변환되어 사용자가 원래 동작을 볼 수 있습니다.

(BZ#2100967)

FIPS 지원 환경에서 MD5를 명시적으로 사용할 수 있으며 S3 다중 파트 작업을 완료할 수 있습니다.

이전 버전에서는 FIPS 지원 환경에서 암호화 이외의 목적으로 명시적으로 제외하지 않는 한 MD5 다이제스트를 기본적으로 사용할 수 없었습니다. 이로 인해 S3 전체 다중 파트 업로드 작업 중에 segfault가 발생했습니다.

이번 수정을 통해 S3 전체 다중 파트 PUT 작업을 위해 FIPS 지원 환경에서 암호화되지 않은 목적으로 MD5를 사용하는 것이 명시적으로 허용되고 S3 multipart 작업을 완료할 수 있습니다.

6.7. 다중 사이트 Ceph Object Gateway

radosgw-admin 바이 제거 명령은 삭제된 버킷에서 작동합니다.

이전 버전에서는 radosgw-admin Bi purge 명령에 버킷 entrypoint 오브젝트가 필요했습니다. 이 오브젝트는 삭제된 버킷에 대해 존재하지 않아 삭제된 버킷을 삭제한 후에는 바이 제거 가 정리할 수 없었습니다.

이번 수정으로 Bi purge 는 버킷 진입점이 필요하지 않게 --bucket-id 를 수락하고 명령은 삭제된 버킷에서 작동합니다.

(BZ#1910503)

null 포인터 검사로 인해 더 이상 다중 사이트 데이터 동기화 충돌이 발생하지 않음

이전에는 null 포인터 액세스가 다중 사이트 데이터 동기화가 중단되었습니다.

이번 수정을 통해 null 포인터 검사가 성공적으로 구현되어 가능한 충돌이 발생하지 않습니다.

(BZ#1967901)

오류가 발생할 때 메타데이터 동기화가 더 이상 중단되지 않음

이전에는 메타데이터 동기화의 일부 오류가 재시도되지 않아 Ceph Object Gateway 다중 사이트 구성에서 일부 오류가 발생하면 동기화가 중단되었습니다.

이번 수정을 통해 재시도 동작이 수정되고 오류가 발생하면 메타데이터 동기화가 중단되지 않습니다.

(BZ#2068039)

rgw_data_notify_interval_msec=0 매개변수에 특수 처리가 추가되었습니다.

이전에는 rgw_data_notify_interval_msec 에 0에 대한 특별한 처리가 없었습니다. 이로 인해 기본 사이트에서 알림으로 플러드되었습니다.

이번 수정을 통해 rgw_data_notify_interval_msec=0 에 대한 특수 처리가 추가되어 async 데이터 알림을 비활성화할 수 있습니다.

(BZ#2102365)

6.8. RADOS

클러스터 업그레이드 후 require-osd-release 플래그가 적절한 릴리스로 설정되지 않은 경우 Ceph 클러스터에서 상태 경고를 발행합니다.

이전에는 코드 리팩토링 작업 중에 업그레이드가 의도치 않게 제거된 후 require-osd-release 플래그를 감지하는 코드의 논리가 일치하지 않았습니다. 업그레이드 후 ceph -s 출력에서 경고가 발생하지 않았으므로 적절한 릴리스로 플래그를 설정하지 않고 클러스터의 변경으로 인해 특정 상태에 멈춘 배치 그룹(PG)과 같은 문제가 발생했습니다. 과도한 Ceph 프로세스 메모리 사용량, 느린 요청 등 문제가 발생했습니다.

이번 수정으로 클러스터 업그레이드 후 require-osd-release 플래그가 적절한 릴리스로 설정되지 않은 경우 Ceph 클러스터에서 상태 경고를 발행합니다.

(BZ#1988773)

PGS가 더 이상 스트레치 모드에서 remapped+peering 상태로 잘못 고정되지 않음

이전 버전에서는 논리 오류로 인해 스트레치 모드에서 클러스터를 작동할 때 일부 배치 그룹(PG)이 특정 클러스터 조건에서 다시 매핑된 + 피어링 상태로 영구적으로 중단되어 OSD가 오프라인 상태가 될 때까지 데이터를 사용할 수 없게 되었습니다.

이번 수정으로 PG는 안정적인 OSD 세트를 선택하고 더 이상 스트레치 모드에서 remapped+peering 상태로 잘못 고정되지 않습니다.

(BZ#2042417)

OSD 배포 툴에서 클러스터를 변경하는 동안 모든 OSD를 성공적으로 배포

KVMonitor paxos 서비스는 클러스터 변경을 수행할 때 추가, 제거 또는 수정되는 키를 관리합니다. 이전 버전에서는 OSD 배포 도구를 사용하여 새 OSD를 추가하는 동안 서비스가 쓸 수 있는지 확인하지 않고 키가 추가되었습니다. 이로 인해 paxos 코드에서 어설션 오류가 발생하여 모니터가 충돌합니다.

최신 수정을 통해 새 OSD를 추가하기 전에 KVMonitor 서비스를 쓸 수 있습니다. 그렇지 않으면 나중에 다시 시도하도록 명령 백업을 관련 큐로 푸시합니다. OSD 배포 툴에서 모든 OSD를 문제 없이 성공적으로 배포합니다.

(BZ#2086419)

PG 로그의 손상된 dups 항목은 오프라인 및 온라인 트리밍으로 제거할 수 있습니다.

이전 버전에서는 PG 로그 dups 항목의 트리밍을 방지할 수 있었습니다. 낮은 수준의 PG 분할 작업에서는 작업자가 훨씬 더 높은 빈도를 가진 PG 자동 스케일러에 의해 사용됩니다. 트리밍을 중단하면 PG 로그 메모리가 크게 증가하여 메모리가 부족할 때 OSD 충돌이 발생했습니다. OSD를 다시 시작해도 PG 로그가 디스크에 저장되고 시작 시 RAM에 다시 로드되므로 문제가 해결되지 않았습니다.

이번 수정을 통해 오프라인( ceph-objectstore-tool 명령 사용)과 온라인( OSD 내) 트리밍은 온라인 트리밍 작업을 중단하고 메모리 증가를 담당하는 PG 로그의 손상된 dups 항목을 제거할 수 있습니다. 향후 조사를 돕기 위해 OSD 로그에 dups 항목 수를 출력하는 디버그 개선이 구현됩니다.

(BZ#2093031)

6.9. RBD 미러링

모든 이미지에 대해 last_copied_object_number 값이 올바르게 업데이트됨

이전 버전에서는 구현 결함으로 인해 last_copied_object_number 값이 완전히 할당된 이미지에 대해서만 올바르게 업데이트되었습니다. 이로 인해 스파스 이미지에 대해 last_copied_object_number 값이 올바르지 않고 rbd-mirror 데몬을 다시 시작할 경우 이미지 복제 진행률이 손실되었습니다.

이번 수정으로 모든 이미지와 rbd-mirror 데몬을 다시 시작할 때 last_copied_object_number 값이 올바르게 업데이트되어 이전에 중지된 위치에서 이미지 복제가 다시 시작됩니다.

(BZ#2019909)

이미지가 기본 설정으로 승격될 때 기존 스케줄이 적용됩니다.

이전 버전에서는 비합리한 최적화로 인해 이미지의 승격 후 기본 설정으로 기존 일정이 적용되지 않아 최근 승격된 이미지에 대해 스냅샷 기반 미러링 프로세스가 시작되지 않았습니다.

이번 릴리스에서는 이 문제를 유발하는 최적화가 제거되고 이제 이미지가 기본으로 승격되고 스냅샷 기반 미러링 프로세스가 예상대로 시작될 때 기존 일정이 적용됩니다.

(BZ#2020618)

스냅샷 기반 미러링 프로세스가 더 이상 취소되지 않음

이전 버전에서는 내부 경쟁 조건의 결과로 rbd 미러 스냅샷 schedule add 명령이 취소되었습니다. 다른 기존 일정이 적용되지 않은 경우 영향을 받는 이미지의 스냅샷 기반 미러링 프로세스가 시작되지 않았습니다.

이번 릴리스에서는 경쟁 조건이 수정되고 스냅샷 기반 미러링 프로세스가 예상대로 시작됩니다.

(BZ#2069720)

원격 이미지가 기본이 아닌 경우 재생 또는 재동기화가 더 이상 시도되지 않음

이전 버전에서는 구현상의 결함으로 인해 원격 이미지가 기본이 아니더라도 재생 또는 재동기화가 시도되었습니다. 즉, 재생하거나 재동기화할 위치가 없었습니다. 이로 인해 스냅샷 기반 미러링이 라이브 잠금으로 실행되고 "원격 이미지의 로컬 피어 연결 해제에 실패" 오류가 지속적으로 보고되었습니다.

이번 수정을 통해 원격 이미지가 기본이 아닌 경우 구현 결함이 수정되고 재생 또는 재동기화되지 않으므로 오류가 보고되지 않습니다.

(BZ#2081715)

보조 클러스터의 rbd-mirror 데몬에서 사용 중인 미러 스냅샷은 제거되지 않습니다.

이전 버전에서는 내부 경쟁 조건의 결과로 보조 클러스터의 rbd-mirror 데몬에서 사용한 미러 스냅샷이 제거되어 영향을 받는 이미지의 스냅샷 기반 미러링 프로세스가 중지되어 "split- Cryostat" 오류가 보고되었습니다.

이번 수정으로 미러 스냅샷 큐가 길이로 확장되고 그에 따라 미러 스냅샷 정리 절차가 수정됩니다. 보조 클러스터의 rbd-mirror 데몬에서 사용 중인 스냅샷을 미러링하는 경우 더 이상 제거되지 않으며 스냅샷 기반 미러링 프로세스가 중지되지 않습니다.

(BZ#2092838)

schedule_request_lock()에서 소유자가 잠긴 경우 더 이상 RBD 미러가 충돌하지 않음

이전에는 schedule_request_lock() 중에 이미 잠긴 소유자의 경우 블록 장치 미러가 충돌하여 이미지 동기화가 중지되었습니다.

이번 수정을 통해 소유자가 이미 잠겨 있는 경우 schedule_request_lock() 이 정상적으로 중단되고 블록 장치 미러링이 충돌하지 않습니다.

(BZ#2102227)

불완전한 로컬 비기본 스냅샷 오류로 이미지 복제가 더 이상 중지되지 않음

이전 버전에서는 구현 결함으로 인해 abrupt rbd-mirror 데몬 다시 시작 시 이미지 복제가 불완전한 로컬 비기본 스냅샷 오류로 인해 중단되었습니다.

이번 수정을 통해 불완전한 로컬 비기본 스냅샷 오류로 이미지 복제가 더 이상 중지되지 않고 예상대로 작동합니다.

(BZ#2105454)

6.10. Ceph Ansible 유틸리티

cephadm으로 마이그레이션할 때 autotune_memory_target_ratio 에 대해 올바른 값이 설정됩니다.

이전 버전에서는 cephadm 으로 마이그레이션할 때 배포 종류, HCI 또는 non_HCI에 따라 autotune_memory_target_ratio 에 적절한 값을 설정하지 않았습니다. 이로 인해 비율이 설정되지 않았으며 두 배포 사이에 차이가 없을 것입니다.

이번 수정으로 cephadm-adopt 플레이북 은 배포 유형에 따라 올바른 비율을 설정하고 올바른 값은 autotune_memory_target_ratio 매개변수로 설정됩니다.

(BZ#2028693)

7장. 확인된 문제

이 섹션에서는 이 Red Hat Ceph Storage 릴리스에서 발견된 알려진 문제에 대해 설명합니다.

7.1. Cephadm 유틸리티

크래시 데몬은 크래시 보고서를 스토리지 클러스터에 전송하지 못할 수 있습니다.

크래시 데몬 구성의 문제로 인해 크래시 데몬에서 클러스터로 충돌 보고서를 보낼 수 없을 수 있습니다.

(BZ#2062989)

Red Hat Ceph Storage 5.2로 업그레이드하는 동안 사용자에게 경고

이전 버전에서는 Red Hat Ceph Storage 5에서 재하드된 버킷은 Red Hat Ceph Storage 5.2 Ceph Object Gateway 데몬에서 이해할 수 없었을 수 있었습니다. 이로 인해 Red Hat Ceph Storage 5.2로 업그레이드하는 모든 사용자가 문제를 인식하고 이전에 Red Hat Ceph Storage 5.1을 개체 스토리지와 함께 사용하여 다운그레이드할 수 있었습니다.

이 문제를 해결하려면 오브젝트 스토리지를 사용하지 않거나 5.1 이외의 버전에서 업그레이드하지 않는 사용자는 ceph config set mgr/cephadm/no_five_one_rgw --force 를 실행하여 warning/blocker를 제거하고 모든 작업을 normal로 반환할 수 있습니다. 이 구성 옵션을 설정하면 사용자는 Red Hat Ceph Storage 5.2로 업그레이드하기 전에 Ceph Object Gateway 문제를 인지하고 있음을 확인했습니다.

(BZ#2104780)

NFS 데몬이 있는 가상 IP의 HA 지원 I/O 작업은 장애 조치 HAProxy 구성에서 유지 관리되지 않는 NFS 데몬으로 업데이트되지 않습니다.

NFS 데몬을 통해 오프라인에서 온라인 호스트로 실패하는 경우 HAProxy 구성이 업데이트되지 않습니다. 결과적으로 HA 지원 I/O 작업은 NFS 데몬이 켜져 있고 장애 조치 간에 유지 관리되지 않는 가상 IP로 이동합니다.

(BZ#2106849)

7.2. Ceph 대시보드

Ceph 대시보드에서 SSL을 사용하여 수신 서비스 생성이 작동하지 않음

Ceph 대시보드에서 SSL을 사용하여 수신 서비스 생성은 사용자가 더 이상 필수 필드가 아닌 개인 키 필드를 채울 것으로 예상하므로 작동하지 않습니다.

이 문제를 해결하기 위해 Ceph 오케스트레이터 CLI를 사용하여 수신 서비스가 성공적으로 생성됩니다.

(BZ#2080276)

SSD 및 NVMe 장치가 포함된 클러스터에는 "throughput-optimized" 옵션이 권장됩니다.

이전 버전에서는 클러스터에 SSD 장치만 있거나 SSD 및 NVMe 장치 둘 다일 때마다 "회선 최적화" 옵션이 권장되었으며 사용자 또는 클러스터에 영향을 미치지 않았습니다.

해결 방법으로 사용자는 원하는 사양에 따라 OSD를 배포하는 데 "고급" 모드를 사용할 수 있으며 "Simple" 모드의 모든 옵션은 이 UI 문제와 별도로 계속 사용할 수 있습니다.

(BZ#2101680)

7.3. Ceph 파일 시스템

getpath 명령을 사용하면 자동화 실패

getpath 명령에서 반환된 디렉터리 이름이 스냅샷을 생성하는 디렉터리로 인해 자동화 실패와 혼동이 발생할 수 있다고 가정합니다.

이 문제를 해결하려면 snap-schedule add 명령에 추가하려면 한 수준 높은 디렉터리 경로를 사용하는 것이 좋습니다. 스냅샷은 getpath 명령에서 반환된 수준보다 한 수준 높은 수준을 사용할 수 있습니다.

(BZ#2053706)

7.4. Ceph Object Gateway

Ceph Object Gateway 구성을 사용하여 Red Hat Ceph Storage 5.1에서 Red Hat Ceph Storage 5.2로 업그레이드하는 것은 지원되지 않습니다.

Ceph Object Gateway(RGW) 클러스터(단일 사이트 또는 다중 사이트)의 Red Hat Ceph Storage 5.1에서 Red Hat Ceph Storage 5.2로 업그레이드하는 것은 알려진 문제 BZ#2100602 로 인해 지원되지 않습니다.

자세한 내용은 RGW 업그레이드 지원 제한을 참조하십시오.

주의

Red Hat Ceph Storage 5.1 및 Ceph Object Gateway(단일 사이트 또는 다중 사이트)에서 실행되는 Red Hat Ceph Storage 클러스터를 Red Hat Ceph Storage 5.2 릴리스로 업그레이드하지 마십시오.

8장. 소스

업데이트된 Red Hat Ceph Storage 소스 코드 패키지는 다음 위치에서 사용할 수 있습니다.

법적 공지

Copyright © 2025 Red Hat, Inc.
The text of and illustrations in this document are licensed by Red Hat under a Creative Commons Attribution–Share Alike 3.0 Unported license ("CC-BY-SA"). An explanation of CC-BY-SA is available at http://creativecommons.org/licenses/by-sa/3.0/. In accordance with CC-BY-SA, if you distribute this document or an adaptation of it, you must provide the URL for the original version.
Red Hat, as the licensor of this document, waives the right to enforce, and agrees not to assert, Section 4d of CC-BY-SA to the fullest extent permitted by applicable law.
Red Hat, Red Hat Enterprise Linux, the Shadowman logo, the Red Hat logo, JBoss, OpenShift, Fedora, the Infinity logo, and RHCE are trademarks of Red Hat, Inc., registered in the United States and other countries.
Linux® is the registered trademark of Linus Torvalds in the United States and other countries.
Java® is a registered trademark of Oracle and/or its affiliates.
XFS® is a trademark of Silicon Graphics International Corp. or its subsidiaries in the United States and/or other countries.
MySQL® is a registered trademark of MySQL AB in the United States, the European Union and other countries.
Node.js® is an official trademark of Joyent. Red Hat is not formally related to or endorsed by the official Joyent Node.js open source or commercial project.
The OpenStack® Word Mark and OpenStack logo are either registered trademarks/service marks or trademarks/service marks of the OpenStack Foundation, in the United States and other countries and are used with the OpenStack Foundation's permission. We are not affiliated with, endorsed or sponsored by the OpenStack Foundation, or the OpenStack community.
All other trademarks are the property of their respective owners.
Red Hat logoGithubredditYoutubeTwitter

자세한 정보

평가판, 구매 및 판매

커뮤니티

Red Hat 문서 정보

Red Hat을 사용하는 고객은 신뢰할 수 있는 콘텐츠가 포함된 제품과 서비스를 통해 혁신하고 목표를 달성할 수 있습니다. 최신 업데이트를 확인하세요.

보다 포괄적 수용을 위한 오픈 소스 용어 교체

Red Hat은 코드, 문서, 웹 속성에서 문제가 있는 언어를 교체하기 위해 최선을 다하고 있습니다. 자세한 내용은 다음을 참조하세요.Red Hat 블로그.

Red Hat 소개

Red Hat은 기업이 핵심 데이터 센터에서 네트워크 에지에 이르기까지 플랫폼과 환경 전반에서 더 쉽게 작업할 수 있도록 강화된 솔루션을 제공합니다.

Theme

© 2026 Red Hat
맨 위로 이동