3장. 새로운 기능
이 섹션에는 이 Red Hat Ceph Storage 릴리스에 도입된 주요 업데이트, 개선 사항 및 새로운 기능이 나열되어 있습니다.
이 릴리스의 주요 기능은 다음과 같습니다.
컨테이너화된 클러스터
Red Hat Ceph Storage 5는 컨테이너화된 데몬만 지원합니다. 컨테이너화되지 않은 스토리지 클러스터는 지원하지 않습니다. Red Hat Ceph Storage 4에서 Red Hat Ceph Storage 5로 컨테이너화되지 않은 스토리지 클러스터를 업그레이드하는 경우 업그레이드 프로세스에는 컨테이너화된 배포가 포함됩니다.
자세한 내용은 Red Hat Ceph Storage 설치 가이드의 RHCS 4에서 RHCS 5로 Red Hat Ceph Storage 클러스터 업그레이드 섹션을 참조하십시오.
Cephadm
Cephadm 은 관리자 데몬의 호스트에 연결하여 Red Hat Ceph Storage 5 클러스터를 배포 및 관리하는 새로운 컨테이너화된 배포 툴입니다.
cephadm
유틸리티는 Red Hat Ceph Storage 배포의ceph-
anible을 대체합니다. Cephadm은 Red Hat Ceph Storage를 실행할 수 있도록 완전한 기능을 갖춘 강력한 설치 관리 계층을 제공하는 것입니다.cephadm
명령은 Red Hat Ceph Storage 클러스터의 전체 라이프사이클을 관리합니다.cephadm
명령은 다음 작업을 수행할 수 있습니다.- 새 Ceph 스토리지 클러스터를 부트스트랩합니다.
- Ceph CLI(명령줄 인터페이스)에서 작동하는 컨테이너화된 쉘을 시작합니다.
컨테이너화된 데몬 디버깅에 도움이 됩니다.
cephadm
명령은ssh
를 사용하여 스토리지 클러스터의 노드와 통신하고 Ceph 데몬 컨테이너를 추가, 제거 또는 업데이트합니다. 이를 통해 외부 툴을 사용하지 않고도 Red Hat Ceph Storage 컨테이너를 추가, 제거 또는 업데이트할 수 있습니다.cephadm
명령에는 다음 두 가지 주요 구성 요소가 있습니다.-
cephadm
쉘은 컨테이너 내에서bash
쉘을 시작합니다. 이를 통해 스토리지 클러스터 설치 및 설정 작업을 실행하고 컨테이너에서ceph
명령을 실행할 수 있습니다. cephadm
orchestrator 명령을 사용하면 Ceph 데몬 및 서비스를 프로비저닝하고 스토리지 클러스터를 확장할 수 있습니다.자세한 내용은 Red Hat Ceph Storage 설치 가이드를 참조하십시오.
관리 API
관리 API는 Red Hat Ceph Storage 5에 적용할 수 있는 관리 스크립트를 생성하고 버전 라이프사이클에 대해 변경되지 않은 상태로 계속 작동합니다. 호환되지 않는 API 버전 관리는 주요 릴리스 줄에서만 발생합니다.
자세한 내용은 Red Hat Ceph Storage 개발자 가이드를 참조하십시오.
Red Hat Ceph Storage의 연결이 끊긴 설치
Red Hat Ceph Storage 5는 프라이빗 네트워크에서 연결이 끊긴 설치 및 스토리지 클러스터 부트스트랩을 지원합니다. 연결이 끊긴 설치에서는 네트워크에서 파일을 다운로드하는 대신 사용자 지정 이미지 및 구성 파일과 로컬 호스트를 사용합니다.
Red Hat 레지스트리에 액세스할 수 있는 프록시 호스트에서 다운로드한 컨테이너 이미지를 설치하거나 컨테이너 이미지를 로컬 레지스트리에 복사하여 설치할 수 있습니다. 부트스트랩 프로세스에는 이름 및 IP 주소로 추가할 호스트를 식별하는 사양 파일이 필요합니다. 초기 모니터 호스트가 부트 스트랩되면 Ceph Orchestrator 명령을 사용하여 스토리지 클러스터를 확장하고 구성할 수 있습니다.
자세한 내용은 Red Hat Ceph Storage 설치 가이드 를 참조하십시오.
Ceph 파일 시스템 지역간 복제
Red Hat Ceph Storage 5 릴리스부터 지리적 위치 또는 다른 사이트 간에 Ceph 파일 시스템(CephFS)을 복제할 수 있습니다. 새
cephfs-mirror
데몬은 스냅샷을 원격 CephFS에 비동기적으로 복제합니다.자세한 내용은 Red Hat Ceph Storage 파일 시스템 가이드의 Ceph 파일 시스템미러 섹션을 참조하십시오.
새로운 Ceph File System 클라이언트 성능 툴
Red Hat Ceph Storage 5 릴리스부터 Ceph 파일 시스템(CephFS)은 Ceph 파일 시스템의 지표를 실시간으로 표시하는
최상위
유틸리티를 제공합니다.cephfs-top
유틸리티는 Ceph Managerstats
모듈을 사용하여 클라이언트 성능 지표를 가져와서 표시하는 기반 Python 스크립트입니다.자세한 내용은 Red Hat Ceph Storage File System Guide 의
cephfs-top
유틸리티 사용 섹션을 참조하십시오.Red Hat Ceph Storage 대시보드를 사용하여 Ceph 오브젝트 게이트웨이 다중 사이트 모니터링
이제 Red Hat Ceph Storage 대시보드를 사용하여 Ceph 개체 게이트웨이 다중 사이트 구성을 모니터링할 수 있습니다.
cephadm
유틸리티를 사용하여 멀티 영역을 설정하면 한 영역의 버킷이 다른 영역 및 기타 사이트에 표시됩니다. 대시보드에서 버킷을 만들고, 편집하고, 삭제할 수도 있습니다.자세한 내용은 Red Hat Ceph Storage 대시보드 가이드 의 Ceph 대시보드에서 다중 사이트 오브젝트 구성의 버킷 관리를 참조하십시오.
BlueStore 공간 사용률 개선
Ceph Object Gateway와 Ceph 파일 시스템(CephFS)은 RADOS에 개별 오브젝트로 작은 오브젝트와 파일을 저장합니다. 이번 릴리스에서는 SSD의
min_alloc_size
기본값 BlueStore의 min_alloc_size는 4KB입니다. 이를 통해 성능에 영향을 주지 않고 공간을 보다 효율적으로 사용할 수 있습니다.자세한 내용은 Red Hat Ceph Storage 관리 가이드 의 OSD BlueStore 장을 참조하십시오.
3.1. Cephadm 유틸리티
cephadm
에서 여러 데몬을 동일한 호스트에서 공동 배치 지원
이번 릴리스에서는 Ceph Object Gateway 및 Ceph Metadata Server(MDS)와 같은 여러 데몬을 동일한 호스트에 배포하여 성능 이점을 추가로 제공할 수 있습니다.
예제
service_type: rgw placement: label: rgw count-per-host: 2
단일 노드 배포의 경우 cephadm
에는 업그레이드 시나리오에서 실행 중인 두 개의 Ceph Manager 데몬이 있어야 합니다. 업그레이드 시나리오 외부에서도 여전히 권장되는 것이 좋지만 스토리지 클러스터가 없으면 스토리지 클러스터가 작동합니다.
Cephadm을 사용하여 NFS-RGW 구성 지원
Red Hat Ceph Storage 5.0 구성에서 NFS-RGW를 사용하려면 해결 방법으로 대시보드를 사용해야 했습니다. 이러한 사용자가 Red Hat Ceph Storage 5.1까지 업그레이드를 지연하는 것이 좋습니다.
이번 릴리스에서는 NFS-RGW 구성이 지원되며 이 구성을 사용하는 사용자는 스토리지 클러스터를 업그레이드할 수 있으며 예상대로 작동합니다.
이제 사용자 지정 모니터링 스택 이미지를 사용하여 스토리지 클러스터를 부트스트랩할 수 있습니다.
이전에는 사용자가 클러스터를 부트스트랩한 후 모니터링 스택 데몬에 사용된 이미지를 수동으로 조정해야 했습니다.
이번 릴리스에서는 다음과 같이 포맷된 구성 파일을 전달하여 부트스트랩 중에 스택 데몬 모니터링을 위한 사용자 정의 이미지를 지정할 수 있습니다.
구문
[mgr] mgr/cephadm/container_image_grafana = GRAFANA_IMAGE_NAME mgr/cephadm/container_image_alertmanager = ALERTMANAGER_IMAGE_NAME mgr/cephadm/container_image_prometheus = PROMETHEUS_IMAGE_NAME mgr/cephadm/container_image_node_exporter = NODE_EXPORTER_IMAGE_NAME
명령에서 --config CONFIGURATION_FILE_NAME
옵션을 사용하여 부트스트랩을 실행할 수 있습니다. 다른 구성 옵션이 있는 경우 스토리지 클러스터를 부트스트랩하기 전에 구성 파일에 위의 행을 추가할 수 있습니다.
cephadm
을 사용하면 osd_memory_target
을 자동 조정할 수 있습니다.
이번 릴리스에서는 cephadm
을 통해 기본적으로 osd_memory_target
구성 매개변수를 자동으로 조정할 수 있습니다.
사용자가 서비스별 데몬의 CPU 제한을 지정할 수 있습니다.
이번 릴리스에서는 extra_container_args 필드를 통해 서비스 사양 파일에 CPU 제한을 추가하여 지정된 서비스 내의 모든 데몬에 대한 CPU 제한을 사용자 지정할 수 있습니다.
예제
service_type: mon service_name: mon placement: hosts: - host01 - host02 - host03 extra_container_args: - "--cpus=2" service_type: osd service_id: osd_example placement: hosts: - host01 extra_container_args: - "--cpus=2" spec: data_devices: paths: - /dev/sdb
cephadm
에서 Ceph Object Gateway 배포를 위한 IPv6 네트워크 지원
이번 릴리스에서는 cephadm
에서 Ceph Object Gateway 사양의 IPv6 네트워크 지정을 지원합니다. Ceph Object Gateway를 배포하기 위한 서비스 구성 파일의 예는 다음과 같습니다.
예제
service_type: rgw service_id: rgw placement: count: 3 networks: - fd00:fd00:3000::/64
ceph nfs 내보내기 rgw
명령에서 Ceph Object Gateway 사용자 내보내기 지원
이전에는 ceph nfs 내보내기 rgw
명령에서는 버킷 수준에서 Ceph Object Gateway 내보내기만 생성했습니다.
이번 릴리스에서는 명령과 사용자 및 버킷 수준에서 Ceph Object Gateway 내보내기를 생성합니다.
구문
ceph nfs export create rgw --cluster-id CLUSTER_ID --pseudo-path PSEUDO_PATH --user-id USER_ID [--readonly] [--client_addr VALUE...] [--squash VALUE]
예제
[ceph: root@host01 /]# ceph nfs export create rgw --cluster-id mynfs --pseudo-path /bucketdata --user-id myuser --client_addr 192.168.10.0/24