검색

3장. 새로운 기능

download PDF

이 섹션에는 이 Red Hat Ceph Storage 릴리스에 도입된 주요 업데이트, 개선 사항 및 새로운 기능이 나열되어 있습니다.

이 릴리스의 주요 기능은 다음과 같습니다.

  • 컨테이너화된 클러스터

    Red Hat Ceph Storage 5는 컨테이너화된 데몬만 지원합니다. 컨테이너화되지 않은 스토리지 클러스터는 지원하지 않습니다. Red Hat Ceph Storage 4에서 Red Hat Ceph Storage 5로 컨테이너화되지 않은 스토리지 클러스터를 업그레이드하는 경우 업그레이드 프로세스에는 컨테이너화된 배포가 포함됩니다.

    자세한 내용은 Red Hat Ceph Storage 설치 가이드의 RHCS 4에서 RHCS 5로 Red Hat Ceph Storage 클러스터 업그레이드 섹션을 참조하십시오.

  • Cephadm

    Cephadm 은 관리자 데몬의 호스트에 연결하여 Red Hat Ceph Storage 5 클러스터를 배포 및 관리하는 새로운 컨테이너화된 배포 툴입니다. cephadm 유틸리티는 Red Hat Ceph Storage 배포의 ceph- anible을 대체합니다. Cephadm은 Red Hat Ceph Storage를 실행할 수 있도록 완전한 기능을 갖춘 강력한 설치 관리 계층을 제공하는 것입니다.

    cephadm 명령은 Red Hat Ceph Storage 클러스터의 전체 라이프사이클을 관리합니다.

    cephadm 명령은 다음 작업을 수행할 수 있습니다.

  • 새 Ceph 스토리지 클러스터를 부트스트랩합니다.
  • Ceph CLI(명령줄 인터페이스)에서 작동하는 컨테이너화된 쉘을 시작합니다.
  • 컨테이너화된 데몬 디버깅에 도움이 됩니다.

    cephadm 명령은 ssh 를 사용하여 스토리지 클러스터의 노드와 통신하고 Ceph 데몬 컨테이너를 추가, 제거 또는 업데이트합니다. 이를 통해 외부 툴을 사용하지 않고도 Red Hat Ceph Storage 컨테이너를 추가, 제거 또는 업데이트할 수 있습니다.

    cephadm 명령에는 다음 두 가지 주요 구성 요소가 있습니다.

  • cephadm 쉘은 컨테이너 내에서 bash 쉘을 시작합니다. 이를 통해 스토리지 클러스터 설치 및 설정 작업을 실행하고 컨테이너에서 ceph 명령을 실행할 수 있습니다.
  • cephadm orchestrator 명령을 사용하면 Ceph 데몬 및 서비스를 프로비저닝하고 스토리지 클러스터를 확장할 수 있습니다.

    자세한 내용은 Red Hat Ceph Storage 설치 가이드를 참조하십시오.

  • 관리 API

    관리 API는 Red Hat Ceph Storage 5에 적용할 수 있는 관리 스크립트를 생성하고 버전 라이프사이클에 대해 변경되지 않은 상태로 계속 작동합니다. 호환되지 않는 API 버전 관리는 주요 릴리스 줄에서만 발생합니다.

    자세한 내용은 Red Hat Ceph Storage 개발자 가이드를 참조하십시오.

  • Red Hat Ceph Storage의 연결이 끊긴 설치

    Red Hat Ceph Storage 5는 프라이빗 네트워크에서 연결이 끊긴 설치 및 스토리지 클러스터 부트스트랩을 지원합니다. 연결이 끊긴 설치에서는 네트워크에서 파일을 다운로드하는 대신 사용자 지정 이미지 및 구성 파일과 로컬 호스트를 사용합니다.

    Red Hat 레지스트리에 액세스할 수 있는 프록시 호스트에서 다운로드한 컨테이너 이미지를 설치하거나 컨테이너 이미지를 로컬 레지스트리에 복사하여 설치할 수 있습니다. 부트스트랩 프로세스에는 이름 및 IP 주소로 추가할 호스트를 식별하는 사양 파일이 필요합니다. 초기 모니터 호스트가 부트 스트랩되면 Ceph Orchestrator 명령을 사용하여 스토리지 클러스터를 확장하고 구성할 수 있습니다.

    자세한 내용은 Red Hat Ceph Storage 설치 가이드 를 참조하십시오.

  • Ceph 파일 시스템 지역간 복제

    Red Hat Ceph Storage 5 릴리스부터 지리적 위치 또는 다른 사이트 간에 Ceph 파일 시스템(CephFS)을 복제할 수 있습니다. 새 cephfs-mirror 데몬은 스냅샷을 원격 CephFS에 비동기적으로 복제합니다.

    자세한 내용은 Red Hat Ceph Storage 파일 시스템 가이드의 Ceph 파일 시스템미러 섹션을 참조하십시오.

  • 새로운 Ceph File System 클라이언트 성능 툴

    Red Hat Ceph Storage 5 릴리스부터 Ceph 파일 시스템(CephFS)은 Ceph 파일 시스템의 지표를 실시간으로 표시하는 최상위유틸리티를 제공합니다. cephfs-top 유틸리티는 Ceph Manager stats 모듈을 사용하여 클라이언트 성능 지표를 가져와서 표시하는 기반 Python 스크립트입니다.

    자세한 내용은 Red Hat Ceph Storage File System Guide cephfs-top 유틸리티 사용 섹션을 참조하십시오.

  • Red Hat Ceph Storage 대시보드를 사용하여 Ceph 오브젝트 게이트웨이 다중 사이트 모니터링

    이제 Red Hat Ceph Storage 대시보드를 사용하여 Ceph 개체 게이트웨이 다중 사이트 구성을 모니터링할 수 있습니다.

    cephadm 유틸리티를 사용하여 멀티 영역을 설정하면 한 영역의 버킷이 다른 영역 및 기타 사이트에 표시됩니다. 대시보드에서 버킷을 만들고, 편집하고, 삭제할 수도 있습니다.

    자세한 내용은 Red Hat Ceph Storage 대시보드 가이드 의 Ceph 대시보드에서 다중 사이트 오브젝트 구성의 버킷 관리를 참조하십시오.

  • BlueStore 공간 사용률 개선

    Ceph Object Gateway와 Ceph 파일 시스템(CephFS)은 RADOS에 개별 오브젝트로 작은 오브젝트와 파일을 저장합니다. 이번 릴리스에서는 SSD의 min_alloc_size 기본값 BlueStore의 min_alloc_size는 4KB입니다. 이를 통해 성능에 영향을 주지 않고 공간을 보다 효율적으로 사용할 수 있습니다.

    자세한 내용은 Red Hat Ceph Storage 관리 가이드OSD BlueStore 장을 참조하십시오.

3.1. Cephadm 유틸리티

cephadm 에서 여러 데몬을 동일한 호스트에서 공동 배치 지원

이번 릴리스에서는 Ceph Object Gateway 및 Ceph Metadata Server(MDS)와 같은 여러 데몬을 동일한 호스트에 배포하여 성능 이점을 추가로 제공할 수 있습니다.

예제

service_type: rgw
placement:
  label: rgw
  count-per-host: 2

단일 노드 배포의 경우 cephadm 에는 업그레이드 시나리오에서 실행 중인 두 개의 Ceph Manager 데몬이 있어야 합니다. 업그레이드 시나리오 외부에서도 여전히 권장되는 것이 좋지만 스토리지 클러스터가 없으면 스토리지 클러스터가 작동합니다.

Cephadm을 사용하여 NFS-RGW 구성 지원

Red Hat Ceph Storage 5.0 구성에서 NFS-RGW를 사용하려면 해결 방법으로 대시보드를 사용해야 했습니다. 이러한 사용자가 Red Hat Ceph Storage 5.1까지 업그레이드를 지연하는 것이 좋습니다.

이번 릴리스에서는 NFS-RGW 구성이 지원되며 이 구성을 사용하는 사용자는 스토리지 클러스터를 업그레이드할 수 있으며 예상대로 작동합니다.

이제 사용자 지정 모니터링 스택 이미지를 사용하여 스토리지 클러스터를 부트스트랩할 수 있습니다.

이전에는 사용자가 클러스터를 부트스트랩한 후 모니터링 스택 데몬에 사용된 이미지를 수동으로 조정해야 했습니다.

이번 릴리스에서는 다음과 같이 포맷된 구성 파일을 전달하여 부트스트랩 중에 스택 데몬 모니터링을 위한 사용자 정의 이미지를 지정할 수 있습니다.

구문

[mgr]
mgr/cephadm/container_image_grafana = GRAFANA_IMAGE_NAME
mgr/cephadm/container_image_alertmanager = ALERTMANAGER_IMAGE_NAME
mgr/cephadm/container_image_prometheus = PROMETHEUS_IMAGE_NAME
mgr/cephadm/container_image_node_exporter = NODE_EXPORTER_IMAGE_NAME

명령에서 --config CONFIGURATION_FILE_NAME 옵션을 사용하여 부트스트랩을 실행할 수 있습니다. 다른 구성 옵션이 있는 경우 스토리지 클러스터를 부트스트랩하기 전에 구성 파일에 위의 행을 추가할 수 있습니다.

cephadm 을 사용하면 osd_memory_target을 자동 조정할 수 있습니다.

이번 릴리스에서는 cephadm 을 통해 기본적으로 osd_memory_target 구성 매개변수를 자동으로 조정할 수 있습니다.

사용자가 서비스별 데몬의 CPU 제한을 지정할 수 있습니다.

이번 릴리스에서는 extra_container_args 필드를 통해 서비스 사양 파일에 CPU 제한을 추가하여 지정된 서비스 내의 모든 데몬에 대한 CPU 제한을 사용자 지정할 수 있습니다.

예제

service_type: mon
service_name: mon
placement:
hosts:
  - host01
  - host02
  - host03
extra_container_args:
  - "--cpus=2"

service_type: osd
service_id: osd_example
placement:
  hosts:
    - host01
extra_container_args:
  - "--cpus=2"
spec:
  data_devices:
    paths:
    - /dev/sdb

cephadm 에서 Ceph Object Gateway 배포를 위한 IPv6 네트워크 지원

이번 릴리스에서는 cephadm 에서 Ceph Object Gateway 사양의 IPv6 네트워크 지정을 지원합니다. Ceph Object Gateway를 배포하기 위한 서비스 구성 파일의 예는 다음과 같습니다.

예제

service_type: rgw
service_id: rgw
placement:
  count: 3
networks:
- fd00:fd00:3000::/64

ceph nfs 내보내기 rgw 명령에서 Ceph Object Gateway 사용자 내보내기 지원

이전에는 ceph nfs 내보내기 rgw 명령에서는 버킷 수준에서 Ceph Object Gateway 내보내기만 생성했습니다.

이번 릴리스에서는 명령과 사용자 및 버킷 수준에서 Ceph Object Gateway 내보내기를 생성합니다.

구문

ceph nfs export create rgw --cluster-id CLUSTER_ID --pseudo-path PSEUDO_PATH --user-id USER_ID [--readonly] [--client_addr VALUE...] [--squash VALUE]

예제

[ceph: root@host01 /]# ceph nfs export create rgw --cluster-id mynfs --pseudo-path /bucketdata --user-id myuser --client_addr 192.168.10.0/24

Red Hat logoGithubRedditYoutubeTwitter

자세한 정보

평가판, 구매 및 판매

커뮤니티

Red Hat 문서 정보

Red Hat을 사용하는 고객은 신뢰할 수 있는 콘텐츠가 포함된 제품과 서비스를 통해 혁신하고 목표를 달성할 수 있습니다.

보다 포괄적 수용을 위한 오픈 소스 용어 교체

Red Hat은 코드, 문서, 웹 속성에서 문제가 있는 언어를 교체하기 위해 최선을 다하고 있습니다. 자세한 내용은 다음을 참조하세요.Red Hat 블로그.

Red Hat 소개

Red Hat은 기업이 핵심 데이터 센터에서 네트워크 에지에 이르기까지 플랫폼과 환경 전반에서 더 쉽게 작업할 수 있도록 강화된 솔루션을 제공합니다.

© 2024 Red Hat, Inc.