3장. 새로운 기능


이 섹션에는 Red Hat Ceph Storage 릴리스에 도입된 모든 주요 업데이트, 개선 사항 및 새로운 기능이 나열되어 있습니다.

이 릴리스에서 추가된 주요 기능은 다음과 같습니다.

  • 컨테이너화된 클러스터

    Red Hat Ceph Storage 5는 컨테이너화된 데몬만 지원합니다. 컨테이너화되지 않은 스토리지 클러스터를 지원하지 않습니다. 컨테이너화되지 않은 스토리지 클러스터를 Red Hat Ceph Storage 4에서 Red Hat Ceph Storage 5로 업그레이드하는 경우 업그레이드 프로세스에 컨테이너화된 배포로의 변환이 포함됩니다.

    자세한 내용은 Red Hat Ceph Storage 설치 가이드의 RHCS 4에서 RHCS 5로 Red Hat Ceph Storage 클러스터 업그레이드 섹션을 참조하십시오.

  • cephadm

    cephadm 은 관리자 데몬에서 호스트에 연결하여 Red Hat Ceph Storage 5 클러스터를 배포하고 관리하는 새로운 컨테이너화된 배포 툴입니다. cephadm 유틸리티는 Red Hat Ceph Storage 배포의 ceph-ansible 을 대체합니다. Cephadm의 목표는 Red Hat Ceph Storage를 실행하기 위해 완전한 기능을 갖춘 강력한 설치 관리 계층을 제공하는 것입니다.

    cephadm 명령은 Red Hat Ceph Storage 클러스터의 전체 라이프사이클을 관리합니다.

    cephadm 명령은 다음 작업을 수행할 수 있습니다.

  • 새 Ceph 스토리지 클러스터를 부트스트랩합니다.
  • Ceph CLI(명령줄 인터페이스)와 함께 작동하는 컨테이너화된 쉘을 시작합니다.
  • 컨테이너화된 데몬 디버깅에 도움이 됩니다.

    cephadm 명령은 ssh 를 사용하여 스토리지 클러스터의 노드와 통신하고 Ceph 데몬 컨테이너를 추가, 제거 또는 업데이트합니다. 이를 통해 외부 툴을 사용하지 않고도 Red Hat Ceph Storage 컨테이너를 추가, 제거 또는 업데이트할 수 있습니다.

    cephadm 명령에는 다음 두 가지 주요 구성 요소가 있습니다.

  • cephadm 쉘은 컨테이너 내에서 bash 쉘을 시작합니다. 이를 통해 스토리지 클러스터 설치 및 설정 작업을 실행하고 컨테이너에서 ceph 명령을 실행할 수 있습니다.
  • cephadm 오케스트레이터 명령을 사용하면 Ceph 데몬 및 서비스를 프로비저닝하고 스토리지 클러스터를 확장할 수 있습니다.

    자세한 내용은 Red Hat Ceph Storage 설치 가이드를 참조하십시오.

  • 관리 API

    관리 API는 Red Hat Ceph Storage 5에 적용할 수 있는 관리 스크립트를 생성하며 버전 라이프사이클에는 변경되지 않고 계속 작동합니다. API의 호환되지 않는 버전 관리는 주요 릴리스 라인에서만 발생합니다.

    자세한 내용은 Red Hat Ceph Storage 개발자 가이드를 참조하십시오.

  • Red Hat Ceph Storage의 연결이 끊긴 설치

    Red Hat Ceph Storage 5는 프라이빗 네트워크에서 연결이 끊긴 설치 및 스토리지 클러스터 부트스트랩을 지원합니다. 연결이 끊긴 설치는 네트워크에서 파일을 다운로드하는 대신 사용자 지정 이미지 및 구성 파일 및 로컬 호스트를 사용합니다.

    Red Hat 레지스트리에 액세스할 수 있는 프록시 호스트에서 다운로드한 컨테이너 이미지를 설치하거나 컨테이너 이미지를 로컬 레지스트리에 복사하여 설치할 수 있습니다. 부트스트랩 프로세스에는 이름과 IP 주소로 추가할 호스트를 식별하는 사양 파일이 필요합니다. 초기 모니터 호스트가 부트 스트랩되면 Ceph Orchestrator 명령을 사용하여 스토리지 클러스터를 확장하고 구성할 수 있습니다.

    자세한 내용은 Red Hat Ceph Storage 설치 가이드를 참조하십시오.

  • Ceph 파일 시스템 지역 복제

    Red Hat Ceph Storage 5 릴리스부터 지리적 위치 또는 다른 사이트 간에 Ceph File Systems(CephFS)를 복제할 수 있습니다. 새로운 cephfs-mirror 데몬은 스냅샷의 비동기식 복제를 원격 CephFS에 수행합니다.

    자세한 내용은 Red Hat Ceph Storage 파일 시스템 가이드의 Ceph 파일 시스템미러 섹션을 참조하십시오.

  • 새로운 Ceph 파일 시스템 클라이언트 성능 툴

    Red Hat Ceph Storage 5 릴리스부터 Ceph 파일 시스템(CephFS)은 Ceph 파일 시스템에 지표를 실시간으로 표시하는 것과 같은 최상위유틸리티를 제공합니다. cephfs-top 유틸리티는 Ceph Manager 통계 모듈을 사용하여 클라이언트 성능 지표를 가져오고 표시하는 큐 기반 Python 스크립트입니다.

    자세한 내용은 Red Hat Ceph Storage 파일 시스템 가이드 cephfs-top 유틸리티 사용 섹션을 참조하십시오.

  • Red Hat Ceph Storage 대시보드를 사용하여 Ceph 개체 게이트웨이 다중 사이트 모니터링

    이제 Red Hat Ceph Storage 대시보드를 사용하여 Ceph 개체 게이트웨이 다중 사이트 구성을 모니터링할 수 있습니다.

    cephadm 유틸리티를 사용하여 다중 영역을 설정한 후 한 영역의 버킷이 다른 영역 및 기타 사이트에 표시됩니다. 대시보드에서 버킷을 생성, 편집, 삭제할 수도 있습니다.

    자세한 내용은 Red Hat Ceph Storage 대시보드 가이드 의 Ceph 대시보드에서 다중 사이트 오브젝트 구성 버킷 관리를 참조하십시오.

  • BlueStore 공간 활용 개선

    Ceph Object Gateway 및 Ceph 파일 시스템(CephFS)은 RADOS에서 작은 오브젝트와 파일을 개별 오브젝트로 저장합니다. 이번 릴리스에서는 SSD 및 HDD에 대한 BlueStore의 min_alloc_size 의 기본값은 4KB입니다. 이렇게 하면 성능에 영향을 주지 않고 공간을 더 효과적으로 사용할 수 있습니다.

    자세한 내용은 Red Hat Ceph Storage 관리 가이드OSD BlueStore 장을 참조하십시오.

3.1. Cephadm 유틸리티

cephadm 은 동일한 호스트에서 여러 데몬 배치 지원

이번 릴리스에서는 Ceph Object Gateway 및 Ceph Metadata Server(MDS)와 같은 여러 데몬을 동일한 호스트에 배포하여 추가 성능 이점을 제공할 수 있습니다.

service_type: rgw
placement:
  label: rgw
  count-per-host: 2

단일 노드 배포의 경우 cephadm 은 업그레이드 시나리오에서 최소 두 개의 Ceph Manager 데몬을 실행해야 합니다. 업그레이드 시나리오 외부에서도 스토리지 클러스터가 여전히 권장되지만 스토리지 클러스터는 작동하지 않습니다.

Cephadm을 사용한 NFS-RGW 구성이 지원됨

Red Hat Ceph Storage 5.0 구성에서 NFS-RGW를 사용하려면 대시보드를 해결 방법으로 사용해야 했으며 이러한 사용자는 Red Hat Ceph Storage 5.1까지 업그레이드를 지연하는 것이 좋습니다.

이번 릴리스에서는 NFS-RGW 구성이 지원되고 이 구성이 있는 사용자는 스토리지 클러스터를 업그레이드할 수 있으며 예상대로 작동합니다.

사용자가 사용자 정의 모니터링 스택 이미지를 사용하여 스토리지 클러스터를 부트스트랩할 수 있음

이전에는 클러스터를 부트스트랩한 후 모니터링 스택 데몬에 사용되는 이미지를 수동으로 조정해야 했습니다.

이번 릴리스에서는 다음과 같이 포맷된 구성 파일을 전달하여 부트스트랩 중에 스택 데몬 모니터링에 대한 사용자 정의 이미지를 지정할 수 있습니다.

구문

[mgr]
mgr/cephadm/container_image_grafana = GRAFANA_IMAGE_NAME
mgr/cephadm/container_image_alertmanager = ALERTMANAGER_IMAGE_NAME
mgr/cephadm/container_image_prometheus = PROMETHEUS_IMAGE_NAME
mgr/cephadm/container_image_node_exporter = NODE_EXPORTER_IMAGE_NAME

명령에서 --config CONFIGURATION_FILE_NAME 옵션을 사용하여 부트스트랩을 실행할 수 있습니다. 다른 구성 옵션이 있는 경우 스토리지 클러스터를 부트스트랩하기 전에 구성 파일에서 위의 행을 추가할 수 있습니다.

cephadm enables automated adjustment of osd_memory_target

이번 릴리스에서는 cephadm 을 사용하면 기본적으로 osd_memory_target 구성 매개변수를 자동으로 조정할 수 있습니다.

사용자가 서비스별 데몬에 대한 CPU 제한을 지정할 수 있음

이번 릴리스에서는 extra_container_args 필드를 통해 서비스 사양 파일에 CPU 제한을 추가하여 지정된 서비스 내의 모든 데몬의 CPU 제한을 사용자 지정할 수 있습니다.

service_type: mon
service_name: mon
placement:
hosts:
  - host01
  - host02
  - host03
extra_container_args:
  - "--cpus=2"

service_type: osd
service_id: osd_example
placement:
  hosts:
    - host01
extra_container_args:
  - "--cpus=2"
spec:
  data_devices:
    paths:
    - /dev/sdb

cephadm 은 Ceph Object Gateway 배포를 위한 IPv6 네트워크 지원

이번 릴리스에서는 cephadm 은 Ceph Object Gateway 사양의 IPv6 네트워크 지정을 지원합니다. Ceph Object Gateway를 배포하기 위한 서비스 구성 파일의 예는 다음과 같습니다.

service_type: rgw
service_id: rgw
placement:
  count: 3
networks:
- fd00:fd00:3000::/64

ceph nfs export create rgw 명령에서 Ceph Object Gateway 사용자 내보내기 지원

이전에는 ceph nfs export create rgw 명령에서 버킷 수준에서 Ceph Object Gateway 내보내기만 생성했습니다.

이번 릴리스에서는 이 명령으로 사용자 및 버킷 수준 모두에서 Ceph Object Gateway 내보내기를 생성합니다.

구문

ceph nfs export create rgw --cluster-id CLUSTER_ID --pseudo-path PSEUDO_PATH --user-id USER_ID [--readonly] [--client_addr VALUE...] [--squash VALUE]

[ceph: root@host01 /]# ceph nfs export create rgw --cluster-id mynfs --pseudo-path /bucketdata --user-id myuser --client_addr 192.168.10.0/24

Red Hat logoGithubRedditYoutubeTwitter

자세한 정보

평가판, 구매 및 판매

커뮤니티

Red Hat 문서 정보

Red Hat을 사용하는 고객은 신뢰할 수 있는 콘텐츠가 포함된 제품과 서비스를 통해 혁신하고 목표를 달성할 수 있습니다.

보다 포괄적 수용을 위한 오픈 소스 용어 교체

Red Hat은 코드, 문서, 웹 속성에서 문제가 있는 언어를 교체하기 위해 최선을 다하고 있습니다. 자세한 내용은 다음을 참조하세요.Red Hat 블로그.

Red Hat 소개

Red Hat은 기업이 핵심 데이터 센터에서 네트워크 에지에 이르기까지 플랫폼과 환경 전반에서 더 쉽게 작업할 수 있도록 강화된 솔루션을 제공합니다.

© 2024 Red Hat, Inc.