대시보드 가이드


Red Hat Ceph Storage 8

Ceph 대시보드를 사용하여 Ceph 클러스터 모니터링

Red Hat Ceph Storage Documentation Team

초록

이 가이드에서는 모니터링 및 관리 목적으로 Red Hat Ceph Storage 대시보드를 사용하는 방법을 설명합니다.
Red Hat은 코드, 문서, 웹 속성에서 문제가 있는 용어를 교체하기 위해 최선을 다하고 있습니다. 먼저 마스터(master), 슬레이브(slave), 블랙리스트(blacklist), 화이트리스트(whitelist) 등 네 가지 용어를 교체하고 있습니다. 이러한 변경 작업은 향후 여러 릴리스에 대해 단계적으로 구현될 예정입니다. 자세한 내용은 CTO Chris Wright의 메시지에서 참조하십시오.

1장. Ceph 대시보드 개요

스토리지 관리자인 Red Hat Ceph Storage 대시보드는 관리 및 모니터링 기능을 제공하므로 클러스터를 관리 및 구성하고 관련 정보 및 성능 통계를 시각화할 수 있습니다. 대시보드는 ceph-mgr 데몬에서 호스팅하는 웹 서버를 사용합니다.

대시보드는 웹 브라우저에서 액세스할 수 있으며, 예를 들어 관리자 모듈을 구성하고 OSD 상태를 모니터링하는 많은 유용한 관리 및 모니터링 기능을 포함합니다.

Ceph 대시보드는 다음과 같은 기능을 제공합니다.

다중 사용자 및 역할 관리

대시보드는 다양한 권한 및 역할이 있는 여러 사용자 계정을 지원합니다. 사용자 계정과 역할은 명령줄과 웹 사용자 인터페이스를 모두 사용하여 관리할 수 있습니다. 대시보드는 암호 보안을 강화하는 다양한 방법을 지원합니다. 사용자가 처음 로그인한 후 또는 구성 가능한 기간 후에 암호를 변경해야 하므로 암호 복잡성 규칙을 구성할 수 있습니다.

자세한 내용은 Ceph 대시보드에서 역할 관리 및 Ceph 대시보드에서 사용자 관리를 참조하십시오.

SSO(Single Sign-On)

대시보드는 SAML 2.0 프로토콜을 사용하는 외부 ID 공급자와의 인증을 지원합니다.

자세한 내용은 Ceph 대시보드의 Single Sign-On 활성화를 참조하십시오.

감사

Ceph 관리자 로그에 모든 PUT, POST, DELETE API 요청을 기록하도록 대시보드 백엔드를 구성할 수 있습니다.

대시보드에서 manager 모듈을 사용하는 방법에 대한 자세한 내용은 대시보드에서 Ceph 클러스터의 관리자 모듈 보기 및 편집을 참조하십시오.

관리 기능

Red Hat Ceph Storage 대시보드에는 다양한 관리 기능이 포함되어 있습니다.

클러스터 계층 구조 보기

예를 들어 CRUSH 맵을 보고 특정 OSD ID가 실행 중인 호스트를 확인할 수 있습니다. OSD 문제가 발생하는 경우 유용합니다.

자세한 내용은 대시보드에서 Ceph 클러스터의 CRUSH 맵 보기를 참조하십시오.

관리자 모듈 구성

Ceph manager 모듈의 매개변수를 보고 변경할 수 있습니다.

자세한 내용은 대시보드에서 Ceph 클러스터의 관리자 모듈 보기 및 편집을 참조하십시오.

내장된 Grafana 대시보드

Ceph Dashboard Grafana 대시보드는 성능 지표를 수집하는 Prometheus 모듈을 사용하여 정보를 노출하기 위해 외부 애플리케이션 및 웹 페이지에 포함될 수 있습니다.

자세한 내용은 Ceph 대시보드 구성 요소를 참조하십시오.

로그 보기 및 필터링

이벤트 및 감사 클러스터 로그를 보고 우선순위, 키워드, 날짜 또는 시간 범위를 기반으로 필터링할 수 있습니다.

자세한 내용은 대시보드에서 Ceph 클러스터의 로그 필터링을 참조하십시오.

대시보드 구성 요소 전환

필요한 기능만 사용할 수 있도록 대시보드 구성 요소를 활성화하고 비활성화할 수 있습니다.

자세한 내용은 Ceph 대시보드 기능 집계를 참조하십시오.

OSD 설정 관리

대시보드를 사용하여 클러스터 전체 OSD 플래그를 설정할 수 있습니다. OSD를 시작, 축소 또는 제거, 제거 및 복구하고, 스스크럽 작업을 수행하고, 다양한 scrub 관련 구성 옵션을 수정하고, 프로필을 선택하여 백필 작업 수준을 조정할 수도 있습니다. OSD의 장치 클래스를 설정하고 변경하고 장치 클래스별로 OSD를 표시 및 정렬할 수 있습니다. 새 드라이브 및 호스트에 OSD를 배포할 수 있습니다.

자세한 내용은 대시보드에서 Ceph OSD 관리를 참조하십시오.

경고 보기

경고 페이지를 사용하면 현재 경고에 대한 세부 정보를 볼 수 있습니다.

자세한 내용은 Ceph 대시보드에서 경고 보기를 참조하십시오.

업그레이드

대시보드를 사용하여 Ceph 클러스터 버전을 업그레이드할 수 있습니다.

자세한 내용은 클러스터 업그레이드를 참조하십시오.

이미지 서비스 품질

이미지에 대한 성능 제한을 설정할 수 있습니다(예: IOPS 제한 또는 BPS 버스트 속도 제한).

자세한 내용은 Ceph 대시보드에서 블록 장치 이미지 관리를 참조하십시오.

모니터링 기능

Red Hat Ceph Storage 대시보드 내에서 다양한 기능을 모니터링합니다.

사용자 이름 및 암호 보호

구성 가능한 사용자 이름과 암호를 제공하는 경우에만 대시보드에 액세스할 수 있습니다.

자세한 내용은 Ceph 대시보드에서 사용자 관리를 참조하십시오.

전체 클러스터 상태

성능 및 용량 지표를 표시합니다. 또한 전체 클러스터 상태, 스토리지 사용률(예: 오브젝트 수, 원시 용량, 풀당 사용량, 풀당 사용량, 풀 목록, 상태 및 사용량 통계)이 표시됩니다.

자세한 내용은 대시보드에서 Ceph 클러스터 구성 보기 및 편집을 참조하십시오.

호스트

실행 중인 서비스 및 설치된 Ceph 버전과 함께 클러스터와 연결된 모든 호스트 목록을 제공합니다.

자세한 내용은 대시보드에서 Ceph 클러스터의 호스트 모니터링을 참조하십시오.

성능 카운터

실행 중인 각 서비스에 대한 자세한 통계를 표시합니다.

자세한 내용은 대시보드에서 Ceph 클러스터의 모니터링 서비스를 참조하십시오.

모니터

모든 모니터, 쿼럼 상태 및 열려 있는 세션을 나열합니다.

자세한 내용은 대시보드에서 Ceph 클러스터의 모니터링 을 참조하십시오.

구성 편집기

사용 가능한 모든 구성 옵션, 설명, 유형, 기본값 및 현재 설정된 값을 표시합니다. 이러한 값은 편집할 수 있습니다.

자세한 내용은 대시보드에서 Ceph 클러스터 구성 보기 및 편집을 참조하십시오.

클러스터 로그

클러스터의 이벤트 및 감사 로그 파일에 대한 최신 업데이트를 우선순위, 날짜 또는 키워드로 표시하고 필터링합니다.

자세한 내용은 대시보드에서 Ceph 클러스터의 로그 필터링을 참조하십시오.

장치 관리

Orchestrator가 알고 있는 모든 호스트를 나열합니다. 호스트에 연결된 모든 드라이브와 해당 속성을 나열합니다. 드라이브 상태 예측, SMART 데이터 및 blink enclosure 3.7s를 표시합니다.

자세한 내용은 대시보드에서 Ceph 클러스터의 호스트 모니터링을 참조하십시오.

스토리지 클러스터 용량 보기

Ceph 대시보드의 용량 페이지에서 Red Hat Ceph Storage 클러스터의 원시 스토리지 용량을 볼 수 있습니다.

자세한 내용은 Ceph 대시보드의 시작 페이지 이해를 참조하십시오.

모든 Ceph 풀과 세부 정보를 나열하고 관리합니다. 예를 들면 애플리케이션, 배치 그룹, 복제 크기, EC 프로필, 할당량 및 CRUSH 규칙 세트입니다.

자세한 내용은 대시보드에서 Ceph 대시보드의 시작 페이지 및 Ceph 클러스터의 모니터링 풀 이해 참조하십시오.

OSDs

모든 OSD, 상태 및 사용량 통계를 나열하고 관리합니다. OSD 에는 읽기 및 쓰기 작업의 속성, OSD 맵, 메타데이터 및 성능 카운터와 같은 세부 정보도 나열합니다. OSD 는 OSD와 관련된 모든 드라이브도 나열합니다.

자세한 내용은 대시보드에서 Ceph OSD 모니터링을 참조하십시오.

이미지

모든 Ceph Block Device(RBD) 이미지와 크기, 오브젝트 및 기능과 같은 해당 속성을 나열합니다. RBD 이미지를 생성, 복사, 수정 및 삭제합니다. 선택한 이미지의 스냅샷을 생성, 삭제 및 롤백하고, 이러한 스냅샷을 수정 없이 보호하거나 보호 해제합니다. 스냅샷을 복사하거나 복제하여 복제된 이미지를 병합합니다.

참고

특정 이미지의 I/O 변경의 성능 그래프는 Cluster CryostatManager 모듈에서 rbd_stats_pool 매개변수를 설정하여 해당 이미지를 포함하는 풀을 지정한 후에만 값이 표시됩니다.

자세한 내용은 Ceph 대시보드에서 블록 장치 이미지 모니터링을 참조하십시오.

블록 장치 미러링

Ceph Block Device(RBD) 미러링을 원격 Ceph 서버로 활성화하고 구성합니다. 동기화 상태를 포함하여 모든 활성 동기화 데몬과 해당 상태, 풀 및 RBD 이미지를 나열합니다.

자세한 내용은 Ceph 대시보드의 미러링을 참조하십시오.

Ceph 파일 시스템

사용량 통계를 포함하여 모든 활성 Ceph 파일 시스템(CephFS) 클라이언트 및 관련 풀을 나열합니다. 활성 CephFS 클라이언트를 제거하고 CephFS 할당량 및 스냅샷을 관리하고 CephFS 디렉터리 구조를 찾습니다.

자세한 내용은 대시보드에서 Ceph 파일 시스템 모니터링을 참조하십시오.

Object Gateway(RGW)

모든 활성 오브젝트 게이트웨이 및 해당 성능 카운터를 나열합니다. add, edit, delete, Ceph Object Gateway 사용자 및 세부 정보(예: 할당량) 및 사용자 버킷 및 해당 세부 정보(예: 소유자 또는 할당량)를 표시하고 관리합니다.

자세한 내용은 대시보드에서 Ceph Object Gateway 데몬 모니터링을 참조하십시오.

보안 기능

대시보드는 다음과 같은 보안 기능을 제공합니다.

SSL 및 TLS 지원

웹 브라우저와 대시보드 간의 모든 HTTP 통신은 SSL을 통해 보호됩니다. 자체 서명된 인증서는 기본 제공 명령을 사용하여 생성할 수 있지만 CA(인증 기관)에서 서명한 사용자 정의 인증서를 가져올 수도 있습니다.

자세한 내용은 Ceph 대시보드 설치 및 액세스를 참조하십시오.

사전 요구 사항

  • 시스템 관리자 수준 경험.

1.1. Ceph 대시보드 구성 요소

대시보드의 기능은 여러 구성 요소에서 제공합니다.

  • 배포를 위한 Cephadm 애플리케이션입니다.
  • 포함된 대시보드 ceph-mgr 모듈입니다.
  • 포함된 Prometheus ceph-mgr 모듈입니다.
  • Prometheus 시계열 데이터베이스.
  • 스토리지 클러스터의 각 호스트에서 실행되는 Prometheus node-exporter 데몬입니다.
  • 모니터링 사용자 인터페이스 및 경고를 제공하는 Grafana 플랫폼입니다.

추가 리소스

1.2. Red Hat Ceph Storage 대시보드 아키텍처

대시보드 아키텍처는 Ceph 관리자 대시보드 플러그인 및 기타 구성 요소에 따라 다릅니다. Ceph 관리자와 대시보드의 작동 방식을 이해하려면 다음 다이어그램을 참조하십시오.

Ceph 대시보드 아키텍처 다이어그램

2장. Ceph 대시보드 설치 및 액세스

시스템 관리자는 클러스터 부트스트랩에 제공된 인증 정보를 사용하여 대시보드에 액세스할 수 있습니다.

cephadm 은 기본적으로 대시보드를 설치합니다. 다음은 대시보드 URL의 예입니다.

URL: https://host01:8443/
User: admin
Password: zbiql951ar
참고

대시보드 URL에 액세스하기 전에 브라우저를 업데이트하고 쿠키를 지웁니다.

다음은 Ceph 대시보드 구성에 사용할 수 있는 Cephadm 부트스트랩 옵션입니다.

  • [-initial-dashboard-user INITIAL_DASHBOARD_USER] - 부트스트랩하는 동안 이 옵션을 사용하여 initial-dashboard-user를 설정합니다.
  • [-initial-dashboard-password INITIAL_DASHBOARD_PASSWORD] - 부트스트랩하는 동안 이 옵션을 사용하여 initial-dashboard-password를 설정합니다.
  • [-SSL-dashboard-port SSL_DASHBOARD_PORT] - 부트스트랩하는 동안 이 옵션을 사용하여 기본 8443 이외의 사용자 지정 대시보드 포트를 설정합니다.
  • [-dashboard-key DASHBOARD_KEY] - 부트스트랩 중에 이 옵션을 사용하여 SSL에 사용자 지정 키를 설정합니다.
  • [-dashboard-crt DASHBOARD_CRT] - 부트스트랩 중에 이 옵션을 사용하여 SSL에 대한 사용자 지정 인증서를 설정합니다.
  • [-skip-dashboard] - 부트스트랩 중에 대시보드 없이 Ceph를 배포하는 동안 이 옵션을 사용합니다.
  • [-dashboard-password-noupdate] - 처음 로그인할 때 암호를 재설정하지 않으려면 부트 스트랩하는 동안 이 옵션을 사용합니다.
  • [-allow-fqdn-hostname] - 부트 스트랩 중에 이 옵션을 사용하여 정규화된 호스트 이름을 허용합니다.
  • [-skip-prepare-host] - 부트스트랩 중에 이 옵션을 사용하여 호스트 준비를 건너뜁니다.
참고

대시보드 관련 외부 URL과 관련된 연결 문제를 방지하려면 호스트 이름에 FQDN(정규화된 도메인 이름)을 사용합니다(예: host01.ceph.redhat.com ).

참고

클라이언트 인터넷 브라우저에서 직접 Grafana URL을 열고 보안 예외를 수락하여 Ceph 대시보드의 그래프를 확인합니다. 브라우저를 다시 로드하여 변경 사항을 확인합니다.

[root@host01 ~]# cephadm bootstrap --mon-ip 127.0.0.1 --registry-json cephadm.txt  --initial-dashboard-user  admin --initial-dashboard-password zbiql951ar --dashboard-password-noupdate --allow-fqdn-hostname

참고

cephadm 을 사용하여 스토리지 클러스터를 강화하는 동안 사용자 정의 컨테이너 이미지 또는 로컬 컨테이너 이미지에 --image 옵션을 사용할 수 있습니다.

참고

부트스트랩 중에 --dashboard-password-noupdate 옵션을 사용하지 않는 경우에만 부트스트랩에 제공된 인증 정보를 사용하여 대시보드에 처음 로그인할 때 암호를 변경해야 합니다. Ceph 대시보드 자격 증명은 var/log/ceph/cephadm.log 파일에서 찾을 수 있습니다. "Ceph Dashboard is now available at" 문자열로 검색합니다.

이 섹션에서는 다음 작업에 대해 설명합니다.

2.1. Ceph 대시보드의 네트워크 포트 요구 사항

Ceph 대시보드 구성 요소는 액세스할 수 있어야 하는 특정 TCP 네트워크 포트를 사용합니다. 기본적으로 네트워크 포트는 Red Hat Ceph Storage를 설치하는 동안 firewalld 에 자동으로 열립니다.

표 2.1. TCP 포트 요구 사항
포트사용원래 호스트대상 호스트

8443

대시보드 웹 인터페이스

AlertManager 서비스는 경고를 보고하기 위해 대시보드에 대한 연결을 시작할 수도 있으므로 Grafana 서버의 Ceph 대시보드 UI 및 호스트에 액세스해야 하는 IP 주소도 있습니다.

Ceph Manager 호스트입니다.

3000

Grafana

Grafana 대시보드 UI 및 모든 Ceph Manager 호스트 및 Grafana 서버에 액세스해야 하는 IP 주소입니다.

Grafana 서버를 실행하는 호스트 또는 호스트입니다.

2049

NFS-Ganesha

NFS에 액세스해야 하는 IP 주소입니다.

NFS 서비스를 제공하는 IP 주소입니다.

9095

기본 Prometheus 그래프용 기본 Prometheus 서버

Prometheus UI 및 모든 Ceph Manager 호스트 및 Prometheus를 실행하는 Grafana 서버 또는 호스트에 액세스해야 하는 IP 주소입니다.

Prometheus를 실행하는 호스트 또는 호스트입니다.

9093

Prometheus Alertmanager

Alertmanager 웹 UI 및 모든 Ceph Manager 호스트 및 Grafana 서버 또는 Prometheus를 실행하는 호스트에 액세스해야 하는 IP 주소입니다.

모든 Ceph Manager 호스트 및 Grafana 서버의 호스트입니다.

9094

여러 인스턴스에서 만든 고가용성 클러스터를 구성하기 위한 Prometheus Alertmanager

모든 Ceph Manager 호스트 및 Grafana 서버의 호스트입니다.

Prometheus Alertmanager High Availability(피어 데몬 동기화)이므로 srcdst 모두 Prometheus Alertmanager를 실행하는 호스트여야 합니다.

9100

Prometheus node-exporter 데몬

Prometheus를 실행하는 호스트: 노드 내보내기 지표 웹 UI 및 모든 Ceph Manager 호스트 및 Prometheus를 실행하는 Grafana 서버 또는 호스트를 볼 수 있습니다.

MON, OSDS, Grafana 서버 호스트를 포함한 모든 스토리지 클러스터 호스트

9283

Ceph Manager Prometheus 내보내기 모듈

Ceph Exporter 지표 웹 UI 및 Grafana 서버에 액세스해야 하는 Prometheus를 실행하는 호스트입니다.

모든 Ceph Manager 호스트

2.2. Ceph 대시보드 액세스

Ceph 대시보드에 액세스하여 Red Hat Ceph Storage 클러스터를 관리하고 모니터링할 수 있습니다.

사전 요구 사항

  • Red Hat Ceph Storage 대시보드를 성공적으로 설치합니다.
  • NTP가 시계를 올바르게 동기화하고 있습니다.

프로세스

  1. 웹 브라우저에 다음 URL을 입력합니다.

    구문

    https://HOST_NAME:PORT

    교체:

    • HOST_NAME: 활성 관리자 호스트의 FQDN(정규화된 도메인 이름)이 있습니다.
    • 포트 8443이 있는 포트

      https://host01:8443

      Cephadm 쉘에서 다음 명령을 실행하여 대시보드의 URL을 가져올 수도 있습니다.

      [ceph: root@host01 /]# ceph mgr services

      이 명령은 현재 구성된 모든 끝점을 표시합니다. 대시보드에 액세스하기 위한 URL을 얻으려면 대시보드 키를 찾습니다.

  2. 로그인 페이지에서 부트스트랩 중에 제공된 사용자 이름 admin 및 기본 암호를 입력합니다.
  3. Red Hat Ceph Storage 대시보드에 처음 로그인할 때 암호를 변경해야 합니다.
  4. 로그인한 후 대시보드 기본 시작 페이지가 표시됩니다. 이 페이지에서는 Red Hat Ceph Storage 클러스터의 상태, 성능, 인벤토리 및 용량 지표에 대한 세부 정보, 고급 개요를 제공합니다.

    그림 2.1. Ceph 대시보드 랜딩 페이지

    Ceph 대시보드 랜딩 페이지
  5. 대시보드 시작 페이지에서 메뉴 아이콘( Menu icon )을 클릭하여 수직 메뉴에 옵션을 축소하거나 표시합니다.

추가 리소스

2.3. Ceph 대시보드에서 클러스터 확장

대시보드를 사용하여 호스트 추가, OSD 추가, Alertmanager, Cephadm-exporter, CephFS-mirror, Grafana, ingress, MDS, NFS, node-exporter, Prometheus, RBD-mirror, Ceph Object Gateway와 같은 서비스를 생성하기 위해 Red Hat Ceph Storage 클러스터를 확장할 수 있습니다.

새 스토리지 클러스터를 부트 스트랩하면 Ceph Monitor 및 Ceph Manager 데몬이 생성되고 클러스터가 HEALTH_WARN 상태입니다. 대시보드에서 클러스터에 대한 모든 서비스를 생성하면 클러스터 상태가 HEALTH_WARN 에서 HEALTH_OK 상태로 변경됩니다.

사전 요구 사항

프로세스

  1. 부트스트랩 호스트에서 다른 호스트로 관리자 키를 복사합니다.

    구문

    ssh-copy-id -f -i /etc/ceph/ceph.pub root@HOST_NAME

    [ceph: root@host01 /]# ssh-copy-id -f -i /etc/ceph/ceph.pub root@host02
    [ceph: root@host01 /]# ssh-copy-id -f -i /etc/ceph/ceph.pub root@host03

  2. 부트스트랩 중에 제공된 기본 인증 정보를 사용하여 대시보드에 로그인합니다.
  3. 암호를 변경하고 새 암호를 사용하여 대시보드에 로그인합니다.
  4. 시작 페이지에서 클러스터 확장을 클릭합니다.

    참고

    Expand Cluster 를 클릭하면 확장 단계가 진행되는 마법사가 열립니다. 호스트 및 서비스를 별도로 건너뛰고 추가하려면 Skip 을 클릭합니다.

    그림 2.2. 클러스터 확장

    클러스터 확장
  5. 호스트를 추가합니다. 이 작업은 스토리지 클러스터의 각 호스트에 대해 수행해야 합니다.

    1. 호스트 추가 단계에서 추가 를 클릭합니다.
    2. 호스트 이름을 제공합니다. 이는 부트스트랩된 호스트에서 키를 복사하는 동안 제공된 호스트 이름과 동일합니다.

      참고

      쉼표로 구분된 호스트 이름 목록, 범위 표현식 또는 쉼표로 구분된 범위 표현식을 사용하여 여러 호스트를 추가합니다.

    3. 선택 사항: 호스트의 각 IP 주소를 제공합니다.
    4. 선택 사항: 서비스를 생성할 호스트의 레이블을 선택합니다. 연필 아이콘을 클릭하여 새 레이블을 선택하거나 추가합니다.
    5. 호스트 추가를 클릭합니다.

      새 호스트가 호스트 추가 창에 표시됩니다.

    6. 다음을 클릭합니다.
  6. OSD를 생성합니다.

    1. OSD 만들기 단계에서 기본 장치의 경우 추가 를 클릭합니다.
    2. 기본 장치 창에서 장치를 필터링하고 장치를 선택합니다.
    3. 추가를 클릭합니다.
    4. 선택 사항: OSD 생성 창에서 WAL 또는 DB 장치와 같은 공유 장치가 있는 경우 장치를 추가합니다.
    5. 선택 사항: 기능 섹션에서 암호화를 선택하여 기능을 암호화합니다.
    6. 다음을 클릭합니다.
  7. 서비스를 생성합니다.

    1. 서비스 생성 단계에서 생성을 클릭합니다.
    2. 서비스 생성 양식에서 다음을 수행합니다.

      1. 서비스 유형을 선택합니다.
      2. 서비스 ID를 제공합니다. ID는 서비스의 고유 이름입니다. 이 ID는 서비스 이름에 사용됩니다. service_type.service_id.

…​optional: 서비스가 관리되지 않는 경우 선택합니다.

+ Unmanaged 서비스가 선택되면 오케스트레이터가 이 서비스와 연결된 데몬을 시작하거나 중지하지 않습니다. 배치 및 기타 모든 속성은 무시됩니다.

  1. 배치가 호스트 또는 레이블의 경우 선택합니다.
  2. 호스트를 선택합니다.
  3. Count 필드에서 배포해야 하는 데몬 또는 서비스 수를 제공합니다.

    1. 서비스 생성을 클릭합니다.

      새 서비스가 서비스 생성 창에 표시됩니다.

      1. 서비스 생성 창에서 다음을 클릭합니다.
      2. 클러스터 확장 세부 정보를 검토합니다.

        클러스터 리소스,서비스별 호스트,호스트 세부 정보를 검토합니다. 매개변수를 편집하려면 뒤로 를 클릭하고 이전 단계를 따릅니다.

        그림 2.3. 클러스터 검토

        클러스터 검토
      3. 클러스터 확장을 클릭합니다.

        클러스터 확장 표시 알림이 표시되고 클러스터 상태가 대시보드의 HEALTH_OK 로 변경됩니다.

검증

  1. cephadm 쉘에 로그인합니다.

    [root@host01 ~]# cephadm shell

  2. ceph -s 명령을 실행합니다.

    [ceph: root@host01 /]# ceph -s

    클러스터의 상태는 HEALTH_OK 입니다.

추가 리소스

2.4. 클러스터 업그레이드

대시보드를 사용하여 Ceph 클러스터를 업그레이드합니다.

클러스터 이미지는 registry.redhat.io 에서 자동으로 가져옵니다. 필요한 경우 업그레이드에 사용자 정의 이미지를 사용합니다.

사전 요구 사항

업그레이드 프로세스를 시작하기 전에 업그레이드 버전 경로와 운영 체제가 지원되는지 확인합니다. 자세한 내용은 Red Hat Ceph Storage 8.0의 호환성 매트릭스를 참조하십시오.

시작하기 전에 다음 사전 요구 사항이 있는지 확인하십시오.

중요

이러한 항목은 대시보드를 통해 수행할 수 없으며 명령줄에서 클러스터를 계속 업그레이드하기 전에 수동으로 완료해야 합니다.

참고

자세한 내용은 연결이 끊긴 환경에서 Red Hat Ceph Storage 클러스터 업그레이드 및 1~7단계를 참조하십시오.

  1. 최신 cephadm.

    구문

    dnf udpate cephadm

  2. 최신 cephadm-ansible.

    구문

    dnf udpate cephadm-ansible

  3. 최신 cephadm pre-flight Playbook.

    구문

    ansible-playbook -i INVENTORY_FILE cephadm-preflight.yml --extra-vars "ceph_origin=custom upgrade_ceph_packages=true"

  4. 다음 Ceph 명령을 실행하여 클러스터 업그레이드 중에 경고 및 데이터 재조정을 방지합니다.

    구문

    ceph health mute DAEMON_OLD_VERSION --sticky
    ceph osd set noout
    ceph osd set noscrub
    ceph osd set nodeep-scrub

프로세스

  1. 클러스터 업그레이드를 사용할 수 있는지 확인하고 필요에 따라 대시보드의 관리 > 업그레이드에서 업그레이드 합니다.

    참고

    대시보드에 Not retrieving upgrades 메시지가 표시되면 Podman 또는 docker에 적절한 자격 증명을 사용하여 레지스트리가 컨테이너 구성 파일에 추가되었는지 확인합니다.

    필요한 경우 업그레이드 프로세스 중 일시 중지 또는 중지 를 클릭합니다. 업그레이드 진행 상황을 업그레이드하는 동안 정보 메시지와 함께 진행률 표시줄에 표시됩니다.

    참고

    업그레이드를 중지하면 업그레이드가 먼저 일시 중지되고 업그레이드를 중지하라는 메시지가 표시됩니다.

  2. 선택 사항입니다. 업그레이드 페이지의 클러스터 로그 섹션에서 업그레이드 프로세스 중 클러스터 로그를 확인합니다.
  3. 클러스터 상태가 OK(확인) 상태가 표시되는지 확인하여 업그레이드가 완료되었는지 확인합니다.
  4. 업그레이드가 완료되었는지 확인한 후 noout,noscrub, nodeep-scrub 플래그를 설정 해제합니다.

    [ceph: root@host01 /]# ceph osd unset noout
    [ceph: root@host01 /]# ceph osd unset noscrub
    [ceph: root@host01 /]# ceph osd unset nodeep-scrub

2.5. Ceph 대시보드 기능 전환

필요에 따라 기능을 활성화하거나 비활성화하여 Red Hat Ceph Storage 대시보드 구성 요소를 사용자 지정할 수 있습니다. 모든 기능은 기본적으로 활성화되어 있습니다. 기능을 비활성화할 때 web-interface 요소가 숨겨지고 연결된 REST API 엔드포인트는 해당 기능에 대한 추가 요청을 거부합니다. 대시보드 기능 활성화 및 비활성화는 명령줄 인터페이스 또는 웹 인터페이스에서 수행할 수 있습니다.

사용 가능한 기능:

  • Ceph 블록 장치:

    • 이미지 관리, rbd
    • 미러링, 미러링
  • Ceph 파일 시스템, cephfs
  • Ceph Object Gateway, rgw
  • NFS Ganesha 게이트웨이, nfs
참고

기본적으로 Ceph Manager는 Ceph Monitor와 함께 배치됩니다.

참고

여러 기능을 한 번에 비활성화할 수 있습니다.

중요

기능이 비활성화되면 웹 인터페이스의 변경 사항을 반영하는 데 최대 20초가 걸릴 수 있습니다.

사전 요구 사항

  • Red Hat Ceph Storage 대시보드 소프트웨어의 설치 및 구성.
  • Ceph Manager 호스트 또는 대시보드 웹 인터페이스에 대한 사용자 액세스입니다.
  • Ceph Manager 호스트에 대한 루트 수준 액세스.

프로세스

  • 대시보드 웹 인터페이스에서 대시보드 기능을 전환하려면 다음을 수행합니다.

    1. 대시보드 시작 페이지에서 Administration(관리)Manager Modules (모듈)로 이동하여 dashboard 모듈을 선택합니다.
    2. 편집을 클릭합니다.
    3. Edit Manager 모듈 양식에서는 다른 기능 이름 옆에 있는 확인란을 선택하거나 지워 대시보드 기능을 활성화하거나 비활성화할 수 있습니다.
    4. 선택이 완료되면 업데이트를 클릭합니다.
  • 명령줄 인터페이스에서 대시보드 기능을 전환하려면 다음을 수행합니다.

    1. Cephadm 쉘에 로그인합니다.

      [root@host01 ~]# cephadm shell

    2. 기능 상태를 나열합니다.

      [ceph: root@host01 /]# ceph dashboard feature status

    3. 기능을 비활성화합니다.

      [ceph: root@host01 /]# ceph dashboard feature disable rgw

      이 예제에서는 Ceph Object Gateway 기능을 비활성화합니다.

    4. 기능을 활성화합니다.

      [ceph: root@host01 /]# ceph dashboard feature enable cephfs

      이 예에서는 Ceph Filesystem 기능을 활성화합니다.

2.6. Ceph 대시보드의 시작 페이지 이해

시작 페이지에는 탐색 모음과 개별 패널을 사용하는 전체 Ceph 클러스터에 대한 개요가 표시됩니다.

메뉴 표시줄에는 다음과 같은 옵션이 있습니다.

작업 및 알림
작업 및 알림 메시지를 제공합니다.
도움말
제품 및 REST API 설명서에 대한 링크, Red Hat Ceph Storage 대시보드에 대한 세부 정보 및 문제를 보고하는 양식에 대한 링크를 제공합니다.
대시보드 설정
사용자 관리 및 원격 분석 구성에 대한 액세스 권한을 제공합니다.
사용자
이 메뉴를 사용하여 로그인 상태를 확인하고 암호를 변경하고 대시보드에서 로그아웃합니다.

그림 2.4. 메뉴 표시줄

메뉴 표시줄

탐색 메뉴는 navigation icon 탐색 메뉴 아이콘을 클릭하여 열거나 숨길 수 있습니다.

대시보드

기본 대시보드에는 클러스터 상태에 대한 특정 정보가 표시됩니다.

탐색 메뉴에서 대시보드를 클릭하여 언제든지 기본 대시보드에 액세스할 수 있습니다.

대시보드 시작 페이지에서는 창을 다른 범주로 구성합니다.

그림 2.5. Ceph 대시보드 랜딩 페이지

Ceph 대시보드landing 페이지
세부 정보
특정 클러스터 정보를 표시하고 Telemetry가 활성 또는 비활성인 경우입니다.
인벤토리

클러스터의 다른 부분, 사용 가능한 수 및 해당 상태를 표시합니다.

인벤토리에서 사용 가능한 특정 인벤토리 항목에 직접 연결합니다.

호스트
Ceph 스토리지 클러스터의 총 호스트 수를 표시합니다.
모니터
Ceph Monitor 수 및 쿼럼 상태를 표시합니다.
관리자
Manager 데몬의 수 및 상태를 표시합니다.
OSDs
Ceph Storage 클러스터의 총 OSD 수와 up 인 수를 표시합니다.
Ceph 클러스터의 스토리지 풀 수를 표시합니다.
PGS

총 배치 그룹(PG) 수를 표시합니다. PG 상태는 디스플레이를 단순화하기 위해 작업경고로 나뉩니다. 각각 여러 상태를 포함합니다. + 워킹 상태는 다음 상태 중 하나를 포함하는 PG를 포함합니다.

  • 활성화
  • backfill_wait
  • 백필
  • 생성
  • Degraded
  • forced_backfill
  • forced_recovery
  • 피어링
  • 피어링됨
  • 복구
  • recovery_wait
  • 복구
  • 스크럽
  • snaptrim
  • snaptrim_wait + 경고 상태에는 다음 상태의 PG가 포함됩니다.
  • backfill_toofull
  • backfill_unfound
  • down
  • 불완전한 경우
  • inconsistent
  • recovery_toofull
  • recovery_unfound
  • remapped
  • snaptrim_error
  • 오래된
  • undersized
오브젝트 게이트웨이
Ceph 스토리지 클러스터의 Object Gateway 수를 표시합니다.
메타데이터 서버
Ceph File Systems(CephFS)의 메타데이터 서버 수 및 상태를 표시합니다.
상태
클러스터 및 호스트 및 데몬 상태의 상태를 표시합니다. Ceph 스토리지 클러스터의 현재 상태가 표시됩니다. 위험 및 경고 경고는 시작 페이지에 직접 표시됩니다. 전체 경고 목록은 경고 보기를 클릭합니다.
용량
스토리지 사용량 지표를 표시합니다. 이는 사용, 경고 및 위험의 그래프로 표시됩니다. 숫자는 백분율로, GiB 단위입니다.
클러스터 사용률
Cluster Utilization 창에는 데이터 전송 속도와 관련된 정보가 표시됩니다. 목록에서 데이터 출력의 시간 범위를 선택합니다. 지난 5분에서 지난 24시간 사이의 범위를 선택합니다.
사용 용량(RAW)
사용량을 GiB 단위로 표시합니다.
IOPS
초당 총 I/O 읽기 및 쓰기 작업을 표시합니다.
OSD 대기 시간
밀리 초당 총 적용 및 커밋을 표시합니다.
클라이언트 처리량
초당 총 클라이언트 읽기 및 쓰기 처리량을 KiB 단위로 표시합니다.
복구 처리량
클러스터 복구 및 균형 조정 작업의 속도를 표시합니다. 예를 들어 디스크 손실로 인해 이동할 수 있는 백그라운드 데이터의 상태가 표시됩니다. 정보는 초당 바이트 단위로 표시됩니다.

추가 리소스

2.7. Ceph 대시보드를 사용하여 대시보드 암호 변경

클러스터를 부트스트랩하는 동안 기본적으로 대시보드에 액세스하기 위한 암호는 시스템에서 임의로 생성됩니다. Red Hat Ceph Storage 대시보드에 처음 로그인할 때 암호를 변경해야 합니다. 대시보드를 사용하여 admin 사용자의 암호를 변경할 수 있습니다.

사전 요구 사항

  • 실행 중인 Red Hat Ceph Storage 클러스터.

프로세스

  1. 대시보드에 로그인합니다.

    구문

    https://HOST_NAME:8443

  2. 메뉴 모음에서 User CryostatChange password 로 이동합니다.
  3. 확인을 위해 이전 암호를 입력합니다.
  4. 새 암호 필드에 새 암호를 입력합니다. 암호에는 최소 8자 이상이어야 하며 마지막 문자와 같을 수 없습니다.
  5. Confirm password 필드에 새 암호를 다시 입력하여 확인합니다.
  6. 암호 변경을 클릭합니다.

    로그아웃되어 로그인 화면으로 리디렉션됩니다. 암호가 변경되었음을 확인하는 알림이 표시됩니다.

2.8. 명령줄 인터페이스를 사용하여 Ceph 대시보드 암호 변경

Ceph 대시보드 암호를 잊어버린 경우 명령줄 인터페이스를 사용하여 암호를 변경할 수 있습니다.

사전 요구 사항

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • 대시보드가 설치된 호스트에 대한 루트 수준 액세스.

프로세스

  1. Cephadm 쉘에 로그인합니다.

    예제

    [root@host01 ~]# cephadm shell

  2. dashboard_password.yml 파일을 만듭니다.

    예제

    [ceph: root@host01 /]# touch dashboard_password.yml

  3. 파일을 편집하고 새 대시보드 암호를 추가합니다.

    예제

    [ceph: root@host01 /]# vi dashboard_password.yml

  4. 대시보드 암호를 재설정합니다.

    구문

    ceph dashboard ac-user-set-password DASHBOARD_USERNAME -i PASSWORD_FILE

    예제

    [ceph: root@host01 /]# ceph dashboard ac-user-set-password admin -i dashboard_password.yml
    {"username": "admin", "password": "$2b$12$i5RmvN1PolR61Fay0mPgt.GDpcga1QpYsaHUbJfoqaHd1rfFFx7XS", "roles": ["administrator"], "name": null, "email": null, "lastUpdate": , "enabled": true, "pwdExpirationDate": null, "pwdUpdateRequired": false}

검증

  • 새 암호를 사용하여 대시보드에 로그인합니다.

2.9. Grafana의 admin 사용자 암호 설정

기본적으로 cephadm 은 Grafana에 대한 admin 사용자를 생성하지 않습니다. Ceph Orchestrator를 사용하면 관리자 사용자를 생성하고 암호를 설정할 수 있습니다.

이러한 인증 정보를 사용하면 admin 사용자에게 지정된 암호를 사용하여 스토리지 클러스터의 Grafana URL에 로그인할 수 있습니다.

사전 요구 사항

  • 모니터링 스택이 설치된 실행 중인 Red Hat Ceph Storage 클러스터입니다.
  • cephadm 호스트에 대한 루트 수준 액세스.
  • dashboard 모듈이 활성화되었습니다.

프로세스

  1. root 사용자로 grafana.yml 파일을 생성하고 다음 세부 정보를 제공합니다.

    구문

    service_type: grafana
    spec:
      initial_admin_password: PASSWORD

    service_type: grafana
    spec:
      initial_admin_password: mypassword

  2. 컨테이너의 디렉터리에 grafana.yml 파일을 마운트합니다.

    [root@host01 ~]# cephadm shell --mount grafana.yml:/var/lib/ceph/grafana.yml

    참고

    쉘을 종료할 때마다 데몬을 배포하기 전에 컨테이너에 파일을 마운트해야 합니다.

  3. 선택 사항: 대시보드 Ceph Manager 모듈이 활성화되어 있는지 확인합니다.

    [ceph: root@host01 /]# ceph mgr module ls

  4. 선택 사항: 대시보드 Ceph Manager 모듈을 활성화합니다.

    [ceph: root@host01 /]# ceph mgr module enable dashboard

  5. orch 명령을 사용하여 사양을 적용합니다.

    구문

    ceph orch apply -i FILE_NAME.yml

    [ceph: root@host01 /]# ceph orch apply -i /var/lib/ceph/grafana.yml

  6. grafana 서비스를 재배포합니다.

    [ceph: root@host01 /]# ceph orch redeploy grafana

    이렇게 하면 지정된 암호를 사용하여 admin 이라는 admin 사용자가 생성되고 사용자는 이러한 자격 증명을 사용하여 Grafana URL에 로그인할 수 있습니다.

확인:

  • 인증 정보를 사용하여 Grafana에 로그인합니다.

    구문

    https://HOST_NAME:PORT

    https://host01:3000/

2.10. Red Hat Ceph Storage 대시보드 수동 활성화

부트스트랩 중에 --skip-dashboard 옵션을 사용하여 Red Hat Ceph Storage 클러스터를 설치한 경우 부트스트랩 출력에서 대시보드 URL 및 인증 정보를 사용할 수 없음을 확인할 수 있습니다. 명령줄 인터페이스를 사용하여 수동으로 대시보드를 활성화할 수 있습니다. Prometheus, Grafana, Alertmanager 및 node-exporter와 같은 모니터링 스택 구성 요소가 배포되지만 비활성화되어 수동으로 활성화해야 합니다.

사전 요구 사항

  • 부트스트랩 중에 --skip-dashboard 옵션으로 설치된 실행 중인 Red Hat Ceph Storage 클러스터
  • 대시보드를 활성화해야 하는 호스트에 대한 루트 수준 액세스.

프로세스

  1. Cephadm 쉘에 로그인합니다.

    [root@host01 ~]# cephadm shell

  2. Ceph Manager 서비스를 확인합니다.

    [ceph: root@host01 /]# ceph mgr services
    
    {
        "prometheus": "http://10.8.0.101:9283/"
    }

    대시보드 URL이 구성되지 않은 것을 확인할 수 있습니다.

  3. dashboard 모듈을 활성화합니다.

    [ceph: root@host01 /]# ceph mgr module enable dashboard

  4. 대시보드에 액세스할 수 있도록 자체 서명된 인증서를 만듭니다.

    [ceph: root@host01 /]# ceph dashboard create-self-signed-cert

    참고

    인증서 확인을 비활성화하여 인증 오류를 방지할 수 있습니다.

  5. Ceph Manager 서비스를 확인합니다.

    [ceph: root@host01 /]# ceph mgr services
    
    {
        "dashboard": "https://10.8.0.101:8443/",
        "prometheus": "http://10.8.0.101:9283/"
    }

  6. admin 사용자 및 암호를 생성하여 Red Hat Ceph Storage 대시보드에 액세스합니다.

    구문

    echo -n "PASSWORD" > PASSWORD_FILE
    ceph dashboard ac-user-create admin -i PASSWORD_FILE administrator

    [ceph: root@host01 /]# echo -n "p@ssw0rd" > password.txt
    [ceph: root@host01 /]# ceph dashboard ac-user-create admin -i password.txt administrator

  7. 모니터링 스택을 활성화합니다. 자세한 내용은 Red Hat Ceph Storage 대시보드 가이드모니터링 스택 활성화 섹션을 참조하십시오.

추가 리소스

2.11. 대시보드와 함께 SSO(Single Sign-On) 사용

Ceph 대시보드는 SAML(Security Assertion Markup Language) 2.0 프로토콜 또는 OAuth2 프록시(oauth2-proxy)를 사용하여 사용자의 외부 인증을 지원합니다. Ceph 대시보드에서SSO(Single Sign-On)를 사용하기 전에 대시보드 사용자 계정을 생성하고 필요한 역할을 할당합니다. Ceph 대시보드는 사용자 승인을 완료한 다음 기존IdP(Identity Provider)가 인증 프로세스를 완료합니다. SAML 프로토콜 또는 oauth2-proxy 를 사용하여 Single Sign-On을 활성화할 수 있습니다.

Red Hat Ceph Storage는 RHSSO(Keycloak)를 사용한 대시보드 SSO 및 Multi-Factor Authentication을 지원합니다.

OAuth2 SSO는 oauth2-proxy 서비스를 사용하여 Ceph 관리 게이트웨이(mgmt-gateway)에서 작동하므로 통합 액세스 및 향상된 사용자 환경을 제공합니다.

참고

OAuth2 SSO, mgmt-gatewayoauth2-proxy 서비스는 기술 프리뷰입니다.

Ceph 관리 게이트웨이 및 OAuth2 프록시 서비스에 대한 자세한 내용은 Ceph 관리 게이트웨이(mgmt-gateway) 및 OAuth2 프록시(oauth2-proxy) 서비스 사용을 참조하십시오.

Red Hat build of Keycloack에 대한 자세한 내용은 Red Hat 고객 포털에서 Red Hat build of Keycloak 을 참조하십시오.

2.11.1. 사용자를 Ceph 대시보드에 동기화하기 위한 관리자 계정 생성

사용자를 Ceph 대시보드에 동기화하려면 관리자 계정을 만들어야 합니다.

계정을 만든 후 Red Hat Single Sign-On(SSO)을 사용하여 사용자를 Ceph 대시보드에 동기화합니다. Red Hat Ceph Storage 대시보드 가이드의 Red Hat Single Sign-On 섹션을 사용하여 사용자를 Ceph 대시보드에 동기화합니다.

사전 요구 사항

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • 대시보드가 설치되어 있어야 합니다.
  • 대시보드에 대한 관리자 수준 액세스.
  • 사용자가 대시보드에 추가됩니다.
  • 모든 호스트에 대한 루트 수준 액세스.
  • Java OpenJDK가 설치되어 있어야 합니다. 자세한 내용은 Red Hat 고객 포털에서 OpenJDK용 OpenJDK용 OpenJDK 용 OpenJDK 설치 및 사용의 yum 섹션을 사용하여 RHEL에 JRE 설치 섹션을 참조하십시오.
  • Red hat Single Sign-On이 ZIP 파일에서 설치되어 있습니다. Red Hat 고객 포털의 Red Hat Single Sign -On 서버 설치 및 구성 가이드 의 ZIP 파일에서 RH-SSO 설치 섹션을 참조하십시오.

프로세스

  1. Red Hat Ceph Storage가 설치된 시스템에서 Red Hat Single Sign-On 7.4.0 서버 를 다운로드합니다.
  2. 폴더의 압축을 풉니다.

    [root@host01 ~]# unzip rhsso-7.4.0.zip
  3. standalone/configuration 디렉터리로 이동하고 편집을 위해 standalone.xml 을 엽니다.

    [root@host01 ~]# cd standalone/configuration
    [root@host01 configuration]# vi standalone.xml
  4. 새로 생성된 rhsso-7.4.0 폴더의 bin 디렉토리에서 add-user-keycloak 스크립트를 실행하여 초기 관리자를 추가합니다.

    [root@host01 bin]# ./add-user-keycloak.sh -u admin
  5. localhost 의 모든 인스턴스와 127.0.0.1 의 두 인스턴스를 Red Hat SSO가 설치된 시스템의 IP 주소로 바꿉니다.
  6. 서버를 시작합니다. rh-sso-7.4 폴더의 bin 디렉터리에서 독립 실행형 부팅 스크립트를 실행합니다.

    [root@host01 bin]# ./standalone.sh
  7. 사용자 이름과 암호를 사용하여 https: IP_ADDRESS :8080/auth에 관리자 계정을 생성합니다.

    참고

    콘솔에 처음 로그인할 때만 관리자 계정을 생성해야 합니다.

  8. 생성된 자격 증명을 사용하여 관리자 콘솔에 로그인합니다.

2.11.2. Red Hat Single Sign-On을 사용하여 사용자를 Ceph 대시보드에 동기화

LDAP(Lightweight Directory Access Protocol) 통합과 함께 SSO(Red Hat Single Sign-On)를 사용하여 사용자를 Red Hat Ceph Storage 대시보드와 동기화할 수 있습니다.

사용자는 암호의 추가 요구 사항 없이 SSO를 통해 대시보드에 액세스할 수 있는 특정 영역에 추가됩니다.

사전 요구 사항

프로세스

  1. 영역을 생성하려면 마스터 드롭다운 메뉴를 클릭합니다. 이 영역에서는 사용자와 애플리케이션에 대한 액세스를 제공할 수 있습니다.
  2. Add Cryostat 창에서 대/소문자 구분 영역 이름을 입력하고 매개 변수를 ON으로 설정하고 만들기를 클릭합니다.In the Add Cryostat window, enter a case-sensitive realm name and set the parameter Enabled to ON and click Create:.

    영역 창 추가
  3. Cryo stat 설정 탭에서 다음 매개변수를 설정하고 저장을 클릭합니다 :

    1. 활성화됨 - ON
    2. 사용자 관리 액세스 - ON
    3. 클라이언트 설정에 붙여넣을 SAML 2.0 ID 공급자 메타데이터의 링크 주소를 기록합니다.

      영역 설정 창 추가
  4. 클라이언트 탭에서 생성 을 클릭합니다.

    클라이언트 추가
  5. 클라이언트 추가 창에서 다음 매개변수를 설정하고 저장을 클릭합니다.

    1. 클라이언트 ID - BASE_URL:8443/auth/saml2/metadata

      https://example.ceph.redhat.com:8443/auth/saml2/metadata

    2. 클라이언트 프로토콜 - saml
  6. 클라이언트 창의 설정 탭에서 다음 매개변수를 설정합니다.

    표 2.2. 클라이언트 설정 탭
    매개변수의 이름구문

    클라이언트 ID

    BASE_URL:8443/auth/saml2/metadata

    https://example.ceph.redhat.com:8443/auth/saml2/metadata

    활성화됨

    ON

    ON

    클라이언트 프로토콜

    saml

    saml

    AuthnStatement 포함

    ON

    ON

    문서 서명

    ON

    ON

    서명 알고리즘

    RSA_SHA1

    RSA_SHA1

    SAML 서명 키 이름

    KEY_ID

    KEY_ID

    유효한 리디렉션 URL

    BASE_URL:8443/*

    https://example.ceph.redhat.com:8443/*

    기본 URL

    BASE_URL:8443

    https://example.ceph.redhat.com:8443/

    마스터 SAML 처리 URL

    https://localhost:8080/auth/realms/realM_NAME/protocol/saml/descriptor

    https://localhost:8080/auth/realms/Ceph_LDAP/protocol/saml/descriptor

    참고

    Cryostat 설정 탭에서 SAML 2.0 ID 공급자 메타데이터 링크를 붙여넣습니다.

    Fine Grain SAML Endpoint Configuration에서 다음 매개변수를 설정하고 저장을 클릭합니다.

    표 2.3. 고급 Grain SAML 구성
    매개변수의 이름구문

    어설션 소비자 서비스 POST 바인딩 URL

    BASE_URL:8443/#/dashboard

    https://example.ceph.redhat.com:8443/#/dashboard

    어설션 소비자 서비스 리디렉션 바인딩 URL

    BASE_URL:8443/#/dashboard

    https://example.ceph.redhat.com:8443/#/dashboard

    로그 아웃 서비스 리디렉션 바인딩 URL

    BASE_URL:8443/

    https://example.ceph.redhat.com:8443/

  7. 클라이언트 창에서 Mappers 탭에서 다음 매개변수를 설정하고 저장을 클릭합니다.

    표 2.4. 클라이언트 매퍼 탭
    매개변수의 이름현재의

    프로토콜

    saml

    이름

    사용자 이름

    매퍼 속성

    사용자 속성

    속성

    사용자 이름

    SAML 속성 이름

    사용자 이름

  8. 클라이언트 범위 탭에서 role_list:을 선택합니다.

    1. Mappers 탭에서 역할 목록을 선택하고 단일 역할 속성을 ON으로 설정합니다.
  9. User_Federation 탭을 선택합니다.

    1. 사용자 페더레이션 창의 드롭다운 메뉴에서 ldap 를 선택합니다.
    2. User_Federation 창에서 설정 탭에서 다음 매개변수를 설정하고 저장을 클릭합니다.

      표 2.5. 사용자 페더레이션 설정 탭
      매개변수의 이름현재의

      콘솔 표시 이름

      rh-ldap

      사용자 가져오기

      ON

      Edit_Mode

      READ_ONLY

      사용자 이름 LDAP 속성

      사용자 이름

      RDN LDAP 특성

      사용자 이름

      UUID LDAP 속성

      nsuniqueid

      사용자 오브젝트 클래스

      inetOrgPerson, organizationalPerson, rhatPerson

      연결 URL

      예: ldap://ldap.corp.redhat.com에서 테스트 연결을 클릭합니다. LDAP 연결에 성공했다는 알림이 표시됩니다.

      사용자 DN

      ou=users, dc=example, dc=com

      바인딩 유형

      simple

      인증 테스트를 클릭합니다. LDAP 인증이 성공했다는 알림이 표시됩니다.

    3. Mappers 탭에서 첫 번째 이름 행을 선택하고 다음 매개변수를 편집하고 저장을 클릭합니다.

      • LDAP 속성 - givenName
    4. User_Federation 탭에서 설정 탭에서 모든 사용자 동기화 를 클릭합니다.

      사용자 페더레이션 동기화

      사용자 동기화가 성공적으로 완료되었다는 알림이 표시됩니다.

  10. 사용자 탭에서 대시보드에 추가된 사용자를 검색하고 검색 아이콘을 클릭합니다.

    사용자 검색 탭
  11. 사용자를 보려면 특정 행을 클릭합니다. 페더레이션 링크가 사용자 페더레이션 에 제공된 이름으로 표시되어야 합니다.

    사용자 세부 정보
    중요

    사용자가 LDAP에서 동기화되지 않으므로 사용자를 수동으로 추가하지 마십시오. 수동으로 추가하는 경우 삭제를 클릭하여 사용자를 삭제합니다.

    참고

    Red Hat SSO가 현재 작업 환경에서 사용 중인 경우 먼저 SSO를 활성화해야 합니다. 자세한 내용은 Red Hat Ceph Storage 대시보드 가이드의 Ceph 대시보드용 SAMLE 2.0을 사용하여 Single Sign-On 활성화 섹션을 참조하십시오.

검증

  • 영역에 추가된 사용자는 대시보드가 메일 주소와 암호를 사용하여 Ceph 대시보드에 액세스할 수 있습니다.

    https://example.ceph.redhat.com:8443

추가 리소스

2.11.3. Ceph 대시보드의 SAML 2.0으로 SSO(Single Sign-On) 활성화

Ceph 대시보드는 SAML(Security Assertion Markup Language) 2.0 프로토콜을 사용하는 사용자의 외부 인증을 지원합니다. Ceph 대시보드에 SSO(Single Sign-On)를 사용하기 전에 대시보드 사용자 계정을 만들고 원하는 역할을 할당합니다. Ceph 대시보드는 사용자에게 권한을 부여하고 인증 프로세스는 기존 IdM(Identity Provider)에서 수행합니다. SAML 프로토콜을 사용하여 Single Sign-On을 활성화할 수 있습니다.

사전 요구 사항

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • Ceph 대시보드 설치.
  • Ceph Manager 호스트에 대한 루트 수준 액세스.

프로세스

  1. Ceph 대시보드에서 SSO를 구성하려면 다음 명령을 실행합니다.

    구문

    cephadm shell CEPH_MGR_HOST ceph dashboard sso setup saml2 CEPH_DASHBOARD_BASE_URL IDP_METADATA IDP_USERNAME_ATTRIBUTE IDP_ENTITY_ID SP_X_509_CERT SP_PRIVATE_KEY

    [root@host01 ~]# cephadm shell host01 ceph dashboard sso setup saml2 https://dashboard_hostname.ceph.redhat.com:8443 idp-metadata.xml username https://10.70.59.125:8080/auth/realms/realm_name /home/certificate.txt /home/private-key.txt

    대체 버전

    • Ceph mgr 호스트가 있는 CEPH_MGR_HOST. 예: host01
    • Ceph 대시보드에 액세스할 수 있는 기본 URL이 있는 CEPH_DASHBOARD_BASE_URL.
    • IDP_METADATA 와 원격 경로 또는 IdP 메타데이터 XML 콘텐츠에 대한 URL입니다. 지원되는 URL 유형은 http, https 및 file입니다.
    • 선택 사항:IDP_USERNAME_ATTRIBUTE 인증 응답에서 사용자 이름을 가져오는 데 사용되는 속성입니다. 기본값은 uid 입니다.
    • 선택 사항: IdP 메타데이터에 둘 이상의 엔터티 ID가 있는 경우 IdP 엔터티 ID가 있는IDP_ENTITY_ID 입니다.
    • 선택 사항:SP_X_509_CERT 와 서명 및 암호화에 Ceph Dashboard에서 사용하는 인증서의 파일 경로가 포함됩니다.
    • 선택 사항: 서명 및 암호화에 Ceph Dashboard에서 사용하는 개인 키의 파일 경로가 있는SP_PRIVATE_KEY 입니다.
  2. 현재 SAML 2.0 구성을 확인합니다.

    구문

    cephadm shell CEPH_MGR_HOST ceph dashboard sso show saml2

    [root@host01 ~]#  cephadm shell host01 ceph dashboard sso show saml2

  3. SSO를 활성화하려면 다음 명령을 실행합니다.

    구문

    cephadm shell CEPH_MGR_HOST ceph dashboard sso enable saml2
    SSO is "enabled" with "SAML2" protocol.

    [root@host01 ~]#  cephadm shell host01 ceph dashboard sso enable saml2

  4. 대시보드 URL을 엽니다.

    https://dashboard_hostname.ceph.redhat.com:8443

  5. SSO 페이지에서 로그인 자격 증명을 입력합니다. SSO는 대시보드 웹 인터페이스로 리디렉션됩니다.

추가 리소스

2.11.4. OAuth2 Single Sign-On 활성화 (기술 프리뷰)

Ceph 대시보드에 대해 OAuth2 SSO(Single Sign-On)를 활성화합니다. OAuth2 SSO는 oauth2-proxy 서비스를 사용합니다.

중요

기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있으며 Red Hat은 해당 기능을 프로덕션용으로 사용하지 않는 것이 좋습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다. 자세한 내용은 Red Hat 기술 프리뷰 기능에 대한 지원 범위를 참조하십시오.

사전 요구 사항

시작하기 전에 다음 사전 요구 사항이 있는지 확인하십시오.

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • Ceph 대시보드 설치.
  • Ceph Manager 호스트에 대한 루트 수준 액세스.
  • 7.6.0에서 Red Hat Single-Sign on의 관리자 계정. 자세한 내용은 Red Hat Single Sign-On 7.6.0을 사용하여 관리자 계정 생성 을 참조하십시오.
  • Ceph 관리 게이트웨이(mgmt-gateway) 서비스를 활성화합니다. 자세한 내용은 Ceph 관리 게이트웨이 활성화를 참조하십시오.
  • OAuth2 프록시 서비스(oauth2-proxy)를 활성화합니다. 자세한 내용은 OAuth2 프록시 서비스 활성화를 참조하십시오.

프로세스

  1. Ceph 대시보드 OAuth2 SSO 액세스를 활성화합니다.

    구문

    ceph dashboard sso enable oauth2

    예제

    [ceph: root@host01 /]# ceph dashboard sso enable oauth2
    SSO is "enabled" with "oauth2" protocol.

  2. 유효한 리디렉션 URL을 설정합니다.

    구문

    https://HOST_NAME|IP_ADDRESS/oauth2/callback

    참고

    이 URL은 OAuth2 프록시 서비스에 구성된 것과 동일한 리디렉션 URL이어야 합니다.

  3. 유효한 사용자 역할을 구성합니다.

    참고

    Administrator 역할의 경우 관리자 또는 읽기 전용 액세스 권한을 사용하여 IDP 사용자를 구성합니다.

  4. 대시보드 URL을 엽니다.

    예제

    https://dashboard_hostname.ceph.redhat.com:8443

  5. SSO 페이지에서 로그인 자격 증명을 입력합니다. SSO는 대시보드 웹 인터페이스로 리디렉션됩니다.

검증

cephadm shell ceph dashboard sso status 명령을 사용하여 언제든지 SSO 상태를 확인합니다.

예제

[root@host01 ~]# cephadm shell ceph dashboard sso status
SSO is "enabled" with "oauth2" protocol.

2.11.5. Ceph 대시보드의 SSO(Single Sign-On) 비활성화

언제든지 Ceph 대시보드에 대해 SAML 2.0 및 OAuth2 SSO를 비활성화할 수 있습니다.

사전 요구 사항

시작하기 전에 다음 사전 요구 사항이 있는지 확인하십시오.

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • Ceph 대시보드 설치.
  • Ceph Manager 호스트에 대한 루트 수준 액세스.
  • Ceph 대시보드에 대해 SSO(Single Sign-On) 활성화

프로세스

  1. SSO의 상태를 보려면 다음 명령을 실행합니다.

    구문

    cephadm shell CEPH_MGR_HOST ceph dashboard sso status

    예제

    [root@host01 ~]#  cephadm shell host01 ceph dashboard sso status
    SSO is "enabled" with "SAML2" protocol.

  2. SSO를 비활성화하려면 다음 명령을 실행합니다.

    구문

    cephadm shell CEPH_MGR_HOST ceph dashboard sso disable
    SSO is "disabled".

    예제

    [root@host01 ~]#  cephadm shell host01 ceph dashboard sso disable

3장. Ceph 대시보드에서 역할 관리

스토리지 관리자는 대시보드에서 역할을 생성, 편집, 복제 및 삭제할 수 있습니다.

기본적으로 시스템 역할은 8개입니다. 사용자 지정 역할을 생성하고 해당 역할에 대한 권한을 부여할 수 있습니다. 이러한 역할은 요구 사항에 따라 사용자에게 할당할 수 있습니다.

이 섹션에서는 다음 관리 작업에 대해 설명합니다.

3.1. Ceph 대시보드에 대한 사용자 역할 및 권한

사용자 계정은 액세스할 수 있는 특정 대시보드 기능을 정의하는 역할 세트와 연결됩니다. 대시보드 설정으로 이동하여 사용자 역할 및 권한을 봅니다. 사용자 관리.

Red Hat Ceph Storage 대시보드 기능 또는 모듈은 보안 범위 내에서 그룹화됩니다. 보안 범위는 사전 정의 및 정적입니다. Red Hat Ceph Storage 대시보드에서 현재 사용 가능한 보안 범위는 다음과 같습니다.

  • CephFS: CephFS 관리와 관련된 모든 기능을 포함합니다.
  • config-opt: Ceph 구성 옵션과 관련된 모든 기능을 포함합니다.
  • dashboard-settings: 대시보드 설정을 편집할 수 있습니다.
  • Grafana: Grafana 프록시와 관련된 모든 기능을 포함합니다.
  • hosts: Hosts 메뉴 항목과 관련된 모든 기능을 포함합니다.
  • log: Ceph 로그 관리와 관련된 모든 기능을 포함합니다.
  • Manager : Ceph 관리자 관리와 관련된 모든 기능이 포함되어 있습니다.
  • Monitor : Ceph 모니터 관리와 관련된 모든 기능이 포함되어 있습니다.
  • nfs-ganesha: NFS-Ganesha 관리와 관련된 모든 기능을 포함합니다.
  • OSD: OSD 관리와 관련된 모든 기능을 포함합니다.
  • Pool : 풀 관리와 관련된 모든 기능을 포함합니다.
  • Prometheus: Prometheus 경고 관리와 관련된 모든 기능을 포함합니다.
  • RBD-image: RBD 이미지 관리와 관련된 모든 기능을 포함합니다.
  • RBD-mirroring: RBD 미러링 관리와 관련된 모든 기능을 포함합니다.
  • rgw: Ceph 개체 게이트웨이(RGW) 관리와 관련된 모든 기능을 포함합니다.

역할은 보안 범위와 권한 집합 간의 매핑 세트를 지정합니다. 권한 유형에는 네 가지 유형이 있습니다.

  • 읽기
  • 개발
  • 업데이트
  • delete
보안 범위 및 권한

시스템 역할 목록은 다음과 같습니다.

  • Administrator: 모든 보안 범위에 대한 전체 권한을 허용합니다.
  • block-manager: RBD-image 및 RBD-mirroring 범위에 대한 전체 권한을 허용합니다.
  • CephFS-manager: Ceph 파일 시스템 범위에 대한 전체 권한을 허용합니다.
  • cluster-manager: 호스트, OSD, 모니터, 관리자 및 config-opt 범위에 대한 전체 권한을 허용합니다.
  • Ganesha-manager: NFS-Ganesha 범위에 대한 전체 권한을 허용합니다.
  • pool-manager: 풀 범위에 대한 전체 권한을 허용합니다.
  • 읽기 전용: 대시보드 설정 및 config- opt 범위를 제외한 모든 보안 범위에 대한 읽기 권한을 허용합니다.
  • rgw-manager: Ceph 오브젝트 게이트웨이 범위에 대한 전체 권한을 허용합니다.
시스템 역할

예를 들어 모든 Ceph 개체 게이트웨이 작업에 대해 사용자에게 rgw-manager 액세스를 제공해야 합니다.

3.2. Ceph 대시보드에서 역할 생성

대시보드에서 사용자 지정 역할을 생성할 수 있으며 이러한 역할은 역할에 따라 사용자에게 할당할 수 있습니다.

사전 요구 사항

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • 대시보드가 설치되어 있어야 합니다.
  • 대시보드에 대한 관리자 수준 액세스.

프로세스

  1. 대시보드에 로그인합니다.
  2. 대시보드 설정 아이콘을 클릭한 다음 사용자 관리를 클릭합니다.

    사용자 관리
  3. 역할 탭에서 생성 을 클릭합니다.
  4. 역할 생성 창에서 이름,설명 을 설정하고 이 역할에 대한 권한을 선택한 다음 Create Role (역할 만들기) 버튼을 클릭합니다.

    역할 창 생성

    이 예에서 ganesha-managerrgw-manager 역할로 할당된 사용자는 모든 NFS-Ganesha 게이트웨이 및 Ceph 오브젝트 게이트웨이 작업을 관리할 수 있습니다.

  5. 역할이 성공적으로 생성되었음을 알리는 알림이 표시됩니다.
  6. 행의 Expand/Collapse 아이콘을 클릭하여 역할에 제공된 세부 정보 및 권한을 확인합니다.

추가 리소스

3.3. Ceph 대시보드에서 역할 편집

대시보드를 사용하면 대시보드에서 역할을 편집할 수 있습니다.

사전 요구 사항

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • 대시보드가 설치되어 있어야 합니다.
  • 대시보드에 대한 관리자 수준 액세스.
  • 대시보드에 역할이 생성됩니다.

프로세스

  1. 대시보드에 로그인합니다.
  2. 대시보드 설정 아이콘을 클릭한 다음 사용자 관리를 클릭합니다.

    사용자 관리
  3. 역할 탭에서 편집할 역할을 클릭합니다.
  4. 역할 편집 창에서 매개 변수를 편집한 다음 역할 편집을 클릭합니다.

    역할 창 편집
  5. 역할이 성공적으로 업데이트되었다는 알림이 표시됩니다.

추가 리소스

3.4. Ceph 대시보드에서 역할 복제

기존 역할에 추가 권한을 할당하려면 시스템 역할을 복제하고 Red Hat Ceph Storage 대시보드에서 편집할 수 있습니다.

사전 요구 사항

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • 대시보드가 설치되어 있어야 합니다.
  • 대시보드에 대한 관리자 수준 액세스.
  • 역할은 대시보드에서 생성됩니다.

프로세스

  1. 대시보드에 로그인합니다.
  2. 대시보드 설정 아이콘을 클릭한 다음 사용자 관리를 클릭합니다.

    사용자 관리
  3. 역할 탭에서 복제할 역할을 클릭합니다.
  4. 편집 드롭다운 메뉴에서 Clone 을 선택합니다.
  5. 역할 복제 대화 상자에 역할에 대한 세부 정보를 입력한 다음 복제 역할을 클릭합니다.

    역할 창 삭제
  6. 역할을 복제하면 요구 사항에 따라 권한을 사용자 지정할 수 있습니다.

추가 리소스

3.5. Ceph 대시보드에서 역할 삭제

Red Hat Ceph Storage 대시보드에서 생성한 사용자 지정 역할을 삭제할 수 있습니다.

참고

Ceph 대시보드의 시스템 역할을 삭제할 수 없습니다.

사전 요구 사항

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • 대시보드가 설치되어 있어야 합니다.
  • 대시보드에 대한 관리자 수준 액세스.
  • 대시보드에 사용자 지정 역할이 생성됩니다.

프로세스

  1. 대시보드에 로그인합니다.
  2. 대시보드 설정 아이콘을 클릭한 다음 사용자 관리를 선택합니다.

    사용자 관리
  3. 역할 탭의 삭제할 역할을 클릭하고 작업 드롭다운에서 삭제 를 선택합니다.
  4. 역할 삭제 알림에서 예를 선택하고 역할 삭제 를 클릭합니다.

추가 리소스

4장. Ceph 대시보드에서 사용자 관리

스토리지 관리자는 Red Hat Ceph Storage 대시보드에서 특정 역할이 있는 사용자를 생성, 편집 및 삭제할 수 있습니다. 역할 기반 액세스 제어는 역할 및 요구 사항에 따라 각 사용자에게 제공됩니다.

대시보드에서 Ceph 클라이언트 인증 키를 생성, 편집, 가져오기, 내보내기 및 삭제할 수도 있습니다. 인증 키를 생성하면 CLI(명령줄 인터페이스)를 사용하여 키를 교체할 수 있습니다. 키 교체는 현재 산업 및 보안 준수 요구 사항을 충족합니다.

이 섹션에서는 다음 관리 작업에 대해 설명합니다.

4.1. Ceph 대시보드에서 사용자 만들기

해당 역할에 따라 적절한 역할 및 권한으로 Red Hat Ceph Storage 대시보드에서 사용자를 생성할 수 있습니다. 예를 들어 사용자가 Ceph 개체 게이트웨이 작업을 관리하도록 하려면 rgw-manager 역할을 사용자에게 부여할 수 있습니다.

사전 요구 사항

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • 대시보드가 설치되어 있어야 합니다.
  • 대시보드에 대한 관리자 수준 액세스.
참고

Red Hat Ceph Storage 대시보드는 사용자 암호를 변경할 때 이메일 확인을 지원하지 않습니다. 대시보드는 SSO(Single Sign-On)를 지원하며 이 기능을 SSO 공급자에 위임할 수 있기 때문에 이 동작은 의도적입니다.

프로세스

  1. 대시보드에 로그인합니다.
  2. 대시보드 설정 아이콘을 클릭한 다음 사용자 관리를 클릭합니다.

    사용자 관리
  3. 사용자 탭에서 생성 을 클릭합니다.
  4. 사용자 생성 창에서 사용자 이름 및 역할을 포함한 기타 매개 변수를 설정한 다음 Create User 를 클릭합니다.

    사용자 창 생성
  5. 사용자가 성공적으로 생성되었음을 알리는 알림이 표시됩니다.

추가 리소스

4.2. Ceph 대시보드에서 사용자 편집

Red Hat Ceph Storage 대시보드에서 사용자를 편집할 수 있습니다. 요구 사항에 따라 사용자의 암호 및 역할을 수정할 수 있습니다.

사전 요구 사항

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • 대시보드가 설치되어 있어야 합니다.
  • 대시보드에 대한 관리자 수준 액세스.
  • 대시보드에서 생성된 사용자입니다.

프로세스

  1. 대시보드에 로그인합니다.
  2. 대시보드 설정 아이콘을 클릭한 다음 사용자 관리를 클릭합니다.

    사용자 관리
  3. 사용자를 편집하려면 행을 클릭합니다.
  4. 사용자 탭의 편집 드롭다운 메뉴에서 편집을 선택합니다.
  5. 사용자 편집 창에서 암호 및 역할과 같은 매개 변수를 편집한 다음 사용자 편집을 클릭합니다.

    사용자 창 편집
    참고

    Ceph 대시보드에 대한 사용자 액세스를 비활성화하려면 사용자 편집 창에서 Enabled 옵션을 선택 해제할 수 있습니다.

  6. 사용자가 성공적으로 생성되었음을 알리는 알림이 표시됩니다.

추가 리소스

4.3. Ceph 대시보드에서 사용자 삭제

Ceph 대시보드에서 사용자를 삭제할 수 있습니다. 일부 사용자는 시스템에서 제거될 수 있습니다. 이러한 사용자에 대한 액세스는 Ceph 대시보드에서 삭제할 수 있습니다.

사전 요구 사항

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • 대시보드가 설치되어 있어야 합니다.
  • 대시보드에 대한 관리자 수준 액세스.
  • 대시보드에서 생성된 사용자입니다.

프로세스

  1. 대시보드에 로그인합니다.
  2. 대시보드 설정 아이콘을 클릭한 다음 사용자 관리를 클릭합니다.

    사용자 관리
  3. 사용자 탭에서 삭제할 사용자를 클릭합니다.
  4. 편집 드롭다운 메뉴에서 삭제 를 선택합니다.
  5. 사용자 알림 삭제 에서 예, 확인을 선택하고 사용자 삭제 를 클릭합니다.

    사용자 창 삭제

추가 리소스

4.4. 사용자 기능

Ceph는 사용된 Ceph 클라이언트와 관계없이 풀 내에 데이터 RADOS 오브젝트를 저장합니다. Ceph 사용자는 데이터를 읽고 쓸 수 있는 지정된 풀에 액세스할 수 있어야 하며 Ceph 관리 명령을 사용하려면 실행 권한이 있어야 합니다. 사용자를 생성하면 Red Hat Ceph Storage 클러스터, 해당 풀 및 풀 내의 데이터에 대한 액세스를 제어할 수 있습니다.

Ceph에는 항상 클라이언트 인 사용자 유형의 개념이 있습니다. TYPE. ID로 사용자를 정의해야 합니다. 여기서ID 는 사용자 ID입니다(예: client.admin ). 이 사용자 유형은 Cephx 프로토콜이 클라이언트뿐만 아니라 Ceph 모니터, OSD 및 메타데이터 서버와 같은 비 클라이언트도 사용하기 때문입니다. 사용자 유형을 구분하면 클라이언트 사용자와 다른 사용자를 구분하는 데 도움이 됩니다. 이러한 차이점은 액세스 제어, 사용자 모니터링 및 추적 가능성을 간소화합니다.

4.4.1. capabilities

Ceph는 기능(caps)을 사용하여 모니터, OSD 및 메타데이터 서버의 기능을 수행하기 위해 인증된 사용자에게 부여된 권한을 설명합니다. 기능은 풀 내 데이터, 풀 내 네임스페이스 또는 애플리케이션 태그를 기반으로 하는 풀 세트에 대한 액세스를 제한합니다. Ceph 관리 사용자는 사용자를 생성하거나 업데이트할 때 사용자의 기능을 지정합니다.

모니터, 관리자, OSD 및 메타데이터 서버에 대한 기능을 설정할 수 있습니다.

  • Ceph Monitor 기능에는 r,w, x 액세스 설정이 포함됩니다. 이는 profile NAME 을 사용하여 사전 정의된 프로필의 집계에 적용할 수 있습니다.
  • OSD 기능에는 r,w,x,class-read, class-write 액세스 설정이 포함됩니다. 이는 profile NAME 을 사용하여 사전 정의된 프로필의 집계에 적용할 수 있습니다.
  • Ceph Manager 기능에는 r,w, x 액세스 설정이 포함됩니다. 이는 profile NAME 을 사용하여 사전 정의된 프로필의 집계에 적용할 수 있습니다.
  • 관리자의 경우 메타데이터 서버(MDS) 기능에는 허용 * 이 포함됩니다.
참고

Ceph Object Gateway 데몬(radosgw)은 Red Hat Ceph Storage 클러스터의 클라이언트이며 Ceph 스토리지 클러스터 데몬 유형으로 표시되지 않습니다.

추가 리소스

4.5. 액세스 기능

이 섹션에서는 Ceph 사용자 또는 블록 장치, 오브젝트 스토리지, 파일 시스템 및 기본 API와 같은 Ceph 클라이언트에 제공할 수 있는 다양한 액세스 또는 엔티티 기능에 대해 설명합니다.

또한 클라이언트에 역할을 할당하는 동안 기능 프로필을 설명할 수 있습니다.

allow, 설명
데몬의 액세스 설정 우선 순위를 지정합니다. MDS에 대해서만 rw 를 의미합니다.
r, 설명
사용자에게 읽기 액세스 권한을 부여합니다. CRUSH 맵을 검색하는 데 모니터에 필요합니다.
w, 설명
사용자에게 오브젝트에 대한 쓰기 액세스 권한을 부여합니다.
x, 설명
사용자에게 클래스 메서드(즉, 읽기쓰기 등)를 호출하고 모니터에서 auth 작업을 수행할 수 있는 기능을 제공합니다.
class-read, 설명
사용자에게 클래스 읽기 메서드를 호출할 수 있는 기능을 제공합니다. x 의 하위 집합 .
class-write, 설명
사용자에게 클래스 쓰기 메서드를 호출할 수 있는 기능을 제공합니다. x 의 하위 집합 .
*, 모두, 설명
사용자에게 특정 데몬 또는 풀에 대한 읽기,쓰기실행 권한과 관리자 명령을 실행할 수 있는 기능을 제공합니다.

다음 항목은 유효한 기능 프로필을 설명합니다.

프로파일 osd, 설명
이는 Ceph 모니터에만 적용됩니다. OSD로 다른 OSD 또는 모니터에 연결할 수 있는 권한을 사용자에게 제공합니다. OSD에서 유추하여 OSD에서 복제 하트비트 트래픽 및 상태 보고를 처리할 수 있습니다.
프로필 mds, 설명
이는 Ceph 모니터에만 적용됩니다. MDS로 다른 MDS 또는 모니터에 연결할 수 있는 권한을 사용자에게 제공합니다.
프로파일 bootstrap-osd, 설명
이는 Ceph 모니터에만 적용됩니다. 사용자에게 OSD를 부트스트랩할 수 있는 권한을 제공합니다. OSD를 부트스트랩할 때 키를 추가할 수 있도록 ceph-volumecephadm 과 같은 배포 도구에서 유추되었습니다.
프로파일 bootstrap-mds, 설명
이는 Ceph 모니터에만 적용됩니다. 사용자에게 메타데이터 서버를 부트스트랩할 수 있는 권한을 제공합니다. 메타데이터 서버를 부트스트랩할 때 키를 추가할 수 있도록 cephadm 과 같은 배포 도구에서 유추되었습니다.
프로파일 bootstrap-rbd, 설명
이는 Ceph 모니터에만 적용됩니다. 사용자에게 RBD 사용자를 부트스트랩할 수 있는 권한을 제공합니다. RBD 사용자를 부트스트랩할 때 키를 추가할 수 있도록 cephadm 과 같은 배포 도구에서 유추되었습니다.
프로파일 bootstrap-rbd-mirror, 설명
이는 Ceph 모니터에만 적용됩니다. rbd-mirror 데몬 사용자를 부트스트랩할 수 있는 권한을 사용자에게 제공합니다. rbd-mirror 데몬을 부트스트랩할 때 키를 추가할 수 있도록 cephadm 과 같은 배포 도구에서 유추되었습니다.
rbd 프로필, 설명
이는 Ceph Monitor, Ceph Manager, Ceph OSD에 적용됩니다. 사용자에게 RBD 이미지를 조작할 수 있는 권한을 제공합니다. Monitor cap을 사용하면 RBD 클라이언트 애플리케이션에 필요한 최소한의 권한을 사용자에게 제공합니다. 이러한 권한에는 다른 클라이언트 사용자를 차단하는 기능이 포함됩니다. OSD 제한으로 사용하면 RBD 클라이언트 애플리케이션에 지정된 풀에 대한 읽기-쓰기 액세스 권한이 제공됩니다. Manager 제한에서는 선택적 namespace 키워드 인수를 지원합니다.
rbd-mirror 프로필, 설명
이는 Ceph 모니터에만 적용됩니다. 사용자에게 RBD 이미지를 조작하고 RBD 미러링 config-key 시크릿을 검색할 수 있는 권한을 제공합니다. 사용자가 rbd-mirror 데몬을 조작하는 데 필요한 최소한의 권한을 제공합니다.
profile rbd-read-only, 설명
이는 Ceph Monitor 및 Ceph OSDS에 적용됩니다. RBD 이미지에 대한 읽기 전용 권한을 사용자에게 부여합니다. Manager 제한에서는 선택적 namespace 키워드 인수를 지원합니다.
simple-rados-client 프로필, 설명
이는 Ceph 모니터에만 적용됩니다. 모니터, OSD 및 PG 데이터에 대한 읽기 전용 권한을 사용자에게 제공합니다. 직접 librados 클라이언트 애플리케이션에서 사용하도록 설계되었습니다.
simple-rados-client-with-blocklist 프로필, 설명
이는 Ceph 모니터에만 적용됩니다. 모니터, OSD 및 PG 데이터에 대한 읽기 전용 권한을 사용자에게 제공합니다. 직접 librados 클라이언트 애플리케이션에서 사용하도록 설계되었습니다. HA(고가용성) 애플리케이션을 구축하기 위해 blocklist 항목을 추가할 수 있는 권한도 포함되어 있습니다.
fs-client 프로필, 설명
이는 Ceph 모니터에만 적용됩니다. 모니터, OSD, PG 및 MDS 데이터에 대한 읽기 전용 권한을 사용자에게 제공합니다. CephFS 클라이언트용입니다.
프로필 role-definer, 설명
이는 Ceph Monitor 및 Auth에 적용됩니다. auth 하위 시스템에 대한 모든 권한, 모니터에 대한 읽기 전용 액세스, 기타 없음에 대한 모든 권한을 부여합니다. 자동화 툴에 유용합니다. 경고: 보안 RAM이 실질적이고 확산되기 때문에 실제로 무엇을 하고 있는지 알고 있지 않는 한 이 값을 할당하지 마십시오.
프로필 충돌, 설명
이는 Ceph Monitor 및 Ceph Manager에 적용됩니다. 사용자에게 모니터에 대한 읽기 전용 액세스 권한을 부여합니다. 나중에 분석을 위해 manager 크래시 모듈과 함께 데몬 크래시 덤프를 모니터링 스토리지에 업로드하는 데 사용됩니다.

추가 리소스

4.6. 사용자 기능 생성

Ceph 대시보드에서 다양한 기능을 사용하여 역할 기반 액세스 사용자를 만듭니다.

다양한 사용자 기능에 대한 자세한 내용은 사용자 기능 및 액세스 기능을 참조하십시오.

사전 요구 사항

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • 대시보드가 설치되어 있어야 합니다.
  • 대시보드에 대한 관리자 수준 액세스.

프로세스

  1. 대시보드 탐색에서 Administration toCeph Users 로 이동합니다.
  2. 생성을 클릭합니다.
  3. 사용자 생성 양식에서 다음 세부 정보를 제공합니다.

    1. 사용자 엔티티: 유형 .ID 를 입력합니다.
    2. 엔티티: mon,mgr,osd 또는 mds 일 수 있습니다.
    3. 엔터티 기능: 사용자에게 제공할 수 있는 기능을 입력합니다. 예를 들어 '허용 *' 및 프로파일 충돌 은 클라이언트에 할당할 수 있는 일부 기능입니다.

      참고

      요구 사항에 따라 사용자에게 더 많은 엔터티를 추가할 수 있습니다.

      사용자 기능 생성
  4. 사용자 생성을 클릭합니다.

    사용자가 성공적으로 생성되었음을 알리는 알림이 표시됩니다.

4.7. 사용자 기능 편집

대시보드에서 사용자 또는 클라이언트의 역할을 편집합니다.

다양한 사용자 기능에 대한 자세한 내용은 사용자 기능 및 액세스 기능을 참조하십시오.

사전 요구 사항

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • 대시보드가 설치되어 있어야 합니다.
  • 대시보드에 대한 관리자 수준 액세스.

프로세스

  1. 대시보드 탐색에서 Administration toCeph Users 로 이동합니다.
  2. 편집할 역할을 가진 사용자를 선택합니다.
  3. 편집을 클릭합니다.
  4. 필요에 따라 사용자 편집 양식에서 엔터티엔터티 기능을 편집합니다.

    참고

    요구 사항에 따라 사용자에게 더 많은 엔터티를 추가할 수 있습니다.

  5. 사용자 편집을 클릭합니다.

    사용자가 성공적으로 편집되었음을 알리는 알림이 표시됩니다.

4.8. 사용자 기능 가져오기

로컬 호스트에서 대시보드의 클라이언트로 사용자 또는 클라이언트의 역할을 가져옵니다.

다양한 사용자 기능에 대한 자세한 내용은 사용자 기능 및 액세스 기능을 참조하십시오.

사전 요구 사항

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • 대시보드가 설치되어 있어야 합니다.
  • 대시보드에 대한 관리자 수준 액세스.

프로세스

  1. 로컬 호스트에 인증 키 파일을 생성합니다.

    [localhost:~]$ cat import.keyring
    
    [client.test11]
    	key = AQD9S29kmjgJFxAAkvhFar6Af3AWKDY2DsULRg==
    	caps mds = "allow *"
    	caps mgr = "allow *"
    	caps mon = "allow *"
    	caps osd = "allow r"

  2. 대시보드 탐색에서 Administration toCeph Users 로 이동합니다.
  3. 내보낼 역할을 가진 사용자를 선택합니다.
  4. EditImport를 선택합니다.
  5. 사용자 가져오기 양식에서 파일 선택을 클릭합니다.
  6. 로컬 호스트의 파일을 찾아.
  7. 사용자 가져오기 를 클릭합니다.

    사용자 기능 가져오기

    키를 가져왔다는 알림이 표시됩니다.

4.9. 사용자 기능 내보내기

대시보드에서 로컬 호스트로 사용자 또는 클라이언트의 역할을 내보냅니다.

다양한 사용자 기능에 대한 자세한 내용은 사용자 기능 및 액세스 기능을 참조하십시오.

사전 요구 사항

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • 대시보드가 설치되어 있어야 합니다.
  • 대시보드에 대한 관리자 수준 액세스.

프로세스

  1. 대시보드 탐색에서 Administration toCeph Users 로 이동합니다.
  2. 내보낼 역할을 가진 사용자를 선택합니다.
  3. 작업 드롭다운에서 내보내기 를 선택합니다.
  4. Ceph 사용자 내보내기 데이터 대화 상자에서 Copy to clipboard board를 클릭합니다.

    사용자 기능 내보내기

    키가 성공적으로 복사됨이라는 알림이 표시됩니다.

  5. 로컬 시스템에서 키 링 파일을 생성하고 키를 붙여넣습니다.

    [localhost:~]$ cat exported.keyring
    
    [client.test11]
    	key = AQD9S29kmjgJFxAAkvhFar6Af3AWKDY2DsULRg==
    	caps mds = "allow *"
    	caps mgr = "allow *"
    	caps mon = "allow *"
    	caps osd = "allow r"

  6. 닫기를 클릭합니다.

4.10. 사용자 기능 삭제

대시보드에서 사용자 또는 클라이언트의 역할을 삭제합니다.

사전 요구 사항

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • 대시보드가 설치되어 있어야 합니다.
  • 대시보드에 대한 관리자 수준 액세스.

프로세스

  1. 대시보드 탐색에서 Administration toCeph Users 로 이동합니다.
  2. 삭제할 사용자를 선택하고 작업 드롭다운에서 삭제 를 선택합니다.
  3. 사용자 삭제 대화 상자에서 예, 확인 을 선택합니다.
  4. 사용자 삭제를 클릭합니다.

    사용자가 성공적으로 삭제되었다는 알림이 표시됩니다.

5장. Ceph 데몬 관리

스토리지 관리자는 Red Hat Ceph Storage 대시보드에서 Ceph 데몬을 관리할 수 있습니다.

5.1. 데몬 작업

Red Hat Ceph Storage 대시보드를 사용하면 데몬을 시작, 중지, 재시작, 재배포할 수 있습니다.

참고

이러한 작업은 모니터 및 관리자 데몬을 제외한 모든 데몬에서 지원됩니다.

사전 요구 사항

시작하기 전에 다음 사전 요구 사항이 있는지 확인하십시오.

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • 대시보드가 설치되어 있어야 합니다.
  • 스토리지 클러스터에 하나 이상의 데몬이 구성되어 있습니다.

프로세스

데몬은 두 가지 방법으로 관리할 수 있습니다.

서비스 페이지에서 다음을 수행합니다.

  1. 대시보드 탐색에서 Administration >Services 로 이동합니다.
  2. 작업이 실행될 데몬을 사용하여 서비스를 확장합니다.

    참고

    행은 언제든지 축소할 수 있습니다.

  3. 데몬 탭에서 데몬이 있는 행을 선택합니다.

    참고

    데몬 테이블을 검색하고 필터링할 수 있습니다.

  4. 데몬에서 실행해야 하는 작업을 선택합니다. 옵션은 시작,중지,다시 시작재배포 입니다.

    그림 5.1. 서비스에서 데몬 관리

    서비스 메뉴에서 데몬 관리

호스트 페이지에서 다음을 수행합니다.

  1. 대시보드 탐색에서 Cluster CryostatHosts 로 이동합니다.
  2. Hosts List 탭에서 호스트 행을 확장하고 데몬이 포함된 호스트를 선택하여 작업을 수행합니다.
  3. 호스트의 데몬 탭에서 데몬이 있는 행을 선택합니다.

    참고

    데몬 테이블을 검색하고 필터링할 수 있습니다.

  4. 데몬에서 실행해야 하는 작업을 선택합니다. 옵션은 시작,중지,다시 시작재배포 입니다.

    그림 5.2. 호스트에서 데몬 관리

    Hosts 메뉴에서 데몬 관리

6장. Ceph 대시보드에서 클러스터 모니터링

스토리지 관리자는 Red Hat Ceph Storage 대시보드를 사용하여 호스트 유형, 서비스, 데이터 액세스 방법 등에 따라 클러스터의 특정 측면을 모니터링할 수 있습니다.

이 섹션에서는 다음 관리 작업에 대해 설명합니다.

6.1. 대시보드에서 Ceph 클러스터의 호스트 모니터링

Red Hat Ceph Storage 대시보드에서 클러스터 호스트를 모니터링할 수 있습니다.

다음은 호스트 페이지의 다양한 탭입니다. 각 탭에는 relavent 정보가 있는 테이블이 포함되어 있습니다. 테이블은 열과 행별로 검색하고 사용자 지정할 수 있습니다.

열 순서를 변경하려면 열 이름을 선택하고 테이블 내에서 드래그합니다.

표시할 열을 선택하려면 토글 열 버튼을 클릭하고 열 이름을 선택하거나 지웁니다.

행 선택기 필드에 표시할 행 수를 입력합니다.

devices
이 탭에는 장치 ID, 장치 상태, 수명 예상, 장치 이름, 예측 생성 날짜 및 호스트의 데몬을 자세히 설명하는 테이블이 있습니다.
물리적 디스크
이 탭에는 선택한 호스트에 연결된 모든 디스크와 유형, 크기 등을 자세히 설명하는 테이블이 있습니다. 장치 경로, 장치 유형, 사용 가능한 공급 업체, 모델, 크기 및 배포된 OSD와 같은 세부 정보가 있습니다. 물리적 장치에서 어떤 디스크가 있는지 확인하려면 장치를 선택하고 Identify 를 클릭합니다. 선택한 디스크를 찾기 위해 gdd가 묻혀야 하는 기간의 기간을 선택합니다.
데몬
이 탭에는 선택한 호스트에 배포된 모든 서비스, 실행 중인 컨테이너 및 현재 상태를 자세히 설명하는 테이블이 있습니다. 이 표에는 데몬이 마지막으로 새로 고쳐진 경우 데몬 이름, 데몬 버전, 상태, CPU 사용량, 메모리 사용량(MiB) 및 데몬 이벤트와 같은 세부 정보가 있습니다. 데몬 작업은 이 탭에서 실행할 수 있습니다. 자세한 내용은 데몬 작업을 참조하십시오.
성능 세부 정보
이 탭에는 배포된 OSD, CPU 사용률, RAM 사용량, 네트워크 부하, 네트워크 드롭률 및 OSD 디스크 성능 통계와 같은 세부 정보가 있습니다. 포함된 Grafana 대시보드를 통해 성능 정보를 봅니다.
장치 상태
SMART 지원 장치의 경우 OSD 배포된 호스트에서만 개별 상태 상태 및 SMART 데이터를 가져올 수 있습니다.

사전 요구 사항

시작하기 전에 다음 사전 요구 사항이 있는지 확인하십시오.

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • 대시보드가 설치되어 있어야 합니다.
  • 호스트는 스토리지 클러스터에 추가됩니다.
  • 모든 서비스, 모니터, 관리자 및 OSD 데몬은 스토리지 클러스터에 배포됩니다.

프로세스

  1. 대시보드 탐색에서 Cluster CryostatHosts 로 이동합니다.
  2. Hosts List 탭에서 호스트 행을 확장하고 데몬이 포함된 호스트를 선택하여 작업을 수행합니다.
  3. 호스트의 데몬 탭에서 데몬이 있는 행을 선택합니다.

    참고

    데몬 테이블을 검색하고 필터링할 수 있습니다.

  4. 데몬에서 실행해야 하는 작업을 선택합니다. 옵션은 시작,중지,다시 시작재배포 입니다.

    그림 6.1. Ceph 클러스터의 호스트 모니터링

    Ceph 클러스터의 호스트 모니터링

추가 리소스

6.2. 대시보드에서 Ceph 클러스터 구성 보기 및 편집

대시보드에서 Ceph 클러스터의 다양한 구성 옵션을 볼 수 있습니다. 일부 구성 옵션만 편집할 수 있습니다.

사전 요구 사항

시작하기 전에 다음 사전 요구 사항이 있는지 확인하십시오.

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • 대시보드가 설치되어 있어야 합니다.
  • 모든 서비스는 스토리지 클러스터에 배포됩니다.

프로세스

  1. 대시보드 탐색에서 Administration(관리)Configuration 으로 이동합니다.
  2. 구성 세부 정보를 보려면 행 콘텐츠를 확장합니다.

    그림 6.2. 구성 옵션

    구성 옵션
  3. 선택 사항: search 필드를 사용하여 구성을 찾습니다.
  4. 선택 사항: 특정 구성을 위해 필터링할 수 있습니다. 다음 필터를 사용합니다.

    • level - Basic, advanced, 또는 dev
    • Service - Any, mon, mgr, osd, mds, common, mds_client, rgw 및 유사한 필터입니다.
    • 소스 - Any, mon, similar filters
    • 수정됨 - 예 또는 없음
  5. 구성을 편집하려면 구성 행을 선택하고 편집을 클릭합니다.

    1. Edit form을 사용하여 필요한 매개변수를 편집하고 Update 를 클릭합니다.

      구성이 성공적으로 업데이트되었음을 알림이 표시됩니다.

추가 리소스

6.3. 대시보드에서 Ceph 클러스터의 관리자 모듈 보기 및 편집

관리자 모듈은 모듈별 구성 설정을 관리하는 데 사용됩니다. 예를 들어 클러스터 상태에 대한 경고를 활성화할 수 있습니다.

Red Hat Ceph Storage 대시보드에서 클러스터의 관리자 모듈을 확인, 활성화 또는 비활성화할 수 있습니다.

사전 요구 사항

시작하기 전에 다음 사전 요구 사항이 있는지 확인하십시오.

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • 대시보드가 설치되어 있어야 합니다.

manager 모듈 보기

  1. 대시보드 탐색에서 Administration(관리)Manager Modules 로 이동합니다.
  2. 특정 관리자 모듈의 세부 정보를 보려면 행 내용을 확장합니다.

    그림 6.3. 관리자 모듈

    관리자 모듈

manager 모듈 활성화

행을 선택하고 작업 드롭다운에서 Enable 을 클릭합니다.

관리자 모듈 비활성화

행을 선택하고 작업 드롭다운에서 Disable 을 클릭합니다.

관리자 모듈 편집

  1. 행 선택:

    참고

    모든 모듈에 구성 가능한 매개 변수가 있는 것은 아닙니다. 모듈을 구성할 수 없는 경우 편집 버튼이 비활성화됩니다.

  2. 필요한 매개변수를 편집하고 업데이트를 클릭합니다.

    모듈이 성공적으로 업데이트되었음을 알리는 알림이 표시됩니다.

6.4. 대시보드에서 Ceph 클러스터 모니터링

Red Hat Ceph Storage 대시보드의 시작 페이지에서 Ceph 모니터의 성능을 모니터링할 수 있습니다. 모니터 패널에서 모니터의 상태, 쿼럼, 열린 세션 수 및 모니터의 성능 카운터와 같은 세부 정보를 볼 수도 있습니다.

사전 요구 사항

시작하기 전에 다음 사전 요구 사항이 있는지 확인하십시오.

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • 대시보드가 설치되어 있어야 합니다.
  • 모니터는 스토리지 클러스터에 배포됩니다.

프로세스

  1. 대시보드 탐색에서 Cluster CryostatMonitors 로 이동합니다.

    모니터 패널에는 전체 모니터 상태에 대한 정보가 표시되고 쿼럼이외 상태인 호스트를 모니터링합니다.

  2. 열려 있는 세션 수를 보려면 In Quorum 테이블에서 Open Sessions 위에 커서를 이동합니다.

    Ceph 클러스터의 모니터링
  3. 모든 모니터의 성능 카운터를 보려면 In QuorumNot In Quorum 테이블에서 이름을 클릭합니다.

    그림 6.4. 모니터 성능 보기

    성능 카운터 모니터링

추가 리소스

6.5. 대시보드에서 Ceph 클러스터의 모니터링 서비스

Red Hat Ceph Storage 대시보드에서 클러스터 서비스를 모니터링할 수 있습니다. 호스트 이름, 데몬 유형, 데몬 ID, 컨테이너 ID, 컨테이너 이미지 이름, 컨테이너 이미지 ID, 버전 상태 및 마지막 새로 고침 시간과 같은 세부 정보를 볼 수 있습니다.

사전 요구 사항

시작하기 전에 다음 사전 요구 사항이 있는지 확인하십시오.

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • 대시보드가 설치되어 있어야 합니다.
  • 호스트는 스토리지 클러스터에 추가됩니다.
  • 모든 서비스는 스토리지 클러스터에 배포됩니다.

프로세스

  1. 대시보드 탐색에서 Administration >Services 로 이동합니다.
  2. 자세한 내용은 서비스를 확장합니다.

    그림 6.5. Ceph 클러스터의 모니터링 서비스

    Ceph 클러스터의 모니터링 서비스

추가 리소스

6.6. 대시보드에서 Ceph OSD 모니터링

Red Hat Ceph Storage 대시보드의 시작 페이지에서 Ceph OSD의 상태를 모니터링할 수 있습니다. OSD 탭에서 호스트, 상태, 장치 클래스, 배치 그룹(PG), 크기 플래그, 사용량, 읽기 또는 쓰기 작업 시간과 같은 세부 정보를 볼 수도 있습니다.

다음은 OSD 페이지의 다른 탭입니다.

  • 장치 - 이 탭에는 호스트의 장치 ID, 상태, 수명, 장치 이름, 데몬과 같은 세부 정보가 있습니다.
  • 속성(OSD 맵) - 이 탭에는 클러스터 주소, 하트비트, OSD 상태 및 기타 OSD 속성이 표시됩니다.
  • metadata - 이 탭에는 OSD 오브젝트 저장소, 장치, 운영 체제 및 커널 세부 정보가 표시됩니다.
  • 장치 상태 - SMART 사용 장치의 경우 개별 상태 및 SMART 데이터를 가져올 수 있습니다.
  • 성능 카운터 - 이 탭에는 장치에 기록된 바이트의 세부 정보가 제공됩니다.
  • 성능 세부 정보 - 이 탭에는 배포된 OSD, CPU 사용률, RAM 사용량, 네트워크 부하, 네트워크 드롭률, OSD 디스크 성능 통계와 같은 세부 정보가 있습니다. 포함된 Grafana 대시보드를 통해 성능 정보를 봅니다.

사전 요구 사항

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • 대시보드가 설치되어 있어야 합니다.
  • 호스트는 스토리지 클러스터에 추가됩니다.
  • OSD를 포함한 모든 서비스는 스토리지 클러스터에 배포됩니다.

프로세스

  1. 대시보드 탐색에서 Cluster-OSD 로 이동합니다.
  2. 특정 OSD의 세부 정보를 보려면 OSD 목록 탭에서 OSD 행을 확장합니다.

    그림 6.6. Ceph 클러스터의 OSD 모니터링

    Ceph 클러스터의 OSD 모니터링

    각 탭을 클릭하여 장치,속성(OSD 맵), 메타데이터,장치 상태,성능 카운터성능 세부 정보와 같은 추가 세부 정보를 볼 수 있습니다.

추가 리소스

6.7. 대시보드에서 HAProxy 모니터링

Ceph Object Gateway를 사용하면 로드가 증가할 때 확장할 수 있도록 오브젝트 게이트웨이의 많은 인스턴스를 단일 영역에 할당할 수 있습니다. 각 오브젝트 게이트웨이 인스턴스에는 자체 IP 주소가 있으므로 HAProxy를 사용하여 Ceph Object Gateway 서버 간에 부하를 분산할 수 있습니다.

대시보드에서 다음 HAProxy 메트릭을 모니터링할 수 있습니다.

  • HTTP 코드별 총 응답.
  • 총 요청/응답.
  • 총 연결 수입니다.
  • 현재 들어오는 / 발신 바이트 수입니다.

ceph dashboard get-grafana-api-url 명령을 실행하여 Grafana 세부 정보를 가져올 수도 있습니다.

사전 요구 사항

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • 스토리지 대시보드에서 관리자 수준 액세스.
  • SSL이 없는 기존 Ceph Object Gateway 서비스입니다. SSL 서비스를 사용하려면 Ceph Object Gateway 서비스가 아닌 수신 서비스에 인증서를 구성해야 합니다.
  • Ceph Orchestrator를 사용하여 배포된 Ingress 서비스입니다.
  • 모니터링 스택 구성 요소는 대시보드에 생성됩니다.

프로세스

  1. Grafana URL에 로그인하고 RGW_Overview 패널을 선택합니다.

    구문

    https://DASHBOARD_URL:3000

    https://dashboard_url:3000

  2. Grafana URL에서 HAProxy 지표를 확인합니다.
  3. Ceph 대시보드 탐색에서 Object(오브젝트)Gateways.
  4. Overall Performance 탭에서 Ceph Object Gateway HAProxy 지표를 확인합니다.

    그림 6.7. HAProxy 지표

    HAProxy 지표

추가 리소스

6.8. 대시보드에서 Ceph 클러스터의 CRUSH 맵 보기

OSD 목록 및 Red Hat Ceph Storage 대시보드에서 관련 정보가 포함된 The CRUSH 맵을 볼 수 있습니다. CRUSH 맵과 CRUSH 알고리즘은 함께 데이터를 저장하는 방법과 위치를 결정합니다. 대시보드를 사용하면 OSD 호스트, OSD 데몬, ID 번호, 장치 클래스 등을 비롯한 CRUSH 맵의 다양한 측면을 볼 수 있습니다.

CRUSH 맵을 사용하면 특정 OSD ID가 실행 중인 호스트를 확인할 수 있습니다. OSD에 문제가 있는 경우 유용합니다.

사전 요구 사항

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • 대시보드가 설치되어 있어야 합니다.
  • 스토리지 클러스터에 배포된 OSD 데몬입니다.

프로세스

  1. 대시보드 탐색에서 Cluster-CRUSH 맵 으로 이동합니다.
  2. 특정 OSD의 세부 정보를 보려면 행을 클릭합니다.

    그림 6.8. CRUSH 맵 세부 정보 보기

    CRUSH 맵 세부 정보 보기

추가 리소스

  • CRUSH 맵에 대한 자세한 내용은 Red Hat Ceph Storage 전략 가이드의 CRUSH 관리자 개요 를 참조하십시오.

6.9. 대시보드에서 Ceph 클러스터 로그 필터링

여러 기준에 따라 대시보드에서 Red Hat Ceph Storage 클러스터의 로그를 보고 필터링할 수 있습니다. 기준에는 우선 순위,키워드,날짜시간 범위가 포함됩니다.

로그를 시스템으로 다운로드하거나 추가 분석을 위해 클립보드에 로그를 복사할 수 있습니다.

사전 요구 사항

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • 대시보드가 설치되어 있어야 합니다.
  • Ceph Monitor가 마지막으로 시작된 이후 로그 항목이 생성되었습니다.
참고

대시보드 로깅 기능에는 30개의 최신 상위 수준 이벤트만 표시됩니다. 이벤트는 Ceph 모니터에 의해 메모리에 저장됩니다. 모니터를 다시 시작한 후 항목이 사라집니다. 세부 정보 또는 이전 로그를 검토해야 하는 경우 파일 기반 로그를 참조하십시오.

프로세스

  1. 대시보드 탐색에서 Observability CryostatLogs 로 이동합니다.
  2. Cluster Logs 탭에서 클러스터 로그를 확인합니다.

    그림 6.9. 클러스터 로그

    클러스터 로그
    1. 우선 순위 필터를 사용하여 디버그,정보 ,경고,오류 또는 모두 로 필터링합니다.
    2. 키워드 로 검색할 텍스트를 입력하려면 Key words 필드를 사용합니다.
    3. 날짜 선택기를 사용하여 특정 날짜별로 필터링합니다.
    4. HH:MM - HH:MM 형식을 사용하여 범위를 입력하려면 시간 범위 필드를 사용합니다. 시간은 0 에서 23 까지 번호를 사용하여 입력해야 합니다.
    5. 필터를 결합하려면 두 개 이상의 필터를 설정합니다.
  3. 로그를 저장하려면 다운로드 또는 클립보드에 복사 버튼을 사용합니다.

추가 리소스

6.10. 대시보드에서 Ceph 클러스터의 중앙 집중식 로그 보기

Ceph 대시보드를 사용하면 Red Hat Ceph Storage 클러스터의 중앙 집중식 공간에 있는 모든 클라이언트의 로그를 확인하여 효율적으로 모니터링할 수 있습니다. 이 작업은 로그를 저장하고 쿼리하도록 설계된 로그 집계 시스템인 Loki를 사용하고 로컬 로그 내용을 프라이빗 Grafana Loki 인스턴스에 제공하는 에이전트인 Promtail을 사용합니다.

사전 요구 사항

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • 대시보드가 설치되어 있어야 합니다.
  • Grafana가 구성되어 클러스터의 에 로그인되어 있습니다.

프로세스

  1. 대시보드 탐색에서 Administration >Services 로 이동합니다.
  2. 서비스에서 생성 을 클릭합니다.
  3. Create Service 양식의 유형 목록에서 loki 를 선택합니다. 나머지 세부 정보를 입력하고 서비스 생성을 클릭합니다.
  4. 이전 단계를 반복하여 Promtail 서비스를 생성합니다. 유형 목록에서 promtail 을 선택합니다.

    lokipromtail 서비스는 성공적으로 생성된 후 Services 테이블에 표시됩니다.

    그림 6.10. Loki 및 Promtail 서비스 생성

    Loki 및 Promtail 서비스 생성
    참고

    기본적으로 Promtail 서비스는 실행 중인 모든 호스트에 배포됩니다.

  5. 파일에 로깅을 활성화합니다.

    1. Administration >Configuration 으로 이동합니다.
    2. log_to_file 을 선택하고 편집을 클릭합니다.
    3. Edit log_to_file 양식에서 글로벌 값을 true 로 설정합니다.

      그림 6.11. 로그 파일 구성

      로그 파일 구성
    4. 업데이트를 클릭합니다.

      업데이트된 구성 옵션 log_to_file 알림이 표시되고 구성 테이블로 반환됩니다.

    5. mon_cluster_log_to_file 에 대해 이러한 단계를 반복하여 글로벌 값을 true 로 설정합니다.

      참고

      log_to_filemon_cluster_log_to_file 파일을 모두 구성해야 합니다.

  6. 선택 사항: Ceph Object Gateway 'ops_log'를 보려면 다음 명령을 사용하여 rgw_enable_ops_logtrue 로 설정해야 합니다.

    $ ceph config set client.rgw rgw_enable_ops_log true

    대시보드에서 이를 수행하려면 다음 단계를 따르십시오.

    1. 관리 → 설정으로 이동합니다.
    2. 수준을 'basic'에서 'Dev'로 변경합니다.
    3. rgw_enable_ops_log 를 검색하고 값을 true 로 편집합니다.
    4. 다음으로 데몬 로그 탭에서 파일 이름 필드에서 로그 파일을 찾고 쿼리를 실행하여 ops 로그를 확인합니다.
  7. 중앙 집중식 로그를 보려면 Observability CryostatLogs 로 이동하여 데몬 로그 탭으로 전환합니다. 로그 브라우저를 사용하여 파일을 선택하고 로그 표시를 클릭하여 해당 파일의 로그를 확인합니다.

    그림 6.12. 중앙 집중식 로그 보기

    중앙 집중식 로그 보기

6.11. 대시보드에서 Ceph 클러스터 풀 모니터링

Red Hat Ceph Storage 대시보드의 클러스터에서 풀의 세부 정보, 성능 세부 정보, 구성 및 전체 성능을 볼 수 있습니다.

풀은 Ceph 스토리지 클러스터가 데이터를 배포하고 저장하는 방법에 중요한 역할을 합니다. 풀을 생성하지 않고 클러스터를 배포한 경우 Ceph는 기본 풀을 사용하여 데이터를 저장합니다.

사전 요구 사항

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • 대시보드가 설치되어 있어야 합니다.
  • 풀이 생성됨

프로세스

  1. 대시보드 탐색에서 Cluster CryostatPools 로 이동합니다.
  2. 데이터 보호 및 풀이 활성화된 애플리케이션에 대한 세부 정보를 제공하는 Pools List 탭을 확인합니다. 필요한 세부 정보를 위해 사용,읽기 바이트쓰기 바이트 위에 마우스를 이동합니다.
  3. 특정 풀에 대한 자세한 내용은 풀 행을 확장합니다.

    그림 6.13. 풀 모니터링

    풀 모니터링
  4. 자세한 내용은 Overall Performance 탭으로 이동하십시오.

추가 리소스

6.12. 대시보드에서 Ceph 파일 시스템 모니터링

Red Hat Ceph Storage 대시보드를 사용하여 Ceph 파일 시스템(CephFS) 및 관련 구성 요소를 모니터링할 수 있습니다.

나열된 각 파일 시스템에 대해 다음 탭을 사용할 수 있습니다.

세부 정보
메타데이터 서버(MDS) 및 해당 순위와 대기 데몬, 풀 및 사용법 및 성능 카운터를 확인합니다.
디렉터리
디렉터리 목록, 할당량 및 스냅샷 목록을 확인합니다. 최대 파일 및 크기 할당량을 설정하고 설정할 디렉터리를 선택하고 특정 디렉터리에 대한 스냅샷을 생성 및 삭제합니다.
하위 볼륨
하위 볼륨 정보를 생성, 편집 및 확인합니다. 하위 볼륨 그룹으로 필터링할 수 있습니다.
하위 볼륨 그룹
하위 볼륨 그룹 정보를 생성, 편집 및 확인합니다.
스냅샷
스냅샷 정보를 생성, 복제 및 확인합니다. 하위 볼륨 그룹 및 하위 볼륨으로 필터링할 수 있습니다.
스냅샷 일정
스냅샷 일정을 활성화, 생성, 편집 및 삭제합니다.
클라이언트
Ceph 파일 시스템 클라이언트 정보를 보고 제거합니다.
성능 세부 정보
포함된 Grafana 대시보드를 통해 파일 시스템의 성능을 확인합니다.

사전 요구 사항

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • 대시보드가 설치되어 있어야 합니다.
  • MDS 서비스는 하나 이상의 호스트에 배포됩니다.
  • Ceph 파일 시스템이 설치되어 있어야 합니다.

프로세스

  1. 대시보드 탐색에서 File Cryostat File Systems 로 이동합니다.
  2. 개별 파일 시스템에 대한 자세한 내용을 보려면 파일 시스템 행을 확장합니다.

추가 리소스

6.13. 대시보드에서 Ceph 개체 게이트웨이 데몬 모니터링

Red Hat Ceph Storage 대시보드를 사용하여 Ceph 개체 게이트웨이 데몬을 모니터링할 수 있습니다. Ceph 오브젝트 게이트웨이 데몬의 세부 정보, 성능 카운터 및 성능 세부 정보를 볼 수 있습니다.

사전 요구 사항

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • 대시보드가 설치되어 있어야 합니다.
  • 스토리지 클러스터에 구성된 하나 이상의 Ceph 오브젝트 게이트웨이 데몬입니다.

프로세스

  1. 대시보드 탐색에서 Object(오브젝트)Gateways 로 이동합니다.
  2. 게이트웨이 목록 탭에서 개별 게이트웨이에 대한 정보를 봅니다.
  3. 개별 게이트웨이에 대한 자세한 정보를 보려면 게이트웨이 행을 확장합니다.
  4. 여러 Ceph Object Gateway 데몬을 구성한 경우 성능 동기화 탭을 클릭하고 다중 사이트 성능 카운터를 확인합니다.

6.14. Ceph 대시보드에서 블록 장치 이미지 모니터링

Red Hat Ceph Storage 대시보드를 사용하여 블록 장치 이미지를 모니터링하고 관리할 수 있습니다. 이미지의 세부 정보, 스냅샷, 구성 세부 정보 및 성능 세부 정보를 볼 수 있습니다.

사전 요구 사항

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • 대시보드가 설치되어 있어야 합니다.
  • rbd 애플리케이션이 활성화된 풀이 생성됩니다.
  • 이미지가 생성됩니다.

프로세스

  1. 대시보드 탐색에서 Block CryostatImages 로 이동합니다.
  2. 이미지 행을 확장하여 자세한 정보를 확인합니다.

    그림 6.14. 블록 장치 이미지 모니터링

    블록 장치 이미지 모니터링

추가 리소스

7장. Ceph 대시보드에서 경고 관리

스토리지 관리자는 Red Hat Ceph Storage 대시보드에서 경고 세부 정보를 확인하고 음소거를 생성할 수 있습니다. 여기에는 다음과 같은 사전 정의된 경고가 포함됩니다.

  • CephadmDaemonFailed
  • CephadmPaused
  • CephadmUpgradeFailed
  • CephDaemonCrash
  • CephDeviceFailurePredicted
  • CephDeviceFailurePredictionTooHigh
  • CephDeviceFailureRelocationIncomplete
  • CephFilesystemDamaged
  • CephFilesystemDegraded
  • CephFilesystemFailureNoStandby
  • CephFilesystemInsufficientStandby
  • CephFilesystemMDSRanksLow
  • CephFilesystemOffline
  • CephFilesystemReadOnly
  • CephHealthError
  • CephHealthWarning
  • CephMgrModuleCrash
  • CephMgrPrometheusModuleInactive
  • CephMonClockSkew
  • CephMonDiskspaceCritical
  • CephMonDiskspaceLow
  • CephMonDown
  • CephMonDownQuorumAtRisk
  • CephNodeDiskspaceWarning
  • CephNodeInconsistentMTU
  • CephNodeNetworkPacketDrops
  • CephNodeNetworkPacketErrors
  • CephNodeRootFilesystemFull
  • CephObjectMissing
  • CephOSDBackfillFull
  • CephOSDDown
  • CephOSDDownHigh
  • CephOSDFlapping
  • CephOSDFull
  • CephOSDHostDown
  • CephOSDInternalDiskSizeMismatch
  • CephOSDNearFull
  • CephOSDReadErrors
  • CephOSDTimeoutsClusterNetwork
  • CephOSDTimeoutsPublicNetwork
  • CephOSDTooManyRepairs
  • CephPGBackfillAtRisk
  • CephPGImbalance
  • CephPGNotDeepScrubbed
  • CephPGNotScrubbed
  • CephPGRecoveryAtRisk
  • CephPGsDamaged
  • CephPGsHighPerOSD
  • CephPGsInactive
  • CephPGsUnclean
  • CephPGUnavilableBlockingIO
  • CephPoolBackfillFull
  • CephPoolFull
  • CephPoolGrowthWarning
  • CephPoolNearFull
  • CephSlowOps
  • PrometheusJobMissing

그림 7.1. 사전 정의된 경고

사전 정의된 경고

간단한 네트워크 관리 프로토콜(SNMP) 트랩을 사용하여 경고를 모니터링할 수도 있습니다.

7.1. 모니터링 스택 활성화

명령줄 인터페이스를 사용하여 Prometheus, Alertmanager, Grafana와 같은 Red Hat Ceph Storage 클러스터의 모니터링 스택을 수동으로 활성화할 수 있습니다.

Prometheus 및 Alertmanager API를 사용하여 경고 및 음소거를 관리할 수 있습니다.

사전 요구 사항

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • 모든 호스트에 대한 루트 수준 액세스.

프로세스

  1. cephadm 쉘에 로그인합니다.

    [root@host01 ~]# cephadm shell

  2. 모니터링 스택의 API를 설정합니다.

    1. Alertmanager 서버의 호스트 및 포트를 지정합니다.

      구문

      ceph dashboard set-alertmanager-api-host ALERTMANAGER_API_HOST:PORT

      [ceph: root@host01 /]# ceph dashboard set-alertmanager-api-host http://10.0.0.101:9093
      Option ALERTMANAGER_API_HOST updated

    2. 구성된 경고를 보려면 Prometheus API에 대한 URL을 구성합니다. 이 API를 사용하여 Ceph 대시보드 UI는 새 음소거가 해당 경고와 일치하는지 확인합니다.

      구문

      ceph dashboard set-prometheus-api-host PROMETHEUS_API_HOST:PORT

      [ceph: root@host01 /]# ceph dashboard set-prometheus-api-host http://10.0.0.101:9095
      Option PROMETHEUS_API_HOST updated

      호스트를 설정한 후 브라우저의 대시보드 창을 새로 고칩니다.

      • Grafana 서버의 호스트 및 포트를 지정합니다.

        구문

        ceph dashboard set-grafana-api-url GRAFANA_API_URL:PORT

        [ceph: root@host01 /]# ceph dashboard set-grafana-api-url https://10.0.0.101:3000
        Option GRAFANA_API_URL updated

  3. Prometheus, Alertmanager 및 Grafana API 호스트 세부 정보를 가져옵니다.

    [ceph: root@host01 /]# ceph dashboard get-alertmanager-api-host
    http://10.0.0.101:9093
    [ceph: root@host01 /]# ceph dashboard get-prometheus-api-host
    http://10.0.0.101:9095
    [ceph: root@host01 /]# ceph dashboard get-grafana-api-url
    http://10.0.0.101:3000

  4. 선택 사항: Prometheus, Alertmanager 또는 Grafana 설정에서 자체 서명된 인증서를 사용하는 경우 대시보드에서 인증서 확인을 비활성화하십시오. 이로 인해 알 수 없는 CA(인증 기관)에서 서명한 인증서로 인한 거부된 연결을 방지하거나 호스트 이름과 일치하지 않습니다.

    • Prometheus의 경우:

      [ceph: root@host01 /]# ceph dashboard set-prometheus-api-ssl-verify False

    • Alertmanager의 경우:

      [ceph: root@host01 /]# ceph dashboard set-alertmanager-api-ssl-verify False

    • Grafana의 경우:

      [ceph: root@host01 /]# ceph dashboard set-grafana-api-ssl-verify False

  5. Prometheus, Alertmanager 및 Grafana의 자체 서명 인증서 확인 설정에 대한 세부 정보를 가져옵니다.

    [ceph: root@host01 /]# ceph dashboard get-prometheus-api-ssl-verify
    [ceph: root@host01 /]# ceph dashboard get-alertmanager-api-ssl-verify
    [ceph: root@host01 /]# ceph dashboard get-grafana-api-ssl-verify

  6. 선택 사항: 대시보드에 변경 사항이 반영되지 않으면 대시보드를 비활성화한 다음 활성화해야 합니다.

    [ceph: root@host01 /]# ceph mgr module disable dashboard
    [ceph: root@host01 /]# ceph mgr module enable dashboard

추가 리소스

7.2. Grafana 인증서 구성

cephadm 은 ceph 키/값 저장소에 정의된 인증서를 사용하여 Grafana를 배포합니다. 인증서를 지정하지 않으면 cephadm 은 Grafana 서비스를 배포하는 동안 자체 서명된 인증서를 생성합니다.

ceph config-key set 명령을 사용하여 사용자 정의 인증서를 구성할 수 있습니다.

사전 요구 사항

  • 실행 중인 Red Hat Ceph Storage 클러스터.

프로세스

  1. cephadm 쉘에 로그인합니다.

    [root@host01 ~]# cephadm shell

  2. Grafana에 대한 사용자 정의 인증서를 구성합니다.

    [ceph: root@host01 /]# ceph config-key set mgr/cephadm/grafana_key -i $PWD/key.pem
    [ceph: root@host01 /]# ceph config-key set mgr/cephadm/grafana_crt -i $PWD/certificate.pem

  3. Grafana가 이미 배포된 경우 reconfig 를 실행하여 구성을 업데이트합니다.

    [ceph: root@host01 /]# ceph orch reconfig grafana

  4. 새 인증서를 추가할 때마다 다음 단계를 따르십시오.

    1. 새 디렉터리 만들기

      [root@host01 ~]# mkdir /root/internalca
      [root@host01 ~]# cd /root/internalca

    2. 키를 생성합니다.

      [root@host01 internalca]# openssl ecparam -genkey -name secp384r1 -out $(date +%F).key

    3. 키를 확인합니다.

      [root@host01 internalca]# openssl ec -text -in $(date +%F).key | less

    4. 요청 확인:

      [root@host01 internalca]# umask 077; openssl req -config openssl-san.cnf -new -sha256 -key $(date +%F).key -out $(date +%F).csr

    5. 서명을 위해 보내기 전에 요청을 검토합니다.

      [root@host01 internalca]# openssl req -text -in $(date +%F).csr | less

    6. CA 서명으로 다음을 수행합니다.

      [root@host01 internalca]# openssl ca -extensions v3_req -in $(date +%F).csr -out $(date +%F).crt -extfile openssl-san.cnf

    7. 서명된 인증서를 확인합니다.

      [root@host01 internalca]# openssl x509 -text -in $(date +%F).crt -noout | less

추가 리소스

7.3. Alertmanager Webhook 추가

기존 Alertmanager 구성에 새 Webhook를 추가하여 스토리지 클러스터 상태에 대한 실시간 경고를 수신할 수 있습니다. 들어오는 Webhook를 활성화하여 타사 애플리케이션에 대한 비동기 메시지를 허용해야 합니다.

예를 들어 OSD가 Red Hat Ceph Storage 클러스터에서 다운된 경우 Google 채팅에서 알림을 보내도록 Alertmanager를 구성할 수 있습니다.

사전 요구 사항

  • 모니터링 스택 구성 요소가 활성화된 실행 중인 Red Hat Ceph Storage 클러스터입니다.
  • 수신 타사 애플리케이션에 구성된 들어오는 Webhook입니다.

프로세스

  1. cephadm 쉘에 로그인합니다.

    [root@host01 ~]# cephadm shell

  2. 알림에 Webhook를 사용하도록 Alertmanager를 구성합니다.

    구문

    service_type: alertmanager
    spec:
      user_data:
        default_webhook_urls:
        - "_URLS_"

    default_webhook_urls 는 기본 수신자의 webhook_configs 구성에 추가된 추가 URL 목록입니다.

    service_type: alertmanager
    spec:
      user_data:
        webhook_configs:
        - url: 'http:127.0.0.10:8080'

  3. Alertmanager 설정을 업데이트합니다.

    [ceph: root@host01 /]#  ceph orch reconfig alertmanager

검증

  • Alertmanager에서 Gchat로 알림의 예:

    using: https://chat.googleapis.com/v1/spaces/(xx- space identifyer -xx)/messages
    posting: {'status': 'resolved', 'labels': {'alertname': 'PrometheusTargetMissing', 'instance': 'postgres-exporter.host03.chest
    response: 200
    response: {
    "name": "spaces/(xx- space identifyer -xx)/messages/3PYDBOsIofE.3PYDBOsIofE",
    "sender": {
    "name": "users/114022495153014004089",
    "displayName": "monitoring",
    "avatarUrl": "",
    "email": "",
    "domainId": "",
    "type": "BOT",
    "isAnonymous": false,
    "caaEnabled": false
    },
    "text": "Prometheus target missing (instance postgres-exporter.cluster.local:9187)\n\nA Prometheus target has disappeared. An e
    "cards": [],
    "annotations": [],
    "thread": {
    "name": "spaces/(xx- space identifyer -xx)/threads/3PYDBOsIofE"
    },
    "space": {
    "name": "spaces/(xx- space identifyer -xx)",
    "type": "ROOM",
    "singleUserBotDm": false,
    "threaded": false,
    "displayName": "_privmon",
    "legacyGroupChat": false
    },
    "fallbackText": "",
    "argumentText": "Prometheus target missing (instance postgres-exporter.cluster.local:9187)\n\nA Prometheus target has disappea
    "attachment": [],
    "createTime": "2022-06-06T06:17:33.805375Z",
    "lastUpdateTime": "2022-06-06T06:17:33.805375Z"

7.4. Ceph 대시보드에서 경고 보기

경고가 실행된 후 Red Hat Ceph Storage 대시보드에서 볼 수 있습니다. 경고가 실행될 때 Manager 모듈 설정을 편집하여 이메일을 트리거할 수 있습니다.

사전 요구 사항

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • 대시보드가 설치되어 있어야 합니다.
  • 실행 중인 SMTP(Simple mail transfer protocol)가 구성되어 있습니다.
  • 경고가 출력됩니다.

프로세스

  1. 대시보드 탐색에서 Observability CryostatAlerts 로 이동합니다.
  2. 활성 경고 탭에서 활성 Prometheus 경고를 확인합니다.
  3. 경고 탭에서 모든 경고를 봅니다.

    경고 세부 정보를 보려면 경고 행을 확장합니다.

  4. 경고 소스를 보려면 해당 행을 클릭한 다음 소스 를 클릭합니다.

    경고 소스

추가 리소스

7.5. Ceph 대시보드에서 음소거 생성

Red Hat Ceph Storage 대시보드에서 지정된 시간 동안 경고에 대한 음소거를 생성할 수 있습니다.

사전 요구 사항

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • 대시보드가 설치되어 있어야 합니다.
  • 경고가 실행됩니다.

프로세스

  1. 대시보드 탐색에서 Observability CryostatAlerts 로 이동합니다.
  2. 음소거 탭에서 만들기 를 클릭합니다.
  3. 음소거 생성 양식에서 필수 필드를 작성합니다.

    1. matcher 추가 를 사용하여 음소거 요구 사항을 추가합니다.

      그림 7.2. 음소거 생성

      음소거 양식 생성
  4. 음소거 생성을 클릭합니다.

    음소거가 성공적으로 생성되었으며 음소거 테이블에 경고 음소거 업데이트가 표시됩니다.

7.6. Ceph 대시보드에서 음소거 생성

Red Hat Ceph Storage 대시보드의 만료된 음소거에서 음소거를 다시 생성할 수 있습니다.

사전 요구 사항

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • 대시보드가 설치되어 있어야 합니다.
  • 경고가 실행됩니다.
  • 경고에 대해 생성된 음소거입니다.

프로세스

  1. 대시보드 탐색에서 Observability CryostatAlerts 로 이동합니다.
  2. 음소거 탭에서 재생성할 경고가 포함된 행을 선택하고 작업 드롭다운에서 재생성 을 클릭합니다.
  3. 필요한 세부 정보를 편집하고 Recreate Silence 버튼을 클릭합니다.

    음소거가 성공적으로 편집되었으며 음소거 상태가 활성화 되었음을 나타내는 알림이 표시됩니다.

7.7. Ceph 대시보드에서 음소거 편집

예를 들어 활성 음소거를 편집하여 Red Hat Ceph Storage 대시보드에서 활성 상태인 시간을 확장할 수 있습니다. 음소거가 만료된 경우 음소거를 다시 생성하거나 경고에 대한 새 음소거를 생성할 수 있습니다.

사전 요구 사항

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • 대시보드가 설치되어 있어야 합니다.
  • 경고가 실행됩니다.
  • 경고에 대해 생성된 음소거입니다.

프로세스

  1. 대시보드에 로그인합니다.
  2. 탐색 메뉴에서 클러스터를 클릭합니다.
  3. 드롭다운 메뉴에서 Monitoring 을 선택합니다.
  4. 음소거 탭을 클릭합니다.
  5. 음소거를 편집하려면 해당 행을 클릭합니다.
  6. 편집 드롭다운 메뉴에서 편집을 선택합니다.
  7. 음소거 편집 창에서 세부 정보를 업데이트하고 음소거 편집을 클릭합니다.

    그림 7.3. 음소거 편집

    음소거 편집
  8. 음소거가 성공적으로 업데이트되었다는 알림이 표시됩니다.

7.8. Ceph 대시보드에서 음소거 만료

음소거를 만료하여 Red Hat Ceph Storage 대시보드에서 일치하는 경고가 비활성화되지 않도록 할 수 있습니다.

사전 요구 사항

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • 대시보드가 설치되어 있어야 합니다.
  • 경고가 실행됩니다.
  • 경고에 대해 생성된 음소거입니다.

프로세스

  1. 대시보드 탐색에서 Observability CryostatAlerts 로 이동합니다.
  2. 음소거 탭에서 만료하려는 경고가 포함된 행을 선택하고 작업 드롭다운에서 만료 를 클릭합니다.
  3. Expire Silence 알림에서 Yes, I am sure 를 선택하고 음소거 만료를 클릭합니다.

    음소거가 성공적으로 만료되었으며 음소거 테이블에 경고 상태가 만료되 었음을 나타내는 알림이 표시됩니다.

추가 리소스

8장. Ceph 대시보드에서 풀 관리

스토리지 관리자는 Red Hat Ceph Storage 대시보드에서 풀을 생성, 편집 및 삭제할 수 있습니다.

이 섹션에서는 다음 관리 작업에 대해 설명합니다.

8.1. Ceph 대시보드에서 풀 생성

풀을 생성하지 않고 스토리지 클러스터를 배포할 때 Ceph는 기본 풀을 사용하여 데이터를 저장합니다. 풀을 만들어 Red Hat Ceph Storage 대시보드에서 스토리지 오브젝트를 논리적으로 분할할 수 있습니다.

사전 요구 사항

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • 대시보드가 설치되어 있어야 합니다.

프로세스

  1. 대시보드 탐색에서 Cluster CryostatPools 로 이동합니다.
  2. 생성을 클릭합니다.
  3. Create Pool 양식을 작성합니다.

    그림 8.1. 풀 생성

    풀 생성
    참고

    양식은 선택 여부에 따라 변경됩니다. 모든 필드가 필수는 아닙니다.

    • 풀 이름을 설정하고 풀 유형을 선택합니다.
    • 복제 또는 삭제 중 하나를 선택하여 풀 유형을 선택합니다. 삭제 코드는 Erasure Coded (EC)라고 합니다.
    • 선택 사항: PG Autoscale 이 ,off 또는 warn 인 경우 선택합니다.
    • 선택 사항: 복제된 풀 유형을 사용하는 경우 복제된 크기를 설정합니다.
    • 선택 사항: EC 풀 유형을 사용하는 경우 다음과 같은 추가 설정을 구성합니다.
    • 선택 사항: 현재 선택한 EC 프로필의 설정을 보려면 질문 표시를 클릭합니다.
    • 선택 사항: 더하기 기호를 클릭하여 새 EC 프로필을 추가합니다.
    • 선택 사항: 연필 기호를 클릭하여 풀에 대한 애플리케이션을 선택합니다.
    • 선택 사항: 해당하는 경우 CRUSH 규칙을 설정합니다.
    • 선택 사항: 압축이 필요한 경우 수동 , 공격적 또는 강제 를 선택합니다.
    • 선택 사항: 할당량을 설정합니다.
    • 선택 사항: 서비스 품질 구성을 설정합니다.
  4. 변경 사항을 저장하고 풀 생성을 완료하려면 풀 생성 을 클릭합니다.

    풀이 성공적으로 생성되었음을 알리는 알림이 표시됩니다.

추가 리소스

8.2. Ceph 대시보드에서 풀 편집

Red Hat Ceph Storage 대시보드에서 풀을 편집할 수 있습니다.

사전 요구 사항

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • 대시보드가 설치되어 있어야 합니다.
  • 풀이 생성됩니다.

프로세스

  1. 대시보드 탐색에서 Cluster CryostatPools 로 이동합니다.
  2. 풀을 편집하려면 풀 행을 선택하고 편집 을 클릭합니다.
  3. Edit Pool (풀 편집) 양식에서 필요한 매개변수를 편집합니다.
  4. 풀 편집을 클릭하여 변경 사항을 저장합니다.

    풀이 성공적으로 업데이트되었다는 알림이 표시됩니다.

추가 리소스

8.3. Ceph 대시보드에서 풀 삭제

Red Hat Ceph Storage 대시보드에서 풀을 삭제할 수 있습니다. Manager 모듈에서 mon_allow_pool_delete 값이 True 로 설정되어 있는지 확인합니다.

사전 요구 사항

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • 대시보드가 설치되어 있어야 합니다.
  • 풀이 생성됩니다.

프로세스

  1. 대시보드 탐색에서 Administration(관리)Configuration 으로 이동합니다.
  2. 구성 표에서 mon_allow_pool_delete 를 선택하고 편집을 클릭합니다.

    참고

    필요한 경우 필터를 지우고 구성을 검색합니다.

  3. mon_allow_pool_delete 편집 양식에서 에서 모든 값을 true 로 설정합니다.
  4. 업데이트를 클릭합니다.

    구성이 성공적으로 업데이트되었음을 알림이 표시됩니다.

  5. Cluster CryostatPools 로 이동합니다.
  6. 삭제할 풀을 선택하고 작업 드롭다운에서 삭제 를 클릭합니다.
  7. 풀 삭제 대화 상자에서 예, 확인을 선택하고 풀 삭제 를 클릭하여 완료합니다.

    풀이 성공적으로 삭제되었다는 알림이 표시됩니다.

추가 리소스

9장. Ceph 대시보드에서 호스트 관리

스토리지 관리자는 Red Hat Ceph Storage 대시보드에서 호스트에 대한 유지 관리 모드를 활성화하거나 비활성화할 수 있습니다. 유지 관리 모드를 사용하면 유지 관리 작업을 수행하기 위해 호스트를 종료해도 클러스터에 영향을 미치지 않습니다.

Red Hat Ceph Storage 대시보드에서 Start DrainRemove 옵션을 사용하여 호스트를 제거할 수도 있습니다.

이 섹션에서는 다음 관리 작업에 대해 설명합니다.

사전 요구 사항

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • 대시보드가 설치되어 있어야 합니다.
  • 호스트, Ceph 모니터 및 Ceph Manager 데몬이 스토리지 클러스터에 추가됩니다.

9.1. 유지 관리 모드로 전환

Red Hat Ceph Storage 대시보드에서 종료하기 전에 호스트를 유지 관리 모드로 전환할 수 있습니다. 유지 관리 모드를 성공적으로 활성화하면 유지 관리 활동을 수행하는 데 오류가 발생하지 않고 호스트가 오프라인 상태가 됩니다. 유지 관리 모드가 실패하면 오류가 발생한 이유와 호스트를 중단하기 전에 수행해야 하는 작업이 표시됩니다.

사전 요구 사항

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • 대시보드가 설치되어 있어야 합니다.
  • 기타 모든 사전 요구 사항 검사는 Ceph에서 내부적으로 수행되며 가능한 모든 오류는 Ceph에서 내부적으로 처리합니다.

프로세스

  1. 대시보드 탐색에서 Cluster CryostatHosts 로 이동합니다.
  2. 유지 관리 모드로 전환할 호스트를 선택하고 작업 드롭다운에서 Enter Maintenance (유지 관리 입력)를 클릭합니다.

    참고

    호스트에 Ceph Object Gateway(RGW) 데몬이 포함된 경우 RGW 데몬을 제거하면 클라이언트가 연결이 끊어질 수 있다는 경고가 표시됩니다. 계속 을 클릭하여 유지보수를 입력합니다.

    참고

    호스트가 유지 관리 모드로 전환되면 모든 데몬이 중지됩니다. 호스트 보기를 확장하고 데몬 탭으로 전환하여 호스트의 데몬 상태를 확인합니다.

    호스트가 유지 관리로 성공적으로 이동되었음을 알림이 표시됩니다.

검증

  1. 유지 관리 레이블이 Host 테이블의 Status 열에 표시됩니다.

    참고

    유지 관리 모드가 실패하면 실패 이유를 나타내는 알림이 표시됩니다.

9.2. 유지 관리 모드 종료

호스트를 다시 시작하려면 Red Hat Ceph Storage 대시보드에서 유지 관리 모드로 이동할 수 있습니다.

사전 요구 사항

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • 대시보드가 설치되어 있어야 합니다.
  • 기타 모든 사전 요구 사항 검사는 Ceph에서 내부적으로 수행되며 가능한 모든 오류는 Ceph에서 내부적으로 처리합니다.

프로세스

  1. 대시보드 탐색에서 Cluster CryostatHosts 로 이동합니다.
  2. 현재 유지 관리 모드에 있는 호스트를 선택하고 작업 드롭다운에서 종료 유지 관리를 클릭합니다.

    참고

    Host 테이블의 Status (상태) 열에서 유지 관리 레이블을 확인하여 유지보수 할 호스트를 식별합니다.

    호스트가 유지 관리에서 성공적으로 이동되었음을 알리는 알림이 표시됩니다.

  3. 호스트에 필요한 서비스를 생성합니다. 기본적으로 crashnode-exporter 가 배포됩니다.

검증

  1. 유지 관리 레이블은 Host 테이블의 Status 열에서 제거됩니다.

9.3. Ceph 대시보드를 사용하여 호스트 제거

Ceph 클러스터에서 호스트를 제거하려면 Red Hat Ceph Storage 대시보드에서 시작제거 옵션을 사용할 수 있습니다.

사전 요구 사항

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • 대시보드가 설치되어 있어야 합니다.
  • 기타 모든 사전 요구 사항 검사는 Ceph에서 내부적으로 수행되며 가능한 모든 오류는 Ceph에서 내부적으로 처리합니다.

프로세스

  1. 대시보드 탐색에서 Cluster CryostatHosts 로 이동합니다.
  2. 제거할 호스트를 선택하고 작업 드롭다운에서 드레이닝 시작을 클릭합니다.

    그림 9.1. 드인 시작 옵션 선택

    드인 시작 옵션 선택

    이 옵션은 호스트의 모든 데몬을 드레이닝합니다.

    참고

    _no_schedule 레이블은 이 호스트의 데몬 배포를 차단하는 호스트에 자동으로 적용됩니다.

    1. 선택 사항: 호스트에서 데몬 드레이닝을 중지하려면 작업 드롭다운에서 드레이닝 중지 를 클릭합니다.
  3. 모든 데몬이 호스트에서 제거되었는지 확인합니다.

    1. 호스트 행을 확장합니다.
    2. 데몬 탭으로 이동합니다.

      데몬이 나열되지 않아야 합니다.

      중요

      모든 데몬이 제거되면 클러스터에서 호스트를 안전하게 제거할 수 있습니다.

  4. 제거할 호스트를 선택하고 작업 드롭다운에서 제거를 클릭합니다.

    1. Remove Host notification에서 Yes를 선택하고 Remove Host 를 클릭합니다.

      호스트 대화 상자

      호스트가 제거되었음을 알리는 알림이 표시됩니다.

10장. 대시보드에서 Ceph OSD 관리

스토리지 관리자는 Red Hat Ceph Storage 대시보드에서 OSD를 모니터링하고 관리할 수 있습니다.

Red Hat Ceph Storage 대시보드의 일부 기능은 다음과 같습니다.

  • OSD, 해당 상태, 통계, 속성, 메타데이터, 장치 상태, 성능 카운터 및 성능 세부 정보와 같은 정보를 나열합니다.
  • OSD를 중단, in, out, lost, purge, reweight, scrub, deep-scrub, destroy, delete, select 프로필을 선택하여 백필 작업을 조정합니다.
  • OSD와 연결된 모든 드라이브를 나열합니다.
  • OSD의 장치 클래스를 설정하고 변경합니다.
  • 새 드라이브 및 호스트에 OSD를 배포합니다.

사전 요구 사항

  • 실행 중인 Red Hat Ceph Storage 클러스터
  • Red Hat Ceph Storage 대시보드에서 cluster-manager 액세스 수준

10.1. Ceph 대시보드에서 OSD 관리

Red Hat Ceph Storage 대시보드의 Ceph OSD에서 다음 작업을 수행할 수 있습니다.

  • 새 OSD를 만듭니다.
  • OSD의 장치 클래스를 편집합니다.
  • 플래그를 No Up,No Down,No In 또는 No Out 으로 표시합니다.
  • OSD를 스크럽하고 딥크립션합니다.
  • OSD Reweight.
  • OSD를 , 에서,Down 또는 Lost 로 표시합니다.
  • OSD를 제거합니다.
  • OSD를 삭제합니다.
  • OSD를 삭제합니다.

사전 요구 사항

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • 대시보드가 설치되어 있어야 합니다.
  • 호스트, 모니터 및 관리자 데몬이 스토리지 클러스터에 추가됩니다.

프로세스

대시보드 탐색에서 Cluster-OSD 로 이동합니다.

OSD 생성

  1. OSD를 생성하려면 OSD 목록에서 생성 을 클릭합니다.

    그림 10.1. OSD용 장치 추가

    OSD용 장치 추가
    참고

    사용 가능한 호스트 및 몇 가지 사용 가능한 장치가 있는지 확인합니다. Cluster CryostatPhysical Disks 에서 사용 가능한 장치를 확인하고 Available.

    1. OSD 만들기 양식의 Deployment Options 섹션에서 다음 옵션 중 하나를 선택합니다.

      • Cost/Capacity-optimized: 클러스터가 사용 가능한 모든 HDD와 함께 배포됩니다.
      • 처리량 최적화: 더 낮은 장치는 데이터를 저장하는 데 사용되며 더 빠른 장치는 저널/WAL을 저장하는 데 사용됩니다.
      • IOPS 최적화: 사용 가능한 모든 NVMe 장치는 OSD를 배포하는 데 사용됩니다.
    2. 고급 모드 섹션에서 추가 를 클릭하여 기본, WAL 및 DB 장치를 추가합니다.

      • 기본 장치: 기본 스토리지 장치에는 모든 OSD 데이터가 포함됩니다.
      • WAL 장치: Write-Ahead-Log 장치는 BlueStore의 내부 저널에 사용되며 WAL 장치가 기본 장치보다 빠른 경우에만 사용됩니다. 예를 들면 NVMe 또는 SSD 장치입니다.
      • DB 장치: DB 장치는 BlueStore의 내부 메타데이터를 저장하는 데 사용되며 DB 장치가 기본 장치보다 빠른 경우에만 사용됩니다. 예를 들면 NVMe 또는 SSD 장치입니다.
    3. 데이터를 암호화하려면 보안을 위해 양식의 기능 섹션에서 암호화를 선택합니다.
    4. 프리뷰 를 클릭합니다.
    5. OSD 생성 프리뷰 대화 상자에서 OSD를 검토하고 생성 을 클릭합니다.

      OSD가 성공적으로 생성되고 OSD 상태가 in and down 에서 in and up 으로 변경됩니다.

OSD 편집

  1. OSD를 편집하려면 행을 선택하고 편집 을 클릭합니다.

    1. Edit OSD 폼에서 장치 클래스를 편집합니다.
    2. OSD 편집을 클릭합니다.

      그림 10.2. OSD 편집

      OSD 편집

      OSD가 성공적으로 업데이트되었음을 알리는 알림이 표시됩니다.

OSD 플래그 표시

  1. OSD의 플래그를 표시하려면 행을 선택하고 작업 드롭다운에서 Flags 를 클릭합니다.
  2. 개별 OSD 플래그 양식에서 필요한 OSD 플래그를 선택합니다.
  3. 업데이트를 클릭합니다.

    그림 10.3. OSD 플래그 표시

    OSD 플래그 표시

    OSD 플래그가 성공적으로 업데이트되었다는 알림이 표시됩니다.

OSD 스크럽

  1. OSD를 분리하려면 행을 선택하고 작업 드롭다운에서 Scrub 를 클릭합니다.
  2. OSDs Scrub 알림에서 업데이트를 클릭합니다.

    그림 10.4. OSD 스크럽

    OSD 스크럽

    OSD의 스크러블링이 성공적으로 시작되었음을 알리는 알림이 표시됩니다.

OSD 스프링링

  1. OSD를 깊이 늘리려면 행을 선택하고 작업 드롭다운에서 Deep Scrub 를 클릭합니다.
  2. OSD의 Deep Scrub 알림에서 업데이트를 클릭합니다.

    그림 10.5. OSD 딥러빙

    OSD 딥러빙

    OSD의 깊은 스크럽이 성공적으로 시작되었음을 알리는 알림이 표시됩니다.

OSD Reweighting

  1. OSD의 가중치를 다시 지정하려면 행을 선택하고 작업 드롭다운에서 Reweight 을 클릭합니다.
  2. Reweight OSD 양식에서 0에서 1 사이의 값을 입력합니다.
  3. Reweight 을 클릭합니다.

    그림 10.6. OSD Reweighting

    OSD Reweighting

OSD 외부표시

  1. OSD를 out 로 표시하려면 행을 선택하고 작업 드롭다운에서 Mark Out 을 클릭합니다.
  2. Mark OSD out 알림에서 Mark Out 을 클릭합니다.

    그림 10.7. OSD 외부표시

    OSD 외부 표시

    OSD 상태가 out 로 변경됩니다.

에서OSD 표시

  1. OSD를 in 에서 표시하려면 상태가 없는 OSD 행을 선택하고 작업 드롭다운에서 Mark In 을 클릭합니다.
  2. 알림 에서 Mark OSD 를 클릭합니다.

    그림 10.8. 에서OSD 표시

    에서 OSD 표시

    OSD 상태가 의 변경됩니다.

OSD 다운

  1. OSD를 아래로 표시하려면 행을 선택하고 작업 드롭다운에서 마크 Down 을 클릭합니다.
  2. Mark OSD down notification에서 Mark Down 을 클릭합니다.

    그림 10.9. OSD 다운

    OSD 다운

    OSD 상태가 down 으로 변경됩니다.

OSD 손실

  1. OSD 손실 됨을 표시하려면 OSD를 outdown 상태로 선택하고 작업 드롭다운에서 Mark Lost 를 클릭합니다.
  2. Mark OSD Lost 알림에서 Yes를 선택하고 Mark Lost 를 클릭합니다.

    그림 10.10. OSD 손실

    OSD 손실됨

OSD 제거

  1. OSD를 제거하려면 다운 상태의 OSD를 선택하고 작업 드롭다운에서 Purge 를 클릭합니다.
  2. Purge OSDs 알림에서 Yes를 선택하고 Purge OSD 를 클릭합니다.

    그림 10.11. OSD 제거

    OSD 제거

    모든 플래그가 재설정되고 OSD가 다시 inup 상태입니다.

OSD 삭제

  1. OSD를 삭제하려면 아래 상태의 OSD를 선택하고 작업 드롭다운에서 Destroy 를 클릭합니다.
  2. Destroy OSDs 알림에서 Yes를 선택하고 Destroy OSD 를 클릭합니다.

    그림 10.12. OSD 삭제

    OSD 삭제

    OSD 상태가 destroyed 로 변경됩니다.

OSD 삭제

  1. OSD를 삭제하려면 작업 드롭다운에서 OSD를 선택하고 삭제 를 클릭합니다.
  2. Delete OSDs 알림에서 Yes를 선택하고 Delete OSD 를 클릭합니다.

    참고

    실패한 OSD를 교체해야 하는 경우 OSD_ID를 유지할 수 있습니다.

    그림 10.13. OSD 삭제

    OSD 삭제

10.2. Ceph 대시보드에서 실패한 OSD 교체

Red Hat Ceph Storage 클러스터에서 실패한 OSD를 대시보드에서 cluster-manager 액세스 수준으로 교체할 수 있습니다. 대시보드에서 이 기능의 주요 중 하나는 실패한 OSD를 교체하는 동안 OSD ID를 유지할 수 있다는 것입니다.

사전 요구 사항

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • 적어도 Ceph 대시보드에 대한 cluster-manager 수준의 액세스 수준입니다.
  • OSD 중 하나 이상이 다운됨

프로세스

  1. 대시보드에서 다음과 같은 방법으로 실패한 OSD를 식별할 수 있습니다.

    • 대시보드 AlertManager 팝업 알림.
    • HEALTH_WARN 상태를 보여주는 대시보드 방문 페이지.
    • 실패한 OSD를 표시하는 대시보드 시작 페이지입니다.
    • 실패한 OSD를 보여주는 대시보드 OSD 목록.

      다음 예제에서는 OSD 중 하나가 다운되고 하나는 대시보드의 시작 페이지에 있음을 확인할 수 있습니다.

      그림 10.14. Ceph 대시보드 시작 페이지의 OSD 상태

      OSD의 상태

      OSD 중 하나가 다운된 경우 물리적 드라이브에서 gdblinking 표시등을 볼 수도 있습니다.

  2. OSD 목록 테이블의 Cluster CryostatOSD s 의 OSD 및 축소 를 선택합니다.

    1. 작업 드롭다운에서 플래그 를 클릭하고 개별 OSD 플래그 양식에서 No Up 을 선택한 다음 업데이트를 클릭합니다.
    2. 작업 드롭다운에서 삭제 를 클릭합니다. OSD 알림 삭제 에서 교체를 위해 Preserve OSD ID 를 선택하고 예, OSD 삭제 를 클릭합니다.
    3. OSD 상태가 outdestroyed 로 변경될 때까지 기다립니다.
  3. 선택 사항: 전체 클러스터의 No Up Flags 를 클러스터 전체 구성 메뉴에서 변경하려면 플래그 를 선택합니다.

    1. 클러스터 전체 OSD 플래그 양식에서 No Up 을 선택하고 Update 를 클릭합니다.
  4. 선택 사항: 하드 디스크 장애로 인해 OSD가 다운된 경우 물리 드라이브를 교체합니다.

    • 드라이브가 핫 스왑 가능한 경우 오류가 발생한 드라이브를 새 드라이브로 교체합니다.
    • 드라이브가 핫 스왑할 수 없고 호스트에 여러 OSD가 포함된 경우 전체 호스트를 종료하고 물리적 드라이브를 교체해야 할 수 있습니다. 클러스터가 백필링되지 않도록 하는 것이 좋습니다. 자세한 내용은 Red Hat Ceph Storage 문제 해결 가이드중지 및 재조정 시작 장을 참조하십시오.
    • 드라이브가 /dev/ 디렉토리 아래에 표시되면 드라이브 경로를 기록합니다.
    • OSD를 수동으로 추가하려면 OSD 드라이브를 찾아 디스크를 포맷합니다.
    • 새 디스크에 데이터가 있는 경우 디스크를 zap합니다.

      구문

      ceph orch device zap HOST_NAME PATH --force

      ceph orch device zap ceph-adm2 /dev/sdc --force

  5. Ceph 대시보드 OSD 목록에서 생성 을 클릭합니다.
  6. Create OSDs 양식 Advanced Mode 섹션에서 기본 장치를 추가합니다.

    1. 기본 장치 대화 상자에서 호스트 이름 필터를 선택합니다.
    2. 목록에서 장치 유형을 선택합니다.

      참고

      먼저 Hostname을 선택한 다음 하나 이상의 필터를 선택하여 장치를 추가해야 합니다.

      예를 들어 Hostname 목록에서 Type 을 선택한 다음 hdd 를 선택합니다.

    3. 벤더 를 선택하고 장치 목록에서 ATA 를 선택합니다.

      그림 10.15. 기본 장치 필터 사용

      OSD용 장치 추가
    4. 추가를 클릭합니다.
    5. OSD 생성 양식에서 프리뷰 를 클릭합니다.
    6. OSD 생성 프리뷰 대화 상자에서 생성 을 클릭합니다.

      OSD가 성공적으로 생성되고 OSD가 outdown 상태가 되도록 알림이 표시됩니다.

  7. outdown 상태의 새로 생성된 OSD를 선택합니다.

    1. 작업 드롭다운에서 Mark In 을 클릭합니다.
    2. 알림 에서 Mark OSD 를 클릭합니다.

      OSD 상태가 의 변경됩니다.

    3. 작업 드롭다운에서 플래그 를 클릭합니다.
    4. No Up 선택 사항을 지우고 업데이트를 클릭합니다.
  8. 선택 사항: 클러스터 전체 구성 전에 No Up 플래그를 변경한 경우 클러스터 전체 구성 메뉴에서 플래그 를 선택합니다.

    1. 클러스터 전체 OSD 플래그 양식에서 No Up 선택을 지우고 업데이트를 클릭합니다.

검증

  1. 삭제된 OSD가 장치에서 생성되고 OSD ID가 유지되는지 확인합니다.

    OSD 생성

추가 리소스

11장. 대시보드를 사용하여 Ceph Object Gateway 관리

스토리지 관리자로서 대시보드의 Ceph Object Gateway 기능을 사용하면 Ceph Object Gateway를 관리하고 모니터링할 수 있습니다.

대시보드를 사용하여 SSL(Secure Sockets Layer)으로 Ceph Object Gateway 서비스를 만들 수도 있습니다.

예를 들어 모니터링 기능을 사용하면 영역 이름과 같은 게이트웨이 데몬 또는 GET 및 PUT 비율의 성능 그래프를 볼 수 있습니다. 관리 기능을 사용하면 사용자와 버킷을 모두 보고, 만들고, 편집할 수 있습니다.

Ceph Object Gateway 기능은 사용자 기능과 버킷 함수로 나뉩니다.

11.1. 대시보드에 Ceph 개체 게이트웨이 로그인 인증 정보를 수동으로 추가

Red Hat Ceph Storage 대시보드는 RADOS 게이트웨이 또는 RGW라고도 하는 Ceph Object Gateway를 관리할 수 있습니다. cephadm 과 함께 Ceph Object Gateway를 배포하면 대시보드에서 사용하는 Ceph Object Gateway 인증 정보가 자동으로 구성됩니다. 명령줄 인터페이스를 사용하여 Ceph 개체 게이트웨이 자격 증명을 Ceph 대시보드에 수동으로 강제 적용할 수도 있습니다.

사전 요구 사항

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • 대시보드가 설치되어 있어야 합니다.
  • Ceph Object Gateway가 설치되어 있습니다.

프로세스

  1. Cephadm 쉘에 로그인합니다.

    [root@host01 ~]# cephadm shell

  2. 인증 정보를 수동으로 설정합니다.

    [ceph: root@host01 /]# ceph dashboard set-rgw-credentials

    이렇게 하면 시스템의 각 영역에 대해 UID 대시보드 가 있는 Ceph Object Gateway 사용자가 생성됩니다.

  3. 선택 사항: Ceph Object Gateway 관리 API에서 사용자 정의 관리자 리소스를 구성한 경우 관리자 리소스도 설정해야 합니다.

    구문

    ceph dashboard set-rgw-api-admin-resource RGW_API_ADMIN_RESOURCE

    [ceph: root@host01 /]# ceph dashboard set-rgw-api-admin-resource admin
    Option RGW_API_ADMIN_RESOURCE updated

  4. 선택 사항: 자체 서명된 인증서가 있는 HTTPS를 사용하는 경우 대시보드에서 인증서 확인을 비활성화하여 거부된 연결을 방지합니다.

    거부된 연결은 인증서를 알 수 없는 인증 기관에서 서명한 경우 또는 사용된 호스트 이름이 인증서의 호스트 이름과 일치하지 않을 때 발생할 수 있습니다.

    구문

    ceph dashboard set-rgw-api-ssl-verify false

    [ceph: root@host01 /]# ceph dashboard set-rgw-api-ssl-verify False
    Option RGW_API_SSL_VERIFY updated

  5. 선택 사항: Object Gateway가 요청을 처리하는 데 시간이 너무 오래 걸리며 대시보드가 시간 초과로 실행되는 경우 시간 초과 값을 설정할 수 있습니다.

    구문

    ceph dashboard set-rest-requests-timeout _TIME_IN_SECONDS_

    기본값은 45초입니다.

    [ceph: root@host01 /]# ceph dashboard set-rest-requests-timeout 240

11.2. 대시보드를 사용하여 SSL로 Ceph Object Gateway 서비스 생성

Red Hat Ceph Storage 클러스터를 설치한 후 다음 두 가지 방법을 사용하여 SSL로 Ceph Object Gateway 서비스를 생성할 수 있습니다.

  • 명령줄 인터페이스 사용.
  • 대시보드 사용.

사전 요구 사항

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • 대시보드가 설치되어 있어야 합니다.
  • CA(인증 기관)의 SSL 키.
참고

게이트웨이 호스트의 호스트 이름과 일치하는 CA에서 SSL 인증서를 가져옵니다. Red Hat은 S3 스타일 하위 도메인에 사용할 대상 대체 이름 필드와 와일드카드가 있는 CA에서 인증서를 가져오는 것이 좋습니다.

프로세스

  1. 대시보드 탐색에서 Administration >Services 로 이동합니다.
  2. 생성을 클릭합니다.
  3. Create Service 양식을 작성합니다.

    1. 유형 서비스 목록에서 rgw 를 선택합니다.
    2. service_id 에 사용되는 ID를 입력합니다.
    3. SSL 을 선택합니다.
    4. Choose File 을 클릭하고 SSL 인증서 .pem 형식을 업로드합니다.

      그림 11.1. Ceph Object Gateway 서비스 생성

      Ceph Object Gateway 서비스 생성
    5. 서비스 생성을 클릭합니다.
  4. Ceph Object Gateway 서비스가 실행 중인지 확인합니다.

추가 리소스

11.3. 대시보드에서 Ceph Object Gateway의 고가용성 구성

수신 서비스는 Ceph Object Gateway에 고가용성 엔드포인트를 제공합니다. Ceph 대시보드를 사용하여 수신 서비스를 생성하고 구성할 수 있습니다.

사전 요구 사항

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • 다른 호스트에서 실행되는 최소 두 개의 Ceph Object Gateway 데몬입니다.
  • 대시보드가 설치되어 있어야 합니다.
  • 실행 중인 rgw 서비스.

프로세스

  1. 대시보드 탐색에서 Administration >Services 로 이동합니다.
  2. 생성을 클릭합니다.
  3. 서비스 생성 양식에서 Ingress 서비스를 선택합니다.
  4. 백엔드 서비스를 선택하고 필요한 매개변수를 편집합니다.

    그림 11.2. 수신 서비스 생성

    'ingress' 서비스 생성
  5. 서비스 생성을 클릭합니다.

    수신 서비스가 성공적으로 생성되었음을 알리는 알림이 표시됩니다.

추가 리소스

11.4. 대시보드에서 Ceph Object Gateway 사용자 관리

스토리지 관리자는 Red Hat Ceph Storage 대시보드를 사용하여 Ceph Object Gateway 사용자를 보고 관리할 수 있습니다.

사전 요구 사항

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • 대시보드가 설치되어 있어야 합니다.
  • Ceph Object Gateway가 설치되어 있습니다.
  • 오브젝트 게이트웨이 로그인 인증 정보가 대시보드에 추가됩니다.

11.4.1. 대시보드에서 Ceph 개체 게이트웨이 사용자 생성

CLI를 사용하여 인증 정보가 설정된 경우 Red Hat Ceph Storage에서 Ceph 개체 게이트웨이 사용자를 만들 수 있습니다.

사전 요구 사항

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • 대시보드가 설치되어 있어야 합니다.
  • Ceph Object Gateway가 설치되어 있습니다.
  • 오브젝트 게이트웨이 로그인 인증 정보가 대시보드에 추가됩니다.

프로세스

  1. 대시보드 탐색에서 오브젝트로 이동합니다.
  2. 사용자 탭에서 생성 을 클릭합니다.
  3. 사용자 양식을 생성하고 다음 매개변수를 설정합니다.

    1. 사용자 ID전체 이름을 입력합니다.
    2. 필요한 경우 최대 버킷 수를 편집합니다.
    3. 선택 사항: 이메일 주소입력
    4. 선택 사항: 사용자가 일시 중지되거나 시스템 사용자인 경우 선택합니다.
    5. 선택 사항: S3 키 섹션에서 자동 생성 키 선택을 지워 사용자 정의 액세스 키 및 시크릿 키를 설정합니다.
    6. 선택 사항: 사용자 할당량 섹션에서 사용자 할당량이 활성화되어 있는지, 무제한 크기 또는 무제한 개체 가 있는지 선택합니다. 크기가 제한된 경우 최대 크기를 입력합니다. 제한된 오브젝트가 있는 경우 최대 오브젝트를 입력합니다.
    7. 선택 사항: Bucket quota 섹션에서 버킷 할당량이 활성화되어 있는지, 무제한 크기 또는 무제한 개체 가 있는지 선택합니다. 크기가 제한된 경우 최대 크기를 입력합니다. 제한된 오브젝트가 있는 경우 최대 오브젝트를 입력합니다.
  4. 사용자 생성을 클릭합니다.

    그림 11.3. Ceph 개체 게이트웨이 사용자 만들기

    Ceph 개체 게이트웨이 사용자 생성

    사용자가 성공적으로 생성되었음을 알리는 알림이 표시됩니다.

11.4.2. 대시보드의 Ceph Object Gateway 사용자에게 역할 추가

Red Hat Ceph Storage 대시보드에서 특정 Ceph 개체 게이트웨이 사용자에게 역할을 추가할 수 있습니다.

사전 요구 사항

  • Ceph Object Gateway가 설치되어 있습니다.
  • Ceph Object Gateway 로그인 인증 정보가 대시보드에 추가됩니다.
  • Ceph Object Gateway 사용자가 생성됩니다.

프로세스

  1. 대시보드에 로그인합니다.
  2. 탐색 모음에서 오브젝트 게이트웨이 를 클릭합니다.
  3. 역할을 클릭합니다.
  4. 관련 행을 클릭하여 사용자를 선택합니다.
  5. 편집 드롭다운 메뉴에서 역할 만들기 를 선택합니다.
  6. 역할 생성 창에서 역할 이름,경로 및 사용 역할 정책 문서를 구성합니다.

    그림 11.4. Ceph 개체 게이트웨이 하위 사용자 만들기

    역할 생성
  7. 역할 생성을 클릭합니다.

11.4.3. 대시보드에서 Ceph 개체 게이트웨이 하위 사용자 생성

하위 사용자는 S3 인터페이스의 사용자와 연결됩니다. Red Hat Ceph Storage 대시보드에서 특정 Ceph 개체 게이트웨이 사용자의 하위 사용자를 만들 수 있습니다.

사전 요구 사항

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • 대시보드가 설치되어 있어야 합니다.
  • Ceph Object Gateway가 설치되어 있습니다.
  • 오브젝트 게이트웨이 로그인 인증 정보가 대시보드에 추가됩니다.
  • 오브젝트 게이트웨이 사용자가 생성됩니다.

프로세스

  1. 대시보드 탐색에서 오브젝트로 이동합니다.
  2. Uers 탭에서 사용자를 선택하고 편집을 클릭합니다.
  3. 사용자 편집 양식에서 하위 사용자 만들기 를 클릭합니다.
  4. 하위 사용자 만들기 대화 상자에서 사용자 이름을 입력하고 적절한 권한을 선택합니다.
  5. 자동 생성 시크릿 상자를 선택한 다음 하위 사용자 만들기 를 클릭합니다.

    그림 11.5. Ceph 개체 게이트웨이 하위 사용자 만들기

    Ceph 개체 게이트웨이 하위 사용자 만들기
    참고

    Auto-generate-secret 을 선택하면 Object Gateway의 시크릿 키가 자동으로 생성됩니다.

  6. 사용자 편집 양식에서 사용자 편집을 클릭합니다.

    사용자가 성공적으로 업데이트되었음을 알리는 알림이 표시됩니다.

11.4.4. 대시보드에서 Ceph 개체 게이트웨이 사용자 편집

CLI를 사용하여 인증 정보가 설정된 경우 Red Hat Ceph Storage에서 Ceph 개체 게이트웨이 사용자를 편집할 수 있습니다.

사전 요구 사항

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • 대시보드가 설치되어 있어야 합니다.
  • Ceph Object Gateway가 설치되어 있습니다.
  • 오브젝트 게이트웨이 로그인 인증 정보가 대시보드에 추가됩니다.
  • Ceph 개체 게이트웨이 사용자가 생성됩니다.

프로세스

  1. 대시보드 탐색에서 오브젝트로 이동합니다.
  2. 사용자 탭에서 사용자 행을 선택하고 편집을 클릭합니다.
  3. 사용자 편집 양식에서 필요한 매개 변수를 편집하고 사용자 편집을 클릭합니다.

    그림 11.6. Ceph 개체 게이트웨이 사용자 편집

    Ceph 개체 게이트웨이 편집 사용자

    사용자가 성공적으로 업데이트되었음을 알리는 알림이 표시됩니다.

11.4.5. 대시보드에서 Ceph Object Gateway 사용자 삭제

CLI를 사용하여 인증 정보가 설정되면 Red Hat Ceph Storage에서 Ceph 개체 게이트웨이 사용자를 삭제할 수 있습니다.

사전 요구 사항

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • 대시보드가 설치되어 있어야 합니다.
  • Ceph Object Gateway가 설치되어 있습니다.
  • 오브젝트 게이트웨이 로그인 인증 정보가 대시보드에 추가됩니다.
  • Ceph 개체 게이트웨이 사용자가 생성됩니다.

프로세스

  1. 대시보드 탐색에서 오브젝트로 이동합니다.
  2. 삭제할 사용자 이름을 선택하고 작업 드롭다운에서 삭제 를 클릭합니다.
  3. 사용자 알림 삭제 에서 예, 확인을 선택하고 사용자 삭제 를 클릭합니다.

    사용자는 Users 테이블에서 제거됩니다.

    그림 11.7. Ceph 개체 게이트웨이 사용자 삭제

    Ceph 개체 게이트웨이 삭제 사용자

11.5. 대시보드에서 Ceph Object Gateway 버킷 관리

스토리지 관리자는 Red Hat Ceph Storage 대시보드를 사용하여 Ceph Object Gateway 버킷을 보고 관리할 수 있습니다.

사전 요구 사항

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • 대시보드가 설치되어 있어야 합니다.
  • Ceph Object Gateway가 설치되어 있습니다.
  • Ceph Object Gateway 사용자가 하나 이상 생성됩니다.
  • 오브젝트 게이트웨이 로그인 인증 정보가 대시보드에 추가됩니다.

11.5.1. 대시보드에서 Ceph 개체 게이트웨이 버킷 생성

CLI를 사용하여 인증 정보가 설정된 경우 Red Hat Ceph Storage에서 Ceph 개체 게이트웨이 버킷을 생성할 수 있습니다.

사전 요구 사항

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • 대시보드가 설치되어 있어야 합니다.
  • Ceph Object Gateway가 설치되어 있습니다.
  • 오브젝트 게이트웨이 로그인 인증 정보가 대시보드에 추가됩니다.
  • 오브젝트 게이트웨이 사용자가 생성되고 일시 중지되지 않습니다.

프로세스

  1. 대시보드 탐색에서 Object CryostatBuckets 로 이동합니다.
  2. 생성을 클릭합니다.

    버킷 생성 양식이 표시됩니다.

  3. 버킷 이름을 입력합니다.
  4. 소유자를 선택합니다. 소유자는 일시 중지되지 않은 사용자입니다.
  5. 배치 대상 을 선택합니다.

    중요

    버킷의 배치 대상은 생성 후 변경할 수 없습니다.

  6. 선택 사항: 잠금 섹션에서 Enabled 를 선택하여 버킷 오브젝트에 대한 잠금을 활성화합니다.

    중요

    잠금은 버킷을 생성하는 동안만 활성화할 수 있으며 생성 후에는 변경할 수 없습니다.

    1. 모드 ( Compliance 또는 Governance )를 선택합니다.
    2. Days 필드에서 이 버킷에 배치된 새 오브젝트에 적용되는 기본 보존 기간을 선택합니다.
  7. 선택 사항: 보안 섹션에서 버킷의 개체를 암호화할 보안 을 선택합니다.

    1. SSE-S3의 구성 값을 설정합니다. 암호화 정보 아이콘을 클릭한 다음 here를 클릭합니다.

      참고

      SSE-S3 암호화 유형을 사용하는 경우 Ceph는 사용자가 Vault에 저장된 암호화 키를 관리합니다.

      1. RGW 암호화 구성 업데이트 대화 상자에서 SSE-S3암호화 유형으로 선택되어 있는지 확인합니다.
      2. 필요한 다른 정보를 입력합니다.
      3. Submit 을 클릭합니다.

        그림 11.8. 버킷의 오브젝트 암호화

        Ceph 개체 게이트웨이 암호화 오브젝트
  8. 태그 섹션에서 추가 를 클릭하여 버킷 태그를 추가합니다.

    이러한 태그는 S3 PutBucketTagging과 동일합니다. 태그 Key 및 tag Value 를 입력하여 스토리지 버킷을 분류합니다.

  9. Policies 섹션에서 버킷 정책을 설정합니다.

    1. 버킷 정책을 입력합니다. 필요에 따라 정책 생성기 또는 정책 예제 버튼을 사용하여 버킷 정책을 생성하는 데 도움이 됩니다. 정책을 JSON 형식으로 입력하거나 수정합니다.

      양식 내에서 다음 링크를 사용하여 버킷 정책을 만드는 데 도움이 됩니다. 이러한 링크는 브라우저에서 새 탭을 엽니다.

      • 정책 생성기 는 버킷 정책을 생성하는 AWS의 외부 툴입니다. 자세한 내용은 link::https://awspolicygen.s3.amazonaws.com/policygen.html[AWS Policy Generator]를 참조하십시오.

        참고

        정책 생성기는 S3 버킷 정책 유형과 함께 Ceph Object Gateway 버킷 정책을 빌드하기 위한 지침으로 사용할 수 있습니다.

      • 정책 예제에서는 버킷 정책의 예제를 사용하여 AWS 문서로 이동합니다.

        대시보드를 통해 버킷 정책을 관리하는 방법에 대한 자세한 내용은 대시보드에서 Ceph Object Gateway 버킷 정책 관리를 참조하십시오.

    2. ACL(액세스 제어 목록) 권한 및 권한 정보를 설정합니다.

      표 11.1. ACL 사용자 옵션
      권한bucket개체

      READ

      권한 부여자는 버킷의 오브젝트를 나열할 수 있습니다.

      권한 부여자는 오브젝트를 읽을 수 있습니다.

      쓰기

      부여자는 버킷에 오브젝트를 작성하거나 삭제할 수 있습니다.

      해당 없음

      FULL_CONTROL

      권한 부여자는 버킷에서 오브젝트에 대한 전체 권한을 갖습니다.

      권한 부여자는 오브젝트 ACL을 읽거나 쓸 수 있습니다.

  10. 버킷 생성을 클릭합니다.

    버킷이 성공적으로 생성되었음을 알리는 알림이 표시됩니다.

11.5.2. 대시보드에서 Ceph 개체 게이트웨이 버킷 편집

CLI를 사용하여 인증 정보가 설정된 경우 Red Hat Ceph Storage에서 Ceph 개체 게이트웨이 버킷을 편집할 수 있습니다.

사전 요구 사항

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • 대시보드가 설치되어 있어야 합니다.
  • Ceph Object Gateway가 설치되어 있습니다.
  • 오브젝트 게이트웨이 로그인 인증 정보가 대시보드에 추가됩니다.
  • 오브젝트 게이트웨이 사용자가 생성되고 일시 중지되지 않습니다.
  • Ceph Object Gateway 버킷이 생성되었습니다.

프로세스

  1. 대시보드 탐색에서 Object>Buckets 로 이동합니다.
  2. 탐색 모음에서 오브젝트 게이트웨이 를 클릭합니다.
  3. 업데이트해야 하는 버킷 행을 선택하고 편집을 클릭합니다. Edit Bucket 이 표시됩니다.

    1. 선택 사항: 기존 버킷의 모든 오브젝트에 버전 관리 상태를 활성화하려면 버전을 활성화합니다.

      • 버전 관리를 활성화하려면 버킷의 소유자여야 합니다.
      • 버킷 생성 중에 Locking 이 활성화된 경우 버전 관리를 비활성화할 수 없습니다.
      • 버킷에 추가된 모든 오브젝트에는 고유한 버전 ID가 수신됩니다.
      • 버킷에 버전 관리 상태가 설정되지 않은 경우 버킷에 버전 관리 상태가 없습니다.
    2. 선택 사항: Multi-Factor Authentication에 대해 (삭제 활성화됨)를 선택합니다. MFA(Multi-Factor Authentication)를 사용하면 특정 버킷에서 오브젝트를 제거할 때 사용자가 일회성 암호(OTP)를 사용해야 합니다. 토큰 일련 번호 및 토큰 PIN 값을 입력합니다.

      참고

      버킷은 S3 API를 통해 수행할 수 있는 버전 관리 및 MFA를 사용하여 구성해야 합니다.

    3. 선택 사항: 필요에 따라 태그정책을 업데이트합니다. 정책을 업데이트하려면 Bucket 정책 및 ACL(액세스 제어 목록) 권한 및 권한 정보를 업데이트하는 작업이 포함됩니다. 자세한 내용은 대시보드에서 Ceph 개체 게이트웨이 버킷 생성을 참조하십시오.
  4. Edit Bucket 을 클릭하여 변경 사항을 저장합니다. 버킷이 성공적으로 업데이트되었다는 알림이 표시됩니다.

11.5.3. 대시보드에서 Ceph Object Gateway 버킷 삭제

CLI를 사용하여 인증 정보가 설정된 경우 Red Hat Ceph Storage에서 Ceph 개체 게이트웨이 버킷을 삭제할 수 있습니다.

사전 요구 사항

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • 대시보드가 설치되어 있어야 합니다.
  • Ceph Object Gateway가 설치되어 있습니다.
  • Object Gateway 로그인 자격 증명이 대시보드에 추가됩니다.
  • Object Gateway 사용자가 생성되고 일시 중지되지 않습니다.
  • Ceph Object Gateway 버킷이 생성되었습니다.

프로세스

  1. 대시보드 탐색에서 Object CryostatBuckets 로 이동합니다.
  2. 삭제할 버킷을 선택하고 작업 드롭다운에서 삭제 를 클릭합니다.
  3. 버킷 삭제 알림에서 예를 선택하고 버킷 삭제 를 클릭합니다.

    그림 11.9. Ceph Object Gateway 버킷 삭제

    Ceph 개체 게이트웨이 삭제 버킷

11.6. Ceph 대시보드에서 다중 사이트 오브젝트 게이트웨이 구성 모니터링

Red Hat Ceph Storage 대시보드는 다중 사이트 오브젝트 게이트웨이 구성에서 다른 영역에서 사용자와 버킷을 모니터링할 수 있습니다. 예를 들어 사용자 및 버킷이 기본 사이트의 특정 영역에 생성되는 경우 보조 사이트의 보조 영역에 있는 해당 사용자 및 버킷을 모니터링할 수 있습니다.

사전 요구 사항

  • 두 사이트 모두에 배포된 Red Hat Ceph Storage 클러스터를 실행 중인 하나 이상
  • 대시보드가 설치되어 있어야 합니다.
  • 다중 사이트 개체 게이트웨이는 기본 및 보조 사이트에 구성되어 있습니다.
  • 기본 및 보조 사이트의 개체 게이트웨이 로그인 자격 증명이 대시보드에 추가됩니다.
  • 오브젝트 게이트웨이 사용자는 기본 사이트에서 생성됩니다.
  • 오브젝트 게이트웨이 버킷은 기본 사이트에서 생성됩니다.

프로세스

  1. 보조 사이트의 대시보드 탐색에서 Object CryostatBuckets 로 이동합니다.
  2. 기본 사이트의 Object Gateway 사용자를 위해 생성된 보조 랜딩 페이지의 Object Gateway 버킷을 확인합니다.

    그림 11.10. 다중 사이트 오브젝트 게이트웨이 모니터링

    다중 사이트 오브젝트 게이트웨이 모니터링

추가 리소스

11.7. 대시보드의 사용자별 Ceph 오브젝트 게이트웨이 및 per-bucket 성능 카운터 보기

Grafana 대시보드에서 버킷당 사용자당 Ceph Object Gateway 성능 카운터를 볼 수 있습니다.

사전 요구 사항

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • 대시보드가 설치되어 있어야 합니다.
  • Grafana가 설치되어 있어야 합니다.
  • Ceph Object Gateway가 설치되어 있습니다.
  • 오브젝트 게이트웨이 로그인 인증 정보가 대시보드에 추가됩니다.
  • 오브젝트 게이트웨이 사용자가 생성되고 일시 중지되지 않습니다.
  • Ceph Object Gateway 서비스에 대한 다음 매개변수를 구성합니다.

    # ceph config set <rgw-service> <param> <value>
    "rgw_bucket_counters_cache": "true"
    "rgw_user_counters_cache": "true"

프로세스

  1. Grafana URL에 로그인합니다.

    구문

    https://DASHBOARD_URL:3000

    https://dashboard_url:3000

  2. '대시보드' 탭으로 이동하여 'RGW S3 Analytics'를 검색합니다.
  3. Ceph Object 게이트웨이별 작업을 보려면 'Bucket' 패널을 선택합니다.

    버킷 작업 카운터
  4. 사용자 수준 Ceph Object 게이트웨이 작업을 보려면 'User' 패널을 선택합니다.

    사용자 작업 카운터
참고

클라이언트: s3cmd에서 ' get' 작업 실행에 대해 per-bucket/per-user get 작업 count 명령의 출력이 두 개씩 증가합니다. 이것은 확인된 문제입니다.

11.8. 대시보드에서 Ceph Object Gateway 버킷 정책 관리

스토리지 관리자는 Red Hat Ceph Storage 대시보드를 사용하여 Ceph Object Gateway 버킷 정책을 보고 관리할 수 있습니다.

사전 요구 사항

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • 대시보드가 설치되어 있어야 합니다.
  • Ceph Object Gateway가 설치되어 있습니다.
  • 하나 이상의 Ceph 오브젝트 게이트웨이 사용자가 생성됩니다.
  • Ceph Object Gateway 로그인 인증 정보가 대시보드에 추가됩니다.
  • 하나 이상의 Ceph Object Gateway 버킷입니다. 버킷 생성에 대한 자세한 내용은 대시보드에서 Ceph Object Gateway 버킷 생성을 참조하십시오.

11.8.1. 대시보드에서 Ceph Object Gateway 버킷 정책 생성 및 편집

Red Hat Ceph Storage 대시보드에서 Ceph Object Gateway 버킷 정책을 생성하고 편집할 수 있습니다.

사전 요구 사항

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • 대시보드가 설치되어 있어야 합니다.
  • Ceph Object Gateway가 설치되어 있습니다.
  • 하나 이상의 Ceph 오브젝트 게이트웨이 사용자가 생성됩니다.
  • Ceph Object Gateway 로그인 인증 정보가 대시보드에 추가됩니다.
  • 하나 이상의 Ceph Object Gateway 버킷입니다. 버킷 생성에 대한 자세한 내용은 대시보드에서 Ceph Object Gateway 버킷 생성을 참조하십시오.

프로세스

  1. 대시보드에서 오브젝트 → 버킷 으로 이동합니다.
  2. 기존 버킷에 대한 버킷 정책을 생성하거나 수정합니다.

    참고

    버킷 생성 중에 버킷 정책을 생성하려면 Create 를 클릭하고 Create Bucket 양식의 Policies 섹션에서 버킷 정책 정보를 작성합니다.

    버킷 정책을 생성하거나 수정할 버킷을 선택한 다음 편집 을 클릭합니다.

  3. 버킷 생성 양식에서 정책으로 이동합니다.
  4. 정책을 JSON 형식으로 입력하거나 수정합니다.

    양식 내에서 다음 링크를 사용하여 버킷 정책을 만드는 데 도움이 됩니다. 이러한 링크는 브라우저에서 새 탭을 엽니다.

    • 정책 생성기 는 버킷 정책을 생성하는 AWS의 외부 툴입니다. 자세한 내용은 AWS 정책 생성기 를 참조하십시오.

      참고

      정책 생성기는 S3 버킷 정책 유형과 함께 Ceph Object Gateway 버킷 정책을 빌드하기 위한 지침으로 사용할 수 있습니다.

    • 정책 예제에서는 버킷 정책의 예제를 사용하여 AWS 문서로 이동합니다.
  5. 버킷 정책을 저장하려면 Edit Bucket 을 클릭합니다.

    참고

    초기 버킷 생성 중에 버킷 정책을 생성할 때 버킷 생성을 클릭합니다.

    버킷 정책이 저장되면 Updated Object Gateway 버킷 'bucketname' 알림이 표시됩니다.

11.8.2. 대시보드에서 Ceph Object Gateway 버킷 정책 삭제

Red Hat Ceph Storage 대시보드에서 Ceph Object Gateway 버킷 정책을 삭제할 수 있습니다.

사전 요구 사항

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • 대시보드가 설치되어 있어야 합니다.
  • Ceph Object Gateway가 설치되어 있습니다.
  • 하나 이상의 Ceph 오브젝트 게이트웨이 사용자가 생성됩니다.
  • Ceph Object Gateway 로그인 인증 정보가 대시보드에 추가됩니다.
  • 하나 이상의 Ceph Object Gateway 버킷입니다. 버킷 생성에 대한 자세한 내용은 대시보드에서 Ceph Object Gateway 버킷 생성을 참조하십시오.

프로세스

  1. 대시보드에서 오브젝트 → 버킷 으로 이동합니다.
  2. 버킷 정책을 생성하거나 수정할 버킷을 선택한 다음 편집 을 클릭합니다.
  3. Edit Bucket 양식에서 Policies 로 이동합니다.
  4. Clear 를 클릭합니다.
  5. 버킷 정책 삭제를 완료하려면 버킷 편집을 클릭합니다.

    버킷 정책이 삭제되면 Updated Object Gateway 버킷 'bucketname' 알림이 표시됩니다.

11.9. 대시보드에서 S3 버킷 라이프사이클 정책 관리

스토리지 관리자는 Red Hat Ceph Storage 대시보드를 사용하여 대시보드에서 S3 버킷 라이프사이클 정책을 보고 관리할 수 있습니다.

사전 요구 사항

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • 하나 이상의 Ceph 오브젝트 게이트웨이 사용자가 생성됩니다.
  • Ceph Object Gateway 로그인 인증 정보가 대시보드에 추가됩니다.
  • 하나 이상의 Ceph Object Gateway 버킷입니다. 버킷 생성에 대한 자세한 내용은 대시보드에서 Ceph Object Gateway 버킷 생성을 참조하십시오.

11.9.1. 대시보드에 S3 버킷 라이프사이클 정책 적용 및 보기

Red Hat Ceph Storage 대시보드에서 S3 버킷 라이프사이클 정책을 적용하고 관리할 수 있습니다.

프로세스

버킷 라이프사이클은 버킷 생성 중에 적용할 수 없습니다. 버킷을 생성한 후에만 적용할 수 있습니다.

  1. 대시보드에서 오브젝트버킷 으로 이동합니다.
  2. 라이프사이클 정책을 적용해야 하는 버킷을 선택하고 편집을 클릭합니다.
  3. Edit Bucket 양식에서 Policies 로 이동하여 JSON 형식의 Lifecycle 필드에 라이프사이클 규칙을 적용합니다.
  4. 버킷 라이프사이클 정책을 저장하려면 Edit Bucket 을 클릭합니다.

    그림 11.11. 버킷 라이프사이클 정책 적용

    Ceph 개체 게이트웨이 적용 LC 규칙
  5. 버킷 라이프사이클 정책이 적용된 후 관련 버킷 항목을 확장하여 버킷 목록 화면에서 볼 수 있습니다.

    그림 11.12. 버킷 라이프사이클 정책 보기

    Ceph 개체 게이트웨이 보기 LC 규칙

11.9.2. 대시보드에서 S3 버킷 라이프사이클 정책 삭제

Red Hat Ceph Storage 대시보드에서 S3 버킷 라이프사이클 정책을 삭제할 수 있습니다.

프로세스

  1. 대시보드에서 오브젝트 → 버킷 으로 이동합니다.
  2. 버킷 라이프사이클 정책을 삭제해야 하는 버킷을 선택하고 편집을 클릭합니다.
  3. Edit Bucket 양식에서 Policies 로 이동합니다.
  4. Clear 를 클릭합니다.
  5. 버킷 라이프사이클 정책 삭제를 완료하려면 버킷 편집을 클릭합니다.

11.10. Ceph 대시보드에서 다중 사이트 오브젝트 구성 버킷 관리

스토리지 관리자는 Red Hat Ceph Storage 대시보드의 다른 영역에서 한 영역의 버킷을 편집할 수 있습니다. 그러나 기본 사이트에서 보조 사이트의 버킷을 삭제할 수 있습니다. 다른 사이트에서는 기본 사이트의 마스터 영역의 버킷을 삭제할 수 없습니다. 예를 들어 보조 사이트의 영역에서 버킷이 생성되는 경우 기본 사이트의 마스터 영역에서 해당 버킷을 편집하고 삭제할 수 있습니다.

사전 요구 사항

  • 두 사이트 모두에 배포된 Red Hat Ceph Storage 클러스터를 실행 중인 하나 이상
  • 대시보드가 설치되어 있어야 합니다.
  • 다중 사이트 개체 게이트웨이는 기본 및 보조 사이트에 구성되어 있습니다.
  • 기본 및 보조 사이트의 개체 게이트웨이 로그인 자격 증명이 대시보드에 추가됩니다.
  • 오브젝트 게이트웨이 사용자는 기본 사이트에서 생성됩니다.
  • 오브젝트 게이트웨이 버킷은 기본 사이트에서 생성됩니다.
  • 적어도 Ceph 대시보드에서 rgw-manager 액세스 수준입니다.

11.10.1. 다중 사이트 오브젝트의 버킷 모니터링

대시보드에서 버킷의 다중 사이트 동기화 상태를 모니터링합니다. Ceph 대시보드의 Object CryostatMulti-site 에서 소스 영역 및 동기화 상태를 볼 수 있습니다.

다중 사이트 동기화 상태는 다음 두 섹션으로 나뉩니다.

기본 소스 영역
Ceph Object Gateway가 연결된 기본 영역, zonegroup 및 영역을 표시합니다.
소스 영역
메타데이터 동기화 상태 및 데이터 동기화 정보 진행 상황을 모두 확인합니다. 상태를 클릭하면 shard 동기화가 분석됩니다. 동기화 상태는 마지막 동기화된 타임스탬프와 현재 시간과 관련하여 마지막 동기화 발생 시간을 표시합니다. 동기화가 완료되면 최신 으로 표시됩니다. 동기화가 catch되지 않으면 상태가 Syncing 으로 표시됩니다. 그러나 마지막 동기화는 동기화 되지 않은 일 수를 표시합니다. 동기화를 클릭하면 동기화 되지 않은 shard에 대한 세부 정보가 표시됩니다.

11.10.2. Ceph 대시보드에서 다중 사이트 오브젝트 게이트웨이 구성의 버킷 편집

다중 사이트 오브젝트 게이트웨이 구성에서 Red Hat Ceph Storage 대시보드의 다른 영역에서 한 영역의 버킷 세부 정보를 편집하고 업데이트할 수 있습니다. 대시보드의 이 기능을 사용하여 버킷의 소유자, 버전 관리, 다단계 인증 및 잠금 기능을 편집할 수 있습니다.

사전 요구 사항

  • 두 사이트 모두에 배포된 Red Hat Ceph Storage 클러스터를 실행 중인 하나 이상
  • 대시보드가 설치되어 있어야 합니다.
  • 다중 사이트 개체 게이트웨이는 기본 및 보조 사이트에 구성되어 있습니다.
  • 기본 및 보조 사이트의 개체 게이트웨이 로그인 자격 증명이 대시보드에 추가됩니다.
  • 오브젝트 게이트웨이 사용자는 기본 사이트에서 생성됩니다.
  • 오브젝트 게이트웨이 버킷은 기본 사이트에서 생성됩니다.
  • 적어도 Ceph 대시보드에서 rgw-manager 액세스 수준입니다.

프로세스

  1. 보조 사이트의 대시보드 탐색에서 Object CryostatBuckets 로 이동합니다.

    기본 사이트의 Object Gateway 버킷이 표시됩니다.

  2. 편집할 버킷을 선택하고 작업 드롭다운에서 편집을 클릭합니다.
  3. Edit Bucket 양식에서 필요한 prameters를 편집하고 Edit Bucket 을 클릭합니다.

    버킷이 성공적으로 업데이트됨 알림이 표시됩니다.

    그림 11.13. 다중 사이트에서 버킷 편집

    다중 사이트에서 버킷 편집

추가 리소스

11.10.3. Ceph 대시보드에서 다중 사이트 오브젝트 게이트웨이 구성의 버킷 삭제

다중 사이트 Object Gateway 구성에서 Red Hat Ceph Storage 대시보드의 기본 사이트에서 보조 사이트의 버킷을 삭제할 수 있습니다.

중요

Red Hat은 보조 사이트에서 기본 사이트의 버킷을 삭제하지 않는 것이 좋습니다.

사전 요구 사항

  • 두 사이트 모두에 배포된 Red Hat Ceph Storage 클러스터를 실행 중인 하나 이상
  • 대시보드가 설치되어 있어야 합니다.
  • 다중 사이트 개체 게이트웨이는 기본 및 보조 사이트에 구성되어 있습니다.
  • Object Gateway 로그인 자격 증명은 기본 및 보조 사이트의 대시보드에 추가됩니다.
  • Object Gateway 사용자는 기본 사이트에서 생성됩니다.
  • Object Gateway 버킷은 기본 사이트에서 생성됩니다.
  • 적어도 Ceph 대시보드에서 rgw-manager 액세스 수준입니다.

프로세스

  1. 기본 사이트의 대시보드 탐색에서 Object CryostatBuckets 로 이동합니다.
  2. 삭제할 보조 사이트의 버킷을 선택하고 작업 드롭다운에서 삭제 를 클릭합니다.
  3. 버킷 삭제 알림에서 예를 선택하고 버킷 삭제 를 클릭합니다.

    버킷은 Buckets 테이블에서 삭제됩니다.

추가 리소스

11.11. Ceph 대시보드에서 다중 사이트 오브젝트 게이트웨이 구성

Red Hat Ceph Storage 대시보드에서 Ceph Object Gateway 다중 사이트를 구성할 수 있습니다.

사전 요구 사항

  • 두 사이트 모두에 배포된 실행 중인 Red Hat Ceph Storage 클러스터입니다.
  • 두 사이트 모두에 하나 이상의 Ceph Object Gateway 서비스가 설치되어 있어야 합니다.

프로세스

  1. 기본 및 보조 사이트 모두에서 가져오기/내보냈도록 Ceph Object Gateway 모듈을 활성화합니다.

    1. 보조 사이트의 대시보드 탐색에서 Object CryostatMulti-site 로 이동합니다.
    2. 가져오기/내보냄 기능에 액세스하려면 rgw 모듈을 활성화해야 합니다 .
  2. 기본 사이트 대시보드에서 기본 영역, zonegroup 및 영역을 만듭니다.

    1. Create Cryostat를 클릭합니다.
    2. Create Cryostat 양식에서 영역 이름을 입력하고 Default 를 선택합니다.
    3. Create Cryostat를 클릭합니다.
    4. 작업 드롭다운에서 Create Zone Group 을 클릭합니다.
    5. Create Zone Group 양식에서 영역 그룹 이름, Ceph Object Gateway 엔드포인트를 제공하고 Default 를 선택합니다.
    6. 영역 그룹 생성을 클릭합니다.
    7. 작업 드롭다운에서 Create Zone 을 클릭합니다.
    8. Create Zone 양식에서 Zone Name 을 제공하고 Default 를 선택하고 기본 사이트의 Ceph Object Gateway 엔드포인트를 제공합니다. 사용자의 경우 사용자의 액세스 및 시크릿 키를 시스템 권한으로 제공합니다.

      참고

      영역을 생성하는 동안 Red Hat은 대시보드 기본 사용자 대시보드의 액세스 키와 시크릿 키를 제공하는 것이 좋습니다.

    9. 영역 생성을 클릭합니다.

      Ceph Object Gateway 서비스를 다시 시작하여 영역 생성을 완료하는 경고가 표시됩니다.

  3. Ceph Object Gateway 서비스를 다시 시작합니다.

    1. 보조 사이트의 대시보드 탐색에서 Administration toServices 로 이동합니다.
    2. Ceph Object Gateway 서비스 행을 선택하고 행을 확장합니다.
    3. 데몬 탭에서 호스트 이름을 선택합니다.
    4. 작업 드롭다운에서 다시 시작을 클릭합니다.
  4. 대시보드 탐색의 개체 개요에서 "오브젝트 게이트웨이 서비스가 구성되지 않음" 오류가 발생합니다. 이 버그는 알려진 문제입니다. BZ#2231072 를 참조하십시오.

    1. 이 문제를 해결하려면 명령줄 인터페이스에서 Ceph Object Gateway 자격 증명을 설정합니다.

      구문

      ceph dashboard set-rgw-credentials
      RGW credentials configured

    2. Object Overview로 이동하여 대시보드에서 Ceph Object Gateway에 액세스할 수 있는지 확인합니다.
  5. 기본 사이트에 복제 사용자를 만듭니다. 다음 두 가지 옵션을 사용할 수 있습니다.

    • CLI를 사용하여 사용자를 생성합니다.

      [ceph: root@host01 /]# radosgw-admin user create --uid="uid" --display-name="displayname" --system

    • 대시보드에서 사용자를 만들고 CLI에서 사용자를 수정합니다.

      [ceph: root@host01 /]# radosgw-admin user modify --uid="uid" --system

  6. 대시보드 탐색에서 오브젝트로 이동합니다.
  7. 사용자 행을 확장하고 에서 표시 를 클릭합니다.

    1. Copy to clipboardboard 를 사용하여 액세스 및 시크릿 키를 복사합니다.

      이는 이후 단계에서 사용됩니다.

  8. 기본 사이트 대시보드에서 Object CryostatMulti-site 로 이동합니다.

    1. 토폴로지 뷰어 에서 영역을 선택하고 편집 아이콘을 클릭합니다.
    2. Edit Zone 양식에서 액세스 키를 S3 액세스 키 필드에 붙여넣고 S3 시크릿 키 필드에 secret 키를 붙여넣습니다. 이전에 복사한 키를 사용합니다.
    3. 영역 편집을 클릭합니다.
  9. 내보내기 를 클릭합니다.

    1. Export Multi-site Cryostat Token 대화 상자에서 토큰을 복사합니다.
  10. 보조 사이트에서 Object CryostatMulti-site 로 이동합니다.
  11. 가져오기를 클릭하여 기본 영역에서 토큰을 가져옵니다.

    1. 다중 사이트 토큰 가져오기 대화 상자의 Zone 섹션에서 이전에 복사한 토큰을 붙여넣고 보조 영역 이름을 제공합니다.
    2. Service 섹션에서 새 Ceph Object Gateway 서비스를 생성할 배치 및 포트를 선택합니다.
    3. 가져오기 를 클릭합니다.

      Ceph Object Gateway 서비스를 다시 시작하는 경고가 표시됩니다.

  12. Ceph Object Gateway 서비스를 다시 시작합니다.

    1. 보조 사이트의 대시보드 탐색에서 Administration toServices 로 이동합니다.
    2. Ceph Object Gateway 서비스 행을 선택하고 행을 확장합니다.
    3. 데몬 탭에서 호스트 이름을 선택합니다.
    4. 작업 드롭다운에서 다시 시작을 클릭합니다.

      사용자가 보조 사이트로 동기화될 때까지 기다립니다.

  13. 다음 명령을 사용하여 동기화가 완료되었는지 확인합니다.

    구문

    radosgw-admin sync status
    radosgw-admin user list

    [ceph: root@host01 /]# radosgw-admin sync status
    [ceph: root@host01 /]# radosgw-admin user list

  14. 오브젝트 개요 에서 "오브젝트 게이트웨이 서비스가 구성되지 않았습니다."라는 오류가 표시됩니다. 이 버그는 알려진 문제입니다. BZ#2231072 를 참조하십시오.

    1. 이 문제를 해결하려면 명령줄 인터페이스에서 Ceph Object Gateway 자격 증명을 설정합니다.

      구문

      ceph dashboard set-rgw-credentials
      RGW credentials configured

    2. Object Overview로 이동하여 대시보드에서 Ceph Object Gateway에 액세스할 수 있는지 확인합니다.
  15. 기본 사이트인 Object CryostatOverview 에서는 Multi-Site Sync Status 섹션에서 끝점과 호스트 이름이 IP 주소가 아님을 확인할 수 있으므로 오류가 표시됩니다. 이 버그는 다중 사이트를 구성하는 동안 알려진 문제입니다. BZ#2242994 를 참조하십시오.

    1. 해결 방법으로 보조 사이트 대시보드에서 Object CryostatMulti-site 로 이동합니다.
    2. 보조 영역을 선택하고 편집 아이콘을 클릭합니다.
    3. IP 주소를 반영하도록 끝점을 편집합니다.
    4. 영역 편집을 클릭합니다.
  16. 기본 사이트 및 보조 사이트 대시보드의 개체 개요 보기다중 사이트 동기화 상태 섹션에 상태가 표시됩니다.

    다중 사이트 동기화 상태

검증

  • 기본 사이트에 사용자를 생성합니다. 사용자가 보조 사이트에 동기화된 것을 확인할 수 있습니다.

12장. Ceph 대시보드를 사용하여 파일 시스템 관리

스토리지 관리자는 Red Hat Ceph Storage 대시보드에서 파일 시스템 액세스를 생성, 편집, 삭제 및 관리할 수 있습니다.

12.1. CephFS 볼륨 구성

스토리지 관리자는 Red Hat Ceph Storage 대시보드에서 Ceph File System(CephFS) 볼륨을 구성할 수 있습니다.

12.1.1. CephFS 볼륨 생성

Red Hat Ceph Storage 대시보드에서 Ceph File System(CephFS) 볼륨을 생성할 수 있습니다.

사전 요구 사항

  • MDS가 배포된 작동 중인 Red Hat Ceph Storage 클러스터입니다.

프로세스

  1. 대시보드 탐색에서 파일 > 파일 시스템으로 이동합니다.
  2. 생성을 클릭합니다.
  3. Create Volume 창에서 다음 매개변수를 설정합니다.

    1. name: 볼륨의 이름을 설정합니다.
    2. 배치(선택 사항): 볼륨의 배치를 선택합니다. Hosts 또는 Label 중 하나로 설정할 수 있습니다.
    3. 호스트/레이블(선택 사항): 이전 옵션에서 호스트로 배치를 선택한 경우 목록에서 적절한 호스트를 선택합니다. 이전 옵션에서 배치를 Label으로 선택한 경우 레이블을 입력합니다.

      [IMPORTANT]: 배치로 사용하는 동안 호스트에 대해 생성된 레이블을 식별하려면 CLI에서 다음 명령을 실행할 수 있습니다.

      [ceph: root@ceph-hk-ds-uoayxl-node1-installer /]# ceph orch host ls
      
      HOST ADDR LABELS STATUS
      
      host01 10.0.210.182 _admin,installer,mon,mgr
      host02 10.0.96.72 mon,mgr
      host03 10.0.99.37 mon,mds
      host04 10.0.99.244 osd,mds
      host05 10.0.98.118 osd,mds
      host06 10.0.98.66 osd,nfs,mds
      host07 10.0.98.23 nfs,mds
      7 hosts in cluster
  4. Create Volume을 클릭합니다.

    1. 볼륨이 성공적으로 생성되었음을 알리는 알림이 표시됩니다.

12.1.2. CephFS 볼륨 편집

Red Hat Ceph Storage 대시보드에서 Ceph 파일 시스템(CephFS) 볼륨을 편집할 수 있습니다.

사전 요구 사항

  • Ceph 파일 시스템이 배포된 작동 중인 Red Hat Ceph Storage 클러스터.

프로세스

  1. 대시보드 탐색에서 파일 > 파일 시스템으로 이동합니다.
  2. 나열된 볼륨에서 편집할 볼륨을 선택하고 편집을 클릭합니다.
  3. 파일 시스템 편집 창에서 필요에 따라 볼륨의 이름을 변경하고 파일 시스템 편집을 클릭합니다.

    볼륨이 성공적으로 편집되었다는 알림이 표시됩니다.

12.1.3. CephFS 볼륨 제거

Red Hat Ceph Storage 대시보드에서 Ceph File System(CephFS) 볼륨을 제거할 수 있습니다.

사전 요구 사항

  • Ceph 파일 시스템이 배포된 작동 중인 Red Hat Ceph Storage 클러스터.

프로세스

  1. 대시보드 탐색에서 파일 > 파일 시스템으로 이동합니다.
  2. 나열된 볼륨에서 제거할 볼륨을 선택하고 작업 드롭다운에서 제거를 클릭합니다.
  3. 파일 시스템 제거 창에서 예를 선택하고 파일 시스템 제거를 클릭합니다.

    볼륨이 성공적으로 제거되었다는 알림이 표시됩니다.

12.2. CephFS 하위 볼륨 그룹 구성

스토리지 관리자는 Red Hat Ceph Storage 대시보드에서 Ceph File System(CephFS) 하위 볼륨을 구성할 수 있습니다.

12.2.1. CephFS 하위 볼륨 그룹 생성

하위 볼륨 그룹을 생성하여 대시보드에서 하위 볼륨을 만들 수 있습니다. 하위 볼륨 그룹을 사용하여 하위 볼륨 집합에 정책을 적용할 수도 있습니다.

사전 요구 사항

  • Ceph 파일 시스템이 배포된 작동 중인 Red Hat Ceph Storage 클러스터.

프로세스

  1. 대시보드 탐색에서 파일 > 파일 시스템으로 이동합니다.
  2. 나열된 볼륨에서 하위 볼륨을 생성할 행을 선택하고 행을 확장합니다.
  3. Subvolume groups 탭에서 'Create'를 클릭하여 하위 볼륨 그룹을 만듭니다.
  4. Create Subvolume group 창에서 다음 매개변수를 입력합니다.

    1. name: 하위 그룹의 이름을 설정합니다.
    2. 볼륨 이름: 볼륨의 올바른 이름이 선택되었는지 확인합니다.
    3. size : 하위 그룹의 크기를 설정합니다. 비워 두거나 0으로 입력한 경우 기본적으로 크기는 무한으로 설정됩니다.
    4. pool : subvolume 그룹의 을 설정합니다. 기본적으로 상위 디렉터리에서 data_pool_layout이 선택됩니다.
    5. UID: 하위 그룹의 UID를 설정합니다.
    6. GID: 하위 그룹의 GID를 설정합니다.
    7. mode: 디렉터리에 대한 권한을 설정합니다. 기본적으로 모드는 755이며 이는 rwxr-xr-x입니다.
  5. Create Subvolume group 을 클릭합니다.

    하위 볼륨 그룹이 성공적으로 생성되었음을 알리는 알림이 표시됩니다.

12.2.2. CephFS 하위 볼륨 그룹 편집

대시보드에서 하위 볼륨 그룹을 편집할 수 있습니다.

사전 요구 사항

  • Ceph 파일 시스템이 배포된 작동 중인 Red Hat Ceph Storage 클러스터.

프로세스

  1. 대시보드 탐색에서 파일 > 파일 시스템으로 이동합니다.
  2. 나열된 볼륨에서 하위 볼륨을 편집할 행을 선택하고 행을 확장합니다.
  3. Subvolume groups 탭에서 편집할 그룹이 포함된 행을 선택합니다.
  4. 편집 을 클릭하여 하위 볼륨 그룹을 편집합니다.
  5. Edit Subvolume group 창에서 필요한 매개 변수를 편집하고 Edit Subvolume group 을 클릭합니다.

    하위 볼륨 그룹을 성공적으로 편집했음을 알리는 알림이 표시됩니다.

12.2.3. CephFS 하위 볼륨 그룹 제거

Red Hat Ceph Storage 대시보드에서 Ceph 파일 시스템(CephFS) 하위 볼륨을 제거할 수 있습니다.

주의

subvolume 그룹을 제거하기 전에 subvolume 그룹 내의 하위 볼륨을 제거해야 합니다.

사전 요구 사항

  • Ceph 파일 시스템이 배포된 작동 중인 Red Hat Ceph Storage 클러스터.

프로세스

  1. 대시보드 탐색에서 파일 > 파일 시스템으로 이동합니다.
  2. 나열된 볼륨에서 하위 볼륨을 제거할 행을 선택하고 행을 확장합니다.
  3. Subvolume groups 탭에서 제거할 하위 볼륨 그룹을 선택하고 작업 드롭다운에서 Remove (제거)를 클릭합니다.
  4. Subvolume 그룹 제거 창에서 '예, I am sure'를 선택하고 Subvolume 그룹 제거를 클릭합니다.

    하위 볼륨 그룹이 성공적으로 제거되었다는 알림이 표시됩니다.

12.3. CephFS 하위 볼륨 구성

스토리지 관리자는 Red Hat Ceph Storage 대시보드에서 Ceph 파일 시스템(CephFS) 하위 볼륨을 구성할 수 있습니다.

12.3.1. CephFS 하위 볼륨 생성

Red Hat Ceph Storage 대시보드에서 Ceph File System(CephFS) 하위 볼륨을 생성할 수 있습니다.

주의

subvolume 그룹을 제거하기 전에 subvolume 그룹 내의 하위 볼륨을 제거해야 합니다.

사전 요구 사항

  • Ceph 파일 시스템이 배포된 작동 중인 Red Hat Ceph Storage 클러스터.

프로세스

  1. 대시보드 탐색에서 파일 > 파일 시스템으로 이동합니다.
  2. 나열된 볼륨에서 행을 선택합니다.
  3. Subvolume 탭에서 하위 볼륨을 생성할 Subvolume 그룹을 선택합니다.

    참고

    Default 옵션을 선택하면 하위 볼륨이 하위 볼륨 그룹 아래에 생성되지 않습니다.

  4. 생성을 클릭하여 하위 볼륨을 생성합니다.
  5. Create Subvolume 창에서 다음 매개변수를 입력합니다.

    1. name: 하위 그룹의 이름을 설정합니다.
    2. subvolume name: 볼륨 이름을 설정합니다.
    3. size: 하위 볼륨의 크기를 설정합니다. 비워 두거나 0으로 입력한 경우 기본적으로 크기는 무한으로 설정됩니다.
    4. pool: subvolume 그룹의 풀을 설정합니다. 기본적으로 상위 디렉터리에서 data_pool_layout이 선택됩니다.
    5. UID: 하위 그룹의 UID를 설정합니다.
    6. GID: 하위 볼륨의 GID를 설정합니다.
    7. mode: 디렉터리에 대한 권한을 설정합니다. 기본적으로 모드는 755이며 이는 rwxr-xr-x입니다.
    8. 분리된 네임스페이스: 별도의 RADOS 네임스페이스에 하위 볼륨을 생성하려면 이 옵션을 선택합니다.
  6. Create Subvolume 을 클릭합니다.

    하위 볼륨이 성공적으로 생성되었다는 알림이 표시됩니다.

12.3.2. CephFS 하위 볼륨 편집

Red Hat Ceph Storage 대시보드에서 Ceph 파일 시스템(CephFS) 하위 볼륨을 편집할 수 있습니다.

참고

대시보드에서 하위 볼륨의 크기만 편집할 수 있습니다.

사전 요구 사항

  • Ceph 파일 시스템이 배포된 작동 중인 Red Hat Ceph Storage 클러스터.
  • 생성된 하위 볼륨입니다.

프로세스

  1. 대시보드 탐색에서 파일 > 파일 시스템으로 이동합니다.
  2. 나열된 볼륨에서 행을 선택합니다.
  3. Subvolume 탭에서 편집할 하위 볼륨을 선택하고 볼륨 내에서 편집을 클릭합니다.
  4. 생성을 클릭하여 하위 볼륨을 생성합니다.
  5. Edit Subvolume 창에서 다음 매개변수를 입력합니다.

    1. name: 하위 그룹의 이름을 설정합니다.
    2. subvolume name: 볼륨 이름을 설정합니다.
    3. size : 하위 그룹의 크기를 설정합니다. 비워 두거나 0으로 입력한 경우 기본적으로 크기는 무한으로 설정됩니다.
    4. pool : subvolume 그룹의 을 설정합니다. 기본적으로 상위 디렉터리에서 data_pool_layout이 선택됩니다.
    5. UID: 하위 그룹의 UID를 설정합니다.
    6. GID: 하위 그룹의 GID를 설정합니다.
    7. mode: 디렉터리에 대한 권한을 설정합니다. 기본적으로 모드는 755이며 이는 rwxr-xr-x입니다.
  6. Edit Subvolume 을 클릭합니다.

    하위 볼륨이 성공적으로 생성되었다는 알림이 표시됩니다.

12.3.3. CephFS 하위 볼륨 제거

Red Hat Ceph Storage 대시보드에서 Ceph 파일 시스템(CephFS) 하위 볼륨을 제거할 수 있습니다.

사전 요구 사항

  • Ceph 파일 시스템이 배포된 작동 중인 Red Hat Ceph Storage 클러스터.
  • 생성된 하위 볼륨입니다.

프로세스

  1. 대시보드 탐색에서 파일 > 파일 시스템으로 이동합니다.
  2. 나열된 볼륨에서 행을 선택합니다.
  3. Subvolume 탭으로 이동하여 제거할 하위 볼륨을 선택한 다음 제거를 클릭합니다.
  4. Remove Subvolume 창에서 선택한 하위 볼륨을 제거할지 여부를 확인하고 Remove Subvolume 을 클릭합니다.

    하위 볼륨이 제거되었다는 알림이 표시됩니다.

12.4. CephFS 스냅샷 관리

스토리지 관리자는 Red Hat Ceph Storage 대시보드에서 Ceph 파일 시스템(CephFS) 볼륨 및 하위 볼륨 스냅샷을 복제할 수 있습니다.

Ceph 파일 시스템(CephFS) 스냅샷은 Ceph 파일 시스템에 대한 변경 불가능한 시점 보기를 생성합니다. CephFS 스냅샷은 비동기적이며 CephFS 디렉터리의 .snap 디렉터리에 있는 특수 숨겨진 디렉터리에 보관됩니다. Ceph 파일 시스템 내의 모든 디렉터리에 대해 스냅샷 생성을 지정할 수 있습니다. 디렉터리를 지정할 때 스냅샷에는 그 아래의 모든 하위 디렉터리도 포함됩니다.

CephFS 스냅샷 기능은 새 Ceph 파일 시스템에서 기본적으로 활성화되어 있지만 기존 Ceph 파일 시스템에서 수동으로 활성화해야 합니다.

주의

각 Ceph Metadata Server(MDS) 클러스터는 snap ID를 독립적으로 할당합니다. 단일 풀을 공유하는 여러 Ceph 파일 시스템에 스냅샷을 사용하면 스냅샷 충돌이 발생하여 파일 데이터가 누락됩니다.

12.4.1. CephFS 하위 볼륨 스냅샷 생성

스토리지 관리자는 Red Hat Ceph Storage 대시보드에서 Ceph File System(CephFS) 하위 볼륨 스냅샷을 생성할 수 있습니다. 스냅샷을 생성하여 Ceph 파일 시스템(CephFS)의 변경 불가능한 시점 보기를 생성할 수 있습니다.

사전 요구 사항

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • 해당 하위 볼륨이 있는 하위 볼륨 그룹입니다.

프로세스

  1. 대시보드에 로그인합니다.
  2. 대시보드 탐색 메뉴에서 파일 > 파일 시스템을 클릭합니다.
  3. subvolune 스냅샷을 생성할 CephFS를 선택합니다.

    파일 시스템을 사용할 수 없는 경우 새 파일 시스템을 생성합니다.

  4. 스냅샷 탭으로 이동합니다. 세 개의 열( 그룹,Subvolumes, Create )이 있습니다.
  5. GroupsSubvolumes 열에서 스냅샷을 생성할 그룹과 하위 볼륨을 선택합니다.
  6. 세 번째 열에서 생성을 클릭합니다. 스냅샷 생성 양식이 열립니다.

    1. name : 기본 이름 (스냅샷 생성의 날짜 및 시간)이 이미 추가되었습니다. 이 이름을 편집하고 새 이름을 추가할 수 있습니다.
    2. 볼륨 이름: 볼륨 이름은 파일 시스템 이름입니다. 선택한 내용에 따라 양식에 이미 추가되어 있습니다.
    3. 하위 볼륨 그룹: 하위 볼륨 그룹 이름이 선택한 대로 이미 추가되어 있습니다. 또는 드롭다운 목록에서 다른 하위 볼륨 그룹을 선택합니다.
    4. sub volume: 선택한 하위 볼륨 이름이 이미 로 추가되었습니다. 또는 드롭다운 목록에서 다른 하위 볼륨을 선택할 수 있습니다.
  7. 스냅샷 생성을 클릭합니다.

    스냅샷이 성공적으로 생성되었다는 알림이 표시됩니다.

검증

  • Snapshots (스냅샷) 탭으로 이동하여 스냅샷이 생성된 하위 볼륨 및 하위 계정을 선택합니다.

12.4.2. CephFS 하위 볼륨 스냅샷 삭제

스토리지 관리자는 Red Hat Ceph Storage 대시보드에서 Ceph File System(CephFS) 하위 볼륨 스냅샷을 생성할 수 있습니다. 스냅샷을 생성하여 Ceph 파일 시스템(CephFS)의 변경 불가능한 시점 보기를 생성할 수 있습니다.

사전 요구 사항

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • 해당 하위 볼륨이 있는 하위 볼륨 그룹입니다.

프로세스

  1. 대시보드에 로그인합니다.
  2. 대시보드 탐색 메뉴에서 파일 > 파일 시스템을 클릭합니다.
  3. 하위 볼륨 스냅샷을 삭제할 CephFS를 선택합니다.
  4. 스냅샷 탭으로 이동합니다.
  5. 삭제할 스냅샷을 선택합니다. 하위 볼륨 그룹을 선택하고 스냅샷이 생성되는 하위 계정을 선택하여 스냅샷을 나열할 수 있습니다.
  6. '예, 확인' 상자를 선택하여 스냅샷을 삭제할지 확인합니다.
  7. Delete Snapshot 을 클릭합니다.

    스냅샷이 성공적으로 삭제되었다는 알림이 표시됩니다.

12.4.3. CephFS 하위 볼륨 스냅샷 복제

스토리지 관리자는 Red Hat Ceph Storage 대시보드에서 Ceph File System(CephFS) 하위 볼륨 스냅샷을 복제할 수 있습니다.

사전 요구 사항

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • 하위 볼륨 스냅샷.

프로세스

  1. 대시보드에 로그인합니다.
  2. 대시보드 탐색 메뉴에서 파일 > 파일 시스템을 클릭합니다.
  3. 하위 볼륨 스냅샷을 복제할 CephFS를 선택합니다.
  4. 스냅샷 탭으로 이동합니다.
  5. 복제할 스냅샷을 선택합니다. 하위 볼륨 그룹을 선택하고 스냅샷이 생성되는 하위 계정을 선택하여 스냅샷을 나열할 수 있습니다. '예, 확인' 상자를 선택하여 스냅샷을 삭제할지 확인합니다.
  6. Delete 버튼 옆에 있는 화살표를 클릭합니다.
  7. Clone 을 클릭하고 다음을 구성합니다.

    1. name : 기본 이름 (복제 생성 날짜 및 시간)이 이미 추가되었습니다. 이 이름을 변경하고 새 이름을 추가할 수 있습니다.
    2. 그룹 이름: 하위 볼륨 그룹 이름이 선택한 대로 이미 추가되어 있습니다. 또는 드롭다운 목록에서 다른 하위 볼륨 그룹을 선택합니다.
  8. 복제 생성을 클릭합니다.

    복제본이 성공적으로 생성됨 알림이 표시됩니다.

  9. Subvolume 열에서 Snapshots (스냅샷) 탭으로 이동하여 복제본이 생성되었는지 확인할 수 있습니다. 복제가 생성되는 하위 계정을 선택합니다.

12.4.4. CephFS 볼륨 스냅샷 생성

스토리지 관리자는 IBM Storage Ceph 대시보드에서 Ceph File System(CephFS) 볼륨 스냅샷을 생성할 수 있습니다. 스냅샷을 생성하여 Ceph 파일 시스템(CephFS) 볼륨의 변경 불가능한 지정 시간 보기를 생성할 수 있습니다.

사전 요구 사항

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • 해당 하위 볼륨이 있는 하위 볼륨 그룹입니다.

프로세스

  1. 대시보드에 로그인합니다.
  2. 대시보드 탐색 메뉴에서 파일 > 파일 시스템을 클릭합니다.
  3. 하위 볼륨 스냅샷을 생성할 CephFS를 선택합니다.

    파일 시스템을 사용할 수 없는 경우 새 파일 시스템을 생성합니다.

  4. Directories 탭으로 이동합니다.
  5. 하위 볼륨 및 볼륨 목록에서 스냅샷을 생성할 볼륨을 선택합니다.
  6. 스냅샷 행에서 생성을 클릭합니다. Create Snapshot(스냅샷 생성) 양식이 열립니다.

    1. name : 기본 이름 (스냅샷 생성의 날짜 및 시간)이 이미 추가되었습니다. 이 이름을 편집하고 새 이름을 추가할 수 있습니다.
  7. 스냅샷 생성을 클릭합니다.

    스냅샷이 성공적으로 생성되었다는 알림이 표시됩니다.

  8. Directories 탭의 Snapshots 행에서 스냅샷이 생성되었는지 확인할 수 있습니다.

12.4.5. CephFS 볼륨 스냅샷 삭제

스토리지 관리자는 Red Hat Ceph Storage 대시보드에서 Ceph File System(CephFS) 볼륨 스냅샷을 삭제할 수 있습니다.

사전 요구 사항

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • 볼륨 스냅샷.

프로세스

  1. 대시보드에 로그인합니다.
  2. 대시보드 탐색 메뉴에서 파일 > 파일 시스템을 클릭합니다.
  3. 하위 볼륨 스냅샷을 삭제할 CephFS를 선택합니다.
  4. Directories 탭으로 이동합니다.
  5. 삭제할 스냅샷을 선택합니다. 스냅샷 행에서 스냅샷 목록을 볼 수 있습니다.
  6. '삭제'를 클릭합니다.
  7. Yes, I am sure to confirm you want to delete the snapshot 확인란을 선택합니다.
  8. CephFS 스냅샷 삭제를 클릭합니다.

    스냅샷이 성공적으로 삭제되었다는 알림이 표시됩니다.

12.5. CephFS 스냅샷 예약

스토리지 관리자는 Red Hat Ceph Storage 대시보드에서 Ceph File System(CephFS) 스냅샷을 예약할 수 있습니다.

Ceph File System(CephFS) 스냅샷을 예약하면 정기적으로 안정적인 백업을 보장하여 데이터 손실 위험을 줄일 수 있습니다. 스냅샷 예약은 수동으로 백업 관리 오버헤드를 줄임으로써 쉽게 관리할 수 있습니다.

특정 파일 시스템, 하위 볼륨 또는 디렉터리에 사용 가능한 스냅샷 목록은 파일 > 파일 시스템 페이지에 있습니다. 예약된 백업을 생성하려면 스냅샷 목록을 사용합니다.

12.5.1. CephFS 스냅샷 일정 생성

스토리지 관리자는 Red Hat Ceph Storage 대시보드에서 Ceph File System(CephFS) 스냅샷 일정을 생성할 수 있습니다.

볼륨 또는 특정 디렉터리의 Ceph 파일 시스템(CephFS) 스냅샷을 자동으로 생성하는 정책을 만듭니다. 또한 일정 빈도를 정의할 수도 있습니다(예: 매 시간, 매일, 매주 등).

스냅샷 수 또는 스냅샷을 유지하려는 기간을 지정할 수 있습니다. 스냅샷 수가 초과되거나 보존 기간이 끝날 때 이전의 모든 스냅샷이 삭제됩니다.

사전 요구 사항

  • 실행 중인 Red Hat Ceph Storage 클러스터.

프로세스

  1. 대시보드 탐색에서 파일 > 파일 시스템으로 이동합니다.

    파일 시스템 볼륨이 나열됩니다. 스냅샷 일정을 생성할 파일 시스템을 선택합니다.

  2. 스냅샷 일정 탭으로 이동합니다.

    참고

    Enable 은 클러스터에서 snapshot_scheduler 가 비활성화된 경우에만 사용할 수 있습니다. . 선택 사항: Enable을 클릭하여 snapshot_scheduler 모듈을 활성화합니다. 스케줄러를 활성화한 후 대시보드가 다시 로드될 때까지 기다린 후 스냅샷 일정 페이지로 다시 이동합니다. '생성'을 클릭합니다.

    + 스냅샷 생성 일정 양식이 열립니다.

    1. 디렉터리 이름, 시작 날짜, 시작 시간, 일정을 입력합니다.

      1. Directory: 디렉터리 또는 하위 볼륨의 경로를 입력하여 검색하고 스냅샷 일정을 생성할 제안된 목록에서 디렉터리를 선택할 수 있습니다.
      2. 시작일: 스케줄러가 스냅샷 생성을 시작할 날짜를 입력합니다. 기본적으로 현재 날짜가 선택됩니다.
      3. 시작 시간: 스케줄러가 스냅샷 생성을 시작할 시간을 입력합니다. 기본적으로 현재 시간이 추가됩니다.
      4. schedule: 스냅샷 수와 스냅샷을 생성할 빈도를 입력합니다. 빈도는 시간별로, daily, weekly, monthly, yearly 또는 lastest 스냅샷일 수 있습니다.
  3. 선택 사항: 일정에 보존 정책을 추가하려면 보존 정책 추가 를 클릭합니다. 여러 보존 정책을 추가할 수 있습니다. 스냅샷 수와 스냅샷을 유지할 빈도를 입력합니다. 빈도는 시간별로, daily, weekly, monthly, yearly 또는 lastest 스냅샷일 수 있습니다.
  4. 스냅샷 일정 생성을 클릭합니다.

    스냅샷 일정이 성공적으로 생성됨 알림이 표시됩니다.

12.5.2. CephFS 스냅샷 일정 편집

스토리지 관리자는 IBM Storage Ceph 대시보드에서 Ceph 파일 시스템(CephFS) 스냅샷 스케줄을 편집할 수 있습니다. 스냅샷 일정의 보존 정책만 편집할 수 있습니다. 다른 보존 정책을 추가하거나 기존 정책을 삭제할 수 있습니다.

사전 요구 사항

  • 실행 중인 Red Hat Ceph Storage 클러스터.

프로세스

  1. 대시보드 탐색에서 파일 > 파일 시스템으로 이동합니다.
  2. 스냅샷 일정을 편집할 CephFS를 선택하고 스냅샷 일정을 클릭합니다.
  3. 편집할 스냅샷 일정을 선택합니다.
  4. '편집'을 클릭합니다. 스냅샷 일정 편집 대화 상자가 표시됩니다.
  5. 선택 사항: 스냅샷 편집 일정 대화 상자에서 보존 정책 추가를 선택하여 일정 보존 정책을 추가합니다.

    스냅샷 수와 스냅샷을 유지할 빈도를 입력합니다. 빈도는 다음 중 하나일 수 있습니다. .. 주간 또는 마지막 스냅샷. 예를 들어 스냅샷 수를 10으로 입력하고 '최신 스냅샷'을 선택하여 생성된 빈도와 관계없이 마지막 10개의 스냅샷을 유지합니다. 일별 .. 시간별 .. 월간 .. yearly

  6. '스냅샷 일정 편집'을 클릭하여 저장합니다.

    보존 정책이 성공적으로 생성됨 알림이 표시됩니다.

  7. 기존 보존 정책을 삭제하려면 휴지통 아이콘을 클릭합니다.

    보존 정책이 성공적으로 삭제됨 알림이 표시됩니다.

12.5.3. CephFS 스냅샷 일정 삭제

스토리지 관리자는 IBM Storage Ceph 대시보드에서 Ceph 파일 시스템(CephFS) 스냅샷 스케줄을 삭제할 수 있습니다.

사전 요구 사항

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • 스냅샷 스케줄입니다.

프로세스

  1. 대시보드 탐색에서 파일 > 파일 시스템으로 이동합니다.
  2. 스냅샷 일정을 편집할 CephFS를 선택합니다.
  3. 'Snapshot schedule'을 클릭합니다.
  4. 삭제할 스냅샷 일정을 선택합니다.
  5. 드롭다운 메뉴에서 '편집'을 클릭합니다.
  6. '삭제'를 클릭합니다.

    스냅샷 일정 삭제 대화 상자가 표시됩니다.

  7. Yes, I am sure to confirm if you want to delete the schedule을 선택합니다.
  8. '삭제' 스냅샷 일정을 클릭합니다.

    스냅샷 일정이 성공적으로 삭제됨 알림이 표시됩니다.

12.5.4. CephFS 스냅샷 일정 비활성화 및 활성화

스토리지 관리자는 IBM Storage Ceph 대시보드에서 Ceph 파일 시스템(CephFS) 스냅샷 일정을 비활성화하고 활성화할 수 있습니다. 스냅샷 일정은 기본적으로 활성화되며 구성 방식에 따라 실행됩니다. 비활성화하면 스냅샷이 다시 활성화될 때까지 스케줄링에서 제외됩니다.

사전 요구 사항

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • 스냅샷 스케줄입니다.

프로세스

  1. 대시보드 탐색에서 파일 > 파일 시스템으로 이동합니다.
  2. 스냅샷 일정을 편집할 CephFS를 선택합니다.
  3. 'Snapshot schedule'을 클릭합니다.
  4. 비활성화할 스냅샷 일정을 선택하고 작업 드롭다운에서 '비활성화'를 클릭합니다.
  5. 예, 일정을 비활성화할지 확인합니다.
  6. 'Deactivate snapshot schedule'을 클릭합니다.

    스냅샷 일정이 비활성화됨 알림이 표시됩니다.

  7. 작업 드롭다운에서 '활성화'를 클릭하여 스냅샷 일정을 활성화할 수 있습니다.

13장. Ceph 대시보드를 사용하여 블록 장치 관리

스토리지 관리자는 Red Hat Ceph Storage 대시보드에서 블록 장치 이미지를 관리하고 모니터링할 수 있습니다. 기능은 일반 이미지 기능과 미러링 함수로 나뉩니다. 예를 들어 새 이미지를 생성하고, 클러스터에 미러링된 이미지 상태를 보고, 이미지에 IOPS 제한을 설정할 수 있습니다.

13.1. Ceph 대시보드에서 블록 장치 이미지 관리

스토리지 관리자는 Red Hat Ceph Storage 대시보드를 사용하여 이미지를 생성, 편집, 복사, 제거 및 삭제할 수 있습니다.

Ceph 대시보드를 사용하여 이미지의 스냅샷을 생성, 복제, 복사, 롤백 및 삭제할 수도 있습니다.

참고

블록 장치 이미지 테이블은 블록 장치 정보 검색 비용을 줄이기 위해 10000개 이상의 이미지 스토리지 클러스터와 함께 사용하기 위해 페이지가 매겨집니다.

13.1.1. Ceph 대시보드에서 이미지 생성

Red Hat Ceph Storage 대시보드에서 블록 장치 이미지를 생성할 수 있습니다.

사전 요구 사항

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • 대시보드가 설치되어 있어야 합니다.
  • rbd 애플리케이션이 활성화된 풀이 생성됩니다.

프로세스

  1. 대시보드 탐색에서 Block CryostatImages 로 이동합니다.
  2. 이미지 탭에서 생성 을 클릭합니다.
  3. 이미지 생성 양식을 작성합니다.
  4. 선택 사항: 고급 을 클릭하여 StripingQuality of Service 와 같은 고급 매개변수를 설정합니다.

    그림 13.1. 블록 장치 이미지 생성

    블록 장치 이미지 생성
  5. 이미지 생성을 클릭합니다.

    이미지가 성공적으로 생성되었음을 알리는 알림이 표시됩니다.

추가 리소스

13.1.2. Ceph 대시보드에서 네임스페이스 생성

Red Hat Ceph Storage 대시보드에서 블록 장치 이미지의 네임스페이스를 생성할 수 있습니다.

네임스페이스가 생성되면 해당 네임스페이스의 사용자에게 액세스 권한을 부여할 수 있습니다.

사전 요구 사항

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • 대시보드가 설치되어 있어야 합니다.
  • rbd 애플리케이션이 활성화된 풀이 생성됩니다.

프로세스

  1. 대시보드 탐색에서 Block CryostatImages 로 이동합니다.
  2. 네임스페이스 탭에서 생성 을 클릭합니다.
  3. 네임스페이스 생성 대화 상자에서 풀을 선택하고 네임스페이스 이름을 입력합니다.
  4. 생성을 클릭합니다.

    네임스페이스가 성공적으로 생성되었음을 알리는 알림이 표시됩니다.

    그림 13.2. 네임스페이스 생성

    네임스페이스 생성

추가 리소스

13.1.3. Ceph 대시보드에서 이미지 편집

Red Hat Ceph Storage 대시보드에서 블록 장치 이미지를 편집할 수 있습니다.

사전 요구 사항

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • 대시보드가 설치되어 있어야 합니다.
  • rbd 애플리케이션이 활성화된 풀이 생성됩니다.
  • 이미지가 생성됩니다.

프로세스

  1. 대시보드 탐색에서 Block CryostatImages 로 이동합니다.
  2. 편집해야 하는 이미지의 메뉴에서 Edit (편집)로 이동합니다.
  3. Edit Image 양식에서 필요한 매개변수를 편집하고 Edit Image 를 클릭합니다.

    이미지가 성공적으로 업데이트되었음을 알리는 알림이 표시됩니다.

    그림 13.3. 이미지 편집

    블록 장치 이미지 편집

추가 리소스

13.1.4. Ceph 대시보드에서 이미지 복사

Red Hat Ceph Storage 대시보드에서 블록 장치 이미지를 복사할 수 있습니다.

사전 요구 사항

시작하기 전에 다음 사전 요구 사항이 있는지 확인하십시오.

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • 대시보드가 설치되어 있어야 합니다.
  • rbd 애플리케이션이 활성화된 풀이 생성됩니다.
  • 이미지가 생성됩니다.

프로세스

  1. 대시보드 탐색에서 Block CryostatImages 로 이동합니다.
  2. 이미지 탭에서 복사할 이미지의 메뉴에서 복사를 클릭합니다.
  3. 이미지 복사 양식에서 필요한 매개변수를 설정하고 이미지 복사를 클릭합니다.

    이미지가 성공적으로 복사되었다는 알림이 표시됩니다.

    그림 13.4. 블록 이미지 복사

    블록 장치 이미지 복사

추가 리소스

13.1.5. Ceph 대시보드에서 이미지를 휴지통으로 이동

Red Hat Ceph Storage 대시보드에서 삭제되기 전에 블록 장치 이미지를 휴지통으로 이동할 수 있습니다.

사전 요구 사항

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • 대시보드가 설치되어 있어야 합니다.
  • rbd 애플리케이션이 활성화된 풀이 생성됩니다.
  • 이미지가 생성됩니다.

프로세스

  1. 대시보드 탐색에서 Block CryostatImages 로 이동합니다.
  2. 이미지 탭에서 휴지통으로 이동할 이미지를 선택하고 이미지 메뉴에서 휴지통으로 이동을 클릭합니다.
  3. 이미지를 휴지통으로 이동 대화 상자에서 Protection expires at 필드에 변경하고 이동을 클릭합니다.

    이미지가 휴지통으로 성공적으로 이동되었다는 알림이 표시됩니다.

    그림 13.5. 이미지를 휴지통으로 이동

    이미지를 휴지통으로 이동

13.1.6. Ceph 대시보드에서 휴지통 제거

Red Hat Ceph Storage 대시보드를 사용하여 휴지통을 제거할 수 있습니다.

사전 요구 사항

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • 대시보드가 설치되어 있어야 합니다.
  • rbd 애플리케이션이 활성화된 풀이 생성됩니다.
  • 이미지가 비어 있습니다.

프로세스

  1. 대시보드 탐색에서 Block CryostatImages 로 이동합니다.
  2. sh 탭에서 Purge recyclesh를 클릭합니다.

    중요

    이미지를 복원할 수 있으려면 휴지통으로 이동하기 전에 만료 날짜를 설정해야 합니다.

  3. Purge Functionsh 대화 상자에서 풀을 선택하고 Purgesh를 클릭합니다.

    휴지통의 풀이 성공적으로 제거되었다는 알림이 표시됩니다.

    그림 13.6. 제거 휴지통

    새 기능 제거

추가 리소스

13.1.7. Ceph 대시보드의 휴지통에서 이미지 복원

Red Hat Ceph Storage 대시보드에서 휴지통 및 만료 날짜가 있는 이미지를 복원할 수 있습니다.

사전 요구 사항

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • 대시보드가 설치되어 있어야 합니다.
  • rbd 애플리케이션이 활성화된 풀이 생성됩니다.
  • 이미지가 비어 있습니다.

프로세스

  1. 대시보드 탐색에서 Block CryostatImages 로 이동합니다.
  2. sh 탭에서 복원할 이미지의 행을 선택합니다.
  3. 보호된 이미지 메뉴에서 복원을 클릭합니다.

    그림 13.7. 휴지통에서 이미지 복원

    휴지통에서 보호된 이미지 복원
  4. 이미지 복원 대화 상자에서 이미지 이름을 검토하고 복원을 클릭합니다.

    이미지가 성공적으로 복원되었음을 알리는 알림이 표시됩니다.

추가 리소스

  • RBD 풀에서 이미지 생성에 대한 자세한 내용은 Red Hat Ceph Storage 대시보드 가이드 의 Ceph 대시보드에서 이미지 생성 섹션을 참조하십시오.

13.1.8. Ceph 대시보드에서 이미지 삭제

Ceph 대시보드의 클러스터에서 이미지를 삭제할 수 있습니다.

사전 요구 사항

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • 대시보드가 설치되어 있어야 합니다.
  • rbd 애플리케이션이 활성화된 풀이 생성됩니다.
  • 이미지가 생성됩니다.

프로세스

  1. 대시보드 탐색에서 Block CryostatImages 로 이동합니다.
  2. 삭제할 행을 선택하고 작업 드롭다운에서 삭제 를 클릭합니다.
  3. RBD 삭제 알림에서 Yes를 선택하고 Delete RBD 를 클릭합니다.

    이미지가 성공적으로 삭제되었다는 알림이 표시됩니다.

13.1.9. Ceph 대시보드에서 네임스페이스 삭제.

Red Hat Ceph Storage 대시보드에서 이미지의 네임스페이스를 삭제할 수 있습니다.

사전 요구 사항

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • 대시보드가 설치되어 있어야 합니다.
  • rbd 애플리케이션이 활성화된 풀이 생성됩니다.
  • 풀에 네임스페이스가 생성됩니다.

프로세스

  1. 대시보드 탐색에서 Block CryostatImages 로 이동합니다.
  2. 네임스페이스 탭에서 네임스페이스를 선택하고 작업 드롭다운에서 삭제 를 클릭합니다.
  3. 네임스페이스 삭제 알림에서 예를 선택하고 네임스페이스 삭제 를 클릭합니다.

    네임스페이스가 성공적으로 삭제되었다는 알림이 표시됩니다.

13.1.10. Ceph 대시보드에서 이미지 스냅샷 생성

Red Hat Ceph Storage 대시보드에서 Ceph 블록 장치 이미지의 스냅샷을 가져올 수 있습니다.

사전 요구 사항

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • 대시보드가 설치되어 있어야 합니다.
  • rbd 애플리케이션이 활성화된 풀이 생성됩니다.
  • 이미지가 생성됩니다.

프로세스

  1. 대시보드 탐색에서 Block CryostatImages 로 이동합니다.
  2. 이미지 탭에서 이미지 행을 확장합니다.
  3. 스냅샷 탭에서 생성 을 클릭합니다.
  4. Create RBD Snapshot 대화 상자에서 스냅샷 이름을 입력하고 Create RBD Snapshot 을 클릭합니다.

    그림 13.8. 이미지 스냅샷 생성

    이미지 스냅샷 생성

    스냅샷이 성공적으로 생성되었음을 알리는 알림이 표시됩니다.

추가 리소스

13.1.11. Ceph 대시보드에서 이미지의 스냅샷 이름 변경

Red Hat Ceph Storage 대시보드에서 Ceph 블록 장치 이미지의 스냅샷 이름을 변경할 수 있습니다.

사전 요구 사항

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • 대시보드가 설치되어 있어야 합니다.
  • rbd 애플리케이션이 활성화된 풀이 생성됩니다.
  • 이미지가 생성됩니다.
  • 이미지의 스냅샷이 생성됩니다.

프로세스

  1. 대시보드 탐색에서 Block CryostatImages 로 이동합니다.
  2. 이미지 탭에서 이미지 행을 확장합니다.
  3. 스냅샷 탭에서 Rename 을 클릭합니다.
  4. Rename RBD Snapshot 대화 상자에서 새 이름을 입력하고 Rename RBD Snapshot 을 클릭합니다.

추가 리소스

13.1.12. Ceph 대시보드에서 이미지 스냅샷 보호

Red Hat Ceph Storage 대시보드에서 Ceph 블록 장치 이미지의 스냅샷을 보호할 수 있습니다.

이는 스냅샷을 복제해야 하는 경우 필요합니다.

사전 요구 사항

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • 대시보드가 설치되어 있어야 합니다.
  • rbd 애플리케이션이 활성화된 풀이 생성됩니다.
  • 이미지가 생성됩니다.
  • 이미지의 스냅샷이 생성됩니다.

프로세스

  1. 대시보드 탐색에서 Block CryostatImages 로 이동합니다.
  2. 이미지 탭에서 이미지 행을 확장하고 Snapshots 탭을 클릭합니다.
  3. 보호할 스냅샷을 선택하고 작업 드롭다운에서 protect 을 클릭합니다.

    스냅샷은 업데이트되고 상태가 비 보호 에서 Protected 로 변경됩니다.

추가 리소스

13.1.13. Ceph 대시보드에서 이미지의 스냅샷 복제

Red Hat Ceph Storage 대시보드에서 이미지 스냅샷을 복제할 수 있습니다.

사전 요구 사항

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • 대시보드가 설치되어 있어야 합니다.
  • rbd 애플리케이션이 활성화된 풀이 생성됩니다.
  • 이미지가 생성됩니다.
  • 이미지의 스냅샷이 생성되고 보호됩니다.

프로세스

  1. 대시보드 탐색에서 Block CryostatImages 로 이동합니다.
  2. 이미지 탭에서 이미지 행을 확장합니다.
  3. 스냅샷 탭의 복제할 스냅샷을 선택하고 작업 드롭다운에서 Clone 을 클릭합니다.
  4. Clone RBD 양식에서 필요한 세부 정보를 작성하고 Clone RBD 를 클릭합니다.

    스냅샷이 성공적으로 복제되었으며 새 이미지가 Images 테이블에 표시됩니다.

추가 리소스

13.1.14. Ceph 대시보드에서 이미지의 스냅샷 복사

Red Hat Ceph Storage 대시보드에서 이미지 스냅샷을 복사할 수 있습니다.

사전 요구 사항

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • 대시보드가 설치되어 있어야 합니다.
  • rbd 애플리케이션이 활성화된 풀이 생성됩니다.
  • 이미지가 생성됩니다.
  • 이미지의 스냅샷이 생성됩니다.

프로세스

  1. 대시보드 탐색에서 Block CryostatImages 로 이동합니다.
  2. 이미지 탭에서 이미지 행을 확장합니다.
  3. 스냅샷 탭에서 복제할 스냅샷을 선택하고 작업 드롭다운에서 복사를 클릭합니다.
  4. Copy RBD 양식에서 필요한 세부 정보를 작성하고 Copy RBD 를 클릭합니다.

    스냅샷이 성공적으로 복제되었으며 새 이미지가 Images 테이블에 표시됩니다.

추가 리소스

13.1.15. Ceph 대시보드에서 이미지 스냅샷 보호 해제

Red Hat Ceph Storage 대시보드에서 Ceph 블록 장치 이미지의 스냅샷을 보호 해제할 수 있습니다.

스냅샷을 삭제해야 하는 경우 필요합니다.

사전 요구 사항

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • 대시보드가 설치되어 있어야 합니다.
  • rbd 애플리케이션이 활성화된 풀이 생성됩니다.
  • 이미지가 생성됩니다.
  • 이미지의 스냅샷이 생성되고 보호됩니다.

프로세스

  1. 대시보드 탐색에서 Block CryostatImages 로 이동합니다.
  2. 이미지 탭에서 이미지 행을 확장하고 Snapshots 탭을 클릭합니다.
  3. 보호된 스냅샷을 선택하고 작업 드롭다운 에서 비보호를 클릭합니다.

    스냅샷은 업데이트되고 Stateprotected 에서 Unprotected*로 변경됩니다.

추가 리소스

13.1.16. Ceph 대시보드에서 이미지의 스냅샷 롤백

Red Hat Ceph Storage 대시보드에서 Ceph 블록 장치 이미지의 스냅샷을 롤백할 수 있습니다. 이미지를 스냅샷으로 롤백한다는 것은 현재 버전의 이미지를 스냅샷의 데이터로 덮어쓰는 것을 의미합니다. 롤백을 실행하는 데 걸리는 시간은 이미지 크기에 따라 증가합니다. 이미지를 스냅샷으로 롤백하는 것보다 스냅샷에서 복제하는 것이 더 빠르고 기존 상태로 돌아가는 것이 좋습니다.

사전 요구 사항

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • 대시보드가 설치되어 있어야 합니다.
  • rbd 애플리케이션이 활성화된 풀이 생성됩니다.
  • 이미지가 생성됩니다.
  • 이미지의 스냅샷이 생성됩니다.

프로세스

  1. 대시보드 탐색에서 Block CryostatImages 로 이동합니다.
  2. 이미지 탭에서 이미지 행을 확장하고 Snapshots 탭을 클릭합니다.
  3. 롤백할 스냅샷을 선택하고 스냅샷 메뉴에서 롤백 을 클릭합니다.
  4. RBD 스냅샷 롤백 대화 상자에서 롤백을 클릭합니다.

    그림 13.9. 이미지의 스냅샷 롤백

    이미지의 스냅샷 롤백

추가 리소스

13.1.17. Ceph 대시보드에서 이미지의 스냅샷 삭제

Red Hat Ceph Storage 대시보드에서 Ceph 블록 장치 이미지의 스냅샷을 삭제할 수 있습니다.

사전 요구 사항

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • 대시보드가 설치되어 있어야 합니다.
  • rbd 애플리케이션이 활성화된 풀이 생성됩니다.
  • 이미지가 생성됩니다.
  • 이미지의 스냅샷이 생성되고 보호되지 않습니다.

프로세스

  1. 대시보드 탐색에서 Block CryostatImages 로 이동합니다.
  2. 이미지 탭에서 이미지 행을 확장합니다.
  3. 스냅샷 탭의 삭제할 스냅샷을 선택하고 작업 드롭다운에서 삭제 를 클릭합니다.
  4. Delete RBD Snapshot 대화 상자에서 Yes를 선택하고 Delete RBD Snapshot 을 클릭합니다.

    스냅샷이 성공적으로 생성되었음을 알리는 알림이 표시됩니다.

추가 리소스

13.2. Ceph 대시보드에서 미러링 기능 관리

스토리지 관리자는 Red Hat Ceph Storage 대시보드에서 블록 장치의 미러링 기능을 관리하고 모니터링할 수 있습니다.

스토리지 클러스터 간에 데이터 이미지를 미러링하여 Ceph 블록 장치에 다른 중복성 계층을 추가할 수 있습니다. Ceph 블록 장치 미러링을 이해하고 사용하면 사이트 장애와 같은 데이터 손실을 방지할 수 있습니다. Ceph 블록 장치, 단방향 미러링 또는 양방향 미러링을 미러링하기 위한 두 가지 구성이 있으며 풀과 개별 이미지에서 미러링을 구성할 수 있습니다.

13.2.1. Ceph 대시보드의 미러링 보기

Red Hat Ceph Storage 대시보드에서 블록 장치 미러링을 볼 수 있습니다.

데몬, 사이트 세부 정보, 풀 및 블록 장치 미러링을 위해 구성된 이미지를 볼 수 있습니다.

사전 요구 사항

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • 대시보드가 설치되어 있어야 합니다.
  • 미러링이 구성되어 있습니다.

프로세스

  • 대시보드 탐색에서 블록 미러링으로 이동합니다.

    그림 13.10. Ceph 블록 장치의 미러링 보기

    블록 장치의 미러링 보기

추가 리소스

  • 미러링에 대한 자세한 내용은 Red Hat Ceph Storage 블록 장치 가이드의 Ceph 블록 장치 미러링 섹션을 참조하십시오.

13.2.2. Ceph 대시보드에서 풀 편집 모드

Red Hat Ceph Storage 대시보드의 풀 및 이미지를 포함하는 전체 미러링 기능의 모드를 편집할 수 있습니다.

사전 요구 사항

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • 대시보드가 설치되어 있어야 합니다.
  • rbd 애플리케이션이 활성화된 풀이 생성됩니다.
  • 이미지가 생성됩니다.
  • 미러링이 구성되어 있습니다.

프로세스

  • 대시보드 탐색에서 블록 미러링으로 이동합니다.

    1. Pools 표에서 편집할 풀을 선택하고 Edit Mode 를 클릭합니다.
    2. 편집 모드 대화 상자에서 모드를 선택하고 업데이트를 클릭합니다.

      모드가 성공적으로 업데이트되었으며 Pools 테이블에 Mode 가 업데이트되었음을 알리는 알림이 표시됩니다.

추가 리소스

13.2.3. Ceph 대시보드에서 미러링에 피어 추가

rbd-daemon 미러용 스토리지 클러스터 피어를 추가하여 Red Hat Ceph Storage 대시보드에서 피어 스토리지 클러스터를 검색할 수 있습니다.

사전 요구 사항

  • 두 개의 정상 실행 Red Hat Ceph Storage 클러스터.
  • 대시보드는 두 클러스터에 모두 설치됩니다.
  • 동일한 이름으로 생성된 풀입니다.
  • RBD 애플리케이션은 두 클러스터에서 모두 활성화되어 있습니다.
참고

이미지가 생성되는 풀에 미러링이 활성화되어 있는지 확인합니다.

프로세스

사이트 A

  1. 대시보드 탐색에서 블록 → 미러링 으로 이동하여 부트 스트랩 토큰 생성 을 클릭합니다.
  2. 탐색 메뉴에서 블록 드롭다운 메뉴를 클릭하고 미러링을 클릭합니다.
  3. 부트 스트랩 토큰 생성 을 클릭하고 창에서 다음을 구성합니다.

    그림 13.11. 부트스트랩 토큰 생성

    부트스트랩 토큰 생성
    1. 제공된 사이트 이름의 경우 미러링할 풀을 선택합니다.
    2. 선택한 풀의 경우 생성을 클릭하여 새 부트스트랩 토큰을 생성합니다.
    3. 클립보드에 복사를 클릭합니다.
    4. 닫기를 클릭합니다.
  4. 풀 미러 모드를 활성화합니다.

    1. 풀을 선택합니다.
    2. Edit Mode 를 클릭합니다.
    3. Edit pool mirror mode 대화 상자의 Mode 목록에서 Image 를 선택합니다.
    4. 업데이트를 클릭합니다.

      풀이 성공적으로 업데이트되었다는 알림이 표시됩니다.

사이트 B

  1. 대시보드 탐색에서 블록 → 미러링 으로 이동하고 작업 드롭다운에서 부트스트랩 토큰 가져오기 를 클릭합니다.

    참고

    부트스트랩 토큰을 가져오는 특정 풀에 대해 미러링 모드가 활성화되어 있는지 확인합니다.

  2. 부트 스트랩 토큰 가져오기 대화 상자에서 방향을 선택하고 사이트 A에서 이전에 복사한 토큰을 붙여넣습니다.

    그림 13.12. 부트스트랩 토큰 가져오기

    부트스트랩 토큰 생성
  3. Submit 을 클릭합니다.

    피어가 추가되고 이미지가 사이트 B의 클러스터에 미러링됩니다.

  4. 블록 → 미러링 페이지의 테이블에서 풀 상태가 OK 인지 확인합니다.

사이트 A

  1. 미러링 이 활성화된 이미지를 만듭니다.

    1. 대시보드 탐색에서 블록 → 이미지로 이동합니다.
    2. 이미지 탭에서 생성 을 클릭합니다.
    3. 이미지 생성 양식에서 이름과 크기를 입력합니다.
    4. 미러링을 선택합니다.

      참고

      저널 또는 스냅샷 으로 미러링을 선택합니다.

    5. 이미지 생성을 클릭합니다.

      그림 13.13. 미러링 이미지 생성

      미러링 이미지 생성
  2. 이미지를 두 사이트에서 모두 사용할 수 있는지 확인합니다.

    1. 이미지 테이블에서 사이트 A의 이미지가 primary 로 설정되어 있고 사이트 B의 이미지가 secondary 로 설정되어 있는지 확인합니다.

추가 리소스

13.2.4. Ceph 대시보드에서 미러링에서 피어 편집

rbd-daemon 미러의 스토리지 클러스터 피어를 편집하여 Red Hat Ceph Storage 대시보드에서 해당 피어 스토리지 클러스터를 검색할 수 있습니다.

사전 요구 사항

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • 대시보드가 설치되어 있어야 합니다.
  • rbd 애플리케이션이 활성화된 풀이 생성됩니다.
  • 이미지가 생성됩니다.
  • 미러링이 구성되어 있습니다.
  • 피어가 추가되었습니다.

프로세스

  • 대시보드 탐색에서 블록 미러링으로 이동합니다.

    1. Pools 테이블의 풀 메뉴에서 Edit Peer 를 클릭합니다.

      1. Edit pool mirror peer 대화 상자에서 매개 변수를 편집하고 Submit 을 클릭합니다.

        피어가 성공적으로 업데이트되었다는 알림이 표시됩니다.

        그림 13.14. 미러링에서 피어 편집

        미러링에서 피어 편집

추가 리소스

13.2.5. Ceph 대시보드에서 미러링에서 피어 삭제

'rbd-daemon' 미러의 스토리지 클러스터 피어를 편집하여 Red Hat Ceph Storage 대시보드에서 피어 스토리지 클러스터를 검색할 수 있습니다.

사전 요구 사항

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • 대시보드가 설치되어 있어야 합니다.
  • rbd 애플리케이션이 활성화된 풀이 생성됩니다.
  • 이미지가 생성됩니다.
  • 미러링이 구성되어 있습니다.
  • 피어가 추가되었습니다.

프로세스

  1. 대시보드 탐색에서 블록 미러링으로 이동합니다.
  2. Pools 테이블에서 편집할 풀을 선택하고 작업 드롭다운에서 Delete Peer 를 클릭합니다.
  3. 미러 피어 삭제 대화 상자에서 예, 확인을 선택하고 미러 피어 삭제 를 클릭합니다.

    피어가 성공적으로 삭제되었다는 알림이 표시됩니다.

추가 리소스

14장. Telemetry 활성화 및 비활성화

Ceph 개발자가 Ceph 사용 방법 및 사용자가 발생할 수 있는 문제를 이해하는 데 도움이 되도록 Telemetry 모듈을 활성화합니다. 이는 대시보드 환경을 개선하는 데 도움이 됩니다. Telemetry 모듈을 활성화하면 클러스터에 대한 익명 데이터를 Ceph 개발자에게 다시 보냅니다.

공용 원격 분석 대시보드에서 Ceph 개발자로 전송되는 Telemetry 데이터를 확인합니다. 이를 통해 커뮤니티는 보고되는 클러스터 수, 총 용량 및 OSD 수, 버전 배포 추세에 대한 요약 통계를 쉽게 확인할 수 있습니다.

원격 분석 보고서는 각각 다른 유형의 정보를 가진 여러 채널로 나뉩니다. Telemetry가 활성화되어 있다고 가정하면 개별 채널을 켜거나 끌 수 있습니다. Telemetry가 꺼져 있으면 채널별 설정이 적용되지 않습니다.

Basic
클러스터에 대한 기본 정보를 제공합니다.
크래시
데몬 충돌에 대한 정보를 제공합니다.
장치
장치 지표에 대한 정보를 제공합니다.
IDENT
클러스터에 대한 사용자 제공 식별 정보를 제공합니다.
perf
클러스터의 다양한 성능 지표를 제공합니다.

데이터 보고서에는 개발자가 Ceph 사용 방식을 더 잘 이해하는 데 도움이 되는 정보가 포함되어 있습니다. 데이터에는 클러스터 배포 방법, Ceph 버전, 호스트 배포 및 기타 매개 변수에 대한 카운터 및 통계가 포함됩니다.

중요

데이터 보고서에는 풀 이름, 오브젝트 이름, 오브젝트 콘텐츠, 호스트 이름 또는 장치 일련 번호와 같은 중요한 데이터가 포함되어 있지 않습니다.

참고

Telemetry는 API를 사용하여 관리할 수도 있습니다. 자세한 내용은 Red Hat Ceph Storage 개발자 가이드의 Telemetry 장을 참조하십시오.

프로세스

  1. 다음 방법 중 하나로 Telemetry 모듈을 활성화합니다.

    • Ceph 대시보드 내의 배너에서 다음을 수행합니다.

      Telemetry 배너 활성화
    • Settings(설정)Telemetry(Telemetry) 구성으로 이동합니다.
  2. Telemetry를 활성화해야 하는 각 채널을 선택합니다.

    참고

    각 채널 유형에 대한 자세한 내용은 채널 옆에 있는 추가 정보를 클릭합니다.

  3. 클러스터의 연락처 정보를 입력합니다. 연락처, Ceph 클러스터 설명 및 조직을 입력합니다.
  4. 선택 사항: 고급 설정 필드 옵션을 완료합니다.

    간격
    간격을 시간 단위로 설정합니다. 이 모듈은 이 시간 간격마다 새 보고서를 컴파일하고 보냅니다. 기본 간격은 24 시간입니다.
    proxy

    클러스터가 구성된 Telemetry 엔드포인트에 직접 연결할 수 없는 경우 HTTP 또는 HTTPs 프록시 서버를 구성하려면 이 방법을 사용합니다. 다음 형식 중 하나로 서버를 추가합니다.

    https://10.0.0.1:8080 또는 https://ceph::8080

    기본 끝점은 telemetry.ceph.com 입니다.

  5. 다음을 클릭합니다. Telemetry를 활성화하기 전에 Telemetry 보고서 프리뷰 가 표시됩니다.
  6. 보고서 프리뷰 를 검토합니다.

    참고

    보고서를 다운로드하여 로컬로 저장하거나 클립보드에 복사할 수 있습니다.

  7. I agree to my telemetry data being submitted under the Community Data License Agreement 를 선택합니다.
  8. Update 를 클릭하여 telemetry 모듈을 활성화합니다.

    다음 메시지가 표시되어 Telemetry 활성화를 확인합니다.

    The Telemetry module has been configured and activated successfully

14.1. Telemetry 비활성화

Telemetry 모듈을 비활성화하려면 Settings(설정)Telemetry 구성으로 이동하여 비활성화 를 클릭합니다.

법적 공지

Copyright © 2025 Red Hat, Inc.
The text of and illustrations in this document are licensed by Red Hat under a Creative Commons Attribution–Share Alike 3.0 Unported license ("CC-BY-SA"). An explanation of CC-BY-SA is available at http://creativecommons.org/licenses/by-sa/3.0/. In accordance with CC-BY-SA, if you distribute this document or an adaptation of it, you must provide the URL for the original version.
Red Hat, as the licensor of this document, waives the right to enforce, and agrees not to assert, Section 4d of CC-BY-SA to the fullest extent permitted by applicable law.
Red Hat, Red Hat Enterprise Linux, the Shadowman logo, the Red Hat logo, JBoss, OpenShift, Fedora, the Infinity logo, and RHCE are trademarks of Red Hat, Inc., registered in the United States and other countries.
Linux® is the registered trademark of Linus Torvalds in the United States and other countries.
Java® is a registered trademark of Oracle and/or its affiliates.
XFS® is a trademark of Silicon Graphics International Corp. or its subsidiaries in the United States and/or other countries.
MySQL® is a registered trademark of MySQL AB in the United States, the European Union and other countries.
Node.js® is an official trademark of Joyent. Red Hat is not formally related to or endorsed by the official Joyent Node.js open source or commercial project.
The OpenStack® Word Mark and OpenStack logo are either registered trademarks/service marks or trademarks/service marks of the OpenStack Foundation, in the United States and other countries and are used with the OpenStack Foundation's permission. We are not affiliated with, endorsed or sponsored by the OpenStack Foundation, or the OpenStack community.
All other trademarks are the property of their respective owners.
Red Hat logoGithubRedditYoutubeTwitter

자세한 정보

평가판, 구매 및 판매

커뮤니티

Red Hat 문서 정보

Red Hat을 사용하는 고객은 신뢰할 수 있는 콘텐츠가 포함된 제품과 서비스를 통해 혁신하고 목표를 달성할 수 있습니다. 최신 업데이트를 확인하세요.

보다 포괄적 수용을 위한 오픈 소스 용어 교체

Red Hat은 코드, 문서, 웹 속성에서 문제가 있는 언어를 교체하기 위해 최선을 다하고 있습니다. 자세한 내용은 다음을 참조하세요.Red Hat 블로그.

Red Hat 소개

Red Hat은 기업이 핵심 데이터 센터에서 네트워크 에지에 이르기까지 플랫폼과 환경 전반에서 더 쉽게 작업할 수 있도록 강화된 솔루션을 제공합니다.

© 2024 Red Hat, Inc.