대시보드 가이드
Ceph 대시보드를 사용하여 Ceph 클러스터 모니터링
초록
1장. Ceph 대시보드 개요
스토리지 관리자인 Red Hat Ceph Storage Dashboard는 관리 및 모니터링 기능을 제공하므로 클러스터를 관리하고 구성할 수 있으며 이와 관련된 정보 및 성능 통계를 시각화할 수 있습니다. 대시보드는 ceph-mgr
데몬에서 호스팅하는 웹 서버를 사용합니다.
대시보드는 웹 브라우저에서 액세스할 수 있으며, 예를 들어 관리자 모듈을 구성하고 OSD 상태를 모니터링하는 많은 유용한 관리 및 모니터링 기능이 포함되어 있습니다.
1.1. 사전 요구 사항
- 시스템 관리자 수준 경험
1.2. Ceph 대시보드 구성 요소
대시보드 기능은 여러 구성 요소에서 제공합니다.
- 배포를 위한 Cephadm 애플리케이션.
-
삽입된 대시보드
ceph-mgr
모듈입니다. -
포함된 Prometheus
ceph-mgr
모듈입니다. - Prometheus 시계열 데이터베이스.
- 스토리지 클러스터의 각 호스트에서 실행되는 Prometheus node-exporter 데몬.
- 모니터링 사용자 인터페이스 및 경고를 제공하는 Grafana 플랫폼입니다.
추가 리소스
- 자세한 내용은 Prometheus 웹 사이트를 참조하십시오.
- 자세한 내용은 Grafana 웹 사이트를 참조하십시오.
1.3. Ceph 대시보드 기능
Ceph 대시보드는 다음과 같은 기능을 제공합니다.
- 다중 사용자 및 역할 관리: 대시보드는 다양한 권한 및 역할을 가진 여러 사용자 계정을 지원합니다. 사용자 계정 및 역할은 명령줄과 웹 사용자 인터페이스를 사용하여 관리할 수 있습니다. 대시보드는 암호 보안을 강화할 수 있는 다양한 방법을 지원합니다. 암호 복잡성 규칙을 구성할 수 있으므로 사용자가 처음 로그인한 후 또는 구성 가능한 시간 후에 암호를 변경해야 합니다.
- SSO(Single Sign-On): 대시보드는 SAML 2.0 프로토콜을 사용하여 외부 ID 공급자의 인증을 지원합니다.
- 감사: 대시보드 백엔드는 Ceph 관리자 로그에서 모든 PUT, POST 및 DELETE API 요청을 기록하도록 구성할 수 있습니다.
관리 기능
- View cluster hierarchy: 예를 들어 nmap 맵을 보고 특정 OSD ID가 실행 중인 호스트를 확인할 수 있습니다. 이는 OSD에 문제가 있는 경우 유용합니다.
- 관리자 모듈 구성: Ceph 관리자 모듈의 매개 변수를 보고 변경할 수 있습니다.
- 포함된 Grafana 대시보드: Ceph Dashboard Grafana 대시보드를 외부 애플리케이션 및 웹 페이지에 포함시켜 Prometheus 모듈에서 수집한 정보 및 성능 지표를 표시할 수 있습니다.
- 로그 보기 및 필터링: 이벤트 및 감사 클러스터 로그를 보고 우선순위, 키워드, 날짜 또는 시간 범위에 따라 필터링할 수 있습니다.
- 토글 대시보드 구성 요소: 필요한 기능만 사용할 수 있도록 대시보드 구성 요소를 활성화 및 비활성화할 수 있습니다.
- OSD 설정 관리: 대시보드를 사용하여 클러스터 전체 OSD 플래그를 설정할 수 있습니다. OSD up, down, out, remove and reweight OSD를 표시하고, 스크러빙 작업을 수행하고, 다양한 스크러블 관련 구성 옵션을 수정하고, 프로필을 선택하여 백필 활동 수준을 조정할 수 있습니다. OSD의 장치 클래스를 설정하고, 장치 클래스로 OSD를 표시 및 정렬할 수 있습니다. 새 드라이브 및 호스트에 OSD를 배포할 수 있습니다.
- iSCSI 관리: iSCSI 대상을 생성, 수정 및 삭제합니다.
- 경고 보기: 경고 페이지에서 현재 경고에 대한 세부 정보를 볼 수 있습니다.
- 이미지 품질: ( 예: IOPS 제한 또는 BPS 버스트 속도 읽기) 이미지에 대한 성능 제한을 설정할 수 있습니다.
모니터링 기능
- 사용자 이름 및 암호 보호: 구성 가능한 사용자 이름 및 암호를 제공하여 대시보드에만 액세스할 수 있습니다.
- 전체 클러스터 상태: 성능 및 용량 지표를 표시합니다. 또한 전체 클러스터 상태, 스토리지 사용률(예: 오브젝트 수, 원시 용량, 풀당 사용량, 풀 목록, 해당 상태 및 사용량 통계)이 표시됩니다.
- Hosts: 실행중인 서비스와 설치된 Ceph 버전과 함께 클러스터와 관련된 모든 호스트 목록을 제공합니다.
- 성능 카운터: 실행 중인 각 서비스에 대한 자세한 통계를 표시합니다.
- Monitor: 모든 모니터, 쿼럼 상태 및 열려 있는 세션을 나열합니다.
- 구성 편집기: 사용 가능한 모든 구성 옵션, 설명, 유형, 기본값 및 현재 설정 값을 표시합니다. 이러한 값은 편집할 수 있습니다.
- 클러스터 로그: 우선 순위, 날짜 또는 키워드별로 클러스터의 이벤트 및 감사 로그 파일에 대한 최신 업데이트를 표시하고 필터링합니다.
- 장치 관리: 오케스트레이터에서 알려진 모든 호스트를 나열합니다. 호스트 및 해당 속성에 연결된 모든 드라이브를 나열합니다. 드라이브 상태 예측, SMART 데이터 및 blink 인클로저를 표시합니다.
- 스토리지 클러스터 용량 보기: Ceph 대시보드의 용량 패널에서 Red Hat Ceph Storage 클러스터의 원시 스토리지 용량을 볼 수 있습니다.
- 풀: 모든 Ceph 풀과 해당 세부 정보를 나열하고 관리합니다. 예를 들어 애플리케이션, 배치 그룹, 복제 크기, EC 프로파일, 할당량, CRUSH 규칙 세트 등이 있습니다.
- OSD: 모든 OSD, 해당 상태 및 사용량 통계와 같은 자세한 정보(예: OSD 맵, 메타데이터, 읽기 및 쓰기 작업에 대한 성능 카운터)를 나열하고 관리합니다. OSD와 연결된 모든 드라이브를 나열합니다.
- iSCSI: tcmu-runner 서비스를 실행하는 모든 호스트를 나열하고 읽기 및 쓰기 작업 또는 트래픽 amd와 같은 모든 이미지와 성능 특성을 표시합니다. 또한 iSCSI 게이트웨이 상태 및 활성 이니시에이터에 대한 정보를 표시합니다.
images : 크기, 오브젝트 및 기능과 같은 모든 RBD 이미지 및 해당 속성을 나열합니다. RBD 이미지를 생성, 복사, 수정 및 삭제합니다. 선택한 이미지의 스냅샷을 생성, 삭제 및 롤백하여 이러한 스냅샷을 수정으로부터 보호하거나 보호 해제합니다. 스냅샷 복사 또는 복제, flatten 복제 이미지.
참고특정 이미지의 Overall Performance 탭에서 I/O 변경에 대한 성능 그래프는 Cluster > Manager 모듈에서
rbd_stats_pool
매개변수를 설정하여 해당 이미지를 포함하는 풀을 지정한 후에만 값을 표시합니다.- RBD 미러링: 원격 Ceph 서버에 RBD 미러링을 활성화하고 구성합니다. 동기화 상태를 포함하여 모든 활성 동기화 데몬과 해당 상태, 풀, RBD 이미지를 나열합니다.
- Ceph 파일 시스템: 사용량 통계를 포함하여 모든 활성 Ceph 파일 시스템(CephFS) 클라이언트 및 관련 풀을 나열합니다. 활성 CephFS 클라이언트를 제거하고 CephFS 할당량 및 스냅샷을 관리하며 CephFS 디렉터리 구조를 찾습니다.
- Object Gateway (RGW): 모든 활성 객체 게이트웨이 및 성능 카운터를 나열합니다. 추가, 편집, 삭제, 오브젝트 게이트웨이 사용자 및 세부 정보(예: 할당량, 사용자 버킷 및 해당 세부 정보)를 포함한 표시 및 관리(예: 소유자 또는 할당량)
- NFS: NFS Ganesha를 사용하여 CephFS 및 Ceph 오브젝트 게이트웨이 S3 버킷의 NFS 내보내기를 관리합니다.
보안 기능
- SSL 및 TLS 지원: 웹 브라우저와 대시보드 간의 모든 HTTP 통신은 SSL을 통해 보호됩니다. 자체 서명된 인증서는 기본 제공 명령을 사용하여 생성할 수 있지만 CA(인증 기관)에서 서명한 사용자 정의 인증서를 가져올 수도 있습니다.
추가 리소스
1.4. Red Hat Ceph Storage 대시보드 아키텍처
대시보드 아키텍처는 Ceph 관리자 대시보드 플러그인 및 기타 구성 요소에 따라 다릅니다. 아래 다이어그램은 어떻게 함께 작동하는지 이해하십시오.

2장. Ceph 대시보드 설치 및 액세스
시스템 관리자는 클러스터 부트스트랩에 제공된 인증 정보를 사용하여 대시보드에 액세스할 수 있습니다.
Cephadm은 기본적으로 대시보드를 설치합니다. 다음은 대시보드 URL의 예입니다.
URL: https://host01:8443/ User: admin Password: zbiql951ar
URL: https://host01:8443/
User: admin
Password: zbiql951ar
대시보드 URL에 액세스하기 전에 브라우저를 업데이트하고 쿠키를 지웁니다.
다음은 Ceph 대시보드 구성에 사용할 수 있는 Cephadm 부트스트랩 옵션입니다.
- [-initial-dashboard-user INITIAL_DASHBOARD_USER] - 부트스트랩을 사용하여 initial-dashboard-user를 설정합니다.
- [-initial-dashboard-password INITIAL_DASHBOARD_PASSWORD] - 부트스트랩을 사용하여 initial-dashboard-password를 설정합니다.
- [-SSL-dashboard-port SSL_DASHBOARD_PORT] - 부트스트랩하는 동안 기본 8443 이외의 사용자 정의 대시보드 포트를 설정하는 동안 이 옵션을 사용합니다.
- [-dashboard-key DASHBOARD_KEY] - 부트스트랩하여 SSL에 대한 사용자 정의 키를 설정하는 동안 이 옵션을 사용합니다.
- [-dashboard-crt DASHBOARD_CRT] - 부트스트랩하는 동안 SSL용 사용자 정의 인증서를 설정하는 동안 이 옵션을 사용합니다.
- [-skip-dashboard] - 대시보드 없이 Ceph를 부트스트랩하는 동안 이 옵션을 사용합니다.
- [-dashboard-password-noupdate] - 위의 두 옵션을 사용한 경우 부트스트랩하고 처음 로그인할 때 암호를 재설정하지 않으려는 동안 이 옵션을 사용합니다.
- [-allow-fqdn-hostname] - 부트 스트랩이 완전한 호스트 이름을 허용하는 동안 이 옵션을 사용합니다.
- [-skip-prepare-host] - 부트스트랩하여 호스트 준비를 건너뛰는 동안 이 옵션을 사용합니다.
대시보드 관련 외부 URL과 관련된 연결 문제를 방지하려면 호스트 이름(예: host01.ceph.redhat.com
)에 FQDN(정규화된 도메인 이름)을 사용합니다.
클라이언트 인터넷 브라우저에서 Grafana URL을 직접 열고 보안 예외를 수락하여 Ceph 대시보드의 그래프를 확인합니다. 브라우저를 다시 로드하여 변경 사항을 확인합니다.
예제
cephadm bootstrap --mon-ip 127.0.0.1 --registry-json cephadm.txt --initial-dashboard-user admin --initial-dashboard-password zbiql951ar --dashboard-password-noupdate --allow-fqdn-hostname
[root@host01 ~]# cephadm bootstrap --mon-ip 127.0.0.1 --registry-json cephadm.txt --initial-dashboard-user admin --initial-dashboard-password zbiql951ar --dashboard-password-noupdate --allow-fqdn-hostname
cephadm
을 사용하여 스토리지 클러스터를 확장하는 동안 사용자 정의 컨테이너 이미지 또는 로컬 컨테이너 이미지에 --image
옵션을 사용할 수 있습니다.
부트 스트랩하는 동안 --dashboard-password-noupdate
옵션을 사용하지 않는 경우에만 부트스트랩에 제공된 인증 정보를 사용하여 대시보드에 처음 로그인해야 합니다. var/log/ceph/cephadm.log
파일에서 Ceph 대시보드 자격 증명을 찾을 수 있습니다. "Ceph Dashboard is now available at" 문자열로 검색합니다.
이 섹션에서는 다음 작업에 대해 설명합니다.
- Ceph 대시보드에 대한 네트워크 포트 요구 사항.
- Ceph 대시보드에 액세스.
- Ceph 대시보드의 배너에서 로그인 설정.
- Ceph 대시보드에서 해당 날짜의 메시지 설정.
- Ceph 대시보드에서 클러스터 확장.
- Ceph 대시보드 기능 전환 하여.
- Ceph 대시보드의 시작 페이지 이해.
- Red Hat Ceph Storage 대시보드 수동 활성화.
- Ceph 대시보드를 사용하여 대시보드 암호 변경.
- 명령줄 인터페이스를 사용하여 Ceph 대시보드 암호 변경.
-
Grafana에 대한
admin
사용자 암호 설정. - 사용자를 Ceph 대시보드에 동기화하기 위한 관리자 계정을 만듭니다.
- Red Hat Single Sign-On을 사용하여 사용자를 Ceph 대시보드에 동기화 합니다.
- Ceph 대시보드에 대한 SSO(Single Sign-On) 활성화.
- Ceph 대시보드의 SSO(Single Sign-On) 비활성화.
2.1. Ceph 대시보드의 네트워크 포트 요구 사항
Ceph 대시보드 구성 요소에는 액세스할 수 있어야 하는 특정 TCP 네트워크 포트를 사용합니다. 기본적으로 네트워크 포트는 Red Hat Ceph Storage를 설치하는 동안 firewalld
에 자동으로 열립니다.
포트 | 사용 | 원래 호스트 | 대상 호스트 |
---|---|---|---|
8443 | 대시보드 웹 인터페이스 | AlertManager 서비스는 경고를 보고하기 위해 대시보드에 대한 연결을 시작할 수 있으므로 Ceph 대시보드 UI 및 Grafana 서버 아래의 호스트에 액세스해야 하는 IP 주소. | Ceph Manager 호스트. |
3000 | Grafana | Grafana 대시보드 UI 및 모든 Ceph Manager 호스트 및 Grafana 서버에 액세스해야 하는 IP 주소입니다. | Grafana 서버를 실행하는 호스트 또는 호스트입니다. |
2049 | nfs-Ganesha | NFS에 액세스해야 하는 IP 주소입니다. | NFS 서비스를 제공하는 IP 주소입니다. |
9095 | 기본 Prometheus 그래프의 기본 Prometheus 서버 | Prometheus UI 및 Prometheus를 실행하는 모든 Ceph Manager 호스트 및 Grafana 서버 또는 호스트에 액세스해야 하는 IP 주소입니다. | Prometheus를 실행하는 호스트 또는 호스트입니다. |
9093 | Prometheus Alertmanager | Alertmanager 웹 UI 및 Prometheus를 실행하는 모든 Ceph Manager 호스트 및 Grafana 서버 또는 호스트에 액세스해야 하는 IP 주소입니다. | 모든 Ceph Manager 호스트 및 Grafana 서버 아래의 호스트. |
9094 | 여러 인스턴스에서 만든 고가용성 클러스터를 구성하기 위한 Prometheus Alertmanager | 모든 Ceph Manager 호스트 및 Grafana 서버 아래의 호스트. |
Prometheus Alertmanager High Availability(peer 데몬 동기화) |
9100 |
Prometheus | Node Exporter 지표 웹 UI 및 Prometheus를 실행하는 모든 Ceph Manager 호스트 및 Grafana 서버 또는 호스트를 확인해야 하는 Prometheus를 실행하는 호스트. | MON, OSDS, Grafana 서버 호스트를 포함한 모든 스토리지 클러스터 호스트. |
9283 | Ceph Manager Prometheus 내보내기 모듈 | Ceph Exporter 지표 웹 UI 및 Grafana 서버에 액세스해야 하는 Prometheus를 실행하는 호스트입니다. | 모든 Ceph Manager 호스트. |
9287 | Ceph iSCSI 게이트웨이 데이터 | 모든 Ceph Manager 호스트 및 Grafana 서버. | 모든 Ceph iSCSI 게이트웨이 호스트. |
추가 리소스
- 자세한 내용은 Red Hat Ceph Storage 설치 가이드를 참조하십시오.
- 자세한 내용은 네트워킹 구성 및 관리에서 firewalld 사용 및 구성을 참조하십시오.
2.2. Ceph 대시보드에 액세스
Ceph 대시보드에 액세스하여 Red Hat Ceph Storage 클러스터를 관리하고 모니터링할 수 있습니다.
사전 요구 사항
- Red Hat Ceph Storage 대시보드를 성공적으로 설치합니다.
- NTP는 클럭을 올바르게 동기화합니다.
절차
웹 브라우저에 다음 URL을 입력합니다.
구문
Copy to Clipboard Copied! Toggle word wrap Toggle overflow https://HOST_NAME:PORT
https://HOST_NAME:PORT
replace:
- 활성 관리자 호스트의 FQDN(정규화된 도메인 이름)으로 HOST_NAME.
포트
8443
이 있는 PORT예제
Copy to Clipboard Copied! Toggle word wrap Toggle overflow https://host01:8443
https://host01:8443
Cephadm 쉘에서 다음 명령을 실행하여 대시보드의 URL을 가져올 수도 있습니다.
예제
Copy to Clipboard Copied! Toggle word wrap Toggle overflow [ceph: root@host01 /]# ceph mgr services
[ceph: root@host01 /]# ceph mgr services
이 명령은 현재 구성된 모든 끝점을 표시합니다.
대시보드 키를 찾아 대시보드에
액세스하는 URL을 가져옵니다.
-
로그인 페이지에서 부트스트랩 중에 제공된 사용자 이름
admin
과 기본 암호를 입력합니다. - Red Hat Ceph Storage 대시보드에 처음 로그인할 때 암호를 변경해야 합니다.
로그인하면 대시보드 기본 시작 페이지가 표시되어 Red Hat Ceph Storage 클러스터의 상태, 성능 및 용량 지표에 대한 고급 개요가 표시됩니다.
그림 2.1. Ceph 대시보드 방문 페이지
대시보드 랜딩 페이지에서 다음 아이콘을 클릭하여 수직 메뉴에 옵션을 축소하거나 표시합니다.
그림 2.2. Ceph 대시보드의 수직 메뉴
2.3. Ceph 대시보드에서 로그인 배너 설정
많은 사용자는 보안, 법률 또는 포기의 이유로 로그인 페이지에서 사용자 정의 텍스트에 대한 지원이 필요합니다.
CLI(명령줄 인터페이스)를 사용하여 Ceph 대시보드의 로그인 페이지에서 이러한 사용자 지정 텍스트를 설정할 수 있습니다.
사전 요구 사항
- 모니터링 스택이 설치된 실행 중인 Red Hat Ceph Storage 클러스터.
-
cephadm
호스트에 대한 루트 수준 액세스. -
대시보드
모듈이 활성화되었습니다.
절차
root 사용자로
login.txt
파일을 생성하고 사용자에게 사용자 정의 메시지를 제공합니다.예제
Copy to Clipboard Copied! Toggle word wrap Toggle overflow ****CUSTOM LOGIN MESSAGE****
****CUSTOM LOGIN MESSAGE****
컨테이너의 디렉터리 아래에
login.txt
파일을 마운트합니다.예제
Copy to Clipboard Copied! Toggle word wrap Toggle overflow cephadm shell --mount login.txt:/var/lib/ceph/login.txt
[root@host01 ~]# cephadm shell --mount login.txt:/var/lib/ceph/login.txt
참고쉘을 종료할 때마다 데몬을 배포하기 전에 컨테이너에 파일을 마운트해야 합니다.
선택 사항:
대시보드
Ceph Manager 모듈이 활성화되어 있는지 확인합니다.예제
Copy to Clipboard Copied! Toggle word wrap Toggle overflow [ceph: root@host01 /]# ceph mgr module ls
[ceph: root@host01 /]# ceph mgr module ls
로그인 배너 텍스트를 설정합니다.
구문
Copy to Clipboard Copied! Toggle word wrap Toggle overflow ceph dashboard set-login-banner -i FILE_PATH
ceph dashboard set-login-banner -i FILE_PATH
예제
Copy to Clipboard Copied! Toggle word wrap Toggle overflow [ceph: root@host01 /]# ceph dashboard set-login-banner -i /var/lib/ceph/login.txt login banner file added
[ceph: root@host01 /]# ceph dashboard set-login-banner -i /var/lib/ceph/login.txt login banner file added
로그인 배너 텍스트를 가져옵니다.
예제
Copy to Clipboard Copied! Toggle word wrap Toggle overflow [ceph: root@host01 /]# ceph dashboard get-login-banner ****CUSTOM LOGIN MESSAGE****
[ceph: root@host01 /]# ceph dashboard get-login-banner ****CUSTOM LOGIN MESSAGE****
선택 사항:
unset
명령을 사용하여 로그인 배너를 제거할 수 있습니다.예제
Copy to Clipboard Copied! Toggle word wrap Toggle overflow [ceph: root@host01 /]# ceph dashboard unset-login-banner Login banner removed
[ceph: root@host01 /]# ceph dashboard unset-login-banner Login banner removed
검증
대시보드에 로그인합니다.
Copy to Clipboard Copied! Toggle word wrap Toggle overflow https://HOST_NAME:8443
https://HOST_NAME:8443
2.4. Ceph 대시보드에서 MoTD(MOTD) 메시지 설정
때때로 Ceph Dashboard 사용자에게 Red Hat Ceph Storage에 대한 최신 뉴스, 업데이트 및 정보를 알릴 필요가 있는 경우가 있습니다.
스토리지 관리자는 CLI(명령줄 인터페이스)를 사용하여 Day(MOTD) 메시지를 구성할 수 있습니다.
사용자가 Ceph 대시보드에 로그인하면 Telemetry 모듈과 유사한 Ceph 대시보드 상단에 구성된 MOTD가 표시됩니다.
MOTD의 중요성은 정보
,경고
또는 위험
등과 같은 심각도에 따라 구성할 수 있습니다.
정보
또는 경고
심각도가 있는 MOTD는 사용자가 종료할 수 있습니다. 정보
MOTD는 로컬 스토리지 쿠키가 해제되거나 다른 심각도가 있는 새로운 MOTD가 표시될 때까지 더 이상 표시되지 않습니다. 경고
심각도가 있는 MOTD가 새 세션에 다시 표시됩니다.
사전 요구 사항
- 모니터링 스택이 설치된 실행 중인 Red Hat Ceph Storage 클러스터.
-
cephadm
호스트에 대한 루트 수준 액세스. -
대시보드
모듈이 활성화되었습니다.
절차
대시보드용 MOTD를 구성합니다.
구문
Copy to Clipboard Copied! Toggle word wrap Toggle overflow ceph dashboard motd set SEVERITY EXPIRES MESSAGE
ceph dashboard motd set SEVERITY EXPIRES MESSAGE
예제
Copy to Clipboard Copied! Toggle word wrap Toggle overflow [ceph: root@host01 /]# ceph dashboard motd set danger 2d "Custom login message" Message of the day has been set.
[ceph: root@host01 /]# ceph dashboard motd set danger 2d "Custom login message" Message of the day has been set.
replace
-
SEVERITY 는
정보
,경고
또는위험
일 수 있습니다. -
EXPIRES 는 초(
s
), 분(m
), 시간(h
), 일(d
), 주(w
), 또는 만료되지 않음(0
) 동안일 수 있습니다. - MESSAGE 는 사용자가 대시보드에 로그인하는 즉시 볼 수 있는 모든 사용자 지정 메시지일 수 있습니다.
-
SEVERITY 는
선택 사항: 만료되지 않는 MOTD를 설정합니다.
예제
Copy to Clipboard Copied! Toggle word wrap Toggle overflow [ceph: root@host01 /]# ceph dashboard motd set danger 0 "Custom login message" Message of the day has been set.
[ceph: root@host01 /]# ceph dashboard motd set danger 0 "Custom login message" Message of the day has been set.
설정된 MOTD를 가져옵니다.
예제
Copy to Clipboard Copied! Toggle word wrap Toggle overflow [ceph: root@host01 /]# ceph dashboard motd get Message="Custom login message", severity="danger", expires="2022-09-08T07:38:52.963882Z"
[ceph: root@host01 /]# ceph dashboard motd get Message="Custom login message", severity="danger", expires="2022-09-08T07:38:52.963882Z"
선택 사항: 명확한 명령을 사용하여 구성 MOTD를
지웁니다
.예제
Copy to Clipboard Copied! Toggle word wrap Toggle overflow [ceph: root@host01 /]# ceph dashboard motd clear Message of the day has been cleared.
[ceph: root@host01 /]# ceph dashboard motd clear Message of the day has been cleared.
검증
대시보드에 로그인합니다.
Copy to Clipboard Copied! Toggle word wrap Toggle overflow https://HOST_NAME:8443
https://HOST_NAME:8443
2.5. Ceph 대시보드에서 클러스터 확장
대시보드를 사용하여 호스트 추가, OSD 추가, Alertmanager, Cephadm-exporter, CephFS-mirror, Grafana, ingress, iSCSI, MDS, NFS, node-exporter, Prometheus, RBD-mirror 및 Ceph Object Gateway와 같은 서비스를 만들기 위해 대시보드를 사용할 수 있습니다.
새 스토리지 클러스터를 부트스트랩하면 Ceph Monitor 및 Ceph Manager 데몬이 생성되고 클러스터가 HEALTH_WARN 상태입니다. 대시보드에 클러스터의 모든 서비스를 만든 후 클러스터의 상태가 HEALTH_WARN 에서 HEALTH_OK 상태로 변경됩니다.
사전 요구 사항
- 부트스트랩 스토리지 클러스터. 자세한 내용은 Red Hat Ceph Storage 설치 가이드 의 새 스토리지 클러스터 부트 스트랩 섹션을 참조하십시오.
-
Red Hat Ceph Storage 대시보드의 사용자에 대한
cluster-manager
역할 이상 자세한 내용은 Red Hat Ceph Storage 대시보드 가이드의 Ceph대시보드에 대한 사용자 역할 및 권한 섹션을 참조하십시오.
절차
부트스트랩 호스트에서 다른 호스트로 admin 키를 복사합니다.
구문
Copy to Clipboard Copied! Toggle word wrap Toggle overflow ssh-copy-id -f -i /etc/ceph/ceph.pub root@HOST_NAME
ssh-copy-id -f -i /etc/ceph/ceph.pub root@HOST_NAME
예제
Copy to Clipboard Copied! Toggle word wrap Toggle overflow [ceph: root@host01 /]# ssh-copy-id -f -i /etc/ceph/ceph.pub root@host02 [ceph: root@host01 /]# ssh-copy-id -f -i /etc/ceph/ceph.pub root@host03
[ceph: root@host01 /]# ssh-copy-id -f -i /etc/ceph/ceph.pub root@host02 [ceph: root@host01 /]# ssh-copy-id -f -i /etc/ceph/ceph.pub root@host03
- 부트스트랩 중에 제공된 기본 인증 정보를 사용하여 대시보드에 로그인합니다.
- 암호를 변경하고 새 암호를 사용하여 대시보드에 로그인합니다.
시작 페이지에서 확장 클러스터 를 클릭합니다.
그림 2.3. 클러스터 확장
호스트 추가:
- 호스트 추가 창에서 + 추가 를 클릭합니다.
호스트 이름을 지정합니다. 이는 부트스트랩된 호스트에서 키를 복사하는 동안 제공된 호스트 이름과 동일합니다.
참고자세한 내용은 호스트 추가 대화 상자의 도구 팁을 사용할 수 있습니다.
- 선택 사항: 호스트의 각 IP 주소를 제공합니다.
- 선택 사항: 서비스를 생성할 호스트의 레이블을 선택합니다.
- 호스트 추가를 클릭합니다.
- 스토리지 클러스터의 모든 호스트에 대해 위 단계를 수행합니다.
- 호스트 추가 창에서 다음을 클릭합니다.
OSD를 만듭니다.
- Create OSD( OSD 만들기 ) 창에서 Primary devices(기본 장치의 경우 +추가 )를 클릭합니다.
- Primary Devices (기본 장치) 창에서 장치를 필터링하고 장치를 선택합니다.
- Add 를 클릭합니다.
- 선택 사항: OSD 생성 창에서 WAL 또는 DB 장치와 같은 공유 장치가 있는 경우 장치를 추가합니다.
- 선택 사항: 확인란 암호화를 클릭하여 기능을 암호화합니다.
- Create OSD( OSD 만들기 ) 창에서 다음을 클릭합니다.
서비스를 생성합니다.
- 서비스 생성 창에서 + 만들기 를 클릭합니다.
서비스 생성 대화 상자에서
- 드롭다운에서 서비스 유형을 선택합니다.
- 서비스의 고유 이름인 서비스 ID를 제공합니다.
- 호스트 또는 레이블을 통해 배치를 제공합니다.
- 호스트를 선택합니다.
- 배포해야 하는 데몬 또는 서비스 수를 제공합니다.
- 서비스 생성을 클릭합니다.
- 서비스 생성 창에서 다음을 클릭합니다.
서비스별 호스트( 클러스터 리소스,호스트 세부 정보 )를 검토합니다. 매개 변수를 편집하려면 뒤로 클릭하고 위의 단계를 따르십시오.
그림 2.4. 클러스터 확인
- Expand Cluster (클러스터 확장)를 클릭합니다.
- 클러스터 확장에 성공했음을 알 수 있습니다.
- 클러스터 상태가 대시보드에서 HEALTH_OK 상태로 변경됩니다.
검증
cephadm
쉘에 로그인합니다.예제
Copy to Clipboard Copied! Toggle word wrap Toggle overflow cephadm shell
[root@host01 ~]# cephadm shell
ceph -s
명령을 실행합니다.예제
Copy to Clipboard Copied! Toggle word wrap Toggle overflow [ceph: root@host01 /]# ceph -s
[ceph: root@host01 /]# ceph -s
클러스터의 상태는 HEALTH_OK 입니다.
추가 리소스
- 자세한 내용은 Red Hat Ceph Storage 대시보드 가이드의 Ceph 대시보드의 사용자 역할 및 사용 권한을 참조하십시오.
- 자세한 내용은 Red Hat Ceph Storage 설치 가이드 를 참조하십시오.
2.6. Ceph 대시보드 기능 통합
필요에 따라 기능을 활성화 또는 비활성화하여 Red Hat Ceph Storage 대시보드 구성 요소를 사용자 지정할 수 있습니다. 모든 기능은 기본적으로 활성화되어 있습니다. 기능을 비활성화할 때 web-interface 요소가 숨겨지고 연결된 REST API 엔드포인트는 해당 기능에 대한 추가 요청을 거부합니다. 대시보드 기능 활성화 및 비활성화는 명령줄 인터페이스 또는 웹 인터페이스에서 수행할 수 있습니다.
사용 가능한 기능:
Ceph 블록 장치:
-
이미지 관리,
rbd
-
미러링,
미러링
-
iSCSI 게이트웨이,
iscsi
-
이미지 관리,
-
Ceph Filesystem,
cephfs
-
Ceph Object Gateway,
rgw
-
NFS Ganesha 게이트웨이,
nfs
기본적으로 Ceph Manager는 Ceph 모니터와 함께 배치됩니다.
여러 기능을 한 번에 비활성화할 수 있습니다.
기능이 비활성화되면 웹 인터페이스의 변경 사항을 반영하는 데 최대 20초가 걸릴 수 있습니다.
사전 요구 사항
- Red Hat Ceph Storage 대시보드 소프트웨어의 설치 및 구성.
- 사용자가 Ceph Manager 호스트 또는 대시보드 웹 인터페이스에 액세스할 수 있습니다.
- Ceph Manager 호스트에 대한 루트 수준 액세스.
절차
대시보드 웹 인터페이스에서 대시보드 기능을 토글하려면 다음을 수행합니다.
- 대시보드 방문 페이지에서 클러스터 드롭다운 메뉴로 이동합니다.
- 관리자 모듈을 선택한 다음 대시보드 를 선택합니다.
관리자 편집 페이지에서 기능 이름 옆에 있는 선택 상자를 선택하거나 선택 해제하여 대시보드 기능을 활성화하거나 비활성화할 수 있습니다.
그림 2.5. 관리자 모듈 편집
- 선택 사항이 완료되면 아래로 스크롤하고 업데이트를 클릭합니다.
명령줄 인터페이스에서 대시보드 기능을 토글하려면 다음을 수행합니다.
Cephadm 쉘에 로그인합니다.
예제
Copy to Clipboard Copied! Toggle word wrap Toggle overflow cephadm shell
[root@host01 ~]# cephadm shell
기능 상태를 나열합니다.
예제
Copy to Clipboard Copied! Toggle word wrap Toggle overflow [ceph: root@host01 /]# ceph dashboard feature status
[ceph: root@host01 /]# ceph dashboard feature status
기능을 비활성화합니다.
Copy to Clipboard Copied! Toggle word wrap Toggle overflow [ceph: root@host01 /]# ceph dashboard feature disable iscsi
[ceph: root@host01 /]# ceph dashboard feature disable iscsi
이 예제에서는 Ceph iSCSI 게이트웨이 기능을 비활성화합니다.
기능을 활성화합니다.
Copy to Clipboard Copied! Toggle word wrap Toggle overflow [ceph: root@host01 /]# ceph dashboard feature enable cephfs
[ceph: root@host01 /]# ceph dashboard feature enable cephfs
이 예제에서는 Ceph Filesystem 기능을 활성화합니다.
2.7. Ceph 대시보드의 시작 페이지 이해
시작 페이지에는 탐색 모음과 개별 패널을 사용하는 전체 Ceph 클러스터에 대한 개요가 표시됩니다.
탐색 모음에는 다음 옵션이 있습니다.
- 작업 및 알림에 대한 메시지입니다.
- 문서 링크, Ceph Rest API 및 Red Hat Ceph Storage 대시 보드에 대한 세부 정보.
- 사용자 관리 및 원격 분석 구성에 대한 링크입니다.
- 암호 변경 및 대시보드에서 로그아웃하기 위한 링크.
그림 2.6. 탐색 모음

그 외에도 개별 패널에는 클러스터 상태에 대한 특정 정보가 표시됩니다.
카테고리
시작 페이지는 다음 세 가지 범주로 패널을 구성합니다.
- 상태
- 용량
- 성능
그림 2.7. Ceph 대시보드 방문 페이지

상태 패널
상태 패널에는 클러스터 및 호스트 및 데몬 상태의 상태가 표시됩니다.
클러스터 상태: Ceph 스토리지 클러스터의 현재 상태를 표시합니다.
Hosts: Ceph 스토리지 클러스터에 있는 총 호스트 수를 표시합니다.
monitors: Ceph 모니터 수 및 쿼럼 상태를 표시합니다.
OSD: Ceph Storage 클러스터에서 총 OSD 수와 up 인 수를 표시합니다.
managers: Manager 데몬의 수 및 상태를 표시합니다.
Object Gateways: Ceph 스토리지 클러스터의 오브젝트 게이트웨이 수를 표시합니다.
metadata 서버: Ceph Filesystems(CephFS)의 메타데이터 서버 수 및 상태를 표시합니다.
iSCSI 게이트웨이: Ceph 스토리지 클러스터의 iSCSI 게이트웨이 수를 표시합니다.
용량 패널
용량 패널에는 스토리지 사용량 지표가 표시됩니다.
원시 용량: 클러스터의 원시 스토리지 용량의 사용률 및 가용성을 표시합니다.
개체: 풀의 총 오브젝트 수와 오브젝트를 Healthy,Misplaced,De graded 또는 Unfound 의 상태로 나누는 그래프를 표시합니다.
PG 상태: 배치 그룹의 총 수와 PG를 정리,Working,Warning 또는 Unknown 의 상태로 분할하는 그래프를 표시합니다. PG 상태 작동 및 경고 의 표시를 단순화하기 위해 각 상태에는 실제로 여러 상태가 포함됩니다.
작업 상태에는 다음 상태 중 하나가 있는 PG가 포함됩니다.
- 활성화
- backfill_wait
- backfilling
- 생성
- 딥
- Degraded
- forced_backfill
- forced_recovery
- 피어링
- 피어링
- 복구
- recovery_wait
- 복구
- 스크럽
- snaptrim
- snaptrim_wait
경고 상태에는 다음 상태 중 하나가 있는 PG가 포함됩니다.
- backfill_toofull
- backfill_unfound
- down
- 불완전함
- 일관되지 않음
- recovery_toofull
- recovery_unfound
- Remapped
- snaptrim_error
- stale
- undersized
풀: Ceph 클러스터의 스토리지 풀 수를 표시합니다.
OSD당 PGS: OSD당 배치 그룹 수를 표시합니다.
성능 패널
성능 패널에는 데이터 전송 속도와 관련된 정보가 표시됩니다.
클라이언트 읽기/쓰기: 초당 총 입/출력 작업을 표시하고 초당 읽기 및 초당 쓰기를 표시합니다.
클라이언트 지원: 총 클라이언트 처리량, 읽기 처리량, 쓰기 처리량을 표시합니다.
복구: 데이터 복구 비율을 표시합니다.
스크럽: Ceph가 무결성을 확인하기 위해 데이터를 스크럽할지 여부를 표시합니다.
추가 리소스
- 자세한 내용은 Red Hat Ceph Storage Dashboard 가이드의 Ceph대시보드에서 클러스터 모니터링 섹션을 참조하십시오.
2.8. Ceph 대시보드를 사용하여 대시보드 암호 변경
기본적으로 대시보드에 액세스하는 암호는 클러스터를 부트스트랩하는 동안 시스템에서 무작위로 생성됩니다. Red Hat Ceph Storage 대시보드에 처음 로그인할 때 암호를 변경해야 합니다. 대시보드를 사용하여 admin
사용자의 암호를 변경할 수 있습니다.
사전 요구 사항
- 실행 중인 Red Hat Ceph Storage 클러스터.
절차
대시보드에 로그인합니다.
Copy to Clipboard Copied! Toggle word wrap Toggle overflow https://HOST_NAME:8443
https://HOST_NAME:8443
대시보드 설정 아이콘을 클릭한 다음 사용자 관리를 클릭합니다.
그림 2.8. 사용자 관리
- admin 의 암호를 변경하려면 해당 행을 클릭합니다.
- 편집 드롭다운 메뉴에서 편집 을 선택합니다.
Edit User (사용자 편집) 창에서 새 암호를 입력하고 다른 매개변수를 변경한 다음 Edit User 를 클릭합니다.
그림 2.9. 사용자 관리 편집
로그아웃한 후 로그인 화면으로 리디렉션됩니다. 암호 변경을 확인하는 알림이 표시됩니다.
2.9. 명령줄 인터페이스를 사용하여 Ceph 대시보드 암호 변경
Ceph 대시보드 암호를 잊어버린 경우 명령줄 인터페이스를 사용하여 암호를 변경할 수 있습니다.
사전 요구 사항
- 실행 중인 Red Hat Ceph Storage 클러스터.
- 대시보드가 설치된 호스트에 대한 루트 수준 액세스.
절차
Cephadm 쉘에 로그인합니다.
예제
Copy to Clipboard Copied! Toggle word wrap Toggle overflow cephadm shell
[root@host01 ~]# cephadm shell
dashboard_password.yml
파일을 만듭니다.예제
Copy to Clipboard Copied! Toggle word wrap Toggle overflow [ceph: root@host01 /]# touch dashboard_password.yml
[ceph: root@host01 /]# touch dashboard_password.yml
파일을 편집하고 새 대시보드 암호를 추가합니다.
예제
Copy to Clipboard Copied! Toggle word wrap Toggle overflow [ceph: root@host01 /]# vi dashboard_password.yml
[ceph: root@host01 /]# vi dashboard_password.yml
대시보드 암호를 재설정합니다.
구문
Copy to Clipboard Copied! Toggle word wrap Toggle overflow ceph dashboard ac-user-set-password DASHBOARD_USERNAME -i PASSWORD_FILE
ceph dashboard ac-user-set-password DASHBOARD_USERNAME -i PASSWORD_FILE
예제
Copy to Clipboard Copied! Toggle word wrap Toggle overflow [ceph: root@host01 /]# ceph dashboard ac-user-set-password admin -i dashboard_password.yml {"username": "admin", "password": "$2b$12$i5RmvN1PolR61Fay0mPgt.GDpcga1QpYsaHUbJfoqaHd1rfFFx7XS", "roles": ["administrator"], "name": null, "email": null, "lastUpdate": , "enabled": true, "pwdExpirationDate": null, "pwdUpdateRequired": false}
[ceph: root@host01 /]# ceph dashboard ac-user-set-password admin -i dashboard_password.yml {"username": "admin", "password": "$2b$12$i5RmvN1PolR61Fay0mPgt.GDpcga1QpYsaHUbJfoqaHd1rfFFx7XS", "roles": ["administrator"], "name": null, "email": null, "lastUpdate": , "enabled": true, "pwdExpirationDate": null, "pwdUpdateRequired": false}
검증
- 새 암호를 사용하여 대시보드에 로그인합니다.
2.10. Grafana에 대한 admin
사용자 암호 설정
기본적으로 cephadm
은 Grafana에 대한 admin 사용자를 생성하지 않습니다. Ceph Orchestrator를 사용하면 admin 사용자를 생성하고 암호를 설정할 수 있습니다.
이러한 자격 증명을 사용하면 admin 사용자에 대해 지정된 암호를 사용하여 스토리지 클러스터의 Grafana URL에 로그인할 수 있습니다.
사전 요구 사항
- 모니터링 스택이 설치된 실행 중인 Red Hat Ceph Storage 클러스터.
-
cephadm
호스트에 대한 루트 수준 액세스. -
대시보드
모듈이 활성화되었습니다.
절차
root 사용자로
grafana.yml
파일을 만들고 다음 세부 정보를 제공합니다.구문
Copy to Clipboard Copied! Toggle word wrap Toggle overflow service_type: grafana spec: initial_admin_password: PASSWORD
service_type: grafana spec: initial_admin_password: PASSWORD
예제
Copy to Clipboard Copied! Toggle word wrap Toggle overflow service_type: grafana spec: initial_admin_password: mypassword
service_type: grafana spec: initial_admin_password: mypassword
grafana.yml
파일을 컨테이너의 디렉터리에 마운트합니다.예제
Copy to Clipboard Copied! Toggle word wrap Toggle overflow cephadm shell --mount grafana.yml:/var/lib/ceph/grafana.yml
[root@host01 ~]# cephadm shell --mount grafana.yml:/var/lib/ceph/grafana.yml
참고쉘을 종료할 때마다 데몬을 배포하기 전에 컨테이너에 파일을 마운트해야 합니다.
선택 사항:
대시보드
Ceph Manager 모듈이 활성화되어 있는지 확인합니다.예제
Copy to Clipboard Copied! Toggle word wrap Toggle overflow [ceph: root@host01 /]# ceph mgr module ls
[ceph: root@host01 /]# ceph mgr module ls
선택 사항:
대시보드
Ceph Manager 모듈을 활성화합니다.예제
Copy to Clipboard Copied! Toggle word wrap Toggle overflow [ceph: root@host01 /]# ceph mgr module enable dashboard
[ceph: root@host01 /]# ceph mgr module enable dashboard
orch
명령을 사용하여 사양을 적용합니다.구문
Copy to Clipboard Copied! Toggle word wrap Toggle overflow ceph orch apply -i FILE_NAME.yml
ceph orch apply -i FILE_NAME.yml
예제
Copy to Clipboard Copied! Toggle word wrap Toggle overflow [ceph: root@host01 /]# ceph orch apply -i /var/lib/ceph/grafana.yml
[ceph: root@host01 /]# ceph orch apply -i /var/lib/ceph/grafana.yml
grafana
서비스를 재배포합니다.예제
Copy to Clipboard Copied! Toggle word wrap Toggle overflow [ceph: root@host01 /]# ceph orch redeploy grafana
[ceph: root@host01 /]# ceph orch redeploy grafana
이렇게 하면 지정된 암호를 사용하여
admin
이라는 admin 사용자가 생성되고 사용자는 이러한 자격 증명을 사용하여 Grafana URL에 로그인할 수 있습니다.
확인:
인증 정보를 사용하여 Grafana에 로그인합니다.
구문
Copy to Clipboard Copied! Toggle word wrap Toggle overflow https://HOST_NAME:PORT
https://HOST_NAME:PORT
예제
Copy to Clipboard Copied! Toggle word wrap Toggle overflow https://host01:3000/
https://host01:3000/
2.11. Red Hat Ceph Storage 대시보드를 수동으로 활성화
부트스트랩 중에 --skip-dashboard
옵션을 사용하여 Red Hat Ceph Storage 클러스터를 설치한 경우 부트스트랩 출력에서 대시보드 URL 및 인증 정보를 사용할 수 없음을 확인할 수 있습니다. 명령줄 인터페이스를 사용하여 대시보드를 수동으로 활성화할 수 있습니다. Prometheus, Grafana, Alertmanager 및 node-exporter와 같은 모니터링 스택 구성 요소가 배포되지만 비활성화되어 수동으로 활성화해야 합니다.
사전 요구 사항
-
부트스트랩 중에
--skip-dashboard
옵션을 사용하여 설치된 Red Hat Ceph Storage 클러스터 실행 - 대시보드를 활성화해야 하는 호스트에 대한 루트 수준 액세스.
절차
Cephadm 쉘에 로그인합니다.
예제
Copy to Clipboard Copied! Toggle word wrap Toggle overflow cephadm shell
[root@host01 ~]# cephadm shell
Ceph Manager 서비스를 확인합니다.
예제
Copy to Clipboard Copied! Toggle word wrap Toggle overflow [ceph: root@host01 /]# ceph mgr services { "prometheus": "http://10.8.0.101:9283/" }
[ceph: root@host01 /]# ceph mgr services { "prometheus": "http://10.8.0.101:9283/" }
대시보드 URL이 구성되지 않은 것을 확인할 수 있습니다.
dashboard 모듈을 활성화합니다.
예제
Copy to Clipboard Copied! Toggle word wrap Toggle overflow [ceph: root@host01 /]# ceph mgr module enable dashboard
[ceph: root@host01 /]# ceph mgr module enable dashboard
대시보드 액세스에 대한 자체 서명된 인증서를 만듭니다.
예제
Copy to Clipboard Copied! Toggle word wrap Toggle overflow [ceph: root@host01 /]# ceph dashboard create-self-signed-cert
[ceph: root@host01 /]# ceph dashboard create-self-signed-cert
참고인증서 확인을 비활성화하여 인증 오류를 방지할 수 있습니다.
Ceph Manager 서비스를 확인합니다.
예제
Copy to Clipboard Copied! Toggle word wrap Toggle overflow [ceph: root@host01 /]# ceph mgr services { "dashboard": "https://10.8.0.101:8443/", "prometheus": "http://10.8.0.101:9283/" }
[ceph: root@host01 /]# ceph mgr services { "dashboard": "https://10.8.0.101:8443/", "prometheus": "http://10.8.0.101:9283/" }
admin 사용자 및 암호를 생성하여 Red Hat Ceph Storage 대시보드에 액세스합니다.
구문
Copy to Clipboard Copied! Toggle word wrap Toggle overflow echo -n "PASSWORD" > PASSWORD_FILE ceph dashboard ac-user-create admin -i PASSWORD_FILE administrator
echo -n "PASSWORD" > PASSWORD_FILE ceph dashboard ac-user-create admin -i PASSWORD_FILE administrator
예제
Copy to Clipboard Copied! Toggle word wrap Toggle overflow [ceph: root@host01 /]# echo -n "p@ssw0rd" > password.txt [ceph: root@host01 /]# ceph dashboard ac-user-create admin -i password.txt administrator
[ceph: root@host01 /]# echo -n "p@ssw0rd" > password.txt [ceph: root@host01 /]# ceph dashboard ac-user-create admin -i password.txt administrator
- 모니터링 스택을 활성화합니다. 자세한 내용은 Red Hat Ceph Storage 대시보드 가이드 의 모니터링 스택 활성화 섹션을 참조하십시오.
추가 리소스
- Red Hat Ceph Storage Operations Guide 의 Ceph Orchestrator를 사용하여 모니터링 스택 배포 섹션을 참조하십시오.
2.12. 사용자를 Ceph 대시보드에 동기화하기 위한 관리자 계정 만들기
admin 계정을 만들어 사용자를 Ceph 대시보드에 동기화해야 합니다.
계정을 만든 후 Red Hat SSO(Single Sign-On)를 사용하여 사용자를 Ceph 대시보드에 동기화합니다. Red Hat Ceph Storage 대시보드 가이드의 Red Hat Single Sign-On 섹션을 사용하여 Ceph 대시보드에 사용자 동기화 를 참조하십시오.
사전 요구 사항
- 실행 중인 Red Hat Ceph Storage 클러스터.
- 대시보드가 설치되어 있어야 합니다.
- 대시보드에 대한 관리자 액세스 권한입니다.
- 사용자가 대시보드에 추가됩니다.
- 모든 호스트에서 root 수준 액세스.
- ZIP 파일에서 Red Hat Single Sign-On이 설치되었습니다. 자세한 내용은 zip 파일에서 Red Hat Single Sign-On 설치를 참조하십시오.
절차
- Red Hat Ceph Storage가 설치된 시스템에서 Red Hat Single Sign-On 7.4.0 서버를 다운로드합니다.
폴더의 압축을 풉니다.
Copy to Clipboard Copied! Toggle word wrap Toggle overflow unzip rhsso-7.4.0.zip
[root@host01 ~]# unzip rhsso-7.4.0.zip
standalone/configuration
디렉터리로 이동하여 편집을 위해standalone.xml
을 엽니다.Copy to Clipboard Copied! Toggle word wrap Toggle overflow cd standalone/configuration vi standalone.xml
[root@host01 ~]# cd standalone/configuration [root@host01 configuration]# vi standalone.xml
-
localhost
와127.0.0.1
의 모든 인스턴스를 Red Hat SSO가 설치된 시스템의 IP 주소로 바꿉니다. 선택 사항: Red Hat Enterprise Linux 8의 경우 사용자는 CA(인증 기관) 문제가 발생할 수 있습니다. CA에서 사용자 정의 인증서를 가져와 정확한 java 버전을 사용하여 키 저장소로 이동합니다.
예제
Copy to Clipboard Copied! Toggle word wrap Toggle overflow keytool -import -noprompt -trustcacerts -alias ca -file ../ca.cer -keystore /etc/java/java-1.8.0-openjdk/java-1.8.0-openjdk-1.8.0.272.b10-3.el8_3.x86_64/lib/security/cacert
[root@host01 ~]# keytool -import -noprompt -trustcacerts -alias ca -file ../ca.cer -keystore /etc/java/java-1.8.0-openjdk/java-1.8.0-openjdk-1.8.0.272.b10-3.el8_3.x86_64/lib/security/cacert
rh-sso-7.4
폴더의bin
디렉터리에서 서버를 시작하려면독립 실행형
부팅 스크립트를 실행합니다.Copy to Clipboard Copied! Toggle word wrap Toggle overflow ./standalone.sh
[root@host01 bin]# ./standalone.sh
https: IP_ADDRESS :8080/auth에 사용자 이름 및 암호를 사용하여 admin 계정을 생성합니다.
참고콘솔에 로그인하는 경우에만 admin 계정을 생성해야 합니다.
- 생성된 자격 증명을 사용하여 admin 콘솔에 로그인합니다.
추가 리소스
- 대시보드에 있는 사용자에 대한 역할을 추가하는 방법은 Red Hat Ceph Storage 대시보드 가이드의 Ceph 대시보드에서역할 만들기 섹션을 참조하십시오.
- 대시보드에서 사용자를 만들려면 Red Hat Ceph Storage 대시보드 가이드 의 Ceph 대시보드에서 사용자 만들기 섹션을 참조하십시오.
2.13. Red Hat Single Sign-On을 사용하여 사용자를 Ceph 대시보드에 동기화
LDAP(Lightweight Directory Access Protocol) 통합과 함께 Red Hat SSO(Single Sign-On)를 사용하여 사용자를 Red Hat Ceph Storage 대시보드와 동기화할 수 있습니다.
사용자는 암호의 추가 요구 사항 없이 SSO를 통해 대시보드에 액세스할 수 있는 특정 영역에 추가됩니다.
사전 요구 사항
- 실행 중인 Red Hat Ceph Storage 클러스터.
- 대시보드가 설치되어 있어야 합니다.
- 대시보드에 대한 관리자 액세스 권한입니다.
- 사용자가 대시보드에 추가됩니다. Red Hat Ceph Storage 대시보드 가이드의 Ceph 대시보드에서 사용자 생성 을 참조하십시오.
- 모든 호스트에서 root 수준 액세스.
- 사용자 동기화를 위해 생성된 admin 계정입니다. Red Hat Ceph Storage Dashboard Guide 의 Creating an admin account for syncing users to the Ceph dashboard 섹션을 참조하십시오.
절차
- 영역을 생성하려면 마스터 드롭다운 메뉴를 클릭합니다. 이 영역에서는 사용자와 애플리케이션에 대한 액세스 권한을 제공할 수 있습니다.
realm 추가 창에서 대소문자를 민감한 영역 이름을 입력하고 Enabled 매개변수를 ON으로 설정하고 생성 을 클릭합니다.
realm Settings 탭에서 다음 매개변수를 설정하고 저장을 클릭합니다.
- enabled - ON
- 사용자 관리 액세스 - ON
SAML 2.0 ID 공급자 메타데이터의 링크 주소를 참조하여 클라이언트 설정에 붙여넣습니다.
클라이언트 탭에서 만들기를 클릭합니다.In the Clients tab, click Create:
클라이언트 추가 창에서 다음 매개 변수를 설정하고 저장을 클릭합니다.In the Add Client window, set the following parameters and click Save:
Client ID - BASE_URL:8443/auth/saml2/metadata
예제
https://example.ceph.redhat.com:8443/auth/saml2/metadata
- 클라이언트 프로토콜 - saml
클라이언트 창의 설정 탭에서 다음 매개변수를 설정합니다.
표 2.2. 클라이언트 설정 탭 매개변수의 이름 구문 예제 클라이언트 ID
BASE_URL:8443/auth/saml2/metadata
https://example.ceph.redhat.com:8443/auth/saml2/metadata
enabled
ON
ON
클라이언트 프로토콜
saml
saml
AuthnStatement 포함
ON
ON
문서에 서명
ON
ON
서명 알고리즘
RSA_SHA1
RSA_SHA1
SAML 서명 키 이름
KEY_ID
KEY_ID
유효한 리디렉션 URL
BASE_URL:8443/*
https://example.ceph.redhat.com:8443/*
기본 URL
BASE_URL:8443
https://example.ceph.redhat.com:8443/
마스터 SAML 처리 URL
https://localhost:8080/auth/realms/REALM_NAME/protocol/saml/descriptor
https://localhost:8080/auth/realms/Ceph_LDAP/protocol/saml/descriptor
참고realm Settings 탭에서 SAML 2.0 ID 공급자 메타데이터의 링크를 붙여넣습니다.
Fine Grain SAML 끝점 구성에서 다음 매개변수를 설정하고 저장을 클릭합니다.
표 2.3. Fugin SAML 구성 매개변수의 이름 구문 예제 어설션 소비자 서비스 POST 바인딩 URL
BASE_URL:8443/#/dashboard
https://example.ceph.redhat.com:8443/#/dashboard
어설션 소비자 서비스 리디렉션 바인딩 URL
BASE_URL:8443/#/dashboard
https://example.ceph.redhat.com:8443/#/dashboard
서비스 리디렉션 바인딩 URL
BASE_URL:8443/
https://example.ceph.redhat.com:8443/
클라이언트 창에서 Mappers 탭에서 다음 매개변수를 설정하고 저장을 클릭합니다.
표 2.4. 클라이언트 매퍼 탭 매개변수의 이름 값 프로토콜
saml
이름
사용자 이름
매퍼 속성
사용자 속성
속성
사용자 이름
SAML 속성 이름
사용자 이름
클라이언트 범위 탭에서 role_list:를 선택합니다.
- Mappers 탭에서 역할 목록을 선택하고 Single Role Attribute 를 ON으로 설정합니다.
User_Federation 탭을 선택합니다.
- 사용자 페더레이션 창의 드롭다운 메뉴에서 ldap 를 선택합니다.
User_Federation 창에서 설정 탭에서 다음 매개변수를 설정하고 저장을 클릭합니다.
표 2.5. 사용자 페더레이션 설정 탭 매개변수의 이름 값 콘솔 표시 이름
rh-ldap
사용자 가져오기
ON
Edit_Mode
READ_ONLY
사용자 이름 LDAP 속성
사용자 이름
RDN LDAP 속성
사용자 이름
UUID LDAP 속성
nsuniqueid
사용자 오브젝트 클래스
inetOrgPerson, organizationalPerson, rhatPerson
연결 URL
예: ldap://ldap.corp.redhat.com 테스트 연결을 클릭합니다. LDAP 연결에 성공했는지 알리는 알림이 표시됩니다.
사용자 DN
ou=users, dc=example, dc=com
바인딩 유형
simple
테스트 인증 을 클릭합니다. LDAP 인증에 성공했음을 알리는 알림이 표시됩니다.
Mappers 탭에서 첫 번째 이름 행을 선택하고 다음 매개 변수를 편집하고 저장을 클릭합니다.
- LDAP 속성 - givenName
User_Federation 탭에서 Settings 탭을 클릭하고 모든 사용자 동기화 를 클릭합니다.
사용자 동기화가 성공적으로 완료되었음을 알리는 알림이 표시됩니다.
Users 탭에서 대시보드에 추가된 사용자를 검색하고 검색 아이콘을 클릭합니다.
사용자를 보려면 특정 행을 클릭합니다. 사용자 페더레이션에 제공된 이름으로 페더레이션 링크가 표시됩니다.
중요LDAP에서 사용자를 동기화하지 않으므로 사용자를 수동으로 추가하지 마십시오. 수동으로 추가한 경우 삭제를 클릭하여 사용자를 삭제합니다.
검증
영역과 대시보드에 추가된 사용자는 해당 메일 주소 및 암호를 사용하여 Ceph 대시보드에 액세스할 수 있습니다.
예제
https://example.ceph.redhat.com:8443
추가 리소스
- 대시보드에 있는 사용자에 대한 역할을 추가하는 방법은 Red Hat Ceph Storage 대시보드 가이드의 Ceph 대시보드에서역할 만들기 섹션을 참조하십시오.
2.14. Ceph 대시보드용 Single Sign-On 활성화
Ceph 대시보드는 SAMLL(Security Assertion Markup Language) 2.0 프로토콜을 사용하여 사용자의 외부 인증을 지원합니다. Ceph 대시보드에서 SSO(Single Sign-On)를 사용하기 전에 대시보드 사용자 계정을 만들고 원하는 역할을 할당합니다. Ceph 대시보드는 사용자의 승인을 수행하며 인증 프로세스는 기존 ID 공급자(IdP)에서 수행합니다. SAML 프로토콜을 사용하여 Single Sign-On을 활성화할 수 있습니다.
사전 요구 사항
- 실행 중인 Red Hat Ceph Storage 클러스터.
- Ceph 대시보드 설치.
- Ceph Manager 호스트에 대한 루트 수준 액세스.
절차
Ceph 대시보드에서 SSO를 구성하려면 다음 명령을 실행합니다.
구문
Copy to Clipboard Copied! Toggle word wrap Toggle overflow podman exec CEPH_MGR_HOST ceph dashboard sso setup saml2 CEPH_DASHBOARD_BASE_URL IDP_METADATA IDP_USERNAME_ATTRIBUTE IDP_ENTITY_ID SP_X_509_CERT SP_PRIVATE_KEY
podman exec CEPH_MGR_HOST ceph dashboard sso setup saml2 CEPH_DASHBOARD_BASE_URL IDP_METADATA IDP_USERNAME_ATTRIBUTE IDP_ENTITY_ID SP_X_509_CERT SP_PRIVATE_KEY
예제
Copy to Clipboard Copied! Toggle word wrap Toggle overflow podman exec host01 ceph dashboard sso setup saml2 https://dashboard_hostname.ceph.redhat.com:8443 idp-metadata.xml username https://10.70.59.125:8080/auth/realms/realm_name /home/certificate.txt /home/private-key.txt
[root@host01 ~]# podman exec host01 ceph dashboard sso setup saml2 https://dashboard_hostname.ceph.redhat.com:8443 idp-metadata.xml username https://10.70.59.125:8080/auth/realms/realm_name /home/certificate.txt /home/private-key.txt
replace
-
Ceph
mgr
호스트를 사용한 CEPH_MGR_HOST. 예를 들면host01
- Ceph 대시보드에 액세스할 수 있는 기본 URL이 있는CEPH _DASHBOARD_BASE_URL 입니다.
- IDP_METADATA 및 IdP 메타데이터 XML의 원격 또는 로컬 경로 또는 콘텐츠에 대한 URL입니다. 지원되는 URL 유형은 http, https 및 file입니다.
- 선택 사항: 인증 응답에서 사용자 이름을 가져오는 데 사용되는 속성이 있는IDP_USERNAME_ATTRIBUTE 입니다. 기본값은 uid 입니다.
- 선택 사항: IdP 엔티티 ID가 두 개 이상 IdP 메타데이터에 존재하는 경우IDP_ENTITY_ID 입니다.
- 선택 사항: Ceph Dashboard에서 서명 및 암호화를 위해 사용하는 인증서의 파일 경로가 있는SP_X_509_CERT 입니다.
- 선택 사항: Ceph Dashboard에서 서명 및 암호화를 위해 사용하는 개인 키의 파일 경로가 있는SP_PRIVATE_KEY 입니다.
-
Ceph
현재 SAML 2.0 구성을 확인합니다.
구문
Copy to Clipboard Copied! Toggle word wrap Toggle overflow podman exec CEPH_MGR_HOST ceph dashboard sso show saml2
podman exec CEPH_MGR_HOST ceph dashboard sso show saml2
예제
Copy to Clipboard Copied! Toggle word wrap Toggle overflow podman exec host01 ceph dashboard sso show saml2
[root@host01 ~]# podman exec host01 ceph dashboard sso show saml2
SSO를 활성화하려면 다음 명령을 실행합니다.
구문
Copy to Clipboard Copied! Toggle word wrap Toggle overflow podman exec CEPH_MGR_HOST ceph dashboard sso enable saml2 SSO is "enabled" with "SAML2" protocol.
podman exec CEPH_MGR_HOST ceph dashboard sso enable saml2 SSO is "enabled" with "SAML2" protocol.
예제
Copy to Clipboard Copied! Toggle word wrap Toggle overflow podman exec host01 ceph dashboard sso enable saml2
[root@host01 ~]# podman exec host01 ceph dashboard sso enable saml2
대시보드 URL을 엽니다.
예제
Copy to Clipboard Copied! Toggle word wrap Toggle overflow https://dashboard_hostname.ceph.redhat.com:8443
https://dashboard_hostname.ceph.redhat.com:8443
- SSO 페이지에서 로그인 자격 증명을 입력합니다. SSO는 대시보드 웹 인터페이스로 리디렉션됩니다.
추가 리소스
2.15. Ceph 대시보드용 Single Sign-On 비활성화
SAML 2.0 프로토콜을 사용하여 Ceph 대시보드용 SSO(Single Sign-On)를 비활성화할 수 있습니다.
사전 요구 사항
- 실행 중인 Red Hat Ceph Storage 클러스터.
- Ceph 대시보드 설치.
- Ceph Manager 호스트에 대한 루트 수준 액세스.
- Ceph 대시보드에 대해 Single Sign-On 활성화
절차
SSO가 활성화되어 있는지 확인합니다.
구문
Copy to Clipboard Copied! Toggle word wrap Toggle overflow podman exec CEPH_MGR_HOST ceph dashboard sso status
podman exec CEPH_MGR_HOST ceph dashboard sso status
예제
Copy to Clipboard Copied! Toggle word wrap Toggle overflow podman exec host01 ceph dashboard sso status
[root@host01 ~]# podman exec host01 ceph dashboard sso status SSO is "enabled" with "SAML2" protocol.
SSO를 비활성화합니다.
구문
Copy to Clipboard Copied! Toggle word wrap Toggle overflow podman exec CEPH_MGR_HOST ceph dashboard sso disable SSO is "disabled".
podman exec CEPH_MGR_HOST ceph dashboard sso disable SSO is "disabled".
예제
Copy to Clipboard Copied! Toggle word wrap Toggle overflow podman exec host01 ceph dashboard sso disable
[root@host01 ~]# podman exec host01 ceph dashboard sso disable
추가 리소스
- Single Sign-On 을 활성화하려면 Red Hat Ceph StorageDashboard Guide 에서 Ceph 대시보드의 Single Sign-on 활성화를 참조하십시오.
3장. Ceph 대시보드에서 역할 관리
스토리지 관리자는 대시보드에서 역할을 생성, 편집, 복제 및 삭제할 수 있습니다.
기본적으로 8개의 시스템 역할이 있습니다. 사용자 지정 역할을 생성하고 해당 역할에 대한 권한을 부여할 수 있습니다. 이러한 역할은 요구 사항에 따라 사용자에게 할당할 수 있습니다.
이 섹션에서는 다음 관리 작업에 대해 설명합니다.
3.1. Ceph 대시보드에 대한 사용자 역할 및 권한
사용자 계정은 액세스할 수 있는 특정 대시보드 기능을 정의하는 역할 세트와 연결됩니다.
Red Hat Ceph Storage 대시보드 기능 또는 모듈은 보안 범위 내에서 그룹화됩니다. 보안 범위는 사전 정의되어 있으며 정적입니다. Red Hat Ceph Storage 대시보드에서 사용 가능한 현재 보안 범위는 다음과 같습니다.
- CephFS: CephFS 관리와 관련된 모든 기능을 포함합니다.
- config-opt: Ceph 구성 옵션 관리와 관련된 모든 기능을 포함합니다.
- dashboard-settings: 대시보드 설정을 편집할 수 있습니다.
- Grafana: Grafana 프록시와 관련된 모든 기능을 포함합니다.
- Hosts: Hosts 메뉴 항목과 관련된 모든 기능을 포함합니다.
- iSCSI: iSCSI 관리와 관련된 모든 기능을 포함합니다.
- Log : Ceph 로그 관리와 관련된 모든 기능이 포함되어 있습니다.
- Manager: Ceph 관리자 관리와 관련된 모든 기능이 포함되어 있습니다.
- Monitor : Ceph 모니터 관리와 관련된 모든 기능이 포함되어 있습니다.
- NFS-ganesha: NFS-Ganesha 관리와 관련된 모든 기능을 포함합니다.
- OSD: OSD 관리와 관련된 모든 기능이 포함되어 있습니다.
- Pool : 풀 관리와 관련된 모든 기능이 포함되어 있습니다.
- Prometheus: Prometheus 경고 관리와 관련된 모든 기능을 포함합니다.
- RBD-image: RBD 이미지 관리와 관련된 모든 기능이 포함되어 있습니다.
- RBD 미러링: RBD 미러링 관리와 관련된 모든 기능을 포함합니다.
- RGW: Ceph 개체 게이트웨이(RGW) 관리와 관련된 모든 기능이 포함됩니다.
역할은 보안 범위와 권한 집합 간의 매핑 집합을 지정합니다. 다음과 같은 4가지 유형의 사용 권한이 있습니다.
- read
- create
- update
- delete

시스템 역할 목록은 다음과 같습니다.
- 관리자: 모든 보안 범위에 대해 전체 권한을 허용합니다.
- block-manager: RBD-image, RBD-mirroring 및 iSCSI 범위에 대한 전체 권한을 허용합니다.
- CephFS-manager: Ceph 파일 시스템 범위에 대한 전체 권한을 허용합니다.
- cluster-manager: 호스트, OSD, 모니터, 관리자 및 config-opt 범위에 대한 전체 권한을 허용합니다.
- Ganesha-manager: NFS-Ganesha 범위에 대한 전체 권한을 허용합니다.
- pool-manager: 풀 범위에 대한 전체 권한을 허용합니다.
- 읽기 전용: 대시보드 설정 및 config- opt 범위를 제외한 모든 보안 범위에 대해 읽기 권한을 허용합니다.
- GW-manager: Ceph 개체 게이트웨이 범위에 대한 전체 권한을 허용합니다.

예를 들어 모든 Ceph 오브젝트 게이트웨이 작업을 위해 사용자에게 rgw-manager
액세스 권한을 제공해야 합니다.
추가 리소스
- Ceph 대시보드에서 사용자를 생성하려면 Red Hat Ceph Storage 대시보드 가이드의 Ceph 대시보드에서 사용자 생성 섹션을 참조하십시오.
- Ceph 대시보드에서 역할을 생성하려면 Red Hat Ceph Storage 대시보드 가이드의 Ceph 대시보드에서 역할 생성 섹션을 참조하십시오.
3.2. Ceph 대시보드에서 역할 생성
대시보드에서 사용자 지정 역할을 생성할 수 있으며 이러한 역할은 역할에 따라 사용자에게 할당할 수 있습니다.
사전 요구 사항
- 실행 중인 Red Hat Ceph Storage 클러스터.
- 대시보드가 설치되어 있어야 합니다.
- 대시보드에 대한 관리자 액세스 수준입니다.
절차
- 대시보드에 로그인합니다.
대시보드 설정 아이콘을 클릭한 다음 사용자 관리를 클릭합니다.
- 역할 탭에서 만들기를 클릭합니다.On Roles tab, click Create:
역할 생성 창에서 이름,설명, 이 역할에 대한 사용 권한을 선택한 다음 역할 생성 버튼을 클릭합니다.
이 예제에서는
ganesha-manager
및rgw-manager
역할을 제공하는 경우 이러한 역할로 할당된 사용자는 모든 NFS-Ganesha 게이트웨이 및 Ceph 개체 게이트웨이 작업을 관리할 수 있습니다.- 역할이 성공적으로 생성되었음을 알리는 알림이 표시됩니다.
- 행의 Expand/Collapse 아이콘을 클릭하여 역할에 제공된 세부 정보 및 권한을 확인합니다.
추가 리소스
- 자세한 내용은 Red Hat Ceph Storage 대시보드 가이드의 Ceph 대시보드의 사용자 역할 및 사용 권한을 참조하십시오.
- 자세한 내용은 Red Hat Ceph Storage 대시보드 가이드의 Ceph 대시보드에서사용자 만들기 섹션을 참조하십시오.
3.3. Ceph 대시보드에서 역할 편집
대시보드를 사용하면 대시보드에서 역할을 편집할 수 있습니다.
사전 요구 사항
- 실행 중인 Red Hat Ceph Storage 클러스터.
- 대시보드가 설치되어 있어야 합니다.
- 대시보드에 대한 관리자 액세스 수준입니다.
- 대시보드에서 역할이 생성됩니다.
절차
- 대시보드에 로그인합니다.
대시보드 설정 아이콘을 클릭한 다음 사용자 관리를 클릭합니다.
- Roles (역할) 탭에서 편집할 역할을 클릭합니다.
역할 편집 창에서 매개 변수를 편집한 다음 역할 편집 을 클릭합니다.
- 역할이 업데이트되었음을 알리는 알림이 표시됩니다.
추가 리소스
- 자세한 내용은 Red Hat Ceph Storage 대시보드 가이드의 Ceph 대시보드에서역할 생성 섹션을 참조하십시오.
3.4. Ceph 대시보드에서 역할 복제
기존 역할에 추가 권한을 할당하려는 경우 시스템 역할을 복제하고 Red Hat Ceph Storage 대시보드에서 편집할 수 있습니다.
사전 요구 사항
- 실행 중인 Red Hat Ceph Storage 클러스터.
- 대시보드가 설치되어 있어야 합니다.
- 대시보드에 대한 관리자 액세스 수준입니다.
- 역할은 대시보드에 생성됩니다.
절차
- 대시보드에 로그인합니다.
대시보드 설정 아이콘을 클릭한 다음 사용자 관리를 클릭합니다.
- Roles (역할) 탭에서 복제할 역할을 클릭합니다.
- 편집 드롭다운 메뉴에서 Clone 을 선택합니다.
Clone Role (역할 복제) 대화 상자에서 역할에 대한 세부 정보를 입력한 다음 Clone Role (역할 복제)을 클릭합니다.
- 역할을 복제하면 요구 사항에 따라 권한을 사용자 지정할 수 있습니다.
추가 리소스
- 자세한 내용은 Red Hat Ceph Storage 대시보드 가이드의 Ceph 대시보드에서역할 생성 섹션을 참조하십시오.
3.5. Ceph 대시보드에서 역할 삭제
Red Hat Ceph Storage 대시보드에서 생성한 사용자 지정 역할을 삭제할 수 있습니다.
Ceph 대시보드의 시스템 역할을 삭제할 수 없습니다.
사전 요구 사항
- 실행 중인 Red Hat Ceph Storage 클러스터.
- 대시보드가 설치되어 있어야 합니다.
- 대시보드에 대한 관리자 액세스 수준입니다.
- 대시보드에 사용자 지정 역할이 생성됩니다.
절차
- 대시보드에 로그인합니다.
대시보드 설정 아이콘을 클릭한 다음 사용자 관리를 클릭합니다.
- 역할 탭에서 삭제할 역할을 클릭합니다.
- 편집 드롭다운 메뉴에서 삭제를 선택합니다.
역할 삭제 대화 상자에서 예, 확인 상자를 클릭한 다음 역할 삭제를 클릭합니다.In the Delete Role dialog box, click the Yes, I am sure box and then click Delete Role.
추가 리소스
- 자세한 내용은 Red Hat Ceph Storage 대시보드 가이드의 Ceph 대시보드에서역할 생성 섹션을 참조하십시오.
4장. Ceph 대시보드에서 사용자 관리
스토리지 관리자는 Red Hat Ceph Storage 대시보드에서 특정 역할을 가진 사용자를 생성, 편집 및 삭제할 수 있습니다. 역할 기반 액세스 제어는 역할 및 요구 사항에 따라 각 사용자에게 제공됩니다.
이 섹션에서는 다음 관리 작업에 대해 설명합니다.
4.1. Ceph 대시보드에서 사용자 만들기
역할에 따라 적절한 역할 및 권한으로 Red Hat Ceph Storage 대시보드에서 사용자를 생성할 수 있습니다. 예를 들어 사용자가 Ceph 오브젝트 게이트웨이 작업을 관리하려면 사용자에게 rgw-manager
역할을 제공할 수 있습니다.
사전 요구 사항
- 실행 중인 Red Hat Ceph Storage 클러스터.
- 대시보드가 설치되어 있어야 합니다.
- 대시보드에 대한 관리자 액세스 수준입니다.
Red Hat Ceph Storage 대시보드는 사용자 암호를 변경할 때 이메일 확인을 지원하지 않습니다. 대시보드는 SSO(Single Sign-On)를 지원하며 이 기능을 SSO 공급자에 위임할 수 있기 때문입니다.
절차
- 대시보드에 로그인합니다.
대시보드 설정 아이콘을 클릭한 다음 사용자 관리를 클릭합니다.
- Users 탭에서 Create 를 클릭합니다.
Create User (사용자 생성) 창에서 역할을 포함한 Username 및 other 매개변수를 설정한 다음 Create User (사용자 만들기)를 클릭합니다.
- 사용자가 성공적으로 생성되었음을 알리는 알림이 표시됩니다.
추가 리소스
- 자세한 내용은 Red Hat Ceph Storage 대시보드 가이드의 Ceph 대시보드에서역할 생성 섹션을 참조하십시오.
- 자세한 내용은 Red Hat Ceph Storage 대시보드 가이드의 Ceph 대시보드의 사용자 역할 및 사용 권한을 참조하십시오.
4.2. Ceph 대시보드에서 사용자 편집
Red Hat Ceph Storage 대시보드에서 사용자를 편집할 수 있습니다. 요구 사항에 따라 사용자 암호 및 역할을 수정할 수 있습니다.
사전 요구 사항
- 실행 중인 Red Hat Ceph Storage 클러스터.
- 대시보드가 설치되어 있어야 합니다.
- 대시보드에 대한 관리자 액세스 수준입니다.
- 대시보드에서 만든 사용자입니다.
절차
- 대시보드에 로그인합니다.
대시보드 설정 아이콘을 클릭한 다음 사용자 관리를 클릭합니다.
- 사용자를 편집하려면 행을 클릭합니다.
- Users (사용자) 탭의 Edit (편집) 드롭다운 메뉴에서 Edit (편집)를 선택합니다.
Edit User 창에서 암호 및 역할과 같은 매개 변수를 편집한 다음 Edit User 를 클릭합니다.
참고Ceph 대시보드에 대한 사용자의 액세스를 비활성화하려면 Edit User 창에서 Enabled 옵션을 선택 해제할 수 있습니다.
- 사용자가 성공적으로 생성되었음을 알리는 알림이 표시됩니다.
추가 리소스
- 자세한 내용은 Red Hat Ceph Storage 대시보드 가이드의 Ceph 대시보드에서사용자 만들기 섹션을 참조하십시오.
4.3. Ceph 대시보드에서 사용자 삭제
Ceph 대시보드에서 사용자를 삭제할 수 있습니다. 일부 사용자는 시스템에서 제거될 수 있습니다. 이러한 사용자에 대한 액세스는 Ceph 대시보드에서 삭제할 수 있습니다.
사전 요구 사항
- 실행 중인 Red Hat Ceph Storage 클러스터.
- 대시보드가 설치되어 있어야 합니다.
- 대시보드에 대한 관리자 액세스 수준입니다.
- 대시보드에서 만든 사용자입니다.
절차
- 대시보드에 로그인합니다.
대시보드 설정 아이콘을 클릭한 다음 사용자 관리를 클릭합니다.
- Users (사용자) 탭에서 삭제할 사용자를 클릭합니다.
- 편집 드롭다운 메뉴에서 삭제를 선택합니다.
사용자 삭제 대화 상자에서 예, 확인 상자를 클릭한 다음 사용자 삭제를 클릭하여 설정을 저장합니다.
추가 리소스
- 자세한 내용은 Red Hat Ceph Storage 대시보드 가이드의 Ceph 대시보드에서사용자 만들기 섹션을 참조하십시오.
5장. Ceph 데몬 관리
스토리지 관리자는 Red Hat Ceph Storage 대시보드에서 Ceph 데몬을 관리할 수 있습니다.
5.1. 데몬 작업
Red Hat Ceph Storage 대시보드를 사용하면 데몬을 시작, 중지, 재시작, 재배포할 수 있습니다.
이러한 작업은 모니터 및 관리자 데몬을 제외한 모든 데몬에서 지원됩니다.
사전 요구 사항
- 실행 중인 Red Hat Ceph Storage 클러스터.
- 대시보드가 설치되어 있어야 합니다.
- 스토리지 클러스터에 하나 이상의 데몬이 구성되어 있습니다.
절차
데몬을 관리하는 방법은 두 가지입니다.
서비스 페이지에서 다음을 수행합니다.
- 대시보드에 로그인합니다.
- 클러스터 드롭다운 메뉴에서 서비스를 선택합니다.
- 해당 행에서 Expand/Collapse 아이콘을 클릭하여 작업을 수행할 데몬으로 서비스의 세부 정보를 확인합니다.
세부 정보 에서 원하는 데몬 옆에 있는 드롭다운을 선택하여 시작,중지,다시 시작 또는 재배포 를 수행합니다.
그림 5.1. 데몬 관리
Hosts 페이지에서 다음을 수행합니다.
- 대시보드에 로그인합니다.
- 클러스터 드롭다운 메뉴에서 호스트를 선택합니다.
- Hosts List 에서 작업을 수행할 데몬을 사용하여 호스트를 선택합니다.
- 호스트의 Daemon 탭에서 데몬을 클릭합니다.
맨 위에 있는 드롭다운을 사용하여 시작,중지,다시 시작 또는 재배포 를 수행합니다.
그림 5.2. 데몬 관리
6장. Ceph 대시보드에서 클러스터 모니터링
스토리지 관리자는 Red Hat Ceph Storage 대시보드를 사용하여 호스트, 서비스, 데이터 액세스 방법 등을 기반으로 클러스터의 특정 측면을 모니터링할 수 있습니다.
이 섹션에서는 다음 관리 작업에 대해 설명합니다.
- 대시보드에서 Ceph 클러스터의 호스트 모니터링.
- 대시보드에서 Ceph 클러스터의 구성을 보고 편집합니다.
- 대시보드에서 Ceph 클러스터의 manager 모듈을 보고 편집합니다.
- 대시보드에서 Ceph 클러스터 모니터링.
- 대시보드에서 Ceph 클러스터의 서비스 모니터링.
- 대시보드에서 Ceph OSD 모니터링.
- 대시보드에서 HAProxy 모니터링.
- 대시보드에서 Ceph 클러스터의 CRUSH 맵 보기.
- 대시보드에서 Ceph 클러스터의 로그 필터링.
- 대시보드에서 Ceph 클러스터 풀을 모니터링합니다.
- 대시보드에서 Ceph 파일 시스템 모니터링.
- 대시보드에서 Ceph 개체 게이트웨이 데몬 모니터링.
- Ceph 대시보드에서 블록 장치 이미지를 모니터링합니다.
6.1. 대시보드에서 Ceph 클러스터의 호스트 모니터링
Red Hat Ceph Storage 대시보드에서 클러스터 호스트를 모니터링할 수 있습니다.
다음은 호스트 페이지의 다양한 탭입니다.
- 장치 - 이 탭에는 장치 ID, 상태, 장치 이름, 호스트의 데몬과 같은 세부 정보가 있습니다.
- 인벤토리 - 이 탭에는 선택한 호스트에 연결된 모든 디스크와 유형, 크기 및 기타 항목이 표시됩니다. 장치 경로, 장치 유형, 사용 가능한 벤더, 모델, 크기, 배포된 OSD와 같은 세부 정보가 있습니다.
- 데몬 - 이 탭에는 선택한 호스트에 배포된 모든 서비스, 실행 중인 컨테이너 및 현재 상태가 표시됩니다. 호스트 이름, 데몬 유형, 데몬 ID, 컨테이너 ID, 컨테이너 이미지 이름, 컨테이너 이미지 ID, 버전 상태 및 마지막으로 새로 고침 시간과 같은 세부 정보가 있습니다.
- 성능 세부 정보 - 이 탭에는 배포된 OSD, CPU 사용률, RAM 사용량, 네트워크 로드, 네트워크 드롭 속도, OSD 디스크 성능 통계와 같은 세부 정보가 있습니다.
- 장치 상태 - SMART 지원 장치의 경우 배포된 호스트에서만 개별 상태 및 SMART 데이터를 가져올 수 있습니다.
사전 요구 사항
- 실행 중인 Red Hat Ceph Storage 클러스터.
- 대시보드가 설치되어 있어야 합니다.
- 호스트가 스토리지 클러스터에 추가됩니다.
- 모든 서비스, 모니터, 관리자 및 OSD 데몬이 스토리지 클러스터에 배포됩니다.
절차
- 대시보드에 로그인합니다.
- 클러스터 드롭다운 메뉴에서 호스트를 선택합니다.
- 특정 호스트의 세부 정보를 보려면 해당 행의 Expand/Collapse 아이콘을 클릭합니다.
각 탭을 클릭하여 장치,인벤토리,데몬,성능 세부 정보, 장치 상태 등의 세부 정보를 볼 수 있습니다.
그림 6.1. Ceph 클러스터의 호스트 모니터링
추가 리소스
- 자세한 내용은 Red Hat Ceph Storage 관리 가이드에서 Ceph성능 카운터 를 참조하십시오.
6.2. 대시보드에서 Ceph 클러스터의 구성 보기 및 편집
대시보드에서 Ceph 클러스터의 다양한 구성 옵션을 볼 수 있습니다. 일부 구성 옵션만 편집할 수 있습니다.
사전 요구 사항
- 실행 중인 Red Hat Ceph Storage 클러스터.
- 대시보드가 설치되어 있어야 합니다.
- 모든 서비스가 스토리지 클러스터에 배포됩니다.
절차
- 대시보드에 로그인합니다.
- 클러스터 드롭다운 메뉴에서 구성을 선택합니다.
- 선택 사항: 검색 상자를 사용하여 구성을 검색할 수 있습니다.
선택 사항: 다음 필터를 사용하여 특정 구성을 필터링할 수 있습니다.
- level - Basic, advanced 또는 dev
- 서비스 - Any, mon, mgr, osd, mds, common, mds_client, rgw, 유사한 필터.
- source - Any, mon 및 similar 필터
- 수정됨 - 예 또는 아니오
구성의 세부 정보를 보려면 행의 Expand/Collapse 아이콘을 클릭합니다.
그림 6.2. 구성 옵션
구성을 편집하려면 행을 클릭하고 편집 을 클릭합니다.
- 편집 대화 상자에서 필요한 매개 변수를 편집하고 업데이트를 클릭합니다.
- 구성이 업데이트되었음을 알리는 알림이 표시됩니다.
추가 리소스
- 자세한 내용은 Red Hat Ceph Storage 구성 가이드의 Ceph 네트워크 구성 장을 참조하십시오.
6.3. 대시보드에서 Ceph 클러스터의 manager 모듈 보기 및 편집
Manager 모듈은 모듈별 구성 설정을 관리하는 데 사용됩니다. 예를 들어 클러스터 상태에 대한 경고를 활성화할 수 있습니다.
Red Hat Ceph Storage 대시보드에서 클러스터의 manager 모듈을 확인, 활성화 또는 비활성화할 수 있습니다.
사전 요구 사항
- 실행 중인 Red Hat Ceph Storage 클러스터.
- 대시보드가 설치되어 있어야 합니다.
manager 모듈 보기
- 대시보드에 로그인합니다.
- 클러스터 드롭다운 메뉴에서 관리자 모듈을 선택합니다.
특정 관리자 모듈의 세부 정보를 보려면 행의 Expand/Collapse 아이콘을 클릭합니다.
그림 6.3. 관리자 모듈
manager 모듈 활성화
- 행을 선택합니다.
- 편집 드롭다운 메뉴에서 사용을 선택합니다.
manager 모듈 비활성화
- 행을 선택합니다.
- 편집 드롭다운 메뉴에서 Disable (비활성화)를 선택합니다.
관리자 모듈 편집
행 선택:
참고모든 모듈에 구성 가능한 매개변수가 있는 것은 아닙니다. 모듈을 구성할 수 없는 경우 편집 버튼이 비활성화됩니다.
- 필요한 매개 변수를 편집하고 업데이트를 클릭합니다.
- 모듈이 업데이트되었음을 알리는 알림이 표시됩니다.
6.4. 대시보드에서 Ceph 클러스터 모니터링
Red Hat Ceph Storage 대시보드 방문 페이지에서 Ceph 모니터의 성능을 모니터링할 수 있습니다. 모니터 탭에 있는 모니터 탭의 모니터의 상태, 쿼럼, 열려 세션 수, 성능 카운터와 같은 세부 정보를 볼 수도 있습니다.
사전 요구 사항
- 실행 중인 Red Hat Ceph Storage 클러스터.
- 대시보드가 설치되어 있어야 합니다.
- 모니터는 스토리지 클러스터에 배포됩니다.
절차
- 대시보드에 로그인합니다.
- 클러스터 드롭다운 메뉴에서 모니터를 선택합니다.
모니터 개요 페이지에 전체 모니터 상태에 대한 정보와 Quorum 및 쿼럼 모니터 호스트의 테이블이 표시됩니다.
- 열린 세션의 수를 보려면 파란색 점선 추적 위에 커서를 가리키십시오.
모든 모니터에 대한 성능 카운터를 보려면 해당 호스트 이름을 클릭합니다.
모니터의 성능 카운터를 확인합니다.
추가 리소스
- Red Hat Ceph Storage Operations 가이드의 Ceph모니터 섹션을 참조하십시오.
- 자세한 내용은 Red Hat Ceph Storage 관리 가이드에서 Ceph성능 카운터 를 참조하십시오.
6.5. 대시보드에서 Ceph 클러스터의 서비스 모니터링
Red Hat Ceph Storage 대시보드에서 클러스터의 서비스를 모니터링할 수 있습니다. 호스트 이름, 데몬 유형, 데몬 ID, 컨테이너 ID, 컨테이너 이미지 이름, 컨테이너 이미지 ID, 버전 상태 및 마지막으로 새로 고침 시간과 같은 세부 정보를 볼 수 있습니다.
사전 요구 사항
- 실행 중인 Red Hat Ceph Storage 클러스터.
- 대시보드가 설치되어 있어야 합니다.
- 호스트가 스토리지 클러스터에 추가됩니다.
- 모든 서비스가 스토리지 클러스터에 배포됩니다.
절차
- 대시보드에 로그인합니다.
- 클러스터 드롭다운 메뉴에서 서비스를 선택합니다.
특정 서비스의 세부 정보를 보려면 해당 행의 Expand/Collapse 아이콘을 클릭합니다.
그림 6.4. Ceph 클러스터의 서비스 모니터링
추가 리소스
- 자세한 내용은 Red Hat Ceph Storage 운영 가이드의 Ceph 오케스트레이터 를 참조하십시오.
6.6. 대시보드에서 Ceph OSD 모니터링
Red Hat Ceph Storage 대시보드의 시작 페이지에서 Ceph OSD의 상태를 모니터링할 수 있습니다. OSD 탭에서 host, status, device class, number of placement groups(PGs), 크기 플래그, 사용법, 읽기 또는 쓰기 작업 시간과 같은 세부 정보를 볼 수도 있습니다.
OSD 페이지의 다양한 탭은 다음과 같습니다.
- 장치 - 이 탭에는 장치 ID, 상태, 수명, 장치 이름, 호스트의 데몬과 같은 세부 정보가 있습니다.
- 속성(OSD 맵) - 이 탭에는 클러스터 주소, 하트비트, OSD 상태 및 기타 OSD 속성이 표시됩니다.
- metadata - 이 탭에는 OSD 오브젝트 저장소, 장치, 운영 체제, 커널 세부 정보가 표시됩니다.
- 장치 상태 - SMART 지원 장치의 경우 개별 상태 및 SMART 데이터를 가져올 수 있습니다.
- 성능 카운터 - 이 탭은 장치에 기록된 바이트에 대한 세부 정보를 제공합니다.
- 성능 세부 정보 - 이 탭에는 배포된 OSD, CPU 사용률, RAM 사용량, 네트워크 로드, 네트워크 드롭 속도, OSD 디스크 성능 통계와 같은 세부 정보가 있습니다.
사전 요구 사항
- 실행 중인 Red Hat Ceph Storage 클러스터.
- 대시보드가 설치되어 있어야 합니다.
- 호스트가 스토리지 클러스터에 추가됩니다.
- OSD를 포함한 모든 서비스는 스토리지 클러스터에 배포됩니다.
절차
- 대시보드에 로그인합니다.
- 클러스터 드롭다운 메뉴에서 OSD 를 선택합니다.
특정 OSD의 세부 정보를 보려면 행의 Expand/Collapse 아이콘을 클릭합니다.
그림 6.5. Ceph 클러스터의 OSD 모니터링
장치,특성(OSD 맵 ), 메타데이터,장치 상태,성능 카운터 및 각 탭을 클릭하여 추가 세부 정보를 볼 수 있습니다.
추가 리소스
- 자세한 내용은 Red Hat Ceph Storage 운영 가이드의 Ceph 오케스트레이터 를 참조하십시오.
6.7. 대시보드에서 HAProxy 모니터링
Ceph Object Gateway를 사용하면 부하 증가에 따라 확장할 수 있도록 오브젝트 게이트웨이의 여러 인스턴스를 단일 영역에 할당할 수 있습니다. 각 오브젝트 게이트웨이 인스턴스에는 자체 IP 주소가 있으므로 HAProxy를 사용하여 Ceph Object Gateway 서버 간에 부하를 분산할 수 있습니다.
대시보드에서 다음 HAProxy 지표를 모니터링할 수 있습니다.
- HTTP 코드의 총 응답.
- 총 요청/응답.
- 총 연결 수입니다.
- 현재 들어오는 / 발신 바이트의 총 수입니다.
ceph 대시보드 get-grafana-api-url
명령을 실행하여 Grafana 세부 정보를 가져올 수도 있습니다.
사전 요구 사항
- 실행 중인 Red Hat Ceph Storage 클러스터.
- 스토리지 대시보드의 관리자 수준 액세스.
- SSL이 없는 기존 Ceph Object Gateway 서비스. SSL 서비스를 원한다면 Ceph Object Gateway 서비스가 아닌 ingress 서비스에 인증서를 구성해야 합니다.
- Ceph Orchestrator를 사용하여 배포된 수신 서비스입니다.
- 모니터링 스택 구성 요소는 대시보드에서 생성됩니다.
절차
Grafana URL에 로그인하고 RGW_Overview 패널을 선택합니다.
구문
Copy to Clipboard Copied! Toggle word wrap Toggle overflow https://DASHBOARD_URL:3000
https://DASHBOARD_URL:3000
예제
Copy to Clipboard Copied! Toggle word wrap Toggle overflow https://dashboard_url:3000
https://dashboard_url:3000
- Grafana URL에서 HAProxy 지표를 확인합니다.
Ceph 대시보드를 시작하고 자격 증명을 사용하여 로그인합니다.
예제
Copy to Clipboard Copied! Toggle word wrap Toggle overflow https://dashboard_url:8443
https://dashboard_url:8443
- Cluster 드롭다운 메뉴에서 Object Gateway 를 선택합니다.
- 데몬을 선택합니다.
- Overall Performance 탭을 선택합니다.
검증
Ceph Object Gateway HAProxy 지표를 확인합니다.
그림 6.6. HAProxy 메트릭
추가 리소스
- 자세한 내용은 Red Hat Ceph Storage Object Gateway 가이드의 고가용성 구성 가이드 를 참조하십시오.
6.8. 대시보드에서 Ceph 클러스터의 CRUSH 맵 보기
OSD 목록 및 Red Hat Ceph Storage 대시보드에 관련 정보가 포함된 CRUSH 맵을 볼 수 있습니다. CRUSH 맵과 CRUSH 알고리즘은 데이터 저장 방법과 위치를 결정합니다. 대시보드를 사용하면 OSD 호스트, OSD 데몬, ID 번호, 장치 클래스 등을 비롯한 CRUSH 맵의 다양한 측면을 볼 수 있습니다.
NetNamespace 맵을 사용하면 특정 OSD ID가 실행 중인 호스트를 확인할 수 있습니다. 이는 OSD에 문제가 있는 경우 유용합니다.
사전 요구 사항
- 실행 중인 Red Hat Ceph Storage 클러스터.
- 대시보드가 설치되어 있어야 합니다.
- 스토리지 클러스터에 배포된 OSD 데몬.
절차
- 대시보드에 로그인합니다.
- 클러스터 드롭다운 메뉴에서 CRUSH Map 을 선택합니다.
특정 OSD의 세부 정보를 보려면 해당 행을 클릭합니다.
그림 6.7. CRUSH 맵 세부 정보 보기
추가 리소스
- CRUSH 맵에 대한 자세한 내용은 Red Hat Ceph StorageStorage 전략 가이드 의 CRUSH 관리를 참조하십시오.
6.9. 대시보드에서 Ceph 클러스터의 로그 필터링
여러 기준에 따라 대시보드에서 Red Hat Ceph Storage 클러스터의 로그를 보고 필터링할 수 있습니다. 기준에는 우선 순위,키워드,날짜 및 시간 범위가 포함됩니다.
추가 분석을 위해 시스템에서 로그를 다운로드하거나 클립보드에 로그를 복사할 수 있습니다.
사전 요구 사항
- 실행 중인 Red Hat Ceph Storage 클러스터.
- 대시보드가 설치되어 있습니다.
- Ceph Monitor가 마지막으로 시작된 이후 로그 항목이 생성되었습니다.
대시보드 로깅 기능은 30개의 최신 상위 이벤트만 표시합니다. 이벤트는 Ceph Monitor에 의해 메모리에 저장됩니다. 모니터를 다시 시작한 후 항목이 사라집니다. 자세한 로그 또는 이전 로그를 검토해야 하는 경우 파일 기반 로그를 참조하십시오.
절차
- 대시보드에 로그인합니다.
클러스터 드롭다운 메뉴에서 로그를 선택합니다.
그림 6.8. 클러스터 로그
-
우선 순위로 필터링하려면 우선
순위
드롭다운 메뉴를 클릭하고 Debug,Info,Warning,Error 또는 모두 를 선택합니다. -
키워드로 필터링하려면
Keyword
필드에 텍스트를 입력합니다. -
날짜별로 필터링하려면
날짜
필드를 클릭하고 날짜 선택기를 사용하여 메뉴에서 날짜를 선택하거나 1.8.0 -MM-DD 형식의 날짜를 입력합니다. -
시간별로 필터링하려면 HH:MM - HH:MM 형식을 사용하여
시간 범위 필드에 범위를
입력합니다. 시간은0
에서23
사이의 숫자를 사용하여 입력해야 합니다. - 필터를 결합하려면 두 개 이상의 필터를 설정합니다.
-
우선 순위로 필터링하려면 우선
- 다운로드 아이콘 또는 클립보드 아이콘으로 복사 아이콘을 클릭하여 로그를 다운로드합니다.
추가 리소스
- 자세한 내용은 Red Hat Ceph StorageTrouble Troubleshootinging Guide의 로깅 구성 장을 참조하십시오.
- 자세한 내용은 Red Hat Ceph StorageTrouble Troubleshootinging Guide의 Ceph로그 이해를 참조하십시오.
6.10. 대시보드에서 Ceph 클러스터 풀 모니터링
Red Hat Ceph Storage 대시보드의 클러스터에서 풀의 세부 정보, 성능 세부 정보, 구성 및 전체 성능을 확인할 수 있습니다.
풀은 Ceph 스토리지 클러스터가 데이터를 분산하고 저장하는 방법에 중요한 역할을 합니다. 풀을 생성하지 않고 클러스터를 배포한 경우 Ceph는 기본 풀을 사용하여 데이터를 저장합니다.
사전 요구 사항
- 실행 중인 Red Hat Ceph Storage 클러스터.
- 대시보드가 설치되어 있어야 합니다.
- 풀이 생성됩니다.
절차
- 대시보드에 로그인합니다.
- 탐색 모음에서 풀을 선택합니다.
- 데이터 보호 세부 사항 및 풀이 활성화된 애플리케이션에 대한 세부 정보를 제공하는 풀 목록을 확인합니다. 필요한 세부 사항에 대해 마우스를 사용,읽기 바이트 및 쓰기 바이트 위로 마우스를 가리키십시오.
풀에 대한 자세한 내용을 보려면 해당 행의 Expand/Collapse 아이콘을 클릭합니다.
그림 6.9. 풀 모니터링
추가 리소스
- 풀에 대한 자세한 내용은 Red Hat Ceph Storage 아키텍처 가이드의 Ceph풀을 참조하십시오.
- 자세한 내용은 Red Hat Ceph Storage 대시보드 가이드의 Ceph 대시보드에서풀 생성 섹션을 참조하십시오.
6.11. 대시보드에서 Ceph 파일 시스템 모니터링
Red Hat Ceph Storage 대시보드를 사용하여 Ceph File Systems(CephFS) 및 관련 구성 요소를 모니터링할 수 있습니다. 파일 시스템에는 다음과 같은 네 가지 주요 탭이 있습니다.
- 세부 정보 - 메타데이터 서버(MDS)와 해당 순위와 모든 대기 데몬, 풀 및 사용량, 성능 카운터를 확인합니다.
- 클라이언트 - 파일 시스템이 마운트된 클라이언트 목록 보기.
- 디렉토리 - 디렉터리 목록 보기.
- 성능 - 파일 시스템의 성능을 봅니다.
사전 요구 사항
- 실행 중인 Red Hat Ceph Storage 클러스터.
- 대시보드가 설치되어 있어야 합니다.
- MDS 서비스는 호스트 중 하나 이상에 배포됩니다.
- Ceph 파일 시스템이 설치되어 있어야 합니다.
절차
- 대시보드에 로그인합니다.
- 네비게이션 바에서 Filesystems 를 클릭합니다.
파일 시스템에 대한 자세한 내용을 보려면 해당 행의 Expand/Collapse 아이콘을 클릭합니다.
그림 6.10. Ceph 파일 시스템 모니터링
추가 리소스
- 자세한 내용은 파일 시스템 가이드 를 참조하십시오.
6.12. 대시보드에서 Ceph 개체 게이트웨이 데몬 모니터링
Red Hat Ceph Storage 대시보드를 사용하여 Ceph 개체 게이트웨이 데몬을 모니터링할 수 있습니다. Ceph 개체 게이트웨이 데몬의 세부 정보, 성능 카운터 및 성능 세부 정보를 볼 수 있습니다.
사전 요구 사항
- 실행 중인 Red Hat Ceph Storage 클러스터.
- 대시보드가 설치되어 있어야 합니다.
- 스토리지 클러스터에 구성된 하나 이상의 Ceph 오브젝트 게이트웨이 데몬입니다.
절차
- 대시보드에 로그인합니다.
- 네비게이션 바에서 Object Gateway 를 클릭합니다.
Ceph 개체 게이트웨이 데몬에 대한 자세한 내용을 보려면 해당 행의 Expand/Collapse 아이콘을 클릭합니다.
그림 6.11. Ceph 개체 게이트웨이 데몬 모니터링
여러 Ceph Object Gateway 데몬을 구성한 경우 동기화 성능 탭을 클릭하고 다중 사이트 성능 카운터를 확인합니다.
추가 리소스
- 자세한 내용은 Red Hat Ceph Storage Ceph 개체 게이트웨이 가이드 를 참조하십시오.
6.13. Ceph 대시보드에서 블록 장치 이미지 모니터링.
Red Hat Ceph Storage 대시보드를 사용하여 블록 장치 이미지를 모니터링하고 관리할 수 있습니다. 이미지의 세부 정보, 스냅샷, 구성 세부 정보 및 성능 세부 정보를 볼 수 있습니다.
사전 요구 사항
- 실행 중인 Red Hat Ceph Storage 클러스터.
- 대시보드가 설치되어 있어야 합니다.
- rbd 애플리케이션이 활성화된 풀이 생성됩니다.
- 이미지가 생성됩니다.
절차
- 대시보드에 로그인합니다.
- 네비게이션 바에서 Block 을 클릭합니다.
이미지에 대한 자세한 내용을 보려면 해당 행의 Expand/Collapse 아이콘을 클릭합니다.
그림 6.12. 블록 장치 이미지 모니터링
추가 리소스
- 자세한 내용은 Red Hat Ceph Storage 대시보드 가이드의 Ceph대시 보드에서 이미지 생성 섹션을 참조하십시오.
7장. Ceph 대시보드에서 경고 관리
스토리지 관리자는 Red Hat Ceph Storage 대시보드에서 경고 세부 정보를 확인하고 이에 대한 음소거를 생성할 수 있습니다. 여기에는 다음과 같은 사전 정의 경고가 포함됩니다.
- CephadmDaemonFailed
- CephadmPaused
- CephadmUpgradeFailed
- CephDaemonCrash
- CephDeviceFailurePredicted
- CephDeviceFailurePredictionTooHigh
- CephDeviceFailureRelocationIncomplete
- CephFilesystemDamaged
- CephFilesystemDegraded
- CephFilesystemFailureNoStandby
- CephFilesystemInsufficientStandby
- CephFilesystemMDSRanksLow
- CephFilesystemOffline
- CephFilesystemReadOnly
- CephHealthError
- CephHealthWarning
- CephMgrModuleCrash
- CephMgrPrometheusModuleInactive
- CephMonClockSkew
- CephMonDiskspaceCritical
- CephMonDiskspaceLow
- CephMonDown
- CephMonDownQuorumAtRisk
- CephNodeDiskspaceWarning
- CephNodeInconsistentMTU
- CephNodeNetworkPacketDrops
- CephNodeNetworkPacketErrors
- CephNodeRootFilesystemFull
- CephObjectMissing
- CephOSDBackfillFull
- CephOSDDown
- CephOSDDownHigh
- CephOSDFlapping
- CephOSDFull
- CephOSDHostDown
- CephOSDInternalDiskSizeMismatch
- CephOSDNearFull
- CephOSDReadErrors
- CephOSDTimeoutsClusterNetwork
- CephOSDTimeoutsPublicNetwork
- CephOSDTooManyRepairs
- CephPGBackfillAtRisk
- CephPGImbalance
- CephPGNotDeepScrubbed
- CephPGNotScrubbed
- CephPGRecoveryAtRisk
- CephPGsDamaged
- CephPGsHighPerOSD
- CephPGsInactive
- CephPGsUnclean
- CephPGUnavilableBlockingIO
- CephPoolBackfillFull
- CephPoolFull
- CephPoolGrowthWarning
- CephPoolNearFull
- CephSlowOps
- PrometheusJobMissing
그림 7.1. 사전 정의 경고

간단한 네트워크 관리 프로토콜(SNMP) 트랩을 사용하여 경고를 모니터링할 수도 있습니다. Red Hat Ceph Storage Operations Guide 의 SNMP 트랩 설정 장을 참조하십시오.
7.1. 모니터링 스택 활성화
명령줄 인터페이스를 사용하여 Prometheus, Alertmanager, Grafana와 같은 Red Hat Ceph Storage 클러스터의 모니터링 스택을 수동으로 활성화할 수 있습니다.
Prometheus 및 Alertmanager API를 사용하여 경고 및 음소거를 관리할 수 있습니다.
사전 요구 사항
- 실행 중인 Red Hat Ceph Storage 클러스터.
- 모든 호스트에 대한 루트 수준 액세스.
절차
cephadm
쉘에 로그인합니다.예제
Copy to Clipboard Copied! Toggle word wrap Toggle overflow cephadm shell
[root@host01 ~]# cephadm shell
모니터링 스택의 API를 설정합니다.
Alertmanager 서버의 호스트 및 포트를 지정합니다.
구문
Copy to Clipboard Copied! Toggle word wrap Toggle overflow ceph dashboard set-alertmanager-api-host 'ALERTMANAGER_API_HOST:PORT'
ceph dashboard set-alertmanager-api-host 'ALERTMANAGER_API_HOST:PORT'
예제
Copy to Clipboard Copied! Toggle word wrap Toggle overflow [ceph: root@host01 /]# ceph dashboard set-alertmanager-api-host 'http://10.0.0.101:9093' Option ALERTMANAGER_API_HOST updated
[ceph: root@host01 /]# ceph dashboard set-alertmanager-api-host 'http://10.0.0.101:9093' Option ALERTMANAGER_API_HOST updated
구성된 경고를 보려면 Prometheus API에 대한 URL을 구성합니다. 이 API를 사용하여 Ceph 대시보드 UI에서 새 음소거가 해당 경고와 일치하는지 확인합니다.
구문
Copy to Clipboard Copied! Toggle word wrap Toggle overflow ceph dashboard set-prometheus-api-host 'PROMETHEUS_API_HOST:PORT'
ceph dashboard set-prometheus-api-host 'PROMETHEUS_API_HOST:PORT'
예제
Copy to Clipboard Copied! Toggle word wrap Toggle overflow [ceph: root@host01 /]# ceph dashboard set-prometheus-api-host 'http://10.0.0.101:9095' Option PROMETHEUS_API_HOST updated
[ceph: root@host01 /]# ceph dashboard set-prometheus-api-host 'http://10.0.0.101:9095' Option PROMETHEUS_API_HOST updated
호스트를 설정한 후 브라우저의 대시보드 창을 새로 고칩니다.
Grafana 서버의 호스트 및 포트를 지정합니다.
구문
Copy to Clipboard Copied! Toggle word wrap Toggle overflow ceph dashboard set-grafana-api-url 'GRAFANA_API_URL:PORT'
ceph dashboard set-grafana-api-url 'GRAFANA_API_URL:PORT'
예제
Copy to Clipboard Copied! Toggle word wrap Toggle overflow [ceph: root@host01 /]# ceph dashboard set-grafana-api-url 'http://10.0.0.101:3000' Option GRAFANA_API_URL updated
[ceph: root@host01 /]# ceph dashboard set-grafana-api-url 'http://10.0.0.101:3000' Option GRAFANA_API_URL updated
Prometheus, Alertmanager 및 Grafana API 호스트 세부 정보를 가져옵니다.
예제
Copy to Clipboard Copied! Toggle word wrap Toggle overflow [ceph: root@host01 /]# ceph dashboard get-alertmanager-api-host http://10.0.0.101:9093 [ceph: root@host01 /]# ceph dashboard get-prometheus-api-host http://10.0.0.101:9095 [ceph: root@host01 /]# ceph dashboard get-grafana-api-url http://10.0.0.101:3000
[ceph: root@host01 /]# ceph dashboard get-alertmanager-api-host http://10.0.0.101:9093 [ceph: root@host01 /]# ceph dashboard get-prometheus-api-host http://10.0.0.101:9095 [ceph: root@host01 /]# ceph dashboard get-grafana-api-url http://10.0.0.101:3000
선택 사항: Prometheus, Alertmanager 또는 Grafana 설정에서 자체 서명된 인증서를 사용하는 경우 대시보드에서 인증서 확인을 비활성화하십시오. 이로 인해 알 수 없는 CA(인증 기관)에서 서명한 인증서로 인해 발생하는 연결이 거부되거나 호스트 이름과 일치하지 않습니다.
Prometheus의 경우:
예제
Copy to Clipboard Copied! Toggle word wrap Toggle overflow [ceph: root@host01 /]# ceph dashboard set-prometheus-api-ssl-verify False
[ceph: root@host01 /]# ceph dashboard set-prometheus-api-ssl-verify False
Alertmanager의 경우:
예제
Copy to Clipboard Copied! Toggle word wrap Toggle overflow [ceph: root@host01 /]# ceph dashboard set-alertmanager-api-ssl-verify False
[ceph: root@host01 /]# ceph dashboard set-alertmanager-api-ssl-verify False
Grafana의 경우:
예제
Copy to Clipboard Copied! Toggle word wrap Toggle overflow [ceph: root@host01 /]# ceph dashboard set-grafana-api-ssl-verify False
[ceph: root@host01 /]# ceph dashboard set-grafana-api-ssl-verify False
Prometheus, Alertmanager 및 Grafana에 대한 자체 서명 인증서 확인 설정의 세부 정보를 가져옵니다.
예제
Copy to Clipboard Copied! Toggle word wrap Toggle overflow [ceph: root@host01 /]# ceph dashboard get-prometheus-api-ssl-verify [ceph: root@host01 /]# ceph dashboard get-alertmanager-api-ssl-verify [ceph: root@host01 /]# ceph dashboard get-grafana-api-ssl-verify
[ceph: root@host01 /]# ceph dashboard get-prometheus-api-ssl-verify [ceph: root@host01 /]# ceph dashboard get-alertmanager-api-ssl-verify [ceph: root@host01 /]# ceph dashboard get-grafana-api-ssl-verify
선택 사항: 대시보드에 변경 사항이 반영되지 않는 경우 대시보드를 비활성화한 다음 활성화해야 합니다.
예제
Copy to Clipboard Copied! Toggle word wrap Toggle overflow [ceph: root@host01 /]# ceph mgr module disable dashboard [ceph: root@host01 /]# ceph mgr module enable dashboard
[ceph: root@host01 /]# ceph mgr module disable dashboard [ceph: root@host01 /]# ceph mgr module enable dashboard
추가 리소스
- Red Hat Ceph Storage 설치 가이드 의 Bootstrap 명령 옵션 섹션을 참조하십시오.
- Red Hat Ceph Storage 설치 가이드의 Red Hat Ceph Storage 설치 장을 참조하십시오.
- Red Hat Ceph Storage Operations Guide 의 Ceph Orchestrator를 사용하여 모니터링 스택 배포 섹션을 참조하십시오.
7.2. Grafana 인증서 구성
cephadm
은 ceph 키/값 저장소에 정의된 인증서를 사용하여 Grafana를 배포합니다. 인증서를 지정하지 않으면 cephadm
은 Grafana 서비스를 배포하는 동안 자체 서명된 인증서를 생성합니다.
ceph config-key set
명령을 사용하여 사용자 정의 인증서를 구성할 수 있습니다.
사전 요구 사항
- 실행 중인 Red Hat Ceph Storage 클러스터.
절차
cephadm
쉘에 로그인합니다.예제
Copy to Clipboard Copied! Toggle word wrap Toggle overflow cephadm shell
[root@host01 ~]# cephadm shell
Grafana에 대한 사용자 정의 인증서를 구성합니다.
예제
Copy to Clipboard Copied! Toggle word wrap Toggle overflow [ceph: root@host01 /]# ceph config-key set mgr/cephadm/grafana_key -i $PWD/key.pem [ceph: root@host01 /]# ceph config-key set mgr/cephadm/grafana_crt -i $PWD/certificate.pem
[ceph: root@host01 /]# ceph config-key set mgr/cephadm/grafana_key -i $PWD/key.pem [ceph: root@host01 /]# ceph config-key set mgr/cephadm/grafana_crt -i $PWD/certificate.pem
Grafana가 이미 배포된 경우
reconfig
를 실행하여 구성을 업데이트합니다.예제
Copy to Clipboard Copied! Toggle word wrap Toggle overflow [ceph: root@host01 /]# ceph orch reconfig grafana
[ceph: root@host01 /]# ceph orch reconfig grafana
새 인증서를 추가할 때마다 다음 단계를 따르십시오.
새 디렉터리 만들기
예제
Copy to Clipboard Copied! Toggle word wrap Toggle overflow mkdir /root/internalca cd /root/internalca
[root@host01 ~]# mkdir /root/internalca [root@host01 ~]# cd /root/internalca
키를 생성합니다.
예제
Copy to Clipboard Copied! Toggle word wrap Toggle overflow openssl ecparam -genkey -name secp384r1 -out $(date +%F).key
[root@host01 internalca]# openssl ecparam -genkey -name secp384r1 -out $(date +%F).key
키를 확인합니다.
예제
Copy to Clipboard Copied! Toggle word wrap Toggle overflow openssl ec -text -in $(date +%F).key | less
[root@host01 internalca]# openssl ec -text -in $(date +%F).key | less
요청 확인:
예제
Copy to Clipboard Copied! Toggle word wrap Toggle overflow umask 077; openssl req -config openssl-san.cnf -new -sha256 -key $(date +%F).key -out $(date +%F).csr
[root@host01 internalca]# umask 077; openssl req -config openssl-san.cnf -new -sha256 -key $(date +%F).key -out $(date +%F).csr
서명을 위해 보내기 전에 요청을 검토합니다.
예제
Copy to Clipboard Copied! Toggle word wrap Toggle overflow openssl req -text -in $(date +%F).csr | less
[root@host01 internalca]# openssl req -text -in $(date +%F).csr | less
CA 서명으로 다음을 수행합니다.
예제
Copy to Clipboard Copied! Toggle word wrap Toggle overflow openssl ca -extensions v3_req -in $(date +%F).csr -out $(date +%F).crt -extfile openssl-san.cnf
[root@host01 internalca]# openssl ca -extensions v3_req -in $(date +%F).csr -out $(date +%F).crt -extfile openssl-san.cnf
서명된 인증서를 확인합니다.
예제
Copy to Clipboard Copied! Toggle word wrap Toggle overflow openssl x509 -text -in $(date +%F).crt -noout | less
[root@host01 internalca]# openssl x509 -text -in $(date +%F).crt -noout | less
추가 리소스
- 자세한 내용은 공유 시스템 인증서 사용을 참조하십시오.
7.3. Alertmanager Webhook 추가
기존 Alertmanager 구성에 새 Webhook를 추가하여 스토리지 클러스터 상태에 대한 실시간 경고를 수신할 수 있습니다. 들어오는 웹 후크를 활성화하여 타사 애플리케이션에 비동기 메시지를 허용해야 합니다.
예를 들어 Red Hat Ceph Storage 클러스터에서 OSD가 다운된 경우 Google 채팅에서 알림을 전송하도록 Alertmanager를 구성할 수 있습니다.
사전 요구 사항
- 모니터링 스택 구성 요소가 활성화된 Red Hat Ceph Storage 클러스터.
- 수신 타사 애플리케이션에 구성된 들어오는 Webhook입니다.
절차
cephadm
쉘에 로그인합니다.예제
Copy to Clipboard Copied! Toggle word wrap Toggle overflow cephadm shell
[root@host01 ~]# cephadm shell
알림에 Webhook를 사용하도록 Alertmanager를 구성합니다.
구문
Copy to Clipboard Copied! Toggle word wrap Toggle overflow service_type: alertmanager spec: user_data: default_webhook_urls: - "_URLS_"
service_type: alertmanager spec: user_data: default_webhook_urls: - "_URLS_"
default_webhook_urls
는 기본 수신자의webhook_configs
구성에 추가된 추가 URL 목록입니다.예제
Copy to Clipboard Copied! Toggle word wrap Toggle overflow service_type: alertmanager spec: user_data: webhook_configs: - url: 'http:127.0.0.10:8080'
service_type: alertmanager spec: user_data: webhook_configs: - url: 'http:127.0.0.10:8080'
업데이트 Alertmanager 설정:
예제
Copy to Clipboard Copied! Toggle word wrap Toggle overflow [ceph: root@host01 /]# ceph orch reconfig alertmanager
[ceph: root@host01 /]# ceph orch reconfig alertmanager
검증
Alertmanager에서 Gchat까지의 알림 예:
예제
Copy to Clipboard Copied! Toggle word wrap Toggle overflow using: https://chat.googleapis.com/v1/spaces/(xx- space identifyer -xx)/messages posting: {'status': 'resolved', 'labels': {'alertname': 'PrometheusTargetMissing', 'instance': 'postgres-exporter.host03.chest response: 200 response: { "name": "spaces/(xx- space identifyer -xx)/messages/3PYDBOsIofE.3PYDBOsIofE", "sender": { "name": "users/114022495153014004089", "displayName": "monitoring", "avatarUrl": "", "email": "", "domainId": "", "type": "BOT", "isAnonymous": false, "caaEnabled": false }, "text": "Prometheus target missing (instance postgres-exporter.cluster.local:9187)\n\nA Prometheus target has disappeared. An e "cards": [], "annotations": [], "thread": { "name": "spaces/(xx- space identifyer -xx)/threads/3PYDBOsIofE" }, "space": { "name": "spaces/(xx- space identifyer -xx)", "type": "ROOM", "singleUserBotDm": false, "threaded": false, "displayName": "_privmon", "legacyGroupChat": false }, "fallbackText": "", "argumentText": "Prometheus target missing (instance postgres-exporter.cluster.local:9187)\n\nA Prometheus target has disappea "attachment": [], "createTime": "2022-06-06T06:17:33.805375Z", "lastUpdateTime": "2022-06-06T06:17:33.805375Z"
using: https://chat.googleapis.com/v1/spaces/(xx- space identifyer -xx)/messages posting: {'status': 'resolved', 'labels': {'alertname': 'PrometheusTargetMissing', 'instance': 'postgres-exporter.host03.chest response: 200 response: { "name": "spaces/(xx- space identifyer -xx)/messages/3PYDBOsIofE.3PYDBOsIofE", "sender": { "name": "users/114022495153014004089", "displayName": "monitoring", "avatarUrl": "", "email": "", "domainId": "", "type": "BOT", "isAnonymous": false, "caaEnabled": false }, "text": "Prometheus target missing (instance postgres-exporter.cluster.local:9187)\n\nA Prometheus target has disappeared. An e "cards": [], "annotations": [], "thread": { "name": "spaces/(xx- space identifyer -xx)/threads/3PYDBOsIofE" }, "space": { "name": "spaces/(xx- space identifyer -xx)", "type": "ROOM", "singleUserBotDm": false, "threaded": false, "displayName": "_privmon", "legacyGroupChat": false }, "fallbackText": "", "argumentText": "Prometheus target missing (instance postgres-exporter.cluster.local:9187)\n\nA Prometheus target has disappea "attachment": [], "createTime": "2022-06-06T06:17:33.805375Z", "lastUpdateTime": "2022-06-06T06:17:33.805375Z"
7.4. Ceph 대시보드에서 경고 보기
경고가 실행되면 Red Hat Ceph Storage 대시보드에서 확인할 수 있습니다. Manager 모듈 설정을 편집하여 경고가 실행될 때 이메일을 트리거할 수 있습니다.
Red Hat Ceph Storage 5 클러스터에서 SSL이 지원되지 않습니다.
사전 요구 사항
- 실행 중인 Red Hat Ceph Storage 클러스터.
- 대시보드가 설치되어 있어야 합니다.
- 실행 중인 간단한 메일 전송 프로토콜(SMTP)이 구성되어 있습니다.
- 경고가 실행되었습니다.
절차
- 대시보드에 로그인합니다.
스토리지 클러스터에 대한 이메일 경고를 가져오도록 대시보드에서 alerts 모듈을 사용자 지정합니다.
- 탐색 메뉴에서 클러스터를 클릭합니다.
- Manager 모듈을 선택합니다.
- alerts 모듈을 선택합니다.
- 편집 드롭다운 메뉴에서 편집 을 선택합니다.
Edit Manager 모듈 창에서 필요한 매개변수를 업데이트하고 업데이트를 클릭합니다.
그림 7.2. 경고에 대해 관리자 모듈 편집
- 탐색 메뉴에서 클러스터를 클릭합니다.
- 드롭다운 메뉴에서 Monitoring 을 선택합니다.
경고 세부 정보를 보려면 행의 Expand/Collapse 아이콘을 클릭합니다.
그림 7.3. 경고 보기
- 경고 소스를 보려면 행을 클릭한 다음 소스를 클릭합니다.
추가 리소스
- SMTP를 구성하는 방법에 대한 자세한 내용은 Ceph 대시보드에서 경고 관리를 참조하십시오.
7.5. Ceph 대시보드에서 음소거 생성
Red Hat Ceph Storage 대시보드에서 지정된 시간 동안 경고에 대한 음소거를 생성할 수 있습니다.
사전 요구 사항
- 실행 중인 Red Hat Ceph Storage 클러스터.
- 대시보드가 설치되어 있어야 합니다.
- 경고가 실행되었습니다.
절차
- 대시보드에 로그인합니다.
- 탐색 메뉴에서 클러스터를 클릭합니다.
- 드롭다운 메뉴에서 Monitoring 을 선택합니다.
- 경고에 대한 음소거를 생성하려면 해당 행의 행을 선택합니다.
- +Create Silence 를 클릭합니다.
음소거 생성 창에서 기간 의 세부 정보를 추가하고 음소거 생성 을 클릭합니다.
그림 7.4. 음소거 생성
- 음소거가 성공적으로 생성되었음을 알리는 알림이 표시됩니다.
7.6. Ceph 대시보드에서 음소거 다시 생성
Red Hat Ceph Storage 대시보드에서 만료된 음소거에서 음소거를 다시 생성할 수 있습니다.
사전 요구 사항
- 실행 중인 Red Hat Ceph Storage 클러스터.
- 대시보드가 설치되어 있어야 합니다.
- 경고가 실행되었습니다.
- 경고에 대해 생성된 음소거입니다.
절차
- 대시보드에 로그인합니다.
- 탐색 메뉴에서 클러스터를 클릭합니다.
- 드롭다운 메뉴에서 Monitoring 을 선택합니다.
- 음소거 탭을 클릭합니다.
- 만료된 음소거를 다시 생성하려면 해당 행을 클릭합니다.
- Recreate 버튼을 클릭합니다.
Recreate 음소거 창에서 세부 정보를 추가하고 Recreate Silence 를 클릭합니다.
그림 7.5. 재현 음소거
- 음소거가 성공적으로 다시 생성되었음을 알리는 알림이 표시됩니다.
7.7. Ceph 대시보드에서 음소거 편집
활성 음소거를 편집하여 Red Hat Ceph Storage 대시보드에서 활성화된 시간을 연장할 수 있습니다. 음소거가 만료된 경우 음소거를 다시 생성하거나 경고에 대한 새 음소거를 생성할 수 있습니다.
사전 요구 사항
- 실행 중인 Red Hat Ceph Storage 클러스터.
- 대시보드가 설치되어 있어야 합니다.
- 경고가 실행되었습니다.
- 경고에 대해 생성된 음소거입니다.
절차
- 대시보드에 로그인합니다.
- 탐색 메뉴에서 클러스터를 클릭합니다.
- 드롭다운 메뉴에서 Monitoring 을 선택합니다.
- 음소거 탭을 클릭합니다.
- 음소거를 편집하려면 해당 행을 클릭합니다.
- 편집 드롭다운 메뉴에서 편집 을 선택합니다.
음소거 편집 창에서 세부 정보를 업데이트하고 음소거 편집 을 클릭합니다.
그림 7.6. 음소거 편집
- 음소거가 성공적으로 업데이트되었음을 알리는 알림이 표시됩니다.
7.8. Ceph 대시보드에서 음소거 만료
Red Hat Ceph Storage 대시보드에서 일치하는 경고가 표시되지 않도록 음소거가 만료될 수 있습니다.
사전 요구 사항
- 실행 중인 Red Hat Ceph Storage 클러스터.
- 대시보드가 설치되어 있어야 합니다.
- 경고가 실행되었습니다.
- 경고에 대해 생성된 음소거입니다.
절차
- 대시보드에 로그인합니다.
- 탐색 메뉴에서 클러스터를 클릭합니다.
- 드롭다운 메뉴에서 Monitoring 을 선택합니다.
- 음소거 탭을 클릭합니다.
- 음소거를 만료하려면 행을 클릭합니다.
- 편집 드롭다운 메뉴에서 Expire 를 선택합니다.
Expire Silence 대화 상자에서 Yes, I am sure 를 선택한 다음 Expire Silence 를 클릭합니다.
그림 7.7. 만료일
- 음소거가 성공적으로 만료되었음을 알리는 알림이 표시됩니다.
7.9. 추가 리소스
8장. Ceph 대시보드에서 NFS Ganesha 내보내기 관리
스토리지 관리자는 Ceph 오브젝트 게이트웨이를 Red Hat Ceph Storage 대시보드의 보조 저장소로 사용하는 NFS Ganesha 내보내기를 관리할 수 있습니다. 대시보드에서 NFS ganesha 데몬을 배포 및 구성하고 삭제할 수 있습니다.
대시보드는 Ceph 클러스터의 RADOS 개체에 저장된 NFS-Ganesha 구성 파일을 관리합니다. NFS-Ganesha는 Ceph 클러스터에 구성의 일부를 저장해야 합니다.
8.1. Ceph 대시보드에서 NFS Ganesha 데몬 구성
Ceph 오브젝트 게이트웨이를 구성하고 명령줄 인터페이스를 사용하여 NFS-Ganesha 전용 풀을 활성화한 후 대시보드에 NFS Ganesha를 구성할 수 있습니다.
Red Hat Ceph Storage 5는 NFSv4 프로토콜만 지원합니다.
사전 요구 사항
- 실행 중인 Red Hat Ceph Storage 클러스터.
- 대시보드가 설치되어 있어야 합니다.
- Ceph Object Gateway가 설치되어 있습니다.
- Ceph Object 게이트웨이 로그인 인증 정보가 대시보드에 추가됩니다.
-
전용 풀이 활성화되고
nfs
의 사용자 지정 태그가 지정되어 있습니다. -
Ceph 대시보드에서 최소
ganesha-manager
액세스 수준입니다.
절차
Cephadm 쉘에 로그인합니다.
예제
Copy to Clipboard Copied! Toggle word wrap Toggle overflow cephadm shell
[root@host01 ~]# cephadm shell
RADOS 풀, 네임스페이스를 생성하고
rgw
를 활성화합니다.구문
Copy to Clipboard Copied! Toggle word wrap Toggle overflow ceph osd pool create POOL_NAME _ ceph osd pool application enable POOL_NAME freeform/rgw/rbd/cephfs/nfs
ceph osd pool create POOL_NAME _ ceph osd pool application enable POOL_NAME freeform/rgw/rbd/cephfs/nfs
예제
Copy to Clipboard Copied! Toggle word wrap Toggle overflow [ceph: root@host01 /]# ceph osd pool create nfs-ganesha [ceph: root@host01 /]# ceph osd pool application enable nfs-ganesha rgw
[ceph: root@host01 /]# ceph osd pool create nfs-ganesha [ceph: root@host01 /]# ceph osd pool application enable nfs-ganesha rgw
명령줄 인터페이스의 배치 사양을 사용하여 NFS-Ganesha 게이트웨이를 배포합니다.
구문
Copy to Clipboard Copied! Toggle word wrap Toggle overflow ceph orch apply nfs SERVICE_ID --placement="NUMBER_OF_DAEMONS HOST_NAME_1 HOST_NAME_2 HOST_NAME_3"
ceph orch apply nfs SERVICE_ID --placement="NUMBER_OF_DAEMONS HOST_NAME_1 HOST_NAME_2 HOST_NAME_3"
예제
Copy to Clipboard Copied! Toggle word wrap Toggle overflow [ceph: root@host01 /]# ceph orch apply nfs foo --placement="2 host01 host02"
[ceph: root@host01 /]# ceph orch apply nfs foo --placement="2 host01 host02"
이렇게 하면
host01
및host02
에서 하나의 데몬을 사용하여 NFS-Ganesha 클러스터nfsganesha
가 배포됩니다.네임스페이스 및 service_ID를 사용하여
ganesha-clusters-rados-pool-namespace
매개변수를 업데이트합니다.구문
Copy to Clipboard Copied! Toggle word wrap Toggle overflow ceph dashboard set-ganesha-clusters-rados-pool-namespace POOL_NAME/SERVICE_ID
ceph dashboard set-ganesha-clusters-rados-pool-namespace POOL_NAME/SERVICE_ID
예제
Copy to Clipboard Copied! Toggle word wrap Toggle overflow [ceph: root@host01 /]# ceph dashboard set-ganesha-clusters-rados-pool-namespace nfs-ganesha/foo
[ceph: root@host01 /]# ceph dashboard set-ganesha-clusters-rados-pool-namespace nfs-ganesha/foo
- 대시보드 시작 페이지에서 NFS 를 클릭합니다.
- 만들기를 선택합니다.
Create NFS 내보내기 창에서 다음 매개 변수를 설정하고 NFS 내보내기 만들기를 클릭합니다.
- Cluster - 클러스터의 이름입니다.
- 데몬 - 모든 데몬을 선택할 수 있습니다.
- 스토리지 백엔드 - 오브젝트 게이트웨이를 선택할 수 있습니다.
- Object Gateway 사용자 - 생성된 사용자를 선택합니다. 이 예제에서는 test_user입니다.
- path - 모든 디렉토리.
- NFS 프로토콜 - NFSv4는 기본적으로 선택됩니다.
- 의사 - 루트 경로
- 액세스 유형 - 지원되는 액세스 유형은 RO, RW 및 NONE입니다.
- squash
- 전송 프로토콜
클라이언트
NFS 데몬이 구성되었는지 확인합니다.
예제
Copy to Clipboard Copied! Toggle word wrap Toggle overflow [ceph: root@host01 /]# ceph -s
[ceph: root@host01 /]# ceph -s
root 사용자로 NFS-service가 활성 상태인지 확인합니다.
예제
Copy to Clipboard Copied! Toggle word wrap Toggle overflow systemctl list-units | grep nfs
[root@host01 ~]# systemctl list-units | grep nfs
- NFS 내보내기를 마운트하고 몇 가지 I/O 작업을 수행합니다.
-
NFS 서비스가 가동되어 실행되면 NFS-RGW 컨테이너에서
etc/ganesha/ganesha.conf
파일에서dir_chunk=0
매개변수를 주석 처리합니다. NFS-Ganesha 서비스를 다시 시작합니다. 이렇게 하면 NFS 마운트에서 올바르게 나열됩니다.
검증
Ceph Object Gateway의 버킷 아래에서 NFS 데몬을 볼 수 있습니다.
추가 리소스
- Ceph 개체 게이트웨이 배포에 대한 자세한 내용은 Red Hat Ceph Storage 운영 가이드의 명령줄 인터페이스를 사용하여 Ceph 개체 게이트웨이 배포 섹션을 참조하십시오.
- 대시보드에 오브젝트 게이트웨이 로그인 자격 증명을 추가하는 방법에 대한 자세한 내용은 Red Hat Ceph Storage Dashboard 가이드의 Dashboard 섹션에 Ceph 오브젝트 게이트웨이 로그인 자격 증명 수동 추가를 참조하십시오.
- 대시보드에서 오브젝트 게이트웨이 사용자 생성에 대한 자세한 내용은 Red Hat Ceph Storage 대시보드 가이드의 대시보드에서 Ceph 오브젝트 게이트웨이 사용자 생성 섹션을 참조하십시오.
- 대시보드에서 오브젝트 게이트웨이 버킷을 만드는 방법에 대한 자세한 내용은 Red Hat Ceph Storage 대시보드 가이드의 대시보드에서 Ceph 개체 게이트웨이 버킷 생성 섹션을 참조하십시오.
- 시스템 역할에 대한 자세한 내용은 Red Hat Ceph Storage 대시보드 가이드 의 Ceph 대시보드에 대한 사용자 역할 및 권한 섹션을 참조하십시오.
8.2. Ceph 대시보드에서 CephFS를 사용하여 NFS 내보내기 구성
명령줄 인터페이스를 사용하여 Ceph 파일 시스템(CephFS)을 구성한 후 Ceph 대시보드에서 NFS 내보내기를 생성, 편집, 삭제할 수 있습니다. NFS 프로토콜을 통해 CephFS 네임스페이스를 내보낼 수 있습니다.
모든 NFS Ganesha 데몬에 대한 공통 복구 풀, CLUSTER_ID 를 기반으로 새 사용자 및 일반적인 NFS Ganesha 구성 RADOS 오브젝트의 복구 풀을 생성하는 NFS 클러스터를 생성해야 합니다.
Red Hat Ceph Storage 5는 NFSv4 프로토콜만 지원합니다.
사전 요구 사항
- 실행 중인 Red Hat Ceph Storage 클러스터.
- 대시보드가 설치되어 있어야 합니다.
- 부트스트랩된 호스트에 대한 루트 수준 액세스입니다.
-
Ceph 대시보드에서 최소
ganesha-manager
액세스 수준입니다.
절차
cephadm
쉘에 로그인합니다.예제
Copy to Clipboard Copied! Toggle word wrap Toggle overflow cephadm shell
[root@host01 ~]# cephadm shell
백엔드에 CephFS 스토리지를 생성합니다.
구문
Copy to Clipboard Copied! Toggle word wrap Toggle overflow ceph fs volume create CEPH_FILE_SYSTEM
ceph fs volume create CEPH_FILE_SYSTEM
예제
Copy to Clipboard Copied! Toggle word wrap Toggle overflow [ceph: root@host01 /]# ceph fs volume create cephfs
[ceph: root@host01 /]# ceph fs volume create cephfs
Ceph Manager NFS 모듈을 활성화합니다.
예제
Copy to Clipboard Copied! Toggle word wrap Toggle overflow [ceph: root@host01 /]# ceph mgr module enable nfs
[ceph: root@host01 /]# ceph mgr module enable nfs
NFS Ganesha 클러스터를 생성합니다.
구문
Copy to Clipboard Copied! Toggle word wrap Toggle overflow ceph nfs cluster create NFS_CLUSTER_NAME "HOST_NAME_PLACEMENT_LIST"
ceph nfs cluster create NFS_CLUSTER_NAME "HOST_NAME_PLACEMENT_LIST"
예제
Copy to Clipboard Copied! Toggle word wrap Toggle overflow [ceph: root@host01 /]# ceph nfs cluster create nfs-cephfs host02 NFS Cluster Created Successfully
[ceph: root@host01 /]# ceph nfs cluster create nfs-cephfs host02 NFS Cluster Created Successfully
대시보드 URL을 가져옵니다.
예제
Copy to Clipboard Copied! Toggle word wrap Toggle overflow [ceph: root@host01 /]# ceph mgr services { "dashboard": "https://10.00.00.11:8443/", "prometheus": "http://10.00.00.11:9283/" }
[ceph: root@host01 /]# ceph mgr services { "dashboard": "https://10.00.00.11:8443/", "prometheus": "http://10.00.00.11:9283/" }
- 자격 증명을 사용하여 Ceph 대시보드에 로그인합니다.
- 대시보드 시작 페이지에서 NFS 를 클릭합니다.
- 생성을 클릭합니다.
Create NFS 내보내기 창에서 다음 매개 변수를 설정하고 NFS 내보내기 만들기를 클릭합니다.
- Cluster - 클러스터의 이름입니다.
- 데몬 - 모든 데몬을 선택할 수 있습니다.
- 스토리지 백엔드 - CephFS를 선택할 수 있습니다.
- CephFS 사용자 ID - NFS 클러스터가 생성되는 서비스를 선택합니다.
- CephFS 이름 - 사용자 이름을 제공합니다.
- CephFS Path - 모든 디렉터리입니다.
- NFS 프로토콜 - NFSv4는 기본적으로 선택됩니다.
- 의사 - 루트 경로
- 액세스 유형 - 지원되는 액세스 유형은 RO, RW 및 NONE입니다.
- 스쿼시 - 스쿼시 유형을 선택합니다.
- 전송 프로토콜 - UDP 또는 TCP 프로토콜을 선택합니다.
클라이언트
그림 8.1. CephFS NFS 내보내기 창
클라이언트 호스트에서 root 사용자로 디렉터리를 생성하고 NFS 내보내기를 마운트합니다.
구문
Copy to Clipboard Copied! Toggle word wrap Toggle overflow mkdir -p /mnt/nfs/ mount -t nfs -o port=2049 HOSTNAME:EXPORT_NAME _MOUNT_DIRECTORY_
mkdir -p /mnt/nfs/ mount -t nfs -o port=2049 HOSTNAME:EXPORT_NAME _MOUNT_DIRECTORY_
예제
Copy to Clipboard Copied! Toggle word wrap Toggle overflow mkdir -p /mnt/nfs/ mount -t nfs -o port=2049 host02:/export1 /mnt/nfs/
[root@ client ~]# mkdir -p /mnt/nfs/ [root@ client ~]# mount -t nfs -o port=2049 host02:/export1 /mnt/nfs/
검증
NFS 데몬이 구성되었는지 확인합니다.
예제
Copy to Clipboard Copied! Toggle word wrap Toggle overflow [ceph: root@host01 /]# ceph -s
[ceph: root@host01 /]# ceph -s
추가 리소스
- 자세한 내용은 Red Hat Ceph Storage 운영 가이드 의 Ceph Orchestrator 섹션을 사용하여 NFS-Ganesha 클러스터 생성 섹션을 참조하십시오.
8.3. Ceph 대시보드에서 NFS Ganesha 데몬 편집
Red Hat Ceph Storage 대시보드에서 NFS Ganesha 데몬을 편집할 수 있습니다.
사전 요구 사항
- 실행 중인 Red Hat Ceph Storage 클러스터.
-
Ceph 대시보드에서 최소
ganesha-manager
액세스 수준입니다. - 대시보드에 구성된 NFS Ganesha 데몬.
절차
- 대시보드에서 NFS 를 클릭합니다.
- 편집해야 하는 행을 클릭합니다.
- 편집 드롭다운 메뉴에서 편집 을 클릭합니다.
Edit NFS 내보내기 창에서 필수 매개 변수를 편집하고 Edit NFS 내보내기 를 클릭합니다.
검증
- NFS ganesha가 업데이트되었음을 알리는 알림이 표시됩니다.
추가 리소스
- NFS Ganesha 구성에 대한 자세한 내용은 Red Hat Ceph Storage Dashboard Guide 의 Ceph Dashboard에서 NFS Ganesha 데몬 구성 섹션을 참조하십시오.
- 대시보드에 Ceph Object Gateway 로그인 자격 증명을 추가하는 방법에 대한 자세한 내용은 Red Hat Ceph Storage Dashboard Guide의 Dashboard 섹션에 Ceph 오브젝트 게이트웨이 로그인 자격 증명 수동 추가를 참조하십시오.
- 대시보드에서 Ceph Object Gateway 사용자 생성에 대한 자세한 내용은 Red Hat Ceph Storage 대시보드 가이드의 대시보드에서 Ceph 개체 게이트웨이 사용자 생성 섹션을 참조하십시오.
- 대시보드에서 Ceph Object Gateway 버킷 생성에 대한 자세한 내용은 Red Hat Ceph Storage 대시보드 가이드의 대시보드에서 Ceph 개체 게이트웨이 버킷 생성 섹션을 참조하십시오.
- 시스템 역할에 대한 자세한 내용은 Red Hat Ceph Storage 대시보드 가이드 의 Ceph 대시보드에 대한 사용자 역할 및 권한 섹션을 참조하십시오.
8.4. Ceph 대시보드에서 NFS Ganesha 데몬 삭제
Ceph 대시보드를 사용하면 NFS Ganesha 데몬을 삭제할 수 있습니다.
사전 요구 사항
- 실행 중인 Red Hat Ceph Storage 클러스터.
-
Ceph 대시보드에서 최소
ganesha-manager
액세스 수준입니다. - 대시보드에 구성된 NFS Ganesha 데몬.
절차
- 대시보드에서 NFS 를 클릭합니다.
- 삭제해야 하는 행을 클릭합니다.
- 편집 드롭다운 메뉴에서 삭제를 클릭합니다.
Delete NFS 내보내기 대화 상자에서 Yes, I am sure 를 선택하고 Delete NFS export 를 클릭합니다.
검증
- 선택한 행이 성공적으로 삭제됩니다.
추가 리소스
- NFS Ganesha 구성에 대한 자세한 내용은 Red Hat Ceph Storage Dashboard Guide 의 Ceph Dashboard에서 NFS Ganesha 데몬 구성 섹션을 참조하십시오.
- 대시보드에 Ceph Object Gateway 로그인 자격 증명을 추가하는 방법에 대한 자세한 내용은 Red Hat Ceph Storage Dashboard가이드의 대시보드에 Ceph 오브젝트 게이트웨이 로그인 자격 증명 수동 추가를 참조하십시오.
- 대시보드에서 Ceph Object Gateway 사용자 생성에 대한 자세한 내용은 Red Hat Ceph Storage 대시보드 가이드의 대시보드에서 Ceph개체 게이트웨이 사용자 생성 섹션을 참조하십시오.
- 대시보드에서 Ceph Object Gateway 버킷 생성에 대한 자세한 내용은 Red Hat Ceph Storage Dashboard가이드의 대시보드에서 Ceph 개체 게이트웨이 버킷 생성 섹션을 참조하십시오.
- 시스템 역할에 대한 자세한 내용은 Red Hat Ceph Storage 대시보드 가이드 의 Ceph 대시보드에 대한 사용자 역할 및 권한 섹션을 참조하십시오.
8.5. Ceph 대시보드에서 NFS 클러스터를 NFS-HA로 업그레이드
Ceph 대시보드를 사용하면 독립 실행형 NFS 클러스터를 NFS-HA로 업그레이드할 수 있습니다.
사전 요구 사항
- 실행 중인 Red Hat Ceph Storage 클러스터.
- 실행 중인 NFS 서비스.
-
Ceph 대시보드에서 최소
ganesha-manager
액세스 수준입니다. - 대시보드에 구성된 NFS Ganesha 데몬.
절차
- 대시보드에서 클러스터를 클릭합니다.
- 클러스터 드롭다운 메뉴에서 서비스를 클릭합니다.
- + 만들기를 클릭합니다.
-
서비스 생성 창에서
수신
서비스를 선택합니다. 필요한 백엔드 서비스를 선택하고 필요한 매개변수를 편집하고 Create Service to upgrade를 클릭합니다.
그림 8.2. 서비스 생성 창
추가 리소스
- NFS Ganesha 구성에 대한 자세한 내용은 Red Hat Ceph Storage Dashboard 가이드 의 Ceph 대시보드에서 NFS Ganesha 데몬 구성 섹션을 참조하십시오.
9장. Ceph 대시보드에서 풀 관리
스토리지 관리자는 Red Hat Ceph Storage 대시보드에서 풀을 생성, 편집 및 삭제할 수 있습니다.
이 섹션에서는 다음 관리 작업에 대해 설명합니다.
9.1. Ceph 대시보드에서 풀 생성
풀을 생성하지 않고 스토리지 클러스터를 배포할 때 Ceph는 기본 풀을 사용하여 데이터를 저장합니다. 풀을 생성하여 Red Hat Ceph Storage 대시보드에서 스토리지 오브젝트를 논리적으로 분할할 수 있습니다.
사전 요구 사항
- 실행 중인 Red Hat Ceph Storage 클러스터.
- 대시보드가 설치되어 있어야 합니다.
절차
- 대시보드에 로그인합니다.
- 탐색 메뉴에서 풀을 클릭합니다.
- 생성을 클릭합니다.
풀 생성 창에서 다음 매개변수를 설정합니다.
그림 9.1. 풀 생성
- 풀 이름을 설정하고 풀 유형을 선택합니다.
- 복제된 또는 Erasure Coded(EC) 풀 유형을 선택합니다.
- PG(배치 그룹) 번호를 설정합니다.
- 선택 사항: 복제된 풀 유형을 사용하는 경우 복제된 크기를 설정합니다.
- 선택 사항: EC 풀 유형을 사용하는 경우 다음과 같은 추가 설정을 구성합니다.
- 선택 사항: 현재 선택한 EC 프로파일의 설정을 보려면 물음표를 클릭합니다.
- 선택 사항: 더하기 기호를 클릭하여 새 EC 프로필을 추가합니다.
- 선택 사항: 연필 기호를 클릭하여 풀의 애플리케이션을 선택합니다.
- 선택 사항: CRUSH 규칙을 설정합니다(해당하는 경우).
- 선택 사항: 압축이 필요한 경우 Passive,aggressive 또는 force 를 선택합니다.
- 선택 사항: 할당량을 설정합니다.
- 선택 사항: 서비스 품질 구성을 설정합니다.
- Create Pool 을 클릭합니다.
- 풀이 성공적으로 생성되었음을 알리는 알림이 표시됩니다.
추가 리소스
- 자세한 내용은 Red Hat Ceph Storage 아키텍처 가이드의 Ceph풀 섹션을 참조하십시오.
9.2. Ceph 대시보드에서 풀 편집
Red Hat Ceph Storage 대시보드에서 풀을 편집할 수 있습니다.
사전 요구 사항
- 실행 중인 Red Hat Ceph Storage 클러스터.
- 대시보드가 설치되어 있어야 합니다.
- 풀이 생성됩니다.
절차
- 대시보드에 로그인합니다.
- 탐색 메뉴에서 풀을 클릭합니다.
- 풀을 편집하려면 행을 클릭합니다.
- 편집 드롭다운에서 편집 을 선택합니다.
풀 편집 창에서 필요한 매개 변수를 편집하고 풀 편집 을 클릭합니다.
그림 9.2. 풀 편집
- 풀이 성공적으로 생성되었음을 알리는 알림이 표시됩니다.
9.3. Ceph 대시보드에서 풀 삭제
Red Hat Ceph Storage 대시보드에서 풀을 삭제할 수 있습니다. Manager 모듈에서 mon_allow_pool_delete
값이 True
로 설정되어 있는지 확인합니다.
사전 요구 사항
- 실행 중인 Red Hat Ceph Storage 클러스터.
- 대시보드가 설치되어 있어야 합니다.
- 풀이 생성됩니다.
절차
- 대시보드에 로그인합니다.
- 탐색 모음의 클러스터 드롭다운 메뉴에서 구성을 클릭합니다.
- 수준 드롭다운 메뉴에서 고급을 선택합니다.In the Level drop-down menu, select Advanced:
-
mon_allow_pool_delete
를 검색하고 편집을 클릭합니다. 모든 값을
true
로 설정합니다.그림 9.3. 풀을 삭제할 구성
- 탐색 모음에서 풀을 클릭합니다.On the navigation bar, click Pools:
- 풀을 삭제하려면 행을 클릭합니다.
- 편집 드롭다운 메뉴에서 삭제를 선택합니다.
풀 삭제 창에서 예, 확인 상자를 클릭한 다음 풀 삭제를 클릭하여 설정을 저장합니다.
그림 9.4. 풀 삭제
10장. Ceph 대시보드의 호스트 관리
스토리지 관리자는 Red Hat Ceph Storage 대시보드에서 호스트에 대한 유지 관리 모드를 활성화하거나 비활성화할 수 있습니다. 유지 관리 모드를 사용하면 호스트를 종료하여 유지 관리 활동을 수행하여 클러스터에 영향을 미치지 않습니다.
Red Hat Ceph Storage 대시보드에서 Drain 및 Remove 옵션을 사용하여 호스트를 제거할 수도 있습니다.
이 섹션에서는 다음 관리 작업에 대해 설명합니다.
사전 요구 사항
- 실행 중인 Red Hat Ceph Storage 클러스터.
- 대시보드가 설치되어 있어야 합니다.
- 호스트, Ceph 모니터 및 Ceph Manager 데몬이 스토리지 클러스터에 추가됩니다.
10.1. 유지 관리 모드 전환
Red Hat Ceph Storage 대시보드에서 종료하기 전에 호스트를 유지 관리 모드로 전환할 수 있습니다. 유지 관리 모드가 성공적으로 활성화되면 유지 관리 작업을 수행할 유지 관리 활동에 대한 오류 없이 호스트가 오프라인 상태가 됩니다. 유지 관리 모드가 실패하면 호스트를 종료하기 전에 실패 이유와 수행해야 하는 작업을 나타냅니다.
사전 요구 사항
- 실행 중인 Red Hat Ceph Storage 클러스터.
- 대시보드가 설치되어 있어야 합니다.
- 다른 모든 사전 요구 사항 검사는 Ceph에서 내부적으로 수행되며 가능한 모든 오류는 Ceph에서 내부적으로 처리합니다.
절차
- 대시보드에 로그인합니다.
- 클러스터 드롭다운 메뉴에서 호스트를 선택합니다.
- 목록에서 호스트를 선택합니다.
편집 드롭다운 메뉴에서 유지 관리 입력 을 클릭합니다.
그림 10.1. 유지 관리 모드 전환
참고호스트가 유지 관리되면 모든 데몬이 중지됩니다. 호스트의 Daemons 탭에서 데몬의 상태를 확인할 수 있습니다.
검증
- 호스트가 성공적으로 유지 관리로 이동되고 유지 관리 라벨이 Status 열에 표시되는 알림이 표시됩니다.
유지 관리 모드가 실패하면 실패 이유를 나타내는 알림이 표시됩니다.
10.2. 유지 관리 모드 종료
호스트를 재시작하려면 Red Hat Ceph Storage 대시보드에서 유지 관리 모드로 전환할 수 있습니다.
사전 요구 사항
- 실행 중인 Red Hat Ceph Storage 클러스터.
- 대시보드가 설치되어 있어야 합니다.
- 다른 모든 사전 요구 사항 검사는 Ceph에서 내부적으로 수행되며 가능한 모든 오류는 Ceph에서 내부적으로 처리합니다.
절차
- 대시보드에 로그인합니다.
- 클러스터 드롭다운 메뉴에서 호스트를 선택합니다.
호스트 목록에서 유지 관리 중인 호스트를 선택합니다.
참고Status 열에서 유지 관리 레이블을 확인하여 유지 관리 중인 호스트를 식별할 수 있습니다.
편집 드롭다운 메뉴에서 종료 유지보수 를 클릭합니다.
그림 10.2. 유지 관리 모드 종료
유지 관리 모드를 종료한 후 기본적으로 호스트에 필요한 서비스를 생성하고 node-exporter가 배포됩니다.
검증
- 호스트가 유지보수에서 성공적으로 이동되었으며 유지 관리 라벨이 Status 열에서 제거됩니다.
10.3. Ceph 대시보드를 사용하여 호스트 제거
Ceph 클러스터에서 호스트를 제거하려면 Red Hat Ceph Storage 대시보드에서 Drain 및 Remove 옵션을 사용하면 됩니다.
사전 요구 사항
- 실행 중인 Red Hat Ceph Storage 클러스터.
- 대시보드가 설치되어 있어야 합니다.
- 다른 모든 사전 요구 사항 검사는 Ceph에서 내부적으로 수행되며 가능한 모든 오류는 Ceph에서 내부적으로 처리합니다.
절차
- 대시보드에 로그인합니다.
- 클러스터 드롭다운 메뉴에서 호스트를 선택합니다.
- 호스트 목록에서 제거할 호스트를 선택합니다.
편집 드롭다운 메뉴에서 Drain 시작을 클릭합니다.
그림 10.3. Start Drain 옵션 선택
이 옵션은 호스트의 모든 데몬을 드레이닝합니다.
참고_no_schedule
레이블은 이 호스트에서 데몬 배포를 차단하는 호스트에 자동으로 적용됩니다.- 선택 사항: 호스트에서 데몬 드레이닝을 중지하려면 편집 드롭다운 메뉴에서 Drain 중지 옵션을 클릭합니다.
모든 데몬이 호스트에서 제거되었는지 확인합니다.
- 행에서 확장/축소 아이콘을 클릭합니다.
데몬을 선택합니다. 데몬이 나열되어서는 안 됩니다.
그림 10.4. 호스트 데몬의 상태 확인
중요모든 데몬이 제거된 후 클러스터에서 호스트를 안전하게 제거할 수 있습니다.
호스트를 제거합니다.
편집 드롭다운 메뉴에서 제거를 클릭합니다.
그림 10.5. 호스트 제거
Remove Host (호스트 제거) 대화 상자에서 Yes, I am sure. 을 선택하고 Remove Host 를 클릭합니다.
검증
- 호스트 목록에서 호스트를 성공적으로 제거한 후 알림이 표시됩니다.
11장. 대시보드에서 Ceph OSD 관리
스토리지 관리자는 Red Hat Ceph Storage 대시보드에서 OSD를 모니터링하고 관리할 수 있습니다.
Red Hat Ceph Storage 대시보드의 일부 기능은 다음과 같습니다.
- OSD, 해당 상태, 통계, 속성, 메타데이터, 장치 상태, 성능 카운터 및 성능 세부 정보를 나열합니다.
- OSD를 축소, in, out, lost, purge, reweight, scrub, deep-scrub, destroy, delete, and select Profile을 선택하여 백필 활동을 조정합니다.
- OSD와 연결된 모든 드라이브를 나열합니다.
- OSD의 장치 클래스를 설정하고 변경합니다.
- 새 드라이브 및 호스트에 OSD를 배포합니다.
11.1. 사전 요구 사항
- 실행 중인 Red Hat Ceph Storage 클러스터
-
Red Hat Ceph Storage 대시보드에서
cluster-manager
액세스 수준
11.2. Ceph 대시보드에서 OSD 관리
Red Hat Ceph Storage 대시보드에서 Ceph OSD에서 다음 작업을 수행할 수 있습니다.
- 새 OSD를 만듭니다.
- OSD의 장치 클래스를 편집합니다.
- 플래그의 이름을 no Up,No Down,No In, 또는 No Out 으로 표시합니다.
- OSD를 스크럽하고 딥-스크루b를 분리합니다.
- OSD의 하중입니다.
- OSD Out,In,Down 또는 Lost 를 표시합니다.
- OSD를 제거합니다.
- OSD를 삭제합니다.
- OSD를 삭제합니다.
사전 요구 사항
- 실행 중인 Red Hat Ceph Storage 클러스터.
- 대시보드가 설치되어 있어야 합니다.
- 호스트, 모니터 및 관리자 데몬이 스토리지 클러스터에 추가됩니다.
절차
- 대시보드에 로그인합니다.
- 클러스터 드롭다운 메뉴에서 OSD 를 선택합니다.
OSD 생성
OSD를 생성하려면 생성 을 클릭합니다.
그림 11.1. OSD의 장치 추가
참고사용 가능한 호스트 및 몇 가지 사용 가능한 장치가 있는지 확인합니다. 클러스터 드롭다운 메뉴에서 물리 디스크 에서 사용 가능한 장치를 확인할 수 있습니다.
Create OSD 창에서 Deployment Options(배포 옵션)에서 다음 옵션 중 하나를 선택합니다.
- Cost/Capacity-optimized: 클러스터가 사용 가능한 모든 VHD와 함께 배포됩니다.
- 처리량 최적화: 더 낮은 장치는 데이터를 저장하는 데 사용되며 더 빠른 장치는 저널/WAL을 저장하는 데 사용됩니다.
- IOPS-optmized: 사용 가능한 모든 NVME를 사용하여 OSD를 배포합니다.
고급 모드에서 +추가 를 클릭하여 기본, WAL 및 DB 장치를 추가할 수 있습니다.
- 기본 장치: 기본 스토리지 장치에는 모든 OSD 데이터가 포함됩니다.
- WAL devices: Write-Ahead-Log 장치는 BlueStore의 내부 저널에 사용되며 WAL 장치가 기본 장치보다 빠른 경우에만 사용됩니다. 예를 들면 NVME 또는 SSDs가 있습니다.
- DB 장치는 BlueStore의 내부 메타데이터를 저장하는 데 사용되며 DB 장치가 기본 장치보다 빠른 경우에만 사용됩니다. 예를 들면 NVME 또는 SSDs 가 있습니다.
- 보안을 위해 데이터를 암호화하려면 기능 아래에서 암호화 를 선택합니다.
- 프리뷰 버튼을 클릭하고 OSD Creation Preview 대화 상자에서 생성을 클릭합니다.
- OSD 생성 프리뷰 대화 상자에서 생성 을 클릭합니다.
- OSD가 성공적으로 생성되었음을 알리는 알림이 표시됩니다.
- OSD 상태는 in 및 down 에서 up 으로 변경됩니다.
OSD 편집
OSD를 편집하려면 행을 선택합니다.
- 편집 드롭다운 메뉴에서 편집 을 선택합니다.
- 장치 클래스를 편집합니다.
Edit OSD 를 클릭합니다.
그림 11.2. OSD 편집
- OSD가 성공적으로 업데이트되었음을 알리는 알림이 표시됩니다.
OSD의 플래그 표시
OSD의 플래그를 표시하려면 행을 선택합니다.
- 편집 드롭다운 메뉴에서 플래그 지정을 선택합니다.From Edit drop-down menu, select flag.
- No Up,No Down,No In, 또는 No Out 을 사용하여 플래그를 표시합니다.
업데이트를 클릭합니다.
그림 11.3. OSD의 플래그 표시
- OSD의 플래그가 업데이트되었음을 알리는 알림이 표시됩니다.
OSD 제거
OSD를 스크럽하려면 행을 선택합니다.
- 편집 드롭다운 메뉴에서 Scrub 를 선택합니다.
OSD Scrub 대화 상자에서 업데이트를 클릭합니다.
그림 11.4. OSD 제거
- OSD의 스크럽이 성공적으로 시작되었음을 알리는 알림이 표시됩니다.
OSD의 딥-스크러빙
OSD를 자세히 사용하려면 행을 선택합니다.
- 편집 드롭다운 메뉴에서 Deep scrub 를 선택합니다.
OSD Deep Scrub 대화 상자에서 업데이트를 클릭합니다.
그림 11.5. OSD의 딥-스크립트링
- OSD의 딥 스크럽이 성공적으로 시작되었음을 알리는 알림이 표시됩니다.
OSD 다시 가중치
OSD를 다시 정렬하려면 행을 선택합니다.
- 편집 드롭다운 메뉴에서 하중을 선택합니다.
- Reweight OSD 대화 상자에서 0과 1 사이의 값을 입력합니다.
Reweight 을 클릭합니다.
그림 11.6. OSD 다시 가중치
OSD 아웃 표시
OSD를 표시하려면 행을 선택합니다.
- 편집 드롭다운 메뉴에서 Mark Out 을 선택합니다.
Mark OSD out 대화 상자에서 Mark Out 을 클릭합니다.
그림 11.7. OSD out 표시
- OSD의 상태가 out 으로 변경됩니다.
OSD 표시
에서 OSD를 표시하려면 상태가 out 인 OSD 행을 선택합니다.
- 편집 드롭다운 메뉴에서 Mark In 을 선택합니다.
마크 OSD 대화 상자에서 Mark In.를 클릭합니다.
그림 11.8. 에서 OSD 표시
- OSD의 상태가 in 으로 변경됩니다.
OSD 실행 표시
OSD를 아래로 표시하려면 행을 선택합니다.
- 편집 드롭다운 메뉴에서 Mark Down 을 선택합니다.
Mark OSD 다운 대화 상자에서 Mark Down 을 클릭합니다.
그림 11.9. OSD 중단 표시
- OSD의 상태가 down 으로 변경됩니다.
OSD 손실 표시
OSD를 손실한 상태로 표시하려면 out 및 down 상태를 선택합니다.
- 편집 드롭다운 메뉴에서 Mark Lost 를 선택합니다.
Mark OSD Lost 대화 상자에서 Yes, I am sure option을 선택하고 Mark Lost 를 클릭합니다.
그림 11.10. OSD 손실 표시
정지 OSD
OSD를 제거하려면 down 상태에서 OSD를 선택합니다.
- 편집 드롭다운 메뉴에서 Purge 를 선택합니다.
Purge OSD 대화 상자에서 Yes, I am sure option을 선택하고 Purge OSD 를 클릭합니다.
그림 11.11. 정지 OSD
- 모든 플래그가 재설정되고 OSD는 다시 in 및 up 상태가 됩니다.
OSD 삭제
OSD를 삭제하려면 down 상태에서 OSD를 선택합니다.
- 편집 드롭다운 메뉴에서 Destroy 을 선택합니다.
Destroy OSD 대화 상자에서 Yes, I am sure option을 선택하고 Destroy OSD 를 클릭합니다.
그림 11.12. OSD 삭제
- OSD의 상태가 삭제된 상태로 변경됩니다.
OSD 삭제
OSD를 삭제하려면 down 상태에서 OSD를 선택합니다.
- 편집 드롭다운 메뉴에서 삭제를 선택합니다.
Destroy OSD 대화 상자에서 Yes, I am sure option을 선택하고 Delete OSD 를 클릭합니다.
참고실패한 OSD를 교체해야 하는 경우 OSD_ID를 보존할 수 있습니다.
그림 11.13. OSD 삭제
11.3. Ceph 대시보드에서 실패한 OSD 교체
Red Hat Ceph Storage 클러스터에서 실패한 OSD를 대시보드에서 cluster-manager
수준으로 교체할 수 있습니다. 대시보드에서 이 기능의 주요 기능 중 하나는 실패한 OSD를 교체하는 동안 OSD ID를 보존할 수 있다는 것입니다.
사전 요구 사항
- 실행 중인 Red Hat Ceph Storage 클러스터.
-
Ceph 대시보드에 대한 액세스의 최소
cluster-manager
수준입니다. -
OSD 중 하나 이상이
다운되었습니다
.
절차
대시보드에서는 다음과 같은 방법으로 실패한 OSD를 식별할 수 있습니다.
- Dashboard AlertManager 팝업 알림.
- HEALTH_WARN 상태를 표시하는 대시보드 방문 페이지.
- 실패한 OSD를 보여주는 대시보드 방문 페이지.
실패한 OSD를 보여주는 대시보드 OSD 페이지.
이 예제에서는 대시보드의 시작 페이지에서 OSD 중 하나가 다운되었음을 확인할 수 있습니다.
이 외에도 물리적 드라이브에서 OSD 중 하나가 다운된 경우 LED 표시등을 볼 수 있습니다.
- OSD 를 클릭합니다.
Out
anddown
OSD를 선택합니다.- 편집 드롭다운 메뉴에서 flas를 선택하고 No Up 을 선택한 다음 업데이트를 클릭합니다.
- 편집 드롭다운 메뉴에서 삭제를 선택합니다.
- OSD 삭제 대화 상자에서 교체를 위해 Preserve OSD ID(s) 를 선택하고 예, 확인란을 선택합니다.
- OSD 삭제를 클릭합니다.
-
OSD의 상태가
out
및destroyed
상태로 변경될 때까지 기다립니다.
선택 사항: 전체 클러스터에 대해 No Up flag를 변경하려면 클러스터 전체 구성 드롭다운 메뉴에서 Constraints를 선택합니다.
- 클러스터 전체 OSD 플래그 대화 상자에서 No Up 을 선택하고 업데이트를 클릭합니다.
선택 사항: 하드 디스크 오류로 인해 OSD가 다운된 경우 물리적 드라이브를 교체합니다.
- 드라이브가 핫 스왑 가능인 경우 실패한 드라이브를 새 드라이브로 교체하십시오.
- 드라이브가 핫 스왑 가능하지 않고 호스트에 여러 개의 OSD가 포함된 경우 전체 호스트를 종료하고 실제 드라이브를 교체해야 할 수 있습니다. 클러스터가 백필되지 않도록 합니다. 자세한 내용은 Red Hat Ceph Storage 문제 해결 가이드 의 중지 및 재조정 시작 장을 참조하십시오.
-
드라이브가
/dev/
디렉토리 아래에 표시되면 드라이브 경로를 적어 둡니다. - OSD를 수동으로 추가하려면 OSD 드라이브를 찾아 디스크를 포맷합니다.
새 디스크에 데이터가 있으면 zap the disk:
구문
Copy to Clipboard Copied! Toggle word wrap Toggle overflow ceph orch device zap HOST_NAME PATH --force
ceph orch device zap HOST_NAME PATH --force
예제
Copy to Clipboard Copied! Toggle word wrap Toggle overflow ceph orch device zap ceph-adm2 /dev/sdc --force
ceph orch device zap ceph-adm2 /dev/sdc --force
- 생성 드롭다운 메뉴에서 생성 을 선택합니다.
Create OSD 창에서 기본 장치에 대해 +추가 를 클릭합니다.
기본 장치 대화 상자의 호스트 이름 드롭다운 목록에서 하나의 필터를 선택합니다. 모든 드롭다운 목록에서 각 옵션을 선택합니다.
참고먼저 Hostname(호스트 이름)을 선택한 다음, 장치를 추가하려면 하나 이상의 필터를 선택해야 합니다.
예를 들어 Hostname 목록에서
Type
을 선택하고 Any 목록에서hdd
를 선택합니다. 벤더 를 선택하고 모든 목록에서ATA
를 선택합니다.- Add 를 클릭합니다.
- Create OSD 창에서 Preview 버튼을 클릭합니다.
- OSD 생성 프리뷰 대화 상자에서 생성 을 클릭합니다.
-
OSD가 생성되었음을 알리는 알림이 표시됩니다. OSD가
부족
및down
상태가 됩니다.
상태가 꺼져 있는 새로 생성된 OSD를 선택합니다.
- 편집 드롭다운 메뉴에서 Mark-in 을 선택합니다.
- 창의 Mark OSD에서 Mark in .를 선택합니다.
- 편집 드롭다운 메뉴에서 플래그 지정을 선택합니다.In the Edit drop-down menu, select flag.
- No Up 을 선택 해제하고 업데이트를 클릭합니다.
선택 사항: 클러스터 전체 구성을 위해 이전에 No Up flag를 변경한 경우 클러스터 전체 구성 메뉴에서 flag를 선택합니다.
- 클러스터 전체 OSD 플래그 대화 상자에서 No Up 을 선택하고 업데이트를 클릭합니다.
검증
삭제된 OSD가 장치에 생성되고 OSD ID가 보존되는지 확인합니다.
추가 리소스
- Down OSD에 대한 자세한 내용은 Red Hat Ceph Storage 문제 해결 가이드의 Down OSD 섹션을 참조하십시오.
- 자세한 내용은 Red Hat Ceph Storage 문제 해결 가이드의 Red Hat 지원 서비스 섹션을 참조하십시오.
- 시스템 역할에 대한 자세한 내용은 Red Hat Ceph Storage 대시보드 가이드 의 Ceph 대시보드에 대한 사용자 역할 및 권한 섹션을 참조하십시오.
12장. 대시보드를 사용하여 Ceph 개체 게이트웨이 관리
스토리지 관리자는 대시보드의 Ceph Object Gateway 기능을 사용하여 Ceph Object Gateway를 관리하고 모니터링할 수 있습니다.
대시보드를 사용하여 SSL(Secure Sockets Layer)을 사용하여 Ceph Object Gateway 서비스를 만들 수도 있습니다.
예를 들어 모니터링 함수를 사용하면 영역 이름 또는 GET 및 PUT 비율의 성능 그래프와 같은 게이트웨이 데몬에 대한 세부 정보를 볼 수 있습니다. 관리 기능을 사용하면 사용자와 버킷을 모두 보고, 만들고, 편집할 수 있습니다.
Ceph 개체 게이트웨이 함수는 사용자 함수와 버킷 함수로 나뉩니다.
12.1. 대시보드에 Ceph 개체 게이트웨이 로그인 인증 정보 수동 추가
Red Hat Ceph Storage 대시보드는 RADOS 게이트웨이 또는 RGW라고도 하는 Ceph Object Gateway를 관리할 수 있습니다. cephadm
을 사용하여 Ceph Object Gateway를 배포하면 대시보드에서 사용하는 Ceph Object Gateway 자격 증명이 자동으로 구성됩니다. 명령줄 인터페이스를 사용하여 Ceph 개체 게이트웨이 자격 증명을 Ceph 대시보드에 수동으로 강제 적용할 수도 있습니다.
사전 요구 사항
- 실행 중인 Red Hat Ceph Storage 클러스터.
- 대시보드가 설치되어 있어야 합니다.
- Ceph Object Gateway가 설치되어 있습니다.
절차
Cephadm 쉘에 로그인합니다.
예제
Copy to Clipboard Copied! Toggle word wrap Toggle overflow cephadm shell
[root@host01 ~]# cephadm shell
인증 정보를 수동으로 설정합니다.
예제
Copy to Clipboard Copied! Toggle word wrap Toggle overflow [ceph: root@host01 /]# ceph dashboard set-rgw-credentials
[ceph: root@host01 /]# ceph dashboard set-rgw-credentials
이렇게 하면 시스템의 각 영역에 대해 UID
대시보드
가 있는 Ceph Object Gateway 사용자가 생성됩니다.선택 사항: Ceph Object Gateway 관리 API에서 사용자 정의
관리자
리소스를 구성한 경우 관리자 리소스도 설정해야 합니다.구문
Copy to Clipboard Copied! Toggle word wrap Toggle overflow ceph dashboard set-rgw-api-admin-resource RGW_API_ADMIN_RESOURCE
ceph dashboard set-rgw-api-admin-resource RGW_API_ADMIN_RESOURCE
예제
Copy to Clipboard Copied! Toggle word wrap Toggle overflow [ceph: root@host01 /]# ceph dashboard set-rgw-api-admin-resource admin Option RGW_API_ADMIN_RESOURCE updated
[ceph: root@host01 /]# ceph dashboard set-rgw-api-admin-resource admin Option RGW_API_ADMIN_RESOURCE updated
선택 사항: 자체 서명된 인증서가 있는 HTTPS를 사용하는 경우 대시보드에서 인증서 확인을 비활성화하여 거부된 연결을 방지합니다.
거부된 연결은 인증서를 알 수 없는 인증 기관에서 서명한 경우 또는 사용된 호스트 이름이 인증서의 호스트 이름과 일치하지 않는 경우 발생할 수 있습니다.
구문
Copy to Clipboard Copied! Toggle word wrap Toggle overflow ceph dashboard set-rgw-api-ssl-verify false
ceph dashboard set-rgw-api-ssl-verify false
예제
Copy to Clipboard Copied! Toggle word wrap Toggle overflow [ceph: root@host01 /]# ceph dashboard set-rgw-api-ssl-verify False Option RGW_API_SSL_VERIFY updated
[ceph: root@host01 /]# ceph dashboard set-rgw-api-ssl-verify False Option RGW_API_SSL_VERIFY updated
선택 사항: 오브젝트 게이트웨이가 요청을 처리하고 대시보드가 시간 초과로 실행되는 경우 시간 초과 값을 설정할 수 있습니다.
구문
Copy to Clipboard Copied! Toggle word wrap Toggle overflow ceph dashboard set-rest-requests-timeout _TIME_IN_SECONDS_
ceph dashboard set-rest-requests-timeout _TIME_IN_SECONDS_
기본값은 45초입니다.
예제
Copy to Clipboard Copied! Toggle word wrap Toggle overflow [ceph: root@host01 /]# ceph dashboard set-rest-requests-timeout 240
[ceph: root@host01 /]# ceph dashboard set-rest-requests-timeout 240
12.2. 대시보드를 사용하여 SSL을 사용하여 Ceph Object Gateway 서비스 생성
Red Hat Ceph Storage 클러스터를 설치한 후 다음 두 가지 방법을 사용하여 SSL을 사용하여 Ceph Object Gateway 서비스를 생성할 수 있습니다.
- 명령줄 인터페이스 사용.
- 대시보드 사용.
사전 요구 사항
- 실행 중인 Red Hat Ceph Storage 클러스터.
- 대시보드가 설치되어 있어야 합니다.
- CA(인증 기관)의 SSL 키.
게이트웨이 호스트의 호스트 이름과 일치하는 CA에서 SSL 인증서를 가져옵니다. S3-style 하위 도메인에 사용하기 위해 제목 대체 이름 필드와 와일드카드가 있는 CA에서 인증서를 가져오는 것이 좋습니다.
절차
- 대시보드에 로그인합니다.
- 클러스터 드롭다운 메뉴에서 서비스를 선택합니다.
- +Create 를 클릭합니다.
-
서비스 생성 창에서
rgw
서비스를 선택합니다. SSL 을 선택하고 인증서를.
pem 형식으로
업로드합니다.그림 12.1. Ceph Object Gateway 서비스 생성
- 서비스 생성을 클릭합니다.
- Ceph Object Gateway 서비스가 실행 중인지 확인합니다.
추가 리소스
- Red Hat Ceph Storage Object Gateway 가이드 의 Beast에 대한 SSL 구성 섹션을 참조하십시오.
12.3. 대시보드에서 Ceph Object Gateway의 고가용성 구성
수신
서비스는 Ceph Object Gateway에 고가용성 엔드포인트를 제공합니다. Ceph 대시보드를 사용하여 수신
서비스를 생성하고 구성할 수 있습니다.
사전 요구 사항
- 실행 중인 Red Hat Ceph Storage 클러스터.
- 다른 호스트에서 실행 중인 최소 두 개의 Ceph Object Gateway 데몬
- 대시보드가 설치되어 있어야 합니다.
-
실행 중인
rgw
서비스.
절차
- 대시보드에 로그인합니다.
- 클러스터 드롭다운 메뉴에서 서비스를 선택합니다.
- +Create 를 클릭합니다.
-
서비스 생성 창에서
수신
서비스를 선택합니다. 백엔드 서비스를 선택하고 필요한 매개 변수를 편집합니다.
그림 12.2.
Ingress
서비스 생성- 서비스 생성을 클릭합니다.
-
Ingress
서비스가 성공적으로 생성되었음을 알리는 알림이 표시됩니다.
추가 리소스
-
수신
서비스에 대한 자세한 내용은 Ceph Object Gateway의 고가용성 을 참조하십시오.
12.4. 대시보드에서 Ceph 개체 게이트웨이 사용자 관리
스토리지 관리자는 Red Hat Ceph Storage 대시보드를 사용하여 Ceph Object Gateway 사용자를 보고 관리할 수 있습니다.
12.4.1. 사전 요구 사항
- 실행 중인 Red Hat Ceph Storage 클러스터.
- 대시보드가 설치되어 있어야 합니다.
- Ceph Object Gateway가 설치되어 있습니다.
- 개체 게이트웨이 로그인 인증 정보가 대시보드에 추가됩니다.
12.4.2. 대시보드에서 Ceph 개체 게이트웨이 사용자 생성
CLI를 사용하여 자격 증명을 설정한 후 Red Hat Ceph Storage에서 Ceph 오브젝트 게이트웨이 사용자를 생성할 수 있습니다.
사전 요구 사항
- 실행 중인 Red Hat Ceph Storage 클러스터.
- 대시보드가 설치되어 있어야 합니다.
- Ceph Object Gateway가 설치되어 있습니다.
- 개체 게이트웨이 로그인 인증 정보가 대시보드에 추가됩니다.
절차
- 대시보드에 로그인합니다.
- 네비게이션 바에서 Object Gateway 를 클릭합니다.
- 사용자를 클릭한 다음 생성 을 클릭합니다.
Create User 창에서 다음 매개변수를 설정합니다.
- 필요한 경우 사용자 이름, 전체 이름 및 최대 버킷 수를 편집합니다.
- 선택 사항: 이메일 주소 또는 일시 중지된 상태를 설정합니다.
- 선택 사항: 자동 생성 키를 선택하여 사용자 정의 액세스 키 및 시크릿 키를 설정합니다.
- 선택 사항: 사용자 할당량을 설정합니다.
- 사용자 할당량 에서 활성화를 확인합니다.
- vGPU 크기 또는 SriovIB Network 오브젝트를 선택 취소하십시오.
- Max. size 또는 Max.Object에 필요한 값을 입력합니다.
- 선택 사항: 버킷 할당량을 설정합니다.
- 버킷 할당량 에서 활성화를 확인합니다.
- vGPU 크기 또는 pxe 오브젝트 를 선택 해제하십시오.
- Max. size 또는 Max. objects 에 필요한 값을 입력하십시오.
Create User 를 클릭합니다.
그림 12.3. Ceph 개체 게이트웨이 사용자 만들기
- 사용자가 성공적으로 생성되었음을 알리는 알림이 표시됩니다.
추가 리소스
- 자세한 내용은 Red Hat Ceph Storage 대시보드 가이드의 대시보드에 Ceph 오브젝트 게이트웨이 로그인 자격 증명 수동 추가를 참조하십시오.
- 자세한 내용은 Red Hat Ceph Storage Object Gateway 가이드 를 참조하십시오.
12.4.3. 대시보드에서 Ceph 개체 게이트웨이 하위 사용자 생성
하위 사용자는 S3 인터페이스의 사용자와 연결되어 있습니다. Red Hat Ceph Storage 대시보드에서 특정 Ceph 개체 게이트웨이 사용자에 대한 하위 사용자를 생성할 수 있습니다.
사전 요구 사항
- 실행 중인 Red Hat Ceph Storage 클러스터.
- 대시보드가 설치되어 있어야 합니다.
- Ceph Object Gateway가 설치되어 있습니다.
- 개체 게이트웨이 로그인 인증 정보가 대시보드에 추가됩니다.
- 오브젝트 게이트웨이 사용자가 생성됩니다.
절차
- 대시보드에 로그인합니다.
- 네비게이션 바에서 Object Gateway 를 클릭합니다.
- 사용자를 클릭합니다.
- 행을 클릭하여 사용자를 선택합니다.
- 편집 드롭다운 메뉴에서 편집 을 선택합니다.
- Edit User 창에서 +Create Subuser 를 클릭합니다.
- 하위 사용자 생성 대화 상자에서 사용자 이름을 입력하고 적절한 권한을 선택합니다.
Auto-generate secret 상자를 선택한 다음 Create Subuser 를 클릭합니다.
그림 12.4. Ceph 개체 게이트웨이 하위 사용자 만들기
참고Auto-generate-secret 확인란을 클릭하면 오브젝트 게이트웨이의 secret 키가 자동으로 생성됩니다.
- Edit User 창에서 사용자 편집 버튼을 클릭합니다.
- 사용자가 성공적으로 업데이트되었음을 알리는 알림이 표시됩니다.
12.4.4. 대시보드에서 Ceph 개체 게이트웨이 사용자 편집
CLI를 사용하여 자격 증명을 설정한 후 Red Hat Ceph Storage에서 Ceph 오브젝트 게이트웨이 사용자를 편집할 수 있습니다.
사전 요구 사항
- 실행 중인 Red Hat Ceph Storage 클러스터.
- 대시보드가 설치되어 있어야 합니다.
- Ceph Object Gateway가 설치되어 있습니다.
- 개체 게이트웨이 로그인 인증 정보가 대시보드에 추가됩니다.
- Ceph 개체 게이트웨이 사용자가 생성됩니다.
절차
- 대시보드에 로그인합니다.
- 네비게이션 바에서 Object Gateway 를 클릭합니다.
- 사용자를 클릭합니다.
- 사용자 기능을 편집하려면 행을 클릭합니다.
- 편집 드롭다운 메뉴에서 편집 을 선택합니다.
- Edit User 창에서 필수 매개 변수를 편집합니다.
Edit User 를 클릭합니다.
그림 12.5. Ceph 개체 게이트웨이 사용자 편집
- 사용자가 성공적으로 업데이트되었음을 알리는 알림이 표시됩니다.
추가 리소스
- 자세한 내용은 Red Hat Ceph Storage 대시보드 가이드의 대시보드에 Ceph 오브젝트 게이트웨이 로그인 자격 증명 수동 추가를 참조하십시오.
- 자세한 내용은 Red Hat Ceph Storage Object Gateway 가이드 를 참조하십시오.
12.4.5. 대시보드에서 Ceph 개체 게이트웨이 사용자 삭제
CLI를 사용하여 자격 증명을 설정한 후 Red Hat Ceph Storage에서 Ceph 오브젝트 게이트웨이 사용자를 삭제할 수 있습니다.
사전 요구 사항
- 실행 중인 Red Hat Ceph Storage 클러스터.
- 대시보드가 설치되어 있어야 합니다.
- Ceph Object Gateway가 설치되어 있습니다.
- 개체 게이트웨이 로그인 인증 정보가 대시보드에 추가됩니다.
- Ceph 개체 게이트웨이 사용자가 생성됩니다.
절차
- 대시보드에 로그인합니다.
- 네비게이션 바에서 Object Gateway 를 클릭합니다.
- 사용자를 클릭합니다.
- 사용자를 삭제하려면 행을 클릭합니다.
- 편집 드롭다운 메뉴에서 삭제를 선택합니다.
- Edit User 창에서 필수 매개 변수를 편집합니다.
사용자 삭제 대화 상자에서 예, 확인 상자를 클릭한 다음 사용자 삭제를 클릭하여 설정을 저장합니다.In the Delete user dialog window, click the Yes, I am sure box, and then click Delete User to save the settings:
그림 12.6. Ceph 개체 게이트웨이 사용자 삭제
추가 리소스
- 자세한 내용은 Red Hat Ceph Storage 대시보드 가이드의 대시보드에 Ceph 오브젝트 게이트웨이 로그인 자격 증명 수동 추가를 참조하십시오.
- 자세한 내용은 Red Hat Ceph Storage Object Gateway 가이드 를 참조하십시오.
12.5. 대시보드에서 Ceph 개체 게이트웨이 버킷 관리
스토리지 관리자는 Red Hat Ceph Storage 대시보드를 사용하여 Ceph Object Gateway 버킷을 보고 관리할 수 있습니다.
12.5.1. 사전 요구 사항
- 실행 중인 Red Hat Ceph Storage 클러스터.
- 대시보드가 설치되어 있어야 합니다.
- Ceph Object Gateway가 설치되어 있습니다.
- 하나 이상의 Ceph 개체 게이트웨이 사용자가 생성됩니다.
- 개체 게이트웨이 로그인 인증 정보가 대시보드에 추가됩니다.
12.5.2. 대시보드에서 Ceph 개체 게이트웨이 버킷 생성
CLI를 사용하여 자격 증명을 설정한 후 Red Hat Ceph Storage에서 Ceph 개체 게이트웨이 버킷을 생성할 수 있습니다.
사전 요구 사항
- 실행 중인 Red Hat Ceph Storage 클러스터.
- 대시보드가 설치되어 있어야 합니다.
- Ceph Object Gateway가 설치되어 있습니다.
- 개체 게이트웨이 로그인 인증 정보가 대시보드에 추가됩니다.
- 개체 게이트웨이 사용자가 생성되고 일시 중지되지 않습니다.
절차
- 대시보드에 로그인합니다.
- 네비게이션 바에서 Object Gateway 를 클릭합니다.
- 버킷을 클릭한 다음 생성 을 클릭합니다.
Create Bucket 창에서 Name (이름)의 값을 입력하고 일시 중지되지 않은 사용자를 선택합니다. 배치 대상을 선택합니다.
그림 12.7. Ceph 개체 게이트웨이 버킷 만들기
참고버킷의 배치 대상은 생성 시 선택되며 수정할 수 없습니다.
- 선택 사항: 버킷의 오브젝트에 대한 잠금 을 활성화합니다. 잠금은 버킷을 만드는 동안에만 활성화할 수 있습니다. 잠금이 활성화되면 둘 다 아닌 일 또는 수년간 잠금 모드, 규정 준수 또는 Governance 및 잠금 보존 기간을 선택해야 합니다.
- 버킷 생성을 클릭합니다.
- 버킷이 성공적으로 생성되었음을 알리는 알림이 표시됩니다.
12.5.3. 대시보드에서 Ceph 개체 게이트웨이 버킷 편집
CLI를 사용하여 자격 증명을 설정한 후 Red Hat Ceph Storage에서 Ceph 개체 게이트웨이 버킷을 편집할 수 있습니다.
사전 요구 사항
- 실행 중인 Red Hat Ceph Storage 클러스터.
- 대시보드가 설치되어 있어야 합니다.
- Ceph Object Gateway가 설치되어 있습니다.
- 개체 게이트웨이 로그인 인증 정보가 대시보드에 추가됩니다.
- 개체 게이트웨이 사용자가 생성되고 일시 중지되지 않습니다.
- Ceph Object Gateway 버킷이 생성되었습니다.
절차
- 대시보드에 로그인합니다.
- 네비게이션 바에서 Object Gateway 를 클릭합니다.
- 버킷을 클릭합니다.
- 버킷을 편집하려면 해당 행을 클릭합니다.
- 편집 드롭다운 메뉴에서 편집 을 선택합니다.
버킷 편집 창의 드롭다운에서 사용자를 선택하여 소유자를 편집합니다.
그림 12.8. Ceph 개체 게이트웨이 버킷 편집
선택 사항: 기존 버킷의 모든 오브젝트에 대해 버전 관리 상태를 활성화하려면 Versioning 을 활성화합니다.
- 버전 관리를 활성화하려면 버킷의 소유자여야 합니다.
- 버킷 생성 중에 Locking 이 활성화된 경우 버전 관리를 비활성화할 수 없습니다.
- 버킷에 추가된 모든 오브젝트에는 고유한 버전 ID가 부여됩니다.
- 버킷에 버전 관리 상태가 설정되지 않은 경우 버킷에 버전 관리 상태가 없습니다.
선택 사항: Multi- factor Authentication 에 대해 활성화된 삭제를 확인합니다. Multi- factor Authentication(MFA)은 사용자가 특정 버킷에서 오브젝트를 제거할 때 일회성 암호(OTP)를 사용해야 합니다. 토큰 일련 번호 및 토큰 Pin 에 대한 값을 입력합니다.
참고S3 API를 통해 수행할 수 있는 버전 관리 및 MFA를 사용하여 버킷을 구성해야 합니다.
- Edit Bucket 을 클릭합니다.
- 버킷이 성공적으로 업데이트되었음을 알리는 알림이 표시됩니다.
12.5.4. 대시보드에서 Ceph 개체 게이트웨이 버킷 삭제
CLI를 사용하여 자격 증명을 설정한 후 Red Hat Ceph Storage에서 Ceph 개체 게이트웨이 버킷을 삭제할 수 있습니다.
사전 요구 사항
- 실행 중인 Red Hat Ceph Storage 클러스터.
- 대시보드가 설치되어 있어야 합니다.
- Ceph Object Gateway가 설치되어 있습니다.
- 개체 게이트웨이 로그인 인증 정보가 대시보드에 추가됩니다.
- 개체 게이트웨이 사용자가 생성되고 일시 중지되지 않습니다.
- Ceph Object Gateway 버킷이 생성되었습니다.
절차
- 대시보드에 로그인합니다.
- 네비게이션 바에서 Object Gateway 를 클릭합니다.
- 버킷을 클릭합니다.
- 버킷을 삭제하려면 행을 클릭합니다.
- 편집 드롭다운 메뉴에서 삭제를 선택합니다.
버킷 삭제 대화 상자에서 예, 확인 상자를 클릭한 다음 버킷 삭제를 클릭하여 설정을 저장합니다.
그림 12.9. Ceph 개체 게이트웨이 버킷 삭제
12.6. Ceph 대시보드에서 다중 사이트 오브젝트 게이트웨이 구성 모니터링
Red Hat Ceph Storage 대시보드는 다중 사이트 개체 게이트웨이 구성의 다른 영역에 있는 한 영역의 사용자 및 버킷을 모니터링할 수 있습니다. 예를 들어 사용자 및 버킷이 기본 사이트의 영역에서 생성되는 경우 보조 사이트의 보조 영역에서 해당 사용자 및 버킷을 모니터링할 수 있습니다.
사전 요구 사항
- 두 사이트 모두에 배포된 Red Hat Ceph Storage 클러스터를 하나 이상 실행 중입니다.
- 대시보드가 설치되어 있어야 합니다.
- 다중 사이트 개체 게이트웨이는 주 및 보조 사이트에 구성되어 있습니다.
- 기본 및 보조 사이트의 개체 게이트웨이 로그인 자격 증명이 대시보드에 추가됩니다.
- 개체 게이트웨이 사용자는 기본 사이트에 생성됩니다.
- 개체 게이트웨이 버킷은 기본 사이트에 생성됩니다.
절차
- 보조 사이트의 대시보드 방문 페이지의 수직 메뉴 모음에서 Object Gateway 드롭다운 목록을 클릭합니다.
- 버킷을 선택합니다.
기본 사이트의 개체 게이트웨이 사용자에 대해 생성된 보조 방문 페이지에서 이러한 개체 게이트웨이 버킷을 확인할 수 있습니다.
그림 12.10. 다중 사이트 오브젝트 게이트웨이 모니터링
추가 리소스
- 다중 사이트 구성에 대한 자세한 내용은 Red Hat Ceph Storage Dashboard Guide 의 멀티사이트 구성 및 관리 섹션을 참조하십시오.
- 대시보드에 Ceph Object Gateway 로그인 자격 증명을 추가하는 방법에 대한 자세한 내용은 Red Hat Ceph Storage Dashboard Guide의 Dashboard 섹션에 Ceph 오브젝트 게이트웨이 로그인 자격 증명 수동 추가를 참조하십시오.
- 대시보드에서 Ceph Object Gateway 사용자 생성에 대한 자세한 내용은 Red Hat Ceph Storage 대시보드 가이드 의 Ceph 대시보드에서 오브젝트 게이트웨이 사용자 생성 섹션을 참조하십시오.
- 대시보드에서 Ceph Object Gateway 버킷 생성에 대한 자세한 내용은 Red Hat Ceph Storage 대시보드 가이드 의 Ceph 대시보드에서 오브젝트 게이트웨이 버킷 생성 섹션을 참조하십시오.
12.7. Ceph 대시보드에서 다중 사이트 개체 구성 버킷 관리
스토리지 관리자는 Red Hat Ceph Storage 대시보드의 다른 영역에서 한 영역의 버킷을 편집할 수 있습니다. 그러나 기본 사이트에서 보조 사이트의 버킷을 삭제할 수 있습니다. 다른 사이트에서 기본 사이트의 마스터 영역의 버킷을 삭제할 수 없습니다. 예를 들어, 버킷이 보조 사이트의 영역에서 생성되는 경우 기본 사이트의 마스터 영역에서 해당 버킷을 편집하고 삭제할 수 있습니다.
12.7.1. 사전 요구 사항
- 두 사이트 모두에 배포된 Red Hat Ceph Storage 클러스터를 하나 이상 실행 중입니다.
- 대시보드가 설치되어 있어야 합니다.
- 다중 사이트 개체 게이트웨이는 주 및 보조 사이트에 구성되어 있습니다.
- 기본 및 보조 사이트의 개체 게이트웨이 로그인 자격 증명이 대시보드에 추가됩니다.
- 개체 게이트웨이 사용자는 기본 사이트에 생성됩니다.
- 개체 게이트웨이 버킷은 기본 사이트에 생성됩니다.
-
Ceph 대시보드에서 최소
rgw-manager
수준으로 액세스할 수 있습니다.
12.7.2. Ceph 대시보드에서 다중 사이트 오브젝트 게이트웨이 구성의 버킷 편집
다중 오브젝트 게이트웨이 구성의 Red Hat Ceph Storage 대시보드의 다른 영역에 있는 한 영역의 버킷에 대한 세부 정보를 편집하고 업데이트할 수 있습니다. 대시보드의 이 기능을 사용하여 버킷의 소유자, 버전 관리, 다중 요소 인증 및 잠금 기능을 편집할 수 있습니다.
사전 요구 사항
- 두 사이트 모두에 배포된 Red Hat Ceph Storage 클러스터를 하나 이상 실행 중입니다.
- 대시보드가 설치되어 있어야 합니다.
- 다중 사이트 개체 게이트웨이는 주 및 보조 사이트에 구성되어 있습니다.
- 기본 및 보조 사이트의 개체 게이트웨이 로그인 자격 증명이 대시보드에 추가됩니다.
- 개체 게이트웨이 사용자는 기본 사이트에 생성됩니다.
- 개체 게이트웨이 버킷은 기본 사이트에 생성됩니다.
-
Ceph 대시보드에서 최소
rgw-manager
수준으로 액세스할 수 있습니다.
절차
- 보조 사이트의 대시보드 방문 페이지의 수직 메뉴 모음에서 Object Gateway 드롭다운 목록을 클릭합니다.
- 버킷을 선택합니다.
기본 사이트의 개체 게이트웨이 사용자에 대해 생성된 보조 방문 페이지에서 이러한 개체 게이트웨이 버킷을 확인할 수 있습니다.
그림 12.11. 오브젝트 게이트웨이 모니터링
- 편집할 버킷 행을 클릭합니다.
- 편집 드롭다운 메뉴에서 편집 을 선택합니다.
Edit Bucket 창에서 필요한 매개변수를 편집하고 Edit Bucket 을 클릭합니다.
그림 12.12. 다중 사이트에서 버킷 편집
검증
- 버킷이 성공적으로 업데이트되었음을 알리는 알림이 표시됩니다.
추가 리소스
- 다중 사이트 구성에 대한 자세한 내용은 Red Hat Ceph Storage Object Gateway 가이드의 다중 사이트 구성 및 관리 섹션을 참조하십시오.
- 대시보드에 Ceph Object Gateway 로그인 자격 증명을 추가하는 방법에 대한 자세한 내용은 Red Hat Ceph Storage Dashboard가이드의 대시보드에 Ceph 오브젝트 게이트웨이 로그인 자격 증명 수동 추가를 참조하십시오.
- 대시보드에서 Ceph Object Gateway 사용자 생성에 대한 자세한 내용은 Red Hat Ceph Storage 대시보드 가이드의 대시보드에서 Ceph개체 게이트웨이 사용자 생성 섹션을 참조하십시오.
- 대시보드에서 Ceph Object Gateway 버킷 생성에 대한 자세한 내용은 Red Hat Ceph Storage Dashboard가이드의 대시보드에서 Ceph 개체 게이트웨이 버킷 생성 섹션을 참조하십시오.
- 시스템 역할에 대한 자세한 내용은 Red Hat Ceph Storage 대시보드 가이드 의 Ceph 대시보드에 대한 사용자 역할 및 권한 섹션을 참조하십시오.
12.7.3. Ceph 대시보드에서 다중 사이트 오브젝트 게이트웨이 구성의 버킷 삭제
멀티 플레이 개체 게이트웨이 구성의 Red Hat Ceph Storage 대시보드의 기본 사이트에서 보조 사이트 버킷을 삭제할 수 있습니다.
중요: Red Hat은 보조 사이트에서 기본 사이트의 버킷을 삭제하는 것을 권장하지 않습니다.
사전 요구 사항
- 두 사이트 모두에 배포된 Red Hat Ceph Storage 클러스터를 하나 이상 실행 중입니다.
- 대시보드가 설치되어 있어야 합니다.
- 다중 사이트 개체 게이트웨이는 주 및 보조 사이트에 구성되어 있습니다.
- 기본 및 보조 사이트의 개체 게이트웨이 로그인 자격 증명이 대시보드에 추가됩니다.
- 개체 게이트웨이 사용자는 기본 사이트에 생성됩니다.
- 개체 게이트웨이 버킷은 기본 사이트에 생성됩니다.
-
Ceph 대시보드에서 최소
rgw-manager
수준으로 액세스할 수 있습니다.
절차
- 기본 사이트의 대시보드 방문 페이지의 수직 메뉴 모음에서 Object Gateway 드롭다운 목록을 클릭합니다.
- 버킷을 선택합니다.
- 보조 사이트의 해당 개체 게이트웨이 버킷은 여기에서 확인할 수 있습니다.
- 삭제할 버킷 행을 클릭합니다.
- 편집 드롭다운 메뉴에서 삭제를 선택합니다.
- 버킷 삭제 대화 상자에서 Yes, I am sure 확인란을 선택하고 Delete Bucket 을 클릭합니다.
검증
- 버킷의 선택한 행이 성공적으로 삭제됩니다.
추가 리소스
- 다중 사이트 구성에 대한 자세한 내용은 Red Hat Ceph Storage Object Gateway 가이드의 다중 사이트 구성 및 관리 섹션을 참조하십시오.
- 대시보드에 Ceph Object Gateway 로그인 자격 증명을 추가하는 방법에 대한 자세한 내용은 Red Hat Ceph Storage Dashboard가이드의 대시보드에 Ceph 오브젝트 게이트웨이 로그인 자격 증명 수동 추가를 참조하십시오.
- 대시보드에서 Ceph Object Gateway 사용자 생성에 대한 자세한 내용은 Red Hat Ceph Storage 대시보드 가이드의 대시보드에서 Ceph개체 게이트웨이 사용자 생성 섹션을 참조하십시오.
- 대시보드에서 Ceph Object Gateway 버킷 생성에 대한 자세한 내용은 Red Hat Ceph Storage Dashboard가이드의 대시보드에서 Ceph 개체 게이트웨이 버킷 생성 섹션을 참조하십시오.
- 시스템 역할에 대한 자세한 내용은 Red Hat Ceph Storage 대시보드 가이드 의 Ceph 대시보드에 대한 사용자 역할 및 권한 섹션을 참조하십시오.
13장. Ceph 대시보드를 사용한 블록 장치 관리
스토리지 관리자는 Red Hat Ceph Storage 대시보드에서 블록 장치 이미지를 관리하고 모니터링할 수 있습니다. 이 기능은 일반 이미지 기능, 미러링 기능 및 iSCSI 함수로 나뉩니다. 예를 들어 새 이미지를 만들고, 클러스터에서 미러링된 이미지 상태를 보고, iSCSI 대상을 관리 또는 모니터링하고, 이미지에 IOPS 제한을 설정할 수 있습니다.
13.1. Ceph 대시보드에서 블록 장치 이미지 관리
스토리지 관리자는 Red Hat Ceph Storage 대시보드를 사용하여 이미지를 생성, 편집, 복사, 삭제 및 삭제할 수 있습니다.
Ceph 대시보드를 사용하여 이미지의 스냅샷을 생성, 복제, 복사, 롤백 및 삭제할 수도 있습니다.
블록 장치 이미지 테이블은 블록 장치 정보 검색 비용을 줄이기 위해 10000개 이상의 이미지 스토리지 클러스터와 함께 사용하기 위해 페이지가 매겨집니다.
13.1.1. Ceph 대시보드에서 이미지 생성
Red Hat Ceph Storage 대시보드에서 블록 장치 이미지를 생성할 수 있습니다.
사전 요구 사항
- 실행 중인 Red Hat Ceph Storage 클러스터.
- 대시보드가 설치되어 있어야 합니다.
- rbd 애플리케이션이 활성화된 풀이 생성됩니다.
절차
- 대시보드에 로그인합니다.
- 탐색 메뉴에서 블록 드롭다운 메뉴를 클릭합니다.
- 이미지를 선택합니다.
- 생성을 클릭합니다.
- Create RBD 창에서 매개 변수를 입력합니다.
- 선택 사항: 고급 을 클릭하고 매개 변수를 설정합니다.
- Create RBD 를 클릭합니다.
블록 장치 이미지를 만듭니다.
그림 13.1. 블록 장치 이미지 생성
- 이미지가 성공적으로 생성되었음을 알리는 알림이 표시됩니다.
추가 리소스
- 이미지에 대한 자세한 내용은 Red Hat Ceph Storage Block Device 가이드 를 참조하십시오.
- 자세한 내용은 Red Hat Ceph Storage 대시보드 가이드의 Ceph 대시보드에서풀 생성 섹션을 참조하십시오.
13.1.2. Ceph 대시보드에 네임스페이스 생성
Red Hat Ceph Storage 대시보드에서 블록 장치 이미지의 네임스페이스를 생성할 수 있습니다.
네임스페이스가 생성되면 해당 네임스페이스에 대한 사용자에게 액세스 권한을 부여할 수 있습니다.
사전 요구 사항
- 실행 중인 Red Hat Ceph Storage 클러스터.
- 대시보드가 설치되어 있어야 합니다.
- rbd 애플리케이션이 활성화된 풀이 생성됩니다.
- 블록 장치 이미지가 생성됩니다.
절차
- 대시보드에 로그인합니다.
- 탐색 메뉴에서 블록 드롭다운 메뉴를 클릭합니다.
- 이미지를 선택합니다.
- 이미지의 네임스페이스를 생성하려면 네임스페이스 탭에서 생성 을 클릭합니다.
- 네임스페이스 생성 창에서 풀을 선택하고 네임스페이스의 이름을 입력합니다.
생성을 클릭합니다.
그림 13.2. 네임스페이스 생성
- 네임스페이스가 성공적으로 생성되었음을 알리는 알림이 표시됩니다.
추가 리소스
- 자세한 내용은 기술 자료 문서 Segregate Block device images within isolated namespaces에서 참조하십시오.
13.1.3. Ceph 대시보드에서 이미지 편집
Red Hat Ceph Storage 대시보드에서 블록 장치 이미지를 편집할 수 있습니다.
사전 요구 사항
- 실행 중인 Red Hat Ceph Storage 클러스터.
- 대시보드가 설치되어 있어야 합니다.
- rbd 애플리케이션이 활성화된 풀이 생성됩니다.
- 이미지가 생성됩니다.
절차
- 대시보드에 로그인합니다.
- 탐색 모음에서 블록 드롭다운 메뉴를 클릭합니다.
- 이미지를 선택합니다.
- 이미지를 편집하려면 해당 행을 클릭합니다.
- 편집 드롭다운 메뉴에서 편집 을 선택합니다.
RBD 편집 창에서 필요한 매개 변수를 편집하고 RBD 편집 을 클릭합니다.
그림 13.3. 블록 장치 이미지 편집
- 이미지가 업데이트되었음을 알리는 알림이 표시됩니다.
추가 리소스
- 이미지에 대한 자세한 내용은 Red Hat Ceph Storage Block Device 가이드 를 참조하십시오.
- 자세한 내용은 Red Hat Ceph Storage 대시보드 가이드의 Ceph 대시보드에서풀 생성 섹션을 참조하십시오.
13.1.4. Ceph 대시보드에서 이미지 복사
Red Hat Ceph Storage 대시보드에서 블록 장치 이미지를 복사할 수 있습니다.
사전 요구 사항
- 실행 중인 Red Hat Ceph Storage 클러스터.
- 대시보드가 설치되어 있어야 합니다.
- rbd 애플리케이션이 활성화된 풀이 생성됩니다.
- 이미지가 생성됩니다.
절차
- 대시보드에 로그인합니다.
- 탐색 모음에서 블록 드롭다운 메뉴를 클릭합니다.
- 이미지를 선택합니다.
- 이미지를 복사하려면 행을 클릭합니다.
- 편집 드롭다운 메뉴에서 복사를 선택합니다.
Copy RBD 창에서 필요한 매개 변수를 설정하고 Copy RBD 를 클릭합니다.
그림 13.4. 블록 장치 이미지 복사
- 이미지가 복사되었음을 알리는 알림이 표시됩니다.
추가 리소스
- 이미지에 대한 자세한 내용은 Red Hat Ceph Storage Block Device 가이드 를 참조하십시오.
- 자세한 내용은 Red Hat Ceph Storage 대시보드 가이드의 Ceph 대시보드에서풀 생성 섹션을 참조하십시오.
13.1.5. Ceph 대시보드에서 이미지 이동
블록 장치 이미지를 Red Hat Ceph Storage 대시보드에서 삭제하기 전에 블록 장치 이미지를 휴지통으로 이동할 수 있습니다.
사전 요구 사항
- 실행 중인 Red Hat Ceph Storage 클러스터.
- 대시보드가 설치되어 있어야 합니다.
- rbd 애플리케이션이 활성화된 풀이 생성됩니다.
- 이미지가 생성됩니다.
절차
- 대시보드에 로그인합니다.
- 탐색 메뉴에서 Block 을 클릭합니다.
- 드롭다운 메뉴에서 이미지를 선택합니다.
- 이미지를 휴지통으로 이동하려면 행을 클릭합니다.
- 편집 드롭다운 에서 Move to xyz를 선택합니다.
이미지 이동 창에서 이미지가 보호가 필요한 날짜를 편집한 다음 이동을 클릭합니다.
그림 13.5. 이미지를 휴지통으로 이동
- 이미지가 성공적으로 이동되었음을 알리는 알림이 표시됩니다.
13.1.6. Ceph 대시보드에서 휴지통 제거
Red Hat Ceph Storage 대시보드를 사용하여 휴지통을 제거할 수 있습니다.
사전 요구 사항
- 실행 중인 Red Hat Ceph Storage 클러스터.
- 대시보드가 설치되어 있어야 합니다.
- rbd 애플리케이션이 활성화된 풀이 생성됩니다.
- 이미지가 분쇄되어 있습니다.
절차
- 대시보드에 로그인합니다.
- 탐색 모음에서 블록:을 클릭합니다.
- 이미지를 선택합니다.
- (으 ) 탭에서 파열 을 클릭합니다.
PurgeResourceOverride 창에서 풀을 선택한 다음 Purge meant 를 클릭합니다.
그림 13.6. 제거 해결
- 휴지통의 풀이 성공적으로 제거되었음을 알리는 알림이 표시됩니다.
추가 리소스
- 자세한 내용은 Red Hat Ceph Storage 블록 장치 가이드의 블록 장치스냅샷 삭제 섹션을 참조하십시오.
13.1.7. Ceph 대시보드에서 이미지 복원
Red Hat Ceph Storage Dashboard에서 만료 날짜가 있고 만료 날짜가 있는 이미지를 복원할 수 있습니다.
사전 요구 사항
- 실행 중인 Red Hat Ceph Storage 클러스터.
- 대시보드가 설치되어 있어야 합니다.
- rbd 애플리케이션이 활성화된 풀이 생성됩니다.
- 이미지가 분쇄되어 있습니다.
절차
- 대시보드에 로그인합니다.
- 탐색 메뉴에서 블록:을 클릭합니다.
- 이미지를 선택합니다.
- unique에서 이미지를 복원하려면 탭에서 해당 행을 클릭합니다.
- 복원 드롭다운에서 복원을 선택합니다.
이미지 복원 창에서 새 이미지 이름을 입력한 다음 복원을 클릭합니다.
그림 13.7. 휴지통에서 이미지 복원
- 이미지가 성공적으로 복원되었음을 알리는 알림이 표시됩니다.
추가 리소스
- RBD 풀에서 이미지 생성에 대한 자세한 내용은 Red Hat Ceph Storage 대시보드 가이드 의 Ceph 대시보드에서 이미지 생성 섹션을 참조하십시오.
13.1.8. Ceph 대시보드에서 이미지를 삭제합니다.
이미지가 휴지통으로 이동한 후에만 이미지를 삭제할 수 있습니다. 복제된 이미지와 복사된 이미지를 직접 삭제할 수 있습니다.
사전 요구 사항
- 실행 중인 Red Hat Ceph Storage 클러스터.
- 대시보드가 설치되어 있어야 합니다.
- rbd 애플리케이션이 활성화된 풀이 생성됩니다.
- 이미지가 생성되고 휴지통으로 이동됩니다.
절차
- 대시보드에 로그인합니다.
- 탐색 모음에서 블록을 클릭합니다 .
- 이미지를 선택합니다.
- 이미지를 삭제하려면 탭에서 해당 행을 클릭합니다.
- 복원 드롭다운 메뉴에서 삭제를 선택합니다.
- 선택 사항: 복제된 이미지 및 복사된 이미지를 제거하려면 편집 드롭다운 메뉴에서 삭제를 선택합니다.
RBD 삭제 대화 상자에서 예, 확인 상자를 클릭한 다음 RBD 삭제를 클릭하여 설정을 저장합니다.
그림 13.8. 이미지 삭제
- 이미지가 성공적으로 삭제되었다는 알림이 표시됩니다.
추가 리소스
- RBD 풀에서 이미지 생성에 대한 자세한 내용은 Red Hat Ceph Storage 대시보드 가이드 의 Ceph 대시보드에서 이미지 이동 섹션을 참조하십시오.
13.1.9. Ceph 대시보드에서 네임스페이스 삭제.
Red Hat Ceph Storage 대시보드에서 이미지의 네임스페이스를 삭제할 수 있습니다.
사전 요구 사항
- 실행 중인 Red Hat Ceph Storage 클러스터.
- 대시보드가 설치되어 있어야 합니다.
- rbd 애플리케이션이 활성화된 풀이 생성됩니다.
- 이미지가 생성되고 휴지통으로 이동됩니다.
- 블록 장치 이미지와 해당 네임스페이스가 생성됩니다.
절차
- 대시보드에 로그인합니다.
- 탐색 모음에서 블록을 클릭합니다 .
- 이미지를 선택합니다.
- 이미지의 네임스페이스를 삭제하려면 네임스페이스 탭에서 해당 행을 클릭합니다.
- 삭제를 클릭합니다.
네임스페이스 삭제 대화 상자에서 예, 확인 상자를 클릭한 다음 네임스페이스 삭제를 클릭하여 설정을 저장합니다.
그림 13.9. 네임스페이스 삭제
- 네임스페이스가 성공적으로 삭제되었다는 알림이 표시됩니다.
13.1.10. Ceph 대시보드에서 이미지 스냅샷 생성
Red Hat Ceph Storage 대시보드에서 Ceph 블록 장치 이미지의 스냅샷을 가져올 수 있습니다.
사전 요구 사항
- 실행 중인 Red Hat Ceph Storage 클러스터.
- 대시보드가 설치되어 있어야 합니다.
- rbd 애플리케이션이 활성화된 풀이 생성됩니다.
- 이미지가 생성됩니다.
절차
- 대시보드에 로그인합니다.
- 탐색 메뉴에서 Block 을 클릭합니다.
- 이미지를 선택합니다.
- 이미지의 스냅샷을 만들려면 Images (이미지) 탭에서 행을 클릭한 다음 Snapshots 탭을 클릭합니다.
- 생성 드롭다운에서 만들기를 선택합니다.
Create RBD Snapshot ( RBD 스냅샷 만들기) 대화 상자에서 이름을 입력하고 Create RBD Snapshot:을 클릭합니다.
그림 13.10. 이미지 스냅샷 생성
- 스냅샷이 성공적으로 생성되었음을 알리는 알림이 표시됩니다.
추가 리소스
- 스냅샷 생성에 대한 자세한 내용은 Red Hat Ceph Storage Block Device Guide 의 블록 장치 스냅샷 생성 섹션을 참조하십시오.
- RBD 풀 생성에 대한 자세한 내용은 Red Hat Ceph Storage 대시보드 가이드 의 Ceph 대시보드에서 풀 생성 섹션을 참조하십시오.
- 자세한 내용은 Red Hat Ceph Storage 대시보드 가이드의 Ceph대시 보드에서 이미지 생성 섹션을 참조하십시오.
13.1.11. Ceph 대시보드에서 이미지 스냅샷 이름 변경
Red Hat Ceph Storage 대시보드에서 Ceph 블록 장치 이미지의 스냅샷의 이름을 변경할 수 있습니다.
사전 요구 사항
- 실행 중인 Red Hat Ceph Storage 클러스터.
- 대시보드가 설치되어 있어야 합니다.
- rbd 애플리케이션이 활성화된 풀이 생성됩니다.
- 이미지가 생성됩니다.
- 이미지 스냅샷이 생성됩니다.
절차
- 대시보드에 로그인합니다.
- 탐색 메뉴에서 Block 을 클릭합니다.
- 이미지를 선택합니다.
- 이미지 스냅샷의 이름을 변경하려면 Images (이미지) 탭에서 행을 클릭한 다음 Snapshots (스냅샷) 탭을 클릭합니다.
- Rename 드롭다운에서 Rename 을 선택합니다.
Rename RBD Snapshot 대화 상자에서 이름을 입력하고 Rename RBD Snapshot:을 클릭합니다.
그림 13.11. 이미지 스냅샷 이름 변경
추가 리소스
- 자세한 내용은 Red Hat Ceph Storage 블록 장치 가이드의 블록 장치스냅샷 조정 섹션을 참조하십시오.
- RBD 풀 생성에 대한 자세한 내용은 Red Hat Ceph Storage 대시보드 가이드 의 Ceph 대시보드에서 풀 생성 섹션을 참조하십시오.
- 자세한 내용은 Red Hat Ceph Storage 대시보드 가이드의 Ceph대시 보드에서 이미지 생성 섹션을 참조하십시오.
13.1.12. Ceph 대시보드에서 이미지 스냅샷 보호
Red Hat Ceph Storage 대시보드에서 Ceph 블록 장치 이미지의 스냅샷을 보호할 수 있습니다.
스냅샷을 복제해야 하는 경우 필요합니다.
사전 요구 사항
- 실행 중인 Red Hat Ceph Storage 클러스터.
- 대시보드가 설치되어 있어야 합니다.
- rbd 애플리케이션이 활성화된 풀이 생성됩니다.
- 이미지가 생성됩니다.
- 이미지 스냅샷이 생성됩니다.
절차
- 대시보드에 로그인합니다.
- 탐색 메뉴에서 Block 을 클릭합니다.
- 이미지를 선택합니다.
- 이미지 스냅샷을 보호하려면 Images (이미지) 탭에서 행을 클릭한 다음 Snapshots (스냅샷) 탭을 클릭합니다.
- Rename 드롭다운에서 Protect 를 선택합니다.
- 스냅샷 상태가 UNPROTECTED 에서 PROTECTED 로 변경됩니다.
추가 리소스
- 자세한 내용은 Red Hat Ceph Storage Block Device Guide 의 블록 장치 스냅샷 보호 섹션을 참조하십시오.
13.1.13. Ceph 대시보드에서 이미지 스냅샷 복제
Red Hat Ceph Storage 대시보드에서 이미지 스냅샷을 복제할 수 있습니다.
사전 요구 사항
- 실행 중인 Red Hat Ceph Storage 클러스터.
- 대시보드가 설치되어 있어야 합니다.
- rbd 애플리케이션이 활성화된 풀이 생성됩니다.
- 이미지가 생성됩니다.
- 이미지 스냅샷이 생성되고 보호됩니다.
절차
- 대시보드에 로그인합니다.
- 탐색 메뉴에서 Block 을 클릭합니다.
- 이미지를 선택합니다.
- 이미지 스냅샷을 보호하려면 Images (이미지) 탭에서 행을 클릭한 다음 Snapshots (스냅샷) 탭을 클릭합니다.
- Rename 드롭다운에서 Clone 을 선택합니다.
Clone RBD 창에서 매개 변수를 편집하고 Clone RBD 를 클릭합니다.
그림 13.12. 이미지 스냅샷 복제
- 스냅샷이 성공적으로 복제되었음을 알리는 알림이 표시됩니다. Images (이미지) 탭에서 복제된 이미지를 검색할 수 있습니다.
추가 리소스
- 자세한 내용은 Red Hat Ceph Storage Block Device Guide의 블록 장치 스냅샷 보호 섹션을 참조하십시오.
- 자세한 내용은 Red Hat Ceph Storage Dashboard 가이드 의 Ceph 대시 보드 섹션에서 이미지 스냅샷 보호 섹션을 참조하십시오.
13.1.14. Ceph 대시보드에서 이미지 스냅샷 복사
Red Hat Ceph Storage 대시보드에서 이미지 스냅샷을 복사할 수 있습니다.
사전 요구 사항
- 실행 중인 Red Hat Ceph Storage 클러스터.
- 대시보드가 설치되어 있어야 합니다.
- rbd 애플리케이션이 활성화된 풀이 생성됩니다.
- 이미지가 생성됩니다.
- 이미지 스냅샷이 생성됩니다.
절차
- 대시보드에 로그인합니다.
- 탐색 메뉴에서 Block 을 클릭합니다.
- 이미지를 선택합니다.
- 이미지 스냅샷을 보호하려면 Images (이미지) 탭에서 행을 클릭한 다음 Snapshots (스냅샷) 탭을 클릭합니다.
- Rename 드롭다운 메뉴에서 복사를 선택합니다.
Copy RBD 창에서 매개 변수를 입력하고 RBD 복사 버튼을 클릭합니다.
그림 13.13. 이미지 스냅샷 복사
- 스냅샷이 복사되었음을 알리는 알림이 표시됩니다. 이미지 탭에서 복사된 이미지를 검색할 수 있습니다.
추가 리소스
- RBD 풀 생성에 대한 자세한 내용은 Red Hat Ceph Storage 대시보드 가이드 의 Ceph 대시보드에서 풀 생성 섹션을 참조하십시오.
- 자세한 내용은 Red Hat Ceph Storage 대시보드 가이드의 Ceph대시 보드에서 이미지 생성 섹션을 참조하십시오.
13.1.15. Ceph 대시보드에서 이미지 스냅샷 보호 해제
Red Hat Ceph Storage 대시보드에서 Ceph 블록 장치 이미지의 스냅샷을 보호 해제할 수 있습니다.
스냅샷을 삭제해야 하는 경우 필요합니다.
사전 요구 사항
- 실행 중인 Red Hat Ceph Storage 클러스터.
- 대시보드가 설치되어 있어야 합니다.
- rbd 애플리케이션이 활성화된 풀이 생성됩니다.
- 이미지가 생성됩니다.
- 이미지 스냅샷이 생성되고 보호됩니다.
절차
- 대시보드에 로그인합니다.
- 탐색 메뉴에서 Block 을 클릭합니다.
- 이미지를 선택합니다.
- 이미지의 스냅샷을 보호하려면 Images (이미지) 탭에서 행을 클릭한 다음 Snapshots 탭을 클릭합니다.
- Rename 드롭다운에서 UnProtect 를 선택합니다.
- 스냅샷 상태가 PROTECTED 에서 UNPROTECTED 로 변경됩니다.
추가 리소스
- 자세한 내용은 Red Hat Ceph Storage Block Device Guide 의 블록 장치 스냅샷 보호 섹션을 참조하십시오.
- 자세한 내용은 Red Hat Ceph Storage Dashboard 가이드 의 Ceph 대시 보드 섹션에서 이미지 스냅샷 보호 섹션을 참조하십시오.
13.1.16. Ceph 대시보드에서 이미지 스냅샷 롤백
Red Hat Ceph Storage 대시보드에서 Ceph 블록 장치 이미지의 스냅샷을 롤백할 수 있습니다. 이미지를 스냅샷으로 롤백하면 스냅샷의 데이터로 현재 버전의 이미지를 덮어씁니다. 이미지 크기에 따라 롤백을 실행하는 데 걸리는 시간이 늘어납니다. 이미지를 스냅샷으로 롤백하는 것보다 스냅샷에서 복제하는 속도가 빨라지고, 기존 상태로 이미지를 반환하는 것이 좋습니다.
사전 요구 사항
- 실행 중인 Red Hat Ceph Storage 클러스터.
- 대시보드가 설치되어 있어야 합니다.
- rbd 애플리케이션이 활성화된 풀이 생성됩니다.
- 이미지가 생성됩니다.
- 이미지 스냅샷이 생성됩니다.
절차
- 대시보드에 로그인합니다.
- 탐색 메뉴에서 Block 을 클릭합니다.
- 이미지를 선택합니다.
- 이미지 스냅샷을 롤백하려면 Images (이미지) 탭에서 행을 클릭한 다음 Snapshots (스냅샷) 탭을 클릭합니다.
- Rename 드롭다운에서 롤백 을 선택합니다.
RBD 스냅샷 롤백 대화 상자에서 롤백 을 클릭합니다.
그림 13.14. 이미지 스냅샷 롤백
추가 리소스
- 자세한 내용은 Red Hat Ceph Storage Block Device Guide 의 블록 장치 스냅샷 섹션에서 참조하십시오.
- RBD 풀 생성에 대한 자세한 내용은 Red Hat Ceph Storage 대시보드 가이드 의 Ceph 대시보드에서 풀 생성 섹션을 참조하십시오.
- 자세한 내용은 Red Hat Ceph Storage 대시보드 가이드의 Ceph대시 보드에서 이미지 생성 섹션을 참조하십시오.
13.1.17. Ceph 대시보드에서 이미지 스냅샷 삭제
Red Hat Ceph Storage 대시보드에서 Ceph 블록 장치 이미지의 스냅샷을 삭제할 수 있습니다.
사전 요구 사항
- 실행 중인 Red Hat Ceph Storage 클러스터.
- 대시보드가 설치되어 있어야 합니다.
- rbd 애플리케이션이 활성화된 풀이 생성됩니다.
- 이미지가 생성됩니다.
- 이미지 스냅샷이 생성되고 보호되지 않습니다.
절차
- 대시보드에 로그인합니다.
- 탐색 메뉴에서 Block 을 클릭합니다.
- 이미지를 선택합니다.
- 이미지의 스냅샷을 만들려면 Images (이미지) 탭에서 행을 클릭한 다음 Snapshots 탭을 클릭합니다.
Rename 드롭다운에서 삭제를 선택합니다.
그림 13.15. 이미지 스냅샷 삭제
- 스냅샷이 성공적으로 삭제되었다는 알림이 표시됩니다.
추가 리소스
- 자세한 내용은 Red Hat Ceph Storage 블록 장치 가이드의 블록 장치스냅샷 삭제 섹션을 참조하십시오.
- 자세한 내용은 Red Hat Ceph Storage 대시보드 가이드 의 Ceph 대시보드에 있는 이미지의 스냅샷 보호 해제 섹션을 참조하십시오.
13.2. Ceph 대시보드에서 미러링 기능 관리
스토리지 관리자는 Red Hat Ceph Storage 대시보드에서 블록 장치의 미러링 기능을 관리하고 모니터링할 수 있습니다.
스토리지 클러스터 간에 데이터 이미지를 미러링하여 Ceph 블록 장치에 다른 중복 계층을 추가할 수 있습니다. Ceph 블록 장치 미러링을 이해하고 사용하면 사이트 오류와 같은 데이터 손실을 방지할 수 있습니다. Ceph 블록 장치 미러링에는 일방향 미러링 또는 양방향 미러링에 대한 두 가지 구성이 있으며 풀 및 개별 이미지에서 미러링을 구성할 수 있습니다.
13.2.1. Ceph 대시보드에서 미러링 보기
Red Hat Ceph Storage 대시보드에서 블록 장치 미러링을 볼 수 있습니다.
데몬, 사이트 세부 정보, 풀 및 블록 장치 미러링에 구성된 이미지를 볼 수 있습니다.
사전 요구 사항
- 실행 중인 Red Hat Ceph Storage 클러스터.
- 대시보드가 설치되어 있어야 합니다.
- 미러링이 구성됩니다.
절차
- 대시보드에 로그인합니다.
- 탐색 메뉴에서 Block 을 클릭합니다.
미러링 을 클릭합니다.
그림 13.16. 블록 장치 미러링 보기
추가 리소스
- 미러링에 대한 자세한 내용은 Red Hat Ceph Storage 블록 장치 가이드의 Ceph 블록 장치 미러링 섹션을 참조하십시오.
13.2.2. Ceph 대시보드에서 풀 편집 모드
Red Hat Ceph Storage 대시보드의 풀 및 이미지가 포함된 미러링 기능의 전체 상태를 편집할 수 있습니다.
사전 요구 사항
- 실행 중인 Red Hat Ceph Storage 클러스터.
- 대시보드가 설치되어 있어야 합니다.
- rbd 애플리케이션이 활성화된 풀이 생성됩니다.
- 이미지가 생성됩니다.
- 미러링이 구성됩니다.
절차
- 대시보드에 로그인합니다.
- 탐색 메뉴에서 Block 을 클릭합니다.
- 미러링 을 클릭합니다.
- Pools 탭에서 편집할 피어를 클릭합니다.
- Edit Mode 드롭다운에서 모드 편집을 선택합니다.
Edit pool mirror mode 창의 드롭다운에서 모드를 선택한 다음 Update 를 클릭합니다. 풀이 성공적으로 업데이트됨
그림 13.17. 미러링의 편집 모드
추가 리소스
- 자세한 내용은 Red Hat Ceph Storage Block Device Guide 의 Ceph Block Device Mirroring 섹션을 참조하십시오.
13.2.3. Ceph 대시보드에서 미러링 시 피어 추가
rbd-daemon
미러용 스토리지 클러스터 피어를 추가하여 Red Hat Ceph Storage 대시보드에서 피어 스토리지 클러스터를 검색할 수 있습니다.
사전 요구 사항
- 두 개의 정상 실행 Red Hat Ceph Storage 클러스터.
- 대시보드는 두 클러스터에 모두 설치됩니다.
- 동일한 이름으로 생성된 풀입니다.
-
RBD
애플리케이션은 두 클러스터에서 모두 활성화되어 있습니다.
이미지가 생성되는 풀에 미러링이 활성화되어 있는지 확인합니다.
절차
사이트 A
- 대시보드에 로그인합니다.
- 탐색 메뉴에서 블록 드롭다운 메뉴를 클릭하고 미러링을 클릭합니다.
부트 스트랩 토큰 생성 을 클릭하고 창에서 다음을 구성합니다.
그림 13.18. 부트스트랩 토큰 생성
- 제공된 사이트 이름에 대해 미러링할 풀을 선택합니다.
- 선택한 풀의 경우 생성을 클릭하여 새 부트스트랩 토큰을 생성합니다.
- 복사 아이콘을 클릭하여 토큰을 클립보드에 복사합니다.
- 닫기 를 클릭합니다.
풀 미러 모드를 활성화합니다.
- 풀을 선택합니다.
- Edit Mode 를 클릭합니다.
- Edit pool mirror mode 창의 드롭다운에서 Image 를 선택합니다.
- 업데이트를 클릭합니다.
사이트 B
- 대시보드에 로그인합니다.
- 탐색 메뉴에서 블록 드롭다운 메뉴를 클릭하고 미러링을 클릭합니다.
Create Bootstrap 토큰 드롭다운에서 Bootstrap 토큰 가져오기 를 선택합니다.
참고부트스트랩 토큰을 가져오는 특정 풀에 대해 미러링 모드가 활성화되어 있는지 확인합니다.
부트 스트랩 토큰 가져오기 창에서 방향을 선택하고 사이트 A에서 이전에 복사한 토큰을 붙여넣습니다.
그림 13.19. 부트스트랩 토큰 가져오기
제출을 클릭합니다.
피어가 추가되고 이미지가 사이트 B의 클러스터에 미러링됩니다.
풀 상태가 OK 인지 확인합니다.
- 탐색 메뉴의 블록 아래에서 미러링 을 선택합니다. 풀의 상태는 OK 입니다.
사이트 A
미러링 이 활성화된 이미지를 만듭니다.
- 탐색 메뉴에서 블록 드롭다운 메뉴를 클릭합니다.
- 이미지를 클릭합니다.
- 생성을 클릭합니다.
RBD 만들기 창에서 이름,크기 및 미러링을 활성화합니다.
참고저널 또는 스냅샷 을 선택할 수 있습니다.
Create RBD 를 클릭합니다.
그림 13.20. 미러링 이미지 생성
이미지를 두 사이트에서 모두 사용할 수 있는지 확인합니다.
-
탐색 메뉴의 블록 아래의 이미지를 선택합니다. 사이트 B의 이미지가
보조인 동안 사이트 A의 이미지가 우선합니다
.
-
탐색 메뉴의 블록 아래의 이미지를 선택합니다. 사이트 B의 이미지가
추가 리소스
- 자세한 내용은 Red Hat Ceph Storage 블록 장치 가이드 의 명령줄 인터페이스를 사용하여 양방향 미러링 구성 섹션을 참조하십시오.
13.2.4. Ceph 대시보드에서 미러링 시 피어 편집
'rbd-daemon의 미러의 스토리지 클러스터 피어를 편집하여 Red Hat Ceph Storage 대시보드에서 피어 스토리지 클러스터를 검색할 수 있습니다.
사전 요구 사항
- 실행 중인 Red Hat Ceph Storage 클러스터.
- 대시보드가 설치되어 있어야 합니다.
- rbd 애플리케이션이 활성화된 풀이 생성됩니다.
- 이미지가 생성됩니다.
- 미러링이 구성됩니다.
- 피어가 추가되었습니다.
절차
- 대시보드에 로그인합니다.
- 탐색 메뉴에서 Block 을 클릭합니다.
- 미러링 을 클릭합니다.
- Pools (풀) 탭에서 삭제할 피어를 클릭합니다.
- Edit Mode 드롭다운에서 피어 편집 을 선택합니다.
풀 미러 피어 편집 창에서 매개 변수를 편집한 다음 제출을 클릭합니다.In the Edit pool mirror peer window, edit the parameters, and then click Submit:
그림 13.21. 미러링에서 피어 편집
- 피어가 업데이트되었음을 알리는 알림이 표시됩니다.
추가 리소스
- 자세한 내용은 Red Hat Ceph Storage 대시보드 가이드의 Ceph 대시보드에서미러링의 피어 추가 섹션을 참조하십시오.
13.2.5. Ceph 대시보드에서 미러링 시 피어 삭제
'rbd-daemon의 미러의 스토리지 클러스터 피어를 편집하여 Red Hat Ceph Storage 대시보드에서 피어 스토리지 클러스터를 검색할 수 있습니다.
사전 요구 사항
- 실행 중인 Red Hat Ceph Storage 클러스터.
- 대시보드가 설치되어 있어야 합니다.
- rbd 애플리케이션이 활성화된 풀이 생성됩니다.
- 이미지가 생성됩니다.
- 미러링이 구성됩니다.
- 피어가 추가되었습니다.
절차
- 대시보드에 로그인합니다.
- 탐색 메뉴에서 Block 을 클릭합니다.
- 미러링 을 클릭합니다.
- Pools (풀) 탭에서 삭제할 피어를 클릭합니다.
- Edit Mode 드롭다운에서 피어 삭제를 선택합니다.
미러 피어 삭제 대화 상자에서 예, 확인 상자를 클릭한 다음 미러 피어 삭제를 클릭하여 설정을 저장합니다.In the Delete mirror peer dialog window, click the Yes, I am sure box and then click Delete mirror peer to save the settings:
그림 13.22. 미러링에서 피어 삭제
- 피어가 성공적으로 삭제되었다는 알림이 표시됩니다.
추가 리소스
- 자세한 내용은 Red Hat Ceph Storage 대시보드 가이드의 Ceph 대시보드에서미러링의 피어 추가 섹션을 참조하십시오.
14장. Telemetry 활성화 및 비활성화
Ceph 개발자가 Ceph 사용 방법 및 사용자가 발생할 수 있는 문제를 이해하는 데 도움이 되도록 Telemetry 모듈을 활성화합니다. 이는 대시보드 환경을 개선하는 데 도움이 됩니다. Telemetry 모듈을 활성화하면 클러스터에 대한 익명 데이터를 Ceph 개발자에게 다시 보냅니다.
공용 원격 분석 대시보드에서 Ceph 개발자로 전송되는 Telemetry 데이터를 확인합니다. 이를 통해 커뮤니티는 보고되는 클러스터 수, 총 용량 및 OSD 수, 버전 배포 추세에 대한 요약 통계를 쉽게 확인할 수 있습니다.
원격 분석 보고서는 각각 다른 유형의 정보를 가진 여러 채널로 나뉩니다. Telemetry가 활성화되어 있다고 가정하면 개별 채널을 켜거나 끌 수 있습니다. Telemetry가 꺼져 있으면 채널별 설정이 적용되지 않습니다.
- Basic
- 클러스터에 대한 기본 정보를 제공합니다.
- 크래시
- 데몬 충돌에 대한 정보를 제공합니다.
- 장치
- 장치 지표에 대한 정보를 제공합니다.
- IDENT
- 클러스터에 대한 사용자 제공 식별 정보를 제공합니다.
- perf
- 클러스터의 다양한 성능 지표를 제공합니다.
데이터 보고서에는 개발자가 Ceph 사용 방식을 더 잘 이해하는 데 도움이 되는 정보가 포함되어 있습니다. 데이터에는 클러스터 배포 방법, Ceph 버전, 호스트 배포 및 기타 매개 변수에 대한 카운터 및 통계가 포함됩니다.
데이터 보고서에는 풀 이름, 오브젝트 이름, 오브젝트 콘텐츠, 호스트 이름 또는 장치 일련 번호와 같은 중요한 데이터가 포함되어 있지 않습니다.
Telemetry는 API를 사용하여 관리할 수도 있습니다. 자세한 내용은 Red Hat Ceph Storage 개발자 가이드의 Telemetry 장을 참조하십시오.
절차
다음 방법 중 하나로 Telemetry 모듈을 활성화합니다.
Ceph 대시보드 내의 배너에서 다음을 수행합니다.
- Settings(설정)Telemetry(Telemetry) 구성으로 이동합니다.
Telemetry를 활성화해야 하는 각 채널을 선택합니다.
참고각 채널 유형에 대한 자세한 내용은 채널 옆에 있는 추가 정보를 클릭합니다.
- 클러스터의 연락처 정보를 입력합니다. 연락처, Ceph 클러스터 설명 및 조직을 입력합니다.
선택 사항: 고급 설정 필드 옵션을 완료합니다.
- 간격
- 간격을 시간 단위로 설정합니다. 이 모듈은 이 시간 간격마다 새 보고서를 컴파일하고 보냅니다. 기본 간격은 24 시간입니다.
- proxy
클러스터가 구성된 Telemetry 엔드포인트에 직접 연결할 수 없는 경우 HTTP 또는 HTTPs 프록시 서버를 구성하려면 이 방법을 사용합니다. 다음 형식 중 하나로 서버를 추가합니다.
https://10.0.0.1:8080
또는https://ceph::8080
기본 끝점은
telemetry.ceph.com
입니다.
- 다음을 클릭합니다. Telemetry를 활성화하기 전에 Telemetry 보고서 프리뷰 가 표시됩니다.
보고서 프리뷰 를 검토합니다.
참고보고서를 다운로드하여 로컬로 저장하거나 클립보드에 복사할 수 있습니다.
- I agree to my telemetry data being submitted under the Community Data License Agreement 를 선택합니다.
Update 를 클릭하여 telemetry 모듈을 활성화합니다.
다음 메시지가 표시되어 Telemetry 활성화를 확인합니다.
Copy to Clipboard Copied! Toggle word wrap Toggle overflow The Telemetry module has been configured and activated successfully
The Telemetry module has been configured and activated successfully
14.1. Telemetry 비활성화
Telemetry 모듈을 비활성화하려면 Settings(설정)Telemetry 구성으로 이동하여 비활성화 를 클릭합니다.