Monitoring OpenShift Data Foundation
클러스터 상태, 메트릭 또는 경고를 설정합니다.
초록
보다 포괄적 수용을 위한 오픈 소스 용어 교체
Red Hat은 코드, 문서, 웹 속성에서 문제가 있는 용어를 교체하기 위해 최선을 다하고 있습니다. 먼저 마스터(master), 슬레이브(slave), 블랙리스트(blacklist), 화이트리스트(whitelist) 등 네 가지 용어를 교체하고 있습니다. 이러한 변경 작업은 작업 범위가 크므로 향후 여러 릴리스에 걸쳐 점차 구현할 예정입니다. 자세한 내용은 CTO Chris Wright의 메시지를 참조하십시오.
Red Hat 문서에 관한 피드백 제공
문서 개선을 위한 의견을 보내 주십시오. 개선할 내용에 대해 알려주십시오.
피드백을 제공하려면 Bugzilla 티켓을 생성합니다.
- Bugzilla 웹 사이트로 이동합니다.
- 구성 요소 섹션에서 문서를 선택합니다.
- 설명 필드에 문서 개선을 위한 제안 사항을 기입하십시오. 관련된 문서의 해당 부분 링크를 알려주십시오.
- 버그 제출을 클릭합니다.
1장. 클러스터 상태
1.1. OpenShift Data Foundation의 상태 확인
스토리지 상태는 블록 및 파일 및 오브젝트 대시보드에 표시됩니다.
프로세스
- OpenShift 웹 콘솔에서 스토리지 → 데이터 Foundation 을 클릭합니다.
- 개요 탭의 상태 카드에서 스토리지 시스템을 클릭한 다음 해당 팝업에서 스토리지 시스템 링크를 클릭합니다.
블록 및 파일 및 오브젝트 탭에 상태 카드의 녹색 눈금이 있는지 확인합니다.
녹색 눈금은 클러스터가 정상임을 나타냅니다.
다양한 상태 및 표시되는 경고에 대한 자세한 내용은 1.2절. “스토리지 상태 수준 및 클러스터 상태” 을 참조하십시오.
1.2. 스토리지 상태 수준 및 클러스터 상태
OpenShift Data Foundation과 관련된 상태 정보 및 경고는 스토리지 대시보드에 표시됩니다.
1.2.1. 블록 및 파일 대시보드 지표
블록 및 파일 대시보드에는 OpenShift Data Foundation의 전체 상태와 영구 볼륨 상태가 표시됩니다.
각 리소스 유형에 사용할 수 있는 상태는 다음 표에 나열되어 있습니다.
상태 | icon | 설명 |
---|---|---|
알 수 없음 |
| OpenShift Data Foundation은 배포되거나 사용할 수 없습니다. |
녹색 닉네임 |
| 클러스터 상태가 좋습니다. |
경고 |
| OpenShift Data Foundation 클러스터는 경고 상태입니다. 내부 모드에서는 문제 세부 정보와 함께 경고가 표시됩니다. 외부 모드에 대한 경고가 표시되지 않습니다. |
오류 |
| OpenShift Data Foundation 클러스터에 오류가 발생하여 일부 구성 요소가 작동하지 않습니다. 내부 모드에서는 문제 세부 정보와 함께 경고가 표시됩니다. 외부 모드에 대한 경고가 표시되지 않습니다. |
1.2.2. 오브젝트 대시보드 지표
오브젝트 대시보드는 Multicloud Object Gateway의 상태 및 클러스터의 모든 오브젝트 클레임을 보여줍니다.
각 리소스 유형에 사용할 수 있는 상태는 다음 표에 나열되어 있습니다.
상태 | 설명 |
---|---|
녹색 닉네임 | 오브젝트 스토리지는 정상입니다. |
Multicloud Object Gateway가 실행 중이 아닌 경우 | NooBaa 시스템을 찾을 수 없을 때 표시됩니다. |
모든 리소스가 비정상입니다. | 모든 NooBaa 풀이 비정상일 때 표시됩니다. |
많은 버킷에 문제가 있음 | 버킷의 >= 50%가 오류가 발생할 때 표시됩니다. |
일부 버킷에는 문제가 있음 | 버킷의 >= 30%가 오류가 발생할 때 표시됩니다. |
사용할 수 없음 | 네트워크 문제 및/또는 오류가 있을 때 표시됩니다. |
1.2.3. 경고 패널
클러스터 상태가 정상이 아닌 경우 경고 패널은 Block 및 File 대시보드 의 상태 카드 아래에 나타납니다.
특정 경고 및 이에 대응하는 방법에 대한 정보는 OpenShift Data Foundation 문제 해결 에서 확인할 수 있습니다.
2장. 다중 클러스터 스토리지 상태
OpenShift Data Foundation을 사용하여 모든 클러스터의 전체 스토리지 상태를 보고 용량을 관리하려면 먼저 Hub 클러스터에서 다중 클러스터 대시보드를 활성화해야 합니다.
2.1. Hub 클러스터에서 다중 클러스터 대시보드 활성화
콘솔 플러그인을 사용하여 ODF Multicluster Orchestrator를 설치하기 전이나 후에 설치 화면에서 다중 클러스터 대시보드를 활성화할 수 있습니다.
사전 요구 사항
- OpenShift Container Platform 버전 4.16을 설치하고 관리자 권한이 있는지 확인합니다.
- 콘솔이 활성화된 Multicluster Orchestrator 4.16 Operator를 설치했는지 확인합니다.
- Operator Hub에서 RHACM(Red Hat Advanced Cluster Management for Kubernetes) 2.11을 설치했는지 확인합니다. 설치하는 방법에 대한 자세한 내용은 RHACM 설치를 참조하십시오.
- RHACM에서 관찰 기능을 활성화했는지 확인합니다. 관찰 기능 지침 활성화를 참조하십시오.
프로세스
observability-metrics-custom-allowlist.yaml
이라는 configmap 파일을 생성하고 사용자 지정 지표의 이름을metrics_list.yaml
매개변수에 추가합니다.다음 YAML을 사용하여 Hub 클러스터의 OpenShift Data Foundation 지표를 나열할 수 있습니다. 자세한 내용은 사용자 정의 메트릭 추가 를 참조하십시오.
kind: ConfigMap apiVersion: v1 metadata: name: observability-metrics-custom-allowlist Namespace: open-cluster-management-observability data: metrics_list.yaml: | names: - odf_system_health_status - odf_system_map - odf_system_raw_capacity_total_bytes - odf_system_raw_capacity_used_bytes matches: - __name__="csv_succeeded",exported_namespace="openshift-storage",name=~"odf-operator.*"
open-cluster-management-observability
네임스페이스에서 다음 명령을 실행합니다.# oc apply -n open-cluster-management-observability -f observability-metrics-custom-allowlist.yaml
observability-metrics-custom-allowlist yaml이 생성되면 RHACM은 모든 관리 클러스터에서 나열된 OpenShift Data Foundation 메트릭을 수집하기 시작합니다.
특정 관리 클러스터를 관찰 데이터 수집에서 제외하려면
observability: disabled
라는 클러스터에 다음 클러스터 레이블을 추가합니다.- 다중 클러스터 상태를 보려면 다중 클러스터 스토리지 대시보드 확인 장을 참조하십시오.
2.2. 허브 클러스터에서 다중 클러스터 스토리지 상태 확인
사전 요구 사항
다중 클러스터 모니터링을 활성화했는지 확인합니다. 자세한 내용은 다중 클러스터 대시보드 활성화 장을 참조하십시오.
프로세스
- Hub 클러스터의 OpenShift 웹 콘솔에서 모든 클러스터가 선택되어 있는지 확인합니다.
- Data Services 로 이동하여 스토리지 시스템을 클릭합니다.
- 개요 탭에서 OpenShift Data Foundation 및 시스템 앞에 녹색 눈금이 있는지 확인합니다. 이는 Operator가 실행 중이고 모든 스토리지 시스템을 사용할 수 있음을 나타냅니다.
상태 카드에서,
- OpenShift Data Foundation 을 클릭하여 Operator 상태를 확인합니다.
- 시스템을 클릭하여 스토리지 시스템 상태를 확인합니다.
스토리지 시스템 용량 카드에 는 다음 세부 정보가 표시됩니다.
- 스토리지 시스템의 이름
- 클러스터 이름
- 총 용량 및 사용된 용량의 그래픽 표현 백분율
- TiB의 총 용량 및 사용된 용량에 대한 실제 값
3장. 지표
3.1. 블록 및 파일 대시보드의 메트릭
다음과 같이 OpenShift 웹 콘솔의 블록 및 파일 대시보드로 이동할 수 있습니다.
- 스토리지 → 데이터 Foundation 을 클릭합니다.
- 개요 탭의 상태 카드에서 스토리지 시스템을 클릭한 다음 해당 팝업에서 스토리지 시스템 링크를 클릭합니다.
- 블록 및 파일 탭을 클릭합니다.
블록 및 파일 대시보드의 다음 카드는 배포 모드(내부 또는 외부)를 기반으로 메트릭을 제공합니다.
- 세부 정보 카드
세부 정보 카드는 다음을 보여줍니다.
- 서비스 이름
- 클러스터 이름
-
시스템이 실행되는 공급자의 이름(예:
AWS
,VSphere
, Bare metal의 경우None
) - 모드(내부 또는 외부로 배포 모드)
- OpenShift Data Foundation Operator 버전.
- 전송 암호화(암호가 활성화 또는 비활성화되었는지 여부를 표시)
- 스토리지 효율성 카드
- 이 카드는 압축 가능한 데이터 효과 메트릭을 나타내는 압축 비율을 나타내며, 여기에는 모든 압축 가능 풀이 포함됩니다. 이 카드는 또한 모든 압축 가능 풀 및 관련 복제본을 포함하는 저장된 실제 디스크 용량을 나타내는 비용 절감 메트릭을 보여줍니다.
- 인벤토리 카드
- 인벤토리 카드는 OpenShift Data Foundation 프로비전 프로그램에서 지원하는 총 활성 노드, 디스크, 풀, 스토리지 클래스, PVC 및 배포 수를 보여줍니다.
외부 모드의 경우 OpenShift Data Foundation 전용 노드가 없으므로 기본적으로 노드 수는 0입니다.
- 상태 카드
이 카드는 클러스터가 오류 없이 실행 중인지 또는 일부 문제가 발생했는지 여부를 보여줍니다.
내부 모드의 경우 Data Resiliency는 복제본에서 Ceph의 데이터 재조정 상태를 나타냅니다. 내부 모드 클러스터가 경고 또는 오류 상태에 있으면 경고 섹션이 관련 경고와 함께 표시됩니다.
외부 모드의 경우 데이터 복원 및 경고가 표시되지 않습니다.
- 원시 용량 카드
이 카드는 클러스터의 복제를 포함하는 총 원시 스토리지 용량을 보여줍니다.
-
사용된
범례는 클러스터에서 사용되는 원시 스토리지 용량 공간을 나타냅니다. -
사용 가능한
범례는 클러스터에서 사용 가능한 원시 스토리지 용량을 나타냅니다.
-
이 카드는 외부 모드 클러스터에는 적용되지 않습니다.
- 요청된 용량
이 카드는 클러스터 및 해당 배포에 저장된 실제 복제되지 않은 데이터의 양을 보여줍니다. 카드 상단에 있는 드롭다운 목록에서 프로젝트, 스토리지 클래스, 포드, 영구 볼륨 클레임 중에서 선택할 수 있습니다. 영구 볼륨 클레임 옵션의 네임스페이스를 선택해야 합니다. 이러한 옵션은 그래프에 표시된 데이터를 필터링하기 위한 것입니다. 그래프에는 사용량에 따라 상위 5개 엔티티에 대해서만 요청된 용량이 표시됩니다. 나머지 엔터티에 대해 요청된 집계 용량이 기타로 표시됩니다.
옵션 표시 프로젝트
OpenShift Data Foundation을 사용하는 각 프로젝트의 집계 용량 및 사용 횟수입니다.
스토리지 클래스
OpenShift Data Foundation 기반 스토리지 클래스를 기반으로 하는 집계 용량입니다.
Pods
OpenShift Data Foundation 프로비전 프로그램에서 지원하는 PVC를 사용하려는 모든 Pod입니다.
PVCs
드롭다운 목록에서 선택하고 활성 Pod에 마운트된 네임스페이스의 모든 PVC입니다. Pod에 연결되지 않은 PVC는 포함되지 않습니다.
외부 모드의 경우 용량 분석 카드를 참조하십시오.
- 용량 분석 카드
-
이 카드는 외부 모드 클러스터에만 적용됩니다. 이 카드에서는 프로젝트, 스토리지 클래스 및 Pod당 용량 분석을 볼 수 있습니다. 카드 상단의 드롭다운 메뉴에서 프로젝트, 스토리지 클래스 및 Pod 중에서 선택할 수 있습니다. 이러한 옵션은 그래프에 표시된 데이터를 필터링하기 위한 것입니다. 그래프에는 사용량에 따라 상위 5개 엔티티에만 사용되는 용량이 표시됩니다. 나머지 엔터티의 총 사용량은
기타
로 표시됩니다. - 사용 카드
이 카드는 내부 모드 클러스터에 사용된 용량, 초당 입력/출력 작업, 대기 시간, 처리량 및 복구 정보를 표시합니다.
외부 모드의 경우 이 카드에는 해당 클러스터에 대해 사용된 용량 및 요청된 용량 세부 정보만 표시됩니다.
- 활동 카드
이 카드는 OpenShift Data Foundation 클러스터의 현재 및 이전 활동을 보여줍니다. 카드는 두 섹션으로 구분됩니다.
- 지속적인: 데이터 복원력 및 OpenShift Data Foundation Operator의 업그레이드와 관련된 지속적인 작업의 진행 상황을 표시합니다.
-
recent Events:
openshift-storage
네임스페이스에서 발생한 이벤트 목록을 표시합니다.
3.2. 오브젝트 대시보드의 지표
다음과 같이 OpenShift 웹 콘솔에서 오브젝트 대시보드로 이동할 수 있습니다.
- 스토리지 → 데이터 Foundation 을 클릭합니다.
- 개요 탭의 상태 카드에서 스토리지 시스템을 클릭한 다음 해당 팝업에서 스토리지 시스템 링크를 클릭합니다.
- 오브젝트 탭을 클릭합니다.
다음 메트릭은 오브젝트 대시보드에서 사용할 수 있습니다.
- 세부 정보 카드
이 카드는 다음 정보를 보여줍니다.
- 서비스 이름: MCG(Multicloud Object Gateway) 서비스 이름입니다.
- System Name: Multicloud Object Gateway 및 RADOS Object Gateway 시스템 이름입니다. Multicloud Object Gateway 시스템 이름은 MCG 관리 사용자 인터페이스에 대한 하이퍼링크이기도 합니다.
-
provider: 시스템이 실행되는 공급자의 이름(예:
AWS
,VSphere
, Baremetal의 경우None
) - 버전: OpenShift Data Foundation Operator 버전.
- 스토리지 효율성 카드
- 이 카드에서는 중복 제거 및 압축을 통해 MCG가 스토리지 백엔드 리소스의 소비를 최적화하고 계산된 효율성 비율(애플리케이션 데이터 대 논리 데이터)과 베어 메탈 및 클라우드 기반 스토리지의 용량에 따라 MCG가 스토리지 공급자에게 발송하지 않은 예상 절감 수치(MMG가 스토리지 공급자에게 발송하지 않은 바이트 수)를 제공하는 방법을 볼 수 있습니다.
- 버킷 카드
버킷은 애플리케이션을 대신하여 데이터를 저장하기 위해 MCG 및 RADOS Object Gateway에서 유지 관리하는 컨테이너입니다. 이러한 버킷은 OBC(오브젝트 버킷 클레임)를 통해 생성 및 액세스됩니다. 버킷에 특정 정책을 적용하여 데이터 배치, 데이터 분산, 데이터 복원력, 용량 할당량 등을 사용자 지정할 수 있습니다.
이 카드에서는 개체 버킷(OB) 및 오브젝트 버킷 클레임(OBC)에 대한 정보가 별도로 표시됩니다. OB에는 S3 또는 사용자 인터페이스(UI)를 사용하여 생성된 모든 버킷과 YAML 또는 CLI(명령줄 인터페이스)를 사용하여 생성된 모든 버킷이 포함되어 있습니다. 버킷 유형 왼쪽에 표시되는 수는 OB 또는 OBC의 총 수입니다. 오른쪽에 표시되는 숫자는 오류 수를 나타내며 오류 수가 0보다 큰 경우에만 표시됩니다. 번호를 클릭하면 경고 또는 오류 상태의 버킷 목록을 확인할 수 있습니다.
- 리소스 공급자 카드
- 이 카드에는 현재 사용 중인 모든 Multicloud Object Gateway 및 RADOS Object Gateway 리소스 목록이 표시됩니다. 이러한 리소스는 버킷 정책에 따라 데이터를 저장하는 데 사용되며 클라우드 기반 리소스 또는 베어 메탈 리소스일 수 있습니다.
- 상태 카드
이 카드는 시스템과 서비스가 문제없이 실행되고 있는지 여부를 보여줍니다. 시스템이 경고 또는 오류 상태에 있으면 경고 섹션이 표시되고 관련 경고가 표시됩니다. 문제에 대한 자세한 내용은 각 경고 옆에 있는 경고 링크를 클릭합니다. 상태 점검에 대한 자세한 내용은 클러스터 상태를 참조하십시오.
클러스터에서 여러 오브젝트 스토리지 서비스를 사용할 수 있는 경우 서비스 유형(예: 오브젝트 서비스 또는 데이터복원 )을 클릭하여 개별 서비스 상태를 확인합니다.
상태 카드의 데이터 복원력은 Multicloud Object Gateway 및 RADOS Object Gateway를 통해 저장된 데이터와 관련된 복원력 문제가 있는지 여부를 나타냅니다.
- 용량 분석 카드
- 이 카드에서는 Multicloud Object Gateway 및 RADOS Object Gateway를 통해 애플리케이션이 오브젝트 스토리지를 사용하는 방법을 시각화할 수 있습니다. 서비스 유형 드롭다운을 사용하여 Multicloud Gateway 및 Object Gateway에 대한 용량 분석을 별도로 볼 수 있습니다. Multicloud Object Gateway를 볼 때 Break By 드롭다운을 사용하여 프로젝트 또는 Bucket 클래스로 그래프의 결과를 필터링할 수 있습니다.
- 성능 카드
이 카드에서는 Multicloud Object Gateway 또는 RADOS Object Gateway의 성능을 볼 수 있습니다. 서비스 유형 드롭다운을 사용하여 보려는 항목을 선택합니다.
Multicloud Object Gateway 계정의 경우 I/O 작업 및 논리 사용된 용량을 볼 수 있습니다. 공급자의 경우 I/O 작업, 물리적 및 논리 사용량 및 송신을 볼 수 있습니다.
다음 표에서는 카드 맨 위에 있는 드롭다운 메뉴에서 선택한 내용에 따라 볼 수 있는 다양한 메트릭을 설명합니다.
표 3.1. Multicloud Object Gateway 지표 소비자 유형 지표 차트 표시 계정
I/O 작업
상위 5개 소비자에 대한 읽기 및 쓰기 I/O 작업을 표시합니다. 모든 소비자의 총 읽기 및 쓰기가 하단에 표시됩니다. 이 정보는 애플리케이션 또는 계정당 IOPS(처리 처리량 수요)를 모니터링하는 데 도움이 됩니다.
계정
논리 사용된 용량
상위 5명의 소비자에 대한 각 계정의 총 논리 사용량을 표시합니다. 이를 통해 애플리케이션 또는 계정당 처리량 수요를 모니터링할 수 있습니다.
공급자
I/O 작업
공급자가 호스팅하는 스토리지 백엔드에 액세스할 때 MCG에서 생성한 I/O 작업 수를 표시합니다. 이를 통해 I/O 패턴에 따라 리소스 할당을 개선하여 비용을 최적화할 수 있도록 클라우드의 트래픽을 이해하는 데 도움이 됩니다.
공급자
물리적 및 논리 사용량
물리적 사용량을 공급자당 논리 사용량과 비교하여 시스템의 데이터 사용량을 표시합니다. 이를 통해 사용 특성 및 성능 요구 사항에 따라 스토리지 리소스를 제어하고 배치 전략을 고안하는 동시에 비용을 최적화할 수 있습니다.
공급자
Egress
MCG가 각 공급자(애플리케이션으로 시작된 읽기 대역폭)에서 검색하는 데이터 양입니다. 이를 통해 송신 패턴에 따라 리소스 할당을 개선하여 클라우드의 트래픽을 파악하여 비용을 최적화할 수 있습니다.
RADOS Object Gateway의 경우 Metric 드롭다운을 사용하여 Latency 또는 Bandwidth 를 볼 수 있습니다.
- latency: RADOS Object Gateway 인스턴스에서 평균 GET/PUT 대기 시간 불균형을 시각적으로 표시합니다.
- bandwidth: RADOS Object Gateway 인스턴스에서 GET/PUT 대역폭 합계를 시각적으로 표시합니다.
- 활동 카드
이 카드에는 OpenShift Data Foundation 클러스터에서 발생하거나 최근에 발생한 활동이 표시됩니다. 카드는 두 섹션으로 구분됩니다.
- 지속적인: 데이터 복원력 및 OpenShift Data Foundation Operator의 업그레이드와 관련된 지속적인 작업의 진행 상황을 표시합니다.
-
recent Events:
openshift-storage
네임스페이스에서 발생한 이벤트 목록을 표시합니다.
3.3. 풀 지표
풀 메트릭 대시보드는 효율적인 데이터 소비를 보장하는 정보와 덜 효과적인 경우 압축을 활성화하거나 비활성화하는 방법을 제공합니다.
풀 메트릭 보기
풀 목록을 보려면 다음을 수행합니다.
- 스토리지 → 데이터 Foundation 을 클릭합니다.
- 스토리지 시스템 탭에서 스토리지 시스템을 선택한 다음 BlockPools 를 클릭합니다.
풀 이름을 클릭하면 각 풀 대시보드의 다음 카드가 배포 모드(내부 또는 외부)를 기반으로 메트릭과 함께 표시됩니다.
- 세부 정보 카드
세부 정보 카드는 다음을 보여줍니다.
- 풀 이름
- 볼륨 유형
- replicas
- 상태 카드
- 이 카드는 풀이 오류 없이 실행 중인지 또는 일부 문제가 발생하고 있는지 여부를 보여줍니다.
- 미러링 카드
미러링 옵션을 활성화하면 이 카드에 미러링 상태, 이미지 상태 및 마지막으로 확인된 time-stamp가 표시됩니다. 클러스터 수준 미러링이 활성화되면 미러링 메트릭이 표시됩니다. 메트릭은 재해 복구 실패를 방지하고 불일치를 확인하여 데이터가 그대로 유지됩니다.
미러링 카드는 다음과 같은 높은 수준의 정보를 표시합니다.
- 특정 풀에 대해 활성화 또는 비활성화됨으로 상태 미러링.
- 풀 아래의 모든 이미지 상태 복제 성공 여부를 나타냅니다.
- 복제 중이고 복제되지 않는 이미지의 백분율입니다.
- 인벤토리 카드
- 인벤토리 카드는 스토리지 클래스 및 영구 볼륨 클레임 수를 보여줍니다.
- 압축 카드
이 카드는 케이스가 될 수 있으므로 압축 상태를 활성화 또는 비활성화한 것으로 표시합니다. 다음과 같이 스토리지 효율성 세부 정보도 표시합니다.
- 압축 자격은 기록 압축 가능한 데이터의 어느 부분을 압축할 수 있는지( ceph 매개변수당)를 나타냅니다.
- 압축 가능한 데이터의 압축 비율
압축으로 비용 절감을 통해 압축 가능한 데이터의 총 비용 절감 (복제본 포함)을 제공합니다.
기존 풀의 압축을 활성화하거나 비활성화하는 방법에 대한 자세한 내용은 기존 풀 업데이트를 참조하십시오.
- 원시 용량 카드
이 카드는 클러스터에서 복제를 포함하는 총 원시 스토리지 용량을 보여줍니다.
-
사용된
범례는 풀에서 사용하는 스토리지 용량을 나타냅니다. -
사용 가능한
범례는 클러스터에서 사용 가능한 원시 스토리지 용량을 나타냅니다.
-
- 성능 카드
- 이 카드에서는 애플리케이션 또는 계정당 I/O 작업 및 처리량 수요를 볼 수 있습니다. 그래프는 인스턴스의 평균 대기 시간 또는 대역폭을 나타냅니다.
3.4. 네트워크 파일 시스템 지표
NFS(네트워크 파일 시스템) 지표 대시보드는 다음과 같은 NFS 마운트에 대한 향상된 관찰 기능을 제공합니다.
- 내보낸 NFS 공유의 마운트 지점
- 클라이언트 마운트 수
- 내부 클라이언트 마운트와 외부 클라이언트 마운트를 결정하는 데 도움이 되도록 연결된 클라이언트의 분석 통계
- Ganesha 서버의 유예 기간 상태
- Ganesha 서버의 상태
사전 요구 사항
- OpenShift Container Platform이 설치되어 있으며 OpenShift 웹 콘솔에 대한 관리 액세스 권한이 있습니다.
- NFS가 활성화되어 있는지 확인합니다.
프로세스
다음과 같이 OpenShift 웹 콘솔에서 네트워크 파일 시스템 대시보드로 이동할 수 있습니다.
- 스토리지 → 데이터 Foundation 을 클릭합니다.
- 개요 탭의 상태 카드에서 스토리지 시스템을 클릭한 다음 해당 팝업에서 스토리지 시스템 링크를 클릭합니다.
네트워크 파일 시스템 탭을 클릭합니다.
이 탭은 NFS가 활성화된 경우에만 사용할 수 있습니다.
명령줄 인터페이스에서 NFS를 활성화하거나 비활성화하는 경우 대시보드의 네트워크 파일 시스템 탭을 표시하거나 숨기려면 하드 새로 고침을 수행해야 합니다.
다음 NFS 지표가 표시됩니다.
- 상태 카드
- 이 카드는 활성 작업자 스레드의 총 수에 따라 서버의 상태를 표시합니다. 0이 아닌 스레드는 healthy 상태를 지정합니다.
- 처리량 카드
- 이 카드는 서버의 읽기 및 쓰기 작업 모두에 대한 총 요청 바이트와 총 응답 바이트의 요약인 서버의 처리량을 보여줍니다.
- 최상위 클라이언트 카드
- 이 카드는 클라이언트가 보낸 총 응답 바이트와 읽기 및 쓰기 작업 모두에 대해 클라이언트에서 총 요청 바이트를 요약하는 클라이언트의 처리량을 보여줍니다. 이러한 고객 중 상위 세 가지를 보여줍니다.
3.5. RBD 및 CephFS 볼륨에서 메타데이터 활성화
모니터링을 위해 RADOS 블록 장치(RBD) 및 CephFS 볼륨에서 PVC(영구 볼륨 클레임), PV(영구 볼륨) 및 네임스페이스 이름을 설정할 수 있습니다. 이를 통해 RBD 및 CephFS 메타데이터를 읽고 OpenShift Container Platform과 RBD 및 CephFS 볼륨 간의 매핑을 식별할 수 있습니다.
RADOS 블록 장치(RBD) 및 CephFS 볼륨 메타데이터 기능을 활성화하려면 rook-ceph-operator-config
configmap
에서 CSI_ENABLE_METADATA
변수를 설정해야 합니다. 이 기능은 기본적으로 비활성화되어 있습니다. 이전 버전에서 업그레이드한 후 기능을 활성화하면 기존 PVC에 메타데이터가 포함되지 않습니다. 또한 메타데이터 기능을 활성화하면 활성화하기 전에 생성된 PVC에 메타데이터가 없습니다.
사전 요구 사항
-
ocs_operator
를 설치하고 Operator의storagecluster
를 생성해야 합니다. storagecluster
가Ready
상태인지 확인합니다.$ oc get storagecluster NAME AGE PHASE EXTERNAL CREATED AT VERSION ocs-storagecluster 57m Ready 2022-08-30T06:52:58Z 4.12.0
프로세스
rook-ceph
OperatorConfigMap
을 편집하여CSI_ENABLE_METADATA
를true
로 표시합니다.$ oc patch cm rook-ceph-operator-config -n openshift-storage -p $'data:\n "CSI_ENABLE_METADATA": "true"' configmap/rook-ceph-operator-config patched
해당 CSI CephFS 플러그인 프로비저너 Pod 및 CSI RBD 플러그인 pod가
Running
상태가 될 때까지 기다립니다.참고메타데이터 기능이 활성화된 후
setmetadata
변수가 자동으로 설정되었는지 확인합니다. 메타데이터 기능이 비활성화되면 이 변수를 사용할 수 없어야 합니다.$ oc get pods | grep csi csi-cephfsplugin-b8d6c 2/2 Running 0 56m csi-cephfsplugin-bnbg9 2/2 Running 0 56m csi-cephfsplugin-kqdw4 2/2 Running 0 56m csi-cephfsplugin-provisioner-7dcd78bb9b-q6dxb 5/5 Running 0 56m csi-cephfsplugin-provisioner-7dcd78bb9b-zc4q5 5/5 Running 0 56m csi-rbdplugin-776dl 3/3 Running 0 56m csi-rbdplugin-ffl52 3/3 Running 0 56m csi-rbdplugin-jx9mz 3/3 Running 0 56m csi-rbdplugin-provisioner-5f6d766b6c-694fx 6/6 Running 0 56m csi-rbdplugin-provisioner-5f6d766b6c-vzv45 6/6 Running 0 56m
검증 단계
RBD PVC의 메타데이터를 확인하려면 다음을 수행합니다.
PVC를 생성합니다.
$ cat <<EOF | oc create -f - apiVersion: v1 kind: PersistentVolumeClaim metadata: name: rbd-pvc spec: accessModes: - ReadWriteOnce resources: requests: storage: 1Gi storageClassName: ocs-storagecluster-ceph-rbd EOF
PVC 상태를 확인합니다.
$ oc get pvc | grep rbd-pvc rbd-pvc Bound pvc-30628fa8-2966-499c-832d-a6a3a8ebc594 1Gi RWO ocs-storagecluster-ceph-rbd 32s
Red Hat Ceph Storage CLI(명령줄 인터페이스)에서 메타데이터를 확인합니다.
Red Hat Ceph Storage CLI에 액세스하는 방법에 대한 자세한 내용은 Red Hat OpenShift Data Foundation 환경에서 Red Hat Ceph Storage CLI에 액세스하는 방법 문서를 참조하십시오.
[sh-4.x]$ rbd ls ocs-storagecluster-cephblockpool csi-vol-7d67bfad-2842-11ed-94bd-0a580a830012 csi-vol-ed5ce27b-2842-11ed-94bd-0a580a830012 [sh-4.x]$ rbd image-meta ls ocs-storagecluster-cephblockpool/csi-vol-ed5ce27b-2842-11ed-94bd-0a580a830012
이 이미지에는 다음과 같은 네 가지 메타데이터가 있습니다.
Key Value csi.ceph.com/cluster/name 6cd7a18d-7363-4830-ad5c-f7b96927f026 csi.storage.k8s.io/pv/name pvc-30628fa8-2966-499c-832d-a6a3a8ebc594 csi.storage.k8s.io/pvc/name rbd-pvc csi.storage.k8s.io/pvc/namespace openshift-storage
RBD 복제본의 메타데이터를 확인하려면 다음을 수행합니다.
복제본을 생성합니다.
$ cat <<EOF | oc create -f - apiVersion: v1 kind: PersistentVolumeClaim metadata: name: rbd-pvc-clone spec: storageClassName: ocs-storagecluster-ceph-rbd dataSource: name: rbd-pvc kind: PersistentVolumeClaim accessModes: - ReadWriteOnce resources: requests: storage: 1Gi EOF
복제 상태를 확인합니다.
$ oc get pvc | grep rbd-pvc rbd-pvc Bound pvc-30628fa8-2966-499c-832d-a6a3a8ebc594 1Gi RWO ocs-storagecluster-ceph-rbd 15m rbd-pvc-clone Bound pvc-0d72afda-f433-4d46-a7f1-a5fcb3d766e0 1Gi RWO ocs-storagecluster-ceph-rbd 52s
Red Hat Ceph Storage CLI(명령줄 인터페이스)에서 메타데이터를 확인합니다.
Red Hat Ceph Storage CLI에 액세스하는 방법에 대한 자세한 내용은 Red Hat OpenShift Data Foundation 환경에서 Red Hat Ceph Storage CLI에 액세스하는 방법 문서를 참조하십시오.
[sh-4.x]$ rbd ls ocs-storagecluster-cephblockpool csi-vol-063b982d-2845-11ed-94bd-0a580a830012 csi-vol-063b982d-2845-11ed-94bd-0a580a830012-temp csi-vol-7d67bfad-2842-11ed-94bd-0a580a830012 csi-vol-ed5ce27b-2842-11ed-94bd-0a580a830012 [sh-4.x]$ rbd image-meta ls ocs-storagecluster-cephblockpool/csi-vol-063b982d-2845-11ed-94bd-0a580a830012 There are 4 metadata on this image: Key Value csi.ceph.com/cluster/name 6cd7a18d-7363-4830-ad5c-f7b96927f026 csi.storage.k8s.io/pv/name pvc-0d72afda-f433-4d46-a7f1-a5fcb3d766e0 csi.storage.k8s.io/pvc/name rbd-pvc-clone csi.storage.k8s.io/pvc/namespace openshift-storage
RBD 스냅샷의 메타데이터를 확인하려면 다음을 수행합니다.
스냅샷을 생성합니다.
$ cat <<EOF | oc create -f - apiVersion: snapshot.storage.k8s.io/v1 kind: VolumeSnapshot metadata: name: rbd-pvc-snapshot spec: volumeSnapshotClassName: ocs-storagecluster-rbdplugin-snapclass source: persistentVolumeClaimName: rbd-pvc EOF volumesnapshot.snapshot.storage.k8s.io/rbd-pvc-snapshot created
스냅샷 상태를 확인합니다.
$ oc get volumesnapshot NAME READYTOUSE SOURCEPVC SOURCESNAPSHOTCONTENT RESTORESIZE SNAPSHOTCLASS SNAPSHOTCONTENT CREATIONTIME AGE rbd-pvc-snapshot true rbd-pvc 1Gi ocs-storagecluster-rbdplugin-snapclass snapcontent-b992b782-7174-4101-8fe3-e6e478eb2c8f 17s 18s
Red Hat Ceph Storage CLI(명령줄 인터페이스)에서 메타데이터를 확인합니다.
Red Hat Ceph Storage CLI에 액세스하는 방법에 대한 자세한 내용은 Red Hat OpenShift Data Foundation 환경에서 Red Hat Ceph Storage CLI에 액세스하는 방법 문서를 참조하십시오.
[sh-4.x]$ rbd ls ocs-storagecluster-cephblockpool csi-snap-a1e24408-2848-11ed-94bd-0a580a830012 csi-vol-063b982d-2845-11ed-94bd-0a580a830012 csi-vol-063b982d-2845-11ed-94bd-0a580a830012-temp csi-vol-7d67bfad-2842-11ed-94bd-0a580a830012 csi-vol-ed5ce27b-2842-11ed-94bd-0a580a830012 [sh-4.x]$ rbd image-meta ls ocs-storagecluster-cephblockpool/csi-snap-a1e24408-2848-11ed-94bd-0a580a830012 There are 4 metadata on this image: Key Value csi.ceph.com/cluster/name 6cd7a18d-7363-4830-ad5c-f7b96927f026 csi.storage.k8s.io/volumesnapshot/name rbd-pvc-snapshot csi.storage.k8s.io/volumesnapshot/namespace openshift-storage csi.storage.k8s.io/volumesnapshotcontent/name snapcontent-b992b782-7174-4101-8fe3-e6e478eb2c8f
RBD 복원의 메타데이터를 확인합니다.
볼륨 스냅샷을 복원합니다.
$ cat <<EOF | oc create -f - apiVersion: v1 kind: PersistentVolumeClaim metadata: name: rbd-pvc-restore spec: storageClassName: ocs-storagecluster-ceph-rbd dataSource: name: rbd-pvc-snapshot kind: VolumeSnapshot apiGroup: snapshot.storage.k8s.io accessModes: - ReadWriteOnce resources: requests: storage: 1Gi EOF persistentvolumeclaim/rbd-pvc-restore created
복원된 볼륨 스냅샷의 상태를 확인합니다.
$ oc get pvc | grep rbd db-noobaa-db-pg-0 Bound pvc-615e2027-78cd-4ea2-a341-fdedd50c5208 50Gi RWO ocs-storagecluster-ceph-rbd 51m rbd-pvc Bound pvc-30628fa8-2966-499c-832d-a6a3a8ebc594 1Gi RWO ocs-storagecluster-ceph-rbd 47m rbd-pvc-clone Bound pvc-0d72afda-f433-4d46-a7f1-a5fcb3d766e0 1Gi RWO ocs-storagecluster-ceph-rbd 32m rbd-pvc-restore Bound pvc-f900e19b-3924-485c-bb47-01b84c559034 1Gi RWO ocs-storagecluster-ceph-rbd 111s
Red Hat Ceph Storage CLI(명령줄 인터페이스)에서 메타데이터를 확인합니다.
Red Hat Ceph Storage CLI에 액세스하는 방법에 대한 자세한 내용은 Red Hat OpenShift Data Foundation 환경에서 Red Hat Ceph Storage CLI에 액세스하는 방법 문서를 참조하십시오.
[sh-4.x]$ rbd ls ocs-storagecluster-cephblockpool csi-snap-a1e24408-2848-11ed-94bd-0a580a830012 csi-vol-063b982d-2845-11ed-94bd-0a580a830012 csi-vol-063b982d-2845-11ed-94bd-0a580a830012-temp csi-vol-5f6e0737-2849-11ed-94bd-0a580a830012 csi-vol-7d67bfad-2842-11ed-94bd-0a580a830012 csi-vol-ed5ce27b-2842-11ed-94bd-0a580a830012 [sh-4.x]$ rbd image-meta ls ocs-storagecluster-cephblockpool/csi-vol-5f6e0737-2849-11ed-94bd-0a580a830012 There are 4 metadata on this image: Key Value csi.ceph.com/cluster/name 6cd7a18d-7363-4830-ad5c-f7b96927f026 csi.storage.k8s.io/pv/name pvc-f900e19b-3924-485c-bb47-01b84c559034 csi.storage.k8s.io/pvc/name rbd-pvc-restore csi.storage.k8s.io/pvc/namespace openshift-storage
CephFS PVC의 메타데이터를 확인하려면 다음을 수행합니다.
PVC를 생성합니다.
cat <<EOF | oc create -f - apiVersion: v1 kind: PersistentVolumeClaim metadata: name: cephfs-pvc spec: accessModes: - ReadWriteOnce resources: requests: storage: 1Gi storageClassName: ocs-storagecluster-cephfs EOF
PVC 상태를 확인합니다.
oc get pvc | grep cephfs cephfs-pvc Bound pvc-4151128c-86f0-468b-b6e7-5fdfb51ba1b9 1Gi RWO ocs-storagecluster-cephfs 11s
Red Hat Ceph Storage CLI(명령줄 인터페이스)에서 메타데이터를 확인합니다.
Red Hat Ceph Storage CLI에 액세스하는 방법에 대한 자세한 내용은 Red Hat OpenShift Data Foundation 환경에서 Red Hat Ceph Storage CLI에 액세스하는 방법 문서를 참조하십시오.
$ ceph fs volume ls [ { "name": "ocs-storagecluster-cephfilesystem" } ] $ ceph fs subvolumegroup ls ocs-storagecluster-cephfilesystem [ { "name": "csi" } ] $ ceph fs subvolume ls ocs-storagecluster-cephfilesystem --group_name csi [ { "name": "csi-vol-25266061-284c-11ed-95e0-0a580a810215" } ] $ ceph fs subvolume metadata ls ocs-storagecluster-cephfilesystem csi-vol-25266061-284c-11ed-95e0-0a580a810215 --group_name=csi --format=json { "csi.ceph.com/cluster/name": "6cd7a18d-7363-4830-ad5c-f7b96927f026", "csi.storage.k8s.io/pv/name": "pvc-4151128c-86f0-468b-b6e7-5fdfb51ba1b9", "csi.storage.k8s.io/pvc/name": "cephfs-pvc", "csi.storage.k8s.io/pvc/namespace": "openshift-storage" }
CephFS 복제의 메타데이터를 확인하려면 다음을 수행합니다.
복제본을 생성합니다.
$ cat <<EOF | oc create -f - apiVersion: v1 kind: PersistentVolumeClaim metadata: name: cephfs-pvc-clone spec: storageClassName: ocs-storagecluster-cephfs dataSource: name: cephfs-pvc kind: PersistentVolumeClaim accessModes: - ReadWriteMany resources: requests: storage: 1Gi EOF persistentvolumeclaim/cephfs-pvc-clone created
복제 상태를 확인합니다.
$ oc get pvc | grep cephfs cephfs-pvc Bound pvc-4151128c-86f0-468b-b6e7-5fdfb51ba1b9 1Gi RWO ocs-storagecluster-cephfs 9m5s cephfs-pvc-clone Bound pvc-3d4c4e78-f7d5-456a-aa6e-4da4a05ca4ce 1Gi RWX ocs-storagecluster-cephfs 20s
Red Hat Ceph Storage CLI(명령줄 인터페이스)에서 메타데이터를 확인합니다.
Red Hat Ceph Storage CLI에 액세스하는 방법에 대한 자세한 내용은 Red Hat OpenShift Data Foundation 환경에서 Red Hat Ceph Storage CLI에 액세스하는 방법 문서를 참조하십시오.
[rook@rook-ceph-tools-c99fd8dfc-6sdbg /]$ ceph fs subvolume ls ocs-storagecluster-cephfilesystem --group_name csi [ { "name": "csi-vol-5ea23eb0-284d-11ed-95e0-0a580a810215" }, { "name": "csi-vol-25266061-284c-11ed-95e0-0a580a810215" } ] [rook@rook-ceph-tools-c99fd8dfc-6sdbg /]$ ceph fs subvolume metadata ls ocs-storagecluster-cephfilesystem csi-vol-5ea23eb0-284d-11ed-95e0-0a580a810215 --group_name=csi --format=json { "csi.ceph.com/cluster/name": "6cd7a18d-7363-4830-ad5c-f7b96927f026", "csi.storage.k8s.io/pv/name": "pvc-3d4c4e78-f7d5-456a-aa6e-4da4a05ca4ce", "csi.storage.k8s.io/pvc/name": "cephfs-pvc-clone", "csi.storage.k8s.io/pvc/namespace": "openshift-storage" }
CephFS 볼륨 스냅샷의 메타데이터를 확인하려면 다음을 수행합니다.
볼륨 스냅샷을 생성합니다.
$ cat <<EOF | oc create -f - apiVersion: snapshot.storage.k8s.io/v1 kind: VolumeSnapshot metadata: name: cephfs-pvc-snapshot spec: volumeSnapshotClassName: ocs-storagecluster-cephfsplugin-snapclass source: persistentVolumeClaimName: cephfs-pvc EOF volumesnapshot.snapshot.storage.k8s.io/cephfs-pvc-snapshot created
볼륨 스냅샷의 상태를 확인합니다.
$ oc get volumesnapshot NAME READYTOUSE SOURCEPVC SOURCESNAPSHOTCONTENT RESTORESIZE SNAPSHOTCLASS SNAPSHOTCONTENT CREATIONTIME AGE cephfs-pvc-snapshot true cephfs-pvc 1Gi ocs-storagecluster-cephfsplugin-snapclass snapcontent-f0f17463-d13b-4e13-b44e-6340bbb3bee0 9s 9s
Red Hat Ceph Storage CLI(명령줄 인터페이스)에서 메타데이터를 확인합니다.
Red Hat Ceph Storage CLI에 액세스하는 방법에 대한 자세한 내용은 Red Hat OpenShift Data Foundation 환경에서 Red Hat Ceph Storage CLI에 액세스하는 방법 문서를 참조하십시오.
$ ceph fs subvolume snapshot ls ocs-storagecluster-cephfilesystem csi-vol-25266061-284c-11ed-95e0-0a580a810215 --group_name csi [ { "name": "csi-snap-06336f4e-284e-11ed-95e0-0a580a810215" } ] $ ceph fs subvolume snapshot metadata ls ocs-storagecluster-cephfilesystem csi-vol-25266061-284c-11ed-95e0-0a580a810215 csi-snap-06336f4e-284e-11ed-95e0-0a580a810215 --group_name=csi --format=json { "csi.ceph.com/cluster/name": "6cd7a18d-7363-4830-ad5c-f7b96927f026", "csi.storage.k8s.io/volumesnapshot/name": "cephfs-pvc-snapshot", "csi.storage.k8s.io/volumesnapshot/namespace": "openshift-storage", "csi.storage.k8s.io/volumesnapshotcontent/name": "snapcontent-f0f17463-d13b-4e13-b44e-6340bbb3bee0" }
CephFS 복원의 메타데이터를 확인하려면 다음을 수행합니다.
볼륨 스냅샷을 복원합니다.
$ cat <<EOF | oc create -f - apiVersion: v1 kind: PersistentVolumeClaim metadata: name: cephfs-pvc-restore spec: storageClassName: ocs-storagecluster-cephfs dataSource: name: cephfs-pvc-snapshot kind: VolumeSnapshot apiGroup: snapshot.storage.k8s.io accessModes: - ReadWriteMany resources: requests: storage: 1Gi EOF persistentvolumeclaim/cephfs-pvc-restore created
복원된 볼륨 스냅샷의 상태를 확인합니다.
$ oc get pvc | grep cephfs cephfs-pvc Bound pvc-4151128c-86f0-468b-b6e7-5fdfb51ba1b9 1Gi RWO ocs-storagecluster-cephfs 29m cephfs-pvc-clone Bound pvc-3d4c4e78-f7d5-456a-aa6e-4da4a05ca4ce 1Gi RWX ocs-storagecluster-cephfs 20m cephfs-pvc-restore Bound pvc-43d55ea1-95c0-42c8-8616-4ee70b504445 1Gi RWX ocs-storagecluster-cephfs 21s
Red Hat Ceph Storage CLI(명령줄 인터페이스)에서 메타데이터를 확인합니다.
Red Hat Ceph Storage CLI에 액세스하는 방법에 대한 자세한 내용은 Red Hat OpenShift Data Foundation 환경에서 Red Hat Ceph Storage CLI에 액세스하는 방법 문서를 참조하십시오.
$ ceph fs subvolume ls ocs-storagecluster-cephfilesystem --group_name csi [ { "name": "csi-vol-3536db13-2850-11ed-95e0-0a580a810215" }, { "name": "csi-vol-5ea23eb0-284d-11ed-95e0-0a580a810215" }, { "name": "csi-vol-25266061-284c-11ed-95e0-0a580a810215" } ] $ ceph fs subvolume metadata ls ocs-storagecluster-cephfilesystem csi-vol-3536db13-2850-11ed-95e0-0a580a810215 --group_name=csi --format=json { "csi.ceph.com/cluster/name": "6cd7a18d-7363-4830-ad5c-f7b96927f026", "csi.storage.k8s.io/pv/name": "pvc-43d55ea1-95c0-42c8-8616-4ee70b504445", "csi.storage.k8s.io/pvc/name": "cephfs-pvc-restore", "csi.storage.k8s.io/pvc/namespace": "openshift-storage" }
4장. 경고
4.1. 경고 설정
내부 모드 클러스터의 경우 스토리지 메트릭 서비스, 스토리지 클러스터, 디스크 장치, 클러스터 상태, 클러스터 용량과 관련된 다양한 경고가 블록 및 파일 및 오브젝트 대시보드에 표시됩니다. 이러한 경고는 외부 모드에서 사용할 수 없습니다.
이 패널에 경고만 표시되므로 경고 패널에 경고가 표시되는 데 몇 분이 걸릴 수 있습니다.
추가 세부 정보가 있는 경고를 보고 OpenShift Container Platform의 경고 표시를 사용자 지정할 수도 있습니다.
자세한 내용은 경고 관리를 참조하십시오.
5장. 원격 상태 모니터링
OpenShift Data Foundation은 클러스터의 상태, 사용량 및 크기에 대한 익명화된 집계 정보를 수집하여 Telemetry라는 통합 구성 요소를 통해 Red Hat에 보고합니다. Red Hat은 이러한 정보를 통해 OpenShift Data Foundation을 개선하고 고객에게 더 빠르게 영향을 미치는 문제에 대응할 수 있습니다.
Telemetry를 통해 Red Hat에 데이터를 보고하는 클러스터는 연결된 클러스터로 간주됩니다.
5.1. Telemetry 정보
Telemetry는 엄선된 클러스터 모니터링 지표의 일부를 Red Hat으로 보냅니다. 이러한 지표는 지속적으로 전송되며 다음에 대해 설명합니다.
- OpenShift Data Foundation 클러스터의 크기
- OpenShift Data Foundation 구성 요소의 상태
- 수행 중인 업그레이드의 상태
- OpenShift Data Foundation 구성 요소 및 기능에 대한 제한된 사용 정보
- 클러스터 모니터링 구성 요소에서 보고한 경보에 대한 요약 정보
Red Hat은 지속적인 데이터 스트림을 사용하여 클러스터의 상태를 실시간으로 모니터링하고 필요에 따라 고객에게 영향을 미치는 문제에 대응합니다. 또한 Red Hat은 OpenShift Data Foundation 업그레이드를 고객에게 제공하여 서비스 영향을 최소화하고 지속적으로 업그레이드 환경을 개선할 수 있습니다.
이러한 디버깅 정보는 지원 사례를 통해 보고된 데이터에 액세스하는 것과 동일한 제한 사항이 있는 Red Hat 지원 및 엔지니어링 팀에게 제공됩니다. Red Hat은 연결된 모든 클러스터 정보를 사용하여 OpenShift Data Foundation을 개선하고 보다 직관적으로 사용할 수 있도록 지원합니다. 이 모든 정보는 타사와 공유하지 않습니다.
5.2. Telemetry에서 수집하는 정보
Telemetry에서 수집하는 기본 정보는 다음과 같습니다.
-
Ceph 클러스터의 크기(바이트) :
"ceph_cluster_total_bytes"
-
바이트 단위로 사용되는 Ceph 클러스터 스토리지의 양:
"ceph_cluster_total_used_raw_bytes"
, -
Ceph 클러스터 상태 :
"ceph_health_status"
, -
총 오브젝트 스토리지 장치(OSD) :
"job:ceph_osd_metadata:count"
, -
Red Hat OpenShift Container Platform 클러스터에 있는 총 OpenShift Data Foundation PV(영구 볼륨) 수 :
"job:kube_pv:count"
, -
Ceph 클러스터의 모든 풀에 대한 초당 총 입력/출력 작업 (reads+writes) 값 :
"job:ceph_pools_iops:total"
, -
Ceph 클러스터의 모든 풀에 대한 총 IOPS(reads+writes) 값 바이트:
"job:ceph_pools_iops_bytes:total"
, -
실행 중인 Ceph 클러스터 버전의 총 수 :
"job:ceph_versions_running:count"
-
비정상적인 NooBaa 버킷의 총 수 :
"job:noobaa_total_unhealthy_buckets:sum"
, -
총 NooBaa 버킷 수 :
"job:noobaa_bucket_count:sum"
, -
총 NooBaa 오브젝트 수 :
"job:noobaa_total_object_count:sum"
, -
NooBaa 계정 수 :
"noobaa_accounts_num"
, -
바이트로 NooBaa의 스토리지의 총 사용량 :
"noobaa_total_usage"
, -
특정 스토리지 프로비저너의 PVC(영구 볼륨 클레임)에서 요청한 총 스토리지 양(바이트)입니다.
"cluster:kube_persistentvolumeclaim_resource_requests_storage_bytes:provisioner:sum"
, -
특정 스토리지 프로비저너의 PVC에서 사용하는 총 스토리지 용량('
cluster:kubelet_volume_stats_used_bytes:provisioner:sum"
.
Telemetry에서는 사용자 이름, 암호, 사용자 리소스의 이름 또는 주소와 같은 식별 정보를 수집하지 않습니다.