부록 B. Ceph 클러스터의 상태 메시지


Red Hat Ceph Storage 클러스터에서 발생할 수 있는 한정된 상태 메시지 세트가 있습니다. 이러한 값은 고유 식별자가 있는 상태 점검으로 정의됩니다. 식별자는 도구에서 상태 점검을 감지하고 의미를 반영하는 방식으로 제시할 수 있도록 설계된 terse pseudo-human-readable 문자열입니다.

표 B.1. 모니터
상태 코드설명

DAEMON_OLD_VERSION

이전 버전의 Ceph가 모든 데몬에서 실행 중인 경우 경고합니다. 여러 버전이 감지되면 상태 오류가 발생합니다.

MON_DOWN

현재 하나 이상의 Ceph Monitor 데몬이 다운되었습니다.

MON_CLOCK_SKEW

ceph-mon 데몬을 실행하는 노드의 클럭은 잘 동기화되지 않습니다. ECDHE 또는 chrony 를 사용하여 시계를 동기화하여 문제를 해결합니다.

MON_MSGR2_NOT_ENABLED

ms_bind_msgr2 옵션은 활성화되어 있지만 하나 이상의 Ceph Monitors는 클러스터의 monmap에서 v2 포트에 바인딩하도록 구성되지 않습니다. ceph mon enable-msgr2 명령을 실행하여 이 문제를 해결합니다.

MON_DISK_LOW

디스크 공간에서 하나 이상의 Ceph 모니터가 낮습니다.

MON_DISK_CRIT

디스크 공간에서는 하나 이상의 Ceph 모니터가 매우 낮습니다.

MON_DISK_BIG

하나 이상의 Ceph 모니터의 데이터베이스 크기는 매우 큽니다.

AUTH_INSECURE_GLOBAL_ID_RECLAIM

Ceph Monitor에 다시 연결할 때 global_id 를 안전하게 회수하지 않는 하나 이상의 클라이언트 또는 데몬이 스토리지 클러스터에 연결됩니다.

AUTH_INSECURE_GLOBAL_ID_RECLAIM_ALLOWED

현재는 auth_allow_insecure_ global_id _reclaim 설정이 true 로 설정되었기 때문에 비보안 프로세스를 사용하여 클라이언트가 모니터에 다시 연결할 수 있도록 구성되어 있습니다.

표 B.2. 관리자
상태 코드설명

MGR_DOWN

현재 모든 Ceph Manager 데몬이 다운되었습니다.

MGR_MODULE_DEPENDENCY

활성화된 Ceph Manager 모듈이 종속성 확인에 실패했습니다.

MGR_MODULE_ERROR

Ceph Manager 모듈에서 예기치 않은 오류가 발생했습니다. 일반적으로 이는 모듈 서비스 함수에서 처리되지 않은 예외가 발생했음을 의미합니다.

표 B.3. OSDs
상태 코드설명

OSD_DOWN

하나 이상의 OSD가 아래로 표시됩니다.

OSD_CRUSH_TYPE_DOWN

특정 subtree 내의 모든 OSD가 다운됨(예: 호스트의 모든 OSD)이 표시됩니다. 예를 들어 OSD_HOST_DOWN 및 OSD_ROOT_DOWN

OSD_ORPHAN

OSD는 map 계층 구조에서 참조되지만 존재하지 않습니다. ceph osd crush rm osd._OSD_ID 명령을 실행하여 OSD를 제거합니다.

OSD_OUT_OF_ORDER_FULL

nearfull,backfillfull, full , or, failsafefull 에 대한 사용률 임계값은 true입니다. ceph osd set-nearfull-ratio RATIO, ceph osd set-backfillfull-ratio RATIOceph osd set-full-ratio RATIO 를 실행하여 임계값을 조정합니다.

OSD_FULL

하나 이상의 OSD가 전체 임계값을 초과하여 스토리지 클러스터가 쓰기를 서비스하지 못하도록 합니다. 작은 마진 ceph osd set-full-ratio RATIO 로 전체 임계값을 높여 쓰기 가용성을 복원합니다.

OSD_BACKFILLFULL

하나 이상의 OSD가 백필 전체 임계값을 초과하여 이 장치로 데이터를 재조정할 수 없습니다.

OSD_NEARFULL

하나 이상의 OSD가 nearfull 임계값을 초과했습니다.

OSDMAP_FLAGS

하나 이상의 스토리지 클러스터 플래그가 설정되었습니다. 이러한 플래그에는 전체,pauserd,pausewr,noup,no in ,noin,no in ,nobackfill,norecover,norebalance,nodeep_scrub,nodeep_scrub, notieragent 가 포함됩니다. 전체 플래그를 제외하고 ceph osd setECDHEAG 및 ceph osd unsetECDHE AG 명령을 사용하여 플래그를 지울 있습니다.

OSD_FLAGS

하나 이상의 OSD 또는ECDHE에는 관심 플래그가 있습니다. 이러한 플래그에는 noup,nodown,noin, noout 가 포함됩니다.

OLD_CRUSH_TUNABLES

ECDHE 맵은 매우 오래된 설정을 사용하고 있으며 업데이트해야 합니다.

OLD_CRUSH_STRAW_CALC_VERSION

DestinationRule 맵은 straw 버킷에 대한 중간 가중치 값을 계산하기 위해 최적화되지 않은 이전 방법을 사용하고 있습니다.

CACHE_POOL_NO_HIT_SET

사용률을 추적하기 위해 하나 이상의 캐시 풀이 구성되지 않아 계층화 에이전트가 캐시에서 플러시하고 제거할 수 있는 콜드 오브젝트를 식별할 수 없습니다. ceph osd pool set_POOL_NAME_ hit_set_type TYPE, ceph osd pool set POOL_NAME hit_set_period PERIOD_IN_SECONDS, ceph osd pool set POOL_ NAME hit_set_NAME hit_set_count NUMBER_HIT_SETS, . 및 ceph osd pool set POOL_NAME hit_set_fpp TARGET_FALSE_POSITIVE_RATE 명령

OSD_NO_SORTBITWISE

sortbit flag 가 설정되지 않았습니다. ceph osd set sortbitECDHE 명령을 사용하여 플래그를 설정합니다.

POOL_FULL

하나 이상의 풀이 할당량에 도달했으며 더 이상 쓰기를 허용하지 않습니다. ceph osd pool set-quota POOL_NAME max_objects NUMBER_OF_OBJECTSceph osd 풀 set-quota POOL_NAME max_bytes BYTES 를 사용하여 풀 할당량을 늘리거나, 사용률을 줄이기 위해 기존 데이터를 삭제합니다.

BLUEFS_SPILLOVER

BlueStore 백엔드를 사용하는 하나 이상의 OSD는 db 파티션이 할당되지만 해당 공간이 채워져 메타데이터가 정상적인 느린 장치에 "사용"되었습니다. ceph config set osd bluestore_warn_on_bluefs_spillover false 명령을 사용하여 이 작업을 비활성화합니다.

BLUEFS_AVAILABLE_SPACE

이 출력에서는 BDEV_DB 무료 ,BDEV_SLOW 무료available_ from_bluestore 의 세 가지 값을 제공합니다.

BLUEFS_LOW_SPACE

사용 가능한 여유 공간에 BlueStore File System (BlueFS)이 부족하고 available_from_bluestore 가 거의 없는 경우 BlueFS 할당 단위 크기를 줄일 수 있습니다.

BLUESTORE_FRAGMENTATION

BlueStore는 기본 스토리지에서 사용 가능한 공간을 조각화할 수 있습니다. 이는 정상적이고 피할 수 없지만 과도한 조각화로 인해 속도가 느려집니다.

BLUESTORE_LEGACY_STATFS

Bluestore는 내부 사용량 통계를 풀당 세분화하여 추적하고 하나 이상의 OSD에는 BlueStore 볼륨이 있습니다. ceph config set global bluestore_warn_on_legacy_statfs false 명령을 사용하여 경고를 비활성화합니다.

BLUESTORE_NO_PER_POOL_OMAP

Bluestore는 풀로 omap 공간 사용률을 추적합니다. ceph config set global bluestore_warn_on_no_per_pool_omap false 명령을 사용하여 경고를 비활성화합니다.

BLUESTORE_NO_PER_PG_OMAP

Bluestore는 PG로 omap 공간 사용률을 추적합니다. ceph config set global bluestore_warn_on_no_per_pg_omap false 명령을 사용하여 경고를 비활성화합니다.

BLUESTORE_DISK_SIZE_MISMATCH

BlueStore를 사용하는 하나 이상의 OSD는 물리적 장치의 크기와 해당 크기를 추적하는 메타데이터 사이에 내부 불일치가 있습니다.

BLUESTORE_NO_COMPRESSION `

BlueStore 압축 플러그인을 로드할 수 없는 OSD 하나 이상 이는 ceph-osd 바이너리가 압축 플러그인과 일치하지 않는 설치 또는 ceph-osd 데몬 재시작이 포함되지 않은 최근 업그레이드로 인해 발생할 수 있습니다.

BLUESTORE_SPURIOUS_READ_ERRORS

BlueStore를 사용하는 하나 이상의 OSD는 기본 장치에서 잘못된 읽기 오류를 감지합니다. Bluestore는 디스크 읽기를 다시 시도하여 이러한 오류에서 복구되었습니다.

표 B.4. 장치 상태
상태 코드설명

DEVICE_HEALTH

하나 이상의 장치가 곧 실패할 것으로 예상됩니다. 여기서 경고 임계값은 mgr/devicehealth/warn_threshold 설정 옵션에 의해 제어됩니다. 장치를 표시 하여 데이터를 마이그레이션하고 하드웨어를 교체합니다.

DEVICE_HEALTH_IN_USE

하나 이상의 장치가 곧 실패할 것으로 예상되며 mgr/devicehealth/mark_out_threshold 를 기반으로 스토리지 클러스터의 "아웃"으로 표시되지만 여전히 하나의 PG에 참여하고 있습니다.

DEVICE_HEALTH_TOOMANY

곧 너무 많은 장치가 실패할 것으로 예상되고 mgr/devicehealth/self_heal 동작이 활성화되므로 실링 장치를 모두 표시하면 너무 많은 OSD가 자동으로 표시되지 않게 하는 클러스터 mon_osd_min_in_ratio 비율 초과합니다.

표 B.5. 풀 및 배치 그룹
상태 코드설명

PG_AVAILABILITY

데이터 가용성이 감소합니다. 즉, 스토리지 클러스터가 클러스터의 일부 데이터에 대한 잠재적인 읽기 또는 쓰기 요청을 처리할 수 없습니다.

PG_DEGRADED

일부 데이터에 대해 데이터 중복성이 감소합니다. 즉, 스토리지 클러스터에 복제된 풀 또는 배경 코드 조각에 대해 원하는 복제본 수가 없습니다.

PG_RECOVERY_FULL

스토리지 클러스터에서 사용 가능한 공간 부족, 특히 하나 이상의 PG에 recovery_too full 플래그가 설정되어 있기 때문에 데이터 중복이 감소하거나 위험할 수 있습니다. 즉, 하나 이상의 OSD가 전체 임계값보다 크므로 클러스터에서 데이터를 마이그레이션하거나 복구할 수 없습니다.

PG_BACKFILL_FULL

스토리지 클러스터에서 사용 가능한 공간 부족, 특히 하나 이상의 PG에 backfill_toofull 플래그가 설정되어 있기 때문에 데이터 중복이 감소하거나 위험할 수 있습니다. 즉, 하나 이상의 OSD가 백필 풀 임계값 위에 있기 때문에 클러스터에서 데이터를 마이그레이션하거나 복구할 수 없습니다.

PG_DAMAGED

데이터 스크럽은 스토리지 클러스터에서 데이터 일관성과 관련된 일부 문제, 특히 하나 이상의 PG가 일관되지 않거나 snaptrim_error 플래그가 설정되어 있어 이전 스크루브 작업으로 인해 문제가 발견되거나 복구 플래그가 설정되어 있습니다. 즉, 이러한 불일치에 대한 복구가 현재 진행 중입니다.

OSD_SCRUB_ERRORS

최근 OSD 스크럽에서 불일치를 발견했습니다.

OSD_TOO_MANY_REPAIRS

읽기 오류가 발생하고 다른 복제본을 사용할 수 있는 경우 클라이언트가 개체 데이터를 가져올 수 있도록 오류를 즉시 복구하는 데 사용됩니다.

LARGE_OMAP_OBJECTS

하나 이상의 풀은 osd_deep_scrub_large_omap_object_key_threshold 또는 osd_deep_scrub_object_value_sum_threshold 또는 둘 다에 의해 결정되는 큰 omap 오브젝트 를 포함합니다. ceph 구성 세트 osd osd_deep_scrub_large_omap_object_threshold KEYSceph config set osd osd_scrub_large_omap_object_value_sum_threshold BYTES 명령을 사용하여 임계값을 조정합니다.

CACHE_POOL_NEAR_FULL

캐시 계층 풀이 가득 차 있습니다. ceph osd 풀 설정 CACHE_POOL_NAME target_max_bytes BYTESceph osd 풀 설정 CACHE_ POOL_NAME target_max_bytes BYTES 명령을 사용하여 캐시 풀 대상 크기를 조정합니다.

TOO_FEW_PGS

스토리지 클러스터에서 사용되는 PG 수는 OSD당 구성 가능한 mon_pg_warn_min_per_osd PG의 임계값보다 낮습니다.

POOL_PG_NUM_NOT_POWER_OF_TWO

하나 이상의 풀에는 2의 권한이 아닌 pg_num 값이 있습니다. ceph config set global mon_warn_on_pool_pg_not_power_of_two false 명령을 사용하여 경고를 비활성화합니다.

POOL_TOO_FEW_PGS

풀에 현재 저장된 데이터 양에 따라 하나 이상의 풀이 PG를 가질 수 있습니다. ceph osd pool set POOL_NAME pg_autoscale_mode off 명령을 사용하여 PG의 자동 확장을 비활성화하고, ceph osd pool set POOL_ NAME pg_autoscale_mode 명령을 사용하여 PG의 수를 자동으로 조정하거나, ceph osd pool set POOL_NAME pg_autoscale_mode 명령을 사용하여 PG 수 를 수동으로 설정할 수 있습니다.

TOO_MANY_PGS

스토리지 클러스터에서 사용되는 PG 수는 OSD당 구성 가능한 mon_max_pg_per_osd PGs보다 큽니다. 하드웨어를 추가하여 클러스터에서 OSD 수를 늘립니다.

POOL_TOO_MANY_PGS

풀에 현재 저장된 데이터 양에 따라 하나 이상의 풀이 PG를 가질 수 있습니다. ceph osd pool set POOL_NAME pg_autoscale_mode off 명령을 사용하여 PG의 자동 확장을 비활성화하고, ceph osd pool set POOL_ NAME pg_autoscale_mode 명령을 사용하여 PG의 수를 자동으로 조정하거나, ceph osd pool set POOL_NAME pg_autoscale_mode 명령을 사용하여 PG 수 를 수동으로 설정할 수 있습니다.

POOL_TARGET_SIZE_BYTES_OVERCOMMITTED

하나 이상의 풀에는 풀의 예상 크기를 추정하도록 target_size_bytes 속성이 설정되어 있지만 값은 사용 가능한 총 스토리지를 초과합니다. ceph osd 풀이 POOL_NAME target_size_bytes 0 명령을 설정하여 풀 값을 0 으로 설정합니다.

POOL_HAS_TARGET_SIZE_BYTES_AND_RATIO

풀의 예상 크기를 추정하기 위해 하나 이상의 풀에 target_size_bytestarget_size_ratio 가 모두 설정됩니다. ceph osd 풀이 POOL_NAME target_size_bytes 0 명령을 설정하여 풀 값을 0 으로 설정합니다.

TOO_FEW_OSDS

스토리지 클러스터의 OSD 수는 o'sd_pool_default_size 의 구성 가능한 임계값보다 낮습니다.

SMALLER_PGP_NUM

하나 이상의 풀은 pgp_num 보다 작은 pgp _num 값을 갖습니다. 이는 일반적으로 배치 동작을 늘리지 않고 PG 수가 증가했음을 나타냅니다. ceph osd pool set POOL _NAME pgp _ NUM_VALUE명령을 사용하여 pg_num 과 일치하도록 pgp_num 을 설정하여 이 문제를 해결합니다.

MANY_OBJECTS_PER_PG

하나 이상의 풀은 PG당 평균 오브젝트 수가 있으며 이는 전체 스토리지 클러스터 평균보다 훨씬 높습니다. 특정 임계값은 mon_pg_warn_max_object_skew 구성 값에 의해 제어됩니다.

POOL_APP_NOT_ENABLED

하나 이상의 오브젝트를 포함하지만 특정 애플리케이션에서 사용하기 위해 태그되지 않은 풀이 있습니다. rbd 풀 init POOL_NAME명령이 있는 애플리케이션에서 사용할 풀에 레이블을 지정하여 이 경고를 해결합니다.

POOL_FULL

하나 이상의 풀이 할당량에 도달했습니다. 이 오류 조건을 트리거할 임계값은 mon_pool_quota_crit_threshold 구성 옵션에 의해 제어됩니다.

POOL_NEAR_FULL

하나 이상의 풀이 구성된 완전성 임계값에 도달합니다. ceph osd pool set-quota POOL_NAME max_objects NUMBER_OF_OBJECTSceph osd 풀 set-quota POOL_NAME max_bytes BYTES 명령을 사용하여 풀 할당량을 조정합니다.

OBJECT_MISPLACED

스토리지 클러스터에서 하나 이상의 오브젝트는 스토리지 클러스터가 저장하려는 노드에 저장되지 않습니다. 이는 일부 최근 스토리지 클러스터 변경으로 인한 데이터 마이그레이션이 아직 완료되지 않았음을 나타냅니다.

OBJECT_UNFOUND

특히 OSD는 스토리지 클러스터에 있는 하나 이상의 오브젝트를 찾을 수 없지만 현재 온라인 OSD에서 해당 오브젝트 버전의 복사본이 존재하지 않음을 알 수 있습니다.

SLOW_OPS

하나 이상의 OSD 또는 모니터링 요청을 처리하는 데 시간이 오래 걸립니다. 이는 과도한 부하, 느린 저장 장치 또는 소프트웨어 버그의 표시일 수 있습니다.

PG_NOT_SCRUBBED

최근에 하나 이상의 PG가 스크럽되지 않았습니다. PGS는 일반적으로 전 세계적으로 osd_scrub_max_interval 로 지정된 모든 구성 간격 내에서 스크럽됩니다. ceph pg scrub PG_ID 명령을 사용하여 스크루브를 시작합니다.

PG_NOT_DEEP_SCRUBBED

최근에 하나 이상의 PG가 깊은 스크럽되지 않았습니다. ceph pg 딥-scrub PG_ID 명령을 사용하여 스크루브를 시작합니다. PGS는 일반적으로 모든 osd_deep_scrub_interval 초를 스크럽하고, 이 경고는 mon_warn_pg_not_deep_scrubbed_ratio 간격이 있기 때문에 스크루브 없이 경과할 때 트리거됩니다.

PG_SLOW_SNAP_TRIMMING

하나 이상의 PG에 대한 스냅샷 트래킹 대기열이 구성된 경고 임계값을 초과했습니다. 이는 최근에 매우 많은 스냅샷이 삭제되었거나 OSD가 새 스냅샷 삭제 속도를 유지하기 위해 스냅샷을 빠르게 트리트할 수 없음을 나타냅니다.

표 B.6. 기타
상태 코드설명

RECENT_CRASH

최근에 하나 이상의 Ceph 데몬이 충돌했으며 충돌은 아직 관리자가 확인하지 않았습니다.

TELEMETRY_CHANGED

Telemetry가 활성화되었지만 해당 시간 이후 Telemetry 보고서의 내용이 변경되었으므로 원격 분석 보고서가 전송되지 않습니다.

AUTH_BAD_CAPS

하나 이상의 auth 사용자에게는 모니터에서 구문 분석할 수 없는 기능이 있습니다. ceph auth ENTITY_NAME DAEMON_TYPE CAPS 명령을 사용하여 사용자의 기능을 업데이트합니다.

OSD_NO_DOWN_OUT_INTERVAL

mon_osd_down_out_interval 옵션은 0으로 설정됩니다. 즉, OSD가 실패한 후 복구 또는 복구 작업을 자동으로 수행하지 않습니다. ceph config global mon_warn_on_osd_down_out_interval_zero false 명령을 사용하여 간격을 음소거합니다.

DASHBOARD_DEBUG

대시보드 디버그 모드가 활성화되어 있습니다. 즉, REST API 요청을 처리하는 동안 오류가 있는 경우 HTTP 오류 응답에 Python 추적이 포함됩니다. ceph dashboard debug 명령을 사용하여 디버그 모드를 비활성화합니다.

Red Hat logoGithubRedditYoutubeTwitter

자세한 정보

평가판, 구매 및 판매

커뮤니티

Red Hat 문서 정보

Red Hat을 사용하는 고객은 신뢰할 수 있는 콘텐츠가 포함된 제품과 서비스를 통해 혁신하고 목표를 달성할 수 있습니다.

보다 포괄적 수용을 위한 오픈 소스 용어 교체

Red Hat은 코드, 문서, 웹 속성에서 문제가 있는 언어를 교체하기 위해 최선을 다하고 있습니다. 자세한 내용은 다음을 참조하세요.Red Hat 블로그.

Red Hat 소개

Red Hat은 기업이 핵심 데이터 센터에서 네트워크 에지에 이르기까지 플랫폼과 환경 전반에서 더 쉽게 작업할 수 있도록 강화된 솔루션을 제공합니다.

© 2024 Red Hat, Inc.