부록 B. Ceph 클러스터의 상태 메시지


Red Hat Ceph Storage 클러스터에서 발생할 수 있는 한정된 상태 메시지 세트가 있습니다. 이러한 값은 고유 식별자가 있는 상태 점검으로 정의됩니다. 식별자는 도구에서 상태 점검을 감지하고 의미를 반영하는 방식으로 제시할 수 있도록 설계된 terse pseudo-human-readable 문자열입니다.

Expand
표 B.1. 모니터
상태 코드설명

DAEMON_OLD_VERSION

이전 버전의 Ceph가 모든 데몬에서 실행 중인 경우 경고합니다. 여러 버전이 감지되면 상태 오류가 발생합니다.

MON_DOWN

현재 하나 이상의 Ceph Monitor 데몬이 다운되었습니다.

MON_CLOCK_SKEW

ceph-mon 데몬을 실행하는 노드의 클럭은 잘 동기화되지 않습니다. ECDHE 또는 chrony 를 사용하여 시계를 동기화하여 문제를 해결합니다.

MON_MSGR2_NOT_ENABLED

ms_bind_msgr2 옵션은 활성화되어 있지만 하나 이상의 Ceph Monitors는 클러스터의 monmap에서 v2 포트에 바인딩하도록 구성되지 않습니다. ceph mon enable-msgr2 명령을 실행하여 이 문제를 해결합니다.

MON_DISK_LOW

디스크 공간에서 하나 이상의 Ceph 모니터가 낮습니다.

MON_DISK_CRIT

디스크 공간에서는 하나 이상의 Ceph 모니터가 매우 낮습니다.

MON_DISK_BIG

하나 이상의 Ceph 모니터의 데이터베이스 크기는 매우 큽니다.

AUTH_INSECURE_GLOBAL_ID_RECLAIM

Ceph Monitor에 다시 연결할 때 global_id 를 안전하게 회수하지 않는 하나 이상의 클라이언트 또는 데몬이 스토리지 클러스터에 연결됩니다.

AUTH_INSECURE_GLOBAL_ID_RECLAIM_ALLOWED

현재는 auth_allow_insecure_ global_id _reclaim 설정이 true 로 설정되었기 때문에 비보안 프로세스를 사용하여 클라이언트가 모니터에 다시 연결할 수 있도록 구성되어 있습니다.

Expand
표 B.2. 관리자
상태 코드설명

MGR_DOWN

현재 모든 Ceph Manager 데몬이 다운되었습니다.

MGR_MODULE_DEPENDENCY

활성화된 Ceph Manager 모듈이 종속성 확인에 실패했습니다.

MGR_MODULE_ERROR

Ceph Manager 모듈에서 예기치 않은 오류가 발생했습니다. 일반적으로 이는 모듈 서비스 함수에서 처리되지 않은 예외가 발생했음을 의미합니다.

Expand
표 B.3. OSDs
상태 코드설명

OSD_DOWN

하나 이상의 OSD가 아래로 표시됩니다.

OSD_CRUSH_TYPE_DOWN

특정 subtree 내의 모든 OSD가 다운됨(예: 호스트의 모든 OSD)이 표시됩니다. 예를 들어 OSD_HOST_DOWN 및 OSD_ROOT_DOWN

OSD_ORPHAN

OSD는 map 계층 구조에서 참조되지만 존재하지 않습니다. ceph osd crush rm osd._OSD_ID 명령을 실행하여 OSD를 제거합니다.

OSD_OUT_OF_ORDER_FULL

nearfull,backfillfull, full , or, failsafefull 에 대한 사용률 임계값은 true입니다. ceph osd set-nearfull-ratio RATIO, ceph osd set-backfillfull-ratio RATIOceph osd set-full-ratio RATIO 를 실행하여 임계값을 조정합니다.

OSD_FULL

하나 이상의 OSD가 전체 임계값을 초과하여 스토리지 클러스터가 쓰기를 서비스하지 못하도록 합니다. 작은 마진 ceph osd set-full-ratio RATIO 로 전체 임계값을 높여 쓰기 가용성을 복원합니다.

OSD_BACKFILLFULL

하나 이상의 OSD가 백필 전체 임계값을 초과하여 이 장치로 데이터를 재조정할 수 없습니다.

OSD_NEARFULL

하나 이상의 OSD가 nearfull 임계값을 초과했습니다.

OSDMAP_FLAGS

하나 이상의 스토리지 클러스터 플래그가 설정되었습니다. 이러한 플래그에는 전체,pauserd,pausewr,noup,no in ,noin,no in ,nobackfill,norecover,norebalance,nodeep_scrub,nodeep_scrub, notieragent 가 포함됩니다. 전체 플래그를 제외하고 ceph osd setECDHEAG 및 ceph osd unsetECDHE AG 명령을 사용하여 플래그를 지울 있습니다.

OSD_FLAGS

하나 이상의 OSD 또는ECDHE에는 관심 플래그가 있습니다. 이러한 플래그에는 noup,nodown,noin, noout 가 포함됩니다.

OLD_CRUSH_TUNABLES

ECDHE 맵은 매우 오래된 설정을 사용하고 있으며 업데이트해야 합니다.

OLD_CRUSH_STRAW_CALC_VERSION

DestinationRule 맵은 straw 버킷에 대한 중간 가중치 값을 계산하기 위해 최적화되지 않은 이전 방법을 사용하고 있습니다.

CACHE_POOL_NO_HIT_SET

사용률을 추적하기 위해 하나 이상의 캐시 풀이 구성되지 않아 계층화 에이전트가 캐시에서 플러시하고 제거할 수 있는 콜드 오브젝트를 식별할 수 없습니다. ceph osd pool set_POOL_NAME_ hit_set_type TYPE, ceph osd pool set POOL_NAME hit_set_period PERIOD_IN_SECONDS, ceph osd pool set POOL_ NAME hit_set_NAME hit_set_count NUMBER_HIT_SETS, . 및 ceph osd pool set POOL_NAME hit_set_fpp TARGET_FALSE_POSITIVE_RATE 명령

OSD_NO_SORTBITWISE

sortbit flag 가 설정되지 않았습니다. ceph osd set sortbitECDHE 명령을 사용하여 플래그를 설정합니다.

POOL_FULL

하나 이상의 풀이 할당량에 도달했으며 더 이상 쓰기를 허용하지 않습니다. ceph osd pool set-quota POOL_NAME max_objects NUMBER_OF_OBJECTSceph osd 풀 set-quota POOL_NAME max_bytes BYTES 를 사용하여 풀 할당량을 늘리거나, 사용률을 줄이기 위해 기존 데이터를 삭제합니다.

BLUEFS_SPILLOVER

BlueStore 백엔드를 사용하는 하나 이상의 OSD는 db 파티션이 할당되지만 해당 공간이 채워져 메타데이터가 정상적인 느린 장치에 "사용"되었습니다. ceph config set osd bluestore_warn_on_bluefs_spillover false 명령을 사용하여 이 작업을 비활성화합니다.

BLUEFS_AVAILABLE_SPACE

이 출력에서는 BDEV_DB 무료 ,BDEV_SLOW 무료available_ from_bluestore 의 세 가지 값을 제공합니다.

BLUEFS_LOW_SPACE

사용 가능한 여유 공간에 BlueStore File System (BlueFS)이 부족하고 available_from_bluestore 가 거의 없는 경우 BlueFS 할당 단위 크기를 줄일 수 있습니다.

BLUESTORE_FRAGMENTATION

BlueStore는 기본 스토리지에서 사용 가능한 공간을 조각화할 수 있습니다. 이는 정상적이고 피할 수 없지만 과도한 조각화로 인해 속도가 느려집니다.

BLUESTORE_LEGACY_STATFS

Bluestore는 내부 사용량 통계를 풀당 세분화하여 추적하고 하나 이상의 OSD에는 BlueStore 볼륨이 있습니다. ceph config set global bluestore_warn_on_legacy_statfs false 명령을 사용하여 경고를 비활성화합니다.

BLUESTORE_NO_PER_POOL_OMAP

Bluestore는 풀로 omap 공간 사용률을 추적합니다. ceph config set global bluestore_warn_on_no_per_pool_omap false 명령을 사용하여 경고를 비활성화합니다.

BLUESTORE_NO_PER_PG_OMAP

Bluestore는 PG로 omap 공간 사용률을 추적합니다. ceph config set global bluestore_warn_on_no_per_pg_omap false 명령을 사용하여 경고를 비활성화합니다.

BLUESTORE_DISK_SIZE_MISMATCH

BlueStore를 사용하는 하나 이상의 OSD는 물리적 장치의 크기와 해당 크기를 추적하는 메타데이터 사이에 내부 불일치가 있습니다.

BLUESTORE_NO_COMPRESSION `

BlueStore 압축 플러그인을 로드할 수 없는 OSD 하나 이상 이는 ceph-osd 바이너리가 압축 플러그인과 일치하지 않는 설치 또는 ceph-osd 데몬 재시작이 포함되지 않은 최근 업그레이드로 인해 발생할 수 있습니다.

BLUESTORE_SPURIOUS_READ_ERRORS

BlueStore를 사용하는 하나 이상의 OSD는 기본 장치에서 잘못된 읽기 오류를 감지합니다. Bluestore는 디스크 읽기를 다시 시도하여 이러한 오류에서 복구되었습니다.

Expand
표 B.4. 장치 상태
상태 코드설명

DEVICE_HEALTH

하나 이상의 장치가 곧 실패할 것으로 예상됩니다. 여기서 경고 임계값은 mgr/devicehealth/warn_threshold 설정 옵션에 의해 제어됩니다. 장치를 표시 하여 데이터를 마이그레이션하고 하드웨어를 교체합니다.

DEVICE_HEALTH_IN_USE

하나 이상의 장치가 곧 실패할 것으로 예상되며 mgr/devicehealth/mark_out_threshold 를 기반으로 스토리지 클러스터의 "아웃"으로 표시되지만 여전히 하나의 PG에 참여하고 있습니다.

DEVICE_HEALTH_TOOMANY

곧 너무 많은 장치가 실패할 것으로 예상되고 mgr/devicehealth/self_heal 동작이 활성화되므로 실링 장치를 모두 표시하면 너무 많은 OSD가 자동으로 표시되지 않게 하는 클러스터 mon_osd_min_in_ratio 비율 초과합니다.

Expand
표 B.5. 풀 및 배치 그룹
상태 코드설명

PG_AVAILABILITY

데이터 가용성이 감소합니다. 즉, 스토리지 클러스터가 클러스터의 일부 데이터에 대한 잠재적인 읽기 또는 쓰기 요청을 처리할 수 없습니다.

PG_DEGRADED

일부 데이터에 대해 데이터 중복성이 감소합니다. 즉, 스토리지 클러스터에 복제된 풀 또는 배경 코드 조각에 대해 원하는 복제본 수가 없습니다.

PG_RECOVERY_FULL

스토리지 클러스터에서 사용 가능한 공간 부족, 특히 하나 이상의 PG에 recovery_too full 플래그가 설정되어 있기 때문에 데이터 중복이 감소하거나 위험할 수 있습니다. 즉, 하나 이상의 OSD가 전체 임계값보다 크므로 클러스터에서 데이터를 마이그레이션하거나 복구할 수 없습니다.

PG_BACKFILL_FULL

스토리지 클러스터에서 사용 가능한 공간 부족, 특히 하나 이상의 PG에 backfill_toofull 플래그가 설정되어 있기 때문에 데이터 중복이 감소하거나 위험할 수 있습니다. 즉, 하나 이상의 OSD가 백필 풀 임계값 위에 있기 때문에 클러스터에서 데이터를 마이그레이션하거나 복구할 수 없습니다.

PG_DAMAGED

데이터 스크럽은 스토리지 클러스터에서 데이터 일관성과 관련된 일부 문제, 특히 하나 이상의 PG가 일관되지 않거나 snaptrim_error 플래그가 설정되어 있어 이전 스크루브 작업으로 인해 문제가 발견되거나 복구 플래그가 설정되어 있습니다. 즉, 이러한 불일치에 대한 복구가 현재 진행 중입니다.

OSD_SCRUB_ERRORS

최근 OSD 스크럽에서 불일치를 발견했습니다.

OSD_TOO_MANY_REPAIRS

읽기 오류가 발생하고 다른 복제본을 사용할 수 있는 경우 클라이언트가 개체 데이터를 가져올 수 있도록 오류를 즉시 복구하는 데 사용됩니다.

LARGE_OMAP_OBJECTS

하나 이상의 풀은 osd_deep_scrub_large_omap_object_key_threshold 또는 osd_deep_scrub_object_value_sum_threshold 또는 둘 다에 의해 결정되는 큰 omap 오브젝트 를 포함합니다. ceph 구성 세트 osd osd_deep_scrub_large_omap_object_threshold KEYSceph config set osd osd_scrub_large_omap_object_value_sum_threshold BYTES 명령을 사용하여 임계값을 조정합니다.

CACHE_POOL_NEAR_FULL

캐시 계층 풀이 가득 차 있습니다. ceph osd 풀 설정 CACHE_POOL_NAME target_max_bytes BYTESceph osd 풀 설정 CACHE_ POOL_NAME target_max_bytes BYTES 명령을 사용하여 캐시 풀 대상 크기를 조정합니다.

TOO_FEW_PGS

스토리지 클러스터에서 사용되는 PG 수는 OSD당 구성 가능한 mon_pg_warn_min_per_osd PG의 임계값보다 낮습니다.

POOL_PG_NUM_NOT_POWER_OF_TWO

하나 이상의 풀에는 2의 권한이 아닌 pg_num 값이 있습니다. ceph config set global mon_warn_on_pool_pg_not_power_of_two false 명령을 사용하여 경고를 비활성화합니다.

POOL_TOO_FEW_PGS

풀에 현재 저장된 데이터 양에 따라 하나 이상의 풀이 PG를 가질 수 있습니다. ceph osd pool set POOL_NAME pg_autoscale_mode off 명령을 사용하여 PG의 자동 확장을 비활성화하고, ceph osd pool set POOL_ NAME pg_autoscale_mode 명령을 사용하여 PG의 수를 자동으로 조정하거나, ceph osd pool set POOL_NAME pg_autoscale_mode 명령을 사용하여 PG 수 를 수동으로 설정할 수 있습니다.

TOO_MANY_PGS

스토리지 클러스터에서 사용되는 PG 수는 OSD당 구성 가능한 mon_max_pg_per_osd PGs보다 큽니다. 하드웨어를 추가하여 클러스터에서 OSD 수를 늘립니다.

POOL_TOO_MANY_PGS

풀에 현재 저장된 데이터 양에 따라 하나 이상의 풀이 PG를 가질 수 있습니다. ceph osd pool set POOL_NAME pg_autoscale_mode off 명령을 사용하여 PG의 자동 확장을 비활성화하고, ceph osd pool set POOL_ NAME pg_autoscale_mode 명령을 사용하여 PG의 수를 자동으로 조정하거나, ceph osd pool set POOL_NAME pg_autoscale_mode 명령을 사용하여 PG 수 를 수동으로 설정할 수 있습니다.

POOL_TARGET_SIZE_BYTES_OVERCOMMITTED

하나 이상의 풀에는 풀의 예상 크기를 추정하도록 target_size_bytes 속성이 설정되어 있지만 값은 사용 가능한 총 스토리지를 초과합니다. ceph osd 풀이 POOL_NAME target_size_bytes 0 명령을 설정하여 풀 값을 0 으로 설정합니다.

POOL_HAS_TARGET_SIZE_BYTES_AND_RATIO

풀의 예상 크기를 추정하기 위해 하나 이상의 풀에 target_size_bytestarget_size_ratio 가 모두 설정됩니다. ceph osd 풀이 POOL_NAME target_size_bytes 0 명령을 설정하여 풀 값을 0 으로 설정합니다.

TOO_FEW_OSDS

스토리지 클러스터의 OSD 수는 o'sd_pool_default_size 의 구성 가능한 임계값보다 낮습니다.

SMALLER_PGP_NUM

하나 이상의 풀은 pgp_num 보다 작은 pgp _num 값을 갖습니다. 이는 일반적으로 배치 동작을 늘리지 않고 PG 수가 증가했음을 나타냅니다. ceph osd pool set POOL _NAME pgp _ NUM_VALUE명령을 사용하여 pg_num 과 일치하도록 pgp_num 을 설정하여 이 문제를 해결합니다.

MANY_OBJECTS_PER_PG

하나 이상의 풀은 PG당 평균 오브젝트 수가 있으며 이는 전체 스토리지 클러스터 평균보다 훨씬 높습니다. 특정 임계값은 mon_pg_warn_max_object_skew 구성 값에 의해 제어됩니다.

POOL_APP_NOT_ENABLED

하나 이상의 오브젝트를 포함하지만 특정 애플리케이션에서 사용하기 위해 태그되지 않은 풀이 있습니다. rbd 풀 init POOL_NAME명령이 있는 애플리케이션에서 사용할 풀에 레이블을 지정하여 이 경고를 해결합니다.

POOL_FULL

하나 이상의 풀이 할당량에 도달했습니다. 이 오류 조건을 트리거할 임계값은 mon_pool_quota_crit_threshold 구성 옵션에 의해 제어됩니다.

POOL_NEAR_FULL

하나 이상의 풀이 구성된 완전성 임계값에 도달합니다. ceph osd pool set-quota POOL_NAME max_objects NUMBER_OF_OBJECTSceph osd 풀 set-quota POOL_NAME max_bytes BYTES 명령을 사용하여 풀 할당량을 조정합니다.

OBJECT_MISPLACED

스토리지 클러스터에서 하나 이상의 오브젝트는 스토리지 클러스터가 저장하려는 노드에 저장되지 않습니다. 이는 일부 최근 스토리지 클러스터 변경으로 인한 데이터 마이그레이션이 아직 완료되지 않았음을 나타냅니다.

OBJECT_UNFOUND

특히 OSD는 스토리지 클러스터에 있는 하나 이상의 오브젝트를 찾을 수 없지만 현재 온라인 OSD에서 해당 오브젝트 버전의 복사본이 존재하지 않음을 알 수 있습니다.

SLOW_OPS

하나 이상의 OSD 또는 모니터링 요청을 처리하는 데 시간이 오래 걸립니다. 이는 과도한 부하, 느린 저장 장치 또는 소프트웨어 버그의 표시일 수 있습니다.

PG_NOT_SCRUBBED

최근에 하나 이상의 PG가 스크럽되지 않았습니다. PGS는 일반적으로 전 세계적으로 osd_scrub_max_interval 로 지정된 모든 구성 간격 내에서 스크럽됩니다. ceph pg scrub PG_ID 명령을 사용하여 스크루브를 시작합니다.

PG_NOT_DEEP_SCRUBBED

최근에 하나 이상의 PG가 깊은 스크럽되지 않았습니다. ceph pg 딥-scrub PG_ID 명령을 사용하여 스크루브를 시작합니다. PGS는 일반적으로 모든 osd_deep_scrub_interval 초를 스크럽하고, 이 경고는 mon_warn_pg_not_deep_scrubbed_ratio 간격이 있기 때문에 스크루브 없이 경과할 때 트리거됩니다.

PG_SLOW_SNAP_TRIMMING

하나 이상의 PG에 대한 스냅샷 트래킹 대기열이 구성된 경고 임계값을 초과했습니다. 이는 최근에 매우 많은 스냅샷이 삭제되었거나 OSD가 새 스냅샷 삭제 속도를 유지하기 위해 스냅샷을 빠르게 트리트할 수 없음을 나타냅니다.

Expand
표 B.6. 기타
상태 코드설명

RECENT_CRASH

최근에 하나 이상의 Ceph 데몬이 충돌했으며 충돌은 아직 관리자가 확인하지 않았습니다.

TELEMETRY_CHANGED

Telemetry가 활성화되었지만 해당 시간 이후 Telemetry 보고서의 내용이 변경되었으므로 원격 분석 보고서가 전송되지 않습니다.

AUTH_BAD_CAPS

하나 이상의 auth 사용자에게는 모니터에서 구문 분석할 수 없는 기능이 있습니다. ceph auth ENTITY_NAME DAEMON_TYPE CAPS 명령을 사용하여 사용자의 기능을 업데이트합니다.

OSD_NO_DOWN_OUT_INTERVAL

mon_osd_down_out_interval 옵션은 0으로 설정됩니다. 즉, OSD가 실패한 후 복구 또는 복구 작업을 자동으로 수행하지 않습니다. ceph config global mon_warn_on_osd_down_out_interval_zero false 명령을 사용하여 간격을 음소거합니다.

DASHBOARD_DEBUG

대시보드 디버그 모드가 활성화되어 있습니다. 즉, REST API 요청을 처리하는 동안 오류가 있는 경우 HTTP 오류 응답에 Python 추적이 포함됩니다. ceph dashboard debug 명령을 사용하여 디버그 모드를 비활성화합니다.

맨 위로 이동
Red Hat logoGithubredditYoutubeTwitter

자세한 정보

평가판, 구매 및 판매

커뮤니티

Red Hat 문서 정보

Red Hat을 사용하는 고객은 신뢰할 수 있는 콘텐츠가 포함된 제품과 서비스를 통해 혁신하고 목표를 달성할 수 있습니다. 최신 업데이트를 확인하세요.

보다 포괄적 수용을 위한 오픈 소스 용어 교체

Red Hat은 코드, 문서, 웹 속성에서 문제가 있는 언어를 교체하기 위해 최선을 다하고 있습니다. 자세한 내용은 다음을 참조하세요.Red Hat 블로그.

Red Hat 소개

Red Hat은 기업이 핵심 데이터 센터에서 네트워크 에지에 이르기까지 플랫폼과 환경 전반에서 더 쉽게 작업할 수 있도록 강화된 솔루션을 제공합니다.

Theme

© 2025 Red Hat