3.3.4. 배치 그룹 상태
ceph 상태 ,
또는 ceph
-sceph -w
와 같은 명령을 실행하는 경우 클러스터가 항상 HEALTH OK
를 에코하지 않을 수 있습니다. OSD가 실행 중인지 확인한 후 배치 그룹 상태도 확인해야 합니다. 여러 배치 그룹 피어링 관련 상황에서 클러스터가 HEALTH OK
를 에코 하지 않을 것으로 예상해야 합니다.
- 풀 및 배치 그룹을 아직 피어링하지 않았습니다.
- 배치 그룹은 복구 중입니다.
- 방금 OSD를 클러스터에 추가하거나 클러스터에서 OSD를 제거했습니다.
- CRUSH 맵을 수정했는데 배치 그룹이 마이그레이션 중입니다.
- 배치 그룹의 여러 복제본에 일관되지 않은 데이터가 있습니다.
- Ceph가 배치 그룹의 복제본을 스크럽하고 있습니다.
- Ceph에는 백필 작업을 완료할 수 있는 충분한 스토리지 용량이 없습니다.
반복적인 상황 중 하나로 인해 Ceph에서 HEALTH WARN
을 에코하게 되는 경우 패닉이 발생하지 않습니다. 대부분의 경우 클러스터가 자체적으로 복구됩니다. 경우에 따라 조치를 취해야 할 수도 있습니다. 배치 그룹을 모니터링하는 중요한 측면은 클러스터가 가동 및 실행 중일 때 모든 배치 그룹이 활성
상태이고 바람직하게 정리
된 상태에서 있는지 확인하는 것입니다.
모든 배치 그룹의 상태를 보려면 다음을 실행합니다.
[root@mon ~]# ceph pg stat
그 결과 배치 그룹 맵 버전 vNNNN
, 총 배치 그룹 수, x
, 배치 그룹 y
의 수가 active+clean
과 같은 특정 상태에 있음을 알려주어야 합니다.
vNNNNNN: x pgs: y active+clean; z bytes data, aa MB used, bb GB / cc GB avail
Ceph는 배치 그룹에 대한 여러 상태를 보고하는 것이 일반적입니다.
스냅 샷 트리밍 PG 상태
스냅샷이 존재하는 경우 두 개의 추가 PG 상태가 보고됩니다.
-
snaptrim
: PG가 현재 트리밍되고 있습니다. -
snaptrim_wait
: PG가 트리밍되기를 기다리고 있습니다.
출력 예:
244 active+clean+snaptrim_wait 32 active+clean+snaptrim
배치 그룹 상태 외에도 Ceph는 사용된 데이터 양, aa
, 남아 있는 스토리지 용량, bb
, 배치 그룹의 총 스토리지 용량을 에코합니다. 이 숫자는 몇 가지 경우에 중요할 수 있습니다.
-
당신은
거의 전체 비율 또는
도달하고 있습니다.전체 비율에
- CRUSH 구성의 오류로 인해 데이터가 클러스터 전체에 배포되지 않습니다.
배치 그룹 ID
배치 그룹 ID는 풀 번호가 아니라 풀 이름이 아니라 마침표(.) 및 배치 그룹 ID-a 16진수로 구성됩니다. ceph osd lspools
출력에서 풀 번호와 해당 이름을 볼 수 있습니다. 기본 풀은 데이터
,metadata
, rbd
는 각각 0
,1
및 2
풀 번호에 해당합니다. 정규화된 배치 그룹 ID는 다음과 같습니다.
POOL_NUM.PG_ID
출력 예:
0.1f
배치 그룹 목록을 검색하려면 다음을 수행합니다.
[root@mon ~]# ceph pg dump
출력을 JSON 형식으로 포맷하고 파일에 저장합니다.
[root@mon ~]# ceph pg dump -o FILE_NAME --format=json
특정 배치 그룹을 쿼리하려면 다음을 수행합니다.
[root@mon ~]# ceph pg POOL_NUM.PG_ID query
JSON 형식의 출력 예:
{ "state": "active+clean", "up": [ 1, 0 ], "acting": [ 1, 0 ], "info": { "pgid": "1.e", "last_update": "4'1", "last_complete": "4'1", "log_tail": "0'0", "last_backfill": "MAX", "purged_snaps": "[]", "history": { "epoch_created": 1, "last_epoch_started": 537, "last_epoch_clean": 537, "last_epoch_split": 534, "same_up_since": 536, "same_interval_since": 536, "same_primary_since": 536, "last_scrub": "4'1", "last_scrub_stamp": "2013-01-25 10:12:23.828174" }, "stats": { "version": "4'1", "reported": "536'782", "state": "active+clean", "last_fresh": "2013-01-25 10:12:23.828271", "last_change": "2013-01-25 10:12:23.828271", "last_active": "2013-01-25 10:12:23.828271", "last_clean": "2013-01-25 10:12:23.828271", "last_unstale": "2013-01-25 10:12:23.828271", "mapping_epoch": 535, "log_start": "0'0", "ondisk_log_start": "0'0", "created": 1, "last_epoch_clean": 1, "parent": "0.0", "parent_split_bits": 0, "last_scrub": "4'1", "last_scrub_stamp": "2013-01-25 10:12:23.828174", "log_size": 128, "ondisk_log_size": 128, "stat_sum": { "num_bytes": 205, "num_objects": 1, "num_object_clones": 0, "num_object_copies": 0, "num_objects_missing_on_primary": 0, "num_objects_degraded": 0, "num_objects_unfound": 0, "num_read": 1, "num_read_kb": 0, "num_write": 3, "num_write_kb": 1 }, "stat_cat_sum": { }, "up": [ 1, 0 ], "acting": [ 1, 0 ] }, "empty": 0, "dne": 0, "incomplete": 0 }, "recovery_state": [ { "name": "Started\/Primary\/Active", "enter_time": "2013-01-23 09:35:37.594691", "might_have_unfound": [ ], "scrub": { "scrub_epoch_start": "536", "scrub_active": 0, "scrub_block_writes": 0, "finalizing_scrub": 0, "scrub_waiting_on": 0, "scrub_waiting_on_whom": [ ] } }, { "name": "Started", "enter_time": "2013-01-23 09:35:31.581160" } ] }
추가 리소스
- 스냅샷 트리밍 설정에 대한 자세한 내용은 Red Hat Ceph Storage 4 구성 가이드 의 OSD(Object Storage Daemon) 구성 옵션을 참조하십시오.