3.2. 放置组状态


当您使用 ceph -sceph -w 命令检查存储集群的状态时,Ceph 将报告放置组(PG)的状态。PG 具有一个或多个状态。PG map 中的 PG 的最佳状态是 active + clean 状态。

激活
PG 为 peered,但还没有激活。
active
Ceph 处理对 PG 的请求。
backfill_toofull
回填操作正在等待,因为目标 OSD 处于回填 full 比率。
backfill_unfound
因为未找到的对象,回填停止。
backfill_wait
PG 正在等待一行开始回填。
回填
Ceph 正在扫描并同步 PG 的整个内容,而不是推断内容需要从最近的操作日志同步。backfill 是恢复的一个特殊情况。
清理
Ceph 准确复制 PG 中的所有对象。
创建
Ceph 仍然创建 PG。
deep
Ceph 正在针对存储的校验和检查 PG 数据。
degraded
Ceph 尚未准确复制 PG 中的一些对象。
down
具有必要数据的副本停机,因此 PG 为离线状态。小于 min_size 副本的 PG 被标记为 down。使用 ceph health detail 了解后备 OSD 状态。
forced_backfill
该 PG 的高回填优先级由用户强制执行。
forced_recovery
该 PG 的高恢复优先级由用户强制执行。
incomplete
Ceph 检测到 PG 缺少有关可能发生的写入的信息,或者没有任何健康的副本。如果您看到此状态,请尝试启动任何可能包含所需信息的故障 OSD。如果是纠删代码池,请临时减少 min_size 以允许恢复。
不一致
Ceph 在 PG 中检测一个或多个对象副本的不一致,如对象是错误的大小,在恢复完成后从一个副本中缺少对象。
peering
PG 正在进入 peering 过程。对等进程应该清除没有延迟,但如果它保留,且处于 peering 状态的 PG 数量不会减少数字,对等进程可能会卡住。
peered
PG 有对等的,但无法提供客户端 IO,因为没有足够的副本来访问池的 min_size 参数。恢复可能会处于此状态,因此 PG 最终可能会修复最多 min_size
recovering
Ceph 正在迁移或同步对象及其副本。
recovery_toofull
恢复操作正在等待,因为目标 OSD 超过了其全满比率。
recovery_unfound
恢复因为未找到对象而停止。
recovery_wait
PG 正在等待一行开始恢复。
remapped
PG 临时映射到与指定 CRUSH 指定的不同 OSD 集合。
repair
Ceph 正在检查 PG,并在可能的情况下修复它发现的任何不一致。
replay
PG 在 OSD 崩溃后等待客户端重播操作。
snaptrim
修剪快照。
snaptrim_error
停止修剪快照时出错。
snaptrim_wait
排队以修建快照。
清理
Ceph 正在检查 PG 元数据是否不一致。
分割
Ceph 将 PG 拆分为多个 PG。
stale
PG 处于未知状态; monitor 没有收到其更新,因为 PG 映射已更改。
undersized
PG 的副本数少于配置的池复制级别。
unknown
在 Ceph 管理器启动前,ceph-mgr 尚未从 OSD 接收有关 PG 状态的任何信息。

其他资源

返回顶部
Red Hat logoGithubredditYoutubeTwitter

学习

尝试、购买和销售

社区

关于红帽文档

通过我们的产品和服务,以及可以信赖的内容,帮助红帽用户创新并实现他们的目标。 了解我们当前的更新.

让开源更具包容性

红帽致力于替换我们的代码、文档和 Web 属性中存在问题的语言。欲了解更多详情,请参阅红帽博客.

關於紅帽

我们提供强化的解决方案,使企业能够更轻松地跨平台和环境(从核心数据中心到网络边缘)工作。

Theme

© 2025 Red Hat