3.2. 放置组状态


当您使用 ceph -sceph -w 命令检查存储集群的状态时,Ceph 将报告放置组(PG)的状态。PG 具有一个或多个状态。PG map 中的 PG 的最佳状态是 active + clean 状态。

激活
PG 已对等,但还没有激活。
active
Ceph 处理对 PG 的请求。
backfill_toofull
回填操作正在等待,因为目标 OSD 处于回填 full 比率。
backfill_unfound
回填会因为没有找到对象而停止。
backfill_wait
PG 正在以行形式启动回填。
回填
Ceph 正在扫描并同步 PG 的整个内容,而不是推断内容需要从最近的操作日志同步。回填是恢复的特殊情况。
清理
Ceph 会准确复制 PG 中的所有对象。
创建
Ceph 仍然在创建 PG。
deep
Ceph 会根据存储的校验和检查 PG 数据。
degraded
Ceph 尚未准确复制 PG 中的一些对象。
down
具有必要数据的副本停机,因此 PG 为离线。小于 min_size 副本的 PG 被标记为 down。使用 ceph 健康详情 了解后备 OSD 状态。
forced_backfill
该 PG 的高回填优先级由用户强制实施。
forced_recovery
该 PG 的高恢复优先级由用户强制实施。
incomplete
Ceph 检测到 PG 缺少关于可能发生写入的信息,或者没有任何健康副本。如果您看到此状态,请尝试启动可能包含所需信息的任何失败 OSD。如果是纠删代码池,暂时减少 min_size 可能允许恢复。
不一致
Ceph 在 PG 中检测一个或多个对象副本的不一致,如对象是错误的大小,在恢复完成后从一个副本中缺少对象。
peering
PG 正在进入 peering 过程。对等进程应该清除没有延迟,但如果它保留,且处于 peering 状态的 PG 数量不会减少数字,对等进程可能会卡住。
peered
PG 已对等,但无法服务客户端 IO,因为没有足够的副本来访问池的配置的 min_size 参数。恢复可能发生在此状态下,因此 PG 可能会修复到 min_size 最终。
recovering
Ceph 正在迁移或同步对象及其副本。
recovery_toofull
恢复操作正在等待,因为目标 OSD 超过了其全满比率。
recovery_unfound
恢复会因为没有找到对象而停止。
recovery_wait
PG 正在以 行形式开始恢复。
remapped
PG 临时映射到 CRUSH 指定的不同组 OSD。
repair
Ceph 正在检查 PG 并修复它发现的所有不一致(如有可能)。
replay
在 OSD 崩溃后,PG 正在等待客户端重放操作。
snaptrim
修剪快照。
snaptrim_error
错误停止修剪快照。
snaptrim_wait
排队以修建快照。
清理
Ceph 正在检查 PG 元数据是否存在不一致。
splitting
Ceph 将 PG 拆分为多个 PG。
stale
PG 处于未知状态; monitor 没有收到更新,因为 PG 映射已更改。
undersized
PG 的副本数少于配置的池复制级别。
unknown
自 Ceph Manager 启动时,ceph-mgr 尚未收到 PG 状态的任何信息。
Red Hat logoGithubredditYoutubeTwitter

学习

尝试、购买和销售

社区

关于红帽文档

通过我们的产品和服务,以及可以信赖的内容,帮助红帽用户创新并实现他们的目标。 了解我们当前的更新.

让开源更具包容性

红帽致力于替换我们的代码、文档和 Web 属性中存在问题的语言。欲了解更多详情,请参阅红帽博客.

關於紅帽

我们提供强化的解决方案,使企业能够更轻松地跨平台和环境(从核心数据中心到网络边缘)工作。

Theme

© 2026 Red Hat
返回顶部