3.2. 放置组状态


当您使用 ceph -sceph -w 命令检查存储集群的状态时,Ceph 将报告放置组(PG)的状态。PG 具有一个或多个状态。PG map 中的 PG 的最佳状态是 active + clean 状态。

激活
PG 为 peered,但还没有激活。
active
Ceph 处理对 PG 的请求。
backfill_toofull
回填操作正在等待,因为目标 OSD 处于回填 full 比率。
backfill_unfound
回填因为未找到对象而停止。
backfill_wait
PG 正在等待行开始回填。
回填
Ceph 正在扫描并同步 PG 的整个内容,而不是推断内容需要从最近的操作日志同步。回填是恢复的一种特殊情况。
清理
Ceph 准确复制 PG 中的所有对象。
创建
Ceph 仍然创建 PG。
deep
Ceph 正在针对存储的校验和检查 PG 数据。
degraded
Ceph 还没有准确复制 PG 中的一些对象。
down
含有必要数据的副本已停机,因此 PG 为离线。小于 min_size 副本的 PG 被标记为 down。使用 ceph health detail 了解后备 OSD 状态。
forced_backfill
用户强制该 PG 的高回填优先级。
forced_recovery
该 PG 的高恢复优先级由用户实施。
incomplete
Ceph 检测到 PG 缺少有关可能发生的写入的信息,或者没有健康的副本。如果您看到此状态,请尝试启动任何可能包含所需信息的故障 OSD。如果是纠删代码池,暂时减少 min_size 可能允许恢复。
不一致
Ceph 在 PG 中检测一个或多个对象副本的不一致,如对象是错误的大小,在恢复完成后从一个副本中缺少对象。
peering
PG 正在进入 peering 过程。对等进程应该清除没有延迟,但如果它保留,且处于 peering 状态的 PG 数量不会减少数字,对等进程可能会卡住。
peered
PG 具有对等的,但无法提供客户端 IO,因为没有足够的副本来访问池的配置 min_size 参数。恢复可能处于此状态,因此 PG 可能会最终修复为 min_size
recovering
Ceph 正在迁移或同步对象及其副本。
recovery_toofull
恢复操作正在等待,因为目标 OSD 超过了其全满比率。
recovery_unfound
恢复因为未找到对象而停止。
recovery_wait
PG 正在等待行开始恢复。
remapped
PG 暂时映射到与指定 CRUSH 不同的 OSD 集合。
repair
Ceph 正在检查 PG,并在可能的情况下修复它发现的任何不一致。
replay
PG 在 OSD 崩溃后等待客户端重播操作。
snaptrim
修剪快照。
snaptrim_error
错误停止修剪快照。
snaptrim_wait
排队以修建快照。
清理
Ceph 正在检查 PG 元数据是否存在不一致。
分割
Ceph 将 PG 拆分为多个 PG。
stale
PG 处于未知状态; monitor 尚未收到更新,因为 PG 映射发生了变化。
undersized
PG 的副本比配置的池复制级别少。
unknown
从 Ceph 管理器启动以来,ceph-mgr 尚未收到来自 OSD 的 PG 状态的任何信息。

其他资源

返回顶部
Red Hat logoGithubredditYoutubeTwitter

学习

尝试、购买和销售

社区

关于红帽文档

通过我们的产品和服务,以及可以信赖的内容,帮助红帽用户创新并实现他们的目标。 了解我们当前的更新.

让开源更具包容性

红帽致力于替换我们的代码、文档和 Web 属性中存在问题的语言。欲了解更多详情,请参阅红帽博客.

關於紅帽

我们提供强化的解决方案,使企业能够更轻松地跨平台和环境(从核心数据中心到网络边缘)工作。

Theme

© 2025 Red Hat