3.2. 放置组状态


当您使用 ceph -sceph -w 命令检查存储集群的状态时,Ceph 将报告放置组(PG)的状态。PG 具有一个或多个状态。PG 映射中的 PG 的 optimum 状态为 active + clean 状态。

激活
PG 为 peered,但还没有激活。
active
Ceph 处理对 PG 的请求。
backfill_toofull
回填操作正在等待,因为目标 OSD 处于回填 full 比率。
backfill_unfound
回填因为 unfound 对象而停止。
backfill_wait
PG 正在等待行开始回填。
回填
Ceph 正在扫描并同步 PG 的整个内容,而不是推断内容需要从最近的操作日志同步。backfill 是恢复的特殊情况。
清理
Ceph 准确复制 PG 中的所有对象。
创建
Ceph 仍然在创建 PG。
deep
Ceph 正在根据存储的校验和检查 PG 数据。
degraded
Ceph 尚未准确复制 PG 中的一些对象。
down
具有必要数据的副本已停机,因此 PG 离线。副本数小于 min_size 的 PG 标记为 down。使用 ceph health detail 了解后备 OSD 状态。
forced_backfill
用户强制执行该 PG 的高回填优先级。
forced_recovery
用户强制执行该 PG 的高恢复优先级。
incomplete
Ceph 检测到 PG 缺少有关可能发生的写入的信息,或者没有任何健康的副本。如果您看到此状态,请尝试启动可能包含所需信息的任何故障 OSD。对于纠删代码池,暂时减少 min_size 可能允许恢复。
不一致
Ceph 在 PG 中检测一个或多个对象副本的不一致,如对象是错误的大小,在恢复完成后从一个副本中缺少对象。
peering
PG 正在进入 peering 过程。对等进程应该清除没有延迟,但如果它保留,且处于 peering 状态的 PG 数量不会减少数字,对等进程可能会卡住。
peered
PG 有对等的,但由于没有足够的副本来访问池的 min_size 参数,因此无法提供客户端 IO。恢复可能在此状态发生,因此 PG 可能会最终修复 min_size
recovering
Ceph 正在迁移或同步对象及其副本。
recovery_toofull
恢复操作正在等待,因为目标 OSD 超过了其全满比率。
recovery_unfound
恢复因为 unfound 对象而停止。
recovery_wait
PG 正在等待行开始恢复。
remapped
PG 从指定的 CRUSH 暂时映射到一组不同的 OSD。
repair
Ceph 正在检查 PG,并在可能的情况下修复发现的任何不一致。
replay
PG 正在等待客户端在 OSD 崩溃后重新执行操作。
snaptrim
修剪快照。
snaptrim_error
错误停止修剪快照。
snaptrim_wait
排队以修建快照。
清理
Ceph 正在检查 PG 元数据是否不一致。
分割
Ceph 将 PG 拆分为多个 PG。
stale
PG 处于未知状态;监视器尚未收到更新,因为 PG 映射发生了变化。
undersized
PG 的副本数量比配置的池复制级别少。
unknown
自 Ceph 管理器启动以来,ceph-mgr 尚未从 OSD 收到有关 PG 状态的任何信息。

其他资源

Red Hat logoGithubRedditYoutubeTwitter

学习

尝试、购买和销售

社区

关于红帽文档

通过我们的产品和服务,以及可以信赖的内容,帮助红帽用户创新并实现他们的目标。

让开源更具包容性

红帽致力于替换我们的代码、文档和 Web 属性中存在问题的语言。欲了解更多详情,请参阅红帽博客.

關於紅帽

我们提供强化的解决方案,使企业能够更轻松地跨平台和环境(从核心数据中心到网络边缘)工作。

© 2024 Red Hat, Inc.