搜索

5.5. 从完整存储集群中删除数据

download PDF

Ceph 自动阻止 OSD 上任何达到 mon_osd_full_ratio 参数指定的容量的 I/O 操作,并返回 full osds 错误消息。

这个步骤演示了如何删除不必要的数据来修复这个错误。

注意

在创建集群时,mon_osd_full_ratio 参数会设置 full_ratio 参数的值。以后您将无法更改 mon_osd_full_ratio 的值。要临时增加 full_ratio 的值,请增加 set-full-ratio 的值。

先决条件

  • Ceph 监控节点的根级别访问权限.

流程

  1. 登录到 Cephadm shell:

    示例

    [root@host01 ~]# cephadm shell

  2. 确定 full_ratio 的当前值,其默认设置为 0.95

    [ceph: root@host01 /]# ceph osd dump | grep -i full
    full_ratio 0.95
  3. 临时将 set-full-ratio 的值增加到 0.97

    [ceph: root@host01 /]# ceph osd set-full-ratio 0.97
    重要

    红帽强烈建议不要将 set-full-ratio 设置为大于 0.97 的值。将此参数设置为更高的值会使恢复过程变得更加困难。因此,您可能无法完全恢复完整的 OSD。

  4. 验证您是否成功将该参数设置为 0.97

    [ceph: root@host01 /]# ceph osd dump | grep -i full
    full_ratio 0.97
  5. 监控集群状态:

    [ceph: root@host01 /]# ceph -w

    当集群的状态从 full 改为 nearfull 时,请删除任何不必要的数据。

  6. full_ratio 的值设置为 0.95

    [ceph: root@host01 /]# ceph osd set-full-ratio 0.95
  7. 验证您是否成功将该参数设置为 0.95:

    [ceph: root@host01 /]# ceph osd dump | grep -i full
    full_ratio 0.95

其它资源

  • Red Hat Ceph Storage 故障排除指南中的 Full OSDs 部分。
  • Red Hat Ceph Storage 故障排除指南中的 Nearfull OSDs 部分。
Red Hat logoGithubRedditYoutubeTwitter

学习

尝试、购买和销售

社区

关于红帽文档

通过我们的产品和服务,以及可以信赖的内容,帮助红帽用户创新并实现他们的目标。

让开源更具包容性

红帽致力于替换我们的代码、文档和 Web 属性中存在问题的语言。欲了解更多详情,请参阅红帽博客.

關於紅帽

我们提供强化的解决方案,使企业能够更轻松地跨平台和环境(从核心数据中心到网络边缘)工作。

© 2024 Red Hat, Inc.