9.2. 在动态置备的 Red Hat OpenShift Data Foundation 中删除失败或不需要的 Ceph OSD


按照以下步骤在动态置备的 Red Hat OpenShift Data Foundation 中删除失败或不需要的 Ceph 对象存储设备(OSD)。

重要

只有在红帽支持团队的帮助中才支持缩减集群。

警告
  • 当 Ceph 组件没有处于健康状态时删除 OSD 可能会导致数据丢失。
  • 同时删除两个或多个 OSD 会导致数据丢失。

先决条件

流程

  1. 缩减 OSD 部署。

    # oc scale deployment rook-ceph-osd-<osd-id> --replicas=0
    Copy to Clipboard Toggle word wrap
  2. 获取要删除的 Ceph OSD 的 osd-prepare pod。

    # oc get deployment rook-ceph-osd-<osd-id> -oyaml | grep ceph.rook.io/pvc
    Copy to Clipboard Toggle word wrap
  3. 删除 osd-prepare pod。

    # oc delete -n openshift-storage pod rook-ceph-osd-prepare-<pvc-from-above-command>-<pod-suffix>
    Copy to Clipboard Toggle word wrap
  4. 从集群中移除失败的 OSD。

    # failed_osd_id=<osd-id>
    
    # oc process -n openshift-storage ocs-osd-removal -p FAILED_OSD_IDS=$failed_osd_id | oc create -f -
    Copy to Clipboard Toggle word wrap

    其中,FAILED_OSD_ID 是 pod 名称中紧接在 rook-ceph-osd 前缀后面的整数。

  5. 通过检查日志来验证 OSD 是否已成功移除。

    # oc logs -n openshift-storage ocs-osd-removal-$<failed_osd_id>-<pod-suffix>
    Copy to Clipboard Toggle word wrap
  6. 可选:如果您遇到错误 cephosd:osd.0 is not ok to destroy from the ocs-osd-removal-job pod in OpenShift Container Platform,请参阅在 删除失败或不需要的 Ceph OSD 时对错误 cephosd:osd.0 进行故障排除
  7. 删除 OSD 部署。

    # oc delete deployment rook-ceph-osd-<osd-id>
    Copy to Clipboard Toggle word wrap

验证步骤

  • 要检查 OSD 是否已成功删除,请运行:

    # oc get pod -n openshift-storage ocs-osd-removal-$<failed_osd_id>-<pod-suffix>
    Copy to Clipboard Toggle word wrap

    这个命令必须将状态返回为 Completed

返回顶部
Red Hat logoGithubredditYoutubeTwitter

学习

尝试、购买和销售

社区

关于红帽文档

通过我们的产品和服务,以及可以信赖的内容,帮助红帽用户创新并实现他们的目标。 了解我们当前的更新.

让开源更具包容性

红帽致力于替换我们的代码、文档和 Web 属性中存在问题的语言。欲了解更多详情,请参阅红帽博客.

關於紅帽

我们提供强化的解决方案,使企业能够更轻松地跨平台和环境(从核心数据中心到网络边缘)工作。

Theme

© 2025 Red Hat