OpenShift Data Foundation 故障排除
有关 OpenShift Data Foundation 故障排除的说明
摘要
使开源包含更多 复制链接链接已复制到粘贴板!
红帽致力于替换我们的代码、文档和 Web 属性中存在问题的语言。我们从这四个术语开始:master、slave、黑名单和白名单。由于此项工作十分艰巨,这些更改将在即将推出的几个发行版本中逐步实施。详情请查看 CTO Chris Wright 的信息。
对红帽文档提供反馈 复制链接链接已复制到粘贴板!
我们感谢您对文档提供反馈信息。请告诉我们如何让它更好。
要提供反馈,请创建一个 Bugzilla ticket:
- 进入 Bugzilla 网站。
- 在 Component 部分中,选择 文档。
- 在 Description 中输入您要提供的信息。包括文档相关部分的链接。
- 点 Submit Bug。
第 1 章 概述 复制链接链接已复制到粘贴板!
OpenShift Data Foundation 故障排除旨在帮助管理员了解如何排除故障并修复其 Red Hat OpenShift Data Foundation 集群。
大多数故障排除任务都侧重于修复或临时解决方案。本文档根据管理员可能遇到的错误分为若干章节:
- 第 2 章 使用 must-gather 下载日志文件和诊断信息 如何在 OpenShift Data Foundation 中使用 must-gather 实用程序。
- 第 3 章 故障排除所需的常见日志 如何获取 OpenShift Data Foundation 所需的日志文件。
- 第 6 章 对 OpenShift Data Foundation 中的警报和错误进行故障排除 如何识别遇到的错误并执行所需的操作。
红帽不支持在 OpenShift Data Foundation 集群中运行 Ceph 命令(除非由红帽支持或红帽文档表示),因为在运行错误的命令时可能会导致数据丢失。在这种情况下,红帽支持团队只能提供商业合理的工作,在出现数据丢失时可能无法恢复所有数据。
第 2 章 使用 must-gather 下载日志文件和诊断信息 复制链接链接已复制到粘贴板!
如果 Red Hat OpenShift Data Foundation 无法自动解决问题,请使用 must-gather 工具收集日志文件和诊断信息,以便您或红帽支持可以审核问题并确定解决方案。
当将 Red Hat OpenShift Data Foundation 部署为外部模式时,must-gather 仅从 OpenShift Data Foundation 集群收集日志,且不会从外部 Red Hat Ceph Storage 集群收集调试数据和日志。要从外部 Red Hat Ceph Storage 集群收集调试日志,请参阅 Red Hat Ceph Storage 故障排除指南并联系您的 Red Hat Ceph Storage 管理员。
先决条件
可选: 如果 OpenShift Data Foundation 在断开连接的环境中部署,请确保将独立的
must-gather镜像镜像(mirror)到断开连接的环境中可用的镜像 registry。oc image mirror registry.redhat.io/odf4/odf-must-gather-rhel9:v4.13 <local-registry>/odf4/odf-must-gather-rhel9:v4.13 [--registry-config=<path-to-the-registry-config>] [--insecure=true]
$ oc image mirror registry.redhat.io/odf4/odf-must-gather-rhel9:v4.13 <local-registry>/odf4/odf-must-gather-rhel9:v4.13 [--registry-config=<path-to-the-registry-config>] [--insecure=true]Copy to Clipboard Copied! Toggle word wrap Toggle overflow <local-registry>- 是本地镜像 registry 可用于断开连接的 OpenShift Container Platform 集群。
<path-to-the-registry-config>-
是 registry 凭证的路径,默认为
~/.docker/config.json。 --insecure- 仅在镜像 registry 不安全时才添加此标志。
如需更多信息,请参阅红帽知识库解决方案:
流程
从连接到 OpenShift Data Foundation 集群的客户端运行
must-gather命令:oc adm must-gather --image=registry.redhat.io/odf4/odf-must-gather-rhel9:v4.13 --dest-dir=<directory-name>
$ oc adm must-gather --image=registry.redhat.io/odf4/odf-must-gather-rhel9:v4.13 --dest-dir=<directory-name>Copy to Clipboard Copied! Toggle word wrap Toggle overflow <directory-name>是要将数据写入的目录的名称。
重要对于断开连接的环境部署,将
--image参数中的镜像替换为镜像的must-gather镜像。oc adm must-gather --image=<local-registry>/odf4/odf-must-gather-rhel9:v4.13 --dest-dir=<directory-name>
$ oc adm must-gather --image=<local-registry>/odf4/odf-must-gather-rhel9:v4.13 --dest-dir=<directory-name>Copy to Clipboard Copied! Toggle word wrap Toggle overflow <local-registry>- 是本地镜像 registry 可用于断开连接的 OpenShift Container Platform 集群。
这会在指定目录中收集以下信息:
- 所有与 Red Hat OpenShift Data Foundation 集群相关的自定义资源(CR)及其命名空间。
- 所有 Red Hat OpenShift Data Foundation 相关 pod 的 Pod 日志。
- 某些标准 Ceph 命令的输出,如状态、集群运行状况等。
命令变体
如果一个或多个 master 节点没有处于 Ready 状态,请使用
--node-name指定一个状态为 Ready 的 master 节点,以便可以安全地调度must-gatherpod。oc adm must-gather --image=registry.redhat.io/odf4/odf-must-gather-rhel9:v4.13 --dest-dir=_<directory-name>_ --node-name=_<node-name>_
$ oc adm must-gather --image=registry.redhat.io/odf4/odf-must-gather-rhel9:v4.13 --dest-dir=_<directory-name>_ --node-name=_<node-name>_Copy to Clipboard Copied! Toggle word wrap Toggle overflow 如果要从特定时间收集信息:
要为收集的日志指定相对时间段(例如在 5 秒内或在 2 天内),添加
/usr/bin/gather since=<duration>:oc adm must-gather --image=registry.redhat.io/odf4/odf-must-gather-rhel9:v4.13 --dest-dir=_<directory-name>_ /usr/bin/gather since=<duration>
$ oc adm must-gather --image=registry.redhat.io/odf4/odf-must-gather-rhel9:v4.13 --dest-dir=_<directory-name>_ /usr/bin/gather since=<duration>Copy to Clipboard Copied! Toggle word wrap Toggle overflow 要指定在以后的一个特定时间收集日志,添加
/usr/bin/gather since-time=<rfc3339-timestamp>:oc adm must-gather --image=registry.redhat.io/odf4/odf-must-gather-rhel9:v4.13 --dest-dir=_<directory-name>_ /usr/bin/gather since-time=<rfc3339-timestamp>
$ oc adm must-gather --image=registry.redhat.io/odf4/odf-must-gather-rhel9:v4.13 --dest-dir=_<directory-name>_ /usr/bin/gather since-time=<rfc3339-timestamp>Copy to Clipboard Copied! Toggle word wrap Toggle overflow
按如下方式替换这些命令中的示例值:
- <node-name>
-
如果一个或多个 master 节点没有处于 Ready 状态,使用这个参数指定一个仍然处于 Ready 状态的 master 节点名称。这可避免调度错误,确保
must-gatherpod 没有调度到未就绪的 master 节点上。 - <directory-name>
-
must-gather收集的信息的目录。 - <duration>
-
指定收集信息的时长(相对时长),例如
5h(代表从 5 小时以前开始)。 - <rfc3339-timestamp>
-
指定收集信息的时常(RFC 3339 时间戳),例如
2020-11-10T04:00:00+00:00(代表从 2020 年 11 月 11 日 4am UTC 开始)。
第 3 章 故障排除所需的常见日志 复制链接链接已复制到粘贴板!
其中列出了一些用于对 OpenShift Data Foundation 进行故障排除的常用日志,以及用于生成这些日志的命令。
为特定 pod 生成日志:
oc logs <pod-name> -n <namespace>
$ oc logs <pod-name> -n <namespace>Copy to Clipboard Copied! Toggle word wrap Toggle overflow 为 Ceph 或 OpenShift Data Foundation 集群生成日志:
oc logs rook-ceph-operator-<ID> -n openshift-storage
$ oc logs rook-ceph-operator-<ID> -n openshift-storageCopy to Clipboard Copied! Toggle word wrap Toggle overflow 重要目前,rook-ceph-operator 日志不提供有关故障的任何信息,这在故障排除中可作为限制,请参阅为 rook-ceph-operator 启用和禁用 debug 日志。
为 cephfs 或 rbd 等插件 pod 生成日志,以检测 app-pod 挂载中的任何问题:
oc logs csi-cephfsplugin-<ID> -n openshift-storage -c csi-cephfsplugin
$ oc logs csi-cephfsplugin-<ID> -n openshift-storage -c csi-cephfspluginCopy to Clipboard Copied! Toggle word wrap Toggle overflow oc logs csi-rbdplugin-<ID> -n openshift-storage -c csi-rbdplugin
$ oc logs csi-rbdplugin-<ID> -n openshift-storage -c csi-rbdpluginCopy to Clipboard Copied! Toggle word wrap Toggle overflow 为 CSI pod 中的所有容器生成日志:
oc logs csi-cephfsplugin-<ID> -n openshift-storage --all-containers
$ oc logs csi-cephfsplugin-<ID> -n openshift-storage --all-containersCopy to Clipboard Copied! Toggle word wrap Toggle overflow oc logs csi-rbdplugin-<ID> -n openshift-storage --all-containers
$ oc logs csi-rbdplugin-<ID> -n openshift-storage --all-containersCopy to Clipboard Copied! Toggle word wrap Toggle overflow
为 cephfs 或 rbd provisioner pod 生成日志,以检测 PVC 不处于 BOUND 状态的问题:
oc logs csi-cephfsplugin-provisioner-<ID> -n openshift-storage -c csi-cephfsplugin
$ oc logs csi-cephfsplugin-provisioner-<ID> -n openshift-storage -c csi-cephfspluginCopy to Clipboard Copied! Toggle word wrap Toggle overflow oc logs csi-rbdplugin-provisioner-<ID> -n openshift-storage -c csi-rbdplugin
$ oc logs csi-rbdplugin-provisioner-<ID> -n openshift-storage -c csi-rbdpluginCopy to Clipboard Copied! Toggle word wrap Toggle overflow 为 CSI pod 中的所有容器生成日志:
oc logs csi-cephfsplugin-provisioner-<ID> -n openshift-storage --all-containers
$ oc logs csi-cephfsplugin-provisioner-<ID> -n openshift-storage --all-containersCopy to Clipboard Copied! Toggle word wrap Toggle overflow oc logs csi-rbdplugin-provisioner-<ID> -n openshift-storage --all-containers
$ oc logs csi-rbdplugin-provisioner-<ID> -n openshift-storage --all-containersCopy to Clipboard Copied! Toggle word wrap Toggle overflow
使用 cluster-info 命令生成 OpenShift Data Foundation 日志:
oc cluster-info dump -n openshift-storage --output-directory=<directory-name>
$ oc cluster-info dump -n openshift-storage --output-directory=<directory-name>Copy to Clipboard Copied! Toggle word wrap Toggle overflow 使用 Local Storage Operator 时,可以使用 cluster-info 命令生成日志:
oc cluster-info dump -n openshift-local-storage --output-directory=<directory-name>
$ oc cluster-info dump -n openshift-local-storage --output-directory=<directory-name>Copy to Clipboard Copied! Toggle word wrap Toggle overflow 检查 OpenShift Data Foundation 操作器日志和事件。
检查 Operator 日志:
oc logs <ocs-operator> -n openshift-storage
# oc logs <ocs-operator> -n openshift-storageCopy to Clipboard Copied! Toggle word wrap Toggle overflow - <ocs-operator>
oc get pods -n openshift-storage | grep -i "ocs-operator" | awk '{print $1}'# oc get pods -n openshift-storage | grep -i "ocs-operator" | awk '{print $1}'Copy to Clipboard Copied! Toggle word wrap Toggle overflow
检查 Operator 事件 :
oc get events --sort-by=metadata.creationTimestamp -n openshift-storage
# oc get events --sort-by=metadata.creationTimestamp -n openshift-storageCopy to Clipboard Copied! Toggle word wrap Toggle overflow
获取 OpenShift Data Foundation 操作器版本和渠道。
oc get csv -n openshift-storage
# oc get csv -n openshift-storageCopy to Clipboard Copied! Toggle word wrap Toggle overflow 输出示例:
NAME DISPLAY VERSION REPLACES PHASE mcg-operator.v4.13.0 NooBaa Operator 4.13.0 Succeeded ocs-operator.v4.13.0 OpenShift Container Storage 4.13.0 Succeeded odf-csi-addons-operator.v4.13.0 CSI Addons 4.13.0 Succeeded odf-operator.v4.13.0 OpenShift Data Foundation 4.13.0 Succeeded
NAME DISPLAY VERSION REPLACES PHASE mcg-operator.v4.13.0 NooBaa Operator 4.13.0 Succeeded ocs-operator.v4.13.0 OpenShift Container Storage 4.13.0 Succeeded odf-csi-addons-operator.v4.13.0 CSI Addons 4.13.0 Succeeded odf-operator.v4.13.0 OpenShift Data Foundation 4.13.0 SucceededCopy to Clipboard Copied! Toggle word wrap Toggle overflow oc get subs -n openshift-storage
# oc get subs -n openshift-storageCopy to Clipboard Copied! Toggle word wrap Toggle overflow 输出示例:
NAME PACKAGE SOURCE CHANNEL mcg-operator-stable-4.13-redhat-operators-openshift-marketplace mcg-operator redhat-operators stable-4.13 ocs-operator-stable-4.13-redhat-operators-openshift-marketplace ocs-operator redhat-operators stable-4.13 odf-csi-addons-operator odf-csi-addons-operator redhat-operators stable-4.13 odf-operator odf-operator redhat-operators stable-4.13
NAME PACKAGE SOURCE CHANNEL mcg-operator-stable-4.13-redhat-operators-openshift-marketplace mcg-operator redhat-operators stable-4.13 ocs-operator-stable-4.13-redhat-operators-openshift-marketplace ocs-operator redhat-operators stable-4.13 odf-csi-addons-operator odf-csi-addons-operator redhat-operators stable-4.13 odf-operator odf-operator redhat-operators stable-4.13Copy to Clipboard Copied! Toggle word wrap Toggle overflow 确认已创建了安装计划。
oc get installplan -n openshift-storage
# oc get installplan -n openshift-storageCopy to Clipboard Copied! Toggle word wrap Toggle overflow 在更新 OpenShift Data Foundation 后,验证组件的镜像。
检查您要在其上验证镜像运行的组件 pod 的节点。
oc get pods -o wide | grep <component-name>
# oc get pods -o wide | grep <component-name>Copy to Clipboard Copied! Toggle word wrap Toggle overflow 例如:
oc get pods -o wide | grep rook-ceph-operator
# oc get pods -o wide | grep rook-ceph-operatorCopy to Clipboard Copied! Toggle word wrap Toggle overflow 输出示例:
rook-ceph-operator-566cc677fd-bjqnb 1/1 Running 20 4h6m 10.128.2.5 rook-ceph-operator-566cc677fd-bjqnb 1/1 Running 20 4h6m 10.128.2.5 dell-r440-12.gsslab.pnq2.redhat.com <none> <none> <none> <none>
rook-ceph-operator-566cc677fd-bjqnb 1/1 Running 20 4h6m 10.128.2.5 rook-ceph-operator-566cc677fd-bjqnb 1/1 Running 20 4h6m 10.128.2.5 dell-r440-12.gsslab.pnq2.redhat.com <none> <none> <none> <none>Copy to Clipboard Copied! Toggle word wrap Toggle overflow dell-r440-12.gsslab.pnq2.redhat.com是 node-name。检查镜像 ID。
oc debug node/<node name>
# oc debug node/<node name>Copy to Clipboard Copied! Toggle word wrap Toggle overflow <node-name>
是您要验证镜像运行的组件 pod 的节点名称。
chroot /host
# chroot /hostCopy to Clipboard Copied! Toggle word wrap Toggle overflow crictl images | grep <component>
# crictl images | grep <component>Copy to Clipboard Copied! Toggle word wrap Toggle overflow 例如:
crictl images | grep rook-ceph
# crictl images | grep rook-cephCopy to Clipboard Copied! Toggle word wrap Toggle overflow 记录
IMAGEID,并将其映射到 Rook Ceph Operator 页面中的 Digest ID。
其他资源
3.1. 调整日志的详细程度 复制链接链接已复制到粘贴板!
调试日志消耗的空间量可能会成为严重的问题。Red Hat OpenShift Data Foundation 提供了一种调整方法,因此可以控制调试日志消耗的存储量。
要调整调试日志的详细程度,您可以调整负责 CSI 操作的容器的日志级别。在容器的 yaml 文件中,调整以下参数来设置日志级别:
-
CSI_LOG_LEVEL- 默认为5 -
CSI_SIDECAR_LOG_LEVEL- 默认为1
支持的值从 0 到 5。0 作为常规使用的日志,5 具有追踪级别的详细程度。
第 4 章 部署后覆盖 OpenShift Data Foundation 的集群范围默认节点选择器 复制链接链接已复制到粘贴板!
当将集群范围的默认节点选择器用于 OpenShift Data Foundation 时,CSI daemonset 生成的 pod 只能在与选择器匹配的节点上启动。要能够从与选择器不匹配的节点使用 OpenShift Data Foundation,请在命令行界面中执行以下步骤来覆盖集群范围的默认节点选择器 :
流程
为 openshift-storage 命名空间指定一个空白节点选择器。
oc annotate namespace openshift-storage openshift.io/node-selector=
$ oc annotate namespace openshift-storage openshift.io/node-selector=Copy to Clipboard Copied! Toggle word wrap Toggle overflow 删除 DaemonSet 生成的原始 pod。
oc delete pod -l app=csi-cephfsplugin -n openshift-storage oc delete pod -l app=csi-rbdplugin -n openshift-storage
oc delete pod -l app=csi-cephfsplugin -n openshift-storage oc delete pod -l app=csi-rbdplugin -n openshift-storageCopy to Clipboard Copied! Toggle word wrap Toggle overflow
第 5 章 加密令牌已删除或过期 复制链接链接已复制到粘贴板!
如果密钥管理系统的加密令牌被删除或过期,请使用这个流程更新令牌。
先决条件
- 确保您有一个与已删除或过期令牌相同的策略的新令牌
流程
- 登录 OpenShift Container Platform Web 控制台。
- 点 Workloads → Secrets
更新用于集群范围加密的 ocs-kms-token :
-
将 Project 设置为
openshift-storage。 - 点 ocs-kms-token → Actions → Edit Secret。
- 在 Value 字段中拖放或上传您的加密令牌文件。令牌可以是可复制和粘贴的文件或文本。
- 点 Save。
-
将 Project 设置为
为带有加密持久性卷的给定项目或命名空间更新 ceph-csi-kms-token :
- 选择所需的项目。
- 点 ceph-csi-kms-token → Actions → Edit Secret。
- 在 Value 字段中拖放或上传您的加密令牌文件。令牌可以是可复制和粘贴的文件或文本。
点 Save。
注意只有在所有使用
ceph-csi-kms-token的加密 PVC 已被删除后,才能删除令牌。
第 6 章 对 OpenShift Data Foundation 中的警报和错误进行故障排除 复制链接链接已复制到粘贴板!
6.1. 解决警报和错误 复制链接链接已复制到粘贴板!
Red Hat OpenShift Data Foundation 可以检测并自动解决许多常见的故障情形。但是,有些问题需要管理员介入。
要了解当前触发的错误,请查看以下位置之一:
- Observe → Alerting → Firing 选项
- Home → Overview → Cluster 标签页
- Storage → Data Foundation → Storage System → storage system 链接,在弹出的 → Overview → Block and File 标签页
- Storage → Data Foundation → Storage System → Storage system 链接,在弹出 → Overview → Object 标签页
复制显示的错误并在以下部分搜索它以了解其严重性和解决方案:
|
Name:
Message:
Description: 严重性: 警告 解决方案 :修复 流程 :检查用户界面和日志,并验证更新是否进行中。
|
|
名称:
Message:
Description: 严重性: 警告 解决方案 :修复 流程 :检查用户界面和日志,并验证更新是否进行中。
|
|
名称 :
消息 :
描述 : 严重性: 关键 解决方案 :修复 流程 :删除不必要的数据或扩展集群。 |
|
名称 :
修复了:
描述 : 严重性: 警告 解决方案 :修复 流程 :删除不必要的数据或扩展集群。 |
|
Name:
Message:
Description 严重性: 警告 解决方案 :临时解决方案 流程 :查找不健康的存储桶的错误代码 |
|
名称:
Message:
描述 严重性: 警告 解决方案 :修复 |
|
Name:
Message:
Description 严重性: 警告 解决方案 :修复 流程 :查找不健康的存储桶的错误代码 |
|
Name:
Message Description: `Minimum required replicas for storage metadata service not available. 可能会影响存储集群的工作。 严重性: 警告 解决方案 :请联系红帽支持 流程 :
|
|
名称 :
Message:
描述 严重级别: Critical 解决方案 :请联系红帽支持 流程 :
|
|
名称 :
Message:
描述: 严重级别: Critical 解决方案 :请联系红帽支持 流程 :
|
|
名称 :
消息:
Description : 严重级别: Critical 解决方案 :请联系红帽支持 流程 :
|
|
名称 :
Message:
描述: 严重性: 警告 解决方案 :请联系红帽支持 流程 :
|
|
名称 :
Message:
描述 : 严重性: 警告 解决方案 :请联系红帽支持 |
|
名称 :
Message:
描述 严重级别: Critical 解决方案 :请联系红帽支持 |
|
名称 :
Message:
描述: 严重级别: Critical 解决方案 :请联系红帽支持 |
|
名称 :
Message:
描述 : 严重性: 警告 解决方案 :请联系红帽支持 |
|
Name:
Message:
描述: 严重性: 警告 解决方案 :请联系红帽支持 |
|
名称 :
消息 :
描述 : 严重级别: Critical 解决方案 :请联系红帽支持 |
|
名称 :
Message:
描述: 严重级别: Critical 解决方案 :请联系红帽支持 流程 :
|
|
名称 :
Message:
描述 : 严重级别: Critical 解决方案 :请联系红帽支持 |
|
名称 :
Message: 描述 :对一个或多个应用程序失败。 严重性: 警告 解决方案 :请联系红帽支持 |
|
名称 :
消息 : 描述 :对整个集群进行灾难恢复失败。Mirror daemon is in unhealthy status for more than 1m.Mirroring on this cluster is not working as expected. 严重级别: Critical 解决方案 :请联系红帽支持 |
6.2. 解决集群健康问题 复制链接链接已复制到粘贴板!
Red Hat Ceph Storage 可以在 OpenShift Data Foundation 用户界面中引发该显示的一系列有限健康消息。它们定义为具有唯一标识符的健康检查。标识符是一个制表伪可读字符串,旨在使工具能够理解健康检查,并以反应其含义的方式呈现它们。有关更多信息和故障排除,请单击下面的健康代码。
| 健康代码 | 描述 |
|---|---|
| 一个或多个 Ceph 监控器在磁盘空间上较低。 |
6.2.1. MON_DISK_LOW 复制链接链接已复制到粘贴板!
如果将 monitor 数据库存储为百分比的文件系统中的可用空间下降到 mon_data_avail_warn 下,则会触发此警报(默认:15%)。这可能表明系统上的某些其他进程或用户正在填满监控器使用的相同文件系统。也可能表明监控器的数据库比较大。
文件系统的路径因您的 mon 部署而异。您可以找到在 storagecluster.yaml 中部署 mon 的路径。
路径示例:
-
通过 PVC 路径部署的 mon:
/var/lib/ceph/mon -
通过 hostpath 部署 mon:
/var/lib/rook/mon
若要清除空间,请查看文件系统中的高使用量文件并选择要删除的文件。要查看文件,请运行:
du -a <path-in-the-mon-node> |sort -n -r |head -n10
# du -a <path-in-the-mon-node> |sort -n -r |head -n10
将 <path-in-the-mon-node> 替换为部署 mons 的文件系统的路径。
6.3. 解决集群警报 复制链接链接已复制到粘贴板!
Red Hat Ceph Storage 集群可以引发的一组有限健康警报,显示在 OpenShift Data Foundation 用户界面中。它们定义为具有唯一标识符的健康警报。标识符是一个制表伪可读字符串,旨在使工具能够理解健康检查,并以反应其含义的方式呈现它们。点健康警报以了解更多信息和故障排除。
| 健康警报 | 概述 |
|---|---|
| 存储集群利用率已超过 80%。 | |
| 存储集群处于错误状态的时间已超过 10 分钟。 | |
| 存储集群接近满容量。需要删除数据或集群扩展。 | |
| 存储集群现在是只读的,需要立即删除数据或集群扩展。 | |
| 存储集群处于警告状态超过 10 分钟。 | |
| Data recovery has been active for too long. | |
| 存储元数据服务不可用所需的最小副本。可能会影响存储集群的工作。 | |
| Ceph Manager has disappeared from Prometheus target discovery. | |
|
Ceph 管理器缺少副本。这会破坏健康状态报告,并将导致 | |
| Ceph 监控领导正在改变异常次数。 | |
| Storage cluster quorum is low. | |
| 存储集群中的监控 pod 数量不够。 | |
| 运行 Ceph Mon 组件的不同版本。 | |
| 存储节点停机。立即检查节点。该警报应包含节点名称。 | |
| 后端对象存储设备(OSD)的利用率已超过 80%。立即释放一些空间或扩展存储集群或联系支持。 | |
| 磁盘设备没有在其中一个主机上响应。 | |
| 一个主机上无法访问磁盘设备。 | |
| Ceph 存储 OSD 阻塞。 | |
| 其中一个 OSD 存储设备接近满。 | |
| OSD 请求需要很长时间才能进行处理。 | |
| 运行 Ceph OSD 组件的不同版本。 | |
| 自我修复操作用时过长。 | |
| 存储池配额使用量已超过 90%。 | |
| 存储池配额使用量已超过 70%。 | |
| 持久性卷声明使用量已超过 85% 的容量。 | |
| 持久性卷声明使用量已超过 75% 的容量。 |
6.3.1. CephClusterCriticallyFull 复制链接链接已复制到粘贴板!
| 含义 | 存储集群利用率已超过 80%,并将在 85% 时变得只读。超过 85% 的利用率后,您的 Ceph 集群将变得只读。释放一些空间或立即扩展存储集群。在此警报之前,会看到与 Object Storage Device (OSD)设备满或接近满的警报。 |
| 影响 | 高 |
诊断
- 扩展存储
- 根据集群的类型,您需要添加存储设备、节点或两者。如需更多信息,请参阅扩展存储指南。
缓解方案
- 删除信息
- 如果无法扩展集群,则需要删除信息来释放一些空间。
6.3.2. CephClusterErrorState 复制链接链接已复制到粘贴板!
| 含义 | 此警报反映了存储集群在不可接受的时间处于 ERROR 状态,这会破坏存储的可用性。检查之前触发的其他警报,并首先对这些警报进行故障排除。 |
| 影响 | Critical |
诊断
- Pod 状态:Pending
检查资源问题、待处理持久性卷声明(PVC)、节点分配和 kubelet 问题:
oc project openshift-storage
$ oc project openshift-storageCopy to Clipboard Copied! Toggle word wrap Toggle overflow oc get pod | grep rook-ceph
$ oc get pod | grep rook-cephCopy to Clipboard Copied! Toggle word wrap Toggle overflow 将
MYPOD设置为标识为问题 pod 的 pod 的变量:# Examine the output for a rook-ceph that is in the pending state, not running or not ready MYPOD=<pod_name>
# Examine the output for a rook-ceph that is in the pending state, not running or not ready MYPOD=<pod_name>Copy to Clipboard Copied! Toggle word wrap Toggle overflow <pod_name>- 指定被认为是有问题的 pod 的 pod 的名称。
查找资源限制或待处理的 PVC。否则,检查节点分配:
oc get pod/${MYPOD} -o wide$ oc get pod/${MYPOD} -o wideCopy to Clipboard Copied! Toggle word wrap Toggle overflow
- Pod 状态: NOT pending, running, but not ready
检查就绪度探测:
oc describe pod/${MYPOD}$ oc describe pod/${MYPOD}Copy to Clipboard Copied! Toggle word wrap Toggle overflow
- pod 状态: NOT pending, but NOT running
检查应用程序或镜像问题:
oc logs pod/${MYPOD}$ oc logs pod/${MYPOD}Copy to Clipboard Copied! Toggle word wrap Toggle overflow 重要- 如果分配了节点,请检查节点上的 kubelet。
- 如果正在运行的 pod 的基本健康状况,则验证节点上的节点关联性和资源可用性,请运行 Ceph 工具来获取存储组件的状态。
缓解方案
- 调试日志信息
此步骤是可选的。运行以下命令来收集 Ceph 集群的调试信息:
oc adm must-gather --image=registry.redhat.io/odf4/odf-must-gather-rhel9:v4.13
$ oc adm must-gather --image=registry.redhat.io/odf4/odf-must-gather-rhel9:v4.13Copy to Clipboard Copied! Toggle word wrap Toggle overflow
6.3.3. CephClusterNearFull 复制链接链接已复制到粘贴板!
| 含义 | 存储集群利用率已超过 75%,并将在 85% 时变得只读。释放一些空间或扩展存储集群。 |
| 影响 | Critical |
诊断
- 扩展存储
- 根据集群的类型,您需要添加存储设备、节点或两者。如需更多信息,请参阅扩展存储指南。
缓解方案
- 删除信息
- 如果无法扩展集群,则需要删除信息来释放一些空间。
6.3.4. CephClusterReadOnly 复制链接链接已复制到粘贴板!
| 含义 | 存储集群利用率已超过 85%,现在将变为只读。释放一些空间或立即扩展存储集群。 |
| 影响 | Critical |
诊断
- 扩展存储
- 根据集群的类型,您需要添加存储设备、节点或两者。如需更多信息,请参阅扩展存储指南。
缓解方案
- 删除信息
- 如果无法扩展集群,则需要删除信息来释放一些空间。
6.3.5. CephClusterWarningState 复制链接链接已复制到粘贴板!
| 含义 | 此警报反映了存储集群在不可接受的时间处于警告状态。虽然存储操作将继续处于此状态,但建议修复这个错误,以便集群不会遇到错误状态影响操作。检查之前可能触发的其他警报,并首先对这些警报进行故障排除。 |
| 影响 | 高 |
诊断
- Pod 状态:Pending
检查资源问题、待处理持久性卷声明(PVC)、节点分配和 kubelet 问题:
oc project openshift-storage
$ oc project openshift-storageCopy to Clipboard Copied! Toggle word wrap Toggle overflow oc get pod | grep {ceph-component}oc get pod | grep {ceph-component}Copy to Clipboard Copied! Toggle word wrap Toggle overflow 将
MYPOD设置为标识为问题 pod 的 pod 的变量:# Examine the output for a {ceph-component} that is in the pending state, not running or not ready MYPOD=<pod_name># Examine the output for a {ceph-component} that is in the pending state, not running or not ready MYPOD=<pod_name>Copy to Clipboard Copied! Toggle word wrap Toggle overflow <pod_name>- 指定被认为是有问题的 pod 的 pod 的名称。
查找资源限制或待处理的 PVC。否则,检查节点分配:
oc get pod/${MYPOD} -o wide$ oc get pod/${MYPOD} -o wideCopy to Clipboard Copied! Toggle word wrap Toggle overflow
- Pod 状态: NOT pending, running, but not ready
检查就绪度探测:
oc describe pod/${MYPOD}$ oc describe pod/${MYPOD}Copy to Clipboard Copied! Toggle word wrap Toggle overflow
- pod 状态: NOT pending, but NOT running
检查应用程序或镜像问题:
oc logs pod/${MYPOD}$ oc logs pod/${MYPOD}Copy to Clipboard Copied! Toggle word wrap Toggle overflow 重要如果分配了节点,请检查节点上的 kubelet。
缓解方案
- 调试日志信息
- 此步骤是可选的。运行以下命令来收集 Ceph 集群的调试信息:
oc adm must-gather --image=registry.redhat.io/odf4/odf-must-gather-rhel9:v4.13
$ oc adm must-gather --image=registry.redhat.io/odf4/odf-must-gather-rhel9:v4.13Copy to Clipboard Copied! Toggle word wrap Toggle overflow
6.3.6. CephDataRecoveryTakingTooLong 复制链接链接已复制到粘贴板!
| 含义 | 数据恢复速度较慢。检查所有对象存储设备(OSD)是否已启动并运行。 |
| 影响 | 高 |
诊断
- Pod 状态:Pending
检查资源问题、待处理持久性卷声明(PVC)、节点分配和 kubelet 问题:
oc project openshift-storage
$ oc project openshift-storageCopy to Clipboard Copied! Toggle word wrap Toggle overflow oc get pod | grep rook-ceph-osd
oc get pod | grep rook-ceph-osdCopy to Clipboard Copied! Toggle word wrap Toggle overflow 将
MYPOD设置为标识为问题 pod 的 pod 的变量:# Examine the output for a {ceph-component} that is in the pending state, not running or not ready MYPOD=<pod_name># Examine the output for a {ceph-component} that is in the pending state, not running or not ready MYPOD=<pod_name>Copy to Clipboard Copied! Toggle word wrap Toggle overflow <pod_name>- 指定被认为是有问题的 pod 的 pod 的名称。
查找资源限制或待处理的 PVC。否则,检查节点分配:
oc get pod/${MYPOD} -o wide$ oc get pod/${MYPOD} -o wideCopy to Clipboard Copied! Toggle word wrap Toggle overflow
- Pod 状态: NOT pending, running, but not ready
检查就绪度探测:
oc describe pod/${MYPOD}$ oc describe pod/${MYPOD}Copy to Clipboard Copied! Toggle word wrap Toggle overflow
- pod 状态: NOT pending, but NOT running
检查应用程序或镜像问题:
oc logs pod/${MYPOD}$ oc logs pod/${MYPOD}Copy to Clipboard Copied! Toggle word wrap Toggle overflow 重要如果分配了节点,请检查节点上的 kubelet。
缓解方案
- 调试日志信息
- 此步骤是可选的。运行以下命令来收集 Ceph 集群的调试信息:
oc adm must-gather --image=registry.redhat.io/odf4/odf-must-gather-rhel9:v4.13
$ oc adm must-gather --image=registry.redhat.io/odf4/odf-must-gather-rhel9:v4.13Copy to Clipboard Copied! Toggle word wrap Toggle overflow
6.3.7. CephMdsMissingReplicas 复制链接链接已复制到粘贴板!
| 含义 | 存储元数据服务(MDS)的最低副本不可用。MDS 负责填充元数据。MDS 服务的降级可能会影响存储集群的工作方式(与 CephFS 存储类相关),并应尽快修复。 |
| 影响 | 高 |
诊断
- Pod 状态:Pending
检查资源问题、待处理持久性卷声明(PVC)、节点分配和 kubelet 问题:
oc project openshift-storage
$ oc project openshift-storageCopy to Clipboard Copied! Toggle word wrap Toggle overflow oc get pod | grep rook-ceph-mds
oc get pod | grep rook-ceph-mdsCopy to Clipboard Copied! Toggle word wrap Toggle overflow 将
MYPOD设置为标识为问题 pod 的 pod 的变量:# Examine the output for a {ceph-component} that is in the pending state, not running or not ready MYPOD=<pod_name># Examine the output for a {ceph-component} that is in the pending state, not running or not ready MYPOD=<pod_name>Copy to Clipboard Copied! Toggle word wrap Toggle overflow <pod_name>- 指定被认为是有问题的 pod 的 pod 的名称。
查找资源限制或待处理的 PVC。否则,检查节点分配:
oc get pod/${MYPOD} -o wide$ oc get pod/${MYPOD} -o wideCopy to Clipboard Copied! Toggle word wrap Toggle overflow
- Pod 状态: NOT pending, running, but not ready
检查就绪度探测:
oc describe pod/${MYPOD}$ oc describe pod/${MYPOD}Copy to Clipboard Copied! Toggle word wrap Toggle overflow
- pod 状态: NOT pending, but NOT running
检查应用程序或镜像问题:
oc logs pod/${MYPOD}$ oc logs pod/${MYPOD}Copy to Clipboard Copied! Toggle word wrap Toggle overflow 重要如果分配了节点,请检查节点上的 kubelet。
缓解方案
- 调试日志信息
- 此步骤是可选的。运行以下命令来收集 Ceph 集群的调试信息:
oc adm must-gather --image=registry.redhat.io/odf4/odf-must-gather-rhel9:v4.13
$ oc adm must-gather --image=registry.redhat.io/odf4/odf-must-gather-rhel9:v4.13Copy to Clipboard Copied! Toggle word wrap Toggle overflow
6.3.8. CephMgrIsAbsent 复制链接链接已复制到粘贴板!
| 含义 | 没有 Ceph 管理器运行对集群的监控。创建和删除请求应尽快解决持久性卷声明(PVC)创建和删除请求。 |
| 影响 | 高 |
诊断
验证
rook-ceph-mgrpod 失败,并在需要时重启。如果 Ceph mgr pod 重启失败,请遵循常规 pod 故障排除来解决这个问题。验证 Ceph mgr pod 失败:
oc get pods | grep mgr
$ oc get pods | grep mgrCopy to Clipboard Copied! Toggle word wrap Toggle overflow 描述 Ceph mgr pod 以获取更多详细信息:
oc describe pods/<pod_name>
$ oc describe pods/<pod_name>Copy to Clipboard Copied! Toggle word wrap Toggle overflow <pod_name>-
指定上一步中的
rook-ceph-mgrpod 名称。
分析与资源问题相关的错误。
删除 pod,并等待 pod 重启:
oc get pods | grep mgr
$ oc get pods | grep mgrCopy to Clipboard Copied! Toggle word wrap Toggle overflow
按照以下步骤进行常规 pod 故障排除:
- Pod 状态:Pending
检查资源问题、待处理持久性卷声明(PVC)、节点分配和 kubelet 问题:
oc project openshift-storage
$ oc project openshift-storageCopy to Clipboard Copied! Toggle word wrap Toggle overflow oc get pod | grep rook-ceph-mgr
oc get pod | grep rook-ceph-mgrCopy to Clipboard Copied! Toggle word wrap Toggle overflow 将
MYPOD设置为标识为问题 pod 的 pod 的变量:# Examine the output for a {ceph-component} that is in the pending state, not running or not ready MYPOD=<pod_name># Examine the output for a {ceph-component} that is in the pending state, not running or not ready MYPOD=<pod_name>Copy to Clipboard Copied! Toggle word wrap Toggle overflow <pod_name>- 指定被认为是有问题的 pod 的 pod 的名称。
查找资源限制或待处理的 PVC。否则,检查节点分配:
oc get pod/${MYPOD} -o wide$ oc get pod/${MYPOD} -o wideCopy to Clipboard Copied! Toggle word wrap Toggle overflow
- Pod 状态: NOT pending, running, but not ready
检查就绪度探测:
oc describe pod/${MYPOD}$ oc describe pod/${MYPOD}Copy to Clipboard Copied! Toggle word wrap Toggle overflow
- pod 状态: NOT pending, but NOT running
检查应用程序或镜像问题:
oc logs pod/${MYPOD}$ oc logs pod/${MYPOD}Copy to Clipboard Copied! Toggle word wrap Toggle overflow 重要如果分配了节点,请检查节点上的 kubelet。
缓解方案
- 调试日志信息
- 此步骤是可选的。运行以下命令来收集 Ceph 集群的调试信息:
oc adm must-gather --image=registry.redhat.io/odf4/odf-must-gather-rhel9:v4.13
$ oc adm must-gather --image=registry.redhat.io/odf4/odf-must-gather-rhel9:v4.13Copy to Clipboard Copied! Toggle word wrap Toggle overflow
6.3.9. CephMgrIsMissingReplicas 复制链接链接已复制到粘贴板!
| 含义 | 要解决此警报,您需要确定 Ceph 管理器消失的原因,并在需要时重新启动。 |
| 影响 | 高 |
诊断
- Pod 状态:Pending
检查资源问题、待处理持久性卷声明(PVC)、节点分配和 kubelet 问题:
oc project openshift-storage
$ oc project openshift-storageCopy to Clipboard Copied! Toggle word wrap Toggle overflow oc get pod | grep rook-ceph-mgr
oc get pod | grep rook-ceph-mgrCopy to Clipboard Copied! Toggle word wrap Toggle overflow 将
MYPOD设置为标识为问题 pod 的 pod 的变量:# Examine the output for a {ceph-component} that is in the pending state, not running or not ready MYPOD=<pod_name># Examine the output for a {ceph-component} that is in the pending state, not running or not ready MYPOD=<pod_name>Copy to Clipboard Copied! Toggle word wrap Toggle overflow <pod_name>- 指定被认为是有问题的 pod 的 pod 的名称。
查找资源限制或待处理的 PVC。否则,检查节点分配:
oc get pod/${MYPOD} -o wide$ oc get pod/${MYPOD} -o wideCopy to Clipboard Copied! Toggle word wrap Toggle overflow
- Pod 状态: NOT pending, running, but not ready
检查就绪度探测:
oc describe pod/${MYPOD}$ oc describe pod/${MYPOD}Copy to Clipboard Copied! Toggle word wrap Toggle overflow
- pod 状态: NOT pending, but NOT running
检查应用程序或镜像问题:
oc logs pod/${MYPOD}$ oc logs pod/${MYPOD}Copy to Clipboard Copied! Toggle word wrap Toggle overflow 重要如果分配了节点,请检查节点上的 kubelet。
缓解方案
- 调试日志信息
- 此步骤是可选的。运行以下命令来收集 Ceph 集群的调试信息:
oc adm must-gather --image=registry.redhat.io/odf4/odf-must-gather-rhel9:v4.13
$ oc adm must-gather --image=registry.redhat.io/odf4/odf-must-gather-rhel9:v4.13Copy to Clipboard Copied! Toggle word wrap Toggle overflow
6.3.10. CephMonHighNumberOfLeaderChanges 复制链接链接已复制到粘贴板!
| 含义 | 在 Ceph 集群中,有一组冗余的 monitor pod,用于存储有关存储集群的重要信息。定期监控 pod 同步,以获取有关存储集群的信息。第一个监控 pod 获取最新更新的信息成为领导信息,其他监控容器集将在询问领导后启动其同步过程。在一个或多个 monitor pod 中网络连接或其他类型问题会造成不必要的变化。这种情形可能会对存储集群性能造成负面影响。 |
| 影响 | Medium |
检查是否有网络问题。如果存在网络问题,则需要在进行以下任何故障排除步骤前升级到 OpenShift Data Foundation 团队。
诊断
输出受影响监控 pod 的日志,以收集有关此问题的更多信息:
oc logs <rook-ceph-mon-X-yyyy> -n openshift-storage
$ oc logs <rook-ceph-mon-X-yyyy> -n openshift-storageCopy to Clipboard Copied! Toggle word wrap Toggle overflow <rook-ceph-mon-X-yyyy>- 指定受影响的 monitor pod 的名称。
- 或者,使用 Openshift Web 控制台打开受影响的监控 pod 的日志。有关可能原因的更多信息,会在日志中反映。
执行常规 pod 故障排除步骤:
- Pod 状态:Pending
检查资源问题、待处理持久性卷声明(PVC)、节点分配和 kubelet 问题:
oc project openshift-storage
$ oc project openshift-storageCopy to Clipboard Copied! Toggle word wrap Toggle overflow oc get pod | grep {ceph-component}oc get pod | grep {ceph-component}Copy to Clipboard Copied! Toggle word wrap Toggle overflow 将
MYPOD设置为标识为问题 pod 的 pod 的变量:# Examine the output for a {ceph-component} that is in the pending state, not running or not ready MYPOD=<pod_name># Examine the output for a {ceph-component} that is in the pending state, not running or not ready MYPOD=<pod_name>Copy to Clipboard Copied! Toggle word wrap Toggle overflow <pod_name>- 指定被认为是有问题的 pod 的 pod 的名称。
查找资源限制或待处理的 PVC。否则,检查节点分配:
oc get pod/${MYPOD} -o wide$ oc get pod/${MYPOD} -o wideCopy to Clipboard Copied! Toggle word wrap Toggle overflow - Pod 状态: NOT pending, running, but not ready
- 检查就绪度探测:
oc describe pod/${MYPOD}$ oc describe pod/${MYPOD}Copy to Clipboard Copied! Toggle word wrap Toggle overflow - pod 状态: NOT pending, but NOT running
- 检查应用程序或镜像问题:
oc logs pod/${MYPOD}$ oc logs pod/${MYPOD}Copy to Clipboard Copied! Toggle word wrap Toggle overflow 重要如果分配了节点,请检查节点上的 kubelet。
缓解方案
- 调试日志信息
- 此步骤是可选的。运行以下命令来收集 Ceph 集群的调试信息:
oc adm must-gather --image=registry.redhat.io/odf4/odf-must-gather-rhel9:v4.13
$ oc adm must-gather --image=registry.redhat.io/odf4/odf-must-gather-rhel9:v4.13Copy to Clipboard Copied! Toggle word wrap Toggle overflow
6.3.11. CephMonQuorumAtRisk 复制链接链接已复制到粘贴板!
| 含义 | 多个 MON 协同工作以提供冗余性。每个 MON 都会保留元数据的副本。集群使用 3 MON 部署,并且需要 2 个或更多 MON 上线并运行仲裁,以及运行存储操作。如果仲裁丢失,对数据的访问将面临风险。 |
| 影响 | 高 |
诊断
恢复 Ceph MON Quorum。如需更多信息,请参阅故障排除指南中的在 OpenShift Data Foundation 中恢复 ceph-monitor 仲裁。如果恢复 Ceph MON Quorum 失败,请遵循常规 pod 故障排除来解决这个问题。
对常规 pod 故障排除执行以下操作:
- Pod 状态:Pending
+[
检查资源问题、待处理持久性卷声明(PVC)、节点分配和 kubelet 问题:
oc project openshift-storage
$ oc project openshift-storageCopy to Clipboard Copied! Toggle word wrap Toggle overflow oc get pod | grep rook-ceph-mon
oc get pod | grep rook-ceph-monCopy to Clipboard Copied! Toggle word wrap Toggle overflow 将
MYPOD设置为标识为问题 pod 的 pod 的变量:# Examine the output for a {ceph-component} that is in the pending state, not running or not ready MYPOD=<pod_name># Examine the output for a {ceph-component} that is in the pending state, not running or not ready MYPOD=<pod_name>Copy to Clipboard Copied! Toggle word wrap Toggle overflow <pod_name>- 指定被认为是有问题的 pod 的 pod 的名称。
查找资源限制或待处理的 PVC。否则,检查节点分配:
oc get pod/${MYPOD} -o wide$ oc get pod/${MYPOD} -o wideCopy to Clipboard Copied! Toggle word wrap Toggle overflow
- Pod 状态: NOT pending, running, but not ready
- 检查就绪度探测:
oc describe pod/${MYPOD}$ oc describe pod/${MYPOD}Copy to Clipboard Copied! Toggle word wrap Toggle overflow - pod 状态: NOT pending, but NOT running
- 检查应用程序或镜像问题:
oc logs pod/${MYPOD}$ oc logs pod/${MYPOD}Copy to Clipboard Copied! Toggle word wrap Toggle overflow 重要如果分配了节点,请检查节点上的 kubelet。
缓解方案
- 调试日志信息
- 此步骤是可选的。运行以下命令来收集 Ceph 集群的调试信息:
oc adm must-gather --image=registry.redhat.io/odf4/odf-must-gather-rhel9:v4.13
$ oc adm must-gather --image=registry.redhat.io/odf4/odf-must-gather-rhel9:v4.13Copy to Clipboard Copied! Toggle word wrap Toggle overflow
6.3.12. CephMonQuorumLost 复制链接链接已复制到粘贴板!
| 含义 | 在 Ceph 集群中,有一组冗余的 monitor pod,用于存储有关存储集群的重要信息。定期监控 pod 同步,以获取有关存储集群的信息。第一个监控 pod 获取最新更新的信息成为领导信息,其他监控容器集将在询问领导后启动其同步过程。在一个或多个 monitor pod 中网络连接或其他类型问题会造成不必要的变化。这种情形可能会对存储集群性能造成负面影响。 |
| 影响 | 高 |
检查是否有网络问题。如果存在网络问题,则需要在进行以下任何故障排除步骤前升级到 OpenShift Data Foundation 团队。
诊断
恢复 Ceph MON Quorum。如需更多信息,请参阅故障排除指南中的在 OpenShift Data Foundation 中恢复 ceph-monitor 仲裁。如果恢复 Ceph MON Quorum 失败,请遵循常规 pod 故障排除来解决这个问题。
或者,执行常规 pod 故障排除:
- Pod 状态:Pending
检查资源问题、待处理持久性卷声明(PVC)、节点分配和 kubelet 问题:
oc project openshift-storage
$ oc project openshift-storageCopy to Clipboard Copied! Toggle word wrap Toggle overflow oc get pod | grep {ceph-component}oc get pod | grep {ceph-component}Copy to Clipboard Copied! Toggle word wrap Toggle overflow 将
MYPOD设置为标识为问题 pod 的 pod 的变量:# Examine the output for a {ceph-component} that is in the pending state, not running or not ready MYPOD=<pod_name># Examine the output for a {ceph-component} that is in the pending state, not running or not ready MYPOD=<pod_name>Copy to Clipboard Copied! Toggle word wrap Toggle overflow <pod_name>- 指定被认为是有问题的 pod 的 pod 的名称。
查找资源限制或待处理的 PVC。否则,检查节点分配:
oc get pod/${MYPOD} -o wide$ oc get pod/${MYPOD} -o wideCopy to Clipboard Copied! Toggle word wrap Toggle overflow
- Pod 状态: NOT pending, running, but not ready
- 检查就绪度探测:
oc describe pod/${MYPOD}$ oc describe pod/${MYPOD}Copy to Clipboard Copied! Toggle word wrap Toggle overflow - pod 状态: NOT pending, but NOT running
- 检查应用程序或镜像问题:
oc logs pod/${MYPOD}$ oc logs pod/${MYPOD}Copy to Clipboard Copied! Toggle word wrap Toggle overflow 重要如果分配了节点,请检查节点上的 kubelet。
缓解方案
- 调试日志信息
- 此步骤是可选的。运行以下命令来收集 Ceph 集群的调试信息:
oc adm must-gather --image=registry.redhat.io/odf4/odf-must-gather-rhel9:v4.13
$ oc adm must-gather --image=registry.redhat.io/odf4/odf-must-gather-rhel9:v4.13Copy to Clipboard Copied! Toggle word wrap Toggle overflow
6.3.13. CephMonVersionMismatch 复制链接链接已复制到粘贴板!
| 含义 | 通常,这个警报会在升级过程中触发,这需要很长时间。 |
| 影响 | Medium |
诊断
检查 ocs-operator 订阅状态和 Operator pod 健康状况,以检查 Operator 升级是否正在进行。
检查
ocs-operator订阅健康状况。oc get sub $(oc get pods -n openshift-storage | grep -v ocs-operator) -n openshift-storage -o json | jq .status.conditions
$ oc get sub $(oc get pods -n openshift-storage | grep -v ocs-operator) -n openshift-storage -o json | jq .status.conditionsCopy to Clipboard Copied! Toggle word wrap Toggle overflow 状态条件类型是
CatalogSourcesUnhealthy,InstallPlanMissing,InstallPlanPending, 和InstallPlanFailed。每种类型的状态应当是False。输出示例:
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 示例输出显示
CatalogSourcesUnHealthly类型的False状态,这意味着目录源处于健康状态。检查 OCS operator pod 状态,以查看正在进行中的 OCS operator 是否升级。
oc get pod -n openshift-storage | grep ocs-operator OCSOP=$(oc get pod -n openshift-storage -o custom-columns=POD:.metadata.name --no-headers | grep ocs-operator) echo $OCSOP oc get pod/${OCSOP} -n openshift-storage oc describe pod/${OCSOP} -n openshift-storage$ oc get pod -n openshift-storage | grep ocs-operator OCSOP=$(oc get pod -n openshift-storage -o custom-columns=POD:.metadata.name --no-headers | grep ocs-operator) echo $OCSOP oc get pod/${OCSOP} -n openshift-storage oc describe pod/${OCSOP} -n openshift-storageCopy to Clipboard Copied! Toggle word wrap Toggle overflow 如果您确定"ocs-operator"正在进行中,请等待 5 分钟,并且此警报应自行解决。如果您等待或看到不同的错误状态条件,请继续故障排除。
缓解方案
- 调试日志信息
此步骤是可选的。运行以下命令来收集 Ceph 集群的调试信息:
oc adm must-gather --image=registry.redhat.io/odf4/odf-must-gather-rhel9:v4.13
$ oc adm must-gather --image=registry.redhat.io/odf4/odf-must-gather-rhel9:v4.13Copy to Clipboard Copied! Toggle word wrap Toggle overflow
6.3.14. CephNodeDown 复制链接链接已复制到粘贴板!
| 含义 | 运行 Ceph pod 的节点已停机。虽然存储操作将继续工作,因为 Ceph 旨在处理节点故障,但建议解决这个问题,以最大程度降低另一个节点停机并影响存储功能的风险。 |
| 影响 | Medium |
诊断
列出运行和失败的所有 pod:
oc -n openshift-storage get pods
oc -n openshift-storage get podsCopy to Clipboard Copied! Toggle word wrap Toggle overflow 重要确保您满足 OpenShift Data Foundation 资源要求,以便将对象存储设备(OSD) pod 调度到新节点上。这可能需要几分钟时间,因为 Ceph 集群恢复故障的数据,但现在恢复 OSD。要监视此恢复,请确保 OSD pod 正确放置到新的 worker 节点上。
检查之前失败的 OSD pod 是否现在是否正在运行:
oc -n openshift-storage get pods
oc -n openshift-storage get podsCopy to Clipboard Copied! Toggle word wrap Toggle overflow 如果之前出现故障的 OSD pod 没有调度,请使用
describe命令并检查事件,因为 pod 无法重新调度的原因。描述故障 OSD pod 的事件:
oc -n openshift-storage get pods | grep osd
oc -n openshift-storage get pods | grep osdCopy to Clipboard Copied! Toggle word wrap Toggle overflow 查找一个或多个失败的 OSD pod:
oc -n openshift-storage describe pods/<osd_podname_ from_the_ previous step>
oc -n openshift-storage describe pods/<osd_podname_ from_the_ previous step>Copy to Clipboard Copied! Toggle word wrap Toggle overflow 在 events 部分中,查找失败的原因,如没有满足资源。
另外,您可以使用
rook-ceph-toolbox来监控恢复。此步骤是可选的,但对大型 Ceph 集群非常有用。要访问 toolbox,请运行以下命令:TOOLS_POD=$(oc get pods -n openshift-storage -l app=rook-ceph-tools -o name) oc rsh -n openshift-storage $TOOLS_POD
TOOLS_POD=$(oc get pods -n openshift-storage -l app=rook-ceph-tools -o name) oc rsh -n openshift-storage $TOOLS_PODCopy to Clipboard Copied! Toggle word wrap Toggle overflow 在 rsh 命令提示符中运行以下命令,并在 io 部分监视 "recovery":
ceph status
ceph statusCopy to Clipboard Copied! Toggle word wrap Toggle overflow 确定是否有失败的节点。
获取 worker 节点列表,并检查节点状态:
oc get nodes --selector='node-role.kubernetes.io/worker','!node-role.kubernetes.io/infra'
oc get nodes --selector='node-role.kubernetes.io/worker','!node-role.kubernetes.io/infra'Copy to Clipboard Copied! Toggle word wrap Toggle overflow 描述处于
NotReady状态的节点以获取有关故障的更多信息:oc describe node <node_name>
oc describe node <node_name>Copy to Clipboard Copied! Toggle word wrap Toggle overflow
缓解方案
- 调试日志信息
此步骤是可选的。运行以下命令来收集 Ceph 集群的调试信息:
oc adm must-gather --image=registry.redhat.io/odf4/odf-must-gather-rhel9:v4.13
$ oc adm must-gather --image=registry.redhat.io/odf4/odf-must-gather-rhel9:v4.13Copy to Clipboard Copied! Toggle word wrap Toggle overflow
6.3.15. CephOSDCriticallyFull 复制链接链接已复制到粘贴板!
| 含义 | 一个对象存储设备(OSD)的可以空间几乎已用完。立即扩展集群。 |
| 影响 | 高 |
诊断
- 删除数据以释放存储空间
- 您可以删除数据,集群将通过自我修复过程来解析警报。
这仅适用于接近或完全完满的 OpenShift Data Foundation 集群,它们不适用于只读模式。只读模式可防止任何包含删除数据的更改,即删除持久性卷声明(PVC)、持久性卷(PV)或两者。
- 扩展存储容量
- 当前存储大小小于 1 TB
您必须首先评估扩展的功能。对于添加的每个 1TB 存储,集群需要有 3 个节点,每个节点都有最少可用 2 个 vCPU 和 8 GiB 内存。
您可以通过附加组件将存储容量增加到 4 TB,集群将通过自我修复过程解决警报。如果没有满足最低 vCPU 和内存资源要求,则需要在集群中添加 3 个额外的 worker 节点。
缓解方案
- 如果您的当前存储大小等于 4 TB,请联系红帽支持。
可选:运行以下命令来收集 Ceph 集群的调试信息:
oc adm must-gather --image=registry.redhat.io/odf4/odf-must-gather-rhel9:v4.13
$ oc adm must-gather --image=registry.redhat.io/odf4/odf-must-gather-rhel9:v4.13Copy to Clipboard Copied! Toggle word wrap Toggle overflow
6.3.16. CephOSDDiskNotResponding 复制链接链接已复制到粘贴板!
| 含义 | 磁盘设备没有响应。检查所有对象存储设备(OSD)是否已启动并运行。 |
| 影响 | Medium |
诊断
- Pod 状态:Pending
检查资源问题、待处理持久性卷声明(PVC)、节点分配和 kubelet 问题:
oc project openshift-storage
$ oc project openshift-storageCopy to Clipboard Copied! Toggle word wrap Toggle overflow oc get pod | grep rook-ceph
$ oc get pod | grep rook-cephCopy to Clipboard Copied! Toggle word wrap Toggle overflow 将
MYPOD设置为标识为问题 pod 的 pod 的变量:# Examine the output for a rook-ceph that is in the pending state, not running or not ready MYPOD=<pod_name>
# Examine the output for a rook-ceph that is in the pending state, not running or not ready MYPOD=<pod_name>Copy to Clipboard Copied! Toggle word wrap Toggle overflow <pod_name>- 指定被认为是有问题的 pod 的 pod 的名称。
查找资源限制或待处理的 PVC。否则,检查节点分配:
oc get pod/${MYPOD} -o wide$ oc get pod/${MYPOD} -o wideCopy to Clipboard Copied! Toggle word wrap Toggle overflow
- Pod 状态: NOT pending, running, but not ready
检查就绪度探测:
oc describe pod/${MYPOD}$ oc describe pod/${MYPOD}Copy to Clipboard Copied! Toggle word wrap Toggle overflow
- pod 状态: NOT pending, but NOT running
检查应用程序或镜像问题:
oc logs pod/${MYPOD}$ oc logs pod/${MYPOD}Copy to Clipboard Copied! Toggle word wrap Toggle overflow 重要- 如果分配了节点,请检查节点上的 kubelet。
- 如果正在运行的 pod 的基本健康状况,则验证节点上的节点关联性和资源可用性,请运行 Ceph 工具来获取存储组件的状态。
缓解方案
- 调试日志信息
此步骤是可选的。运行以下命令来收集 Ceph 集群的调试信息:
oc adm must-gather --image=registry.redhat.io/odf4/odf-must-gather-rhel9:v4.13
$ oc adm must-gather --image=registry.redhat.io/odf4/odf-must-gather-rhel9:v4.13Copy to Clipboard Copied! Toggle word wrap Toggle overflow
6.3.18. CephOSDFlapping 复制链接链接已复制到粘贴板!
| 含义 | 在最后 5 分钟内,存储守护进程已重启 5 次。检查 pod 事件或 Ceph 状态,以查找原因。 |
| 影响 | 高 |
诊断
按照 Red Hat Ceph Storage 故障排除指南中的 Flapping OSD 部分的步骤进行操作。
或者,请按照常规 podtroublshooting 的步骤操作:
- Pod 状态:Pending
检查资源问题、待处理持久性卷声明(PVC)、节点分配和 kubelet 问题:
oc project openshift-storage
$ oc project openshift-storageCopy to Clipboard Copied! Toggle word wrap Toggle overflow oc get pod | grep rook-ceph
$ oc get pod | grep rook-cephCopy to Clipboard Copied! Toggle word wrap Toggle overflow 将
MYPOD设置为标识为问题 pod 的 pod 的变量:# Examine the output for a rook-ceph that is in the pending state, not running or not ready MYPOD=<pod_name>
# Examine the output for a rook-ceph that is in the pending state, not running or not ready MYPOD=<pod_name>Copy to Clipboard Copied! Toggle word wrap Toggle overflow <pod_name>- 指定被认为是有问题的 pod 的 pod 的名称。
查找资源限制或待处理的 PVC。否则,检查节点分配:
oc get pod/${MYPOD} -o wide$ oc get pod/${MYPOD} -o wideCopy to Clipboard Copied! Toggle word wrap Toggle overflow
- Pod 状态: NOT pending, running, but not ready
检查就绪度探测:
oc describe pod/${MYPOD}$ oc describe pod/${MYPOD}Copy to Clipboard Copied! Toggle word wrap Toggle overflow
- pod 状态: NOT pending, but NOT running
检查应用程序或镜像问题:
oc logs pod/${MYPOD}$ oc logs pod/${MYPOD}Copy to Clipboard Copied! Toggle word wrap Toggle overflow 重要- 如果分配了节点,请检查节点上的 kubelet。
- 如果正在运行的 pod 的基本健康状况,则验证节点上的节点关联性和资源可用性,请运行 Ceph 工具来获取存储组件的状态。
缓解方案
- 调试日志信息
此步骤是可选的。运行以下命令来收集 Ceph 集群的调试信息:
oc adm must-gather --image=registry.redhat.io/odf4/odf-must-gather-rhel9:v4.13
$ oc adm must-gather --image=registry.redhat.io/odf4/odf-must-gather-rhel9:v4.13Copy to Clipboard Copied! Toggle word wrap Toggle overflow
6.3.19. CephOSDNearFull 复制链接链接已复制到粘贴板!
| 含义 | 后端存储设备对象存储设备(OSD)的利用率在主机上已超过 75%。 |
| 影响 | 高 |
缓解方案
释放集群中的一些空间、扩展存储集群或联系红帽支持。有关扩展存储的更多信息,请参阅扩展存储指南。
6.3.20. CephOSDSlowOps 复制链接链接已复制到粘贴板!
| 含义 |
请求速度较慢的 OSD 是每个无法在 |
| 影响 | Medium |
诊断
有关使用 Openshift 控制台获取有关较慢请求的更多信息。
访问 OSD pod 终端,并运行以下命令:
ceph daemon osd.<id> ops
$ ceph daemon osd.<id> opsCopy to Clipboard Copied! Toggle word wrap Toggle overflow ceph daemon osd.<id> dump_historic_ops
$ ceph daemon osd.<id> dump_historic_opsCopy to Clipboard Copied! Toggle word wrap Toggle overflow 注意OSD 的数量在容器集名称中看到。例如,在
rook-ceph-osd-0-5d86d4d8d4-zlqkx中,<0>是 OSD。
缓解方案
OSD 请求速度较慢的主要原因是:与底层硬件或基础架构相关的问题,如磁盘驱动器、主机、机架或网络交换机。使用 Openshift 监控控制台查找集群资源的警报或错误。这可让您了解 OSD 中缓慢操作的根本原因。与网络相关的问题。这些问题通常与 flapping OSD 相关。请参阅 Red Hat Ceph Storage 故障排除指南中的 Flapping OSD 部分(如果是一个网络问题,请升级到 OpenShift Data Foundation 团队 负载)。使用 Openshift 控制台查看 OSD pod 的指标以及运行 OSD 的节点。添加或分配更多资源可以是可能的解决方案。
6.3.21. CephOSDVersionMismatch 复制链接链接已复制到粘贴板!
| 含义 | 通常,这个警报会在升级过程中触发,这需要很长时间。 |
| 影响 | Medium |
诊断
检查 ocs-operator 订阅状态和 Operator pod 健康状况,以检查 Operator 升级是否正在进行。
检查
ocs-operator订阅健康状况。oc get sub $(oc get pods -n openshift-storage | grep -v ocs-operator) -n openshift-storage -o json | jq .status.conditions
$ oc get sub $(oc get pods -n openshift-storage | grep -v ocs-operator) -n openshift-storage -o json | jq .status.conditionsCopy to Clipboard Copied! Toggle word wrap Toggle overflow 状态条件类型是
CatalogSourcesUnhealthy,InstallPlanMissing,InstallPlanPending, 和InstallPlanFailed。每种类型的状态应当是False。输出示例:
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 示例输出显示
CatalogSourcesUnHealthly类型的False状态,这意味着目录源处于健康状态。检查 OCS operator pod 状态,以查看正在进行中的 OCS operator 是否升级。
oc get pod -n openshift-storage | grep ocs-operator OCSOP=$(oc get pod -n openshift-storage -o custom-columns=POD:.metadata.name --no-headers | grep ocs-operator) echo $OCSOP oc get pod/${OCSOP} -n openshift-storage oc describe pod/${OCSOP} -n openshift-storage$ oc get pod -n openshift-storage | grep ocs-operator OCSOP=$(oc get pod -n openshift-storage -o custom-columns=POD:.metadata.name --no-headers | grep ocs-operator) echo $OCSOP oc get pod/${OCSOP} -n openshift-storage oc describe pod/${OCSOP} -n openshift-storageCopy to Clipboard Copied! Toggle word wrap Toggle overflow 如果您确定"ocs-operator"正在进行中,请等待 5 分钟,并且此警报应自行解决。如果您等待或看到不同的错误状态条件,请继续故障排除。
6.3.22. CephPGRepairTakingTooLong 复制链接链接已复制到粘贴板!
| 含义 | 自我修复操作用时过长。 |
| 影响 | 高 |
诊断
检查放置组(PG)是否不一致,并修复它们。有关更多信息,请参阅红帽知识库解决方案 Handle Inconsistent Placement Groups in Ceph。
6.3.23. CephPoolQuotaBytesCriticallyExhausted 复制链接链接已复制到粘贴板!
| 含义 |
已达到一个或多个池,或者非常接近到达其配额。触发此错误条件的阈值由 |
| 影响 | 高 |
缓解方案
调整池配额。运行以下命令以完全删除或调整池配额:
ceph osd pool set-quota <pool> max_bytes <bytes>
ceph osd pool set-quota <pool> max_bytes <bytes>
ceph osd pool set-quota <pool> max_objects <objects>
ceph osd pool set-quota <pool> max_objects <objects>
将配额值设置为 0 将禁用配额。
6.3.24. CephPoolQuotaBytesNearExhaustion 复制链接链接已复制到粘贴板!
| 含义 |
一个或多个池正在接近配置的全度阈值。触发此警告条件的一个阈值是 |
| 影响 | 高 |
缓解方案
调整池配额。运行以下命令以完全删除或调整池配额:
ceph osd pool set-quota <pool> max_bytes <bytes>
ceph osd pool set-quota <pool> max_bytes <bytes>
ceph osd pool set-quota <pool> max_objects <objects>
ceph osd pool set-quota <pool> max_objects <objects>
将配额值设置为 0 将禁用配额。
6.3.25. PersistentVolumeUsageCritical 复制链接链接已复制到粘贴板!
| 含义 | 持久性卷声明(PVC)接近其完整容量,如果未及时处理,可能会导致数据丢失。 |
| 影响 | 高 |
缓解方案
扩展 PVC 大小以增加容量。
- 登录 OpenShift Web 控制台。
- 点 Storage → PersistentVolumeClaim。
-
从 Project 下拉列表中选择
openshift-storage。 - 在您要扩展的 PVC 中,点 Action menu (⋮) → Expand PVC。
- 将总大小更新为所需的大小。
- 点 Expand。
或者,您可以删除可能会占用空间的不必要的数据。
6.3.26. PersistentVolumeUsageNearFull 复制链接链接已复制到粘贴板!
| 含义 | 持久性卷声明(PVC)接近其完整容量,如果未及时处理,可能会导致数据丢失。 |
| 影响 | 高 |
缓解方案
扩展 PVC 大小以增加容量。
- 登录 OpenShift Web 控制台。
- 点 Storage → PersistentVolumeClaim。
-
从 Project 下拉列表中选择
openshift-storage。 - 在您要扩展的 PVC 中,点 Action menu (⋮) → Expand PVC。
- 将总大小更新为所需的大小。
- 点 Expand。
或者,您可以删除可能会占用空间的不必要的数据。
6.4. 查找不健康存储桶的错误代码 复制链接链接已复制到粘贴板!
流程
- 在 OpenShift Web 控制台中,点 Storage → Object Storage。
- 点 Object Bucket Claims 选项卡。
-
查找没有处于
Bound状态的对象存储桶声明(OBC),然后点它。 点击 Events 选项卡,然后执行以下操作之一:
- 查找可能会提示您有关存储桶当前状态的事件。
- 点 YAML 选项卡,并查找 YAML 的 status 和 mode 部分的相关错误。
如果 OBC 处于
Pending状态,则错误可能会出现在产品日志中。然而,在这种情况下,建议验证提供的所有变量是否正确。
6.5. 查找不健康命名空间存储资源的错误代码 复制链接链接已复制到粘贴板!
流程
- 在 OpenShift Web 控制台中,点 Storage → Object Storage。
- 点 Namespace Store 选项卡。
-
查找没有处于
Bound状态的命名空间存储资源,然后点击它。 点击 Events 选项卡,然后执行以下操作之一:
- 查找可能会提示您资源当前状态的事件。
- 点 YAML 选项卡,并查找 YAML 的 status 和 mode 部分的相关错误。
6.6. 恢复 pod 复制链接链接已复制到粘贴板!
当第一个节点(例如 NODE1)因为出现问题而变为 NotReady 状态时,使用 ReadWriteOnce(RWO)访问模式的 PVC 的托管 pod 会尝试移到第二个节点(例如 NODE2),但由于 multi-attach 错误而卡住。在这种情况下,您可以通过下列步骤恢复 MON、OSD 和应用容器集:
流程
-
关闭
NODE1(从 AWS 或 vSphere 端)并确保NODE1完全关闭。 使用以下命令,强制删除
NODE1上的 pod:oc delete pod <pod-name> --grace-period=0 --force
$ oc delete pod <pod-name> --grace-period=0 --forceCopy to Clipboard Copied! Toggle word wrap Toggle overflow
6.7. 从 EBS 卷分离中恢复 复制链接链接已复制到粘贴板!
当 OSD 磁盘所驻留的 OSD 或 MON 弹性块存储(EBS)卷与工作程序 Amazon EC2 实例分离时,该卷会在一两分钟内自动重新附加。但是,OSD 容器集进入 CrashLoopBackOff 状态。若要将 pod 恢复并恢复为 Running 状态,您必须重新启动 EC2 实例。
6.8. 为 rook-ceph-operator 启用和禁用 debug 日志 复制链接链接已复制到粘贴板!
为 rook-ceph-operator 启用 debug 日志,以获取有助于对问题进行故障排除的失败信息。
流程
- 启用 debug 日志
编辑 rook-ceph-operator 的 configmap。
oc edit configmap rook-ceph-operator-config
$ oc edit configmap rook-ceph-operator-configCopy to Clipboard Copied! Toggle word wrap Toggle overflow 在
rook-ceph-operator-configyaml 文件中添加ROOK_LOG_LEVEL: DEBUG参数,为 rook-ceph-operator 启用调试日志。… data: # The logging level for the operator: INFO | DEBUG ROOK_LOG_LEVEL: DEBUG
… data: # The logging level for the operator: INFO | DEBUG ROOK_LOG_LEVEL: DEBUGCopy to Clipboard Copied! Toggle word wrap Toggle overflow 现在,rook-ceph-operator 日志由 debug 信息组成。
- 禁用 debug 日志
编辑 rook-ceph-operator 的 configmap。
oc edit configmap rook-ceph-operator-config
$ oc edit configmap rook-ceph-operator-configCopy to Clipboard Copied! Toggle word wrap Toggle overflow 在
rook-ceph-operator-configyaml 文件中添加ROOK_LOG_LEVEL: INFO参数,以禁用 rook-ceph-operator 的调试日志。… data: # The logging level for the operator: INFO | DEBUG ROOK_LOG_LEVEL: INFO
… data: # The logging level for the operator: INFO | DEBUG ROOK_LOG_LEVEL: INFOCopy to Clipboard Copied! Toggle word wrap Toggle overflow
6.9. 不健康的阻塞节点故障排除 复制链接链接已复制到粘贴板!
6.9.1. ODFRBDClientBlocked 复制链接链接已复制到粘贴板!
| 含义 |
此警报表示 Ceph 在 Kubernetes 集群的特定节点上可能会阻止 RBD 客户端。当 |
| 影响 | 高 |
诊断
由于多个因素(如网络或集群速度较慢)可能会出现 RBD 客户端阻止列表。在某些情况下,三个持续客户端(工作负载、镜像守护进程和 manager/scheduler)之间的专用锁争用可能会导致 blocklist。
缓解方案
- 为被放入阻塞列表的节点添加污点:在 Kubernetes 中,请考虑污点节点,以触发 pod 驱除到另一节点。这个方法假设卸载/取消映射过程正常进行。pod 成功被驱除后,可能会取消阻塞节点,允许清除 blocklist。然后可将 pod 移到未包含的节点。
- 重启列入阻塞列表的节点:如果污点节点并驱除 pod 没有解决阻塞的问题,则可以尝试重启列入阻塞列表的节点。此步骤可能帮助缓解导致 blocklist 并恢复正常功能的任何底层问题。
及时调查并解决 blocklist 问题对于避免对存储集群有进一步影响至关重要。
第 7 章 检查 Local Storage Operator 部署 复制链接链接已复制到粘贴板!
使用本地存储 Operator 的 Red Hat OpenShift Data Foundation 集群是使用本地存储设备部署的。要查找您的 OpenShift Data Foundation 的现有集群是否使用本地存储设备进行了部署,请使用以下步骤:
先决条件
-
OpenShift Data Foundation 在
openshift-storage命名空间上安装并运行。
流程
通过检查与 OpenShift Data Foundation 集群的持久性卷声明(PVC)关联的存储类,您可以确定您的集群是否使用本地存储设备部署。
使用以下命令,检查与 OpenShift Data Foundation 集群 PVC 关联的存储类:
oc get pvc -n openshift-storage
$ oc get pvc -n openshift-storageCopy to Clipboard Copied! Toggle word wrap Toggle overflow 检查输出。对于使用 Local Storage Operator 的集群,与
ocs-deviceset关联的 PVC 使用存储类localblock。输出结果类似如下:NAME STATUS VOLUME CAPACITY ACCESS MODES STORAGECLASS AGE db-noobaa-db-0 Bound pvc-d96c747b-2ab5-47e2-b07e-1079623748d8 50Gi RWO ocs-storagecluster-ceph-rbd 114s ocs-deviceset-0-0-lzfrd Bound local-pv-7e70c77c 1769Gi RWO localblock 2m10s ocs-deviceset-1-0-7rggl Bound local-pv-b19b3d48 1769Gi RWO localblock 2m10s ocs-deviceset-2-0-znhk8 Bound local-pv-e9f22cdc 1769Gi RWO localblock 2m10s
NAME STATUS VOLUME CAPACITY ACCESS MODES STORAGECLASS AGE db-noobaa-db-0 Bound pvc-d96c747b-2ab5-47e2-b07e-1079623748d8 50Gi RWO ocs-storagecluster-ceph-rbd 114s ocs-deviceset-0-0-lzfrd Bound local-pv-7e70c77c 1769Gi RWO localblock 2m10s ocs-deviceset-1-0-7rggl Bound local-pv-b19b3d48 1769Gi RWO localblock 2m10s ocs-deviceset-2-0-znhk8 Bound local-pv-e9f22cdc 1769Gi RWO localblock 2m10sCopy to Clipboard Copied! Toggle word wrap Toggle overflow
第 8 章 删除失败或不需要的 Ceph 对象存储设备 复制链接链接已复制到粘贴板!
失败或不需要的 Ceph OSD (对象存储设备)会影响存储基础架构的性能。因此,为了提高存储集群的可靠性和弹性,您必须删除失败或不需要的 Ceph OSD。
如果您有故障或不需要的 Ceph OSD 来删除:
验证 Ceph 健康状态。
有关更多信息,请参阅: 验证 Ceph 集群是否健康。
根据 OSD 的调配,移除失败或不需要的 Ceph OSD。
请参阅:
如果使用本地磁盘,您可以在删除旧 OSD 后重复使用这些磁盘。
8.1. 验证 Ceph 集群是否健康 复制链接链接已复制到粘贴板!
存储健康状况在 Block 和 File 和 Object 仪表板上可见。
流程
- 在 OpenShift Web 控制台中,点 Storage → Data Foundation。
- 在 Overview 选项卡的 Status 卡中,点 Storage System,然后点弹出框中的存储系统链接。
- 在 Block and File 选项卡的 Status 卡中,验证 Storage Cluster 是否具有绿色勾号。
- 在 Details 卡中,验证是否显示集群信息。
按照流程中的步骤,在动态置备的 Red Hat OpenShift Data Foundation 中删除失败或不需要的 Ceph OSD。
只有红帽支持团队才支持缩减集群。
- 当 Ceph 组件没有处于健康状态时,删除 OSD 可能会导致数据丢失。
- 同时删除两个或多个 OSD 会导致数据丢失。
先决条件
- 检查 Ceph 是否健康。如需更多信息,请参阅验证 Ceph 集群是否健康。
- 确保没有触发警报,或者所有重建过程都在进行中。
流程
缩减 OSD 部署。
oc scale deployment rook-ceph-osd-<osd-id> --replicas=0
# oc scale deployment rook-ceph-osd-<osd-id> --replicas=0Copy to Clipboard Copied! Toggle word wrap Toggle overflow 获取要删除的 Ceph OSD 的
osd-preparepod。oc get deployment rook-ceph-osd-<osd-id> -oyaml | grep ceph.rook.io/pvc
# oc get deployment rook-ceph-osd-<osd-id> -oyaml | grep ceph.rook.io/pvcCopy to Clipboard Copied! Toggle word wrap Toggle overflow 删除
osd-preparepod。oc delete -n openshift-storage pod rook-ceph-osd-prepare-<pvc-from-above-command>-<pod-suffix>
# oc delete -n openshift-storage pod rook-ceph-osd-prepare-<pvc-from-above-command>-<pod-suffix>Copy to Clipboard Copied! Toggle word wrap Toggle overflow 从集群移除出现故障的 OSD。
failed_osd_id=<osd-id> oc process -n openshift-storage ocs-osd-removal -p FAILED_OSD_IDS=$<failed_osd_id> | oc create -f -
# failed_osd_id=<osd-id> # oc process -n openshift-storage ocs-osd-removal -p FAILED_OSD_IDS=$<failed_osd_id> | oc create -f -Copy to Clipboard Copied! Toggle word wrap Toggle overflow 其中,
FAILED_OSD_ID是 pod 名称中紧接在rook-ceph-osd前缀后面的整数。通过检查日志来验证 OSD 是否已成功移除。
oc logs -n openshift-storage ocs-osd-removal-$<failed_osd_id>-<pod-suffix>
# oc logs -n openshift-storage ocs-osd-removal-$<failed_osd_id>-<pod-suffix>Copy to Clipboard Copied! Toggle word wrap Toggle overflow -
可选:如果您遇到
cephosd:osd.0 is not ok to destroy to destroy to destroyfrom the ocs-osd-removal-job pod in OpenShift Container Platform 的错误,请参阅 对cephosd:osd.0错误进行故障排除,同时删除失败或不需要的 Ceph OSD。 删除 OSD 部署。
oc delete deployment rook-ceph-osd-<osd-id>
# oc delete deployment rook-ceph-osd-<osd-id>Copy to Clipboard Copied! Toggle word wrap Toggle overflow
验证步骤
要检查 OSD 是否已成功删除,请运行:
oc get pod -n openshift-storage ocs-osd-removal-$<failed_osd_id>-<pod-suffix>
# oc get pod -n openshift-storage ocs-osd-removal-$<failed_osd_id>-<pod-suffix>Copy to Clipboard Copied! Toggle word wrap Toggle overflow 此命令必须将状态返回为 Completed。
8.3. 使用本地存储设备移除失败的或不需要的 Ceph OSD 复制链接链接已复制到粘贴板!
您可以按照以下步骤删除使用本地存储设备置备的失败或不需要的 Ceph。
只有红帽支持团队才支持缩减集群。
- 当 Ceph 组件没有处于健康状态时,删除 OSD 可能会导致数据丢失。
- 同时删除两个或多个 OSD 会导致数据丢失。
先决条件
- 检查 Ceph 是否健康。如需更多信息,请参阅验证 Ceph 集群是否健康。
- 确保没有触发警报,或者所有重建过程都在进行中。
流程
总之,通过将 OSD 部署上的副本扩展到 0 来标记 OSD 停机。如果 OSD 已因为失败而停机,您可以跳过这一步。
oc scale deployment rook-ceph-osd-<osd-id> --replicas=0
# oc scale deployment rook-ceph-osd-<osd-id> --replicas=0Copy to Clipboard Copied! Toggle word wrap Toggle overflow 从集群移除出现故障的 OSD。
failed_osd_id=<osd_id> oc process -n openshift-storage ocs-osd-removal -p FAILED_OSD_IDS=$<failed_osd_id> | oc create -f -
# failed_osd_id=<osd_id> # oc process -n openshift-storage ocs-osd-removal -p FAILED_OSD_IDS=$<failed_osd_id> | oc create -f -Copy to Clipboard Copied! Toggle word wrap Toggle overflow 其中,
FAILED_OSD_ID是 pod 名称中紧接在rook-ceph-osd前缀后面的整数。通过检查日志来验证 OSD 是否已成功移除。
oc logs -n openshift-storage ocs-osd-removal-$<failed_osd_id>-<pod-suffix>
# oc logs -n openshift-storage ocs-osd-removal-$<failed_osd_id>-<pod-suffix>Copy to Clipboard Copied! Toggle word wrap Toggle overflow -
可选:如果您遇到
cephosd:osd.0 is not ok to destroy to destroy to destroyfrom the ocs-osd-removal-job pod in OpenShift Container Platform 的错误,请参阅 对cephosd:osd.0错误进行故障排除,同时删除失败或不需要的 Ceph OSD。 删除与故障 OSD 关联的持久性卷声明(PVC)资源。
获取与故障 OSD 关联的
PVC。oc get -n openshift-storage -o yaml deployment rook-ceph-osd-<osd-id> | grep ceph.rook.io/pvc
# oc get -n openshift-storage -o yaml deployment rook-ceph-osd-<osd-id> | grep ceph.rook.io/pvcCopy to Clipboard Copied! Toggle word wrap Toggle overflow 获取与
PVC 关联的持久性卷(PV)。oc get -n openshift-storage pvc <pvc-name>
# oc get -n openshift-storage pvc <pvc-name>Copy to Clipboard Copied! Toggle word wrap Toggle overflow 获取失败的设备名称。
oc get pv <pv-name-from-above-command> -oyaml | grep path
# oc get pv <pv-name-from-above-command> -oyaml | grep pathCopy to Clipboard Copied! Toggle word wrap Toggle overflow 获取与故障 OSD 关联的
prepare-pod。oc describe -n openshift-storage pvc ocs-deviceset-0-0-nvs68 | grep Mounted
# oc describe -n openshift-storage pvc ocs-deviceset-0-0-nvs68 | grep MountedCopy to Clipboard Copied! Toggle word wrap Toggle overflow 在删除关联的 PVC 前,删除
osd-prepare pod。oc delete -n openshift-storage pod <osd-prepare-pod-from-above-command>
# oc delete -n openshift-storage pod <osd-prepare-pod-from-above-command>Copy to Clipboard Copied! Toggle word wrap Toggle overflow 删除与故障 OSD 关联的
PVC。oc delete -n openshift-storage pvc <pvc-name-from-step-a>
# oc delete -n openshift-storage pvc <pvc-name-from-step-a>Copy to Clipboard Copied! Toggle word wrap Toggle overflow
从
LocalVolume 自定义资源(CR)中删除失败的设备条目。使用失败设备登录到节点。
oc debug node/<node_with_failed_osd>
# oc debug node/<node_with_failed_osd>Copy to Clipboard Copied! Toggle word wrap Toggle overflow 为失败的设备名称记录 /dev/disk/by-id/<id>。
ls -alh /mnt/local-storage/localblock/
# ls -alh /mnt/local-storage/localblock/Copy to Clipboard Copied! Toggle word wrap Toggle overflow
可选:如果是,Local Storage Operator 用于置备 OSD,使用 {osd-id} 登录机器并删除设备符号链接。
oc debug node/<node_with_failed_osd>
# oc debug node/<node_with_failed_osd>Copy to Clipboard Copied! Toggle word wrap Toggle overflow 获取故障设备名称的 OSD 符号链接。
ls -alh /mnt/local-storage/localblock
# ls -alh /mnt/local-storage/localblockCopy to Clipboard Copied! Toggle word wrap Toggle overflow 删除 符号链接。
rm /mnt/local-storage/localblock/<failed-device-name>
# rm /mnt/local-storage/localblock/<failed-device-name>Copy to Clipboard Copied! Toggle word wrap Toggle overflow
- 删除与 OSD 关联的 PV。
oc delete pv <pv-name>
# oc delete pv <pv-name>
验证步骤
要检查 OSD 是否已成功删除,请运行:
#oc get pod -n openshift-storage ocs-osd-removal-$<failed_osd_id>-<pod-suffix>
#oc get pod -n openshift-storage ocs-osd-removal-$<failed_osd_id>-<pod-suffix>Copy to Clipboard Copied! Toggle word wrap Toggle overflow 此命令必须将状态返回为 Completed。
8.4. 对 cephosd:osd.0 错误进行故障排除,在删除失败或不需要的 Ceph OSD 时无法销毁 复制链接链接已复制到粘贴板!
如果您收到 cephosd:osd.0 is NOT ok to destroy to destroy from the ocs-osd-removal-job pod in OpenShift Container Platform 的错误,使用 FORCE_OSD_REMOVAL 选项运行 OSD 移除作业,以将 OSD 移到销毁状态。
oc process -n openshift-storage ocs-osd-removal -p FORCE_OSD_REMOVAL=true -p FAILED_OSD_IDS=$<failed_osd_id> | oc create -f -
# oc process -n openshift-storage ocs-osd-removal -p FORCE_OSD_REMOVAL=true -p FAILED_OSD_IDS=$<failed_osd_id> | oc create -f -
只有在所有 PG 都处于 active 状态时,才必须使用 FORCE_OSD_REMOVAL 选项。如果没有,PG 必须完成回填或进一步调查,以确保它们处于活动状态。
第 9 章 卸载过程中的故障排除和删除剩余的资源 复制链接链接已复制到粘贴板!
有时,由 Operator 管理的一些自定义资源可能会处于 "Terminating" 状态,等待终结器完成,尽管您执行了所有必要的清理任务。在这种情况下,您需要强制删除这些资源。如果不这样做,资源仍会处于"Terminating"状态,即使您执行了所有卸载步骤。
检查 openshift-storage 命名空间在删除时是否处于 Terminating 状态。
oc get project -n <namespace>
$ oc get project -n <namespace>Copy to Clipboard Copied! Toggle word wrap Toggle overflow 输出:
NAME DISPLAY NAME STATUS openshift-storage Terminating
NAME DISPLAY NAME STATUS openshift-storage TerminatingCopy to Clipboard Copied! Toggle word wrap Toggle overflow 在命令输出的
STATUS部分检查NamespaceFinalizersRemaining和NamespaceContentRemaining信息,并对列出的每个资源执行下一步。oc get project openshift-storage -o yaml
$ oc get project openshift-storage -o yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow 输出示例:
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 删除上一步中列出的所有剩余资源。
对于要删除的每个资源,请执行以下操作:
获取需要删除的资源的对象类型。查看以上输出中的消息。
示例:
message: Some content in the namespace has finalizers remaining: cephobjectstoreuser.ceph.rook.io此处 cephobjectstoreuser.ceph.rook.io 是对象类型。
获取与对象类型对应的对象名称。
oc get <Object-kind> -n <project-name>
$ oc get <Object-kind> -n <project-name>Copy to Clipboard Copied! Toggle word wrap Toggle overflow 示例:
oc get cephobjectstoreusers.ceph.rook.io -n openshift-storage
$ oc get cephobjectstoreusers.ceph.rook.io -n openshift-storageCopy to Clipboard Copied! Toggle word wrap Toggle overflow 输出示例:
NAME AGE noobaa-ceph-objectstore-user 26h
NAME AGE noobaa-ceph-objectstore-user 26hCopy to Clipboard Copied! Toggle word wrap Toggle overflow 修补资源.
oc patch -n <project-name> <object-kind>/<object-name> --type=merge -p '{"metadata": {"finalizers":null}}'$ oc patch -n <project-name> <object-kind>/<object-name> --type=merge -p '{"metadata": {"finalizers":null}}'Copy to Clipboard Copied! Toggle word wrap Toggle overflow Example:
oc patch -n openshift-storage cephobjectstoreusers.ceph.rook.io/noobaa-ceph-objectstore-user \ --type=merge -p '{"metadata": {"finalizers":null}}'$ oc patch -n openshift-storage cephobjectstoreusers.ceph.rook.io/noobaa-ceph-objectstore-user \ --type=merge -p '{"metadata": {"finalizers":null}}'Copy to Clipboard Copied! Toggle word wrap Toggle overflow 输出:
cephobjectstoreuser.ceph.rook.io/noobaa-ceph-objectstore-user patched
cephobjectstoreuser.ceph.rook.io/noobaa-ceph-objectstore-user patchedCopy to Clipboard Copied! Toggle word wrap Toggle overflow
验证 openshift-storage 项目是否已删除。
oc get project openshift-storage
$ oc get project openshift-storageCopy to Clipboard Copied! Toggle word wrap Toggle overflow 输出:
Error from server (NotFound): namespaces "openshift-storage" not found
Error from server (NotFound): namespaces "openshift-storage" not foundCopy to Clipboard Copied! Toggle word wrap Toggle overflow 如果问题仍然存在,请联系红帽支持团队。
第 10 章 对外部模式的 CephFS PVC 创建进行故障排除 复制链接链接已复制到粘贴板!
如果您已将红帽 Ceph 存储集群从低于 4.1.1 的版本更新为最新版本,且不是全新部署的集群,您必须在红帽 Ceph 存储集群中手动设置 CephFS 池的应用类型,以外部模式启用 CephFS PVC 创建。
检查 CephFS pvc 处于
Pending状态。oc get pvc -n <namespace>
# oc get pvc -n <namespace>Copy to Clipboard Copied! Toggle word wrap Toggle overflow 输出示例:
NAME STATUS VOLUME CAPACITY ACCESS MODES STORAGECLASS AGE ngx-fs-pxknkcix20-pod Pending ocs-external-storagecluster-cephfs 28h [...]NAME STATUS VOLUME CAPACITY ACCESS MODES STORAGECLASS AGE ngx-fs-pxknkcix20-pod Pending ocs-external-storagecluster-cephfs 28h [...]Copy to Clipboard Copied! Toggle word wrap Toggle overflow 检查
describe输出,以查看相应 pvc 的事件。预期的错误消息为
cephfs_metadata/csi.volumes.default/csi.volume.pvc-xxxxxx-xxxx-xxxx-xxxx-xxxxxxx:(1)Operation not permitted)oc describe pvc ngx-fs-pxknkcix20-pod -n nginx-file
# oc describe pvc ngx-fs-pxknkcix20-pod -n nginx-fileCopy to Clipboard Copied! Toggle word wrap Toggle overflow 输出示例:
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 检查
<cephfs metadata pool name>(这里是cephfs_metadata) 和<cephfs data pool name>(这里是cephfs_data)。为了运行命令,需要在 Red Hat Ceph Storage 客户端节点中预安装jq。Copy to Clipboard Copied! Toggle word wrap Toggle overflow 设置 CephFS 池的应用类型。
在 Red Hat Ceph Storage 客户端节点中运行以下命令:
ceph osd pool application set <cephfs metadata pool name> cephfs metadata cephfs
# ceph osd pool application set <cephfs metadata pool name> cephfs metadata cephfsCopy to Clipboard Copied! Toggle word wrap Toggle overflow ceph osd pool application set <cephfs data pool name> cephfs data cephfs
# ceph osd pool application set <cephfs data pool name> cephfs data cephfsCopy to Clipboard Copied! Toggle word wrap Toggle overflow
验证是否应用了设置。
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 再次检查 CephFS PVC 状态。PVC 现在处于
Bound状态。oc get pvc -n <namespace>
# oc get pvc -n <namespace>Copy to Clipboard Copied! Toggle word wrap Toggle overflow 输出示例:
NAME STATUS VOLUME CAPACITY ACCESS MODES STORAGECLASS AGE ngx-fs-pxknkcix20-pod Bound pvc-1ac0c6e6-9428-445d-bbd6-1284d54ddb47 1Mi RWO ocs-external-storagecluster-cephfs 29h [...]
NAME STATUS VOLUME CAPACITY ACCESS MODES STORAGECLASS AGE ngx-fs-pxknkcix20-pod Bound pvc-1ac0c6e6-9428-445d-bbd6-1284d54ddb47 1Mi RWO ocs-external-storagecluster-cephfs 29h [...]Copy to Clipboard Copied! Toggle word wrap Toggle overflow
第 11 章 在 OpenShift Data Foundation 中恢复 monitor pod 复制链接链接已复制到粘贴板!
如果所有三个 Pod 都停机,并且 OpenShift Data Foundation 无法自动恢复 monitor pod,则恢复 monitor pod。
这是一个灾难恢复过程,必须在红帽支持团队的指导下执行。要联系红帽支持团队,红帽支持。
流程
缩减
rook-ceph-operator和ocs operator部署。oc scale deployment rook-ceph-operator --replicas=0 -n openshift-storage
# oc scale deployment rook-ceph-operator --replicas=0 -n openshift-storageCopy to Clipboard Copied! Toggle word wrap Toggle overflow oc scale deployment ocs-operator --replicas=0 -n openshift-storage
# oc scale deployment ocs-operator --replicas=0 -n openshift-storageCopy to Clipboard Copied! Toggle word wrap Toggle overflow 在
openshift-storage命名空间中创建所有部署的备份。mkdir backup
# mkdir backupCopy to Clipboard Copied! Toggle word wrap Toggle overflow cd backup
# cd backupCopy to Clipboard Copied! Toggle word wrap Toggle overflow oc project openshift-storage
# oc project openshift-storageCopy to Clipboard Copied! Toggle word wrap Toggle overflow for d in $(oc get deployment|awk -F' ' '{print $1}'|grep -v NAME); do echo $d;oc get deployment $d -o yaml > oc_get_deployment.${d}.yaml; done# for d in $(oc get deployment|awk -F' ' '{print $1}'|grep -v NAME); do echo $d;oc get deployment $d -o yaml > oc_get_deployment.${d}.yaml; doneCopy to Clipboard Copied! Toggle word wrap Toggle overflow 修补 OSD 部署以移除
livenessProbe参数,再以 命令参数作为sleep状态运行它。for i in $(oc get deployment -l app=rook-ceph-osd -oname);do oc patch ${i} -n openshift-storage --type='json' -p '[{"op":"remove", "path":"/spec/template/spec/containers/0/livenessProbe"}]' ; oc patch ${i} -n openshift-storage -p '{"spec": {"template": {"spec": {"containers": [{"name": "osd", "command": ["sleep", "infinity"], "args": []}]}}}}' ; done# for i in $(oc get deployment -l app=rook-ceph-osd -oname);do oc patch ${i} -n openshift-storage --type='json' -p '[{"op":"remove", "path":"/spec/template/spec/containers/0/livenessProbe"}]' ; oc patch ${i} -n openshift-storage -p '{"spec": {"template": {"spec": {"containers": [{"name": "osd", "command": ["sleep", "infinity"], "args": []}]}}}}' ; doneCopy to Clipboard Copied! Toggle word wrap Toggle overflow 从所有 OSD 检索
monstore集群映射。创建
restore_mon.sh脚本。Copy to Clipboard Copied! Toggle word wrap Toggle overflow 运行
restore_mon.sh脚本。chmod +x recover_mon.sh
# chmod +x recover_mon.shCopy to Clipboard Copied! Toggle word wrap Toggle overflow ./recover_mon.sh
# ./recover_mon.shCopy to Clipboard Copied! Toggle word wrap Toggle overflow
修补 MON 部署,并使用命令参数作为
sleep状态运行它。编辑 MON 部署。
for i in $(oc get deployment -l app=rook-ceph-mon -oname);do oc patch ${i} -n openshift-storage -p '{"spec": {"template": {"spec": {"containers": [{"name": "mon", "command": ["sleep", "infinity"], "args": []}]}}}}'; done# for i in $(oc get deployment -l app=rook-ceph-mon -oname);do oc patch ${i} -n openshift-storage -p '{"spec": {"template": {"spec": {"containers": [{"name": "mon", "command": ["sleep", "infinity"], "args": []}]}}}}'; doneCopy to Clipboard Copied! Toggle word wrap Toggle overflow 修补 MON 部署,以增加
initialDelaySeconds。oc get deployment rook-ceph-mon-a -o yaml | sed "s/initialDelaySeconds: 10/initialDelaySeconds: 2000/g" | oc replace -f -
# oc get deployment rook-ceph-mon-a -o yaml | sed "s/initialDelaySeconds: 10/initialDelaySeconds: 2000/g" | oc replace -f -Copy to Clipboard Copied! Toggle word wrap Toggle overflow oc get deployment rook-ceph-mon-b -o yaml | sed "s/initialDelaySeconds: 10/initialDelaySeconds: 2000/g" | oc replace -f -
# oc get deployment rook-ceph-mon-b -o yaml | sed "s/initialDelaySeconds: 10/initialDelaySeconds: 2000/g" | oc replace -f -Copy to Clipboard Copied! Toggle word wrap Toggle overflow oc get deployment rook-ceph-mon-c -o yaml | sed "s/initialDelaySeconds: 10/initialDelaySeconds: 2000/g" | oc replace -f -
# oc get deployment rook-ceph-mon-c -o yaml | sed "s/initialDelaySeconds: 10/initialDelaySeconds: 2000/g" | oc replace -f -Copy to Clipboard Copied! Toggle word wrap Toggle overflow
将之前检索到的
monstore复制到 mon-a pod。oc cp /tmp/monstore/ $(oc get po -l app=rook-ceph-mon,mon=a -oname |sed 's/pod\///g'):/tmp/
# oc cp /tmp/monstore/ $(oc get po -l app=rook-ceph-mon,mon=a -oname |sed 's/pod\///g'):/tmp/Copy to Clipboard Copied! Toggle word wrap Toggle overflow 导航到 MON 容器集,再更改检索到的
monstore的所有权。oc rsh $(oc get po -l app=rook-ceph-mon,mon=a -oname)
# oc rsh $(oc get po -l app=rook-ceph-mon,mon=a -oname)Copy to Clipboard Copied! Toggle word wrap Toggle overflow chown -R ceph:ceph /tmp/monstore
# chown -R ceph:ceph /tmp/monstoreCopy to Clipboard Copied! Toggle word wrap Toggle overflow 在重建
mon db之前复制密钥环模板文件。oc rsh $(oc get po -l app=rook-ceph-mon,mon=a -oname)
# oc rsh $(oc get po -l app=rook-ceph-mon,mon=a -oname)Copy to Clipboard Copied! Toggle word wrap Toggle overflow cp /etc/ceph/keyring-store/keyring /tmp/keyring
# cp /etc/ceph/keyring-store/keyring /tmp/keyringCopy to Clipboard Copied! Toggle word wrap Toggle overflow Copy to Clipboard Copied! Toggle word wrap Toggle overflow 从对应的机密中识别所有其他 Ceph 守护进程(MGR、MDS、RGW、Crash、CSI 和 CSI 置备程序)的密钥环。
Copy to Clipboard Copied! Toggle word wrap Toggle overflow keyring 文件示例:
/etc/ceph/ceph.client.admin.keyring:Copy to Clipboard Copied! Toggle word wrap Toggle overflow 重要-
对于
client.csi相关密钥环,请参阅前面的密钥环文件输出,并在从相应的 OpenShift Data Foundation 机密获取密钥后添加默认caps。 - OSD 密钥环会在恢复后自动添加。
-
对于
进入到 mon-a pod,再验证
monstore是否具有monmap。进入到 mon-a 容器集。
oc rsh $(oc get po -l app=rook-ceph-mon,mon=a -oname)
# oc rsh $(oc get po -l app=rook-ceph-mon,mon=a -oname)Copy to Clipboard Copied! Toggle word wrap Toggle overflow 验证
monstore有monmap。ceph-monstore-tool /tmp/monstore get monmap -- --out /tmp/monmap
# ceph-monstore-tool /tmp/monstore get monmap -- --out /tmp/monmapCopy to Clipboard Copied! Toggle word wrap Toggle overflow monmaptool /tmp/monmap --print
# monmaptool /tmp/monmap --printCopy to Clipboard Copied! Toggle word wrap Toggle overflow
可选:如果缺少
monmap,则创建新的monmap。monmaptool --create --add <mon-a-id> <mon-a-ip> --add <mon-b-id> <mon-b-ip> --add <mon-c-id> <mon-c-ip> --enable-all-features --clobber /root/monmap --fsid <fsid>
# monmaptool --create --add <mon-a-id> <mon-a-ip> --add <mon-b-id> <mon-b-ip> --add <mon-c-id> <mon-c-ip> --enable-all-features --clobber /root/monmap --fsid <fsid>Copy to Clipboard Copied! Toggle word wrap Toggle overflow <mon-a-id>- mon-a pod 的 ID。
<mon-a-ip>- mon-a pod 的 IP 地址。
<mon-b-id>- mon-b pod 的 ID。
<mon-b-ip>- mon-b pod 的 IP 地址。
<mon-c-id>- mon-c pod 的 ID。
<mon-c-ip>- mon-c pod 的 IP 地址。
<fsid>- 文件系统 ID。
验证
monmap。monmaptool /root/monmap --print
# monmaptool /root/monmap --printCopy to Clipboard Copied! Toggle word wrap Toggle overflow 导入
monmap。重要使用之前创建的 keyring 文件。
ceph-monstore-tool /tmp/monstore rebuild -- --keyring /tmp/keyring --monmap /root/monmap
# ceph-monstore-tool /tmp/monstore rebuild -- --keyring /tmp/keyring --monmap /root/monmapCopy to Clipboard Copied! Toggle word wrap Toggle overflow chown -R ceph:ceph /tmp/monstore
# chown -R ceph:ceph /tmp/monstoreCopy to Clipboard Copied! Toggle word wrap Toggle overflow 创建旧
store.db文件的备份。mv /var/lib/ceph/mon/ceph-a/store.db /var/lib/ceph/mon/ceph-a/store.db.corrupted
# mv /var/lib/ceph/mon/ceph-a/store.db /var/lib/ceph/mon/ceph-a/store.db.corruptedCopy to Clipboard Copied! Toggle word wrap Toggle overflow mv /var/lib/ceph/mon/ceph-b/store.db /var/lib/ceph/mon/ceph-b/store.db.corrupted
# mv /var/lib/ceph/mon/ceph-b/store.db /var/lib/ceph/mon/ceph-b/store.db.corruptedCopy to Clipboard Copied! Toggle word wrap Toggle overflow mv /var/lib/ceph/mon/ceph-c/store.db /var/lib/ceph/mon/ceph-c/store.db.corrupted
# mv /var/lib/ceph/mon/ceph-c/store.db /var/lib/ceph/mon/ceph-c/store.db.corruptedCopy to Clipboard Copied! Toggle word wrap Toggle overflow 将重新构建
store.db文件复制到monstore目录。mv /tmp/monstore/store.db /var/lib/ceph/mon/ceph-a/store.db
# mv /tmp/monstore/store.db /var/lib/ceph/mon/ceph-a/store.dbCopy to Clipboard Copied! Toggle word wrap Toggle overflow chown -R ceph:ceph /var/lib/ceph/mon/ceph-a/store.db
# chown -R ceph:ceph /var/lib/ceph/mon/ceph-a/store.dbCopy to Clipboard Copied! Toggle word wrap Toggle overflow 在重建了
monstore目录后,将store.db文件从本地 复制到 MON 容器集的其余部分。oc cp $(oc get po -l app=rook-ceph-mon,mon=a -oname | sed 's/pod\///g'):/var/lib/ceph/mon/ceph-a/store.db /tmp/store.db
# oc cp $(oc get po -l app=rook-ceph-mon,mon=a -oname | sed 's/pod\///g'):/var/lib/ceph/mon/ceph-a/store.db /tmp/store.dbCopy to Clipboard Copied! Toggle word wrap Toggle overflow oc cp /tmp/store.db $(oc get po -l app=rook-ceph-mon,mon=<id> -oname | sed 's/pod\///g'):/var/lib/ceph/mon/ceph-<id>
# oc cp /tmp/store.db $(oc get po -l app=rook-ceph-mon,mon=<id> -oname | sed 's/pod\///g'):/var/lib/ceph/mon/ceph-<id>Copy to Clipboard Copied! Toggle word wrap Toggle overflow <id>- 是 MON Pod 的 ID
前往 MON 容器集的其余部分,再更改复制的
monstore的所有权。oc rsh $(oc get po -l app=rook-ceph-mon,mon=<id> -oname)
# oc rsh $(oc get po -l app=rook-ceph-mon,mon=<id> -oname)Copy to Clipboard Copied! Toggle word wrap Toggle overflow chown -R ceph:ceph /var/lib/ceph/mon/ceph-<id>/store.db
# chown -R ceph:ceph /var/lib/ceph/mon/ceph-<id>/store.dbCopy to Clipboard Copied! Toggle word wrap Toggle overflow <id>- 是 MON Pod 的 ID
恢复补丁的更改。
对于 MON 部署:
oc replace --force -f <mon-deployment.yaml>
# oc replace --force -f <mon-deployment.yaml>Copy to Clipboard Copied! Toggle word wrap Toggle overflow <mon-deployment.yaml>- 是 MON 部署 yaml 文件
对于 OSD 部署:
oc replace --force -f <osd-deployment.yaml>
# oc replace --force -f <osd-deployment.yaml>Copy to Clipboard Copied! Toggle word wrap Toggle overflow <osd-deployment.yaml>- 是 OSD 部署 yaml 文件
对于 MGR 部署:
oc replace --force -f <mgr-deployment.yaml>
# oc replace --force -f <mgr-deployment.yaml>Copy to Clipboard Copied! Toggle word wrap Toggle overflow <mgr-deployment.yaml>是 MGR 部署 yaml 文件
重要确保 MON、MGR 和 OSD 容器集已启动并在运行。
扩展
rook-ceph-operator和ocs-operator部署。oc -n openshift-storage scale deployment ocs-operator --replicas=1
# oc -n openshift-storage scale deployment ocs-operator --replicas=1Copy to Clipboard Copied! Toggle word wrap Toggle overflow
验证步骤
检查 Ceph 状态,以确认 CephFS 正在运行。
ceph -s
# ceph -sCopy to Clipboard Copied! Toggle word wrap Toggle overflow 输出示例:
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 检查 Multicloud 对象网关 (MCG) 状态。它应该处于活动状态,后备存储和存储桶类应处于
Ready状态。noobaa status -n openshift-storage
noobaa status -n openshift-storageCopy to Clipboard Copied! Toggle word wrap Toggle overflow 重要如果 MCG 没有处于 active 状态,且后备存储和存储桶类没有处于
Ready状态,则需要重启所有与 MCG 相关的 pod。如需更多信息,请参阅 第 11.1 节 “恢复 Multicloud 对象网关”。
11.1. 恢复 Multicloud 对象网关 复制链接链接已复制到粘贴板!
如果 Multicloud 对象网关(MCG)没有处于 active 状态,且后备存储和存储桶类没有处于 Ready 状态,您需要重启所有与 MCG 相关的 pod,并检查 MCG 状态以确认 MCG 是否已备份并在运行。
流程
重启与 MCG 相关的所有 pod。
oc delete pods <noobaa-operator> -n openshift-storage
# oc delete pods <noobaa-operator> -n openshift-storageCopy to Clipboard Copied! Toggle word wrap Toggle overflow oc delete pods <noobaa-core> -n openshift-storage
# oc delete pods <noobaa-core> -n openshift-storageCopy to Clipboard Copied! Toggle word wrap Toggle overflow oc delete pods <noobaa-endpoint> -n openshift-storage
# oc delete pods <noobaa-endpoint> -n openshift-storageCopy to Clipboard Copied! Toggle word wrap Toggle overflow oc delete pods <noobaa-db> -n openshift-storage
# oc delete pods <noobaa-db> -n openshift-storageCopy to Clipboard Copied! Toggle word wrap Toggle overflow <noobaa-operator>- 是 MCG operator 的名称
<noobaa-core>- 是 MCG 内核 pod 的名称
<noobaa-endpoint>- 是 MCG 端点的名称
<noobaa-db>- 是 MCG db pod 的名称
如果配置了 RADOS 对象网关(RGW),请重新启动容器集。
oc delete pods <rgw-pod> -n openshift-storage
# oc delete pods <rgw-pod> -n openshift-storageCopy to Clipboard Copied! Toggle word wrap Toggle overflow <rgw-pod>- 是 RGW pod 的名称
在 OpenShift Container Platform 4.11 中,在恢复后 RBD PVC 无法挂载到应用程序 pod 上。因此,您需要重启托管应用容器集的节点。要获取托管应用程序 pod 的节点名称,请运行以下命令:
oc get pods <application-pod> -n <namespace> -o yaml | grep nodeName nodeName: node_name
# oc get pods <application-pod> -n <namespace> -o yaml | grep nodeName
nodeName: node_name
第 12 章 在 OpenShift Data Foundation 中恢复 ceph-monitor 仲裁 复制链接链接已复制到粘贴板!
在某些情况下,ceph-mons 可能会丢失仲裁。如果 mons 无法再次形成仲裁,则需要一个手动过程来再次进入仲裁。唯一的要求是,至少有一个 mon 必须健康。以下步骤从仲裁中删除不健康状态的 mons,并可让您使用单个 mon 重新组成仲裁,然后将仲裁回到原始大小。
例如,如果您有三个 mons 并失去了仲裁,您需要从仲裁中删除两个有问题的 mons,通知可以正常工作的 mon 它是仲裁中唯一的 mon,然后重启这个可以正常工作的 mon。
流程
停止
rook-ceph-operator,以便在修改monmap时不通过mons失败。oc -n openshift-storage scale deployment rook-ceph-operator --replicas=0
# oc -n openshift-storage scale deployment rook-ceph-operator --replicas=0Copy to Clipboard Copied! Toggle word wrap Toggle overflow 注入一个新的
monmap。警告您必须非常仔细注入
monmap。如果运行不正确,您的集群可以被永久销毁。Cephmonmap来跟踪mon仲裁。monmap被更新为仅包含健康的 mon。在本例中,健康的 mon 是rook-ceph-mon-b,而不健康的mons为rook-ceph-mon-a和rook-ceph-mon-c。备份当前的
rook-ceph-mon-b部署:oc -n openshift-storage get deployment rook-ceph-mon-b -o yaml > rook-ceph-mon-b-deployment.yaml
# oc -n openshift-storage get deployment rook-ceph-mon-b -o yaml > rook-ceph-mon-b-deployment.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow 打开 YAML 文件,并从
mon容器复制命令和参数(请参见以下示例中的容器列表)。这是monmap更改所需要的。Copy to Clipboard Copied! Toggle word wrap Toggle overflow 清理复制的
command和args字段以形成过去的命令,如下所示:Copy to Clipboard Copied! Toggle word wrap Toggle overflow 注意确保删除括起了
--log-stderr-prefix标记的单引号,以及包括ROOK_CEPH_MON_MON_MON_MON_HOST、ROOK_CEPH_MON_MON_CEPH_MON_INITIAL_MEMBERS和ROOK_POD_IP变量的括号。修补
rook-ceph-mon-b部署,在不删除mon的情况下停止这个mon工作。oc -n openshift-storage patch deployment rook-ceph-mon-b --type='json' -p '[{"op":"remove", "path":"/spec/template/spec/containers/0/livenessProbe"}]' oc -n openshift-storage patch deployment rook-ceph-mon-b -p '{"spec": {"template": {"spec": {"containers": [{"name": "mon", "command": ["sleep", "infinity"], "args": []}]}}}}'# oc -n openshift-storage patch deployment rook-ceph-mon-b --type='json' -p '[{"op":"remove", "path":"/spec/template/spec/containers/0/livenessProbe"}]' # oc -n openshift-storage patch deployment rook-ceph-mon-b -p '{"spec": {"template": {"spec": {"containers": [{"name": "mon", "command": ["sleep", "infinity"], "args": []}]}}}}'Copy to Clipboard Copied! Toggle word wrap Toggle overflow 在
mon-bpod 上执行以下步骤:连接到健康
mon的 pod 并运行以下命令:oc -n openshift-storage exec -it <mon-pod> bash
# oc -n openshift-storage exec -it <mon-pod> bashCopy to Clipboard Copied! Toggle word wrap Toggle overflow 设置变量。
monmap_path=/tmp/monmap
# monmap_path=/tmp/monmapCopy to Clipboard Copied! Toggle word wrap Toggle overflow 将
monmap提取到一个文件,从健康的mon部署中粘贴 cephmon命令并添加--extract-monmap=${monmap_path}标记。Copy to Clipboard Copied! Toggle word wrap Toggle overflow 检查
monmap的内容。monmaptool --print /tmp/monmap
# monmaptool --print /tmp/monmapCopy to Clipboard Copied! Toggle word wrap Toggle overflow 从
monmap中删除错误的mons。monmaptool ${monmap_path} --rm <bad_mon># monmaptool ${monmap_path} --rm <bad_mon>Copy to Clipboard Copied! Toggle word wrap Toggle overflow 在本例中,我们移除了
mon0和mon2:monmaptool ${monmap_path} --rm a monmaptool ${monmap_path} --rm c# monmaptool ${monmap_path} --rm a # monmaptool ${monmap_path} --rm cCopy to Clipboard Copied! Toggle word wrap Toggle overflow 把修改过的
monmap注入到健康的mon中,粘贴 cephmon命令并添加--inject-monmap=${monmap_path}标记:Copy to Clipboard Copied! Toggle word wrap Toggle overflow - 退出 shell 以继续。
编辑 Rook
configmaps。编辑 operator 用来跟踪
mons的configmap。oc -n openshift-storage edit configmap rook-ceph-mon-endpoints
# oc -n openshift-storage edit configmap rook-ceph-mon-endpointsCopy to Clipboard Copied! Toggle word wrap Toggle overflow 验证在数据元素中,您可以看到如下三个
mon(具体取决于您的moncount,可能会更多):data: a=10.100.35.200:6789;b=10.100.13.242:6789;c=10.100.35.12:6789
data: a=10.100.35.200:6789;b=10.100.13.242:6789;c=10.100.35.12:6789Copy to Clipboard Copied! Toggle word wrap Toggle overflow 从列表中删除有问题的
mons,以使用一个好的mon结束。例如:data: b=10.100.13.242:6789
data: b=10.100.13.242:6789Copy to Clipboard Copied! Toggle word wrap Toggle overflow - 保存文件并退出。
现在,您需要使用用于
mons和其他组件的Secret。为变量
good_mon_id设置一个值。例如:
good_mon_id=b
# good_mon_id=bCopy to Clipboard Copied! Toggle word wrap Toggle overflow 您可以使用
oc patch命令来修补rook-ceph-configsecret,并更新两个键/值对mon_host和mon_initial_members。mon_host=$(oc -n openshift-storage get svc rook-ceph-mon-b -o jsonpath='{.spec.clusterIP}') oc -n openshift-storage patch secret rook-ceph-config -p '{"stringData": {"mon_host": "[v2:'"${mon_host}"':3300,v1:'"${mon_host}"':6789]", "mon_initial_members": "'"${good_mon_id}"'"}}'# mon_host=$(oc -n openshift-storage get svc rook-ceph-mon-b -o jsonpath='{.spec.clusterIP}') # oc -n openshift-storage patch secret rook-ceph-config -p '{"stringData": {"mon_host": "[v2:'"${mon_host}"':3300,v1:'"${mon_host}"':6789]", "mon_initial_members": "'"${good_mon_id}"'"}}'Copy to Clipboard Copied! Toggle word wrap Toggle overflow 注意如果使用
hostNetwork: true,则需要将mon_host变量替换为代表mon固定到的节点 IP(nodeSelector)。这是因为在那个 "mode" 中创建了rook-ceph-mon-*服务。
重新启动
mon。您需要使用原始
ceph-mon命令重启好的monpod,以获取这些更改。在
mon部署 YAML 文件的备份中使用oc replace命令:oc replace --force -f rook-ceph-mon-b-deployment.yaml
# oc replace --force -f rook-ceph-mon-b-deployment.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow 注意选项
--force删除部署并创建新部署。验证集群的状态。
状态应该在仲裁中显示
mon。如果状态正常,您的集群应该再次处于健康状态。
删除不再预期在仲裁中的两个 mon 部署。
例如:
oc delete deploy <rook-ceph-mon-1> oc delete deploy <rook-ceph-mon-2>
# oc delete deploy <rook-ceph-mon-1> # oc delete deploy <rook-ceph-mon-2>Copy to Clipboard Copied! Toggle word wrap Toggle overflow 在本例中,要删除的部署有
rook-ceph-mon-a和rook-ceph-mon-c。重启 Operator。
再次启动 rook 运算符,以恢复监控集群的健康状况。
注意忽略多个资源已存在的错误是安全的。
oc -n openshift-storage scale deployment rook-ceph-operator --replicas=1
# oc -n openshift-storage scale deployment rook-ceph-operator --replicas=1Copy to Clipboard Copied! Toggle word wrap Toggle overflow 根据
mon数量,Operator 会自动添加更多mons来再次增加仲裁大小。
第 13 章 启用 Red Hat OpenShift Data Foundation 控制台插件 复制链接链接已复制到粘贴板!
Data Foundation 控制台插件默认启用。如果在 OpenShift Data Foundation Operator 安装过程中取消选择这个选项,请按照以下说明从图形用户界面(GUI)或命令行界面启用控制台插件。
先决条件
- 您有管理访问权限来访问 OpenShift Web 控制台。
-
OpenShift Data Foundation Operator 在
openshift-storage命名空间上安装并运行。
流程
- 从用户界面
- 在 OpenShift Web 控制台中,点 Operators → Installed Operators 查看所有已安装的 Operator。
-
确保所选 项目 为
openshift-storage。 - 单击 OpenShift Data Foundation operator。
启用 console 插件选项。
- 在 Details 选项卡中,单击 Console 插件 下的铅笔图标。
- 选择 Enable,然后单击 Save。
- 使用命令行界面
执行以下命令启用 console 插件选项:
oc patch console.operator cluster -n openshift-storage --type json -p '[{"op": "add", "path": "/spec/plugins", "value": ["odf-console"]}]'$ oc patch console.operator cluster -n openshift-storage --type json -p '[{"op": "add", "path": "/spec/plugins", "value": ["odf-console"]}]'Copy to Clipboard Copied! Toggle word wrap Toggle overflow
验证步骤
启用 console 插件选项后,显示一条带有消息的弹出窗口,
Web 控制台更新会出现在 GUI 中。点这个弹出窗口中的 Refresh web console 来反映控制台的更改。- 在 Web 控制台中,导航到 Storage 并验证 Data Foundation 是否可用。
第 14 章 更改 OpenShift Data Foundation 组件的资源 复制链接链接已复制到粘贴板!
安装 OpenShift Data Foundation 时,它附带了 OpenShift Data Foundation Pod 可消耗的预定义资源。在某些情况下,可能需要提高 I/O 负载。
- 要更改 rook-ceph pod 上的 CPU 和内存资源,请参阅 第 14.1 节 “更改 rook-ceph pod 上的 CPU 和内存资源”。
- 要调整 Multicloud 对象网关(MCG)的资源,请参阅 第 14.2 节 “为 MCG 调整资源”。
14.1. 更改 rook-ceph pod 上的 CPU 和内存资源 复制链接链接已复制到粘贴板!
安装 OpenShift Data Foundation 时,它附带了 rook-ceph Pod 的预定义 CPU 和内存资源。您可以根据要求手动增加这些值。
您可以更改以下 pod 中的 CPU 和内存资源:
-
mgr -
mds -
rgw
以下示例演示了如何更改 rook-ceph Pod 上的 CPU 和内存资源。在本例中,cpu 和 memory 的现有 MDS pod 值会分别从 1 和 4Gi 增加到 2 和 8Gi。
编辑存储集群:
oc edit storagecluster -n openshift-storage <storagecluster_name>
# oc edit storagecluster -n openshift-storage <storagecluster_name>Copy to Clipboard Copied! Toggle word wrap Toggle overflow <storagecluster_name>指定存储集群的名称。
例如:
oc edit storagecluster -n openshift-storage ocs-storagecluster
# oc edit storagecluster -n openshift-storage ocs-storageclusterCopy to Clipboard Copied! Toggle word wrap Toggle overflow
将下面几行添加到存储集群自定义资源(CR)中:
Copy to Clipboard Copied! Toggle word wrap Toggle overflow - 保存更改并退出编辑器。
或者,运行
oc patch命令更改mdspod 的 CPU 和内存值:oc patch -n openshift-storage storagecluster <storagecluster_name> --type merge \ --patch '{"spec": {"resources": {"mds": {"limits": {"cpu": "2","memory": "8Gi"},"requests": {"cpu": "2","memory": "8Gi"}}}}}'# oc patch -n openshift-storage storagecluster <storagecluster_name> --type merge \ --patch '{"spec": {"resources": {"mds": {"limits": {"cpu": "2","memory": "8Gi"},"requests": {"cpu": "2","memory": "8Gi"}}}}}'Copy to Clipboard Copied! Toggle word wrap Toggle overflow <storagecluster_name>指定存储集群的名称。
例如:
oc patch -n openshift-storage storagecluster ocs-storagecluster \ --type merge \ --patch '{"spec": {"resources": {"mds": {"limits": {"cpu": "2","memory": "8Gi"},"requests": {"cpu": "2","memory": "8Gi"}}}}}'# oc patch -n openshift-storage storagecluster ocs-storagecluster \ --type merge \ --patch '{"spec": {"resources": {"mds": {"limits": {"cpu": "2","memory": "8Gi"},"requests": {"cpu": "2","memory": "8Gi"}}}}}'Copy to Clipboard Copied! Toggle word wrap Toggle overflow
14.2. 为 MCG 调整资源 复制链接链接已复制到粘贴板!
Multicloud 对象网关(MCG)的默认配置针对低资源消耗和不性能进行了优化。有关如何调整 MCG 资源的更多信息,请参阅用于多云对象网关(NooBaa)的红帽知识库解决方案性能调整指南。
第 15 章 部署 OpenShift Data Foundation 后禁用多云对象网关外部服务 复制链接链接已复制到粘贴板!
部署 OpenShift Data Foundation 时,即使 OpenShift 作为私有集群安装,也会创建公共 IP。但是,您可以使用 storagecluster CRD 中的 disableLoadBalancerService 变量禁用多云对象网关(MCG)负载均衡器的使用。这限制 MCG 为私有集群创建任何公共资源,并有助于禁用 NooBaa 服务 EXTERNAL-IP。
流程
运行以下命令,并在 storagecluster YAML 中添加
disableLoadBalancerService变量,将服务设置为 ClusterIP:Copy to Clipboard Copied! Toggle word wrap Toggle overflow 注意要撤销更改并将服务设置为 LoadBalancer,请将
disableLoadBalancerService变量设置为false或完全删除该行。
在 OpenShift Container Platform 中,当 ovs-multitenant 插件用于软件定义型网络 (SDN) 时,来自不同项目的 pod 无法将数据包发送到不同项目的 pod 和服务的数据包。默认情况下,pod 无法在命名空间或项目之间进行通信,因为项目的 pod 网络不是全局的。
要访问 odf-console,openshift-console 命名空间中的 OpenShift 控制台 pod 需要与 openshift-storage 命名空间中的 OpenShift Data Foundation odf-console 连接。这只有在手动模拟全局 pod 网络时才可能。
问题
当 OpenShift Container Platform 中使用 `ovs-multitenant` 插件时,odf-console 插件会失败,并显示以下信息:
GET request for "odf-console" plugin failed: Get "https://odf-console-service.openshift-storage.svc.cluster.local:9001/locales/en/plugin__odf-console.json": context deadline exceeded (Client.Timeout exceeded while awaiting headers)
GET request for "odf-console" plugin failed: Get "https://odf-console-service.openshift-storage.svc.cluster.local:9001/locales/en/plugin__odf-console.json": context deadline exceeded (Client.Timeout exceeded while awaiting headers)Copy to Clipboard Copied! Toggle word wrap Toggle overflow
解决方案
使 OpenShift Data Foundation 项目的 pod 网络全局化:
oc adm pod-network make-projects-global openshift-storage
$ oc adm pod-network make-projects-global openshift-storageCopy to Clipboard Copied! Toggle word wrap Toggle overflow