第 6 章 已知问题
本节记录了本版本的 Red Hat Ceph Storage 中已知的问题。
6.1. Cephadm 实用程序
在升级后,Red Hat Ceph Storage 中的 NFS-RGW 问题
建议使用 RGW-NFS 的客户将升级延迟至 Red Hat Ceph Storage 5.1。
ceph orch host rm
命令不会删除 Red Hat Ceph Storage 集群的主机中的 Ceph 守护进程
ceph orch host rm
命令不提供任何输出。这是预期的行为,以避免意外删除 Ceph 守护进程会导致数据丢失。
要解决这个问题,用户必须手动删除 Ceph 守护进程。按照 Red Hat Ceph Storage 操作指南中的使用 Ceph Orchestrator 删除主机部分中的步骤,以删除 Red Hat Ceph Storage 集群的主机。
即使从 Red Hat Ceph Storage 集群中移除,Ceph 监视器也会报告为 stray 守护进程。
Cephadm 将 Ceph 监视器报告为灰色守护进程,即使它们已从存储集群中移除。
要临时解决这个问题,请运行 ceph mgr fail
命令,该命令允许管理器重新启动并清除错误。如果没有待机管理器,ceph mgr fail
命令会使集群暂时无响应。
当 monitor 被移到没有 _admin
标签的节点时,Cephadm shell 的访问权限将会丢失
在 bootstrap 后,如果没有 _admin
标签,当 monitor 移到其他节点时,对 Cephadm shell 的访问将会丢失。要解决这个问题,请确保目标主机具有 _admin
标签。
如果没有备用 MDS 守护进程,使用 Cephadm 的 Red Hat Ceph Storage 升级会卡住
在升级具有现有 MDS 服务且没有活跃备用守护进程的 Red Hat Ceph Storage 期间,该过程会卡住。
要解决这个问题,请确保您在通过 Cephadm 升级前至少有一个备用 MDS 守护进程。
运行 ceph fs status FILE_SYSTEM_NAME
。
如果没有待机守护进程,请添加 MDS 守护进程,然后升级存储集群。当存在待机守护进程时,升级可以正常工作。
ceph orch ls
命令不会列出可以在 Red Hat Ceph Storage 集群中创建的正确 OSD 数量
ceph orch ls
命令提供以下输出:
示例
# ceph orch ls osd.all-available-devices 12/16 4m ago 4h *
根据上面的输出,四个 OSD 未启动,这是不正确的。
要解决这个问题,请运行 ceph -s
命令,以查看所有 OSD 是否都已启动并在 Red Hat Ceph Storage 集群中运行。
ceph orch osd rm help
命令给出了一个不正确的参数描述
ceph orch osd rm help
命令输出 ceph orch osd rm SVC_ID … [--replace] [--force]
参数而不是 ceph orch osd rm OSD_ID… [--replace] [--force]
。这会在删除 OSD 时提示用户指定 SVC_ID
。
要解决这个问题,请使用 OSD 身份 OSD_ID
参数来移除 Red Hat Ceph Storage 集群的 OSD。
可以启用配置参数 osd_memory_target_autotune
在这个版本中,osd_memory_target_autotune
默认被禁用。用户可以通过运行以下命令来启用 OSD 内存自动调节:
ceph config set osd osd_memory_target_autotune true