第 7 章 已知问题
本节记录了本版本的 Red Hat Ceph Storage 中已知的问题。
7.1. Ceph Ansible 实用程序 复制链接链接已复制到粘贴板!
仅在 CephFS 相关池中部署 PG 自动缩放器无法正常工作
要临时解决这个问题,可以在 playbook 运行后在 CephFS 相关池中手动启用 PG 自动缩放器。
Ceph OSD 无法使用 osd_max_markdown_count 参数作为 systemd 单元模板强制执行参数'Restart=always'
OSD 守护进程的 systemd 单元模板强制执行参数 Restart=always,因此阻止使用 osd_max_markdown_count 参数,从而导致服务重启。要解决这个问题,请使用 ceph_osd_systemd_overrides 变量覆盖 OSD systemd 模板中的 Restart= 参数,即:
[osds]
osd0 ceph_osd_systemd_overrides="{'Service': {'Restart': 'no'}}"
[osds]
osd0 ceph_osd_systemd_overrides="{'Service': {'Restart': 'no'}}"
filestore-to-bluestore playbook 不支持 'osd_auto_discovery' 场景
基于 osd_auto_recovery 场景的 Red Hat Ceph Storage 4 部署无法使用 filestore-to-bluestore playbook 来简化 BlueStore 迁移。
要临时解决这个问题,请使用 shrink-osd playbook,并使用 osd_objectstore: bluestore 重新部署缩小的 OSD。
升级过程不会自动停止 ceph-crash 容器守护进程。
升级过程会向角色 ceph-crash 发出调用,但调用仅启动 ceph-crash 服务。如果在升级过程中 ceph-crash 容器守护进程仍在运行,则在升级完成后不会重启它们。
要临时解决这个问题,请在升级后手动重启 ceph-crash 容器。