发行注记
Red Hat Ceph Storage 4.0 发行注记
摘要
第 1 章 简介 复制链接链接已复制到粘贴板!
Red Hat Ceph Storage 是一个可大规模扩展、开放、软件定义的存储平台,它将最稳定版本的 Ceph 存储系统与 Ceph 管理平台、部署实用程序和支持服务相结合。
Red Hat Ceph Storage 文档位于 https://access.redhat.com/documentation/en/red-hat-ceph-storage/。
第 2 章 致谢 复制链接链接已复制到粘贴板!
Red Hat Ceph Storage 4.0 包含 Red Hat Ceph Storage 团队的很多贡献。此外,Ceph 项目还发现了 Ceph 社区中个人和组织作出的质量和贡献数量的增长。我们想要感谢 Red Hat Ceph Storage 团队的所有成员、Ceph 社区中的所有个人贡献者,另外(但不限于):
- Intel
- Fujitsu
- UnitedStack
- Yahoo
- UbuntuKylin
- Mellanox
- CERN
- Deutsche Telekom
- Mirantis
- SanDisk
- SUSE
第 3 章 新功能 复制链接链接已复制到粘贴板!
本节列出了此 Red Hat Ceph Storage 发行版本中介绍的所有主要更新、功能增强和新功能。
这个版本添加的主要功能是:
3.1. ceph-ansible 实用程序 复制链接链接已复制到粘贴板!
使用 ceph-disk
创建的 Ceph OSD 会在升级过程中迁移到 ceph-volume
当升级到 Red Hat Ceph Storage 4 时,之前由 ceph-disk
实用程序创建的 Ceph OSD 都将迁移到 ceph-volume
实用程序,因为 ceph-disk
在此版本中已被弃用。
对于红帽 Ceph 存储的裸机和容器部署,ceph-volume
实用程序执行简单的扫描,接管由 ceph-disk
实用程序部署的现有 Ceph OSD。另外,在进行后续部署时,请勿在配置中使用这些迁移的设备。请注意,您无法在升级过程中创建任何新的 Ceph OSD。
升级后,由 ceph-disk
创建的所有 Ceph OSD 将根据 ceph-volume
创建的任何 Ceph OSD 一样启动和操作。
用于扩展所有 Ceph 服务的 Ansible playbook
在以前的版本中,ceph-ansible
playbook 仅提供有限的扩展和缩减功能到核心 Ceph 产品,如 monitor 和 OSD。借助这一更新,额外的 Ansible playbook 允许扩展所有 Ceph 服务。
合并到单个软件包中的 Ceph iSCSI 软件包
ceph-iscsi-cli
和 ceph-iscsi-config
软件包已合并到一个名为 ceph-iscsi
的软件包。
nfs-ganesha
服务现在作为独立部署被支持
Red Hat Openstack Directory(OSPd)需要 ceph-ansible
实用程序能够部署 nfs-ganesha
服务,并将它配置为指向外部、非受管、已存在的 Ceph 集群。自 Red Hat Ceph Storage 4 起,ceph-ansible
允许通过外部 Ceph 集群部署内部 nfs-ganesha
服务。
Ceph 容器现在可以将日志写入相应的守护进程文件
以前,容器化 Ceph 环境的日志记录方式不允许在使用 sosreport
集合查看日志数据时限制 journalctl
输出。在此发行版本中,可以使用以下命令为特定 Ceph 守护进程启用或禁用日志记录:
ceph config set daemon.id log_to_file true
ceph config set daemon.id log_to_file true
其中 daemon 是守护进程的类型,id 是其 ID。例如,要为 monitor 守护进程启用 ID mon0
的日志记录:
ceph config set mon.mon0 log_to_file true
ceph config set mon.mon0 log_to_file true
这种新功能可使调试变得更加容易。
将 Ceph 对象网关配置为使用 TLS 加密的功能
此 Red Hat Ceph Storage 发行版本提供了使用 radosgw_frontend_ssl_certificate
变量为 TLS 加密配置 Ceph 对象网关监听器的功能,以保护传输控制协议(TCP)流量。
Ansible playbook,用于将 OSD 从 FileStore 迁移到 BlueStore
添加了一个新的 Ansible playbook,将 OSD 从 FileStore 迁移到 BlueStore。对象存储迁移没有作为 Red Hat Ceph Storage 4 升级过程的一部分。升级完成后进行迁移。详情请参阅《 红帽 Ceph 存储管理指南》 中的 如何将对象存储从 FileStore 迁移到 BlueStore 部分。
3.2. Ceph 管理仪表板 复制链接链接已复制到粘贴板!
改进了池使用情况的信息
在这个版本中,有价值的信息被添加到池表中。添加了以下列:使用、读取字节数、写入字节数、读取操作和写操作。另外,PG 列被重命名为 Pg Status。
Red Hat Ceph Storage Dashboard 警报
Red Hat Ceph Storage Dashboard 支持基于 Ceph 指标和配置阈值的警报。Prometheus AlertManager 配置、收集和触发警报。警报以弹出窗口中的弹出通知显示在控制面板中。您可以查看 Cluster > Alerts 中最近警报的详情。您只能在 Prometheus 中配置警报,但您可以通过在 Cluster > Silences 中创建 "Alert Silences" 临时从仪表板中伪装 它们。
在控制面板中显示和隐藏 Ceph 组件
在 Red Hat Ceph Storage Dashboard 中,您可以显示或隐藏 Ceph 组件,如 Ceph iSCSI、RBD 镜像功能、Ceph 块设备、Ceph 文件系统或 Ceph 对象网关。此功能允许您隐藏未配置的组件。
Ceph 仪表板已添加到 Ceph Ansible playbook 中
在这个版本中,Ceph 仪表板安装代码合并到 Ceph Ansible playbook 中。无论 Red Hat Ceph Storage 部署类型、裸机或容器是什么,Ceph Ansible 都能进行容器化部署。添加了这四个新角色: ceph-grafana
、ceph-dashboard
、ceph-prometheus
和 ceph-node-exporter
。
Red Hat Ceph Storage Dashboard 警报
Red Hat Ceph Storage Dashboard 支持基于 Ceph 指标和配置阈值的警报。Prometheus AlertManager 配置、收集和触发警报。
从仪表板查看集群层次结构
Red Hat Ceph Storage Dashboard 提供了查看集群层次结构的功能。详情请参阅 Red Hat Ceph Storage 4 控制面板指南中的 CRUSH map 部分。
3.3. Ceph 文件系统 复制链接链接已复制到粘贴板!
Ceph -w
现在显示有关 CephFS 清理的信息
在以前的版本中,无法检查持续的 Ceph 文件系统(CephFS)清理状态,以签出元数据服务器(MDS)日志。在这个版本中,ceph -w
命令显示关于活跃 CephFS 清理的信息,以更好地理解其状态。
ceph-mgr
volumes 模块用于管理 CephFS 导出
此发行版本提供 Ceph Manager(ceph-mgr
)卷模块来管理 Ceph 文件系统(CephFS)导出。volumes 模块实现以下文件系统导出抽象:
- FS 卷是 CephFS 文件系统的抽象集
- FS 子卷,用于独立 CephFS 目录树的抽象
- FS 子卷组,这是一个大于 FS 子卷的抽象,用于影响策略(如文件布局)在一个一组子卷上。
另外,现在支持这些新命令:
-
fs 子卷 ls
列出子卷 -
fs 子卷组 ls
列出子卷组 -
fs 子卷快照 ls
列出子卷快照 -
fs subvolumegroup 快照 ls
,用于列出子卷组快照 -
用于删除快照的
fs 子卷 rm
3.4. Ceph Medic 复制链接链接已复制到粘贴板!
Ceph-medic
可以检查容器中运行的 Ceph 健康状况
在这个版本中,ceph-medic
实用程序可以检查容器中运行的 Red Hat Ceph Storage 集群的健康状态。
3.5. iSCSI Gateway 复制链接链接已复制到粘贴板!
非管理员用户现在可以用于 ceph-iscsi
服务
从 Red Hat Ceph Storage 4 开始,通过在所有 iSCSI 网关上的 /etc/ceph/iscsi-gateway.cfg
中设置 cluster_client_name
,即可将非管理 Ceph 用户用于 ceph-iscsi
服务。这允许基于用户限制资源。
现在可以删除运行 Ceph iSCSI 网关
自 Red Hat Ceph Storage 4 起,现在可以从 Ceph iSCSI 集群中删除运行 iSCSI 网关,以进行维护或重新分配资源。该网关的 iSCSI 目标及其门户将停止,该网关的所有 iSCSI 目标对象都将被从内核和网关配置中移除。移除还不支持关闭的网关。
3.6. 对象网关 复制链接链接已复制到粘贴板!
Beast HTTP 前端
在 Red Hat Ceph Storage 4 中,Ceph 对象网关的默认 HTTP 前端是 Beast。Beast 前端使用 Boost.Beast
库进行 HTTP 解析,而 Boost.Asio
库用于异步 I/O。详情请参阅 Red Hat Ceph Storage 4 的 《 对象网关配置和管理指南》 中使用 Beast 前端。
支持 S3 MFA-Delete
在这个版本中,Ceph 对象网关支持使用基于 Time-Time Password(TOTP)一次性密码作为身份验证因素的 S3 MFA-Delete。此功能为删除不适当数据添加了安全性。除了标准 S3 身份验证外,您还可以将存储桶配置为需要 TOTP 一次性令牌来删除数据。
用户现在可以使用 REST API 创建新的 IAM 策略和角色
随着 Red Hat Ceph Storage 4 的发布,IAM 角色和用户策略的 REST API 现在包括在与 S3 API 相同的命名空间中,并可使用 Ceph 对象网关中 S3 API 相同的端点进行访问。这允许最终用户使用 REST API 创建新的 IAM 策略和角色。
3.7. 软件包 复制链接链接已复制到粘贴板!
能够使用基于 Web 的界面安装 Ceph 集群
在这个版本中,支持基于 Cockpit Web 的界面。Cockpit 允许您在基础设备或容器中安装 Red Hat Ceph Storage 4 集群和其他组件,如元数据服务器、Ceph 客户端或 Ceph 对象网关。详情请参阅 Red Hat Ceph Storage 4 安装 指南中的使用 Cockpit Web 用户界面 安装 Red Hat Ceph Storage 一章。请注意,对于 Red Hat Ceph Storage 来说,至少需要使用 Red Hat Ceph Storage 的经验。
3.8. RADOS 复制链接链接已复制到粘贴板!
Ceph on-wire 加密
从 Red Hat Ceph Storage 4 开始,您可以通过引入 messenger 版本 2 协议来通过网络启用所有 Ceph 流量加密。详情请参阅 Red Hat Ceph Storage 4 Data Security and Hardening Guide 中的架构指南和加密 部分的 Ceph on-wire encryption 一章。
OSD BlueStore 现在被完全支持
BlueStore 是 OSD 守护进程的新后端,允许直接在块设备上存储对象。由于 BlueStore 不需要任何文件系统接口,它可以提高 Ceph 存储集群的性能。要了解有关 BlueStore OSD 后端的更多信息,请参见《红帽 Ceph 存储 4 管理指南》中的 OSD BlueStore 章节。
使用 FIPS 模式的 Red Hat Enterprise Linux
在这个版本中,您可以在启用了 FIPS 模式的 Red Hat Enterprise Linux 上安装 Red Hat Ceph Storage。
更改 ceph df
输出和新的 ceph osd df
命令
改进了 ceph df
命令的输出。值得注意的是,RAW USED 和 %RAW 美国 ED 值现在显示 db
和 wal BlueStore 分区的
预分配空间。ceph osd df
命令显示 OSD 使用率统计,如写入的数据量。
非操作 OSD 集的异步恢复
在以前的版本中,使用 Ceph 进行恢复是一个同步过程,它会阻止对对象的写操作进行恢复,直到这些对象被恢复为止。在这个发行版本中,恢复过程现在是异步的,它不会阻止写操作到非操作组 OSD 中的对象。此新功能需要具有超过最小副本数的副本数,因为 在非操作集合中有足够的 OSD。
新的配置选项 osd_async_recovery_min_cost
控制要进行的异步恢复量。此选项的默认值是 100
。较大的值意味着异步恢复会较少,而较低的值意味着异步恢复将更多。
现在,可以使用 ceph
配置将配置存储在 Monitor 中
在本发行版本中,Red Hat Ceph Storage 将配置集中到监控器中,而不使用 Ceph 配置文件(ceph.conf
)。在以前的版本中,更改配置包括手动更新 ceph.conf
,将其分发到适当的节点,然后重启所有受影响的守护进程。现在,监控器管理具有与 ceph.conf
相同的语义结构的配置数据库。该数据库可由 ceph config
命令访问。对配置的任何更改都会立即应用到系统中的守护进程或客户端,不再需要重启它们。使用 ceph config -h
命令获取有关可用命令集的详细信息。请注意,仍需要 Ceph 配置文件来识别 monitor 节点。
放置组现在可以自动扩展
Red Hat Ceph Storage 4 引入了自动扩展放置组(PG)的功能。池中的放置组(PG)在集群对等、分发数据和重新平衡方面扮演着重要角色。自动扩展 PG 可以更轻松地管理集群。新的 pg-autoscaling
命令根据集群的使用方式,为扩展 PG 提供建议,或根据集群的使用方式自动扩展 PG。有关自动扩展 PG 的详情,请查看 Red Hat Ceph Storage 4 存储策略指南中的 自动扩展放置组 部分。
磁盘预测模块
简介
Red Hat Ceph Storage Diskprediction
模块收集指标,以便在磁盘发生前预测磁盘故障。模块有两种模式,即 cloud 和 local。在这个版本中,只支持本地模式。本地模式不需要任何外部服务器进行数据分析。它使用内部预测模块进行磁盘预测服务,然后将磁盘预测结果返回到 Ceph 系统。
启用 diskprediction
模块:
ceph mgr module enable diskprediction_local
ceph mgr module enable diskprediction_local
设置预测模式:
ceph config set global device_failure_prediction_mode local
ceph config set global device_failure_prediction_mode local
禁用 diskprediction
模块:
ceph config set global device_failure_prediction_mode none
ceph config set global device_failure_prediction_mode none
新的可配置选项: mon_memory_target
Red Hat Ceph Storage 4 引入了一个新的可配置的选项 mon_memory_target
,用于设置监控内存用量的目标字节数。它指定使用关联 monitor 守护进程缓存的优先级缓存来分配和管理的内存量。mon_memory_target
的默认值为 2 GiB,您可以在运行时更改它:
ceph config set global mon_memory_target size
# ceph config set global mon_memory_target size
在此发行版本前,作为集群扩展,monitor 特定的 RSS 使用量超过使用 mon_osd_cache_size
选项设定的限制,这会导致问题。此功能增强允许对分配给监控缓存的内存进行改进,并在指定的限制内保留使用量。
3.9. 块设备(RBD) 复制链接链接已复制到粘贴板!
Ceph 块设备的纠删代码
Ceph 块设备(RBD)的纠删代码现已获得全面支持。此功能允许 RBD 将其数据存储在纠删代码池中。详情请参阅 Red Hat Ceph Storage 4 存储 策略中的 "使用过量写入 "部分进行协调。
RBD 性能监控和指标收集工具
Red Hat Ceph Storage 4 现在融合了新的 Ceph Block Device 性能监控实用程序,用于 IOPS、吞吐量和延迟的聚合 RBD 镜像指标。现在,可以使用 Ceph Manager Prometheus 模块、Ceph Dashboard 和 rbd
CLI 使用 rbd perf 镜像 iostat 或
命令获得每个镜像 RBD 指标。
rbd perf 镜像
iotop
可以从非主镜像创建克隆镜像
现在支持从镜像非主父镜像创建克隆的子 RBD 镜像。在以前的版本中,只有主镜像(mirror)支持克隆镜像。当为虚拟机克隆金级镜像时,这个限制会阻止从金级非主镜像创建新克隆镜像。在这个版本中删除了这个限制,克隆的镜像可以从非主镜像镜像创建。
在同一池中的隔离命名空间中隔离 RBD 镜像
RBD 镜像现在可以在同一池中的隔离命名空间内隔离。在没有较高级别系统(如 OpenStack 或 OpenShift Container Storage)的情况下直接使用 Ceph 块设备时,无法限制用户对特定 RBD 镜像的访问。与 CephX 功能相结合时,用户可以限制为特定的池命名空间,以限制对 RBD 镜像的访问。
在同一集群中不同池间移动 RBD 镜像
此版本的 Red Hat Ceph Storage 添加了在同一集群中不同池之间移动 RBD 镜像的功能。详情请参阅 Red Hat Ceph Storage 4 的 Block Device Guide 中的 池间移动镜像 部分。
长时间运行的 RBD 操作可在后台运行
长时间运行的 RBD 操作(如镜像移除或克隆的映像扁平化)现在可以调度到后台运行。涉及对镜像的每个支持的 RADOS 对象进行迭代的 RBD 操作可能需要很长时间,具体取决于镜像的大小。在使用 CLI 执行这些操作时,rbd
CLI 被阻止,直到操作完成为止。这些操作现在可以调度到 Ceph Manager 作为后台任务,方法是使用 ceph rbd 任务添加命令
。这些任务的进度在 Ceph 控制面板中也通过 CLI 可见。
3.10. RBD 镜像功能 复制链接链接已复制到粘贴板!
支持单一存储集群中 RBD 镜像守护进程的多个活跃实例
Red Hat Ceph Storage 4 现在支持在单个存储集群中部署 RBD 镜像守护进程的多个活跃实例。这可让多个 RBD 镜像守护进程为 RBD 镜像或池执行复制,使用一种算法在活跃镜像守护进程中阻塞镜像。
第 4 章 技术预览 复制链接链接已复制到粘贴板!
本节概述此 Red Hat Ceph Storage 发行版本中介绍或更新的技术预览功能。
技术预览功能不包括在红帽生产服务级别协议(SLA)中,且其功能可能并不完善。因此,红帽不建议在生产环境中使用它们。这些技术预览功能可以使用户提早试用新的功能,并有机会在开发阶段提供反馈意见。
如需红帽技术预览功能支持范围的更多信息,请参阅 https://access.redhat.com/support/offerings/techpreview/。
4.1. Ceph 文件系统 复制链接链接已复制到粘贴板!
CephFS 快照
Ceph 文件系统(CephFS)支持将快照标记为技术预览。快照在文件系统被拍摄时创建文件系统的不可变视图。
4.2. 块设备(RBD) 复制链接链接已复制到粘贴板!
将 RBD 镜像映射到 NBD 镜像
rbd-nbd
实用程序将 RADOS 块设备(RBD)镜像映射到网络块设备(NBD),并允许 Ceph 客户端访问 Kubernetes 环境中的卷和镜像。若要使用 rbd-nbd
,请安装 rbd-nbd
软件包。详情请查看 rbd-nbd(7)
手册页。
4.3. 对象网关 复制链接链接已复制到粘贴板!
对象网关归档网站
在这个版本中,存档站点作为技术预览提供。归档站点可让您具有 S3 对象的历史记录,它们只能通过与存档区域关联的网关消除。在多区配置中包含存档区,可让您在一个区中只拥有 S3 对象历史记录的灵活性,同时节省版本 S3 对象副本在区域的其余部分中消耗的空间。
按磁盘类型在集群中分层
此发行版本使用示例池映射到放置目标和存储类的功能,根据磁盘类型将集群中的分层功能作为一个技术预览。使用生命周期转换规则,这可能会导致对象根据策略在存储池间进行迁移。
S3 bucket 通知
现在,S3 bucket 通知作为技术预览提供。当 S3 存储桶触发某些事件时,通知可以从 Ceph 对象网关发送到 HTTP、高级消息队列协议(AMQP)9.1 和 Kafka 端点。另外,这个通知也可以存储在 "PubSub" 区域中,而不是将它们发送到端点。"PubSub"是一种发布订阅模型,使接收者可以从 Ceph 中调取通知。
要使用 S3 通知,请安装 librabbitmq
和 librdkafka
软件包。
第 5 章 过时的功能 复制链接链接已复制到粘贴板!
本节概述在这个 Red Hat Ceph Storage 发行版本中的所有次版本已被弃用的功能。
不再支持 Ubuntu
不再支持在 Ubuntu 上安装 Red Hat Ceph Storage 4 集群。使用 Red Hat Enterprise Linux 作为底层操作系统。
5.1. ceph-ansible 实用程序 复制链接链接已复制到粘贴板!
不再支持使用 ceph-ansible
配置 iSCSI 网关
不再支持使用 ceph-ansible
实用程序配置 Ceph iSCSI 网关。使用 ceph-ansible
安装网关,然后使用 Red Hat Ceph Storage Dashboard 的 gwcli
工具来配置网关。详情请参阅 Red Hat Ceph Storage 4 块设备指南中的使用 Ceph iSCSI 网关 一章。
5.2. ceph-disk 实用程序 复制链接链接已复制到粘贴板!
ceph-disk
已被弃用
在这个版本中,ceph-disk
实用程序不再被支持。改为使用 ceph-volume
实用程序。详情请参阅 Red Hat Ceph Storage 4 管理指南中的 ceph-volume 替换 'ceph-disk'
的原因。
5.3. RADOS 复制链接链接已复制到粘贴板!
在生产环境中不再支持 FileStore
FileStore OSD 后端现已弃用,因为生产环境中完全支持新的 BlueStore 后端。详情请参阅 Red Hat Ceph Storage 4 安装指南中的 如何将对象存储从 FileStore 迁移到 BlueStore 部分。
Ceph 配置现已弃用
Ceph 配置文件(ceph.conf
)现已弃用,而使用存储在 monitor 中的新集中式配置。详情请查看 Configuration 现在被存储在 monitor 中,使用 'ceph config' 发行版本备注。
第 6 章 程序错误修复 复制链接链接已复制到粘贴板!
本节论述了在这个 Red Hat Ceph Storage 发行版本中修复的用户有严重影响的错误。此外,部分还包括之前版本中发现的固定已知问题的描述。
6.1. ceph-ansible 实用程序 复制链接链接已复制到粘贴板!
Ansible playbook 不再需要几小时来完成 fuser
命令
在以前的版本中,在运行数千进程的系统上,Ansible playbook 中的 fuser
命令可能需要几分钟或几小时才能完成,因为它会迭代 /proc
目录中的所有 PID。因此,处理程序任务需要很长时间才能完成检查 Ceph 进程是否已运行。借助此次更新,Ansible playbook 现在检查 /proc/net/unix
目录中的套接字文件,而是检查 Ceph 套接字任务几乎即时完成的处理程序任务。
purge-docker-cluster.yml
Ansible playbook 不再失败
在以前的版本中,当尝试取消 map RADOS 块设备(RBD)时,purge-docker-cluster.yml
Ansible playbook 可能会失败,因为二进制不存在,或因为提供的 Atomic 主机版本太老。在这个版本中,Ansible 使用 sysfs
方法取消映射设备(如果有),purge-docker-cluster.yml
playbook 不再会失败。
6.2. 对象网关 复制链接链接已复制到粘贴板!
Expiration, Days
S3 Lifecycle 参数现在可以设置为 0
Ceph 对象网关不接受 Expiration、Days
Lifecycle 配置参数的 0
值。因此,无法使用 expiration 设为 0
来触发对象的后台删除操作。在这个版本中 ,到期日
可如预期设置为 0。
archive zone 获取源对象的当前版本
对象从多个源区域同步到存档区域。这个行为可能会导致存档区中同一对象的不同版本。在这个版本中,通过确保归档区域获取源对象的当前版本,从而消除了创建的副本版本。
6.3. RADOS 复制链接链接已复制到粘贴板!
使用 BlueStore 时设置 expected_num_objects
的消息不再显示
在这个版本中,在创建 BlueStore 池时建议设置 expected_num_obejcts
参数的消息已被删除,因为在使用 BlueStore OSD 后端时不会应用此消息。
弃用的 JSON 字段已被删除
在这个版本中,从 ceph status
命令的 JSON 输出中删除已弃用的字段。
第 7 章 已知问题 复制链接链接已复制到粘贴板!
本节记录了此 Red Hat Ceph Storage 发行版本里已知的问题。
7.1. ceph-ansible 实用程序 复制链接链接已复制到粘贴板!
在 Red Hat OpenStack Platform 上安装 Red Hat Ceph Storage 失败
当与 Red Hat OpenStack Platform 16 一起安装 Red Hat Ceph Storage 时,ceph-ansible
工具变得无响应,它会返回类似以下的错误:
'Error: unable to exec into ceph-mon-dcn1-computehci1-2: no container with name or ID ceph-mon-dcn1-computehci1-2 found: no such container'
'Error: unable to exec into ceph-mon-dcn1-computehci1-2: no container with name or ID ceph-mon-dcn1-computehci1-2 found: no such container'
要临时解决这个问题,请更新位于 ceph-ansible/roles/ceph-handler/tasks/
目录中的 handler_osds.yml
文件的以下部分:
- name: unset noup flag command: "{{ container_exec_cmd | default('') }} ceph --cluster {{ cluster }} osd unset noup" delegate_to: "{{ groups[mon_group_name][0] }}" changed_when: False
- name: unset noup flag
command: "{{ container_exec_cmd | default('') }} ceph --cluster {{ cluster }} osd unset noup"
delegate_to: "{{ groups[mon_group_name][0] }}"
changed_when: False
改为:
- name: unset noup flag command: "{{ hostvars[groups[mon_group_name][0]]['container_exec_cmd'] | default('') }} ceph --cluster {{ cluster }} osd unset noup" delegate_to: "{{ groups[mon_group_name][0] }}" changed_when: False
- name: unset noup flag
command: "{{ hostvars[groups[mon_group_name][0]]['container_exec_cmd'] | default('') }} ceph --cluster {{ cluster }} osd unset noup"
delegate_to: "{{ groups[mon_group_name][0] }}"
changed_when: False
并启动安装过程。
Ansible 在完成后不会取消设置 norebalance
标记
rolling-update.yml
Ansible playbook 在完成后不会取消设置 norebalance
标志。要临时解决这个问题,请手动取消设置该标志。
在启用仪表板时,Ansible 无法升级多站点 Ceph 对象网关
当启用 Red Hat Ceph Storage Dashboard 时,尝试使用 Ansible 升级到进一步版本的 Red Hat Ceph Storage 时,在多站点设置中升级次要 Ceph 对象网关站点时会失败。这个程序错误不会在主站点或者没有启用 Dashboard 发生。
7.2. Ceph 管理仪表板 复制链接链接已复制到粘贴板!
控制面板没有显示特定配置选项的正确值
同时,Red Hat Ceph Storage Dashboard 和 underlying ceph config show
命令都不会返回特定配置选项(如 fsid
)的当前值。这可能是因为在部署集群后没有更新且使用默认值的某些核心选项不会进一步修改。因此,仪表板没有为某些配置选项显示正确的值。
在控制面板中 NFS Ganesha
Red Hat Ceph Storage 控制面板目前不支持管理 NFS Ganesha。
仪表板不支持电子邮件验证
在更改用户密码时,Red Hat Ceph Storage 仪表板不支持任何电子邮件验证。此行为是有意设计的,因为控制面板支持单点登录(SSO),此功能可以委派给 SSO 提供程序。
OSD histogram 图表用于读取和写入操作
Red Hat Ceph Storage Dashboard 没有显示 OSD histogram 图表中用于读取和写入操作的任何数字或描述,因此该图没有明确。
当 ceph-mgr
模块从 ceph
CLI 启用时,仪表板会返回错误
在启用 Ceph Manager(
)模块(如 ceph
-mgrTelemetry
)时,Red Hat Ceph Storage Dashboard 会显示以下错误消息:
0 - Unknown Error
0 - Unknown Error
另外,仪表板不会将模块标记为启用,直到点 Refresh 按钮。
控制面板允许修改 LUN ID 和 WWN,这可能会导致数据崩溃
Red Hat Ceph Storage Dashboard 允许您修改 LUN ID 及其 World Wide Name(WWN),这是创建 LUN 后不需要的。此外,对于某些启动器(默认情况下不完全支持此功能)而言,编辑这些参数可能具有危险性。因此,在创建后编辑这些参数可能会导致数据崩溃。为了避免这种情况,请不要在 Dashboard 中修改 LUN ID 和 WWN。
仪表板不提供正确的 Ceph iSCSI 错误消息
如果 Ceph iSCSI 返回错误,例如在用户登录时删除 iSCSI 目标时 HTTP "400" 代码,则 Red Hat Ceph Storage 仪表板不会使用弹出通知将该错误代码和消息转发到 Dashboard 用户,但会显示通用 "500 Internal Server Error"。因此,仪表板提供的消息没有提供的信息,甚至没有误导;预期行为("用户无法删除忙碌的资源")被识别为可操作失败("内部服务器错误")。要临时解决这个问题,请参阅 Dashboard 日志。
仪表板需要禁用 iptables
规则
Red Hat Ceph Storage Dashboard 无法执行任何 iSCSI 操作,如创建网关,除非 Ceph iSCSI 节点上手动禁用所有 iptables
规则。要做到这一点,以 root
或 sudo
用户身份运行以下命令:
iptables -F
# iptables -F
请注意,重启后会再次启用该规则。再次禁用或永久删除它们。
7.3. 软件包 复制链接链接已复制到粘贴板!
当前版本的 Grafana 会导致仪表板中某些错误
Red Hat Ceph Storage 4 使用 Grafana 版本 5.2.4。这个版本会在 Red Hat Ceph Storage Dashboard 中出现以下错误:
当导航到 池 & gt; Overall Performance 时,Grafana 会返回以下错误:
TypeError: l.c[t.type] is undefined true
TypeError: l.c[t.type] is undefined true
Copy to Clipboard Copied! Toggle word wrap Toggle overflow - 当查看池的性能详情(Pools > 从列表 > Performance Details中选择池)时,Grafana 栏与其他图形和值一起显示,但不应该显示它。
在以后的 Red Hat Ceph Storage 版本中,这些程序错误会被解决。
7.4. Red Hat Enterprise Linux 复制链接链接已复制到粘贴板!
如果 SELinux 处于 enforcing 模式,Ansible 无法启动 NFS Ganesha
当在 Red Hat Enterprise Linux 8.1 上使用 SELinux 时,ceph-ansible
实用程序无法启动 NFS Ganesha 服务,因为 SELinux 策略目前不允许创建 NFS Ganesha 所需的目录。
第 8 章 源 复制链接链接已复制到粘贴板!
更新的 Red Hat Ceph Storage 源代码软件包包括在 http://ftp.redhat.com/redhat/linux/enterprise/7Server/en/RHCEPH/SRPMS/。