第 3 章 新功能


本节列出了本 Red Hat Ceph Storage 版本中引入的所有主要更新、增强功能和新功能。

这个版本添加的主要功能是:

  • 容器化集群

    Red Hat Ceph Storage 5 仅支持容器化守护进程。它不支持非容器化存储集群。如果您要将非容器化存储集群从 Red Hat Ceph Storage 4 升级到 Red Hat Ceph Storage 5,升级过程包括转换为容器化部署。

    如需更多信息,请参阅 Red Hat Ceph Storage 安装指南中的将 Red Hat Ceph Storage 集群从 RHCS 4 升级到 RHCS 5 部分。

  • Cephadm

    Cephadm 是一款全新的容器化部署工具,可通过从管理器守护进程连接到主机来部署和管理 Red Hat Ceph Storage 5.0 集群。cephadm 实用程序取代了 Red Hat Ceph Storage 部署的 ceph-ansible。Cephadm 的目标是为运行 Red Hat Ceph Storage 提供功能全面、功能强大和安装良好的管理层。

    cephadm 命令管理 Red Hat Ceph Storage 集群的完整生命周期。

    从 Red Hat Ceph Storage 5.0 开始,ceph-ansible 不再被支持,并与产品不兼容。迁移到 Red Hat Ceph Storage 5.0 后,您必须使用 cephadmcephadm-ansible 来执行更新。

    cephadm 命令可以执行以下操作:

  • 引导新的 Ceph 存储集群。
  • 启动与 Ceph 命令行界面 (CLI) 搭配使用的容器化 shell。
  • 有助于调试容器化守护进程.

    cephadm 命令使用 ssh 与存储集群中的节点通信,并添加、删除或更新 Ceph 守护进程容器。这样,您无需使用外部工具即可添加、删除或更新 Red Hat Ceph Storage 容器。

    cephadm 命令有两个主要组件:

  • cephadm shell 在容器内启动 bash shell。这可让您运行存储集群安装和设置任务,并在容器中运行 ceph 命令。
  • cephadm 编配器命令允许您调配 Ceph 守护进程和服务,并扩展存储集群。

    如需更多信息,请参见 Red Hat Ceph Storage 安装指南

  • 管理 API

    管理 API 创建的管理脚本适用于 Red Hat Ceph Storage 5.0,并在版本生命周期中保持不变。不兼容的 API 版本控制只会在发生在不同的主发行版本中。

    如需更多信息,请参阅 Red Hat Ceph Storage 开发人员指南

  • 断开连接的 Red Hat Ceph Storage 安装

    Red Hat Ceph Storage 5.0 支持在专用网络上断开连接的安装和引导存储集群。断开连接的安装使用自定义镜像和配置文件以及本地主机,而不是从网络下载文件。

    您可以安装从可以访问红帽 registry 的代理主机下载的容器镜像,或将容器镜像复制到本地 registry。bootstrap 过程需要一个规格文件,用于标识要按名称和 IP 地址添加的主机。启动初始监控主机后,您可以使用 Ceph 编配器命令来扩展和配置存储集群。

    如需了解更多详细信息,请参见 Red Hat Ceph Storage 安装指南

  • Ceph 文件系统异地复制

    从 Red Hat Ceph Storage 5 版本开始,您可以在不同的地理位置或不同站点之间复制 Ceph 文件系统 (CephFS)。新的 cephfs-mirror 守护进程执行快照异步复制到远程 CephFS。

    如需了解更多详细信息,请参阅 Red Hat Ceph Storage 文件系统指南中的 Ceph 文件系统镜像部分。

  • 新的 Ceph 文件系统客户端性能工具

    自 Red Hat Ceph Storage 5 发行版起,Ceph 文件系统 (CephFS) 提供了类似 top 的实用程序,可以实时在 Ceph 文件系统上显示指标。cephfs-top 实用程序是一个基于 curses 的 Python 脚本,它使用 Ceph Manager stats 模块来获取和显示客户端性能指标。

    如需了解更多详细信息,请参阅 Red Hat Ceph Storage 文件系统指南中的使用 cephfs-top 实用程序 一节。

  • 使用 Red Hat Ceph Storage 仪表板监控 Ceph 对象网关多站点

    Red Hat Ceph Storage 仪表板现在可用于监控 Ceph 对象网关多站点配置。

    在使用 cephadm 实用程序设置了多区后,一个区域的存储桶对其它区和其他站点可见。您还可以在仪表板上创建、编辑和删除存储桶。

    如需了解更多详细信息,请参阅 Red Hat Ceph Storage 仪表板指南中的在 Ceph 仪表板中管理多站点对象配置的存储桶章节。

  • 改进了 BlueStore 空间使用率

    Ceph 对象网关和 Ceph 文件系统 (CephFS) 将小对象和文件作为单独的对象存储在 RADOS 中。在这个版本中,BluStore 的 min_alloc_size 的 SSD 和 HDD 的默认值为 4 KB。这可以更好地利用空间,且不会影响性能。

    如需了解更多详细信息,请参见 Red Hat Ceph Storage 管理指南中的 OSD BlueStore 一章。

3.1. Cephadm 实用程序

Red Hat Ceph Storage 现在可以自动调优 Ceph OSD 内存目标

在这个版本中,osd_memory_target_autotune 选项已被修复,并可以正常工作。用户可以启用 Red Hat Ceph Storage,以自动调优存储集群中的 Ceph OSD 内存目标,以提高性能,而无需明确为 Ceph OSD 设置内存目标。Red Hat Ceph Storage 通过评估可用内存以及节点上运行的守护进程,以每个节点设置 Ceph OSD 内存目标。

用户可以通过运行以下命令来为 Ceph OSD 启用内存自动调整功能:

ceph config set osd osd_memory_target_autotune true
Red Hat logoGithubRedditYoutubeTwitter

学习

尝试、购买和销售

社区

关于红帽文档

通过我们的产品和服务,以及可以信赖的内容,帮助红帽用户创新并实现他们的目标。

让开源更具包容性

红帽致力于替换我们的代码、文档和 Web 属性中存在问题的语言。欲了解更多详情,请参阅红帽博客.

關於紅帽

我们提供强化的解决方案,使企业能够更轻松地跨平台和环境(从核心数据中心到网络边缘)工作。

© 2024 Red Hat, Inc.