第 15 章 使用 Ceph 配置多站点、容错消息传递系统


大型企业消息传递系统通常具有分散的代理集群,位于地理分散的数据中心。如果数据中心中断,系统管理员可能需要保留现有的消息传递数据,并确保客户端应用可以继续生成和使用消息。您可以使用特定的代理拓扑和红帽 Ceph 存储(软件定义存储平台)来确保数据中心中断期间消息传递系统的连续性。此类解决方案称为 多站点、容错架构

注意

如果您只需要 AMQP 协议支持,请考虑 第 16 章 使用代理连接配置多站点、容错消息传递系统

以下小节解释了如何使用 Red Hat Ceph Storage 保护您的消息传递系统免受数据中心中断的影响:

注意

多站点容错能力不能取代数据中心 的高可用性(HA)代理冗余。基于实时备份组的代理冗余提供自动保护,防止单一群集内出现单一代理故障。相比之下,多站点容错功能可防止大规模数据中心中断。

注意

要使用 Red Hat Ceph Storage 来确保消息传递系统的连续性,您必须将代理配置为使用共享存储高可用性(HA)策略。您不能将代理配置为使用复制 HA 策略。有关这些策略的更多信息,请参阅 实施高可用性

15.1. Red Hat Ceph Storage 集群如何工作

红帽 Ceph 存储是集群对象存储系统。红帽 Ceph 存储使用对象的数据分片和基于策略的复制来确保数据完整性和系统可用性。

红帽 Ceph 存储使用一种称为 CRUSH(可扩展哈希下的受控复制)的算法,以确定如何通过自动计算数据存储位置来存储和检索数据。您可以配置名为 CRUSH map 的 Ceph 项目,它详细说明集群拓扑结构,并指定如何在存储集群之间复制数据。

CRUSH map 包含对象存储设备(OSD)的列表、用于将设备聚合到故障域层次结构中的"bucket"列表,以及告知 CRUSH 如何在 Ceph 集群的池中复制数据的规则。

通过反映安装的底层物理组织,CRUSH map 可以模拟(从而解决)关联设备故障的潜在来源,如物理相似点、共享电源和共享网络。通过将此信息编码到集群映射中,CRUSH 可以在不同故障域(如数据中心)之间分隔对象副本,同时仍然保持存储群集间数据的伪随机分布。这有助于防止数据丢失,并使集群能够在降级状态下运行。

红帽 Ceph 存储群集需要运行多个节点(物理或虚拟)。集群必须包括以下类型的节点:

监控节点

每个 monitor(MON)节点运行 monitor 守护进程(ceph-mon),后者维护 cluster map 的主副本。集群映射包含集群拓扑。连接 Ceph 集群的客户端从 monitor 中检索 cluster map 的当前副本,这使得客户端能够从集群读取和写入数据。

重要

红帽 Ceph 存储群集可以使用一个 monitor 节点运行;但是,为了确保在生产集群中高可用性,红帽仅支持至少具有三个 monitor 节点的部署。至少三个 monitor 节点意味着,在一个 monitor 出现故障或不可用时,集群中的其余 monitor 节点存在仲裁来选举新的领导。

Manager 节点

每一管理器(MGR)节点运行 Ceph 管理器守护进程(ceph-mgr),它负责跟踪运行时指标和 Ceph 集群的当前状态,包括存储利用率、当前性能指标和系统负载。通常,管理器节点与 monitor 节点共存(即在同一主机上)。

对象存储设备节点

每个对象存储设备(OSD)节点运行 Ceph OSD 守护进程(ceph-osd),它与附加到节点的逻辑卷交互。Ceph 将数据存储在 OSD 节点上。Ceph 可以在非常少的 OSD 节点(默认为三个)运行,但生产集群在适度范围内实现了更高的性能,例如,一个存储集群中有 50 个 OSD。在存储集群中拥有多个 OSD 使得系统管理员能够在 CRUSH map 中定义隔离的故障域。

元数据服务器节点

每个元数据服务器(MDS)节点运行 MDS 守护进程(ceph-mds),后者管理与 Ceph 文件系统(CephFS)中存储的文件相关的元数据。MDS 守护进程也协调对共享集群的访问。

其它资源

有关红帽 Ceph 存储的更多信息,请参阅 什么是 Red Hat Ceph Storage?

Red Hat logoGithubRedditYoutubeTwitter

学习

尝试、购买和销售

社区

关于红帽文档

通过我们的产品和服务,以及可以信赖的内容,帮助红帽用户创新并实现他们的目标。

让开源更具包容性

红帽致力于替换我们的代码、文档和 Web 属性中存在问题的语言。欲了解更多详情,请参阅红帽博客.

關於紅帽

我们提供强化的解决方案,使企业能够更轻松地跨平台和环境(从核心数据中心到网络边缘)工作。

© 2024 Red Hat, Inc.