配置和管理高可用性集群


Red Hat Enterprise Linux 8

使用红帽高可用性附加组件创建和维护 Pacemaker 集群

Red Hat Customer Content Services

摘要

红帽高可用性附加组件配置使用 Pacemaker 集群资源管理器的高可用性集群。此标题提供了熟悉 Pacemaker 集群配置的流程,以及配置主动/主动和主动/被动集群的示例流程。

对红帽文档提供反馈

我们感谢您对我们文档的反馈。让我们了解如何改进它。

通过 Jira 提交反馈(需要帐户)

  1. 登录到 Jira 网站。
  2. 单击顶部导航栏中的 Create
  3. Summary 字段中输入描述性标题。
  4. Description 字段中输入您对改进的建议。包括文档相关部分的链接。
  5. 点对话框底部的 Create

第 1 章 高可用性附加组件概述

高可用性附加组件是一个集群的系统,它为关键生产环境服务提供可靠性、可伸缩性以及高可用性。

集群由两个或者多个计算机(称为 节点(node)成员(member))组成来一起执行任务。集群可用于提供高可用性服务或资源。多个机器的冗余是用来在出现各种失败时对环境的保护。

高可用性型机器通过消除单点失效以及在一个节点停止运作时将服务从一个群集节点切换到另外一个节点来提供高可用性服务。通常,高可用性群集中的服务会进行读写数据的操作(使用通过读写方式挂载的文件系统)。因此,高可用性集群必须维护数据的完整性,因为一个集群节点可能需要接管另外一个集群节点的任务。对于集群外的客户端,高可用性集群中出现的节点故障是不可见的。(高可用性机器有时候被称为故障转移(failover)集群。)High Availability Add-On 通过其高可用性服务管理组件 Pacemaker 提供高可用性集群。

红帽提供了各种用于规划、配置和维护红帽高可用性集群的文档。有关向 Red Hat 集群文档的各种区域提供指导索引的文章列表,请参阅 红帽高可用性附加组件文档指南

1.1. High Availability Add-On 附件

红帽高可用性附加组件由多个组件组成,这些组件提供高可用性服务。

High Availability Add-On 的主要组件如下:

  • 集群基础结构 - 为节点以集群方式运行提供基本功能:配置文件管理、成员资格管理、锁管理和保护。
  • 高可用性服务管理 - 提供在一个节点不可操作时,服务从一个集群节点切换到另外一个节点的功能。
  • 集群管理工具 - 用于设置、配置和管理高可用性附加组件的配置和管理工具。这些工具用于集群基础结构组件、高可用性和服务管理组件以及存储。

您还可以为高可用性附加组件添加以下组件:

  • Red Hat GFS2 (Global File System 2) — Resilient Storage Add-On 的一部分,提供和高可用性附加组件一起使用的集群文件系统。GFS2 允许多个节点进行块级别的存储共享,就好像每个群集节点都连接至本地存储空间一样。GFS2 集群文件系统需要一个集群基础结构。
  • LVM Locking Daemon(lvmlockd)- Resilient Storage 附加组件的一部分,它提供了群集存储的卷管理。lvmlockd 支持还需要群集基础架构。
  • HAProxy - 在第 4 层(TCP)和第 7 层(HTTP、HTTPS)服务中提供高可用性负载平衡和故障转移的路由软件。

1.2. 高可用性附加组件概念

红帽高可用性附加组件群集的一些关键概念如下:

1.2.1. 隔离

如果与集群中的单个节点通信失败,则集群中的其他节点必须能够限制或释放对故障集群节点可能有权访问的资源的访问。无法通过联系集群节点本身来实现。因为集群节点本身可能无法响应。反之,必须提供一个外部的方法来实现。这个方法为称为隔离(fencing)。隔离设备是一个外部设备,集群使用它用来限制错误节点对共享资源的访问,或对集群的节点执行硬重启。

如果没有配置隔离设备,您就无法知道以前被出现问题的集群节点使用的资源已被释放,这可能会阻止服务在集群的其他节点中运行。因此,该系统可能会错误地假设集群节点释放了它的资源,从而可能导致数据崩溃和数据丢失。没有隔离设备配置的数据完整性就无法保证,集群配置将不被支持。

当隔离进行时,不允许执行其他集群操作。在隔离完成前,或集群节点重启后重新加入集群前,集群的正常操作不能恢复。

有关隔离的更多信息,请参阅 红帽高可用性集群中的红帽知识库解决方案隔离

1.2.2. 仲裁

为了保持集群的完整性和可用性,集群系统使用一个称为仲裁(quorum) 的概念来防止数据崩溃和丢失。当超过一半的集群节点在线时,集群就已被“仲裁”。为减少由于失败造成数据崩溃的机会,在不满足仲裁数量的情况下,Pacemaker 会默认停止所有资源。

仲裁是通过一个投票(voting)系统来建立的。当一个集群节点工作不正常,或丢掉了与其他集群部分的通信,则大多数工作的节点可以通过投票来分离有问题的节点,如果需要,对节点进行隔离。

例如,在一个 6 个节点集群中,在至少有 4 个集群节点正常工作时就满足了仲裁。如果大多数节点离线或不可用,集群就不再具仲裁数量,Pacemaker 会停止集群的服务。

Pacemaker 仲裁的功能可以防止出现脑裂(split-brain)问题。当集群中出现无法相互通信的部分,而每个部分都可以在自己的部分中作为一个独立的集群运行,则代表集群出现了脑裂的问题。这可能会导致出现数据被破坏的问题。有关它处于脑裂状态以及仲裁概念的更多信息,请参阅红帽知识库文章 RHEL 高可用性集群的概念 - Quorum

Red Hat Enterprise Linux 高可用性附加组件集群使用 votequorum 服务,并结合隔离,以避免脑裂的情况。为集群中的每个系统分配一组投票机制,只能在大多数投票机制都存在时才允许执行集群操作。

1.2.3. 集群资源

集群资源是一个由集群服务管理的程序、数据或应用程序实例。这些资源通过代理(agent)作为一个标准接口,用来在集群环境中管理资源。

为确保资源健康,您可以在资源的定义中添加监控操作。如果您没有为资源指定监控操作,则会默认添加一个。

您可以通过配置约束(constraint)来决定集群中的资源行为。您可以配置以下约束类别:

  • 位置约束 - 位置约束决定资源可在哪个节点上运行。
  • 排序约束 - 排序约束决定资源运行的顺序。
  • 共同位置约束 - 共同位置约束(colocation constraint)决定资源相对于其他资源的位置。

集集的一个最常见的元素是一组资源,这些资源需要放置在一起,并按顺序启动并按反顺序停止。为简化此配置,Pacemaker 支持的概念。

1.3. Pacemaker 概述

Pacemaker 是一个集群资源管理器。它通过使用集群基础结构的消息和成员资格功能来实现集群服务和资源的最大可用性。

1.3.1. Pacemaker 架构组件

使用 Pacemaker 配置的集群由独立的组件守护进程组成,这些守护进程监控集群成员资格、管理服务的脚本以及监控不同资源的管理子系统。

以下组件组成 Pacemaker 架构:

Cluster Information Base(CIB)
Pacemaker 信息守护进程使用 XML 在内部向所有其他集群节点分发和同步当前配置和状态信息。这些信息来自于 DC(Designated Coordinator),它是由 Pacemaker 分配的用来存储和发布集群状态和动作的节点。
集群资源管理守护进程(CRMd)

Pacemaker 集群资源操作通过这个守护进程进行路由。由 CRMd 管理的资源可由客户端系统查询,并在需要时进行移动、实例化和更改。

每个节点还包括一个本地资源管理器守护进程(LRMd),它充当 CRMd 和资源间的接口。LRMd 将命令从 CRMd 传递给代理,如启动和停止状态信息。

STONITH(Shoot the Other Node in the Head)
STONITH 是 Pacemaker 的隔离(fencing)实现。它在 Pacemaker 中作为集群资源使用,用于处理保护请求,强制关闭节点并从集群中移除它们以确保数据的完整性。STONITH 在 CIB 中配置,它可以作为普通的集群资源被监控。
corosync

corosync 是满足高可用性群集的核心成员身份和成员沟通需求的组件 - 和相同名称的守护进程。它是 High Availability Add-On 正常运行所必需的功能。

除了成员资格和消息功能外,corosync 还:

  • 管理仲裁规则并进行裁定。
  • 为在集群的多个成员间协调或操作的应用程序提供消息功能,因此必须在实例间进行有状态或其他信息通信。
  • 使用 kronosnet 库作为其网络传输,以提供多个冗余链接和自动故障转移。

1.3.2. Pacemaker 配置和管理工具

High Availability Add-On 有两个配置工具用于集群部署、监控和管理。

pcs

pcs 命令行界面控制并配置 Pacemaker 和 corosync 心跳守护进程。基于命令行的程序 pcs 可以执行以下集群管理任务:

  • 创建并配置 Pacemaker/Corosync 集群
  • 在集群运行时修改集群配置
  • 远程配置 Pacemaker 和 Corosync 以及启动、停止和显示集群状态信息
pcsd Web UI
用于创建和配置 Pacemaker/Corosync 集群的图形用户界面。

1.3.3. 集群和 Pacemaker 配置文件

红帽高可用性附加组件的配置文件是 corosync.confcib.xml

corosync.conf 文件提供了 corosync(Pacemaker 构建的集群管理器)使用的集群参数。通常,您不应该直接编辑 corosync.conf,而是使用 pcspcsd 接口。

cib.xml 文件是一个 XML 文件,它代表集群的配置和群集中所有资源的当前状态。Pacemaker 的集群信息基础(Cluster Information Base,CIB)会使用这个文件。CIB 的内容会在整个集群中自动保持同步。不要直接编辑 cib.xml 文件;改为使用 pcspcsd 接口。

1.4. 红帽高可用性集群中的 LVM 逻辑卷

红帽高可用性附加组件以两种不同的集群配置为 LVM 卷提供支持。

您可以选择的集群配置如下:

  • 带有主动/被动故障转换配置的高可用性 LVM 卷(HA-LVM),在任何一个时间点上,集群中只能有一个节点访问存储。
  • 使用 lvmlockd 守护进程以主动/主动配置管理存储设备的 LVM 卷,其中多个群集节点需要同时访问存储。lvmlockd 守护进程是弹性存储附加组件的一部分。

1.4.1. 选择 HA-LVM 或者共享卷

使用 HA-LVM 或由 lvmlockd 守护进程管理的共享逻辑卷时,应当基于所部署的应用或服务的需要。

  • 如果集群的多个节点需要同时对主动/主动系统中的 LVM 卷进行读/写访问,则必须使用 lvmlockd 守护进程并将您的卷配置为共享卷。lvmlockd 守护进程提供了一个系统,可以同时协调 LVM 卷的激活和更改。lvmlockd 守护进程的锁定服务可保护 LVM 元数据,因为群集的不同节点与卷交互并更改其布局。这种保护取决于将同时在多个群集节点间作为共享卷激活的卷组。
  • 如果将高可用性集群配置为以主动/被动方式管理共享资源,一次只有一个成员需要访问给定 LVM 卷,那么您可以在没有 lvmlockd 锁定服务的情况下使用 HA-LVM。

因为大多数应用程序没有为与其他实例同时运行而设计或进行优化,所有它们以主动/被动配置的模式运行更佳。选择在共享逻辑卷上运行不是集群感知的应用程序可能会导致性能下降。这是因为,在这些情况下逻辑卷本身需要有集群通信的额外开销。针对集群设计的应用程序所获得的性能提高幅度必须大于因为集群文件系统和针对集群的逻辑卷所造成的性能降低的幅度。一些应用程序和工作负载会比其他应用程序和工作负载更容易实现这一点。确定集群的要求以及是否要为活跃/主动集群进行优化,从而在两个 LVM 配置间进行选择。大多数用户使用 HA-LVM 一般会获得最佳的 HA 结果。

HA-LVM 和使用 lvmlockd 的共享逻辑卷类似,因为它们可防止 LVM 元数据及其逻辑卷损坏,否则在允许多个计算机进行重叠更改时会出现这种情况。HA-LVM 会限制在一个时间点上只能有一个逻辑卷被激活,也就是说一次只在一个机器中激活。这意味着,只使本地(非集群)实现的存储驱动被使用。使用这种方法可以避免用于集群协调的额外开销,以提高性能。使用 lvmlockd 的共享卷不会强制实施这些限制,用户可以自由地在群集中的所有计算机上激活逻辑卷;这强制使用群集感知型存储驱动程序,允许将群集感知型文件系统和应用程序置于上面。

1.4.2. 在集群中配置 LVM 卷

通过 Pacemaker 管理集群。只有与 Pacemaker 集群联合支持 HA-LVM 和共享逻辑卷,且必须配置为集群资源。

注意

如果 Pacemaker 集群使用的 LVM 卷组包含远程块存储上的一个或多个物理卷,如 iSCSI 目标,则红帽建议您配置 systemd resource-agents-deps 目标和目标的一个 systemd 置入单元,以确保服务在 Pacemaker 启动之前启动。有关配置 systemd resource-agents-deps 目标的详情,请参考 为不由 Pacemaker 管理的资源依赖项配置启动顺序

第 2 章 Pacemaker 入门

要熟悉您用来创建 Pacemaker 集群的工具和进程,您可以执行以下流程。这些内容适用于想了解集群软件以及如何管理它,而不需要配置集群的用户。

注意

这些步骤并不会创建受支持的红帽集群。受支持的红帽集群至少需要两个节点并配置隔离设备。有关红帽对 RHEL 高可用性集群的支持政策、要求和限制的详情,请参考 RHEL 高可用性集群的支持政策

2.1. 学习使用 Pacemaker

通过这个过程,您将了解如何使用 Pacemaker 设置集群、如何显示集群状态以及如何配置集群服务。这个示例创建了一个 Apache HTTP 服务器作为集群资源,并显示了集群在资源失败时如何响应。

在本例中:

  • 节点为 z1.example.com
  • 浮动 IP 地址为 192.168.122.120。

先决条件

  • 运行 RHEL 8 的单个节点
  • 与节点静态分配的一个 IP 地址在同一网络上的浮动 IP 地址
  • 运行的节点的名称位于 /etc/hosts 文件中

流程

  1. 从 High Availability 频道安装红帽高可用性附加组件软件包,并启动并启用 pcsd 服务。

    # yum install pcs pacemaker fence-agents-all
    ...
    # systemctl start pcsd.service
    # systemctl enable pcsd.service

    如果您正在运行 firewalld 守护进程,启用红帽高可用性附加组件所需的端口。

    # firewall-cmd --permanent --add-service=high-availability
    # firewall-cmd --reload
  2. 在群集的每个节点上设置用户 hacluster 的密码,并为您要运行 pcs 命令的节点上群集中的每个节点验证用户 hacluster。本例只使用一个节点,您要从这个节点中运行命令。把这一步包括在这个步骤的原因是,它是配置一个被支持的红帽高可用性多节点集群的一个必要步骤。

    # passwd hacluster
    ...
    # pcs host auth z1.example.com
  3. 创建名为 my_cluster 且具有一个成员的群集,并检查群集的状态。这个命令会创建并启动集群。

    # pcs cluster setup my_cluster --start z1.example.com
    ...
    # pcs cluster status
    Cluster Status:
     Stack: corosync
     Current DC: z1.example.com (version 2.0.0-10.el8-b67d8d0de9) - partition with quorum
     Last updated: Thu Oct 11 16:11:18 2018
     Last change: Thu Oct 11 16:11:00 2018 by hacluster via crmd on z1.example.com
     1 node configured
     0 resources configured
    
    PCSD Status:
      z1.example.com: Online
  4. 红帽高可用性集群要求为集群配置隔离功能。在 Red Hat High Availability Cluster 中的红帽知识库解决方案隔离 中描述了此要求的原因。然而,在本简介中,它只显示如何使用基本 Pacemaker 命令,通过将启用了 stonith-enabled 集群选项设置为 false 来禁用隔离。

    警告

    对生产环境集群而言,stonith-enabled=false 的使用完全不合适。它通知集群,假设出现故障的节点已被安全隔离。

    # pcs property set stonith-enabled=false
  5. 在您的系统中配置网页浏览器并创建一个网页来显示简单文本信息。如果您正在运行 firewalld 守护进程,请启用 httpd 所需的端口。

    注意

    不要使用 systemctl enable 启用任何由集群管理的在系统引导时启动的服务。

    # yum install -y httpd wget
    ...
    # firewall-cmd --permanent --add-service=http
    # firewall-cmd --reload
    
    # cat <<-END >/var/www/html/index.html
    <html>
    <body>My Test Site - $(hostname)</body>
    </html>
    END

    要让 Apache 资源代理获得 Apache 状态,在现有配置中添加以下内容来启用状态服务器 URL。

    # cat <<-END > /etc/httpd/conf.d/status.conf
    <Location /server-status>
    SetHandler server-status
    Order deny,allow
    Deny from all
    Allow from 127.0.0.1
    Allow from ::1
    </Location>
    END
  6. 创建 IPaddr2apache 资源,供群集管理。'IPaddr2' 资源是一个浮动 IP 地址,它不能是一个已经与物理节点关联的 IP 地址。如果没有指定 'IPaddr2' 资源的 NIC 设备,浮动 IP 必须位于与静态分配的 IP 地址相同的网络中。

    您可以使用 pcs resource list 命令显示所有可用资源类型的列表。您可以使用 pcs resource describe resourcetype 命令显示您可以为指定资源类型设置的参数。例如,以下命令显示您可以为 apache 类型的资源设置的参数:

    # pcs resource describe apache
    ...

    在本例中,IP 地址资源和 apache 资源都配置为名为 apachegroup 的组的一部分,这样可确保资源在配置正常工作的多节点群集时在同一节点上运行。

    # pcs resource create ClusterIP ocf:heartbeat:IPaddr2 ip=192.168.122.120 --group apachegroup
    
    # pcs resource create WebSite ocf:heartbeat:apache configfile=/etc/httpd/conf/httpd.conf statusurl="http://localhost/server-status" --group apachegroup
    
    # pcs status
    Cluster name: my_cluster
    Stack: corosync
    Current DC: z1.example.com (version 2.0.0-10.el8-b67d8d0de9) - partition with quorum
    Last updated: Fri Oct 12 09:54:33 2018
    Last change: Fri Oct 12 09:54:30 2018 by root via cibadmin on z1.example.com
    
    1 node configured
    2 resources configured
    
    Online: [ z1.example.com ]
    
    Full list of resources:
    
    Resource Group: apachegroup
        ClusterIP  (ocf::heartbeat:IPaddr2):       Started z1.example.com
        WebSite    (ocf::heartbeat:apache):        Started z1.example.com
    
    PCSD Status:
      z1.example.com: Online
    ...

    配置集群资源后,您可以使用 pcs resource config 命令显示为该资源配置的选项。

    # pcs resource config WebSite
    Resource: WebSite (class=ocf provider=heartbeat type=apache)
     Attributes: configfile=/etc/httpd/conf/httpd.conf statusurl=http://localhost/server-status
     Operations: start interval=0s timeout=40s (WebSite-start-interval-0s)
                 stop interval=0s timeout=60s (WebSite-stop-interval-0s)
                 monitor interval=1min (WebSite-monitor-interval-1min)
  7. 将浏览器指向使用您配置的浮动 IP 地址创建的网站。这个命令会显示您定义的文本信息。
  8. 停止 apache web 服务并检查集群的状态。使用 killall -9 模拟应用程序级别的崩溃。

    # killall -9 httpd

    检查集群状态。您应该看到停止 web 服务会导致操作失败,但集群软件会重启该服务,您应该仍然可以访问网站。

    # pcs status
    Cluster name: my_cluster
    ...
    Current DC: z1.example.com (version 1.1.13-10.el7-44eb2dd) - partition with quorum
    1 node and 2 resources configured
    
    Online: [ z1.example.com ]
    
    Full list of resources:
    
    Resource Group: apachegroup
        ClusterIP  (ocf::heartbeat:IPaddr2):       Started z1.example.com
        WebSite    (ocf::heartbeat:apache):        Started z1.example.com
    
    Failed Resource Actions:
    * WebSite_monitor_60000 on z1.example.com 'not running' (7): call=13, status=complete, exitreason='none',
        last-rc-change='Thu Oct 11 23:45:50 2016', queued=0ms, exec=0ms
    
    PCSD Status:
        z1.example.com: Online

    您可以在服务启动并再次运行后,清除失败的资源中的失败状态。当您查看集群状态时,失败的操作通知将不再出现。

    # pcs resource cleanup WebSite
  9. 当您完成查看集群和集群状态后,停止节点上的集群服务。即使为此简介仅在一个节点上启动服务,但包含 --all 参数,因为它将停止实际多节点群集上所有节点上的群集服务。

    # pcs cluster stop --all

2.2. 了解配置故障转移

以下流程介绍了创建运行一个服务的 Pacemaker 集群,当在其上运行服务的节点变得不可用时,会从一个节点切换到另一个节点。通过这个步骤,您可以了解如何在双节点集群中创建服务,并可以查看在运行该服务的节点出现问题时会出现什么情况。

这个示例步骤配置一个运行 Apache HTTP 服务器的双节点 Pacemaker 集群。然后,您可以停止一个节点上的 Apache 服务来查看该服务仍然可用。

在本例中:

  • 节点为 z1.example.comz2.example.com
  • 浮动 IP 地址为 192.168.122.120。

先决条件

  • 两个运行 RHEL 8 的节点可以相互通信
  • 与节点静态分配的一个 IP 地址在同一网络上的浮动 IP 地址
  • 运行的节点的名称位于 /etc/hosts 文件中

流程

  1. 在这两个节点上,从 High Availability 频道安装红帽高可用性附加组件软件包,并启动并启用 pcsd 服务。

    # yum install pcs pacemaker fence-agents-all
    ...
    # systemctl start pcsd.service
    # systemctl enable pcsd.service

    如果您正在运行 firewalld 守护进程,在这两个节点上启用红帽高可用性附加组件所需的端口。

    # firewall-cmd --permanent --add-service=high-availability
    # firewall-cmd --reload
  2. 在集群的两个节点上,为用户 hacluster 设置密码。

    # passwd hacluster
  3. 在您要运行 pcs 命令的节点上,为集群中的每个节点验证用户 hacluster

    # pcs host auth z1.example.com z2.example.com
  4. 创建名为 my_cluster 的群集,两个节点都是群集成员。这个命令会创建并启动集群。您只需要从集群中的一个节点运行此操作,因为 pcs 配置命令对整个集群有效。

    在集群的一个节点中运行以下命令。

    # pcs cluster setup my_cluster --start z1.example.com z2.example.com

红帽高可用性集群要求为集群配置隔离功能。在 Red Hat High Availability Cluster 中的红帽知识库解决方案隔离 中描述了此要求的原因。但是,对于此介绍,仅显示在这个配置中故障转移的工作方式,通过将 stonith-enabled 集群选项设置为 false 来禁用隔离。

+

警告

对生产环境集群而言,stonith-enabled=false 的使用完全不合适。它通知集群,假设出现故障的节点已被安全隔离。

+

# pcs property set stonith-enabled=false
  1. 创建集群并禁用隔离后,检查集群的状态。

    注意

    运行 pcs cluster status 命令时,可能会显示在系统组件启动时暂时与示例稍有不同的输出。

    # pcs cluster status
    Cluster Status:
     Stack: corosync
     Current DC: z1.example.com (version 2.0.0-10.el8-b67d8d0de9) - partition with quorum
     Last updated: Thu Oct 11 16:11:18 2018
     Last change: Thu Oct 11 16:11:00 2018 by hacluster via crmd on z1.example.com
     2 nodes configured
     0 resources configured
    
    PCSD Status:
      z1.example.com: Online
      z2.example.com: Online
  2. 在这两个节点中,配置网页浏览器并创建一个网页来显示简单的文本信息。如果您正在运行 firewalld 守护进程,请启用 httpd 所需的端口。

    注意

    不要使用 systemctl enable 启用任何由集群管理的在系统引导时启动的服务。

    # yum install -y httpd wget
    ...
    # firewall-cmd --permanent --add-service=http
    # firewall-cmd --reload
    
    # cat <<-END >/var/www/html/index.html
    <html>
    <body>My Test Site - $(hostname)</body>
    </html>
    END

    要让 Apache 资源代理获得 Apache 状态,集群中的每个节点都会在现有配置之外创建一个新的配置来启用状态服务器 URL。

    # cat <<-END > /etc/httpd/conf.d/status.conf
    <Location /server-status>
    SetHandler server-status
    Order deny,allow
    Deny from all
    Allow from 127.0.0.1
    Allow from ::1
    </Location>
    END
  3. 创建 IPaddr2apache 资源,供群集管理。'IPaddr2' 资源是一个浮动 IP 地址,它不能是一个已经与物理节点关联的 IP 地址。如果没有指定 'IPaddr2' 资源的 NIC 设备,浮动 IP 必须位于与静态分配的 IP 地址相同的网络中。

    您可以使用 pcs resource list 命令显示所有可用资源类型的列表。您可以使用 pcs resource describe resourcetype 命令显示您可以为指定资源类型设置的参数。例如,以下命令显示您可以为 apache 类型的资源设置的参数:

    # pcs resource describe apache
    ...

    在本例中,IP 地址资源和 apache 资源都配置为名为 apachegroup 的组的一部分,这样可确保资源在同一节点上运行。

    在集群中的一个节点中运行以下命令:

    # pcs resource create ClusterIP ocf:heartbeat:IPaddr2 ip=192.168.122.120 --group apachegroup
    
    # pcs resource create WebSite ocf:heartbeat:apache configfile=/etc/httpd/conf/httpd.conf statusurl="http://localhost/server-status" --group apachegroup
    
    # pcs status
    Cluster name: my_cluster
    Stack: corosync
    Current DC: z1.example.com (version 2.0.0-10.el8-b67d8d0de9) - partition with quorum
    Last updated: Fri Oct 12 09:54:33 2018
    Last change: Fri Oct 12 09:54:30 2018 by root via cibadmin on z1.example.com
    
    2 nodes configured
    2 resources configured
    
    Online: [ z1.example.com z2.example.com ]
    
    Full list of resources:
    
    Resource Group: apachegroup
        ClusterIP  (ocf::heartbeat:IPaddr2):       Started z1.example.com
        WebSite    (ocf::heartbeat:apache):        Started z1.example.com
    
    PCSD Status:
      z1.example.com: Online
      z2.example.com: Online
    ...

    请注意,在此实例中,apache group 服务正在节点 z1.example.com 上运行。

  4. 访问您创建的网站,在运行该服务的节点上停止运行该服务,查看该服务如何切换到第二个节点。

    1. 将浏览器指向使用您配置的浮动 IP 地址创建的网站。这会显示您定义的文本信息,显示运行网站的节点名称。
    2. 停止 apache web 服务。使用 killall -9 模拟应用程序级别的崩溃。

      # killall -9 httpd

      检查集群状态。您应该可以看到,停止 web 服务会导致操作失败,但集群软件在运行该服务的节点中重启该服务,所以您应该仍然可以访问网页浏览器。

      # pcs status
      Cluster name: my_cluster
      Stack: corosync
      Current DC: z1.example.com (version 2.0.0-10.el8-b67d8d0de9) - partition with quorum
      Last updated: Fri Oct 12 09:54:33 2018
      Last change: Fri Oct 12 09:54:30 2018 by root via cibadmin on z1.example.com
      
      2 nodes configured
      2 resources configured
      
      Online: [ z1.example.com z2.example.com ]
      
      Full list of resources:
      
      Resource Group: apachegroup
          ClusterIP  (ocf::heartbeat:IPaddr2):       Started z1.example.com
          WebSite    (ocf::heartbeat:apache):        Started z1.example.com
      
      Failed Resource Actions:
      * WebSite_monitor_60000 on z1.example.com 'not running' (7): call=31, status=complete, exitreason='none',
          last-rc-change='Fri Feb  5 21:01:41 2016', queued=0ms, exec=0ms

      在服务启动并再次运行后,清除失败状态。

      # pcs resource cleanup WebSite
    3. 将运行该服务的节点设置为待机模式。请注意,由于禁用了隔离功能,因此我们无法有效地模拟节点级别的故障(比如拔掉电源电缆)。需要隔离功能集群才可以在出现这类问题时被恢复。

      # pcs node standby z1.example.com
    4. 检查集群的状态并记录该服务正在运行的位置。

      # pcs status
      Cluster name: my_cluster
      Stack: corosync
      Current DC: z1.example.com (version 2.0.0-10.el8-b67d8d0de9) - partition with quorum
      Last updated: Fri Oct 12 09:54:33 2018
      Last change: Fri Oct 12 09:54:30 2018 by root via cibadmin on z1.example.com
      
      2 nodes configured
      2 resources configured
      
      Node z1.example.com: standby
      Online: [ z2.example.com ]
      
      Full list of resources:
      
      Resource Group: apachegroup
          ClusterIP  (ocf::heartbeat:IPaddr2):       Started z2.example.com
          WebSite    (ocf::heartbeat:apache):        Started z2.example.com
    5. 访问网站。服务应该仍然可用,显示信息应该指示服务正在运行的节点。
  5. 要将集群服务恢复到第一个节点,让节点离开待机模式。这不一定将该服务转换到第一个节点。

    # pcs node unstandby z1.example.com
  6. 最后,进行清理,停止两个节点上的集群服务。

    # pcs cluster stop --all

第 3 章 pcs 命令行界面

pcs 命令行界面通过为其配置文件提供简单的接口来控制并配置集群服务,如 corosyncpacemakerboothsbd

请注意,您不应该直接编辑 cib.xml 配置文件。在大多数情况下,Pacemaker 将拒绝直接修改的 cib.xml 文件。

3.1. pcs help display

您可以使用 pcs-h 选项显示 pcs 命令的参数以及这些参数的说明。

以下命令显示 pcs resource 命令的参数

# pcs resource -h

3.2. 查看原始集群配置

虽然您不应该直接编辑集群配置文件,但您可以使用 pcs cluster cib 命令查看原始集群配置。

您可以使用 pcs cluster cib filename 命令将原始集群配置保存到指定的文件中。如果您之前已经配置了集群,且已经有一个活跃的 CIB,则使用以下命令保存原始 xml 文件。

pcs cluster cib filename

例如,以下命令可将 CIB 中的原始 xml 保存到名为 testfile 的文件中:

# pcs cluster cib testfile

3.3. 将配置更改保存到工作文件中

配置集群时,您可以在不影响活跃 CIB 的情况下将配置更改保存到指定的文件中。这可让您在每次单独的更新时都指定配置更新而无需立即更新当前运行的集群配置。

有关将 CIB 保存到文件的详情,请参考 查看原始集群配置。创建该文件后,您可以使用 pcs 命令的 -f 选项将配置更改保存到该文件,而不是活跃的 CIB。当您完成更改并准备好更新活跃 CIB 文件后,您可以使用 pcs cluster cib-push 命令推送这些文件 更新。

流程

以下是将更改推送到 CIB 文件的建议步骤。这个过程创建原始保存的 CIB 文件的副本并修改该副本。将这些更改推送到活跃 CIB 时,这个过程会指定 pcs cluster cib-push 命令的 diff-against 选项,以便只有原始文件和更新的文件之间的更改才会被推送到 CIB。这允许用户并行进行更改而不会相互覆盖其内容,这可以减少 Pacemaker(它不需要解析整个配置文件)的负载。

  1. 将活动的 CIB 保存到文件中。本例将 CIB 保存到名为 original.xml 的文件中。

    # pcs cluster cib original.xml
  2. 将保存的文件复制到您要用于配置更新的工作文件中。

    # cp original.xml updated.xml
  3. 根据需要更新您的配置。以下命令在 update .xml 文件中创建资源,但不将该资源添加到当前运行的集群配置中。

    # pcs -f updated.xml resource create VirtualIP ocf:heartbeat:IPaddr2 ip=192.168.0.120 op monitor interval=30s
  4. 将更新的文件推送到活跃的 CIB 中,指定您只推送对原始文件进行的更改。

    # pcs cluster cib-push updated.xml diff-against=original.xml

另外,您可以使用以下命令推送 CIB 文件的整个内容。

pcs cluster cib-push filename

在推送整个 CIB 文件时,Pacemaker 会检查这个版本,并不允许推送比集群中已存在的 CIB 文件更早的文件。如果您需要更新整个 CIB 文件,其版本早于集群中的当前版本,您可以使用 pcs cluster cib-push 命令的 --config 选项。

pcs cluster cib-push --config filename

3.4. 显示集群状态

您可以使用各种命令来显示集群及其组件的状态。

您可以使用以下命令显示集群和集群资源的状态。

# pcs status

您可以使用 pcs status 命令的 commands 参数显示特定集群组件的状态,并指定 resourcesclusternodespcsd

pcs status commands

例如,以下命令显示集群资源的状态。

# pcs status resources

以下命令显示集群的状态,但不显示集群资源。

# pcs cluster status

3.5. 显示完整的集群配置

使用以下命令显示完整的集群的当前配置。

# pcs config

3.6. 使用 pcs 命令修改 corosync.conf 文件

从 Red Hat Enterprise Linux 8.4 开始,您可以使用 pcs 命令修改 corosync.conf 文件中的参数。

以下命令修改 corosync.conf 文件中的参数:

pcs cluster config update [transport pass:quotes[transport options]] [compression pass:quotes[compression options]] [crypto pass:quotes[crypto options]] [totem pass:quotes[totem options]] [--corosync_conf pass:quotes[path]]

以下示例命令 udates knet_pmtud_interval 传输 值以及 令牌加入 totem 值。

# pcs cluster config update transport knet_pmtud_interval=35 totem token=10000 join=100

其它资源

3.7. 使用 pcs 命令显示 corosync.conf 文件

以下命令显示 corosync.conf 群集配置文件的内容:

# pcs cluster corosync

从 Red Hat Enterprise Linux 8.4 开始,您可以使用 pcs cluster config 命令以人类可读的格式打印 corosync.conf 文件的内容,如下例所示。

如果集群是在 RHEL 8.7 或更高版本中创建的,或者 UUID 是手动添加的,这个命令的输出包括集群的 UUID,如 通过 UUID 识别集群所述。

[root@r8-node-01 ~]# pcs cluster config
Cluster Name: HACluster
Cluster UUID: ad4ae07dcafe4066b01f1cc9391f54f5
Transport: knet
Nodes:
  r8-node-01:
    Link 0 address: r8-node-01
    Link 1 address: 192.168.122.121
    nodeid: 1
  r8-node-02:
    Link 0 address: r8-node-02
    Link 1 address: 192.168.122.122
    nodeid: 2
Links:
  Link 1:
    linknumber: 1
    ping_interval: 1000
    ping_timeout: 2000
    pong_count: 5
Compression Options:
  level: 9
  model: zlib
  threshold: 150
Crypto Options:
  cipher: aes256
  hash: sha256
Totem Options:
  downcheck: 2000
  join: 50
  token: 10000
Quorum Device: net
  Options:
    sync_timeout: 2000
    timeout: 3000
  Model Options:
    algorithm: lms
    host: r8-node-03
  Heuristics:
    exec_ping: ping -c 1 127.0.0.1

从 RHEL 8.4 开始,您可以运行带有 --output-format=cmd 选项的 pcs cluster config show 命令,来显示可用于重新创建现有 corosync.conf 文件的 pcs 配置命令,如下例所示。

[root@r8-node-01 ~]# pcs cluster config show --output-format=cmd
pcs cluster setup HACluster \
  r8-node-01 addr=r8-node-01 addr=192.168.122.121 \
  r8-node-02 addr=r8-node-02 addr=192.168.122.122 \
  transport \
  knet \
    link \
      linknumber=1 \
      ping_interval=1000 \
      ping_timeout=2000 \
      pong_count=5 \
    compression \
      level=9 \
      model=zlib \
      threshold=150 \
    crypto \
      cipher=aes256 \
      hash=sha256 \
  totem \
    downcheck=2000 \
    join=50 \
    token=10000

第 4 章 使用 Pacemaker 创建红帽高可用性集群

使用 pcs 命令行界面,按照以下流程创建一个红帽高可用性双节点集群。

在本例中配置集群需要您的系统包含以下组件:

  • 2 个节点,用于创建集群。在本例中,使用的节点为 z1.example.comz2.example.com
  • 专用网络的网络交换机。我们推荐使用专用网络用于集群节点和其它集群硬件(比如网络电源交换机和光线通道交换机)的通信,当这不是必须的。
  • 集群中的每个节点上都有一个隔离设备。这个示例使用 APC 电源交换机的两个端口,主机名为 zapc.example.com
注意

您必须确保您的配置符合红帽的支持政策。有关红帽对 RHEL 高可用性集群的支持政策、要求和限制的详情,请参考 RHEL 高可用性集群的支持政策

4.1. 安装集群软件

安装集群软件,并使用以下流程为集群创建配置您的系统。

流程

  1. 在集群的每个节点上,启用与您的系统架构对应的高可用性存储库。例如,要为 x86_64 系统启用高可用性存储库,您可以输入以下 subscription-manager 命令:

    # subscription-manager repos --enable=rhel-8-for-x86_64-highavailability-rpms
  2. 在集群的每个节点中,安装 Red Hat High Availability Add-On 软件包,以及 High Availability 性频道中的所有可用的隔离代理。

    # yum install pcs pacemaker fence-agents-all

    另外,您可以使用以下命令安装 Red Hat High Availability Add-On 软件包,并只安装您需要的隔离代理。

    # yum install pcs pacemaker fence-agents-model

    以下命令显示可用隔离代理列表。

    # rpm -q -a | grep fence
    fence-agents-rhevm-4.0.2-3.el7.x86_64
    fence-agents-ilo-mp-4.0.2-3.el7.x86_64
    fence-agents-ipmilan-4.0.2-3.el7.x86_64
    ...
    警告

    在安装 the Red Hat High Availability Add-On 软件包后,需要确定设置了软件更新首选项,以便不会自动安装任何软件。在正在运行的集群上安装可能会导致意外行为。如需更多信息,请参阅将软件更新应用到 RHEL High Availability 或弹性存储集群的建议实践

  3. 如果您正在运行 firewalld 守护进程,请执行以下命令启用红帽高可用性附加组件所需的端口。

    注意

    您可以使用 rpm -q firewalld 命令确定系统上是否安装了 firewalld 守护进程。如果安装了它,您可以使用 firewall-cmd --state 命令来确定它是否在运行。

    # firewall-cmd --permanent --add-service=high-availability
    # firewall-cmd --add-service=high-availability
    注意

    集群组件的理想防火墙配置取决于本地环境,您可能需要考虑节点是否有多个网络接口或主机外防火墙是否存在。在此示例中打开 Pacemaker 集群通常所需的端口,您需要根据具体情况进行修改。为高可用性附加组件启用端口 会显示为红帽高可用性附加组件启用的端口,并解释每个端口的用途。

  4. 要使用 pcs 配置集群并在节点之间进行通信,您必须在每个节点上设置用户 ID hacluster 的密码,这是 pcs 管理帐户。建议每个节点上的用户 hacluster 的密码都相同。

    # passwd hacluster
    Changing password for user hacluster.
    New password:
    Retype new password:
    passwd: all authentication tokens updated successfully.
  5. 在配置群集之前,必须启动并启用 pcsd 守护进程以便在每个节点上引导时启动。此守护进程与 pcs 命令配合使用,以管理群集中节点的配置。

    在集群的每个节点上,执行以下命令启动 pcsd 服务并在系统启动时启用 pcsd

    # systemctl start pcsd.service
    # systemctl enable pcsd.service

4.2. 安装 pcp-zeroconf 软件包(推荐使用)

当您设置集群时,建议您为 Performance Co -Pilot(PCP)工具安装 pcp-zeroconf 软件包。PCP 是红帽推荐的 RHEL 系统资源监控工具。安装 pcp-zeroconf 软件包可让您运行 PCP 并收集性能监控数据,以便调查隔离、资源故障和其他破坏集群的事件。

注意

启用 PCP 的集群部署将需要足够空间,以便 PCP 在包含 /var/log/pcp/ 的文件系统中捕获的数据。PCP 的典型空间使用量因部署而异,但使用 pcp-zeroconf 默认设置时 10Gb 通常就足够了,而且有些环境可能需要较少的时间。监控这个目录中的 14 天期间内的典型活动提供更准确的信息。

流程

要安装 pcp-zeroconf 软件包,请运行以下命令:

# yum install pcp-zeroconf

此软件包启用 pmcd,并以 10 秒间隔设置数据捕获。

有关查看 PCP 数据的详情,请查看红帽知识库解决方案 为什么重启 RHEL 高可用性集群节点 - 如何防止它再次发生?

4.3. 创建高可用性集群

使用以下流程创建一个红帽高可用性附加组件集群。这个示例流程会创建一个由节点 z1.example.comz2.example.com 组成的集群。

流程

  1. 针对您要运行 pcs 的节点上的群集中每个节点验证 pcs 用户 hacluster

    以下命令在 z1.example.com 上为双节点集群(由 z1.example.comz2.example.com 组成)中的两个节点验证用户 hacluster

    [root@z1 ~]# pcs host auth z1.example.com z2.example.com
    Username: hacluster
    Password:
    z1.example.com: Authorized
    z2.example.com: Authorized
  2. z1.example.com 执行以下命令,以创建由 z1.example.comz2.example.com 组成的双节点集群 my_cluster。这会将集群配置文件传播到集群中的两个节点。此命令包含 --start 选项,该选项将在群集的两个节点上启动群集服务。

    [root@z1 ~]# pcs cluster setup my_cluster --start z1.example.com z2.example.com
  3. 在节点引导时,启用集群服务在集群中的每个节点上运行。

    注意

    对于特定环境,您可以跳过这一步来禁用集群服务。这可让您确保在节点重新加入集群前解决集群或您的资源中的任何问题。如果禁用了群集服务,则需要在该节点上执行 pcs cluster start 命令,在重新引导节点时手动启动该服务。

    [root@z1 ~]# pcs cluster enable --all

您可以使用 pcs cluster status 命令显示集群的当前状态。由于在使用 pcs cluster setup 命令的 --start 选项启动群集服务时,在启动群集服务时可能会有一些延迟,因此您应该确保在对群集及其配置执行任何后续操作前启动并运行群集。

[root@z1 ~]# pcs cluster status
Cluster Status:
 Stack: corosync
 Current DC: z2.example.com (version 2.0.0-10.el8-b67d8d0de9) - partition with quorum
 Last updated: Thu Oct 11 16:11:18 2018
 Last change: Thu Oct 11 16:11:00 2018 by hacluster via crmd on z2.example.com
 2 Nodes configured
 0 Resources configured

...

4.4. 创建使用多个链接的高可用性集群

您可以通过指定每个节点的所有链接,使用 pcs cluster setup 命令创建具有多个链接的红帽高可用性集群。

创建具有两个链接的双节点群集的基本命令的格式如下:

pcs cluster setup pass:quotes[cluster_name] pass:quotes[node1_name] addr=pass:quotes[node1_link0_address] addr=pass:quotes[node1_link1_address] pass:quotes[node2_name] addr=pass:quotes[node2_link0_address] addr=pass:quotes[node2_link1_address]

有关此命令的完整语法,请查看 pcs(8)手册页。

当创建具有多个链接的集群时,您应该考虑以下内容。

  • addr=地址 参数的顺序非常重要。节点名称后指定的第一个地址为 link0,第二个 地址用于 link1,以此类推。
  • 默认情况下,如果没有为链接指定 link_priority,则链接的优先级等于链接号。根据指定的顺序,链接优先级为 0、1、2、3 等,以此类推,0 是最高链接优先级。
  • 默认链接模式是 passive,即使用具有最低编号链路优先级的活动链接。
  • 使用 link_modelink_priority 的默认值,指定的第一个链接将用作最高优先级链接,如果该链接失败,则将使用指定的下一个链接。
  • 可以使用 knet 传输协议(即默认的传输协议)指定最多 8 个链接。
  • 所有节点必须具有相同数量的 addr= 参数
  • 从 RHEL 8.1 开始,可以使用 pcs cluster link addpcs cluster link removepcs cluster link deletepcs cluster link update 命令在现有群集中添加、删除和更改链接。
  • 与单链路集群一样,请勿将 IPv4 和 IPv6 地址混合到一个链接中,虽然您可以有一个链接运行 IPv4,另一个运行 IPv6。
  • 与单链路集群一样,只要在一个单一的链接中没有混合使用 IPv4 和 IPv6,且名称可以被解析为 IPv4 或 IPv6 地址,就可以使用 IP 地址或名称来指定地址。

以下示例创建一个名为 my_twolink_cluster 的双节点群集,它有两个节点 rh80-node1rh80-node2rh80-node1 有两个接口,IP 地址 192.168.122.201 为 link0,192.168.123.201 为 link1rh80-node2 有两个接口,IP 地址 192.168.122.202 为 link0,192.168.123.202 为 link1

# pcs cluster setup my_twolink_cluster rh80-node1 addr=192.168.122.201 addr=192.168.123.201 rh80-node2 addr=192.168.122.202 addr=192.168.123.202

要将链接优先级设置为与默认值不同的值,即链接号,您可以使用 pcs cluster setup 命令的 link_priority 选项设置链接优先级。以下两个示例命令各自创建一个具有两个接口的双节点群集,其中第一个链接,链接 0 具有链接优先级 1,而第二个链接,链接 1 具有链接优先级 0。首先使用链接 1,链接 0 将充当故障转移链接。由于未指定链接模式,因此默认为 passive。

这两个命令是等效的。如果您没有在 link 关键字之后指定链接号,pcs 接口会自动添加链接号,从最低的未使用的链接号开始。

# pcs cluster setup my_twolink_cluster rh80-node1 addr=192.168.122.201 addr=192.168.123.201 rh80-node2 addr=192.168.122.202 addr=192.168.123.202 transport knet link link_priority=1 link link_priority=0

# pcs cluster setup my_twolink_cluster rh80-node1 addr=192.168.122.201 addr=192.168.123.201 rh80-node2 addr=192.168.122.202 addr=192.168.123.202 transport knet link linknumber=1 link_priority=0 link link_priority=1

您可以使用 pcs cluster setup 命令的 link_mode 选项将链接模式设置为 与默认的 passive 值不同的值,如下例所示:

# pcs cluster setup my_twolink_cluster rh80-node1 addr=192.168.122.201 addr=192.168.123.201 rh80-node2 addr=192.168.122.202 addr=192.168.123.202 transport knet link_mode=active

以下示例设置了链接模式和链接优先级。

# pcs cluster setup my_twolink_cluster rh80-node1 addr=192.168.122.201 addr=192.168.123.201 rh80-node2 addr=192.168.122.202 addr=192.168.123.202 transport knet link_mode=active link link_priority=1 link link_priority=0

有关将节点添加到具有多个链接的现有集群中的详情,请参考 将一个节点添加到具有多个链接的集群中

有关更改具有多个链接的现有集群中的链接的详情,请参考 在现有集群中添加和修改链接

4.5. 配置隔离

您必须为集群中的每个节点配置保护设备。有关保护配置命令和选项的详情,请参考 在红帽高可用性集群中配置隔离

有关隔离的一般信息及其在红帽高可用性集群中的重要程度,请查看 红帽高可用性集群中的红帽知识库解决方案隔离

注意

在配置隔离设备时,应该注意该设备是否与集群中的任何节点或者设备共享电源。如果某个节点及其隔离设备共享了电源,那么如果它的电源出现问题,集群可能就无法收到隔离功能的保护。这样的集群应该有冗余电源来保护设备和节点,或者具有没有和节点共享电源的额外的隔离设置。其他替代的隔离方法,比如 SBD 或存储隔离,也可以用来对电源问题提供冗余保护。

流程

这个示例使用主机名为 zapc.example.com 的 APC 电源开关来隔离节点,并使用 fence_apc_snmp 隔离代理。由于这两个节点都将被同一隔离代理隔离,因此您可以使用 pcmk_host_map 选项将这两个隔离设备配置为单一资源。

您可以使用 pcs stonith create 命令将设备配置为 stonith 资源来创建隔离设备。以下命令配置名为 myapcstonith 资源,该资源对节点 z1.example.comz2.example.com 使用 fence_apc_snmp 隔离代理。pcmk_host_map 选项将 z1.example.com 映射到端口 1,并将 z2.example.com 映射到端口 2。APC 设备的登录值和密码都是 apc。默认情况下,该设备对每个节点都使用 60 秒的监视间隔时间。

请注意,您可以在为节点指定主机名时使用 IP 地址。

[root@z1 ~]# pcs stonith create myapc fence_apc_snmp ipaddr="zapc.example.com" pcmk_host_map="z1.example.com:1;z2.example.com:2" login="apc" passwd="apc"

以下命令显示现有隔离设备的参数。

[root@rh7-1 ~]# pcs stonith config myapc
 Resource: myapc (class=stonith type=fence_apc_snmp)
  Attributes: ipaddr=zapc.example.com pcmk_host_map=z1.example.com:1;z2.example.com:2 login=apc passwd=apc
  Operations: monitor interval=60s (myapc-monitor-interval-60s)

配置了隔离设备后,您应该测试该设备。有关测试隔离设备的详情,请参考 测试隔离设备

注意

不要通过禁用网络接口来测试您的隔离设备,因为这不会正确测试隔离功能。

注意

当配置了隔离功能,且启动集群后,网络重启会触发节点的隔离,即使没有超过超时时间也会重启网络。因此,不要在集群服务运行时重启网络服务,因为它将在节点上触发意外隔离。

4.6. 备份和恢复集群配置

以下命令在 tar 归档中备份集群配置,并从备份中恢复所有节点上的集群配置文件。

流程

使用以下命令,在 tar 存档中备份集群配置。如果没有指定文件名,会使用标准输出。

pcs config backup filename
注意

pcs config backup 命令仅备份 CIB 中配置的群集配置本身;资源守护进程配置不在此命令范围之内。例如:如果您在集群中配置了 Apache 资源,则会备份资源设置(位于 CIB 中),而 Apache 守护进程设置(如'/etc/httpd' 中的设置)及其服务的文件不会被备份。同样,如果集群中配置了数据库资源,则不会备份数据库本身,而是备份数据库资源配置(CIB)。

使用以下命令从备份中恢复所有集群节点上的集群配置文件。指定 --local 选项只恢复您在其上运行此命令的节点上的集群配置文件。如果没有指定文件名,将使用标准输入。

pcs config restore [--local] [filename]

4.7. 为高可用性附加组件启用端口

集群组件的理想防火墙配置取决于本地环境,您可能需要考虑节点是否有多个网络接口或主机外防火墙是否存在。

如果您正在运行 firewalld 守护进程,请执行以下命令启用红帽高可用性附加组件所需的端口。

# firewall-cmd --permanent --add-service=high-availability
# firewall-cmd --add-service=high-availability

您可能需要修改开放端口以适合本地条件。

注意

您可以使用 rpm -q firewalld 命令确定系统上是否安装了 firewalld 守护进程。如果安装了 firewalld 守护进程,您可以使用 firewall-cmd --state 命令确定其是否在运行。

下表显示了为红帽高可用性附加组件启用的端口,并解释了该端口的用途。

表 4.1. 为高可用性附加组件启用的端口
端口什么时候需要

TCP 2224

所有节点上都需要默认的 pcsd 端口(pcsd Web UI 需要且节点到节点的通信需要)。您可以使用 /etc/sysconfig/pcsd 文件中的 PCSD_PORT 参数来配置 pcsd 端口。

打开端口 2224 非常重要,从而使来自任何节点的 pcs 可以与群集中的所有节点(包括自身)进行通信。当使用 Booth 集群票据管理器或仲裁设备时,您必须在所有相关主机上打开端口 2224,如 Booth 仲裁器或仲裁设备主机。

TCP 3121

如果集群有 Pacemaker 远程节点,则所有节点都需要这个端口

完整集群节点上 基于 pacemaker 的守护进程将在端口 3121 联系 Pacemaker 远程节点上的 pacemaker_remoted 守护进程。如果使用一个单独的接口用于集群通信,则该端口只需要在那个接口上打开。至少应该在 Pacemaker 远程节点上完整集群节点打开这个端口。因为用户可以在完整节点和远程节点间转换主机,或使用主机网络在容器内运行远程节点,您可以为所有节点打开端口。不需要向节点以外的任何主机打开端口。

TCP 5403

当使用对仲裁设备使用 corosync-qnetd 时,仲裁设备主机上需要。可以使用 corosync-qnetd 命令的 -p 选项更改默认值。

UDP 5404-5412

corosync 节点需要这些端口以便在节点间进行通信。打开端口 5404-5412 非常重要,这样来自任何节点的 corosync 都可以与群集中的所有节点(包括自身)进行通信。

TCP 21064

如果群集包含任何需要 DLM 的资源(如 GFS2),则在所有节点上都需要这个端口。

TCP 9929, UDP 9929

当使用 Booth ticket 管理器建立多站点集群时,需要在所有集群节点上打开 Booth 仲裁节点并从这些相同节点进行连接。

第 5 章 在红帽高可用性集群中配置主动/被动 Apache HTTP 服务器

使用以下流程在双节点 Red Hat Enterprise Linux高可用性附加组件集群中配置主动/被动 Apache HTTP 服务器。在这种情况下,客户端通过浮动 IP 地址访问 Apache HTTP 服务器。Web 服务器在集群的两个节点之一中运行。如果运行 web 服务器的节点出现问题,则 web 服务器会在集群的第二个节点上再次启动,以实现服务中断的最小化。

下图显示了集群的高级概述,其中集群是一个双节点红帽高可用性集群,它配置有网络电源交换机和共享存储。集群节点连接到公用网络,以便客户端通过虚拟 IP 访问 Apache HTTP 服务器。Apache 服务器在 Node 1 或 Node 2 中运行,每个节点都可访问保存 Apache 数据的存储。本图例中,网页服务器在 Node 1 上运行,如果 Node 1 停止工作, Node 2 可以运行服务器。

图 5.1. Red Hat High Availability 双节点集群中的 Apache

Red Hat High Availability 双节点集群中的 Apache

这个用例需要您的系统包括以下组件:

  • 一个双节点 Red Hat High Availability 集群,为每个节点配置了电源隔离功能。我们建议使用专用网络,但这不是必须的。此流程使用了创建带有 Pacemaker 的 Red Hat High-Availability 集群中提供的集群示例。
  • Apache 需要的公共虚拟 IP 地址。
  • 集群中节点的共享存储,使用 iSCSI、光纤或其他共享网络块设备。

集群被配置为带有 Apache 资源组,其中包含 web 服务器所需的集群组件:LVM 资源、文件系统资源、IP 地址资源以及 web 服务器资源。这个资源组可以从集群的一个节点切换到另外一个节点,允许其中两个节点运行 web 服务器。在为集群创建资源组前,您将执行以下步骤:

  1. 在逻辑卷 my_lv 上配置 XFS 文件系统。
  2. 配置 web 服务器。

执行这些步骤后,您要创建资源组及其包含的资源。

5.1. 在 Pacemaker 集群中使用 XFS 文件系统配置一个 LVM 卷

使用以下流程在集群节点之间共享的存储上创建一个 LVM 逻辑卷。

注意

LVM 卷以及集群节点使用的对应分区和设备必须只能连接到集群节点。

下面的流程创建了一个 LVM 逻辑卷,然后在该卷上创建一个 XFS 文件系统,以便在 Pacemaker 集群中使用。在这个示例中,使用共享分区 /dev/sdb1 来存储从中创建 LVM 逻辑卷的 LVM 物理卷。

流程

  1. 在集群的两个节点上,执行以下步骤将 LVM 系统 ID 的值设置为系统的 uname 标识符值。LVM 系统 ID 将用于确保只有集群可以激活卷组。

    1. /etc/lvm/lvm.conf 配置文件中的 system_id_source 配置选项设置为 uname

      # Configuration option global/system_id_source.
      system_id_source = "uname"
    2. 验证节点上的 LVM 系统 ID 是否与节点的 uname 匹配。

      # lvm systemid
        system ID: z1.example.com
      # uname -n
        z1.example.com
  2. 创建 LVM 卷并在该卷上创建一个 XFS 文件系统。由于 /dev/sdb1 分区是共享的存储,因此您仅在一个节点上执行这一部分的步骤。

    注意

    如果您的 LVM 卷组包含一个或多个远程块存储上的物理卷,如 iSCSI 目标,红帽建议您确保服务在 Pacemaker 启动之前启动。有关为 Pacemaker 集群使用的远程物理卷配置启动顺序的详情,请参考 为不由 Pacemaker 管理的资源依赖项配置启动顺序

    1. 在分区 /dev/sdb1 上创建一个 LVM 物理卷。

      [root@z1 ~]# pvcreate /dev/sdb1
        Physical volume "/dev/sdb1" successfully created
      注意

      如果您的 LVM 卷组包含一个或多个远程块存储上的物理卷,如 iSCSI 目标,红帽建议您确保服务在 Pacemaker 启动之前启动。有关为 Pacemaker 集群使用的远程物理卷配置启动顺序的详情,请参考 为不由 Pacemaker 管理的资源依赖项配置启动顺序

    2. 创建由物理卷 /dev/sdb1 组成的卷组 my_vg

      对于 RHEL 8.5 及之后的版本,指定 --setautoactivation n 标志来确保集群中由 Pacemaker 管理的卷组在启动时不会自动激活。如果您要为正在创建的 LVM 卷使用现有卷组,您可以使用 vgchange --setautoactivation n 命令为卷组重置此标记。

      [root@z1 ~]# vgcreate --setautoactivation n my_vg /dev/sdb1
        Volume group "my_vg" successfully created

      对于 RHEL 8.4 及更早版本,使用以下命令创建卷组:

      [root@z1 ~]# vgcreate my_vg /dev/sdb1
        Volume group "my_vg" successfully created

      有关确保集群中 Pacemaker 管理的卷组不会在启动 RHEL 8.4 及更早版本时自动激活的信息,请参阅 确保卷组在多个集群节点上不被激活

    3. 确认新卷组带有您要运行的节点的系统 ID,并从这个节点中创建卷组。

      [root@z1 ~]# vgs -o+systemid
        VG    #PV #LV #SN Attr   VSize  VFree  System ID
        my_vg   1   0   0 wz--n- <1.82t <1.82t z1.example.com
    4. 使用卷组 my_vg 创建逻辑卷。

      [root@z1 ~]# lvcreate -L450 -n my_lv my_vg
        Rounding up size to full physical extent 452.00 MiB
        Logical volume "my_lv" created

      您可以使用 lvs 命令显示逻辑卷。

      [root@z1 ~]# lvs
        LV      VG      Attr      LSize   Pool Origin Data%  Move Log Copy%  Convert
        my_lv   my_vg   -wi-a---- 452.00m
        ...
    5. 在逻辑卷 my_lv 上创建一个 XFS 文件系统。

      [root@z1 ~]# mkfs.xfs /dev/my_vg/my_lv
      meta-data=/dev/my_vg/my_lv       isize=512    agcount=4, agsize=28928 blks
               =                       sectsz=512   attr=2, projid32bit=1
      ...
  3. (RHEL 8.5 及更高版本)如果您通过在 lvm.conf 文件中设置 use_devicesfile = 1 来启用设备文件的使用,请将共享设备添加到集群中第二个节点上的设备文件中。默认情况下,不启用设备文件的使用。

    [root@z2 ~]# lvmdevices --adddev /dev/sdb1

5.2. 确保卷组没有在多个集群节点上激活(RHEL 8.4 及更早版本)

您可以按照以下流程确保集群中 Pacemaker 管理的卷组不会在启动时自动激活。如果某个卷组在启动时自动激活,而不是由 Pacemaker 激活,则卷组可能会同时在多个节点上激活,这可能会破坏卷组的元数据。

注意

对于 RHEL 8.5 及之后的版本,您可以通过为 vgcreate 命令指定 --setautoactivation n 标志,在创建卷组时对卷组禁用自动激活,如在 在 Pacemaker 集群中使用 XFS 文件系统配置一个 LVM 卷 中所述。

此流程修改 /etc/lvm/lvm.conf 配置文件中的 auto_activation_volume_list 条目。auto_activation_volume_list 条目用于将自动激活限制为特定的逻辑卷。将 auto_activation_volume_list 设置为空列表可完全禁用自动激活。

任何未被共享且不由 Pacemaker 管理的本地卷都应包含在 auto_activation_volume_list 条目中,包括与节点本地根和主目录相关的卷组。由群集管理器管理的所有卷组都必须从 auto_activation_volume_list 条目中排除。

流程

在集群的每个节点中执行以下步骤。

  1. 使用以下命令,确定您的本地存储上当前已配置哪些卷组。这将输出当前配置的卷组的列表。如果您在单独的卷组中为 root 和此节点上的主目录分配了空间,您会在输出中看到这些卷,如下例所示。

    # vgs --noheadings -o vg_name
      my_vg
      rhel_home
      rhel_root
  2. my_vg 之外的卷组(您刚刚为群集定义的卷组)作为条目添加到 /etc/lvm/lvm.conf 配置文件中的 auto_activation_volume_list

    例如,如果您在单独的卷组中为 root 和主目录分配了空间,您可以取消注释 lvm.conf 文件的 auto_activation_volume_list 行,并将这些卷组作为条目添加到 auto_activation_volume_list,如下所示:请注意,您刚才为群集定义的卷组(本例中为 my_vg )不在此列表中。

    auto_activation_volume_list = [ "rhel_root", "rhel_home" ]
    注意

    如果节点上没有要在群集管理器外激活的本地卷组,您仍需要将 auto_activation_volume_list 条目初始化为 auto_activation_volume_list = []

  3. 重建 initramfs 引导映像,以确保引导映像不会尝试激活由群集控制的卷组。使用以下命令更新 initramfs 设备:此命令最多可能需要一分钟完成。

    # dracut -H -f /boot/initramfs-$(uname -r).img $(uname -r)
  4. 重新引导节点。

    注意

    如果您自引导引导镜像后安装了一个新的 Linux 内核,则新 initrd 镜像将适用于您在创建引导镜像时运行的内核,而不是重新引导该节点时运行的新内核。您可以通过在重启前后运行 uname -r 命令来确保使用正确的 initrd 设备,以确定正在运行的内核版本。如果发行版不同,请在使用新内核重启后更新 initrd 文件,然后重新引导节点。

  5. 节点重新引导后,通过在该节点上执行 pcs cluster status 命令,检查群集服务是否已在该节点上再次启动。如果这会产生 Error: cluster 当前没有在此节点上运行的信息,请输入以下命令。

    # pcs cluster start

    另外,您可以等待直到您重新引导集群中的每个节点,并使用以下命令在集群中的所有节点上启动集群服务。

    # pcs cluster start --all

5.3. 配置 Apache HTTP 服务器

使用以下流程配置 Apache HTTP 服务器。

流程

  1. 确定在集群的每个节点中安装了 Apache HTTP Server。您还需要在集群中安装 wget 工具,才能检查 Apache HTTP 服务器的状态。

    在每个节点上执行以下命令。

    # yum install -y httpd wget

    如果您正在运行 firewalld 守护进程,在集群的每个节点上启用了红帽高可用性附加组件所需的端口,并启用了运行 httpd 所需的端口。本例启用 httpd 端口以进行公共访问,但针对 httpd 启用的特定端口可能因生产用途而异。

    # firewall-cmd --permanent --add-service=http
    # firewall-cmd --permanent --zone=public --add-service=http
    # firewall-cmd --reload
  2. 要让 Apache 资源代理获得 Apache 状态,集群中的每个节点都会在现有配置之外创建一个新的配置来启用状态服务器 URL。

    # cat <<-END > /etc/httpd/conf.d/status.conf
    <Location /server-status>
        SetHandler server-status
        Require local
    </Location>
    END
  3. 为 Apache 创建网页供服务。

    在集群中的一个节点上,确保您在 配置带有 配置一个带有 XFS 文件系统的 LVM 卷 时创建的逻辑卷已被激活,挂载您在该逻辑卷上创建的文件系统,在该文件系统上创建文件 index.html,然后卸载该文件系统。

    # lvchange -ay my_vg/my_lv
    # mount /dev/my_vg/my_lv /var/www/
    # mkdir /var/www/html
    # mkdir /var/www/cgi-bin
    # mkdir /var/www/error
    # restorecon -R /var/www
    # cat <<-END >/var/www/html/index.html
    <html>
    <body>Hello</body>
    </html>
    END
    # umount /var/www

5.4. 创建资源和资源组

使用以下流程为集群创建资源。为确保这些资源在同一节点上运行,它们已配置为资源组 apachegroup 的一部分。要创建的资源如下,按其启动顺序列出。

  1. 一个名为 my_lvm 的使用您在 配置一个带有 XFS 文件系统的 LVM 卷 时创建的 LVM-activate 资源。
  2. 一个名为 my_fs 的使用您在 配置一个带有 XFS 文件系统的 LVM 卷 时创建的文件系统设备 /dev/my_vg/my_lvFilesystem 资源。
  3. IPaddr2 资源,它是 apachegroup 资源组的浮动 IP 地址。IP 地址不能是一个已经与物理节点关联的 IP 地址。如果没有指定 IPaddr2 资源的 NIC 设备,浮动 IP 必须与节点静态分配的 IP 地址之一位于同一个网络中,否则无法正确检测到分配浮动 IP 地址的 NIC 设备。
  4. 名为 Websiteapache 资源使用您在 配置 Apache HTTP 服务器 中定义的 index.html 文件和 Apache 配置。

以下步骤创建资源组 apachegroup 以及该组包含的资源:资源将以您添加到组的顺序启动,并按照添加到组中的相反顺序停止。仅从集群的一个节点运行此步骤。

流程

  1. 以下命令创建 LVM-activate 资源 my_lvm。由于资源组 apachegroup 尚不存在,此命令会创建资源组。

    注意

    不要配置多个在主动/被动 HA 配置中使用相同 LVM 卷组的 LVM 激活资源,因为这可能导致数据崩溃。另外,不要在主动/被动 HA 配置中将 LVM 激活的资源配置为 克隆资源。

    [root@z1 ~]# pcs resource create my_lvm ocf:heartbeat:LVM-activate vgname=my_vg vg_access_mode=system_id --group apachegroup

    当您创建资源时,会自动启动该资源。您可以使用以下命令确认资源已创建并启动。

    # pcs resource status
     Resource Group: apachegroup
         my_lvm	(ocf::heartbeat:LVM-activate):	Started

    您可以使用 pcs resource disablepcs resource enable 命令手动停止并启动单个资源。

  2. 以下命令为配置创建剩余的资源,将它们添加到现有的资源组 apachegroup

    [root@z1 ~]# pcs resource create my_fs Filesystem device="/dev/my_vg/my_lv" directory="/var/www" fstype="xfs" --group apachegroup
    
    [root@z1 ~]# pcs resource create VirtualIP IPaddr2 ip=198.51.100.3 cidr_netmask=24 --group apachegroup
    
    [root@z1 ~]# pcs resource create Website apache configfile="/etc/httpd/conf/httpd.conf" statusurl="http://127.0.0.1/server-status" --group apachegroup
  3. 创建资源和包含这些资源的资源组后,您可以检查集群的状态。请注意,所有四个资源都在同一个节点上运行。

    [root@z1 ~]# pcs status
    Cluster name: my_cluster
    Last updated: Wed Jul 31 16:38:51 2013
    Last change: Wed Jul 31 16:42:14 2013 via crm_attribute on z1.example.com
    Stack: corosync
    Current DC: z2.example.com (2) - partition with quorum
    Version: 1.1.10-5.el7-9abe687
    2 Nodes configured
    6 Resources configured
    
    Online: [ z1.example.com z2.example.com ]
    
    Full list of resources:
     myapc	(stonith:fence_apc_snmp):	Started z1.example.com
     Resource Group: apachegroup
         my_lvm	(ocf::heartbeat:LVM-activate):	Started z1.example.com
         my_fs	(ocf::heartbeat:Filesystem):	Started z1.example.com
         VirtualIP	(ocf::heartbeat:IPaddr2):	Started z1.example.com
         Website	(ocf::heartbeat:apache):	Started z1.example.com

    请注意,如果您还没有为集群配置隔离设备,默认情况下资源不会启动。

  4. 集群启动并运行后,您可以将浏览器指向定义为 IP addr2 资源的 IP 地址,以查看示例显示,包括简单单词"Hello"。

    Hello

    如果您发现您配置的资源没有运行,您可以运行 pcs resource debug-start 资源 命令来测试资源配置。

  5. 当您使用 apache 资源代理来管理 Apache 时,它不使用 systemd。因此,您必须编辑 Apache 提供的 logrotate 脚本,使其不使用 systemctl 重新加载 Apache。

    删除群集中每个节点的 /etc/logrotate.d/httpd 文件中的以下行:

    /bin/systemctl reload httpd.service > /dev/null 2>/dev/null || true
    • 对于 RHEL 8.6 及之后的版本,将您删除的行替换为以下三个行,将 /var/run/httpd-website.pid 指定为 PID 文件路径,其中 website 是 Apache 资源的名称。在本例中,Apache 资源名称是 Website

      /usr/bin/test -f /var/run/httpd-Website.pid >/dev/null 2>/dev/null &&
      /usr/bin/ps -q $(/usr/bin/cat /var/run/httpd-Website.pid) >/dev/null 2>/dev/null &&
      /usr/sbin/httpd -f /etc/httpd/conf/httpd.conf -c "PidFile /var/run/httpd-Website.pid" -k graceful > /dev/null 2>/dev/null || true
    • 对于 RHEL 8.5 及更早版本,将您删除的行替换为以下三行:

      /usr/bin/test -f /run/httpd.pid >/dev/null 2>/dev/null &&
      /usr/bin/ps -q $(/usr/bin/cat /run/httpd.pid) >/dev/null 2>/dev/null &&
      /usr/sbin/httpd -f /etc/httpd/conf/httpd.conf -c "PidFile /run/httpd.pid" -k graceful > /dev/null 2>/dev/null || true

5.5. 测试资源配置

使用以下流程测试集群中的资源配置。

创建资源和资源组 中显示的集群状态中,所有资源都运行在节点 z1.example.com 上。您可以通过以下流程将第一个节点设置为 待机 模式来测试资源组是否切换到节点 z2.example.com,之后该节点将不再能够托管资源。

流程

  1. 以下命令将节点 z1.example.com 置于 待机 模式。

    [root@z1 ~]# pcs node standby z1.example.com
  2. 将节点 z1 置于 待机 模式后,检查集群状态。请注意,这些资源现在都应在 z2 上运行。

    [root@z1 ~]# pcs status
    Cluster name: my_cluster
    Last updated: Wed Jul 31 17:16:17 2013
    Last change: Wed Jul 31 17:18:34 2013 via crm_attribute on z1.example.com
    Stack: corosync
    Current DC: z2.example.com (2) - partition with quorum
    Version: 1.1.10-5.el7-9abe687
    2 Nodes configured
    6 Resources configured
    
    Node z1.example.com (1): standby
    Online: [ z2.example.com ]
    
    Full list of resources:
    
     myapc	(stonith:fence_apc_snmp):	Started z1.example.com
     Resource Group: apachegroup
         my_lvm	(ocf::heartbeat:LVM-activate):	Started z2.example.com
         my_fs	(ocf::heartbeat:Filesystem):	Started z2.example.com
         VirtualIP	(ocf::heartbeat:IPaddr2):	Started z2.example.com
         Website	(ocf::heartbeat:apache):	Started z2.example.com

    定义的 IP 地址的网页仍会显示,而不中断。

  3. 要从 待机 模式中删除 z1,请输入以下命令。

    [root@z1 ~]# pcs node unstandby z1.example.com
    注意

    待机 模式中删除节点本身不会导致资源恢复到该节点。这将依赖于 资源粘性 值。有关 resource-stickiness 元属性的详情,请参考 配置资源以首选其当前节点

第 6 章 在红帽高可用性集群中配置主动/被动模式的 NFS 服务器

红帽高可用性附加组件为在使用共享存储的 Red Hat Enterprise Linux High Availability Add-On 集群上运行高可用的主动/被动 NFS 服务器提供支持。在以下示例中,您要配置一个双节点集群,其中客户端通过浮动 IP 地址访问 NFS 文件系统。NFS 服务器运行在集群的两个节点之一上。如果运行 NFS 服务器的节点出现问题,则 NFS 服务器会在集群的第二个节点上再次启动,以实现服务中断的最小化。

这个用例需要您的系统包括以下组件:

  • 一个双节点 Red Hat High Availability 集群,为每个节点配置了电源隔离功能。我们建议使用专用网络,但这不是必须的。此流程使用 使用 Pacemaker 创建红帽高可用性集群 中提供的集群示例。
  • NFS 服务器需要的一个公共虚拟 IP 地址。
  • 集群中节点的共享存储,使用 iSCSI、光纤或其他共享网络块设备。

在现有双节点 Red Hat Enterprise Linux High Availability 集群中配置高可用性的主动/被动 NFS 服务器需要执行以下步骤:

  1. 在共享存储上的 LVM 逻辑卷中为集群中的节点配置文件系统。
  2. 在 LVM 逻辑卷的共享存储中配置 NFS 共享。
  3. 创建集群资源。
  4. 测试您配置的 NFS 服务器。

6.1. 在 Pacemaker 集群中使用 XFS 文件系统配置一个 LVM 卷

使用以下流程在集群节点之间共享的存储上创建一个 LVM 逻辑卷。

注意

LVM 卷以及集群节点使用的对应分区和设备必须只能连接到集群节点。

下面的流程创建了一个 LVM 逻辑卷,然后在该卷上创建一个 XFS 文件系统,以便在 Pacemaker 集群中使用。在这个示例中,使用共享分区 /dev/sdb1 来存储从中创建 LVM 逻辑卷的 LVM 物理卷。

流程

  1. 在集群的两个节点上,执行以下步骤将 LVM 系统 ID 的值设置为系统的 uname 标识符值。LVM 系统 ID 将用于确保只有集群可以激活卷组。

    1. /etc/lvm/lvm.conf 配置文件中的 system_id_source 配置选项设置为 uname

      # Configuration option global/system_id_source.
      system_id_source = "uname"
    2. 验证节点上的 LVM 系统 ID 是否与节点的 uname 匹配。

      # lvm systemid
        system ID: z1.example.com
      # uname -n
        z1.example.com
  2. 创建 LVM 卷并在该卷上创建一个 XFS 文件系统。由于 /dev/sdb1 分区是共享的存储,因此您仅在一个节点上执行这一部分的步骤。

    注意

    如果您的 LVM 卷组包含一个或多个远程块存储上的物理卷,如 iSCSI 目标,红帽建议您确保服务在 Pacemaker 启动之前启动。有关为 Pacemaker 集群使用的远程物理卷配置启动顺序的详情,请参考 为不由 Pacemaker 管理的资源依赖项配置启动顺序

    1. 在分区 /dev/sdb1 上创建一个 LVM 物理卷。

      [root@z1 ~]# pvcreate /dev/sdb1
        Physical volume "/dev/sdb1" successfully created
      注意

      如果您的 LVM 卷组包含一个或多个远程块存储上的物理卷,如 iSCSI 目标,红帽建议您确保服务在 Pacemaker 启动之前启动。有关为 Pacemaker 集群使用的远程物理卷配置启动顺序的详情,请参考 为不由 Pacemaker 管理的资源依赖项配置启动顺序

    2. 创建由物理卷 /dev/sdb1 组成的卷组 my_vg

      对于 RHEL 8.5 及之后的版本,指定 --setautoactivation n 标志来确保集群中由 Pacemaker 管理的卷组在启动时不会自动激活。如果您要为正在创建的 LVM 卷使用现有卷组,您可以使用 vgchange --setautoactivation n 命令为卷组重置此标记。

      [root@z1 ~]# vgcreate --setautoactivation n my_vg /dev/sdb1
        Volume group "my_vg" successfully created

      对于 RHEL 8.4 及更早版本,使用以下命令创建卷组:

      [root@z1 ~]# vgcreate my_vg /dev/sdb1
        Volume group "my_vg" successfully created

      有关确保集群中 Pacemaker 管理的卷组不会在启动 RHEL 8.4 及更早版本时自动激活的信息,请参阅 确保卷组在多个集群节点上不被激活

    3. 确认新卷组带有您要运行的节点的系统 ID,并从这个节点中创建卷组。

      [root@z1 ~]# vgs -o+systemid
        VG    #PV #LV #SN Attr   VSize  VFree  System ID
        my_vg   1   0   0 wz--n- <1.82t <1.82t z1.example.com
    4. 使用卷组 my_vg 创建逻辑卷。

      [root@z1 ~]# lvcreate -L450 -n my_lv my_vg
        Rounding up size to full physical extent 452.00 MiB
        Logical volume "my_lv" created

      您可以使用 lvs 命令显示逻辑卷。

      [root@z1 ~]# lvs
        LV      VG      Attr      LSize   Pool Origin Data%  Move Log Copy%  Convert
        my_lv   my_vg   -wi-a---- 452.00m
        ...
    5. 在逻辑卷 my_lv 上创建一个 XFS 文件系统。

      [root@z1 ~]# mkfs.xfs /dev/my_vg/my_lv
      meta-data=/dev/my_vg/my_lv       isize=512    agcount=4, agsize=28928 blks
               =                       sectsz=512   attr=2, projid32bit=1
      ...
  3. (RHEL 8.5 及更高版本)如果您通过在 lvm.conf 文件中设置 use_devicesfile = 1 来启用设备文件的使用,请将共享设备添加到集群中第二个节点上的设备文件中。默认情况下,不启用设备文件的使用。

    [root@z2 ~]# lvmdevices --adddev /dev/sdb1

6.2. 确保卷组没有在多个集群节点上激活(RHEL 8.4 及更早版本)

您可以按照以下流程确保集群中 Pacemaker 管理的卷组不会在启动时自动激活。如果某个卷组在启动时自动激活,而不是由 Pacemaker 激活,则卷组可能会同时在多个节点上激活,这可能会破坏卷组的元数据。

注意

对于 RHEL 8.5 及之后的版本,您可以通过为 vgcreate 命令指定 --setautoactivation n 标志,在创建卷组时对卷组禁用自动激活,如在 在 Pacemaker 集群中使用 XFS 文件系统配置一个 LVM 卷 中所述。

此流程修改 /etc/lvm/lvm.conf 配置文件中的 auto_activation_volume_list 条目。auto_activation_volume_list 条目用于将自动激活限制为特定的逻辑卷。将 auto_activation_volume_list 设置为空列表可完全禁用自动激活。

任何未被共享且不由 Pacemaker 管理的本地卷都应包含在 auto_activation_volume_list 条目中,包括与节点本地根和主目录相关的卷组。由群集管理器管理的所有卷组都必须从 auto_activation_volume_list 条目中排除。

流程

在集群的每个节点中执行以下步骤。

  1. 使用以下命令,确定您的本地存储上当前已配置哪些卷组。这将输出当前配置的卷组的列表。如果您在单独的卷组中为 root 和此节点上的主目录分配了空间,您会在输出中看到这些卷,如下例所示。

    # vgs --noheadings -o vg_name
      my_vg
      rhel_home
      rhel_root
  2. my_vg 之外的卷组(您刚刚为群集定义的卷组)作为条目添加到 /etc/lvm/lvm.conf 配置文件中的 auto_activation_volume_list

    例如,如果您在单独的卷组中为 root 和主目录分配了空间,您可以取消注释 lvm.conf 文件的 auto_activation_volume_list 行,并将这些卷组作为条目添加到 auto_activation_volume_list,如下所示:请注意,您刚才为群集定义的卷组(本例中为 my_vg )不在此列表中。

    auto_activation_volume_list = [ "rhel_root", "rhel_home" ]
    注意

    如果节点上没有要在群集管理器外激活的本地卷组,您仍需要将 auto_activation_volume_list 条目初始化为 auto_activation_volume_list = []

  3. 重建 initramfs 引导映像,以确保引导映像不会尝试激活由群集控制的卷组。使用以下命令更新 initramfs 设备:此命令最多可能需要一分钟完成。

    # dracut -H -f /boot/initramfs-$(uname -r).img $(uname -r)
  4. 重新引导节点。

    注意

    如果您自引导引导镜像后安装了一个新的 Linux 内核,则新 initrd 镜像将适用于您在创建引导镜像时运行的内核,而不是重新引导该节点时运行的新内核。您可以通过在重启前后运行 uname -r 命令来确保使用正确的 initrd 设备,以确定正在运行的内核版本。如果发行版不同,请在使用新内核重启后更新 initrd 文件,然后重新引导节点。

  5. 节点重新引导后,通过在该节点上执行 pcs cluster status 命令,检查群集服务是否已在该节点上再次启动。如果这会产生 Error: cluster 当前没有在此节点上运行的信息,请输入以下命令。

    # pcs cluster start

    另外,您可以等待直到您重新引导集群中的每个节点,并使用以下命令在集群中的所有节点上启动集群服务。

    # pcs cluster start --all

6.3. 配置一个 NFS 共享

使用以下流程为 NFS 服务故障转移配置一个 NFS 共享。

流程

  1. 在集群的两个节点上,创建 /nfsshare 目录。

    # mkdir /nfsshare
  2. 在集群的一个节点上执行以下步骤。

    1. 确定您在 配置具有 XFS 文件系统的 LVM 卷 时创建的逻辑卷已被激活,然后将您在逻辑卷上创建的文件系统挂载到 /nfsshare 目录。

      [root@z1 ~]# lvchange -ay my_vg/my_lv
      [root@z1 ~]# mount /dev/my_vg/my_lv /nfsshare
    2. /nfsshare 目录上创建 导出 目录树。

      [root@z1 ~]# mkdir -p /nfsshare/exports
      [root@z1 ~]# mkdir -p /nfsshare/exports/export1
      [root@z1 ~]# mkdir -p /nfsshare/exports/export2
    3. 将文件放在 导出 目录中,供 NFS 客户端访问。在本例中,我们创建了名为 clientdatafile1clientdatafile2 的测试文件。

      [root@z1 ~]# touch /nfsshare/exports/export1/clientdatafile1
      [root@z1 ~]# touch /nfsshare/exports/export2/clientdatafile2
    4. 卸载文件系统并停用 LVM 卷组。

      [root@z1 ~]# umount /dev/my_vg/my_lv
      [root@z1 ~]# vgchange -an my_vg

6.4. 为集群中的 NFS 服务器配置资源和资源组

使用以下流程为集群中的 NFS 服务器配置集群资源。

注意

如果您还没有为集群配置隔离设备,默认情况下资源不会启动。

如果您发现您配置的资源没有运行,您可以运行 pcs resource debug-start 资源 命令来测试资源配置。这会在集群控制之外启动服务。在配置的资源再次运行时,运行 pcs resource cleanup 资源 以使集群了解这些更新。

流程

以下步骤配置系统资源。为确保这些资源在同一节点上运行,它们已配置为资源组 nfsgroup 的一部分。资源将以您添加到组的顺序启动,并按照添加到组中的相反顺序停止。仅从集群的一个节点运行此步骤。

  1. 创建名为 my_lvm 的 LVM 激活资源。由于 nfsgroup 资源组尚不存在,这个命令会创建资源组。

    警告

    不要配置多个在主动/被动 HA 配置中使用相同 LVM 卷组的 LVM 激活资源,因为这可能导致数据崩溃。另外,不要在主动/被动 HA 配置中将 LVM 激活的资源配置为 克隆资源。

    [root@z1 ~]# pcs resource create my_lvm ocf:heartbeat:LVM-activate vgname=my_vg vg_access_mode=system_id --group nfsgroup
  2. 检查集群的状态,以验证资源是否在运行。

    root@z1 ~]#  pcs status
    Cluster name: my_cluster
    Last updated: Thu Jan  8 11:13:17 2015
    Last change: Thu Jan  8 11:13:08 2015
    Stack: corosync
    Current DC: z2.example.com (2) - partition with quorum
    Version: 1.1.12-a14efad
    2 Nodes configured
    3 Resources configured
    
    Online: [ z1.example.com z2.example.com ]
    
    Full list of resources:
     myapc  (stonith:fence_apc_snmp):       Started z1.example.com
     Resource Group: nfsgroup
         my_lvm     (ocf::heartbeat:LVM-activate):   Started z1.example.com
    
    PCSD Status:
      z1.example.com: Online
      z2.example.com: Online
    
    Daemon Status:
      corosync: active/enabled
      pacemaker: active/enabled
      pcsd: active/enabled
  3. 为集群配置 Filesystem 资源。

    以下命令配置一个名为 nfsshare 的 XFS Filesystem 资源配置,来作为 nfsgroup 资源组的一部分。这个文件系统使用您在 配置一个带有 XFS 文件系统的 LVM 卷 时创建的 LVM 卷组和 XFS 文件系统,并将挂载到您在 配置一个 NFS 共享 时创建的 /nfsshare 目录上。

    [root@z1 ~]# pcs resource create nfsshare Filesystem device=/dev/my_vg/my_lv directory=/nfsshare fstype=xfs --group nfsgroup

    您可以使用 options =options 参数指定挂载选项作为 Filesystem 资源的资源配置的一部分。运行 pcs resource describe Filesystem 命令以查看完整配置选项。

  4. 验证 my_lvmnfsshare 资源正在运行。

    [root@z1 ~]# pcs status
    ...
    Full list of resources:
     myapc  (stonith:fence_apc_snmp):       Started z1.example.com
     Resource Group: nfsgroup
         my_lvm     (ocf::heartbeat:LVM-activate):   Started z1.example.com
         nfsshare   (ocf::heartbeat:Filesystem):    Started z1.example.com
    ...
  5. 创建名为 nfs-daemonnfsserver 资源,作为资源组nfsgroup 的一部分。

    注意

    nfsserver 资源允许您指定 nfs_shared_infodir 参数,这是 NFS 服务器用于存储与 NFS 相关的有状态信息的目录。

    建议将此属性设置为您在这个导出集合中创建的 Filesystem 资源 的子目录。这样可确保 NFS 服务器将其有状态的信息存储在需要重新定位资源组时可供另一个节点使用的设备中。在这个示例中;

    • /nfsshare 是由 Filesystem 资源管理的共享存储目录
    • /nfsshare/exports/export1/nfsshare/exports/export2 是导出目录
    • /nfsshare/nfsinfonfsserver 资源的共享信息目录
    [root@z1 ~]# pcs resource create nfs-daemon nfsserver nfs_shared_infodir=/nfsshare/nfsinfo nfs_no_notify=true --group nfsgroup
    
    [root@z1 ~]# pcs status
    ...
  6. 添加 exportfs 资源以导出 /nfsshare/exports 目录。这些资源是 nfsgroup 资源组的一部分。这为 NFSv4 客户端构建了一个虚拟目录。NFSv3 客户端也可以访问这些导出。

    注意

    只有在您想要为 NFSv4 客户端创建虚拟目录时才需要 fsid=0 选项。如需更多信息,请参阅红帽知识库解决方案 如何在 NFS 服务器的 /etc/exports 文件中配置 fsid 选项?

    [root@z1 ~]# pcs resource create nfs-root exportfs clientspec=192.168.122.0/255.255.255.0 options=rw,sync,no_root_squash directory=/nfsshare/exports fsid=0 --group nfsgroup
    
    [root@z1 ~]# pcs resource create nfs-export1 exportfs clientspec=192.168.122.0/255.255.255.0 options=rw,sync,no_root_squash directory=/nfsshare/exports/export1 fsid=1 --group nfsgroup
    
    [root@z1 ~]# pcs resource create nfs-export2 exportfs clientspec=192.168.122.0/255.255.255.0 options=rw,sync,no_root_squash directory=/nfsshare/exports/export2 fsid=2 --group nfsgroup
  7. 添加 NFS 客户端用来访问 NFS 共享的浮动 IP 地址资源。此资源是 nfsgroup 资源组的一部分。在本示例部署中,我们使用 192.168.122.200 作为浮动 IP 地址。

    [root@z1 ~]# pcs resource create nfs_ip IPaddr2 ip=192.168.122.200 cidr_netmask=24 --group nfsgroup
  8. 添加 nfsnotify 资源,以便在整个 NFS 部署初始化后发送 NFSv3 重启通知。此资源是 nfsgroup 资源组的一部分。

    注意

    为了正确处理 NFS 通知,浮动 IP 地址必须具有与其关联的主机名,在 NFS 服务器和 NFS 客户端中都一致。

    [root@z1 ~]# pcs resource create nfs-notify nfsnotify source_host=192.168.122.200 --group nfsgroup
  9. 在创建资源和资源限制后,您可以检查集群的状态。请注意,所有资源都在同一个节点上运行。

    [root@z1 ~]# pcs status
    ...
    Full list of resources:
     myapc  (stonith:fence_apc_snmp):       Started z1.example.com
     Resource Group: nfsgroup
         my_lvm     (ocf::heartbeat:LVM-activate):   Started z1.example.com
         nfsshare   (ocf::heartbeat:Filesystem):    Started z1.example.com
         nfs-daemon (ocf::heartbeat:nfsserver):     Started z1.example.com
         nfs-root   (ocf::heartbeat:exportfs):      Started z1.example.com
         nfs-export1        (ocf::heartbeat:exportfs):      Started z1.example.com
         nfs-export2        (ocf::heartbeat:exportfs):      Started z1.example.com
         nfs_ip     (ocf::heartbeat:IPaddr2):       Started  z1.example.com
         nfs-notify (ocf::heartbeat:nfsnotify):     Started z1.example.com
    ...

6.5. 测试 NFS 资源配置

您可以按照以下步骤在高可用性集群中验证 NFS 资源配置。您应该可以使用 NFSv3 或 NFSv4 挂载导出的文件系统。

6.5.1. 测试 NFS 导出

  1. 如果您在集群节点上运行 firewalld 守护进程,请确保所有节点上都启用了 NFS 访问所需的端口。
  2. 在与部署位于同一个网络中的、位于集群以外的一个节点中,通过挂载 NFS 共享来确定 NFS 共享。在本例中,我们使用 192.168.122.0/24 网络。

    # showmount -e 192.168.122.200
    Export list for 192.168.122.200:
    /nfsshare/exports/export1 192.168.122.0/255.255.255.0
    /nfsshare/exports         192.168.122.0/255.255.255.0
    /nfsshare/exports/export2 192.168.122.0/255.255.255.0
  3. 要验证您可以用 NFSv4 挂载 NFS 共享,将 NFS 共享挂载到客户端节点的目录中。挂载后,请确定导出目录的内容是可见的。测试后卸载共享。

    # mkdir nfsshare
    # mount -o "vers=4" 192.168.122.200:export1 nfsshare
    # ls nfsshare
    clientdatafile1
    # umount nfsshare
  4. 确定您可以用 NFSv3 挂载 NFS 共享。挂载后,验证测试文件 clientdatafile1 是否可见。和 NFSv4 不同,因为 NFSv3 不使用虚拟文件系统,所以您必须挂载一个特定的导出。测试后卸载共享。

    # mkdir nfsshare
    # mount -o "vers=3" 192.168.122.200:/nfsshare/exports/export2 nfsshare
    # ls nfsshare
    clientdatafile2
    # umount nfsshare

6.5.2. 测试故障转移

  1. 在集群外的节点上挂载 NFS 共享,并验证访问您在 配置 NFS 共享 中创建的 clientdatafile1 文件。

    # mkdir nfsshare
    # mount -o "vers=4" 192.168.122.200:export1 nfsshare
    # ls nfsshare
    clientdatafile1
  2. 在集群的一个节点中,决定集群中的哪个节点正在运行 nfsgroup。在本例中,nfs groupz1.example.com 上运行。

    [root@z1 ~]# pcs status
    ...
    Full list of resources:
     myapc  (stonith:fence_apc_snmp):       Started z1.example.com
     Resource Group: nfsgroup
         my_lvm     (ocf::heartbeat:LVM-activate):   Started z1.example.com
         nfsshare   (ocf::heartbeat:Filesystem):    Started z1.example.com
         nfs-daemon (ocf::heartbeat:nfsserver):     Started z1.example.com
         nfs-root   (ocf::heartbeat:exportfs):      Started z1.example.com
         nfs-export1        (ocf::heartbeat:exportfs):      Started z1.example.com
         nfs-export2        (ocf::heartbeat:exportfs):      Started z1.example.com
         nfs_ip     (ocf::heartbeat:IPaddr2):       Started  z1.example.com
         nfs-notify (ocf::heartbeat:nfsnotify):     Started z1.example.com
    ...
  3. 在集群内的一个节点中,将运行 nfsgroup 的节点设置为待机模式。

    [root@z1 ~]# pcs node standby z1.example.com
  4. 验证 nfsgroup 是否在另一群集节点上成功启动。

    [root@z1 ~]# pcs status
    ...
    Full list of resources:
     Resource Group: nfsgroup
         my_lvm     (ocf::heartbeat:LVM-activate):   Started z2.example.com
         nfsshare   (ocf::heartbeat:Filesystem):    Started z2.example.com
         nfs-daemon (ocf::heartbeat:nfsserver):     Started z2.example.com
         nfs-root   (ocf::heartbeat:exportfs):      Started z2.example.com
         nfs-export1        (ocf::heartbeat:exportfs):      Started z2.example.com
         nfs-export2        (ocf::heartbeat:exportfs):      Started z2.example.com
         nfs_ip     (ocf::heartbeat:IPaddr2):       Started  z2.example.com
         nfs-notify (ocf::heartbeat:nfsnotify):     Started z2.example.com
    ...
  5. 在您挂载了 NFS 共享的集群之外的节点中,确认这个外部节点仍然可以访问 NFS 挂载中的测试文件。

    # ls nfsshare
    clientdatafile1

    在故障转移的过程中,服务可能会在短暂时间内不可用,但可以在没有用户干预的情况下恢复。默认情况下,使用 NFSv4 的客户端可能最多需要 90 秒恢复该挂载。这个 90 秒代表服务器启动时观察到的 NFSv4 文件租期的宽限期。NFSv3 客户端应该在几秒钟内就可以恢复对该挂载的访问。

  6. 从集群中的节点上将最初运行nfsgroup 的节点从待机模式中删除。

    注意

    待机 模式中删除节点本身不会导致资源恢复到该节点。这将依赖于 资源粘性 值。有关 resource-stickiness 元属性的详情,请参考 配置资源以首选其当前节点

    [root@z1 ~]# pcs node unstandby z1.example.com

第 7 章 集群中的 GFS2 文件系统

使用以下管理流程在红帽高可用性集群中配置 GFS2 文件系统。

7.1. 在集群中配置 GFS2 文件系统

您可以按照以下流程设置一个包含 GFS2 文件系统的 Pacemaker 集群。在这个示例中,您在双节点集群的三个逻辑卷上创建三个 GFS2 文件系统。

先决条件

  • 在集群节点上安装并启动集群软件,并创建一个基本的双节点集群。
  • 为群集配置隔离。

有关创建 Pacemaker 集群并为集群配置隔离的详情,请参考 创建一个带有 Pacemaker 的红帽高可用性集群

流程

  1. 在集群中的两个节点上,启用与您的系统架构对应的 Resilient Storage 存储库。例如,要为 x86_64 系统启用 Resilient Storage 存储库,您可以输入以下 subscription-manager 命令:

    # subscription-manager repos --enable=rhel-8-for-x86_64-resilientstorage-rpms

    请注意,Resilient Storage 存储库是高可用性存储库的超集。如果启用了 Resilient Storage 存储库,则不需要启用高可用性存储库。

  2. 在群集的两个节点上,安装 lvm2-lockdgfs2-utilsdlm 软件包。要支持这些软件包,您必须订阅 AppStream 频道和 Resilient Storage 频道。

    # yum install lvm2-lockd gfs2-utils dlm
  3. 在群集的两个节点上,将 /etc/lvm/lvm.conf 文件中的 use_lvmlockd 配置选项设为 use_lvmlockd=1

    ...
    use_lvmlockd = 1
    ...
  4. 将全局 Pacemaker 参数 no-quorum-policy 设置为 冻结

    注意

    默认情况下,no -quorum-policy 的值被设置为 stop,这表示一旦 quorum 丢失,剩余分区上的所有资源都会立即停止。通常,这个默认行为是最安全、最优的选项,但与大多数资源不同,GFS2 要求使用 quorum 才可以正常工作。当使用 GFS2 挂载的应用程序和 GFS2 挂载都丢失时,就无法正确停止 GFS2 挂载。任何在没有 quorum 的情况下停止这些资源的尝试都会失败,并最终会在每次 quorum 都丢失时保护整个集群。

    要解决这个问题,请在使用 GFS2 时将 no-quorum-policy 设置为 冻结。这意味着,当 quorum 丢失时,剩余的分区将不会进行任何操作,直到 quorum 功能被恢复。

    [root@z1 ~]# pcs property set no-quorum-policy=freeze
  5. 设置 dlm 资源。这是在集群中配置 GFS2 文件系统所需的依赖软件包。本例创建 dlm 资源作为名为 locking 的资源组的一部分。

    [root@z1 ~]# pcs resource create dlm --group locking ocf:pacemaker:controld op monitor interval=30s on-fail=fence
  6. 克隆 锁定 资源组,以便资源组可以在集群的两个节点上都活跃。

    [root@z1 ~]# pcs resource clone locking interleave=true
  7. lvmlockd 资源设置为 locking 资源组的一部分。

    [root@z1 ~]# pcs resource create lvmlockd --group locking ocf:heartbeat:lvmlockd op monitor interval=30s on-fail=fence
  8. 检查集群的状态,以确保在集群的两个节点上启动了 锁定 资源组。

    [root@z1 ~]# pcs status --full
    Cluster name: my_cluster
    [...]
    
    Online: [ z1.example.com (1) z2.example.com (2) ]
    
    Full list of resources:
    
     smoke-apc      (stonith:fence_apc):    Started z1.example.com
     Clone Set: locking-clone [locking]
         Resource Group: locking:0
             dlm    (ocf::pacemaker:controld):      Started z1.example.com
             lvmlockd       (ocf::heartbeat:lvmlockd):      Started z1.example.com
         Resource Group: locking:1
             dlm    (ocf::pacemaker:controld):      Started z2.example.com
             lvmlockd       (ocf::heartbeat:lvmlockd):      Started z2.example.com
         Started: [ z1.example.com z2.example.com ]
  9. 在集群的一个节点中,创建两个共享卷组。一个卷组将包含两个 GFS2 文件系统,另一个卷组将包含一个 GFS2 文件系统。

    注意

    如果您的 LVM 卷组包含一个或多个远程块存储上的物理卷,如 iSCSI 目标,红帽建议您确保服务在 Pacemaker 启动之前启动。有关为 Pacemaker 集群使用的远程物理卷配置启动顺序的详情,请参考 为不由 Pacemaker 管理的资源依赖项配置启动顺序

    以下命令在 /dev/vdb 上创建 共享卷组 shared_vg1

    [root@z1 ~]# vgcreate --shared shared_vg1 /dev/vdb
      Physical volume "/dev/vdb" successfully created.
      Volume group "shared_vg1" successfully created
      VG shared_vg1 starting dlm lockspace
      Starting locking.  Waiting until locks are ready...

    以下命令在 /dev/vdc 上创建 共享卷组 shared_vg2

    [root@z1 ~]# vgcreate --shared shared_vg2 /dev/vdc
      Physical volume "/dev/vdc" successfully created.
      Volume group "shared_vg2" successfully created
      VG shared_vg2 starting dlm lockspace
      Starting locking.  Waiting until locks are ready...
  10. 在集群的第二个节点上:

    1. (RHEL 8.5 及更高版本)如果您通过在 lvm.conf 文件中设置 use_devicesfile = 1 来启用设备文件的使用,请将共享设备添加到设备文件中。默认情况下,不启用设备文件的使用。

      [root@z2 ~]# lvmdevices --adddev /dev/vdb
      [root@z2 ~]# lvmdevices --adddev /dev/vdc
    2. 为每个共享卷组启动锁定管理器。

      [root@z2 ~]# vgchange --lockstart shared_vg1
        VG shared_vg1 starting dlm lockspace
        Starting locking.  Waiting until locks are ready...
      [root@z2 ~]# vgchange --lockstart shared_vg2
        VG shared_vg2 starting dlm lockspace
        Starting locking.  Waiting until locks are ready...
  11. 在集群的一个节点中,创建共享逻辑卷并使用 GFS2 文件系统格式化卷。每个挂载文件系统的节点都需要一个日志。确保为集群中的每个节点创建足够日志。锁定表名称的格式为 ClusterName:FSName ,其中 ClusterName 是创建的 GFS2 文件系统的集群的名称,FSName 是文件系统名称,对于集群上的所有 lock_dlm 文件系统,它必须是唯一的。

    [root@z1 ~]# lvcreate --activate sy -L5G -n shared_lv1 shared_vg1
      Logical volume "shared_lv1" created.
    [root@z1 ~]# lvcreate --activate sy -L5G -n shared_lv2 shared_vg1
      Logical volume "shared_lv2" created.
    [root@z1 ~]# lvcreate --activate sy -L5G -n shared_lv1 shared_vg2
      Logical volume "shared_lv1" created.
    
    [root@z1 ~]# mkfs.gfs2 -j2 -p lock_dlm -t my_cluster:gfs2-demo1 /dev/shared_vg1/shared_lv1
    [root@z1 ~]# mkfs.gfs2 -j2 -p lock_dlm -t my_cluster:gfs2-demo2 /dev/shared_vg1/shared_lv2
    [root@z1 ~]# mkfs.gfs2 -j2 -p lock_dlm -t my_cluster:gfs2-demo3 /dev/shared_vg2/shared_lv1
  12. 为每个逻辑卷创建一个 LVM 激活的资源,以便在所有节点上自动激活该逻辑卷。

    1. 为卷组 shared_vg1 中的逻辑卷 shared_lv1 创建名为 sharedlv1LVM-activate 资源。此命令还会创建包含该资源的资源组 shared_vg1。在这个示例中,资源组的名称与包含逻辑卷的共享卷组的名称相同。

      [root@z1 ~]# pcs resource create sharedlv1 --group shared_vg1 ocf:heartbeat:LVM-activate lvname=shared_lv1 vgname=shared_vg1 activation_mode=shared vg_access_mode=lvmlockd
    2. 为卷组 shared_vg1 中的逻辑卷 shared_lv2 创建名为 sharedlv2LVM-activate 资源。此资源也是资源组 shared_vg1 的一部分。

      [root@z1 ~]# pcs resource create sharedlv2 --group shared_vg1 ocf:heartbeat:LVM-activate lvname=shared_lv2 vgname=shared_vg1 activation_mode=shared vg_access_mode=lvmlockd
    3. 为卷组 shared_vg2 中的逻辑卷shared_lv1 创建名为 sharedlv3LVM-activate 资源。此命令还会创建包含该资源的资源组 shared_vg2

      [root@z1 ~]# pcs resource create sharedlv3 --group shared_vg2 ocf:heartbeat:LVM-activate lvname=shared_lv1 vgname=shared_vg2 activation_mode=shared vg_access_mode=lvmlockd
  13. 克隆两个新资源组。

    [root@z1 ~]# pcs resource clone shared_vg1 interleave=true
    [root@z1 ~]# pcs resource clone shared_vg2 interleave=true
  14. 配置排序限制,以确保首先启动包含 dlmlvmlockd 资源的 锁定 资源组。

    [root@z1 ~]# pcs constraint order start locking-clone then shared_vg1-clone
    Adding locking-clone shared_vg1-clone (kind: Mandatory) (Options: first-action=start then-action=start)
    [root@z1 ~]# pcs constraint order start locking-clone then shared_vg2-clone
    Adding locking-clone shared_vg2-clone (kind: Mandatory) (Options: first-action=start then-action=start)
  15. 配置 colocation 约束,以确保 vg1vg2 资源组在与 锁定 资源组相同的节点上启动。

    [root@z1 ~]# pcs constraint colocation add shared_vg1-clone with locking-clone
    [root@z1 ~]# pcs constraint colocation add shared_vg2-clone with locking-clone
  16. 在集群中的两个节点中,验证逻辑卷是否活跃。这可能会延迟几秒钟。

    [root@z1 ~]# lvs
      LV         VG          Attr       LSize
      shared_lv1 shared_vg1  -wi-a----- 5.00g
      shared_lv2 shared_vg1  -wi-a----- 5.00g
      shared_lv1 shared_vg2  -wi-a----- 5.00g
    
    [root@z2 ~]# lvs
      LV         VG          Attr       LSize
      shared_lv1 shared_vg1  -wi-a----- 5.00g
      shared_lv2 shared_vg1  -wi-a----- 5.00g
      shared_lv1 shared_vg2  -wi-a----- 5.00g
  17. 创建文件系统资源在所有节点中自动挂载每个 GFS2 文件系统。

    您不应该将文件系统添加到 /etc/fstab 文件中,因为它将作为 Pacemaker 集群资源进行管理。挂载选项可作为资源配置的一部分通过 options= 选项指定。运行 pcs resource describe Filesystem 命令显示完整的配置选项。

    以下命令可创建文件系统资源。这些命令在包含该文件系统逻辑卷资源的资源组中添加每个资源。

    [root@z1 ~]# pcs resource create sharedfs1 --group shared_vg1 ocf:heartbeat:Filesystem device="/dev/shared_vg1/shared_lv1" directory="/mnt/gfs1" fstype="gfs2" options=noatime op monitor interval=10s on-fail=fence
    [root@z1 ~]# pcs resource create sharedfs2 --group shared_vg1 ocf:heartbeat:Filesystem device="/dev/shared_vg1/shared_lv2" directory="/mnt/gfs2" fstype="gfs2" options=noatime op monitor interval=10s on-fail=fence
    [root@z1 ~]# pcs resource create sharedfs3 --group shared_vg2 ocf:heartbeat:Filesystem device="/dev/shared_vg2/shared_lv1" directory="/mnt/gfs3" fstype="gfs2" options=noatime op monitor interval=10s on-fail=fence

验证

  1. 验证 GFS2 文件系统是否挂载到集群的两个节点中。

    [root@z1 ~]# mount | grep gfs2
    /dev/mapper/shared_vg1-shared_lv1 on /mnt/gfs1 type gfs2 (rw,noatime,seclabel)
    /dev/mapper/shared_vg1-shared_lv2 on /mnt/gfs2 type gfs2 (rw,noatime,seclabel)
    /dev/mapper/shared_vg2-shared_lv1 on /mnt/gfs3 type gfs2 (rw,noatime,seclabel)
    
    [root@z2 ~]# mount | grep gfs2
    /dev/mapper/shared_vg1-shared_lv1 on /mnt/gfs1 type gfs2 (rw,noatime,seclabel)
    /dev/mapper/shared_vg1-shared_lv2 on /mnt/gfs2 type gfs2 (rw,noatime,seclabel)
    /dev/mapper/shared_vg2-shared_lv1 on /mnt/gfs3 type gfs2 (rw,noatime,seclabel)
  2. 检查集群的状态。

    [root@z1 ~]# pcs status --full
    Cluster name: my_cluster
    [...]
    
    Full list of resources:
    
     smoke-apc      (stonith:fence_apc):    Started z1.example.com
     Clone Set: locking-clone [locking]
         Resource Group: locking:0
             dlm    (ocf::pacemaker:controld):      Started z2.example.com
             lvmlockd       (ocf::heartbeat:lvmlockd):      Started z2.example.com
         Resource Group: locking:1
             dlm    (ocf::pacemaker:controld):      Started z1.example.com
             lvmlockd       (ocf::heartbeat:lvmlockd):      Started z1.example.com
         Started: [ z1.example.com z2.example.com ]
     Clone Set: shared_vg1-clone [shared_vg1]
         Resource Group: shared_vg1:0
             sharedlv1      (ocf::heartbeat:LVM-activate):  Started z2.example.com
             sharedlv2      (ocf::heartbeat:LVM-activate):  Started z2.example.com
             sharedfs1      (ocf::heartbeat:Filesystem):    Started z2.example.com
             sharedfs2      (ocf::heartbeat:Filesystem):    Started z2.example.com
         Resource Group: shared_vg1:1
             sharedlv1      (ocf::heartbeat:LVM-activate):  Started z1.example.com
             sharedlv2      (ocf::heartbeat:LVM-activate):  Started z1.example.com
             sharedfs1      (ocf::heartbeat:Filesystem):    Started z1.example.com
             sharedfs2      (ocf::heartbeat:Filesystem):    Started z1.example.com
         Started: [ z1.example.com z2.example.com ]
     Clone Set: shared_vg2-clone [shared_vg2]
         Resource Group: shared_vg2:0
             sharedlv3      (ocf::heartbeat:LVM-activate):  Started z2.example.com
             sharedfs3      (ocf::heartbeat:Filesystem):    Started z2.example.com
         Resource Group: shared_vg2:1
             sharedlv3      (ocf::heartbeat:LVM-activate):  Started z1.example.com
             sharedfs3      (ocf::heartbeat:Filesystem):    Started z1.example.com
         Started: [ z1.example.com z2.example.com ]
    
    ...

7.2. 在集群中配置加密的 GFS2 文件系统

(RHEL 8.4 及更高版本)您可以按照以下流程创建一个包含 LUKS 加密的 GFS2 文件系统的 Pacemaker 集群。在这个示例中,您在逻辑卷上创建一个 GFS2 文件系统并加密文件系统。使用 crypt 资源代理支持加密的 GFS2 文件系统,该代理提供对 LUKS 加密的支持。

此流程有三个部分:

  • 在 Pacemaker 集群中配置共享逻辑卷
  • 加密逻辑卷并创建 加密 资源
  • 使用 GFS2 文件系统格式化加密逻辑卷并为集群创建文件系统资源

7.2.1. 在 Pacemaker 集群中配置共享逻辑卷

先决条件

  • 在两个集群节点上安装并启动集群软件,并创建一个基本的双节点集群。
  • 为群集配置隔离。

有关创建 Pacemaker 集群并为集群配置隔离的详情,请参考 创建一个带有 Pacemaker 的红帽高可用性集群

流程

  1. 在集群中的两个节点上,启用与您的系统架构对应的 Resilient Storage 存储库。例如,要为 x86_64 系统启用 Resilient Storage 存储库,您可以输入以下 subscription-manager 命令:

    # subscription-manager repos --enable=rhel-8-for-x86_64-resilientstorage-rpms

    请注意,Resilient Storage 存储库是高可用性存储库的超集。如果启用了 Resilient Storage 存储库,则不需要启用高可用性存储库。

  2. 在群集的两个节点上,安装 lvm2-lockdgfs2-utilsdlm 软件包。要支持这些软件包,您必须订阅 AppStream 频道和 Resilient Storage 频道。

    # yum install lvm2-lockd gfs2-utils dlm
  3. 在群集的两个节点上,将 /etc/lvm/lvm.conf 文件中的 use_lvmlockd 配置选项设为 use_lvmlockd=1

    ...
    use_lvmlockd = 1
    ...
  4. 将全局 Pacemaker 参数 no-quorum-policy 设置为 冻结

    注意

    默认情况下,no-quorum-policy 的值被设为 stop,表示仲裁丢失时,剩余分区上的所有资源都将立即停止。通常,这个默认行为是最安全、最优的选项,但与大多数资源不同,GFS2 要求使用 quorum 才可以正常工作。当使用 GFS2 挂载的应用程序和 GFS2 挂载都丢失时,就无法正确停止 GFS2 挂载。任何在没有 quorum 的情况下停止这些资源的尝试都会失败,并最终会在每次 quorum 都丢失时保护整个集群。

    要解决这个问题,请在使用 GFS2 时将 no-quorum-policy 设置为 冻结。这意味着,当 quorum 丢失时,剩余的分区将不会进行任何操作,直到 quorum 功能被恢复。

    [root@z1 ~]# pcs property set no-quorum-policy=freeze
  5. 设置 dlm 资源。这是在集群中配置 GFS2 文件系统所需的依赖软件包。本例创建 dlm 资源作为名为 locking 的资源组的一部分。

    [root@z1 ~]# pcs resource create dlm --group locking ocf:pacemaker:controld op monitor interval=30s on-fail=fence
  6. 克隆 锁定 资源组,以便资源组可以在集群的两个节点上都活跃。

    [root@z1 ~]# pcs resource clone locking interleave=true
  7. lvmlockd 资源设置为组 锁定 的一部分。

    [root@z1 ~]# pcs resource create lvmlockd --group locking ocf:heartbeat:lvmlockd op monitor interval=30s on-fail=fence
  8. 检查集群的状态,以确保在集群的两个节点上启动了 锁定 资源组。

    [root@z1 ~]# pcs status --full
    Cluster name: my_cluster
    [...]
    
    Online: [ z1.example.com (1) z2.example.com (2) ]
    
    Full list of resources:
    
     smoke-apc      (stonith:fence_apc):    Started z1.example.com
     Clone Set: locking-clone [locking]
         Resource Group: locking:0
             dlm    (ocf::pacemaker:controld):      Started z1.example.com
             lvmlockd       (ocf::heartbeat:lvmlockd):      Started z1.example.com
         Resource Group: locking:1
             dlm    (ocf::pacemaker:controld):      Started z2.example.com
             lvmlockd       (ocf::heartbeat:lvmlockd):      Started z2.example.com
         Started: [ z1.example.com z2.example.com ]
  9. 在集群的一个节点中创建一个共享卷组。

    注意

    如果您的 LVM 卷组包含一个或多个远程块存储上的物理卷,如 iSCSI 目标,红帽建议您确保服务在 Pacemaker 启动之前启动。有关为 Pacemaker 集群使用的远程物理卷配置启动顺序的详情,请参考 为不由 Pacemaker 管理的资源依赖项配置启动顺序

    以下命令在 /dev/sda1 上创建共享卷组 shared_vg1

    [root@z1 ~]# vgcreate --shared shared_vg1 /dev/sda1
      Physical volume "/dev/sda1" successfully created.
      Volume group "shared_vg1" successfully created
      VG shared_vg1 starting dlm lockspace
      Starting locking.  Waiting until locks are ready...
  10. 在集群的第二个节点上:

    1. (RHEL 8.5 及更高版本)如果您通过在 lvm.conf 文件中设置 use_devicesfile = 1 来启用设备文件的使用,请将共享设备添加到集群中第二个节点上的设备文件中。默认情况下,不启用设备文件的使用。

      [root@z2 ~]# lvmdevices --adddev /dev/sda1
    2. 为共享卷组启动锁定管理器。

      [root@z2 ~]# vgchange --lockstart shared_vg1
        VG shared_vg1 starting dlm lockspace
        Starting locking.  Waiting until locks are ready...
  11. 在集群的一个节点中,创建共享逻辑卷。

    [root@z1 ~]# lvcreate --activate sy -L5G -n shared_lv1 shared_vg1
      Logical volume "shared_lv1" created.
  12. 为逻辑卷创建一个 LVM 激活资源,以便在所有节点上自动激活逻辑卷。

    以下命令为卷组 shared_vg1 中的逻辑卷 shared_lv1 创建名为 sharedlv1LVM-activate 资源。此命令还会创建包含该资源的资源组 shared_vg1。在这个示例中,资源组的名称与包含逻辑卷的共享卷组的名称相同。

    [root@z1 ~]# pcs resource create sharedlv1 --group shared_vg1 ocf:heartbeat:LVM-activate lvname=shared_lv1 vgname=shared_vg1 activation_mode=shared vg_access_mode=lvmlockd
  13. 克隆新资源组。

    [root@z1 ~]# pcs resource clone shared_vg1 interleave=true
  14. 配置排序限制,以确保首先启动包含 dlmlvmlockd 资源的 锁定 资源组。

    [root@z1 ~]# pcs constraint order start locking-clone then shared_vg1-clone
    Adding locking-clone shared_vg1-clone (kind: Mandatory) (Options: first-action=start then-action=start)
  15. 配置共存限制,以确保 vg1vg2 资源组在与 锁定 资源组相同的节点上启动。

    [root@z1 ~]# pcs constraint colocation add shared_vg1-clone with locking-clone

验证

在集群的两个节点上,验证逻辑卷是否活跃。这可能会延迟几秒钟。

[root@z1 ~]# lvs
  LV         VG          Attr       LSize
  shared_lv1 shared_vg1  -wi-a----- 5.00g

[root@z2 ~]# lvs
  LV         VG          Attr       LSize
  shared_lv1 shared_vg1  -wi-a----- 5.00g

7.2.2. 加密逻辑卷并创建加密资源

先决条件

  • 您已在 Pacemaker 集群中配置了共享逻辑卷。

流程

  1. 在集群的一个节点中,创建一个新文件,该文件将包含加密密钥并设置文件的权限,以便仅可由 root 用户读取。

    [root@z1 ~]# touch /etc/crypt_keyfile
    [root@z1 ~]# chmod 600 /etc/crypt_keyfile
  2. 创建加密密钥。

    [root@z1 ~]# dd if=/dev/urandom bs=4K count=1 of=/etc/crypt_keyfile
    1+0 records in
    1+0 records out
    4096 bytes (4.1 kB, 4.0 KiB) copied, 0.000306202 s, 13.4 MB/s
    [root@z1 ~]# scp /etc/crypt_keyfile root@z2.example.com:/etc/
  3. 使用 -p 参数将 crypt keyfile 分发到集群中的其他节点,以保留您设置的权限。

    [root@z1 ~]# scp -p /etc/crypt_keyfile root@z2.example.com:/etc/
  4. 在您将在其中配置加密 GFS2 文件系统的 LVM 卷中创建加密设备。

    [root@z1 ~]# cryptsetup luksFormat /dev/shared_vg1/shared_lv1 --type luks2 --key-file=/etc/crypt_keyfile
    WARNING!
    ========
    This will overwrite data on /dev/shared_vg1/shared_lv1 irrevocably.
    
    Are you sure? (Type 'yes' in capital letters): YES
  5. 创建 crypt 资源,作为 shared_vg1 卷组的一部分。

    [root@z1 ~]# pcs resource create crypt --group shared_vg1 ocf:heartbeat:crypt crypt_dev="luks_lv1" crypt_type=luks2 key_file=/etc/crypt_keyfile encrypted_dev="/dev/shared_vg1/shared_lv1"

验证

确保加密资源已创建了加密设备,本例中为 /dev/mapper/luks_lv1

[root@z1 ~]# ls -l /dev/mapper/
...
lrwxrwxrwx 1 root root 7 Mar 4 09:52 luks_lv1 -> ../dm-3
...

7.2.3. 使用 GFS2 文件系统格式化加密的逻辑卷,并为集群创建文件系统资源

先决条件

  • 您已加密了逻辑卷并创建了 crypt 资源。

流程

  1. 在集群的一个节点中,使用 GFS2 文件系统格式化卷。每个挂载文件系统的节点都需要一个日志。确保为集群中的每个节点创建足够日志。锁定表名称的格式为 ClusterName:FSName ,其中 ClusterName 是创建的 GFS2 文件系统的集群的名称,FSName 是文件系统名称,对于集群上的所有 lock_dlm 文件系统,它必须是唯一的。

    [root@z1 ~]# mkfs.gfs2 -j3 -p lock_dlm -t my_cluster:gfs2-demo1 /dev/mapper/luks_lv1
    /dev/mapper/luks_lv1 is a symbolic link to /dev/dm-3
    This will destroy any data on /dev/dm-3
    Are you sure you want to proceed? [y/n] y
    Discarding device contents (may take a while on large devices): Done
    Adding journals: Done
    Building resource groups: Done
    Creating quota file: Done
    Writing superblock and syncing: Done
    Device:                    /dev/mapper/luks_lv1
    Block size:                4096
    Device size:               4.98 GB (1306624 blocks)
    Filesystem size:           4.98 GB (1306622 blocks)
    Journals:                  3
    Journal size:              16MB
    Resource groups:           23
    Locking protocol:          "lock_dlm"
    Lock table:                "my_cluster:gfs2-demo1"
    UUID:                      de263f7b-0f12-4d02-bbb2-56642fade293
  2. 创建文件系统资源,以便在所有节点上自动挂载 GFS2 文件系统。

    不要将文件系统添加到 /etc/fstab 文件中,因为它将作为 Pacemaker 群集资源进行管理。挂载选项可作为资源配置的一部分通过 options= 选项指定。运行 pcs resource describe Filesystem 命令以查看完整配置选项。

    以下命令创建文件系统资源。这个命令在包含该文件系统逻辑卷资源的资源组中添加资源。

    [root@z1 ~]# pcs resource create sharedfs1 --group shared_vg1 ocf:heartbeat:Filesystem device="/dev/mapper/luks_lv1" directory="/mnt/gfs1" fstype="gfs2" options=noatime op monitor interval=10s on-fail=fence

验证

  1. 验证 GFS2 文件系统是否已挂载到群集的两个节点上。

    [root@z1 ~]# mount | grep gfs2
    /dev/mapper/luks_lv1 on /mnt/gfs1 type gfs2 (rw,noatime,seclabel)
    
    [root@z2 ~]# mount | grep gfs2
    /dev/mapper/luks_lv1 on /mnt/gfs1 type gfs2 (rw,noatime,seclabel)
  2. 检查集群的状态。

    [root@z1 ~]# pcs status --full
    Cluster name: my_cluster
    [...]
    
    Full list of resources:
    
      smoke-apc      (stonith:fence_apc):    Started z1.example.com
      Clone Set: locking-clone [locking]
          Resource Group: locking:0
              dlm    (ocf::pacemaker:controld):      Started z2.example.com
              lvmlockd       (ocf::heartbeat:lvmlockd):      Started z2.example.com
          Resource Group: locking:1
              dlm    (ocf::pacemaker:controld):      Started z1.example.com
              lvmlockd       (ocf::heartbeat:lvmlockd):      Started z1.example.com
         Started: [ z1.example.com z2.example.com ]
      Clone Set: shared_vg1-clone [shared_vg1]
         Resource Group: shared_vg1:0
                 sharedlv1      (ocf::heartbeat:LVM-activate):  Started z2.example.com
                 crypt       (ocf::heartbeat:crypt) Started z2.example.com
                 sharedfs1      (ocf::heartbeat:Filesystem):    Started z2.example.com
        Resource Group: shared_vg1:1
                 sharedlv1      (ocf::heartbeat:LVM-activate):  Started z1.example.com
                 crypt      (ocf::heartbeat:crypt)  Started z1.example.com
                 sharedfs1      (ocf::heartbeat:Filesystem):    Started z1.example.com
              Started:  [z1.example.com z2.example.com ]
    ...

7.3. 将 GFS2 文件系统从 RHEL7 迁移到 RHEL8

在配置包含 GFS2 文件系统的 RHEL 8 集群时,您可以使用现有的 Red Hat Enterprise 7 逻辑卷。

在 Red Hat Enterprise Linux 8 中,LVM 使用 LVM 锁定守护进程 lvmlockd 而不是 clvmd 来管理主动/主动集群中的共享存储设备。这要求您配置作为共享逻辑卷使用的主动/主动集群所需的逻辑卷。另外,这需要您使用 LVM 激活的资源 来管理 LVM 卷,并使用 lvmlockd 资源代理来管理 lvmlockd 守护进程。有关配置包括使用共享逻辑卷的 GFS2 文件系统的 Pacemaker 集群的全部流程,请参阅 在集群中配置 GFS2 文件系统

要在配置包含 GFS2 文件系统的 RHEL8 集群时使用现有的 Red Hat Enterprise Linux 7 逻辑卷,请从 RHEL8 集群中执行以下步骤。在本例中,群集式 RHEL 7 逻辑卷是卷组 upgrade_gfs_vg 的一部分。

注意

RHEL8 集群的名称必须与 RHEL7 集群的名称相同,其中包括 GFS2 文件系统才能使现有文件系统有效。

流程

  1. 确定包含 GFS2 文件系统的逻辑卷当前不活跃。只有所有节点都停止使用卷组时,这个步骤才安全。
  2. 从集群中的一个节点中,强制将卷组更改为本地。

    [root@rhel8-01 ~]# vgchange --lock-type none --lock-opt force upgrade_gfs_vg
    Forcibly change VG lock type to none? [y/n]: y
      Volume group "upgrade_gfs_vg" successfully changed
  3. 从集群中的一个节点,将本地卷组改为共享卷组

    [root@rhel8-01 ~]# vgchange --lock-type dlm upgrade_gfs_vg
       Volume group "upgrade_gfs_vg" successfully changed
  4. 在集群的每个节点中,开始锁定卷组。

    [root@rhel8-01 ~]# vgchange --lockstart upgrade_gfs_vg
      VG upgrade_gfs_vg starting dlm lockspace
      Starting locking.  Waiting until locks are ready...
    [root@rhel8-02 ~]# vgchange --lockstart upgrade_gfs_vg
      VG upgrade_gfs_vg starting dlm lockspace
      Starting locking.  Waiting until locks are ready...

执行此步骤后,您可以为每个逻辑卷创建 LVM 激活的资源

第 8 章 在红帽高可用性集群中配置主动/主动 Samba 服务器

红帽高可用性附加组件为在主动/主动集群配置中配置 Samba 提供支持。在以下示例中,您要在双节点 RHEL 集群上配置一个主动/主动 Samba 服务器。

有关 Samba 的支持政策的详情,请参考红帽客户门户网站上的 RHEL 高可用性的支持策略 - ctdb 通用策略RHEL 弹性存储的支持策略 - 通过其他协议导出 gfs2 内容

要在主动/主动集群中配置 Samba:

  1. 配置 GFS2 文件系统及其关联的集群资源。
  2. 在集群节点上配置 Samba。
  3. 配置 Samba 集群资源。
  4. 测试您配置的 Samba 服务器。

8.1. 为高可用性集群中的 Samba 服务配置 GFS2 文件系统

在 Pacemaker 集群中配置主动/主动 Samba 服务前,请为集群配置 GFS2 文件系统。

先决条件

  • 为每个节点配置了隔离功能的双节点红帽高可用性集群
  • 共享存储对每个集群节点都可用
  • 每个集群节点的 AppStream 渠道和 Resilient Storage 渠道的订阅

有关创建 Pacemaker 集群并为集群配置隔离的详情,请参考 创建一个带有 Pacemaker 的红帽高可用性集群

流程

  1. 在集群的两个节点上都执行以下初始设置步骤。

    1. 为与您的系统架构对应的弹性存储启用存储库。例如,要为 x86_64 系统启用 Resilient Storage 存储库,请输入以下 subscription-manager 命令:

      # subscription-manager repos --enable=rhel-8-for-x86_64-resilientstorage-rpms

      Resilient Storage 存储库是高可用性存储库的超集。如果启用弹性存储存储库,则不需要同时启用高可用性存储库。

    2. 安装 lvm2-lockdgfs2-utils、和 dlm 软件包。

      # yum install lvm2-lockd gfs2-utils dlm
    3. /etc/lvm/lvm.conf 文件中的 use_lvmlockd 配置选项设为 use_lvmlockd=1

      ...
      
      use_lvmlockd = 1
      
      ...
  2. 在集群的一个节点上,将全局 Pacemaker 参数 no-quorum-policy 设置为 freeze

    注意

    默认情况下,no -quorum-policy 的值被设置为 stop,这表示一旦 quorum 丢失,剩余分区上的所有资源都会立即停止。通常,这个默认行为是最安全、最优的选项,但与大多数资源不同,GFS2 要求使用 quorum 才可以正常工作。当使用 GFS2 挂载的应用程序和 GFS2 挂载都丢失时,就无法正确停止 GFS2 挂载。任何在没有 quorum 的情况下停止这些资源的尝试都会失败,并最终会在每次 quorum 都丢失时保护整个集群。

    要解决这个问题,请在使用 GFS2 时将 no-quorum-policy 设置为 冻结。这意味着,当 quorum 丢失时,剩余的分区将不会进行任何操作,直到 quorum 功能被恢复。

    [root@z1 ~]# pcs property set no-quorum-policy=freeze
  3. 设置 dlm 资源。这是在集群中配置 GFS2 文件系统所需的依赖软件包。本例创建 dlm 资源作为名为 locking 的资源组的一部分。如果您之前还没有为集群配置隔离,此步骤会失败,pcs status 命令回显示资源失败信息。

    [root@z1 ~]# pcs resource create dlm --group locking ocf:pacemaker:controld op monitor interval=30s on-fail=fence
  4. 克隆 锁定 资源组,以便资源组可以在集群的两个节点上都活跃。

    [root@z1 ~]# pcs resource clone locking interleave=true
  5. lvmlockd 资源设置为 locking 资源组的一部分。

    [root@z1 ~]# pcs resource create lvmlockd --group locking ocf:heartbeat:lvmlockd op monitor interval=30s on-fail=fence
  6. 在共享设备 /dev/vdb 上创建一个物理卷和一个共享卷组。这个示例创建共享卷组 csmb_vg

    [root@z1 ~]# pvcreate /dev/vdb
    [root@z1 ~]# vgcreate -Ay --shared csmb_vg /dev/vdb
    Volume group "csmb_vg" successfully created
    VG csmb_vg starting dlm lockspace
    Starting locking.  Waiting until locks are ready
  7. 在集群的第二个节点上:
  8. (RHEL 8.5 及更高版本)如果您通过在 lvm.conf 文件中设置 use_devicesfile = 1 来启用设备文件的使用,请将共享设备添加到集群中第二个节点上的设备文件中。默认情况下,不启用设备文件的使用。

    [root@z2 ~]# lvmdevices --adddev /dev/vdb
    1. 为共享卷组启动锁定管理器。

      [root@z2 ~]# vgchange --lockstart csmb_vg
        VG csmb_vg starting dlm lockspace
        Starting locking.  Waiting until locks are ready...
  9. 在集群的一个节点上,创建一个逻辑卷,并使用将专门用于内部锁定的 GFS2 文件系统格式化卷。即使部署导出多个共享,集群中只需要一个这样的文件系统。

    当使用 mkfs.gfs2 命令的 -t 选项指定锁定表名称时,请确保您指定的 clustername:filesystemname 的第一个组件与集群名称匹配。在本例中,集群名称为 my_cluster

    [root@z1 ~]# lvcreate -L1G -n ctdb_lv csmb_vg
    [root@z1 ~]# mkfs.gfs2 -j3 -p lock_dlm -t my_cluster:ctdb /dev/csmb_vg/ctdb_lv
  10. 为每个将通过 Samba 共享的 GFS2 文件系统创建一个逻辑卷,并使用 GFS2 文件系统格式化卷。这个示例创建了一个 GFS2 文件系统和 Samba 共享,但您可以创建多个文件系统和共享。

    [root@z1 ~]# lvcreate -L50G -n csmb_lv1 csmb_vg
    [root@z1 ~]# mkfs.gfs2 -j3 -p lock_dlm -t my_cluster:csmb1 /dev/csmb_vg/csmb_lv1
  11. 设置 LVM_Activate 资源,以确保所需的共享卷被激活。这个示例创建了 LVM_Activate 资源作为资源组 shared_vg 的一部分,然后克隆该资源组,使其可以在集群中的所有节点上运行。

    将资源创建为禁用,以便它们在配置必要的顺序约束前不自动启动。

    [root@z1 ~]# pcs resource create --disabled --group shared_vg ctdb_lv ocf:heartbeat:LVM-activate lvname=ctdb_lv vgname=csmb_vg activation_mode=shared vg_access_mode=lvmlockd
    [root@z1 ~]# pcs resource create --disabled --group shared_vg csmb_lv1 ocf:heartbeat:LVM-activate lvname=csmb_lv1 vgname=csmb_vg activation_mode=shared vg_access_mode=lvmlockd
    [root@z1 ~]# pcs resource clone shared_vg interleave=true
  12. 配置一个排序约束,以在 shared_vg 资源组成员之前启动 locking 资源组的所有成员。

    [root@z1 ~]# pcs constraint order start locking-clone then shared_vg-clone
    Adding locking-clone shared_vg-clone (kind: Mandatory) (Options: first-action=start then-action=start)
  13. 启用 LVM-activate 资源。

    [root@z1 ~]# pcs resource enable ctdb_lv csmb_lv1
  14. 在集群的一个节点上,执行以下步骤来创建您需要的 Filesystem 资源。

    1. 使用之前在 LVM 卷上配置的 GFS2 文件系统将 Filesystem 资源创建为克隆的资源。这将将 Pacemaker 配置为挂载和管理文件系统。

      注意

      您不应该将文件系统添加到 /etc/fstab 文件中,因为它将作为 Pacemaker 集群资源进行管理。您可以使用 options= 选项将挂载选项指定为资源配置的一部分。运行 pcs resource describe Filesystem 命令显示完整的配置选项。

      [root@z1 ~]# pcs resource create ctdb_fs Filesystem device="/dev/csmb_vg/ctdb_lv" directory="/mnt/ctdb" fstype="gfs2" op monitor interval=10s on-fail=fence clone interleave=true
      [root@z1 ~]# pcs resource create csmb_fs1 Filesystem device="/dev/csmb_vg/csmb_lv1" directory="/srv/samba/share1" fstype="gfs2" op monitor interval=10s on-fail=fence clone interleave=true
    2. 配置排序约束,以确保 Pacemaker 在共享卷组 shared_vg 启动后挂载文件系统。

      [root@z1 ~]# pcs constraint order start shared_vg-clone then ctdb_fs-clone
      Adding shared_vg-clone ctdb_fs-clone (kind: Mandatory) (Options: first-action=start then-action=start)
      [root@z1 ~]# pcs constraint order start shared_vg-clone then csmb_fs1-clone
      Adding shared_vg-clone csmb_fs1-clone (kind: Mandatory) (Options: first-action=start then-action=start)

8.2. 在高可用性集群中配置 Samba

要在 Pacemaker 集群中配置 Samba 服务,请在集群中的所有节点上配置该服务。

先决条件

  • 配置具有 GFS2 文件系统的双节点红帽高可用性集群,如 在高可用性集群中为 Samba 服务配置 GFS2 文件系统 中所述。
  • 在 GFS2 文件系统上创建的一个公共目录用于 Samba 共享。在本例中,目录为 /srv/samba/share1
  • 用于访问此集群导出的 Samba 共享的公共虚拟 IP 地址。

流程

  1. 在集群的两个节点上,配置 Samba 服务,并设置共享定义:

    1. 安装 Samba 和 ctdb 软件包。

      # dnf -y install samba ctdb cifs-utils samba-winbind
    2. 确保 ctdbsmbnmbwinbind 服务没有运行,且不会在引导时启动。

      # systemctl disable --now ctdb smb nmb winbind
    3. /etc/samba/smb.conf 文件中,配置 Samba 服务并设置共享定义,如下面具有一个共享的独立服务器的示例:

      [global]
          netbios name = linuxserver
          workgroup = WORKGROUP
          security = user
          clustering = yes
      [share1]
          path = /srv/samba/share1
          read only = no
    4. 验证 /etc/samba/smb.conf 文件。

      # testparm
  2. 在集群的两个节点上配置 CTDB:

    1. 创建 /etc/ctdb/nodes 文件,并添加集群节点的 IP 地址,如示例节点文件中所示。

      192.0.2.11
      192.0.2.12
    2. 创建 /etc/ctdb/public_addresses 文件,并将集群公共接口的 IP 地址和网络设备名称添加到该文件中。当在 public_addresses 文件中分配 IP 地址时,请确保这些地址没有被使用,并且这些地址可从预期的客户端路由。/etc/ctdb/public_addresses 文件的每个条目中的第二个字段是集群机器上用于相应公共地址的接口。在示例 public_addresses 文件中,接口 enp1s0 用于所有公共地址。

      192.0.2.201/24 enp1s0
      192.0.2.202/24 enp1s0

      集群的公共接口是客户端用来从其网络访问 Samba 的公共接口。出于负载均衡的目的,将集群中的每个公共 IP 地址的 A 记录添加到您的 DNS 区域中。每个记录都必须解析为相同的主机名。客户端使用主机名访问 Samba ,DNS 将客户端分发到集群的不同节点上。

    3. 如果您正在运行 firewalld 服务,请启用 ctdbsamba 服务所需的端口。

      # firewall-cmd --add-service=ctdb --add-service=samba --permanent
      # firewall-cmd --reload
  3. 在集群的一个节点上,更新 SELinux 上下文:

    1. 更新 GFS2 共享上的 SELinux 上下文。

      [root@z1 ~]# semanage fcontext -at ctdbd_var_run_t -s system_u "/mnt/ctdb(/.)?"
      [root@z1 ~]# restorecon -Rv /mnt/ctdb
    2. 更新 Samba 共享的目录上的 SELinux 上下文。

      [root@z1 ~]# semanage fcontext -at samba_share_t -s system_u "/srv/samba/share1(/.)?"
      [root@z1 ~]# restorecon -Rv /srv/samba/share1

其它资源

8.3. 配置 Samba 集群资源

在双节点高可用性集群的两个节点上配置 Samba 服务后,请为集群配置 Samba 集群资源。

先决条件

流程

  1. 在集群的一个节点上配置 Samba 集群资源:

    1. 在组 samba-group 中创建 CTDB 资源。CTDB 资源代理使用 pcs 命令指定的ctdb_* 选项来创建 CTDB 配置文件。将资源创建为禁用,以便其在配置必要的顺序约束前不自动启动。

      [root@z1 ~]# pcs resource create --disabled ctdb --group samba-group ocf:heartbeat:CTDB ctdb_recovery_lock=/mnt/ctdb/ctdb.lock ctdb_dbdir=/var/lib/ctdb ctdb_logfile=/var/log/ctdb.log op monitor interval=10 timeout=30 op start timeout=90 op stop timeout=100
    2. 克隆 samba-group 资源组。

      [root@z1 ~]# pcs resource clone samba-group
    3. 创建排序约束,以确保所有 Filesystem 资源都在 samba-group 中的资源之前运行。

      [root@z1 ~]# pcs constraint order start ctdb_fs-clone then samba-group-clone
      [root@z1 ~]# pcs constraint order start csmb_fs1-clone then samba-group-clone
    4. 在资源组 samba-group 中创建 samba 资源。这会根据添加的顺序在 CTDB 和 Samba 之间创建一个隐式排序约束。

      [root@z1 ~]# pcs resource create samba --group samba-group systemd:smb
    5. 启用 ctdbsamba 资源。

      [root@z1 ~]# pcs resource enable ctdb samba
    6. 检查所有服务是否已成功启动。

      注意

      CTDB 可能需要几分钟才能启动 Samba、导出共享并稳定下来。如果在此过程完成前检查集群状态,您可能会看到 samba 服务还没有运行。

      [root@z1 ~]# pcs status
      
      ...
      
      Full List of Resources:
        * fence-z1   (stonith:fence_xvm): Started z1.example.com
        * fence-z2   (stonith:fence_xvm): Started z2.example.com
        * Clone Set: locking-clone [locking]:
      	* Started: [ z1.example.com z2.example.com ]
        * Clone Set: shared_vg-clone [shared_vg]:
      	* Started: [ z1.example.com z2.example.com ]
        * Clone Set: ctdb_fs-clone [ctdb_fs]:
      	* Started: [ z1.example.com z2.example.com ]
        * Clone Set: csmb_fs1-clone [csmb_fs1]:
      	* Started: [ z1.example.com z2.example.com ]
         * Clone Set: samba-group-clone [samba-group]:
      	* Started: [ z1.example.com z2.example.com ]
  2. 在集群的两个节点上,为 test 共享目录添加一个本地用户。

    1. 添加用户。

      # useradd -M -s /sbin/nologin example_user
    2. 设置用户的密码。

      # passwd example_user
    3. 为用户设置 SMB 密码。

      # smbpasswd -a example_user
      New SMB password:
      Retype new SMB password:
      Added user example_user
    4. 在 Samba 数据库中激活用户。

      # smbpasswd -e example_user
    5. 为 Samba 用户更新 GFS2 共享的文件所有权和权限。

      # chown example_user:users /srv/samba/share1/
      # chmod 755 /srv/samba/share1/

8.4. 验证集群的 Samba 配置

如果您的集群 Samba 配置成功,您可以挂载 Samba 共享。挂载共享后,如果导出 Samba 共享的集群节点不可用,您可以测试 Samba 恢复。

流程

  1. 在可以访问集群节点上 /etc/ctdb/public_addresses 文件中配置的一个或多个公共 IP 地址的系统上,使用其中一个公共 IP 地址挂载 Samba 共享。

    [root@testmount ~]# mkdir /mnt/sambashare
    [root@testmount ~]# mount -t cifs -o user=example_user //192.0.2.201/share1 /mnt/sambashare
    Password for example_user@//192.0.2.201/public: XXXXXXX
  2. 验证文件系统是否已挂载。

    [root@testmount ~]# mount | grep /mnt/sambashare
    //192.0.2.201/public on /mnt/sambashare type cifs (rw,relatime,vers=1.0,cache=strict,username=example_user,domain=LINUXSERVER,uid=0,noforceuid,gid=0,noforcegid,addr=192.0.2.201,unix,posixpaths,serverino,mapposix,acl,rsize=1048576,wsize=65536,echo_interval=60,actimeo=1,user=example_user)
  3. 验证您可以在挂载的文件系统上创建文件。

    [root@testmount ~]# touch /mnt/sambashare/testfile1
    [root@testmount ~]# ls /mnt/sambashare
    testfile1
  4. 确定哪个集群节点正在导出 Samba 共享:

    1. 在每个集群节点上,显示分配给 public_addresses 文件中指定接口的 IP 地址。以下命令显示分配给每个节点上 enp1s0 接口的 IPv4 地址。

      [root@z1 ~]# ip -4 addr show enp1s0 | grep inet
           inet 192.0.2.11/24 brd 192.0.2.255 scope global dynamic noprefixroute enp1s0
           inet 192.0.2.201/24 brd 192.0.2.255 scope global secondary enp1s0
      
      [root@z2 ~]# ip -4 addr show enp1s0 | grep inet
           inet 192.0.2.12/24 brd 192.0.2.255 scope global dynamic noprefixroute enp1s0
           inet 192.0.2.202/24 brd 192.0.2.255 scope global secondary enp1s0
    2. ip 命令的输出中,找到具有在挂载共享时使用 mount 命令指定的 IP 地址的节点。

      在本例中,mount 命令中指定的 IP 地址为 192.0.2.201。ip 命令的输出显示 IP 地址 192.0.2.201 被分配给了 z1.example.com

  5. 将导出 Samba 共享的节点设置为 standby 模式,这会导致节点无法托管任何集群资源。

    [root@z1 ~]# pcs node standby z1.example.com
  6. 从挂载文件系统的系统上,确定您仍可在文件系统上创建文件。

    [root@testmount ~]# touch /mnt/sambashare/testfile2
    [root@testmount ~]# ls /mnt/sambashare
    testfile1  testfile2
  7. 删除您创建的文件,以验证文件系统是否已成功挂载。如果您不再需要挂载文件系统,请卸载它。

    [root@testmount ~]# rm /mnt/sambashare/testfile1 /mnt/sambashare/testfile2
    rm: remove regular empty file '/mnt/sambashare/testfile1'? y
    rm: remove regular empty file '/mnt/sambashare/testfile1'? y
    [root@testmount ~]# umount /mnt/sambashare
  8. 从其中一个集群节点,将集群服务恢复到您之前将其置于 standby 模式的节点。这不一定将该服务转换到第一个节点。

    [root@z1 ~]# pcs node unstandby z1.example.com

第 9 章 pcsd Web UI 入门

pcsd Web UI 是一个图形用户界面,用于创建和配置 Pacemaker/Corosync 群集。

9.1. 安装集群软件

安装集群软件,并使用以下流程为集群创建配置您的系统。

流程

  1. 在集群的每个节点上,启用与您的系统架构对应的高可用性存储库。例如,要为 x86_64 系统启用高可用性存储库,您可以输入以下 subscription-manager 命令:

    # subscription-manager repos --enable=rhel-8-for-x86_64-highavailability-rpms
  2. 在集群的每个节点中,安装 Red Hat High Availability Add-On 软件包,以及 High Availability 性频道中的所有可用的隔离代理。

    # yum install pcs pacemaker fence-agents-all

    另外,您可以使用以下命令安装 Red Hat High Availability Add-On 软件包,并只安装您需要的隔离代理。

    # yum install pcs pacemaker fence-agents-model

    以下命令显示可用隔离代理列表。

    # rpm -q -a | grep fence
    fence-agents-rhevm-4.0.2-3.el7.x86_64
    fence-agents-ilo-mp-4.0.2-3.el7.x86_64
    fence-agents-ipmilan-4.0.2-3.el7.x86_64
    ...
    警告

    在安装 the Red Hat High Availability Add-On 软件包后,需要确定设置了软件更新首选项,以便不会自动安装任何软件。在正在运行的集群上安装可能会导致意外行为。如需更多信息,请参阅将软件更新应用到 RHEL High Availability 或弹性存储集群的建议实践

  3. 如果您正在运行 firewalld 守护进程,请执行以下命令启用红帽高可用性附加组件所需的端口。

    注意

    您可以使用 rpm -q firewalld 命令确定系统上是否安装了 firewalld 守护进程。如果安装了它,您可以使用 firewall-cmd --state 命令来确定它是否在运行。

    # firewall-cmd --permanent --add-service=high-availability
    # firewall-cmd --add-service=high-availability
    注意

    集群组件的理想防火墙配置取决于本地环境,您可能需要考虑节点是否有多个网络接口或主机外防火墙是否存在。在此示例中打开 Pacemaker 集群通常所需的端口,您需要根据具体情况进行修改。为高可用性附加组件启用端口 会显示为红帽高可用性附加组件启用的端口,并解释每个端口的用途。

  4. 要使用 pcs 配置集群并在节点之间进行通信,您必须在每个节点上设置用户 ID hacluster 的密码,这是 pcs 管理帐户。建议每个节点上的用户 hacluster 的密码都相同。

    # passwd hacluster
    Changing password for user hacluster.
    New password:
    Retype new password:
    passwd: all authentication tokens updated successfully.
  5. 在配置群集之前,必须启动并启用 pcsd 守护进程以便在每个节点上引导时启动。此守护进程与 pcs 命令配合使用,以管理群集中节点的配置。

    在集群的每个节点上,执行以下命令启动 pcsd 服务并在系统启动时启用 pcsd

    # systemctl start pcsd.service
    # systemctl enable pcsd.service

9.2. 设置 pcsd Web UI

设置您的系统以使用 pcsd Web UI ,来使用以下流程配置集群。

先决条件

  • Pacemaker 配置工具已安装。
  • 已为集群配置设置了您的系统。

流程

  1. 在任意系统上,打开浏览器到以下 URL,指定集群的一个节点(请注意,这使用 https 协议)。这将调出 pcsd Web UI 登录屏幕。

    https://nodename:2224
  2. 以用户 hacluster 身份登录。这将打开 Manage Clusters 页面。

9.3. 使用 pcsd Web UI 创建集群

Manage Clusters 页面中,您可以创建新集群,将现有集群添加到 Web UI 中,或者从 Web UI 中删除集群。

  • 要创建集群,请单击 Create New。输入要创建的集群名称以及组成该集群的节点。如果您之前没有为集群中的每个节点验证用户 hacluster,系统会要求您验证群集节点。
  • 在创建集群时,您可以点击此屏幕上的 Go to advanced settings 来配置高级 集群选项。
  • 要将现有集群添加到 Web UI 中,请点击 Add Existing,并输入您要使用 Web UI 管理的集群中的节点的主机名或 IP 地址。

创建或添加集群后,会在 Manage Clusters 页面上显示集群名称。选择集群会显示有关集群的信息。

注意

当使用 pcsd Web UI 配置集群时,您可以将鼠标移到文本描述中,以作为 工具提示 显示这些选项的较长描述。

9.3.1. 使用 pcsd Web UI 配置高级集群配置选项

在创建集群时,您可以点击 Create cluster 屏幕上的 Go to advanced settings 来配置其它集群选项。这可让您修改以下集群组件的可配置设置:

  • 传输设置:用于集群通信的传输机制的值
  • 仲裁设置: votequorum 服务的仲裁选项值
  • Totem 设置: Corosync 使用的 Totem 协议的值

选择那些选项会显示您可以配置的设置。有关每个设置的信息,请将鼠标指针放在特定选项上。

9.3.2. 设置集群管理权限

您可以向用户授予两组集群权限:

  • 使用 Web UI 管理集群的权限,它还授予运行通过网络连接到节点的 pcs 命令的权限。您可以使用 Web UI 配置这些权限。
  • 本地用户使用 ACL 允许只读或读写访问集群配置的权限。

您可以为用户 hacluster 以外的特定用户授予权限,以便通过 Web UI 管理集群,并运行 pcs 命令通过将它们添加到组 haclient 来运行通过网络连接到节点的 pcs 命令。然后,您可以通过单击 Manage Clusters 页面上的 Permissions 选项卡,为组 haclient 的成员配置权限集,并在结果屏幕上设置权限。在这个页面中,您还可以为组群设置权限。

您可以授予以下权限:

  • 查看集群设置的读取权限
  • 写入权限,修改集群设置(权限和 ACL 除外)
  • 授予权限以修改集群权限和 ACL
  • 对集群的不受限制访问(包括添加和删除节点)的所有权限,并可访问密钥和证书

9.4. 使用 pcsd Web UI 配置集群组件

要配置集群的组件和属性,请点击 Clusters 屏幕上显示的集群的名称。这将打开 Nodes 页面。

Nodes 页面在页面顶部显示一个菜单,包含以下条目:

  • 节点,如使用 pcsd Web UI 配置集群节点中所述。
  • 资源,如"使用 pcsd Web UI 配置集群资源"。
  • 隔离设备,如"使用 pcsd Web UI 配置隔离设备"中所述。
  • ACL,如"使用 pcsd Web UI 配置 ACL"中所述。
  • 群集属性,如"使用 pcsd Web UI 配置集群属性"。

9.4.1. 使用 pcsd Web UI 配置集群节点

从集群管理页面顶部的菜单中选择 Nodes 选项会显示当前配置的节点以及当前选定节点的状态,包括节点上在运行哪些资源以及资源位置首选项。这是从 Manage Clusters 屏幕中选择集群时显示的默认页面。

在这个页面中,您可以添加或删除节点。您还可以启动、停止、重启或者将节点设置为待机或维护模式。有关待机模式的详情,请参考 将节点置于待机模式。有关维护模式的详情,请参考 将集群置于维护模式。您还可以直接从这个页面配置隔离设备,如选择 Configure Fencing 中所述。"使用 pcsd Web UI 配置隔离设备"中介绍了配置隔离设备。

9.4.2. 使用 pcsd Web UI 配置集群资源

在集群管理页面顶部的菜单中选择 Resources 选项显示当前为集群配置的资源,并根据资源组进行组织。选择组或资源会显示该组或资源的属性。

在本页中,您可以添加或删除资源,您可以编辑现有资源的配置,您可以创建资源组。

在集群中添加新资源:

  • Add。这将进入 Add Resource 屏幕。
  • 类型 下拉菜单中选择资源类型时,必须为该资源指定的参数将显示在菜单中。
  • 您可以点击 可选参数 来显示您可以为您要定义的资源指定的其他参数。
  • 为您要创建的资源输入参数后,点 Create Resource

当为资源配置参数时,会在菜单中显示参数的简单描述。如果您将光标移动到字段,就会显示一个较长的帮助信息。

您可以将资源定义为克隆的资源,也可以定义为升级的克隆资源。有关这些资源类型的详情,请参考 创建在多个节点上活跃的集群资源(克隆的资源)。

至少创建了一个资源后,您可以创建一个资源组。

创建资源组:

  • Resources 屏幕选择属于组的资源,然后单击 Create Group。这将显示 Create Group 屏幕。
  • 在 Create Group 屏幕中,您可以使用拖放来移动资源列表,以重新排列资源组中资源的顺序。
  • 输入组名称,再单击 Create Group。这会返回到 Resources 屏幕,它现在会显示组名称以及该组中的资源。

创建资源组后,您可以在创建或修改其他资源时将组的名称指定为资源参数。

9.4.3. 使用 pcsd Web UI 配置保护设备

在集群管理页面顶部的菜单中选择 Fence Devices 选项会显示 Fence Devices 屏幕,显示当前配置的隔离设备。

在集群中添加新隔离设备:

  • Add。此时会出现 Add Fence Device 屏幕。
  • 当您从 Type 下拉菜单中选择隔离设备类型时,您必须为该隔离设备指定的参数会出现在菜单中。
  • 您可以点 Optional Arguments 来显示您可以为您要定义的隔离设备指定的附加参数。
  • 为新隔离设备输入参数后,点 Create Fence Instance

要配置 SBD 隔离设备,请单击 Fence Devices 屏幕上的 SBD。这会调用一个屏幕,供您在集群中启用或禁用 SBD。

有关隔离设备的更多信息,请参阅 在红帽高可用性集群中配置隔离

9.4.4. 使用 pcsd Web UI 配置 ACL

在集群管理页面顶部的菜单中选择 ACLS 选项会显示一个界面,您可以在其中为本地用户设置权限,允许使用访问控制列表(ACL)对集群配置进行只读或读写访问。

要分配 ACL 权限,您可以创建一个角色并为该角色定义访问权限。每个角色都可以有无限数量的、适用于 XPath 查询或者一个特定元素的 ID 的权限(读/写/拒绝)。定义角色后,您可以将其分配给现有用户或组群。

有关使用 ACL 分配权限的更多信息,请参阅 使用 ACL 设置本地权限

9.4.5. 使用 pcsd Web UI 配置集群属性

在集群管理页面顶部的菜单中选择 Cluster Properties 选项会显示集群属性,并允许您修改这些属性的默认值。有关 Pacemaker 集群属性的详情,请参考 Pacemaker 集群属性

9.5. 配置高可用性 pcsd Web UI

使用 pcsd Web UI 时,您可以连接到集群的一个节点来显示集群管理页面。如果您要连接的节点停机或不可用,可以在浏览器使用指向集群中不同节点的 URL 来重新连接到集群。但是,可以配置 pcsd Web UI 本身以实现高可用性,在这种情况下,您可以继续管理集群而无需输入新 URL。

流程

要为 pcsd Web UI 配置高可用性,请执行以下步骤:

  1. 通过在 /etc/sysconfig/pcsd 配置文件中将 PCSD_SSL_CERT_SYNC_ENABLED 设为 true,来确保 pcsd 证书在集群的节点上同步。启用证书同步会导致 pcsd 为集群设置和节点添加命令同步证书。从 RHEL 8 开始,PCSD_SSL_CERT_SYNC_ENABLED 默认被设置为 false
  2. 创建一个 IPaddr2 集群资源,它是您将用来连接到 pcsd Web UI 的浮动 IP 地址。IP 地址不能是一个已经与物理节点关联的 IP 地址。如果没有指定 IPaddr2 资源的 NIC 设备,浮动 IP 必须与节点静态分配的 IP 地址之一位于同一个网络中,否则无法正确检测到分配浮动 IP 地址的 NIC 设备。
  3. 为使用 pcsd 创建自定义 SSL 证书,并确保它们对连接到 pcsd Web UI 的节点的地址有效。

    1. 要创建自定义 SSL 证书,您可以使用通配符证书,或者使用主题替代名称证书扩展。有关红帽认证系统的详情,请查看 红帽认证系统管理指南
    2. 使用 pcs pcsd certkey 命令安装 pcsd 的自定义证书。
    3. 使用 pcs pcsd sync-certificates 命令将 pcsd 证书同步到群集中的所有节点。
  4. 使用您配置为集群资源的浮动 IP 地址连接到 pcsd Web UI。
注意

即使您将 pcsd Web UI 配置为高可用性,当您要连接的节点停机时,也会要求您再次登录。

第 10 章 在 Red Hat High Availability 集群中配置隔离功能

不响应的节点可能仍然在访问数据。确定您的数据安全的唯一方法是使用 STONITH 保护节点。STONITH 是"Shoot The Other Node In The Head"的缩写,它保护您的数据不受有问题的节点或并发访问的影响。使用 STONITH 可以确保,在允许从另一个节点访问数据前确定节点真正离线。

当无法停止集群的服务时,STONITH 也会有意义。在这种情况下,集群使用 STONITH 来强制整个节点离线,从而使在其他位置可以安全地启动该服务。

有关隔离的一般信息及其在红帽高可用性集群中的重要程度,请查看 红帽知识库解决方案 隔离(Red Hat High Availability Cluster )。

您可以在 Pacemaker 集群中为集群的节点配置隔离设备,从而在 Pacemaker 集群中实施 STONITH。

10.1. 显示可用的隔离代理及其选项

以下命令可用于查看可用的隔离代理以及特定隔离代理的可用选项。

注意

您的系统硬件决定了用于集群的隔离设备的类型。有关支持的平台和架构以及不同的隔离设备的详情,请参考 RHEL 高可用性集群的支持策略 文章中的 集群平台和架构 部分。

运行以下命令列出所有可用的隔离代理。当您指定过滤器时,这个命令只会显示与过滤器匹配的隔离代理。

pcs stonith list [filter]

运行以下命令以显示指定隔离代理的选项。

pcs stonith describe [stonith_agent]

例如:以下命令显示 APC 通过 telnet/SSH 的隔离代理的选项。

# pcs stonith describe fence_apc
Stonith options for: fence_apc
  ipaddr (required): IP Address or Hostname
  login (required): Login Name
  passwd: Login password or passphrase
  passwd_script: Script to retrieve password
  cmd_prompt: Force command prompt
  secure: SSH connection
  port (required): Physical plug number or name of virtual machine
  identity_file: Identity file for ssh
  switch: Physical switch number on device
  inet4_only: Forces agent to use IPv4 addresses only
  inet6_only: Forces agent to use IPv6 addresses only
  ipport: TCP port to use for connection with device
  action (required): Fencing Action
  verbose: Verbose mode
  debug: Write debug information to given file
  version: Display version information and exit
  help: Display help and exit
  separator: Separator for CSV created by operation list
  power_timeout: Test X seconds for status change after ON/OFF
  shell_timeout: Wait X seconds for cmd prompt after issuing command
  login_timeout: Wait X seconds for cmd prompt after login
  power_wait: Wait X seconds after issuing ON/OFF
  delay: Wait X seconds before fencing is started
  retry_on: Count of attempts to retry power on
警告

对于提供 方法 选项的隔离代理,但 fence_sbd 代理除外,它不被支持,不应指定 循环,因为它可能会导致数据崩溃。即使是 fence_sbd,但不应指定方法,而是使用默认值。

10.2. 创建隔离设备

创建隔离设备的命令格式如下。有关可用隔离设备创建选项列表,请查看 pcs stonith -h 显示。

pcs stonith create stonith_id stonith_device_type [stonith_device_options] [op  operation_action operation_options]

以下命令为单一节点创建一个隔离设备。

# pcs stonith create MyStonith fence_virt pcmk_host_list=f1 op monitor interval=30s

有些隔离设备只能隔离一个节点,其他设备则可能隔离多个节点。您创建隔离设备时指定的参数取决于您的隔离设备的支持和要求。

  • 有些隔离设备可自动决定它们可以隔离哪些节点。
  • 您可以在创建隔离设备时使用 pcmk_host_list 参数,以指定由该隔离设备控制的所有机器。
  • 有些隔离设备需要主机名与隔离设备可识别的规格映射。在创建隔离设备时,您可以使用 pcmk_host_map 参数来映射主机名。

有关 pcmk_host_listpcmk_host_map 参数的详情,请参考 隔离设备的常规属性

配置隔离设备后,您必须测试该设备以保证其可以正常工作。有关测试隔离设备的详情,请参考 测试隔离设备

10.3. 隔离设备的常规属性

您可以为隔离设备设置许多常规属性,以及决定隔离行为的各种群集属性。

任何集群节点都可以使用任何隔离设备隔离保护其它集群节点,无论隔离资源是启动还是停止。资源是否启动只控制设备的重复监控,而不控制是否使用资源,但以下情况除外:

  • 您可以通过运行 pcs stonith disableston ith_id命令来禁用 隔离设备。这将阻止任何节点使用该设备。
  • 要防止特定节点使用隔离设备,您可以使用 pcs constraint location …​s 命令 为隔离资源配置位置限制。
  • 配置 stonith-enabled=false 将完全禁用隔离。但请注意,红帽不支持隔离功能被禁用的集群,因为它不适用于生产环境。

下表介绍了您可以为隔离设备设置的一般属性。

表 10.1. 隔离设备的常规属性
类型默认值描述

pcmk_host_map

字符串

 

用于不支持主机名的设备的主机名到端口号的映射。例如:node1:1;node2:2,3 告知集群 node1 使用端口 1 ,对 node2 使用端口 2 和端口 3。从 RHEL 8.7 开始,pcmk_host_map 属性支持在 pcmk_host_map 值前使用反斜杠的特殊字符。例如,您可以指定 pcmk_host_map="node3:plug\ 1",来在主机别名中包含一个空格。

pcmk_host_list

字符串

 

此设备控制的机器列表(可选,除非 pcmk_host_check=static-list)。

pcmk_host_check

字符串

如果设置了 pcmk_host_listpcmk_host_map,则为 * static-list

* 否则,如果隔离设备支持 list 操作,则为 dynamic-list

* 否则,如果 隔离设备支持 status 操作,则状态

* 否则,没有

如何确定被设备控制的机器。允许的值: dynamic-list (查询设备)、static-list (检查 pcmk_host_list 属性)、none(假设每个设备都可以隔离每台机器)

下表总结了您可以为隔离设备设置的其他属性。请注意,这些属性仅适用于高级使用。

表 10.2. 隔离设备的高级属性
类型默认值描述

pcmk_host_argument

字符串

port

提供端口的一个替代参数。有些设备不支持标准端口参数,或者可能会提供额外的端口。使用这个参数指定一个替代的、针对于具体设备的参数,它代表要被隔离的机器。值 none 可用于告之集群不要提供任何额外的参数。

pcmk_reboot_action

字符串

reboot

要运行的一个替代命令,而不是 reboot 。有些设备不支持标准命令或者可能需要提供额外的命令。使用这个选项指定可执行 reboot 操作的替代的、特定于具体设备的命令。

pcmk_reboot_timeout

time

60s

指定用于重新启动操作的替代超时,而不是 stonith-timeout。和一般的设备相比,有些设备需要更长或更短的时间完成。使用此选项指定替代的、重启操作使用的、特定于设备的超时时间。

pcmk_reboot_retries

整数

2

在超时时间内重试 reboot 命令的次数上限。有些设备不支持多个连接。如果设备忙碌了处理另一个任务,操作可能会失败,因此如果还有剩余时间,Pacemaker 会自动重试操作。使用这个选项更改 Pacemaker 在放弃前重试重启动作的次数。

pcmk_off_action

字符串

off

要运行的一个替代命令,而不是 off。有些设备不支持标准命令或者可能需要提供额外的命令。使用这个选项指定可执行 off 操作的替代的、特定于具体设备的命令。

pcmk_off_timeout

time

60s

指定用于 off 操作的替代超时,而不是 stonith-timeout。和一般的设备相比,有些设备需要更长或更短的时间完成。使用此选项指定替代的、off 操作使用的、特定于设备的超时时间。

pcmk_off_retries

整数

2

在超时时间内重试 off 命令的次数上限。有些设备不支持多个连接。如果设备忙碌了处理另一个任务,操作可能会失败,因此如果还有剩余时间,Pacemaker 会自动重试操作。使用这个选项更改 Pacemaker 在放弃前重试操作的次数。

pcmk_list_action

字符串

list

要运行的一个替代命令,而不是 list。有些设备不支持标准命令或者可能需要提供额外的命令。使用这个选项指定可执行 list 操作的替代的、特定于具体设备的命令。

pcmk_list_timeout

time

60s

指定 list 操作使用的特代的超时时间。和一般的设备相比,有些设备需要更长或更短的时间完成。使用此选项指定替代的、list 操作使用的、特定于设备的超时时间。

pcmk_list_retries

整数

2

在超时时间内重试 list 命令的次数上限。有些设备不支持多个连接。如果设备忙碌了处理另一个任务,操作可能会失败,因此如果还有剩余时间,Pacemaker 会自动重试操作。使用这个选项更改 Pacemaker 在放弃前 list 操作的次数。

pcmk_monitor_action

字符串

monitor

要运行的一个替代命令,而不是 monitor。有些设备不支持标准命令或者可能需要提供额外的命令。使用这个选项指定可执行 monitor 操作的替代的、特定于具体设备的命令。

pcmk_monitor_timeout

time

60s

指定用于 monitor 操作的替代超时,而不是 stonith-timeout。和一般的设备相比,有些设备需要更长或更短的时间完成。使用此选项指定替代的、monitor 操作使用的、特定于设备的超时时间。

pcmk_monitor_retries

整数

2

在超时时间内重试 monitor 命令的次数上限。有些设备不支持多个连接。如果设备忙碌了处理另一个任务,操作可能会失败,因此如果还有剩余时间,Pacemaker 会自动重试操作。使用这个选项更改 Pacemaker 在放弃前 monitor 操作的次数。

pcmk_status_action

字符串

status

要运行的一个替代命令,而不是 status。有些设备不支持标准命令或者可能需要提供额外的命令。使用这个选项指定可执行 status 操作的替代的、特定于具体设备的命令。

pcmk_status_timeout

time

60s

指定用于 status 操作的替代超时,而不是 stonith-timeout。和一般的设备相比,有些设备需要更长或更短的时间完成。使用此选项指定替代的、status 操作使用的、特定于设备的超时时间。

pcmk_status_retries

整数

2

在超时时间内重试 status 命令的次数上限。有些设备不支持多个连接。如果设备忙碌了处理另一个任务,操作可能会失败,因此如果还有剩余时间,Pacemaker 会自动重试操作。使用这个选项更改 Pacemaker 在放弃前 status 操作的次数。

pcmk_delay_base

字符串

0s

为隔离操作启用基本延迟,并指定基本延迟值。从 Red Hat Enterprise Linux 8.6 开始,您可以使用 pcmk_delay_base 参数为不同的节点指定不同的值。有关隔离延迟参数及其相互作用的一般信息,请查看 隔离延迟

pcmk_delay_max

time

0s

为隔离操作启用一个随机延迟,并指定最大延迟,即组合基本延迟和随机延迟的最大值。例如,如果基本延迟为 3,并且 pcmk_delay_max 为 10,则随机延迟将在 3 和 10 之间。有关隔离延迟参数及其相互作用的一般信息,请查看 隔离延迟

pcmk_action_limit

整数

1

在这个设备上可并行执行的最大操作数量。需要首先配置集群属性 并发-fencing=true (这是 RHEL 8.1 及更新版本的默认值)。值为 -1 代表没有限制。

pcmk_on_action

字符串

on

仅供高级使用:要运行的一个替代命令,而不是 on。有些设备不支持标准命令或者可能需要提供额外的命令。使用它来指定一个执行 on 操作的替代的、特定于设备的命令。

pcmk_on_timeout

time

60s

仅供高级使用:指定用于 on 操作的替代超时, 而不是 stonith-timeout。和一般的设备相比,有些设备需要更长或更短的时间完成。使用它来为 on 操作指定一个替代的、特定于设备的超时。

pcmk_on_retries

整数

2

仅供高级使用:超时时间内重试 on 命令的次数上限。有些设备不支持多个连接。如果设备忙碌了处理另一个任务,操作可能会 失败,因此如果还有剩余时间,Pacemaker 会自动重试操作。使用这个选项来更改 Pacemaker 在放弃前重试 on 操作的次数。

除了您可以为独立隔离设备设置的属性外,您还可以设置用来决定隔离行为的集群属性,如下表所述。

表 10.3. 确定隔离行为的集群属性
选项默认值描述

stonith-enabled

true

表示失败的节点以及带有资源无法停止的节点应该被隔离。保护数据需要将此设置为 true

如果为 true 或未设置,集群将拒绝启动资源,除非也配置了一个或多个 STONITH 资源。

红帽只支持将此值设为 true 的集群。

stonith-action

reboot

发送到隔离设备的操作。允许的值: rebootoff 。也允许使用值 poweroff,但只适用于旧的设备。

stonith-timeout

60s

等待 STONITH 操作完成的时间。

stonith-max-attempts

10

在集群不再立即重新尝试之前,隔离可以失败的次数。

stonith-watchdog-timeout

 

在认为某个节点被硬件 wathcdog 终止前等待的最长时间。建议将此值设置为硬件 watchdog 超时值的两倍。只有在 watchdog-only SBD 配置用于隔离时才需要这个选项。

concurrent-fencing

true(RHEL 8.1 及更新的版本)

允许并行执行隔离操作。

fence-reaction

stop

(Red Hat Enterprise Linux 8.2 及更新的版本)决定当集群节点有其自身隔离通知时该如何响应。如果错误配置了隔离,或者使用 fabric 隔离方式当没有中断集群的通信,集群节点可能会收到其自身隔离的通知信息。允许的值为 stop,来尝试立即停止 Pacemaker 并保持停止状态,或者为 panic ,来尝试立即重启本地节点,并在失败时退回到停止状态。

虽然此属性的默认值已停止 但这个值的最安全选择是 panic,它会尝试立即重启本地节点。如果您希望使用 stop(通常是使用 fabric 隔离方式时),建议对这个参数进行明确设定。

priority-fencing-delay

0(禁用)

(RHEL 8.3 及更高版本)设置一个隔离延迟,允许您配置一个双节点集群,以便在脑裂情况下,运行最少或最小重要资源的节点是被隔离的节点。有关隔离延迟参数及其相互作用的一般信息,请查看 隔离延迟

有关设置集群属性的详情,请参考 设置和删除集群属性

10.4. 隔离延迟

当集群通信在双节点集群中丢失时,一个节点可能首先检测到此节点,并隔离其他节点。但是,如果两个节点同时检测到这个,则每个节点都可以启动其他节点的隔离,使两个节点关闭或重置。通过设置隔离延迟,您可以降低两个集群节点相互隔离的可能性。您可以在具有超过两个节点的集群中设置延迟,但这通常不会有任何好处,因为只有具有仲裁的分区将启动隔离。

您可以根据系统要求设置不同类型的隔离延迟。

  • 静态隔离延迟

    静态隔离延迟是一个固定的、预先确定的延迟。在一个节点上设置静态延迟使该节点更有可能被隔离,因为它增加了检测到丢失的通信后,其他节点首先启动隔离的机会。在主动/被动集群中,在被动节点上设置一个延迟,使得在通信中断时,被动节点将更有可能被隔离。您可以使用 pcs_delay_base 集群属性配置静态延迟。当将单独的隔离设备用于每个节点时,或者在将单个隔离设备用于所有节点时(从 RHEL 8.6 开始)设置此属性。

  • 动态隔离延迟

    动态隔离延迟是随机的。它可能会有所不同,并在需要隔离时确定。您可以配置一个随机延迟,并使用 pcs_delay_max 集群属性为组合的基本延迟和随机延迟指定最大值。当每个节点的隔离延迟是随机的时,被隔离的节点也是随机的。如果您的集群被配置为在主动/主动设计中具有所有节点的单个隔离设备,则可能会发现此功能很有用。

  • 优先级隔离延迟

    优先级隔离延迟基于活跃的资源优先级。如果所有资源具有相同的优先级,则运行最少资源的节点是被隔离的节点。在大多数情况下,您只使用一个与延迟相关的参数,但可以组合它们。合并与延迟相关的参数,将资源的优先级值加在一起,以创建总延迟。您可以使用 priority-fencing-delay 集群属性配置优先级隔离延迟。您可以在主动/主动集群设计中发现此功能,因为它可以在节点之间的通信丢失时让运行最少资源的节点更有可能被隔离。

pcmk_delay_base 集群属性

设置 pcmk_delay_base 集群属性为隔离启用了基本延迟,并指定了基本延迟值。

当您除了设置 pcmk_delay_base 属性,又设置了 pcmk_delay_max 集群属性时,整个延迟会从添加到此静态延迟的随机延迟值中派生,以便总和保持在最大延迟之下。当您设置了 pcmk_delay_base ,但没有设置 pcmk_delay_max 时,延迟没有随机的组件,它将是 pcmk_delay_base 的值。

从 Red Hat Enterprise Linux 8.6 开始,您可以使用 pcmk_delay_base 参数为不同的节点指定不同的值。这允许在双节点集群中使用单个隔离设备,每个节点有不同的延迟。您不需要配置两个单独的设备来使用单独的延迟。要为不同的节点指定不同的值,您可以使用类似于 pcmk_host_map 的语法将主机名映射为该节点的延迟值。例如,node1:0;node2:10s 在隔离 node1 时使用无延迟,在隔离 node2 时,使用 10 秒延迟。

pcmk_delay_max 集群属性

设置 pcmk_delay_max 集群属性启用了隔离操作的随机延迟,并指定了最大延迟,这是组合的基本延迟和随机延迟的最大值。例如,如果基本延迟为 3,并且 pcmk_delay_max 为 10,则随机延迟将在 3 和 10 之间。

当您除了设置 pcmk_delay_max 属性外,还设置了 pcmk_delay_base 集群属性时,整个延迟是从添加到此静态延迟的随机延迟值中派生的,以便总和保持在最大延迟之下。当您设置 pcmk_delay_max ,但没有设置 pcmk_delay_base 时,这个延迟没有静态组件。

priority-fencing-delay 集群属性

(RHEL 8.3 及更高版本)设置 priority-fencing-delay 集群属性,允许您配置一个双节点集群,以便在脑裂情况下,运行最少或最少重要的资源的节点会被隔离。

priority-fencing-delay 属性可以设置为持续时间。这个属性的默认值为 0(禁用)。如果将此属性被设置为非零值,并且优先级 meta-attribute 为至少一个资源进行了配置,那么在脑裂的情况下,在其上运行的具有所有资源的最高组合优先级的节点将更有可能保持正常运行。例如,如果您设置了 pcs resource defaults update priority=1pcs property set priority-fencing-delay=15s,且没有设置其他优先级,那么运行最多资源的节点将更有可能保持正常运行,因为其他节点在启动隔离前将等待 15 秒。如果特定资源比其他资源更重要,您可以赋予它更高的优先权。

如果为该克隆配置了优先级,运行可升级的克隆 master 角色的节点会得到额外的 1 点。

隔离延迟的交互

设置多种类型的隔离延迟会产生以下结果:

  • 使用 priority-fencing-delay 属性设置的任何延迟都被添加到 pcmk_delay_basepcmk_delay_max 隔离设备属性中的任何延迟中。当两个节点具有相等的优先级时,或者两个节点因为节点丢失以外的原因需要隔离时,这种行为允许一些延迟,例如当为资源监控器操作设置了 on-fail=fencing 时。当设置这些延迟的组合时,将 priority-fencing-delay 属性设置为一个明显大于pcmk_delay_basepcmk_delay_max 中的最大延迟的值,以确保优先级的节点是首选的。将此属性设置为此值的两倍通常是安全的。
  • 只有 Pacemaker 本身调度的隔离才能观察到隔离延迟。由外部代码(如 dlm_controld)调度的隔离和由 pcs stonith fence 命令实现的隔离不会向隔离设备提供必要信息。
  • 有些单独的隔离代理实现一个延迟参数,其名称由代理决定,并且其独立于使用 pcmk_delay_* 属性配置的延迟。如果同时配置了这些延迟,它们会被加在一起,通常不会一起使用。

10.5. 测试隔离设备

隔离是红帽群集基础架构的基本部分,验证或测试隔离是否正常工作非常重要。

流程

使用以下步骤测隔离护设备。

  1. 使用 ssh、telnet、HTTP 或者任何远程协议连接到该设备以便手动登录并测试隔离设备或者查看给出的输出。例如,如果您要为启用了 IPMI 的设备配置隔离,请尝试使用 ipmitool 远程登录。记录手动登录时使用的选项,因为在使用隔离代理时可能需要使用这些选项。

    如果您无法登录到隔离设备,请确定设备是可以被 ping 到的,没有因为如防火墙等配置限制对隔离设备的访问,在隔离设备中启用了远程访问,且有正确的凭证。

  2. 使用隔离代理脚本手动运行隔离代理。这不需要集群服务正在运行,因此您可以在集群配置该设备前执行这个步骤。这可保证在继续前隔离设备响应正常。

    注意

    这些示例将 fence_ipmilan 隔离代理脚本用于 iLO 设备。您使用的实际隔离代理以及调用代理的命令取决于服务器硬件。您应该参考您使用的隔离保护代理的 man 页来确定要指定的选项。您通常需要了解隔离设备的登录和密码,以及其它与该隔离设备相关的信息。

    以下示例显示了使用 -o status 参数运行 fence_ipmilan 隔离代理脚本的格式,以检查另一个节点上的隔离设备接口的状态,而不实际对其进行隔离。这可让您在尝试重新引导节点前测试该设备并使其可用。在运行这个命令时,您可以为 iLO 设备指定打开和关闭权限的 iLO 用户的名称和密码。

    # fence_ipmilan -a ipaddress -l username -p password -o status

    以下示例显示了使用 -o reboot 参数运行 fence_ipmilan 隔离代理脚本的格式。在一个节点上运行此命令可重新引导此 iLO 设备管理的节点。

    # fence_ipmilan -a ipaddress -l username -p password -o reboot

    如果隔离代理无法正确地执行 status、off、on 或 reboot 操作,您应该检查硬件、隔离设备的配置以及命令的语法。另外,您可以运行启用了 debug 输出的隔离代理脚本。调试输出会记录隔离设备时失败的事件,对于一些隔离代理,这个信息可能非常有用。

    # fence_ipmilan -a ipaddress -l username -p password -o status -D /tmp/$(hostname)-fence_agent.debug

    当诊断发生的故障时,您应该确定手动登录到隔离设备时指定的选项与您使用隔离代理传递给隔离代理的操作相同。

    对于支持加密连接的隔离代理,您可能会因为证书验证失败而看到错误,这需要您信任主机或使用隔离代理的 ssl-insecure 参数。同样,如果在目标设备上禁用了 SSL/TLS,可能需要在为隔离代理设置 SSL 参数时考虑此事项。

    注意

    如果正在测试的隔离代理是 fence_dracfence_ilo 或系统管理设备的其他一些隔离代理,并且仍会尝试 fence_ipmilan。大多数系统管理卡支持 IPMI 远程登录,唯一支持的隔离代理是 fence_ipmilan

  3. 在群集中使用手动运行并启动群集相同的选项配置隔离设备后,可以从任何节点(或者多次来自不同节点)使用 pcs stonith fence 命令测试隔离,如下例所示。pcs stonith fence 命令从 CIB 中读取群集配置,并调用配置的隔离代理来执行隔离操作。这会验证集群配置是否正确。

    # pcs stonith fence node_name

    如果 pcs stonith fence 命令正常工作,这意味着发生隔离事件时群集的隔离配置应该可以正常工作。如果命令失败,这意味着集群管理无法通过它获取的配置调用隔离设备。检查以下问题并根据需要更新集群配置。

    • 检查您的隔离配置。例如,如果您使用了主机映射,则应该确保系统可以使用您提供的主机名查找节点。
    • 检查该设备的密码和用户名是否包含 bash shell 可能会错误解析的特殊字符。请确定,使用引号来包括您输入的密码和用户名是否可以解决这个问题。
    • 检查是否可以使用您在 pcs stonith 命令中指定的 IP 地址或主机名连接到该设备。例如:如果您在 stonith 命令中给出主机名,但使用 IP 地址进行测试,则这不是一个有效的测试。
    • 如果您可以访问您的隔离设备使用的协议,使用那个协议尝试连接该设备。例如,很多代理都使用 ssh 或者 telnet。您应该尝试使用您在配置该设备时提供的凭证连接到该设备,查看是否收到有效提示符并登录该设备。

      如果您确定所有参数都正确,但仍无法连接到隔离设备,则可以查看隔离设备的日志信息(如果隔离设备提供了日志)。这会显示该用户是否已连接以及该用户发出什么命令。您还可以在 /var/log/messages 文件中搜索 stonith 和 error 实例,它们可以让大家了解正在转换的内容,但有些代理可以提供更多信息。

  4. 隔离设备测试正常工作并启动并运行集群后,测试实际故障。要做到这一点,在集群中执行应启动令牌丢失的操作。

    • 关闭网络。如何关闭网络取决于您的具体配置。在很多情况下,您可以从主机中物理拔掉网线或电源电缆。有关模拟网络故障的详情,请查看红帽知识库解决方案 在 RHEL 集群上模拟网络故障的正确方法是什么?

      注意

      不推荐通过在本地主机中禁用网络接口而不是物理断开网线或者电源电缆的方法进行测试,因为这无法准确模拟典型的实际失败。

    • 使用本地防火墙的阻塞 corosync 的入站和出站网络流落。

      以下示例会阻止 corosync,假设使用默认的 corosync 端口,firewalld 用作本地防火墙,corosync 使用的网络接口位于默认防火墙区内:

      # firewall-cmd --direct --add-rule ipv4 filter OUTPUT 2 -p udp --dport=5405 -j DROP
      # firewall-cmd --add-rich-rule='rule family="ipv4" port port="5405" protocol="udp" drop
    • 使用 sysrq-trigger 模拟崩溃,并使您的机器死机。请注意,触发内核 panic 可能会导致数据丢失 ; 建议首先禁用集群资源。

      # echo c > /proc/sysrq-trigger

10.6. 配置隔离级别

Pacemaker 通过一个称为隔离拓扑的功能实现有多个设备的节点的隔离。要实现拓扑结构,根据常规创建独立设备,然后在配置中的隔离拓扑部分定义一个或多个隔离级别。

Pacemaker 处理隔离级别,如下所示:

  • 级别以整数形式递增,从 1 开始。
  • 如果设备失败,对当前级别的处理会中断。不会执行该级别的其他设备,而是尝试下一个级别。
  • 如果所有设备被成功隔离,那么该级别已成功,且不会尝试其他级别。
  • 当一个级别被通过(success)或所有级别都已经被尝试(failed)后,操作就会完成。

使用以下命令为节点添加隔离级别。这些设备以逗号分开的 stonith id 列表形式提供,对该级别的节点尝试使用这些设备。

pcs stonith level add level node devices

以下命令列出目前配置的所有隔离级别。

pcs stonith level

在以下示例中,为节点 rh7-2 配置了两个隔离设备:名为 my_ilo 的 ilo 隔离设备,以及名为 my_apc 的 apc 隔离设备。这些命令设定隔离级别,以便在设备 my_ilo 失败且无法隔离该节点时,Pacemaker 将尝试使用设备 my_apc。本例还显示了配置级别后, pcs stonith level 命令的输出。

# pcs stonith level add 1 rh7-2 my_ilo
# pcs stonith level add 2 rh7-2 my_apc
# pcs stonith level
 Node: rh7-2
  Level 1 - my_ilo
  Level 2 - my_apc

以下命令删除指定节点和设备的隔离级别。如果没有指定节点或设备,则您指定的隔离级别会从所有节点中删除。

pcs stonith level remove level  [node_id] [stonith_id] ... [stonith_id]

以下命令清除指定节点或者 stonith id 的隔离级别。如果您没有指定节点或 stonith id,则会清除所有隔离级别。

pcs stonith level clear [node]|stonith_id(s)]

如果您指定一个以上的 stonith id,则必须用逗号分开(不要有空格),如下例所示。

# pcs stonith level clear dev_a,dev_b

以下命令可验证所有在隔离级别指定的隔离设备和节点是否存在。

pcs stonith level verify

您可以在隔离拓扑中通过在节点名称上应用的正则表达式、节点属性及其值来指定节点。例如,以下命令将节点 node1node2node3 配置为使用隔离设备 apc1apc2,将节点 node4node5node6 配置为使用隔离设备 apc3apc4

# pcs stonith level add 1 "regexp%node[1-3]" apc1,apc2
# pcs stonith level add 1 "regexp%node[4-6]" apc3,apc4

以下命令通过使用节点属性匹配得到同样的结果。

# pcs node attribute node1 rack=1
# pcs node attribute node2 rack=1
# pcs node attribute node3 rack=1
# pcs node attribute node4 rack=2
# pcs node attribute node5 rack=2
# pcs node attribute node6 rack=2
# pcs stonith level add 1 attrib%rack=1 apc1,apc2
# pcs stonith level add 1 attrib%rack=2 apc3,apc4

10.7. 配置冗余电源的隔离

当为冗余电源配置隔离时,集群必须确保在尝试重启主机时,在恢复电源前两个电源都关闭。

如果节点永远无法完全断电,则该节点可能无法释放其资源。这可能会导致同时访问这些资源,并导致节点崩溃的问题。

您需要为每个设备定义一次,并指定它们需要隔离该节点,如下例所示。

# pcs stonith create apc1 fence_apc_snmp ipaddr=apc1.example.com login=user passwd='7a4D#1j!pz864' pcmk_host_map="node1.example.com:1;node2.example.com:2"

# pcs stonith create apc2 fence_apc_snmp ipaddr=apc2.example.com login=user passwd='7a4D#1j!pz864' pcmk_host_map="node1.example.com:1;node2.example.com:2"

# pcs stonith level add 1 node1.example.com apc1,apc2
# pcs stonith level add 1 node2.example.com apc1,apc2

10.8. 显示配置的隔离设备

以下命令显示所有目前配置的隔离设备。如果指定了 stonith_id,命令仅显示那个配置的隔离设备的选项。如果指定了 --full 选项,则会显示所有配置的隔离选项。

pcs stonith config [stonith_id] [--full]

10.9. 将隔离设备导出为 pcs 命令

从 Red Hat Enterprise Linux 8.7 开始,您可以显示 pcs 命令,该命令可用于使用 pcs stonith config 命令的 --output-format=cmd 选项来在不同的系统上重新创建配置的隔离设备。

以下命令创建一个 fence_apc_snmp 隔离设备,并显示您可以用来重新创建设备的 pcs 命令。

# pcs stonith create myapc fence_apc_snmp ip="zapc.example.com" pcmk_host_map="z1.example.com:1;z2.example.com:2" username="apc" password="apc"
# pcs stonith config --output-format=cmd
Warning: Only 'text' output format is supported for stonith levels
pcs stonith create --no-default-ops --force -- myapc fence_apc_snmp \
  ip=zapc.example.com password=apc 'pcmk_host_map=z1.example.com:1;z2.example.com:2' username=apc \
  op \
    monitor interval=60s id=myapc-monitor-interval-60s

10.10. 修改和删除隔离设备

使用以下命令向当前配置的隔离设备修改或添加选项。

pcs stonith update stonith_id [stonith_device_options]

使用 pcs stonith update 命令更新 SCSI 隔离设备会导致运行隔离资源的同一节点上运行的所有资源重启。从 RHEL 8.5 开始,您可以使用以下命令的任一版本更新 SCSI 设备,而不会导致其他集群资源重启。从 RHEL 8.7 开始,SCSI 隔离设备可配置为多路径设备。

pcs stonith update-scsi-devices stonith_id set device-path1 device-path2
pcs stonith update-scsi-devices stonith_id add device-path1 remove device-path2

使用以下命令从当前的配置中删除隔离设备。

pcs stonith delete stonith_id

10.11. 手动隔离一个集群节点

您可以使用以下命令手动隔离节点。如果您指定了 --off,这将使用 off API 调用 stonith 来关闭节点,而不是重启节点。

pcs stonith fence node [--off]

如果隔离设备无法隔离节点,即使它不再活跃,集群可能无法恢复该节点中的资源。如果发生了这种情况,在手动确定该节点已关闭后,您可以输入以下命令向集群确认节点已关闭,并释放其资源以用于恢复。

警告

如果您指定的节点实际上没有关闭,但运行了通常由集群控制的集群软件或服务,则数据崩溃/集群失败将发生。

pcs stonith confirm node

10.12. 禁用隔离设备

要禁用隔离设备/资源,请运行 pcs stonith disable 命令。

以下命令禁用隔离设备 myapc

# pcs stonith disable myapc

10.13. 防止节点使用隔离设备

要防止特定节点使用隔离设备,您可以为隔离资源配置位置限制。

以下示例阻止隔离设备 node1-ipminode1 上运行。

# pcs constraint location node1-ipmi avoids node1

10.14. 配置 ACPI 以用于集成的隔离设备

如果您的集群使用集成的隔离设备,必须配置 ACPI(高级配置和电源界面)以保证迅速和完全的隔离。

如果将集群节点配置为使用集成的隔离设备保护,则为该节点禁用 ACPI Soft-Off。禁用 ACPI Soft-Off 可让集成的隔离设备立即完全关闭节点,而不是尝试彻底关闭(例如,现在的 shutdown -h)。否则,如果启用了 ACPI Soft-Off,集成的隔离设备可能需要 4 秒以上的时间来关闭节点(请参阅下面的备注)。另外,如果启用了 ACPI Soft-Off,且在关闭过程中有一个节点 panic 或停滞,则集成的保护设备可能无法关闭该节点。在这些情况下,隔离会被延迟或者失败。因此,当使用集成隔离设备隔离节点并启用 ACPI Soft-Off时,集群恢复会很慢,或者需要管理员进行干预才能恢复。

注意

保护节点所需时间取决于所使用的集成的保护设备。有些集成的保护设备性能与按住电源按钮相当,因此隔离设备可在 4-5 秒内关闭该节点。其他集成的隔离设备性能与按电源开关一致,依靠操作系统关闭该节点,因此隔离设备关闭该节点的时间要大大超过 4-5 秒。

  • 禁用 ACPI Soft-Off 的首选方法是将 BIOS 设置更改为"instant-off"或无延迟关闭该节点的对等设置,如以下"Disabling ACPI Soft-Off"中所述。

使用 BIOS 禁用 ACPI Soft-Off 可能不适用于某些系统。如果无法使用 BIOS 禁用 ACPI Soft-Off,您可以使用以下备选方法之一禁用 ACPI Soft-Off:

  • /etc/systemd/logind.conf 文件中设置 HandlePowerKey=ignore,并验证隔离时节点是否立即关闭,如下所述。这是禁用 ACPI Soft-Off 的第一个替代方法。
  • 在内核引导命令行中附加 acpi=off,如下面的 GRUB 2 文件中"完全显示 ACPI"所述。这是禁用 ACPI Soft-Off 的第二个替代方法,如果首选方法或第一个替代方法不可用。

    重要

    这个方法可完全禁用 ACPI。当 ACPI 被完全禁用时,以下计算机可能无法正确引导。只有在其他方法无法在您的集群中使用时,才使用这个方法。

10.14.1. 使用 BIOS 禁用 ACPI Soft-Off

您可以按照以下步骤配置每个集群节点的 BIOS 来禁用 ACPI Soft-Off。

注意

使用 BIOS 禁用 ACPI Soft-Off 的步骤可能因服务器系统而异。您应该在您的硬件文档中验证此步骤。

流程

  1. 重新引导节点并启动 BIOS CMOS 设置实用程序 程序。
  2. 进入 Power 菜单(或者对等的电源管理菜单)。
  3. 在 Power 菜单中,将 PWR-BTTN 功能(或等效) 的 Soft-Off 设置为 Instant-Off (或者使用电源按钮无延迟关闭节点的对等设置)。下面的 BIOS CMOS 设置实用程序示例 显示了一个 Power 菜单,并将 ACPI 功能 设置为 Enabled ,而 PWR-BTTN 设置为 Instant-Off

    注意

    ACPI FunctionSoft-Off by PWR-BTTNInstant-Off 等效的功能可能因计算机而异。但这个过程的目的是配置 BIOS,以便计算机能无延迟地关闭电源按钮。

  4. 退出 BIOS CMOS 设置实用程序 程序,保存 BIOS 配置。
  5. 验证在隔离时该节点是否立即关闭。有关测试隔离设备的详情,请参考 测试隔离设备

BIOS CMOS 设置实用程序

`Soft-Off by PWR-BTTN` set to
`Instant-Off`

+---------------------------------------------|-------------------+
|    ACPI Function             [Enabled]      |    Item Help      |
|    ACPI Suspend Type         [S1(POS)]      |-------------------|
|  x Run VGABIOS if S3 Resume   Auto          |   Menu Level   *  |
|    Suspend Mode              [Disabled]     |                   |
|    HDD Power Down            [Disabled]     |                   |
|    Soft-Off by PWR-BTTN      [Instant-Off   |                   |
|    CPU THRM-Throttling       [50.0%]        |                   |
|    Wake-Up by PCI card       [Enabled]      |                   |
|    Power On by Ring          [Enabled]      |                   |
|    Wake Up On LAN            [Enabled]      |                   |
|  x USB KB Wake-Up From S3     Disabled      |                   |
|    Resume by Alarm           [Disabled]     |                   |
|  x  Date(of Month) Alarm       0            |                   |
|  x  Time(hh:mm:ss) Alarm       0 :  0 :     |                   |
|    POWER ON Function         [BUTTON ONLY   |                   |
|  x KB Power ON Password       Enter         |                   |
|  x Hot Key Power ON           Ctrl-F1       |                   |
|                                             |                   |
|                                             |                   |
+---------------------------------------------|-------------------+

本例演示了 ACPI Function 设置为 EnabledSoft-Off by PWR-BTTN 设置为 Instant-Off

10.14.2. 在 logind.conf 文件中禁用 ACPI Soft-Off

要禁用 /etc/systemd/logind.conf 文件中的 power-key 握手,请使用以下步骤。

流程

  1. /etc/systemd/logind.conf 文件中定义以下配置:

    HandlePowerKey=ignore
  2. 重启 systemd-logind 服务:

    # systemctl restart systemd-logind.service
  3. 验证在隔离时该节点是否立即关闭。有关测试隔离设备的详情,请参考 测试隔离设备

10.14.3. 在 GRUB 2 文件中完全禁用 ACPI

您可以通过在内核的 GRUB 菜单条目中添加 acpi=off 来禁用 ACPI Soft-Off。

重要

这个方法可完全禁用 ACPI。当 ACPI 被完全禁用时,以下计算机可能无法正确引导。只有在其他方法无法在您的集群中使用时,才使用这个方法。

流程

在 GRUB 2 文件中使用以下步骤禁用 ACPI:

  1. --args 选项与 grubby 工具的 --update-kernel 选项结合使用,以更改每个群集节点的 grub.cfg 文件,如下所示:

    # grubby --args=acpi=off --update-kernel=ALL
  2. 重新引导节点。
  3. 验证在隔离时该节点是否立即关闭。有关测试隔离设备的详情,请参考 测试隔离设备

第 11 章 配置集群资源

使用以下命令创建和删除集群资源。

创建集群资源的命令格式如下:

pcs resource create resource_id [standard:[provider:]]type [resource_options] [op operation_action operation_options [operation_action operation options]...] [meta meta_options...] [clone [clone_options] | master [master_options] [--wait[=n]]

集群资源创建的关键选项包括:

  • --before--after 选项指定添加的资源相对于资源组中已存在的资源的位置。
  • 指定 --disabled 选项表示资源不会被自动启动。

对集群中可以创建的资源数量没有限制。

您可以通过配置该资源的约束来决定集群中资源的行为。

资源创建示例

以下命令创建一个 standard的 ocf 、名为 VirtualIP 的资源,provider 为 heartbeat,类型为 IPaddr2 。这个资源的浮动地址是 192.168.0.120,系统会每 30 秒检查一次这个资源是否在运行。

# pcs resource create VirtualIP ocf:heartbeat:IPaddr2 ip=192.168.0.120 cidr_netmask=24 op monitor interval=30s

另外,您可以忽略 standardprovider 性,并使用以下命令。这将默认为 ocf 标准, heartbeat 的provider。

# pcs resource create VirtualIP IPaddr2 ip=192.168.0.120 cidr_netmask=24 op monitor interval=30s

删除配置的资源

使用以下命令删除一个配置的资源。

pcs resource delete resource_id

例如,以下命令将删除资源 ID 为 VirtualIP 的现有资源

# pcs resource delete VirtualIP

11.1. 资源代理标识符

您为资源定义的标识符告诉集群用于该资源的代理,在哪里找到代理及其合规标准。

下表描述了资源代理的这些属性。

表 11.1. 资源代理标识符
描述

standard

代理符合的标准。允许的值及其含义:

* OCF - 指定 类型 是符合 Open Cluster Framework 资源代理 API 的可执行文件名称,位于 /usr/lib/ocf/resource.d/provider

* L SB - 指定 类型 是符合 Linux Standard Base Init Script Actions 的可执行文件名称。如果类型没有指定完整路径,系统将在 /etc/init.d 目录中查找它。

* systemd - 指定 类型 是已安装的 systemd 单元的名称

* service - Pacemaker 将搜索指定 类型,首先作为 lsb 代理,然后作为 systemd 代理

* Nagios - 指定 的类型是符合 Nagios Plugin API 的可执行文件名称,位于 /usr/libexec/nagios/plugins 目录中,OCF 样式的元数据单独存储在 /usr/share/nagios/plugins-metadata 目录中(可在特定常见插件的 nagios-agents-metadata 软件包中找到)。

type

要使用的资源代理的名称,如 IPaddr 或 Filesystem

provider

OCF spec 允许多个厂商提供相同的资源代理。红帽提供的大多数代理都使用 heartbeat 作为provider。

下表总结了显示可用资源属性的命令:

表 11.2. 显示资源属性的命令
pcs Display 命令Output

pcs resource list

显示所有可用资源的列表。

pcs 资源标准

显示可用资源代理标准列表。

pcs resource provider

显示可用资源代理供应商列表。

pcs resource list 字符串

显示根据指定字符串过滤的可用资源列表。您可以使用这个命令显示根据标准名称、供应商或类型过滤的资源。

11.2. 显示特定于资源的参数

对于任何单独的资源,您可以使用以下命令显示资源描述、您可以为该资源设置的参数以及为资源设置的默认值。

pcs resource describe [standard:[provider:]]type

例如,以下命令显示类型为 apache 的资源的信息:

# pcs resource describe ocf:heartbeat:apache
This is the resource agent for the Apache Web server.
This resource agent operates both version 1.x and version 2.x Apache
servers.

...

11.3. 配置资源 meta 选项

除了特定于资源的参数外,您还可以为任何资源配置其他资源选项。集群会使用这些选项来决定您的资源的行为。

下表描述了资源 meta 选项。

表 11.3. 资源元数据选项
默认值描述

priority

0

如果不是所有资源都处于活跃状态,集群将停止较低优先级的资源,以便保持优先权更高的资源的活跃状态。

target-role

Started

指明集群应尝试将此资源保持在什么状态。允许的值:

Stopped - 强制资源停止

* Started - 允许资源启动(如果是可升级的克隆,则提升到 master 角色)

* Master - 允许资源启动,并在可能的情况下提升资源

* Slave - 允许资源启动,但如果资源是可升级的,则仅在 slave 模式下

从 RHEL 8.5 开始,pcs 命令行界面接受在 Pacemaker 配置中指定的 PromotedUnpromoted 任何角色。这些角色名称在功能上等同于 MasterSlave Pacemaker 角色。

is-managed

true

指明是否允许集群启动和停止资源。允许的值: true,false

resource-stickiness

0

指示资源倾向于保留在当前位置的程度。有关此属性的详情,请参考 配置资源以首选其当前节点

requires

Calculated

指示可在什么情况下启动资源。

除非在下列情况下,否则默认为 fencing。可能的值:

* nothing - 集群总是可以启动资源。

* quorum - 只有在大多数配置的节点处于活动状态时,集群才能启动此资源。如果 stonith-enabledfalse 或资源 的标准 is stonith,则这是默认值。

* 隔离 - 只有大多数配置的节点活跃 隔离任何失败或未知节点时,集群才能启动此资源。

* 取消隔离 - 只有大多数配置的节点活跃 所有失败或未知节点都被隔离, 只能在未 隔离的 节点上,集群才能启动此资源。如果为隔离设备设置了 provides=unfencing stonith 元选项,则这是默认值。

migration-threshold

INFINITY

在此节点被标记为不允许托管此资源之前,资源在此节点上可能会发生多少次故障。值 0 表示禁用了此功能(节点永远不会标记为无效);相反,集群将 INFINITY (默认值)视为非常大但有限的数。只有在失败的操作有 on-fail=restart (默认值)时,这个选项才会生效,如果集群属性 start-failure-is-fatalfalse,则此选项还可用于失败的启动操作。

failure-timeout

0 (禁用)

忽略之前失败的资源操作,并在没有新的失败的情况下传递。如果之前达到其迁移阈值,这可能允许资源返回到失败的节点。值 0 表示失败不会过期。

警告 :如果这个值较低,且待处理的集群活动会阻止集群在这个时间内响应失败,则失败会被完全忽略,且不会导致恢复资源,即使重复操作继续报告失败。这个选项的值应至少大于集群中所有资源的最长操作超时。以小时或天为单位的值合理。

multiple-active

stop_start

如果在多个节点上找到活跃的资源,指示集群应该做什么。允许的值:

* block - 将资源标记为非受管

* stop_only - 停止所有活动的实例,并使其保持这种状态

* stop_start - 停止所有活跃的实例,并仅在一个位置启动资源

* stop_unexpected - (RHEL 8.7 及更高版本)只停止资源的意外实例,而无需完全重启。用户负责验证服务及其资源代理是否可以与额外的活跃实例一起正常工作,而无需全面重启。

critical

true

(RHEL 8.4 及更新的版本)为涉及资源作为依赖资源(target_resource)的所有 colocation 约束设置 影响 选项的默认值,包括当资源是资源组的一部分时创建的隐式 colocation 约束。影响 colocation 约束选项决定了当依赖资源达到其迁移阈值失败时,集群是否会同时将主资源和依赖资源移到另一节点,或者集群是否在不造成服务切换的情况下将依赖资源离线。critical 资源 meta 选项的值可以是 truefalse,默认值为 true

allow-unhealthy-nodes

false

(RHEL 8.7 及更高版本)当设为 true 时,因为节点健康状况降级,资源不会强制关闭节点。当健康资源设置了此属性时,集群可以自动检测节点的健康状态恢复,并将资源移回节点。节点的健康是由健康资源代理根据本地情况设置的健康属性以及决定集群如何响应这些条件的与策略相关的选项的组合决定的。

11.3.1. 更改资源选项的默认值

从 Red Hat Enterprise Linux 8.3 开始,您可以使用 pcs resource defaults update 命令为所有资源更改默认值。以下命令将 resource-stickiness 的默认值重置为 100。

# pcs resource defaults update resource-stickiness=100

pcs resource defaults name=value 命令为之前版本中的所有资源设置默认值,保持支持,除非配置了多个默认值。但是,pcs resource defaults update 现在是 命令的首选版本。

11.3.2. 更改一组资源的资源选项的默认值

从 Red Hat Enterprise Linux 8.3 开始,您可以使用 pcs resource defaults set create 命令创建 多个资源默认值集合,该命令允许您指定包含 资源 表达式的规则。在 RHEL 8.3 中,您使用这个命令指定的规则只允许 资源 表达式,包括 andor 和括号。在 RHEL 8.4 及更高版本中,您使用这个命令指定的规则中只允许 资源和 日期 表达式,包括 和括号。

使用 pcs resource defaults set create 命令时,您可以为特定类型的所有资源配置默认值。例如,如果您正在运行数据库需要很长时间才能停止,您可以提高数据库类型的资源 粘性 默认值,以防止这些资源更频繁地移至其他节点。

以下命令将 pqsql 类型 的所有资源的 resource-stickiness 默认值设置为 100。

  • id 选项命名资源默认值集合,不强制使用。如果您不设置此选项,pc s 将自动生成 ID。设置这个值可让您提供更描述性的名称。
  • 在本例中,::pgsql 表示 type pgsql 的任何类(任何提供程序)的资源。

    • 指定 ocf:heartbeat:pgsql 将指示类 ocf, provider heartbeat, type pgsql,
    • 指定 ocf:pacemaker: 可以指示任何类型的 ocf、提供商 pacemaker 的所有资源。
# pcs resource defaults set create id=pgsql-stickiness meta resource-stickiness=100 rule resource ::pgsql

要更改现有集合中的默认值,请使用 pcs resource defaults set update 命令。

11.3.3. 显示当前配置的资源默认设置

pcs resource defaults 命令显示目前配置的资源选项默认值的列表,包括您指定的任何规则。

以下示例显示了在将 resource-stickiness 的默认值重置为 100 后,此命令的输出。

# pcs resource defaults
Meta Attrs: rsc_defaults-meta_attributes
  resource-stickiness=100

以下示例显示了在将 pqsql 类型的所有资源的 resource-stickiness 重置为 100 后这个命令的输出,并将 id 选项设置为 id =pgsql-stickiness

# pcs resource defaults
Meta Attrs: pgsql-stickiness
  resource-stickiness=100
  Rule: boolean-op=and score=INFINITY
    Expression: resource ::pgsql

11.3.4. 在创建资源时设置 meta 选项

是否重置资源 meta 选项的默认值,您可以在创建资源时将特定资源的资源选项设置为默认值,而不是默认值。以下显示了在为资源元选项指定值时使用的 pcs resource create 命令的格式。

pcs resource create resource_id [standard:[provider:]]type [resource options] [meta meta_options...]

例如,以下命令创建一个 resource-stickiness 值为 50 的资源。

# pcs resource create VirtualIP ocf:heartbeat:IPaddr2 ip=192.168.0.120 meta resource-stickiness=50

您还可以使用以下命令为现有资源、组或克隆的资源设置资源 meta 选项的值。

pcs resource meta resource_id | group_id | clone_id meta_options

在以下示例中,有一个名为 dummy_resource 的现有资源。此命令将 failure-timeout 元选项设置为 20 秒,因此资源可在 20 秒内尝试在同一节点上重启。

# pcs resource meta dummy_resource failure-timeout=20s

执行此命令后,您可以显示资源的值,以验证是否设置了 failure-timeout=20s

# pcs resource config dummy_resource
 Resource: dummy_resource (class=ocf provider=heartbeat type=Dummy)
  Meta Attrs: failure-timeout=20s
  ...

11.4. 配置资源组

集集的一个最常见的元素是一组资源,这些资源需要放置在一起,并按顺序启动并按反顺序停止。为简化此配置,Pacemaker 支持资源组的概念。

11.4.1. 创建资源组

您可以使用以下命令创建资源组,指定要包含在组中的资源。如果组不存在,这个命令会创建组。如果组存在,这个命令会向组群添加其他资源。这些资源将按您使用此命令指定的顺序启动,并以相反的顺序停止。

pcs resource group add group_name resource_id [resource_id] ... [resource_id] [--before resource_id | --after resource_id]

您可以使用此命令的 --before--after 选项来指定添加的资源相对于组中已存在的资源的位置。

您还可以使用以下命令在创建新资源时,将新资源添加到现有组中。您创建的资源会添加到名为 group_name 的组中。如果 group_name 不存在,则会创建它。

pcs resource create resource_id [standard:[provider:]]type [resource_options] [op operation_action operation_options] --group group_name

对组可以包含的资源数量没有限制。组群的基本属性如下。

  • 资源在一个组中在一起。
  • 资源按照您指定的顺序启动。如果组中的资源无法在任何位置运行,则不允许在该资源之后指定资源运行。
  • 资源按照您指定的顺序的相反顺序停止。

以下示例创建了一个名为 shortcut 的资源组,其中包含现有的资源 IPaddrEmail

# pcs resource group add shortcut IPaddr Email

在本例中:

  • 首先启动 IPaddr,然后启动 电子邮件
  • 先停止 电子邮件 资源,然后停止 IPAddr
  • 如果 IPaddr 无法在任何地方运行,则 Email 也无法运行。
  • 但是,如果 Email 无法在任何地方运行,这不会影响 IPaddr

11.4.2. 删除资源组

您可以使用以下命令从组中删除资源。如果组中没有剩余资源,这个命令会删除组本身。

pcs resource group remove group_name resource_id...

11.4.3. 显示资源组

以下命令列出所有目前配置的资源组。

pcs resource group list

11.4.4. 组选项

您可以为资源组设置以下选项,它们的含义与为单个资源设置时相同: 优先级、target-roleis-managed。有关资源 meta 选项的详情,请参考 配置资源 meta 选项

11.4.5. 组粘性

粘性(stickiness)在组中是可选的,它代表一个资源倾向于停留在组中的程度。组的每个活跃资源都会为组的总数贡献其粘性值。因此,如果默认的 resource-stickiness 为 100,并且组有 7 个成员,其中 5 个处于活动状态,则整个组将首选其当前位置,分数为 500。

11.5. 确定资源行为

您可以通过配置该资源的约束来决定集群中资源的行为。您可以配置以下约束类别:

  • location 约束 - 位置约束决定资源可在哪个节点上运行。有关配置位置约束的详情,请参阅 确定资源可在哪些节点上运行
  • 顺序 约束 - 排序约束决定资源运行的顺序。有关配置排序约束的详情,请参考 确定集群资源的运行顺序
  • colocation 约束 - 共处约束决定了资源相对于其他资源将被放置在何处。有关托管约束的详情,请参考 托管集群资源

简而言之,配置一组限制会将一组资源放在一起,并确保资源按顺序启动并按相反顺序停止,Pacemaker 支持资源组的概念。创建资源组后,您可以像为单个资源配置限制一样,对组本身配置限制。

第 12 章 确定资源可在哪些节点上运行

位置限制决定资源可在哪些节点上运行。您可以配置位置限制,以确定资源是否首选或避免指定节点。

除了位置约束外,资源运行的节点还受到该资源的 resource-stickiness 值的影响,这决定了资源在当前运行的节点上的保留程度。有关设置 resource-stickiness 值的详情,请参考 配置资源以首选其当前节点

12.1. 配置位置限制

您可以配置基本位置约束,以指定资源首选项还是避免节点,使用可选 分数 值来指示约束的首选程度。

以下命令为资源创建一个位置约束,以偏好指定节点。请注意,可以使用单个命令为多个节点在特定资源上创建限制。

pcs constraint location rsc prefers node[=score] [node[=score]] ...

以下命令为资源创建一个位置约束,以避免指定节。

pcs constraint location rsc avoids node[=score] [node[=score]] ...

下表总结了配置位置限制的基本选项的含义。

表 12.1. 位置限制选项
描述

rsc

资源名称

node

节点的名称

分数

正整数值来指示给定资源应首选的资源还是避免给定节点的首选程度。INFINITY 是资源位置约束的默认 score 值。

pcs constraint location rsc prefers 命令中的 scoreINFINITY 值表示资源将首选可用的节点,但如果指定的节点不可用,则不会阻止资源在其它节点上运行。

pcs constraint location rsc avoids 命令中 scoreINFINITY 值表示该资源永远不会在该节点上运行,即使没有其它节点可用。这等同于设置了 score 为 -INFINITYpcs constraint location add 命令。

数值分数(即 not INFINITY)表示该约束是可选的,除非有其它因素大于它,否则该约束将被遵守。例如,如果资源已放置到其他节点上,其资源粘性 分数高于 首选位置 约束的分数,则该资源将保留在其中。

以下命令创建了一个位置约束,以指定资源 Webserver 首选节点 node1

# pcs constraint location Webserver prefers node1

pcs 支持命令行中位置限制中的正则表达式。这些限制适用于基于正则表达式匹配资源名称的多个资源。这允许您使用单一命令行配置多个位置约束。

以下命令创建了一个位置约束,从资源 dummy0dummy9 都首选 node1

# pcs constraint location 'regexp%dummy[0-9]' prefers node1

因为 Pacemaker 使用 POSIX 扩展正则表达式,如 http://pubs.opengroup.org/onlinepubs/9699919799/basedefs/V1_chap09.html#tag_09_04 所述,您可以使用以下命令指定相同的约束。

# pcs constraint location 'regexp%dummy[[:digit:]]' prefers node1

12.2. 将资源发现限制为节点子集

Pacemaker 在任何位置启动资源前,它首先在每个节点上执行一次性 monitor 操作(通常称为"探测"),以了解资源是否已在运行。这种资源发现的过程可能会导致无法执行 monitor 的节点出现错误。

在节点上配置位置限制时,您可以使用 pcs constraint location 命令的 resource-discovery 选项指示 Pacemaker 是否应该为指定资源在该节点上执行资源发现。将资源发现限制到物理上能够运行的节点子集可能会在有大量节点时显著提高性能。当使用 pacemaker_remote 来将节点数扩展到数百个节点范围时,应考虑此选项。

以下命令显示为 pcs constraint location 命令指定 resource-discovery 选项的格式。在这个命令中,一个正的分值值对应一个基本位置约束,它配置为首选节点,而 分数 的负数值对应配置资源以避免节点的基本位置约束。与基本位置限制一样,您也可以使用这些限制的资源使用正则表达式。

pcs constraint location add id rsc node score [resource-discovery=option]

下表总结了配置资源发现约束的基本参数的含义。

表 12.2. 资源发现约束参数

描述

id

约束本身的用户选择的名称。

rsc

资源名称

node

节点的名称

分数

整数值来指示给定资源应首选的资源还是避免给定节点的首选程度。一个正的分值对应一个基本位置约束,它配置为首选节点,而分数的负数值对应配置资源以避免节点的基本位置约束。

scoreINFINITY 值表示该节点可用时该节点首选,但不会阻止资源在指定节点不可用时在另一节点上运行。score-INFINITY 值表示该资源永远不会在该节点上运行,即使没有其它节点可用。

数值分数(即非 INFINITY 或 -INFINITY)表示约束是可选的,并且会被遵守,除非有其它因素大于其。例如,如果资源已放置到其他节点上,其资源粘性 分数高于 首选位置 约束的分数,则该资源将保留在其中。

resource-discovery 选项

* always - 始终为这个节点上的指定资源执行资源发现。这是资源位置约束的默认 resource-discovery 值。

* never - 不为这个节点上的指定资源执行资源发现。

* 专用 - 仅在此节点上为指定资源执行资源发现(及其他标记为 专用节点)。对跨不同节点的同一资源使用 exclusive 进行多次位置约束,会创建 resource-discovery 独占的节点子集。如果某个资源在一个或多个节点上标记为 exclusive 发现,则该资源仅被允许放在那个节点的子集中。

警告

resource-discovery 设置为 never专用 地删除 Pacemaker 检测和停止在不应该运行的位置中运行的不需要的服务实例的能力。系统管理员可以确保该服务永远无法在没有资源发现的情况下在节点上活跃(比如卸载相关的软件)。

12.3. 配置位置约束策略

在使用位置限制时,您可以配置常规策略来指定资源可在哪些节点上运行:

  • Opt-in 集群 - 配置一个集群,默认情况下没有资源可在任何位置运行,然后有选择地为特定资源启用允许的节点。
  • opt-out 集群 - 配置一个集群,默认情况下,所有资源都可以在任何位置运行,然后为不允许在特定节点上运行的资源创建位置限制。

根据您的需要以及集群的组成,把集群设置为 opt-in 集群还是 opt-out 集群。如果大多数资源可以在大多数节点上运行,那么如果没有选择的协议则可能会导致配置更简单。另一方面,如果大多数资源只能在一小部分节点中运行,那么选择的配置可能比较简单。

12.3.1. 配置 "Opt-In" 集群

要创建一个 opt-in 集群,请将 symmetric-cluster 集群属性设置为 false,以防止资源默认在任何地方运行。

# pcs property set symmetric-cluster=false

为单个资源启用节点。以下命令配置位置约束,以便资源 Webserver 首选节点 example-1 ,资源 Database 首选节点 example-2,如果它们的首选节点都出现故障,则这两个资源都可以切换到节点 example-3。当为 opt-in 集群配置位置限制时,设置零分数可允许资源在节点上运行,而不表示首选或避免该节点。

# pcs constraint location Webserver prefers example-1=200
# pcs constraint location Webserver prefers example-3=0
# pcs constraint location Database prefers example-2=200
# pcs constraint location Database prefers example-3=0

12.3.2. 配置 "Opt-Out" 集群

要创建一个 opt-out 集群,请将 symmetric-cluster 集群属性设置为 true,以允许资源默认可在任何地方运行。如果没有显式设置 symmetric-cluster,则这是默认配置。

# pcs property set symmetric-cluster=true

以下命令将生成一个与"配置"集群"配置"中的示例相当的配置。如果它们的首选节点出现故障,这两个资源都可以切换到节点 example-3,因为每个节点都有一个隐含的为 0 的 score 。

# pcs constraint location Webserver prefers example-1=200
# pcs constraint location Webserver avoids example-2=INFINITY
# pcs constraint location Database avoids example-1=INFINITY
# pcs constraint location Database prefers example-2=200

请注意,不需要在这些命令中指定 INFINITY 分数,因为这是分数的默认值。

12.4. 配置资源以首选其当前节点

资源有 resource-stickiness 值,您可以在创建资源时设为 meta 属性,如 配置资源 meta 选项 中所述。resource-stickiness 值决定资源要在当前运行的节点上保留多少。Pacemaker 会将 resource-stickiness 值与其他设置(例如,位置约束的 score 值)一起考虑,以确定是否将资源移至其它节点还是将其留在原地。

resource-stickiness 值为 0 时,群集可以根据需要移动资源,以在节点之间平衡资源。这可能会导致资源在不相关的资源启动或停止时移动。为正的粘性,资源倾向于保持原处,只有在其他情况超过粘性时才会移动。这可能会导致新添加的节点在没有管理员干预的情况下无法获取分配给它们的任何资源。

默认情况下,创建的资源 resource-stickiness 值为 0。当 resource-stickiness 设置为 0 ,且没有位置约束时,Pacemaker 的默认行为是移动资源,以便在集群节点中平均分配这些资源。这可能导致健康的资源变化频率超过您的要求。要防止这种行为,您可以将 resource-stickiness 的默认值设为 1。此默认值将应用到集群中的所有资源。这个小值可以被您创建的其他限制轻松覆盖,但可以防止 Pacemaker 在集群中无用地移动处于健康状态的资源。

以下命令将默认 资源粘性 值设置为 1。

# pcs resource defaults update resource-stickiness=1

如果 resource-stickiness 值为正,则任何资源都不会移至新添加的节点。如果此时需要资源平衡,您可以临时将资源 resource-stickiness 值设为 0。

请注意,如果位置约束分数高于 资源粘性 值,集群仍然可以将健康资源移至位置约束点的节点。

如需有关 Pacemaker 如何决定放置资源位置的更多信息,请参阅 配置节点放置策略

第 13 章 确定运行集群资源的顺序

要确定资源运行的顺序,您需要配置一个顺序约束。

以下显示了命令配置排序约束的格式。

pcs constraint order [action] resource_id then [action] resource_id [options]

下表总结了配置排序限制的属性和选项。

表 13.1. 顺序约束的属性
描述

resource_id

执行某个操作的资源的名称。

action

要对资源排序的操作。action 属性可能的值如下:

* start - 对资源的启动操作进行排序。

* stop - 对资源的停止操作进行排序。

* promote - 将资源从从(未升级)资源提升到主(升级)资源。

* demote - 将资源从主资源(升级)资源降级到从(未升级)资源。

如果没有指定操作,则 start 为默认操作。

kind 选项

如何强制实施约束。kind 选项可能的值如下:

* Optional - 仅在两个资源都执行指定操作时才适用。有关可选排序的详情,请参考 配置咨询排序

* 强制 - 始终强制实施约束(默认值)。如果您指定的第一个资源是停止或无法启动,则您指定的第二个资源必须停止。有关强制排序的详情,请参考 配置强制排序

* serialize - 确保您指定的资源不会同时发生两个 stop/start 操作。您指定的第一个和第二个资源可以按其中顺序启动,但必须在启动另一个资源前完成。一个典型的用例是资源启动在主机上造成高负载。

symmetrical 选项

如果为 true,则约束的反向适用于相反动作(例如,如果 B 在 A 启动后启动,则 B 在 A 停止前停止)。Serial ize 不能对称的排序限制。对于 MandatoryOptional kind,Serialize 的默认值为 false

使用以下命令从任何排序约束中删除资源。

pcs constraint order remove resource1 [resourceN]...

13.1. 配置必须的排序

一个强制的顺序约束表示,在第一次操作成功完成了第一个资源之前,不应该对第二个资源启动第二个操作。可以排序的操作是 stopstart,对于可升级克隆,还有 demotepromote。例如:"A then B"(相当于 "start A then start B")表示 B 不会被启动,直到 A 成功启动为止。如果约束的 kind 选项设置为 Mandatory,或保留默认值,则必须排序约束。

如果 对称 选项设为 true,或保留为 default,则反向操作将按相反顺序排序。startstop 操作是相反的,降级 和提升 则相反。例如:一个对称 "promote A" 排序意味着 "stop B then demote A" 表示 A 不能被降级,直到 B 成功停止。对称排序表示 A 状态的改变可能会导致操作调度到 B。例如,给定为 "A then B",如果出现故障,B 将首先停止,A 将被停止,A 将启动,然后启动 A,那么 B 将启动。

请注意,集群会响应每个状态的更改。如果第一个资源在第二个资源启动停止操作前再次处于启动状态,则不需要重启第二个资源。

13.2. 配置公告顺序

当为排序约束指定 kind=Optional 选项时,约束被视为可选,且仅在两个资源都执行指定操作时才适用。您指定的第一个资源的状态更改不会对您指定的第二个资源起作用。

以下命令为名为 VirtualIPdummy_resource 的资源配置咨询排序约束。

# pcs constraint order VirtualIP then dummy_resource kind=Optional

13.3. 配置排序的资源集

常见的情况是,管理员创建排序资源链,例如资源 A 在资源 C 之前启动。如果您的配置需要创建一组在一起并启动的资源,您可以配置包含这些资源的资源组。

然而,在有些情况下,配置资源需要以指定顺序启动,因为资源组不合适:

  • 您可能需要配置资源以启动,而且资源不一定是在一起的。
  • 您可能有一个资源 C,它必须在资源 A 或 B 启动后启动,但 A 和 B 之间没有关系。
  • 您可能有资源 C 和 D 在资源 A 和 B 启动时必须启动,但 A 和 B 之间没有关系,C 和 D 之间没有关系。

在这些情况下,您可以使用 pcs constraint set 命令在一组或一组资源中创建排序约束。

您可以使用 pcs constraint order set 命令为一组资源设置以下选项。

  • sequential,可以设为 truefalse,以指示资源集合是否可以相互排序。默认值为 true

    sequential 设为 false ,允许一个集合相对于排序约束中的其他集合进行排序,而不对其成员进行相互排序。因此,只有在约束里列出了多个集合时才有意义 ; 否则,约束无效。

  • require-all,它可以设为 truefalse,以指示集合中的所有资源在继续前是否处于活动状态。将 require-all 设为 false ,表示集合中只有一个资源需要启动,然后才能继续下一个集合。将 require-all 设为 false 没有任何作用,除非与未排序的集合一起使用,未排序的集合是那些 sequential 设置为 false 的集合。默认值为 true
  • action 可被设为 startpromotedemotestop,如 确定集群资源的运行顺序 中"排序约束的属性"表中所述。
  • role,它可以设为 StoppedStartedmasterSlave。从 RHEL 8.5 开始,pcs 命令行界面接受 PromotedUnpromoted 作为 role 的值。PromotedUnpromoted 角色在功能上等同于 MasterSlave 角色。

您可以按照 pcs constraint order set 命令的 setoptions 参数为一组资源设置约束选项。

pcs constraint order set resource1 resource2 [resourceN]... [options] [set resourceX resourceY ... [options]] [setoptions [constraint_options]]

如果您有三个名为 D1D2D3 的资源,以下命令将它们配置为排序的资源集。

# pcs constraint order set D1 D2 D3

如果您有六种名为 ABCDEF 的资源,本例为启动的一组资源配置了排序约束:

  • AB 相互独立启动
  • CAB 启动后启动
  • dC 启动后启动
  • D 启动后,EF 相互独立启动

停止资源不受此约束的影响,因为设置了 symmetrical=false

# pcs constraint order set A B sequential=false require-all=false set C D set E F sequential=false setoptions symmetrical=false

13.4. 为不由 Pacemaker 管理的资源依赖项配置启动顺序

集群可能包含不是由集群管理的依赖项的资源。在这种情况下,您必须确保在 Pacemaker 停止后启动这些依赖项,然后才能停止 Pacemaker。

您可以使用 systemd resource-agents-deps 目标将您的启动顺序配置为在这种情况下。您可以为此目标创建一个 systemd drop-in 单元,Pacemaker 会根据这个目标自行排序。

例如,如果集群包含依赖于集群管理的外部服务 foo 的资源,请执行以下步骤。

  1. 创建包含以下内容的 drop-in 单元 /etc/systemd/system/resource-agents-deps.target.d/foo.conf

    [Unit]
    Requires=foo.service
    After=foo.service
  2. 运行 systemctl daemon-reload 命令。

用这种方法指定的集群依赖项可以是服务以外的其它依赖项。例如,您可能依赖于在 /srv 中挂载文件系统,在这种情况下,您将执行以下步骤:

  1. 确保 /srv/etc/fstab 文件中列出。当重新加载系统管理器的配置时,系统管理器将在启动时自动转换为 systemd 文件 srv.mount。如需更多信息,请参阅 systemd.mount(5)和 systemd-fstab-generator(8)man page。
  2. 要确保 Pacemaker 在挂载磁盘后启动,请创建包含以下内容的 drop-in 单元 /etc/systemd/system/resource-agents-deps.target.d/srv.conf

    [Unit]
    Requires=srv.mount
    After=srv.mount
  3. 运行 systemctl daemon-reload 命令。

如果 Pacemaker 集群使用的 LVM 卷组包含位于远程块存储上的一个或多个物理卷,如 iSCSI 目标,您可以为目标配置一个 systemd resource-agents-deps 目标和一个 systemd 置入单元,以确保服务在 Pacemaker 启动之前启动。

以下流程将 blk-availability.service 配置为依赖项。blk-availability.service 服务是一个包装器,包含了 iscsi.service 和其他服务。如果您的部署需要它,则您可以将 iscsi.service (仅适用于 iSCSI)或 remote-fs.target 配置为依赖项而不是 blk-availability

  1. 创建包含以下内容的置入单元 /etc/systemd/system/resource-agents-deps.target.d/blk-availability.conf

    [Unit]
    Requires=blk-availability.service
    After=blk-availability.service
  2. 运行 systemctl daemon-reload 命令。

第 14 章 Colocating 集群资源

要指定一个资源的位置取决于另一个资源的位置,您需要配置 colocation 约束。

在两个资源间创建 colocation 约束具有重要的副作用:它会影响分配给节点资源的顺序。这是因为您无法相对于资源 B 来放置资源 A,除非您知道资源 B 的位置。因此,当创建 colocation 约束时,您必须考虑是将资源 A 与资源 B 共处,还是将资源 B 与资源 A 共处。

在创建 colocation 约束时要记住的是,假设资源 A 与资源 B 在一起,在决定哪个节点要选择资源 B 时,集群也会考虑资源 A 的首选项。

以下命令创建了 colocation 约束。

pcs constraint colocation add [master|slave] source_resource with [master|slave] target_resource [score] [options]

下表总结了配置 colocation 约束的属性和选项。

表 14.1. Colocation 约束的参数
参数描述

source_resource

共处源。如果约束不满意,集群可能决定完全不允许该资源运行。

target_resource

共处目标。集群将决定优先放置此资源的位置,然后决定放置源资源的位置。

分数

正数值表示资源应该在同一个节点上运行。负值表示资源不应在同一节点上运行。值 +INFINITY (默认值)表示 source_resource 必须在与 target_resource 相同的节点上运行。值 -INFINITY 表示 source_resource 不得在与 target_resource 相同的节点上运行。

影响 选项

(RHEL 8.4 及更新的版本)决定集群是否会在依赖资源达到其故障迁移阈值时将主资源(source_resource)和依赖资源(target_resource)移到另一个节点,或者集群是否将依赖资源离线,而不导致服务切换。

影响 colocation 约束选项的值可以是 truefalse。这个选项的默认值由相依 资源 meta 选项的值决定,该选项的默认值为 true

当这个选项的值为 true 时,Pacemaker 将尝试使主资源和依赖资源都处于活跃状态。如果依赖资源出现故障,两个资源都会移到另一个节点。

当这个选项的值为 false 时,Pacemaker 会避免因为依赖资源的状态而移动主资源。在这种情况下,如果依赖资源达到失败的迁移阈值,则当主资源活跃并可以保持在当前节点上时,它将停止。

14.1. 指定资源的强制放置

当约束分数为 +INFINITY-INFINITY 时,就会发生强制放置。在这种情况下,如果约束无法满足,则不允许 source_resource 运行。对于 score=INFINITY,这包括 target_resource 没有激活的情况。

如果您需要 myresource1 始终与 myresource2 运行在同一台机器上,则您可以添加以下约束:

# pcs constraint colocation add myresource1 with myresource2 score=INFINITY

由于使用了 INFINITY,如果 myresource2 无法在任何一个集群节点上运行(出于某种原因),则将不允许 myresource1 运行。

或者,您可能想要配置相反的情况,在集群中,myresource1 不能与 myresource2 运行在同一台机器上。在这种情况下,请使用 score=-INFINITY

# pcs constraint colocation add myresource1 with myresource2 score=-INFINITY

同样,通过指定 -INFINITY,约束是绑定的。因此,如果只剩下 myresource2 所在的位置可以运行,那么 myresource1 可能无法在任何地方运行。

14.2. 指定资源的公告放置

资源的公告放置表示资源的放置是首选的,但并不是强制的。对于 score 大于 -INFINITY 且小于 INFINITY 的约束,集群将尝试满足您的要求,但如果替代方案是停止某些集群资源,则可能会忽略它们。

14.3. 资源共存集合

如果您的配置需要创建一组在一起并启动的资源,您可以配置包含这些资源的资源组。然而,在有些情况下,配置需要作为资源组共存的资源是不合适的:

  • 您可能需要托管一组资源,但这些资源不一定要按顺序启动。
  • 您可能有一个资源 C,它必须和资源 A 或 B 在一起,但 A 和 B 之间没有关系。
  • 您可能有资源 C 和 D 必须和资源 A 和 B 在一起,但 A 和 B 之间没有关系,C 和 D 之间没有关系。

在这些情况下,您可以使用 pcs constraint colocation set 命令在一组或一组资源中创建 colocation 约束。

您可以使用 pcs constraint colocation set 命令为一组资源设置以下选项。

  • sequential,它可以设为 truefalse,以指示集合成员是否必须相互共处。

    sequential 设为 false ,允许此集合的成员与约束后面列出的另一个集合共处,而无论此集合中哪些成员处于活动状态。因此,只有在约束里列出另一个集合之后,这个选项才有意义,否则约束无效。

  • role,它可以设为 StoppedStartedmasterSlave

您可以按照 pcs constraint colocation set 命令的 setoptions 参数为一组资源设置以下约束选项。

  • ID,为您定义的约束提供名称:
  • score 表示此约束的首选程度。有关这个选项的详情,请参考 配置位置约束中的 "Location Constraint Options" 表

当列出集合的成员时,每个成员都与其前一个成员共处。例如:"set A B" 表示 "B 与 A 共存"。但是,当列出多个集合时,每个集合都与后面的组在一起。例如:"set C D sequential=false set A B" 表示 "set C D(其中 C 和 D 间没有关系)与 set A B 在一起(其中 B 与 A 在一起)"。

以下命令在一组或一组资源上创建了 colocation 约束。

pcs constraint colocation set resource1 resource2] [resourceN]... [options] [set resourceX resourceY] ... [options]] [setoptions [constraint_options]]

使用以下命令删除使用 source_resource 的 colocation 约束。

pcs constraint colocation remove source_resource target_resource

第 15 章 显示资源限制和资源依赖项

您可以使用一些命令来显示已经配置的约束。您可以显示所有配置的资源约束,也可以将资源约束的显示限制到特定类型的资源约束。另外,您可以显示配置的资源依赖项。

显示所有配置的限制

以下命令列出所有当前位置、顺序和 colocation 约束。如果指定了 --full 选项,则显示内部约束 ID。

pcs constraint [list|show] [--full]

从 RHEL 8.2 开始,列出资源约束不再默认显示过期的限制。要在列表中包含过期的约束,请使用 pcs constraint 命令的 --all 选项。这将列出已过期的限制,注意显示中的限制和 相关规则( 扩展)。

显示位置限制

以下命令列出所有当前位置限制。

  • 如果指定了 resources,则会按资源显示位置约束。这是默认的行为。
  • 如果指定了 nodes,则按节点显示位置约束。
  • 如果指定了特定资源或节点,则只显示那些资源或节点的信息。
pcs constraint location [show [resources [resource...]] | [nodes [node...]]] [--full]

显示排序限制

以下命令列出所有当前排序限制。

pcs constraint order [show]

显示 colocation 约束

以下命令列出所有当前的 colocation 约束。

pcs constraint colocation [show]

显示特定于资源的约束

以下命令列出引用特定资源的约束。

pcs constraint ref resource ...

显示资源依赖项(Red Hat Enterprise Linux 8.2 及更新的版本)

以下命令显示树结构中集群资源间的关系。

pcs resource relations resource [--full]

如果使用 --full 选项,命令会显示附加信息,包括约束 ID 和资源类型。

在以下示例中,有 3 个配置的资源: C、D 和 E。

# pcs constraint order start C then start D
Adding C D (kind: Mandatory) (Options: first-action=start then-action=start)
# pcs constraint order start D then start E
Adding D E (kind: Mandatory) (Options: first-action=start then-action=start)

# pcs resource relations C
C
`- order
   |  start C then start D
   `- D
      `- order
         |  start D then start E
         `- E
# pcs resource relations D
D
|- order
|  |  start C then start D
|  `- C
`- order
   |  start D then start E
   `- E
# pcs resource relations E
E
`- order
   |  start D then start E
   `- D
      `- order
         |  start C then start D
         `- C

在以下示例中,有两个配置的资源:A 和 B。资源 A 和 B 是资源组 G 的一部分。

# pcs resource relations A
A
`- outer resource
   `- G
      `- inner resource(s)
         |  members: A B
         `- B
# pcs resource relations B
B
`- outer resource
   `- G
      `- inner resource(s)
         |  members: A B
         `- A
# pcs resource relations G
G
`- inner resource(s)
   |  members: A B
   |- A
   `- B

第 16 章 使用规则决定资源位置

对于更复杂的位置限制,您可以使用 Pacemaker 规则来确定资源的位置。

16.1. Pacemaker 规则

Pacemaker 规则可用于使您的配置更加动态。规则的一个用法可能是根据时间将机器分配给不同的处理组(使用 node 属性),然后在创建位置约束时使用该属性。

每个规则都可以包含多个表达式、日期表达式甚至其它规则。表达式的结果根据规则的 boolean-op 字段合并,以确定规则最终评估为 truefalse。接下来的操作要看规则使用的上下文而定。

表 16.1. 规则的属性
描述

role

只有在资源位于该角色时才会应用该规则。允许的值:startedSlaveMaster。注意:带有 role="Master" 的规则无法确定克隆实例的初始位置。它只会影响哪些活跃的实例将会被提升。

分数

规则评估为 true 时要应用的 score 。仅限于作为位置约束一部分的规则使用。

score-attribute

如果规则评估为 true,则要查找并用作 score 的 node 属性。仅限于作为位置约束一部分的规则使用。

boolean-op

如何组合多个表达式对象的结果。允许的值: andor。默认值为 and

16.1.1. 节点属性表达式

节点属性表达式用于根据节点或节点定义的属性控制资源。

表 16.2. 表达式的属性
描述

attribute

要测试的节点属性

type

决定值应该如何进行测试。允许的值: 字符串整数数字(RHEL 8.4 及更新版本) 版本。默认值为 string

操作

执行的对比。允许的值:

* lt - 如果节点属性的值比 value 小,则为 True

* gt - 如果节点属性的值比 value 大,则为 True

* lte - 如果节点属性的值小于或等于 value,则为 True

* gte - 如果节点属性的值大于或等于 value,则为 True

* eq - 如果节点属性的值等于 value,则为 True

* ne - 如果节点属性的值不等于 value,则为 True

* defined - 如果节点具有命名属性,则为 True

* not_defined - 如果节点没有命名属性,则为 True

用户提供的比较值(必需的,除非 operationdefinednot_defined

除了管理员添加的任何属性外,群集还为每个节点定义特殊的内置节点属性,如下表中所述。

表 16.3. 内置节点属性
名称描述

#uname

节点名称

#id

节点 ID

#kind

节点类型。可能的值有 clusterremotecontainer。对于 使用 ocf:pacemaker:remote 资源创建的 Pacemaker 远程节点,以及 Pacemaker 远程客户机节点和捆绑包节点 的容器kind 的值是远程的。

#is_dc

如果此节点是指定控制器(DC),则为 true,否则为 false

#cluster_name

cluster-name 集群属性的值(如果设置了)

#site_name

site-name 节点属性的值(如果设置了),否则与 #cluster-name 相同

#role

此节点上相关的可远程克隆的角色。仅在可转发克隆的位置约束的规则内有效。

16.1.2. 基于时间/日期的表达式

日期表达式用于根据当前的日期/时间控制资源或集群选项。它们可以包含可选的日期规格。

表 16.4. 日期表达式的属性
描述

start

符合 ISO8601 规范的日期/时间。

end

符合 ISO8601 规范的日期/时间。

操作

根据上下文,将当前日期/时间与开始或结束日期进行比较。允许的值:

* gt - 如果当前日期/时间晚于 start ,则为 True

* lt - 如果当前日期/时间早于 end,则为 True

* in_range - 如果当前日期/时间在 开始之后结束前,则为 True

* date-spec - 对当前日期/时间执行类似于 cron 的比较

16.1.3. 日期规格

日期规格用于创建与时间相关的类似 cron 的表达式。每个字段可以包含一个数字或一个范围。任何未提供的字段都会被忽略,而不是使用默认值 0。

例如,monthdays="1" 匹配每月的第一天,hours="09-17" 匹配上午 9 点到下午 5 点(包含)之间的小时数。但是,您不能指定 weekdays="1,2"weekdays="1-2,5-6",因为它们包含多个范围。

表 16.5. 日期规格的属性
描述

id

日期的唯一名称

hours

允许的值: 0-23

monthdays

允许的值: 0-31(取决于月份和年)

weekdays

允许的值: 1-7(1 代表星期一,7 代表星期日)

yeardays

允许的值: 1-366(根据年而定)

months

允许的值: 1-12

weeks

允许的值: 1-53(取决于 weekyear

years

根据 Gregorian 日历年

weekyears

可能不同于 Gregorian 年;例如,2005-001 Ordinal 也是 2005-01-01 Gregorian,也是 2004-W53-6 Weekly

moon

允许的值: 0-7(0 为新月,4 为满月)。

16.2. 使用规则配置 Pacemaker 位置约束

使用以下命令配置使用规则的 Pacemaker 约束。如果省略 score,则默认为 INFINITY。如果省略 resource-discovery,则默认为 always

有关 resource-discovery 选项的信息,请参阅 将资源发现限制到节点的子集

与基本位置限制一样,您也可以使用这些限制的资源使用正则表达式。

当使用规则来配置位置约束时,score 的值可以是正数,也可以是负数,正数表示"首选",负数表示"避免"。

pcs constraint location rsc rule [resource-discovery=option] [role=master|slave] [score=score | score-attribute=attribute] expression

expression 选项可以是以下之一,其中 duration_optionsdate_spec_options 为:hours, monthdays, weekdays, yeardays, months, weeks, years, weekyears 和 moon,如 日期规范 中"日期规范的属性"表中所述。

  • 已定义|not_defined 属性
  • attribute lt|gt|lte|gte|eq|ne [string|integer|number(RHEL 8.4 及更新版本)|version]
  • date gt|lt date
  • date in_range date to date
  • date in_range date to duration_options …​
  • date-spec date_spec_options
  • expression and|or 表达式
  • 表达式

请注意,持续时间是通过计算方法指定 in_range 操作结束的替代方式。例如,您可以指定 19 个月的持续时间。

下面的位置约束配置一个满足以下位置的表达式(如果现在是 2018 年)。

# pcs constraint location Webserver rule score=INFINITY date-spec years=2018

以下命令配置一个周一到周五从上午 9 点下午 5 点为 true 的表达式。请注意,小时值为 16 可以匹配到 16:59:59,因为小时数仍然匹配。

# pcs constraint location Webserver rule score=INFINITY date-spec hours="9-16" weekdays="1-5"

下面的命令配置一个表达式,当周五且为 13 号并为一个满月时,这个表达式为 true。

# pcs constraint location Webserver rule date-spec weekdays=5 monthdays=13 moon=4

要删除某个规则,使用以下命令:如果您要删除的规则是其约束中的最后一规则,则约束将被删除。

pcs constraint rule remove rule_id

第 17 章 管理集群资源

您可以使用各种命令来显示、修改和管理集群资源。

17.1. 显示配置的资源

要显示所有配置的资源列表,使用以下命令。

pcs resource status

例如,如果系统配置了名为 VirtualIP 的资源,以及名为 WebSite 的资源,则 pcs resource status 命令会产生以下输出。

# pcs resource status
 VirtualIP	(ocf::heartbeat:IPaddr2):	Started
 WebSite	(ocf::heartbeat:apache):	Started

要显示资源配置的参数,请使用以下命令。

pcs resource config resource_id

例如,以下命令显示了资源 VirtualIP 当前配置的参数。

# pcs resource config VirtualIP
 Resource: VirtualIP (type=IPaddr2 class=ocf provider=heartbeat)
  Attributes: ip=192.168.0.120 cidr_netmask=24
  Operations: monitor interval=30s

从 RHEL 8.5 开始,若要显示单个资源的状态,请使用以下命令。

pcs resource status resource_id

例如,如果系统使用名为 VirtualIP 的资源进行了配置,则 pcs resource status VirtualIP 命令会生成以下输出。

# pcs resource status VirtualIP
 VirtualIP      (ocf::heartbeat:IPaddr2):       Started

从 RHEL 8.5 开始,若显示运行在特定节点上资源的状态,请使用以下命令。您可以使用此命令显示集群和远程节点上资源的状态。

pcs resource status node=node_id

例如,如果 node-01 运行名为 VirtualIPWebSite 的资源,则 pcs resource status node=node-01 命令可能会产生以下输出。

# pcs resource status node=node-01
 VirtualIP      (ocf::heartbeat:IPaddr2):       Started
 WebSite        (ocf::heartbeat:apache):        Started

17.2. 使用 pcs 命令导出集群资源

从 Red Hat Enterprise Linux 8.7 开始,您可以使用 pcs resource config 命令的 --output-format=cmd 选项显示在不同的系统上重新创建配置的集群资源的 pcs 命令。

以下命令在红帽高可用性集群中为主动/被动 Apache HTTP 服务器创建四个资源:LVM-activate 资源、Filesystem 资源、IPaddr2 资源和 Apache 资源。

# pcs resource create my_lvm ocf:heartbeat:LVM-activate vgname=my_vg vg_access_mode=system_id --group apachegroup
# pcs resource create my_fs Filesystem device="/dev/my_vg/my_lv" directory="/var/www" fstype="xfs" --group apachegroup
# pcs resource create VirtualIP IPaddr2 ip=198.51.100.3 cidr_netmask=24 --group apachegroup
# pcs resource create Website apache configfile="/etc/httpd/conf/httpd.conf" statusurl="http://127.0.0.1/server-status" --group apachegroup

创建资源后,以下命令显示可用于在不同系统上重新创建这些资源的 pcs 命令。

# pcs resource config --output-format=cmd
pcs resource create --no-default-ops --force -- my_lvm ocf:heartbeat:LVM-activate \
  vg_access_mode=system_id vgname=my_vg \
  op \
    monitor interval=30s id=my_lvm-monitor-interval-30s timeout=90s \
    start interval=0s id=my_lvm-start-interval-0s timeout=90s \
    stop interval=0s id=my_lvm-stop-interval-0s timeout=90s;
pcs resource create --no-default-ops --force -- my_fs ocf:heartbeat:Filesystem \
  device=/dev/my_vg/my_lv directory=/var/www fstype=xfs \
  op \
    monitor interval=20s id=my_fs-monitor-interval-20s timeout=40s \
    start interval=0s id=my_fs-start-interval-0s timeout=60s \
    stop interval=0s id=my_fs-stop-interval-0s timeout=60s;
pcs resource create --no-default-ops --force -- VirtualIP ocf:heartbeat:IPaddr2 \
  cidr_netmask=24 ip=198.51.100.3 \
  op \
    monitor interval=10s id=VirtualIP-monitor-interval-10s timeout=20s \
    start interval=0s id=VirtualIP-start-interval-0s timeout=20s \
    stop interval=0s id=VirtualIP-stop-interval-0s timeout=20s;
pcs resource create --no-default-ops --force -- Website ocf:heartbeat:apache \
  configfile=/etc/httpd/conf/httpd.conf statusurl=http://127.0.0.1/server-status \
  op \
    monitor interval=10s id=Website-monitor-interval-10s timeout=20s \
    start interval=0s id=Website-start-interval-0s timeout=40s \
    stop interval=0s id=Website-stop-interval-0s timeout=60s;
pcs resource group add apachegroup \
  my_lvm my_fs VirtualIP Website

要显示 pcs 命令或您可以用来只重新创建一个配置资源的命令,请指定该资源的资源 ID。

# pcs resource config VirtualIP --output-format=cmd
pcs resource create --no-default-ops --force -- VirtualIP ocf:heartbeat:IPaddr2 \
  cidr_netmask=24 ip=198.51.100.3 \
  op \
    monitor interval=10s id=VirtualIP-monitor-interval-10s timeout=20s \
    start interval=0s id=VirtualIP-start-interval-0s timeout=20s \
    stop interval=0s id=VirtualIP-stop-interval-0s timeout=20s

17.3. 修改资源参数

要修改配置的资源的参数,请使用以下命令:

pcs resource update resource_id [resource_options]

以下命令序列显示了资源 VirtualIP 配置的参数的初始值、更改 ip 参数值的命令,以及 update 命令后的值。

# pcs resource config VirtualIP
 Resource: VirtualIP (type=IPaddr2 class=ocf provider=heartbeat)
  Attributes: ip=192.168.0.120 cidr_netmask=24
  Operations: monitor interval=30s
# pcs resource update VirtualIP ip=192.169.0.120
# pcs resource config VirtualIP
 Resource: VirtualIP (type=IPaddr2 class=ocf provider=heartbeat)
  Attributes: ip=192.169.0.120 cidr_netmask=24
  Operations: monitor interval=30s
注意

当您使用 pcs resource update 命令更新资源 操作时,您没有特别调用的任何选项都将重置为默认值。

17.4. 清除集群资源的失败状态

如果资源失败,则当使用 pcs status 命令显示集群状态时会出现失败信息。尝试解决故障原因后,您可以通过再次运行 pcs status 命令检查资源的更新状态,您可以使用 pcs resource failcount show --full 命令检查集群资源的故障数。

您可以使用 pcs resource cleanup 命令清除资源的故障状态。pcs resource cleanup 命令重置资源状态和资源的 failcount 值。此命令还会删除资源的操作历史记录,并重新检测其当前状态。

以下命令重置 resource_id 指定的资源的状态和 failcount 值。

pcs resource cleanup resource_id

如果没有指定 resource_idpcs resource cleanup 命令会为具有失败数的资源重置资源状态和 failcount 值。

除了 pcs resource cleanup resource_id 命令外,您还可以使用 pcs resource refresh resource_id 命令重置资源状态,并清除资源的操作历史记录。与 pcs resource cleanup 命令一样,您可以运行没有指定选项的 pcs resource refresh 命令来重置所有资源的资源状态和 failcount 值。

pcs resource cleanuppcs resource refresh 命令都会清除资源的操作历史记录,并重新检测资源的当前状态。pcs resource cleanup 命令仅会对集群状态中显示失败操作的资源进行操作,而 pcs resource refresh 命令则针对资源进行操作,无论其当前状态如何。

17.5. 在集群中移动资源

Pacemaker 提供了各种机制来将资源配置为从一个节点迁移到另一个节点,并在需要时手动移动资源。

您可以使用 pcs resource movepcs resource relocate 命令手动移动集群中的资源,如 手动移动集群资源 中所述。除了这些命令外,您还可以通过启用、禁用和禁止资源来控制集群资源的行为,如 禁用、启用和禁止集群资源 中所述。

您可以配置资源以便在定义多个故障后移到新节点,您可以在外部连接丢失时配置集群来移动资源。

17.5.1. 因为失败而移动资源

当您创建资源时,您可以通过为该资源设置 migration-threshold 选项来配置资源,使其在达到定义的故障次数后移至新节点。达到阈值后,这个节点将不再被允许运行失败的资源,直到:

  • 达到资源的 failure-timeout 值。
  • 管理员使用 pcs resource cleanup 命令手动重置资源的故障数。

migration-threshold 的值默认设置为 INFINITYINFINITY 在内部被定义为一个非常大的数,但是有限的。值 0 会禁用 migration-threshold 功能。

注意

为资源设置 migration-threshold 与为迁移配置资源不同,其中资源移动可以到另一个位置,而不会丢失状态。

以下示例为名为 dummy_resource 的资源添加了一个迁移阈值 10,这表示资源将在 10 次故障后移到一个新节点。

# pcs resource meta dummy_resource migration-threshold=10

您可以使用以下命令为整个集群的默认值添加迁移阈值。

# pcs resource defaults update migration-threshold=10

要确定资源当前的故障状态和限值,请使用 pcs resource failcount show 命令。

迁移阈值概念有两个例外,当资源无法启动或无法停止时会出现这种情况。如果集群属性 start-failure-is-fatal 设为 true (默认值),启动失败会导致 failcount 被设置为 INFINITY,并总是导致资源立即移动。

停止失败会稍有不同,且非常关键。如果资源无法停止且启用了 STONITH,则集群将隔离该节点,以便能够在其它地方启动资源。如果没有启用 STONITH,那么集群就无法继续,也不会尝试在其他位置启动资源,而是会在失败超时后尝试再次停止它。

17.5.2. 由于连接更改而移动资源

将集群设置为在外部连接丢失时移动资源分为两个步骤。

  1. 在集群中添加 ping 资源。ping 资源使用同名的系统工具来测试是否可以访问(由 DNS 主机名或 IPv4/IPv6 地址指定)一系列机器,并使用结果来维护名为 pingd 的节点属性。
  2. 为资源配置位置约束,该限制将在连接丢失时将资源移动到不同的节点。

下表描述了您可以为 ping 资源设置的属性。

表 17.1. ping 资源的属性
描述

dampen

等待(强化)时间进一步发生更改。这会防止,当集群节点在稍有不同的时间发现连接丢失时资源在集群中移动。

multiplier

连接的 ping 节点数量乘以这个值来获得分数。在配置了多个 ping 节点时很有用。

host_list

要联系的以确定当前连接状态的机器。允许的值包括可解析 DNS 主机名、IPv4 和 IPv6 地址。主机列表中的条目是空格分开的。

以下示例命令会创建一个 ping 资源,来验证与 gateway.example.com 的连接。在实践中,您可以验证到网络网关/路由器的连接。您可以将 ping 资源配置为克隆,以便资源可以在所有集群节点上运行。

# pcs resource create ping ocf:pacemaker:ping dampen=5s multiplier=1000 host_list=gateway.example.com clone

以下示例为名为 Webserver 的现有资源配置位置约束规则。如果当前运行的主机无法 ping gateway.example.com,这将导致 Webserver 资源移至能够 ping gateway.example.com 的主机。

# pcs constraint location Webserver rule score=-INFINITY pingd lt 1 or not_defined pingd

17.6. 禁用 monitor 操作

停止重复 monitor 的最简单方法是删除它。然而,在有些情况下,您可能只想临时禁用它。在这种情况下,在操作的定义中添加 enabled="false"。当您要重新恢复监控操作时,请将 enabled="true" 设置为操作的定义。

当您使用 pcs resource update 命令更新资源 操作时,您没有特别调用的任何选项都将重置为默认值。例如,如果您已经配置了自定义超时值 600 的监控操作,运行以下命令可将超时值重置为默认值 20(或通过 pcs resource op defaults 命令将默认值设置为 )。

# pcs resource update resourceXZY op monitor enabled=false
# pcs resource update resourceXZY op monitor enabled=true

为了保持这个选项的原始值 600,当您重新启用 monitor 控操作时,必须指定那个值,如下例所示。

# pcs resource update resourceXZY op monitor timeout=600 enabled=true

17.7. 配置和管理集群资源标签

从 Red Hat Enterprise Linux 8.3 开始,您可以使用 pcs 命令标记集群资源。这允许您使用单个命令启用、禁用、管理或取消管理指定的一组资源。

17.7.1. 为管理标记集群资源,按类别标记

以下流程使用资源标签标记两个资源,并禁用标记的资源。在本例中,要标记的现有资源命名为 d-01d-02

流程

  1. 为资源 d-01 和 d -02 创建名为 special-resources 的标签。

    [root@node-01]# pcs tag create special-resources d-01 d-02
  2. 显示资源标签配置。

    [root@node-01]# pcs tag config
    special-resources
      d-01
      d-02
  3. 禁用使用 special-resources 标签标记的所有资源。

    [root@node-01]# pcs resource disable special-resources
  4. 显示资源状态,以确认资源 d-01d-02 已 被禁用。

    [root@node-01]# pcs resource
      * d-01        (ocf::pacemaker:Dummy): Stopped (disabled)
      * d-02        (ocf::pacemaker:Dummy): Stopped (disabled)

除了 pcs resource disable 命令外,pcs resource enablepcs resource managepcs resource unmanage 命令还支持管理标记的资源。

创建资源标签后:

  • 您可以使用 pcs tag delete 命令删除资源标签。
  • 您可以使用 pcs tag update 命令修改现有资源标签的资源标签配置。

17.7.2. 删除标记的集群资源

您不能使用 pcs 命令删除标记的集群资源。要删除标记的资源,请使用以下步骤。

流程

  1. 删除资源标签。

    1. 以下命令从具有该标签的所有资源中删除资源标签 special-resources

      [root@node-01]# pcs tag remove special-resources
      [root@node-01]# pcs tag
       No tags defined
    2. 以下命令仅从资源 d-01 中删除资源标签 special-resources

      [root@node-01]# pcs tag update special-resources remove d-01
  2. 删除资源。

    [root@node-01]# pcs resource delete d-01
    Attempting to stop: d-01... Stopped

第 18 章 创建在多个节点上活跃的集群资源(克隆的资源)

您可以克隆集群资源,以便在多个节点上激活该资源。例如,您可以使用克隆的资源配置 IP 资源的多个实例来分布到群集中以进行节点均衡。您可以克隆资源代理支持的任何资源。克隆由一个资源或一个资源组组成。

注意

只有同时可在多个节点上活跃的资源才适用于克隆。例如:从挂载非集群文件系统(如共享内存设备的 ext4 )的 Filesystem 资源不应被克隆。由于 ext4 分区不支持集群,因此此文件系统不适用于同时发生在多个节点上的读写操作。

18.1. 创建和删除克隆的资源

您可以同时创建资源和该资源的克隆。

若要通过以下单一命令创建资源和克隆资源:

RHEL 8.4 及更新的版本:

pcs resource create resource_id [standard:[provider:]]type [resource options] [meta resource meta options] clone [clone_id] [clone options]

RHEL 8.3 及更早版本:

pcs resource create resource_id [standard:[provider:]]type [resource options] [meta resource meta options] clone [clone options]

默认情况下,克隆的名称为 resource_id-clone

从 RHEL 8.4 开始,您可以通过为 clone_id 选项指定值来为克隆设置自定义名称。

您不能在单个命令中创建资源组以及该资源组的克隆。

另外,您可以使用以下命令创建之前创建的资源或资源组的克隆。

RHEL 8.4 及更新的版本:

pcs resource clone resource_id | group_id [clone_id][clone options]...

RHEL 8.3 及更早版本:

pcs resource clone resource_id | group_id [clone options]...

默认情况下,克隆的名称为 resource_id-clone 或 group_name-clone。从 RHEL 8.4 开始,您可以通过为 clone_id 选项指定一个值来为克隆设置自定义名称。

注意

您只需要在一个节点中配置资源配置更改。

注意

在配置限制时,始终使用组或克隆的名称。

当您创建资源克隆时,默认情况下,克隆会在资源名称上带有附加至名称的 -clone。以下命令创建名为 webfarm 的类型为 apache 的资源,以及名为 webfarm-clone 的克隆

# pcs resource create webfarm apache clone
注意

当您创建一个资源或资源组克隆,其将在另一个克隆后排序时,您几乎应该始终设置 interleave=true 选项。这样可保证当依赖克隆的克隆停止或启动时,依赖克隆的副本可以停止或启动。如果没有设置这个选项,克隆的资源 B 依赖于克隆的资源 A,且节点离开集群,当节点返回到集群并在该节点上启动资源 A,那么所有节点上的资源 B 的副本都将会重启。这是因为,当依赖的克隆资源没有设置 interleave 选项时,该资源的所有实例都依赖于它所依赖的资源的任何正在运行的实例。

使用以下命令删除资源或资源组的克隆。这不会删除资源或资源组本身。

pcs resource unclone resource_id | clone_id | group_name

下表描述了您可以为克隆的资源指定的选项。

表 18.1. 资源克隆选项
描述

priority, target-role, is-managed

从正在克隆的资源继承的选项,如 配置资源元选项 中"资源元选项"表中所述。

clone-max

要启动的资源副本数量。默认为集群中的节点数量。

clone-node-max

在一个节点上可以启动资源的副本数 ; 默认值为 1

notify

当停止或启动克隆的副本时,预先并在操作成功时告知所有其他副本。允许的值: falsetrue.默认值为 false

globally-unique

克隆的每个副本是否会执行不同的功能?允许的值: false,true

如果此选项的值为 false,则这些资源在任何位置的行为都相同,因此每台机器只能有一个克隆活跃副本。

如果此选项的值为 true,则运行在一台机器上的克隆的副本并不等于另一个实例,无论该实例是运行在另一个节点上还是运行在同一节点上。如果 clone-node-max 的值大于 1,则默认值为 true ;否则默认值为 false

排序的

是否应该以系列的方式启动副本(而不是并行的)。允许的值: falsetrue.默认值为 false

interleave

更改排序限制的行为(克隆之间)的行为,以便在相同节点中的同一节点中的副本立即启动或停止(而不是等到第二个克隆的每个实例启动或停止)。允许的值: falsetrue.默认值为 false

clone-min

如果指定了值,则在此克隆后排序的任何克隆都将无法启动,直到原始克隆指定数量的实例都在运行,即使 interleave 选项设为 true

要实现稳定的分配模式,默认情况下克隆具有稍微的粘贴性,这意味着它们更喜欢保留在运行的节点中。如果未提供 resource-stickiness 值,克隆将使用值 1。作为一个小的值,它会对其他资源分数计算最小,但足以防止 Pacemaker 在集群间不必要地移动副本。有关设置 resource-stickiness 资源 meta-option 的详情,请参考 配置资源 meta 选项

18.2. 配置克隆资源限制

在大多数情况下,克隆将在每个活跃集群节点上都有一个副本。但是,您可以将资源克隆的 clone-max 设置为一个小于集群中节点总数的值。如果情况如此,您可以指定集群使用资源位置约束来优先分配哪些节点。这些限制与用于常规资源的条件相同,除了必须使用克隆的 id 以外。

以下命令为集群创建了一个位置约束,以优先将资源克隆 webfarm-clone 分配给 node1

# pcs constraint location webfarm-clone prefers node1

排序限制对克隆的行为稍有不同。在下例中,由于 interleave 克隆选项保留为 false,因此在启动需要启动的所有 webfarm-clone 的实例之前,不会启动任何 webfarm-stats 的实例。只有任何 webfarm-clone 的副本都无法启动时,才会阻止 webfarm-stats 处于活动状态。此外,webfarm-clone 在停止其自身之前,将等待 webfarm-stats 停止。

# pcs constraint order start webfarm-clone then webfarm-stats

将常规(或组)资源与克隆在一起,意味着该资源可在任何有克隆活跃副本的机器中运行。集群将根据克隆运行情况以及资源自己的位置首选项选择一个副本。

克隆之间的并发位置也是有可能的。在这种情况下,克隆允许的位置集合仅限于克隆要激活的节点。然后分配可以正常执行。

以下命令创建了一个共处约束,以确保资源 webfarm-statswebfarm-clone 的活动副本运行在同一节点上。

# pcs constraint colocation add webfarm-stats with webfarm-clone

18.3. 可升级克隆资源

可升级克隆资源是克隆资源,promotable meta 属性设为 true。它们允许实例处于两种操作模式之一;它们被称为 masterslave。模式的名称没有特定的含义,除了一个限制,即实例启动时,它必须处于 Slave 状态。

18.3.1. 创建可升级的克隆资源

您可以用下列单一命令将资源创建为可升级的克隆。

RHEL 8.4 及更新的版本:

pcs resource create resource_id [standard:[provider:]]type [resource options] promotable [clone_id] [clone options]

RHEL 8.3 及更早版本:

pcs resource create resource_id [standard:[provider:]]type [resource options] promotable [clone options]

默认情况下,可升级克隆的名称为 resource_id-clone

从 RHEL 8.4 开始,您可以通过为 clone_id 选项指定值来为克隆设置自定义名称。

另外,您可以使用以下命令从之前创建的资源或资源组中创建可升级的资源。

RHEL 8.4 及更新的版本:

pcs resource promotable resource_id [clone_id] [clone options]

RHEL 8.3 及更早版本:

pcs resource promotable resource_id [clone options]

默认情况下,可升级克隆的名称为 resource_id-clone 或 group_name-clone

从 RHEL 8.4 开始,您可以通过为 clone_id 选项指定值来为克隆设置自定义名称。

下表描述了您可以为可升级资源指定的额外克隆选项。

表 18.2. 为可升级克隆提供了额外的克隆选项
描述

promoted-max

可以升级的资源副本数 ; 默认为 1。

promoted-node-max

在一个节点中可升级的资源副本数 ; 默认为 1。

18.3.2. 配置可升级资源限制

在大多数情况下,可升级的资源在每个活跃的集群节点上都有一个副本。如果情况不同,您可以指定集群使用资源位置约束来优先分配哪些节点。这些限制与常规资源的写法不同。

您可以创建一个 colocation 约束,指定资源是在 master 角色还是在 slave 角色中运行。以下命令创建了资源 colocation 约束。

pcs constraint colocation add [master|slave] source_resource with [master|slave] target_resource [score] [options]

有关托管约束的详情,请参考 托管集群资源

在配置包含可升级资源的排序约束时,您可以为资源指定的一个操作被提升,这表示 资源从 slave 角色提升到 master 角色。另外,您可以指定 demote 操作,表示资源从主角色降级到从角色。

配置顺序约束的命令如下。

pcs constraint order [action] resource_id then [action] resource_id [options]

有关资源顺序约束的详情,请参阅 确定集群资源的运行顺序

18.4. 失败时降级升级的资源

从 RHEL 8.3 开始,您可以配置可升级的资源,以便在资源的 promotemonitor 操作失败时,或者资源运行的分区丢失仲裁时,资源会被降级,但不会被完全停止。这可避免在完全停止资源时需要的人工干预。

  • 要将可升级的资源配置为在 提升 操作失败时降级,请将 on-fail 操作 meta 选项设置为 demote,如下例所示。

    # pcs resource op add my-rsc promote on-fail="demote"
  • 要将可升级的资源配置为在 monitor 操作失败时降级,将 间隔 设置为非零值,将 on-fail 操作 meta 选项设置为 demote,并将 角色 设置为 Master,如下例所示:

    # pcs resource op add my-rsc monitor interval="10s" on-fail="demote" role="Master"
  • 要配置群集,以便在群集分区丢失仲裁时,任何提升的资源都会降级但会继续运行,所有其他资源都将停止,将 no-quorum-policy 群集属性设置为 demote

将操作的 on-fail 元属性设为 demote 不会影响如何决定资源的提升。如果受影响的节点仍然具有最高的升级分数,则会选择再次提升。

第 19 章 管理集群节点

您可以使用各种 pcs 命令来管理群集节点,包括启动和停止群集服务以及添加和删除群集节点的命令。

19.1. 停止集群服务

以下命令在指定的一个节点或几个节点上停止集群服务。与 pcs cluster start 一样,--all 选项会停止所有节点上的群集服务,如果没有指定任何节点,则仅在本地节点上停止群集服务。

pcs cluster stop [--all | node] [...]

您可以使用以下命令强制停止本地节点上的集群服务,该命令会执行 kill -9 命令。

pcs cluster kill

19.2. 启用和禁用集群服务

使用以下命令启用集群服务。这会将集群服务配置为在指定节点启动时运行。

启用允许节点在集集被隔离后自动重新加入集群,从而减少集群性能小于满额性能的时间。如果没有启用集群服务,管理员可以在手动启动集群服务前手动调查出了什么问题,例如:当有硬件问题的节点可能会再次失败时无法重新访问该集群。

  • 如果指定了 --all 选项,该命令将启用所有节点上的集群服务。
  • 如果您没有指定任何节点,则仅在本地节点上启用集群服务。
pcs cluster enable [--all | node] [...]

使用以下命令将集群服务配置为在指定的一个节点或几个节点启动时不运行。

  • 如果指定了 --all 选项,该命令将禁用所有节点上的集群服务。
  • 如果没有指定任何节点,则仅在本地节点上禁用集群服务。
pcs cluster disable [--all | node] [...]

19.3. 添加集群节点

使用以下流程将新节点添加到现有集群中。

此流程添加运行 corosync 的标准群集节点。有关将非 corosync 节点整合到集群中的详情,请参考 将非 corosync 节点整合到集群中:pacemaker_remote 服务

注意

建议您仅在生产环境维护窗口期间将节点添加到现有集群中。这可让您对新节点及其保护配置执行适当的资源和部署测试。

在本例中,现有的集群节点为 clusternode-01.example.comclusternode-02.example.comclusternode-03.example.com。新节点为 newnode.example.com

流程

在加入到集群中的新节点上,执行以下任务。

  1. 安装集群软件包。如果集群使用 SBD、Booth 票据管理器或仲裁设备,则必须在新节点上手动安装相应的软件包(sbdbooth-sitecorosync-qdevice)。

    [root@newnode ~]# yum install -y pcs fence-agents-all

    除了集群软件包外,还需要安装并配置在集群中运行的所有服务(已安装在现有集群节点上)。例如,如果您在红帽高可用性集群中运行 Apache HTTP 服务器,则需要在要添加的节点中安装该服务器,以及检查服务器状态的 wget 工具。

  2. 如果您正在运行 firewalld 守护进程,请执行以下命令启用红帽高可用性附加组件所需的端口。

    # firewall-cmd --permanent --add-service=high-availability
    # firewall-cmd --add-service=high-availability
  3. 为用户 ID hacluster 设置密码。建议您为集群中的每个节点使用相同的密码。

    [root@newnode ~]# passwd hacluster
    Changing password for user hacluster.
    New password:
    Retype new password:
    passwd: all authentication tokens updated successfully.
  4. 执行以下命令启动 pcsd 服务,并在系统启动时启用 pcsd

    # systemctl start pcsd.service
    # systemctl enable pcsd.service

在现有集群中的一个节点上执行以下任务。

  1. 在新集群节点上验证用户 hacluster

    [root@clusternode-01 ~]# pcs host auth newnode.example.com
    Username: hacluster
    Password:
    newnode.example.com: Authorized
  2. 在现有集群中添加新节点。此命令还会将群集配置文件 corosync.conf 同步到集群中的所有节点,包括您要添加的新节点。

    [root@clusternode-01 ~]# pcs cluster node add newnode.example.com

在加入到集群中的新节点上,执行以下任务。

  1. 在新节点上启动并启用集群服务。

    [root@newnode ~]# pcs cluster start
    Starting Cluster...
    [root@newnode ~]# pcs cluster enable
  2. 确保您为新集群节点配置并测试隔离设备。

19.4. 删除集群节点

以下命令关闭指定节点,并将其从群集配置文件 corosync.conf 中删除至群集配置文件 corosync.conf 中。

pcs cluster node remove node

19.5. 使用多个链接在集群中添加节点

当将节点添加到有多个链接的集群时,您必须为所有链接指定地址。

以下示例将节点 rh80-node3 添加到集群中,为第一个链接指定 IP 地址 192.168.122.203,第二个链接为 192.168.123.203。

# pcs cluster node add rh80-node3 addr=192.168.122.203 addr=192.168.123.203

19.7. 配置节点健康策略

节点可能工作正常,足以维护其集群成员身份,但在某些情况下会处于不健康状态,使它成为不受欢迎的资源位置。例如,磁盘驱动器可能会报告 SMART 错误,或者 CPU 可能负载过高。从 RHEL 8.7 开始,您可以使用 Pacemaker 中的节点健康策略来自动将资源从不健康节点移出。

您可以使用以下健康节点资源代理来监控节点的健康状况,该代理根据 CPU 和磁盘状态设置节点属性:

  • ocf:pacemaker:HealthCPU ,其监控 CPU 闲置
  • ocf:pacemaker:HealthIOWait,其监控 CPU I/O 等待
  • ocf:pacemaker:HealthSMART,其监控磁盘驱动器的 SMART 状态
  • ocf:pacemaker:SysInfo ,其指使用本地系统信息设置各种节点属性,并作为监控磁盘空间使用情况的健康代理

另外,任何资源代理都可能会提供可用于定义健康节点策略的节点属性。

流程

以下流程为集群配置了健康节点策略,该策略会将资源从任何 CPU I/O 等待超过 15% 的节点移出。

  1. 设置 health-node-strategy 集群属性,来定义 Pacemaker 如何对节点健康状况的更改做出响应。

    # pcs property set node-health-strategy=migrate-on-red
  2. 创建使用健康节点资源代理的克隆集群资源,设置 allow-unhealthy-nodes 资源元选项,来定义集群是否检测节点的健康状态是否恢复了,并将资源移回至该节点。使用重复的监控操作配置此资源,以持续检查所有节点的健康状况。

    本例创建了一个 HealthIOWait 资源代理来监控 CPU I/O 等待,将资源移出节点的红色限制设置为 15%。此命令将 allow-unhealthy-nodes 资源元选项设为 true,并配置 10 秒的重复的监控间隔。

    # pcs resource create io-monitor ocf:pacemaker:HealthIOWait red_limit=15 op monitor interval=10s meta allow-unhealthy-nodes=true clone

19.8. 使用许多资源配置大型集群

如果要部署的集群包含大量节点和许多资源,您可能需要为集群修改以下参数的默认值。

cluster-ipc-limit 集群属性

cluster-ipc-limit 集群属性是一个集群守护进程断开连接前的最大 IPC 消息待处理。当在一个大型集群中同时清理或修改了大量资源时,会同时进行大量 CIB 更新。如果 Pacemaker 服务没有时间在所有配置更新达到 CIB 事件队列阈值前处理所有配置更新,则会导致速度较慢的客户端被驱除。

在大型集群中使用 cluster-ipc-limit 的建议值是集群中的资源数量乘以节点数。如果您在日志中看到集群守护进程 PID 的"强制客户端"消息,则可以提高这个值。

您可以使用 pcs property set 命令将 cluster-ipc-limit 的值从默认值 500 增加。例如,对于具有 200 资源的十节点集群,您可以使用以下命令将 cluster-ipc-limit 的值设置为 2000:

# pcs property set cluster-ipc-limit=2000
PCMK_ipc_buffer Pacemaker 参数

在非常大型的部署中,内部 Pacemaker 消息可能会超过消息缓冲的大小。发生这种情况时,您将在系统日志中看到以下格式的信息:

Compressed message exceeds X% of configured IPC limit (X bytes); consider setting PCMK_ipc_buffer to X or higher

当您看到此消息时,您可以在每个节点的 /etc/sysconfig/pacemaker 配置文件中增加 PCMK_ipc_buffer 的值。例如,要将群集中每个节点上 /etc/sysconfig/pacemaker 文件的未注释 PCMK_ipc_buffer 字段的值 默认值增加到 13396332 字节,如下所示:

PCMK_ipc_buffer=13396332

若要应用此更改,请运行以下命令:

# systemctl restart pacemaker

第 20 章 为 Pacemaker 集群设置用户权限

您可以为用户 hacluster 以外的特定用户授予权限来管理 Pacemaker 集群。您可以为独立的用户授予两组权限:

  • 允许个人用户通过 Web UI 管理集群的权限,并运行通过网络连接到节点的 pcs 命令。通过网络连接到节点的命令包括设置集群、从集群中添加或删除节点的命令。
  • 本地用户允许只读或读写访问集群配置的权限。不需要通过网络连接的命令包括编辑集群配置的命令,比如那些创建资源和配置限制的命令。

当分配了两组权限时,首先应用通过网络连接的命令的权限,然后应用在本地节点中编辑集群配置的权限。大多数 pcs 命令不需要网络访问,在这种情况下,网络权限将不适用。

20.1. 设置通过网络访问节点的权限

要授予特定用户通过 Web UI 管理集群的权限,并运行通过网络连接到节点的 pcs 命令,请将这些用户添加到组 haclient。这必须在集群的每个节点中完成。

20.2. 使用 ACL 设置本地权限

您可以使用 pcs acl 命令为本地用户设置权限,以允许使用访问控制列表(ACL)对集群配置进行只读或读写访问。

默认情况下不启用 ACL。如果没有启用 ACL,则属于所有节点上的 haclient 组成员的任何用户都具有对集群配置的完整本地读/写权限,而不属于 haclient 成员的用户则无访问权限。但是,当启用 ACL 时,即使属于 haclient 组成员的用户也只能访问 ACL 为该用户授予的内容。root 和 hacluster 用户帐户始终对集群配置具有完全访问权限,即使启用了 ACL。

为本地用户设置权限分为两个步骤:

  1. 执行 pcs acl role create…​ 命令来创建一个 角色,该角色 定义该角色的权限。
  2. 使用 pcs acl user create 命令将您创建的 角色分配给用户。如果您将多个角色分配给同一用户,则任何 拒绝 权限都将优先,然后 写入,然后 读取

流程

以下示例流程为名为 rouser 的本地用户提供了对集群配置的只读权限。请注意,也可能限制对配置某些部分的访问。

警告

以根用户身份执行这个步骤或者保存所有配置更新到工作文件是很重要的,然后在完成后将其推送到活跃 CIB。否则,您可以锁定自己以阻止做任何进一步的更改。有关将配置更改保存为工作文件的详情,请参考 将配置更改保存为工作文件

  1. 此流程要求本地系统上 rouser 用户存在,并且 rouser 是组 haclient 的成员。

    # adduser rouser
    # usermod -a -G haclient rouser
  2. 使用 pcs acl enable 命令启用 Pacemaker ACL。

    # pcs acl enable
  3. 为 cib 创建名为 read-only 且具有只读权限的角色。

    # pcs acl role create read-only description="Read access to cluster" read xpath /cib
  4. 在 pcs ACL 系统中创建用户 rouser,并为该用户分配 read-only 角色。

    # pcs acl user create rouser read-only
  5. 查看当前的 ACL。

    # pcs acl
    User: rouser
      Roles: read-only
    Role: read-only
      Description: Read access to cluster
      Permission: read xpath /cib (read-only-read)
  6. rouser 将运行 pcs 命令的每个节点上,以 rouser 身份登录,再对本地 pcsd 服务进行身份验证。这是以 ACL 用户身份运行某些 pcs 命令(如 pcs status )所必需的。

    [rouser ~]$ pcs client local-auth

第 21 章 资源监控操作

为确保资源健康,您可以在资源的定义中添加监控操作。如果您没有为资源指定监控操作,默认情况下,pc s 命令 将创建一个监控操作,间隔由资源代理决定。如果资源代理不提供默认的监控间隔,pcs 命令将创建监控操作,间隔为 60 秒。

下表总结了资源监控操作的属性:

表 21.1. 操作的属性
描述

id

操作的唯一名称。系统在配置操作时分配这个值。

name

要执行的操作。常见值: monitorstartstop

interval

如果设置为非零值,则会以这个频率(以秒为单位)重复操作。只有在操作 name 设为 monitor 时,非零值才有意义。资源启动后,将立即执行重复的 monitor 操作,并在上一个监控动作完成后调度后续的 monitor 操作。例如,如果 monitor 操作的 interval=20s 在 01:00:00 执行,则下一次 monitor 操作不会发生在 01:00:20 ,而是在第一个 monitor 操作完成后的 20 秒发生。

如果设置为零(默认值为零),则此参数允许您为集群创建的操作提供值。例如,如果 interval 设为零,则操作的 name 设置为 starttimeout 值设为 40,则 Pacemaker 在启动此资源时将使用 40 秒超时。带有零间隔的 monitor 操作允许您为 Pacemaker 在启动时的探测设置 timeout/on-fail/enabled 值,以便在不需要默认值时获取所有资源的当前状态。

timeout

如果在此参数设置的时间内操作没有完成,操作会被终止并认为它失败。默认值是使用 pcs resource op defaults 命令设置的 超时 值,如果未设置,则为 20 秒。如果您发现您的系统所包含的资源比系统允许执行操作的时间更长(如 startstopmonitor),请调查其原因,如果您预计需要较长的执行时间,则可以增加这个值。

timeout 值不是任何类型的延迟,如果操作在超时时间用完后返回,则集群也不会等待整个超时时间。

on-fail

在这个操作失败时要执行的操作。允许的值:

* ignore - 假装资源没有失败

* block - 不对资源执行任何进一步的操作

* stop - 停止资源,且不在其它地方启动它

* restart - 停止资源,并重新启动它(可能在不同的节点上)

* fence - STONITH 资源失败的节点

* standby - 将 所有 资源从资源失败的节点移出

* demote - 当资源的 提升 操作失败时,资源会被降级但不会被完全停止。当 monitor 操作失败时,如果 间隔 设置为非零值,并且 role 设置为 Master,资源将会降级,但不会完全停止。

当启用了 STONITH 时,stop 操作的默认值为 fence,否则为 block。所有其他操作默认为 restart

enabled

如果为 false,则该操作被视为不存在。允许的值: true,false

21.1. 配置资源监控操作

您可以在使用以下命令创建资源时配置监控操作。

pcs resource create resource_id standard:provider:type|type [resource_options] [op operation_action operation_options [operation_type operation_options]...]

例如,以下命令创建了一个带有监控操作的 IPaddr2 资源:新资源称为 VirtualIPeth2 的 IP 地址为 192.168.0.99,子网掩码为 24。每 30 秒将执行一次监控操作。

# pcs resource create VirtualIP ocf:heartbeat:IPaddr2 ip=192.168.0.99 cidr_netmask=24 nic=eth2 op monitor interval=30s

另外,您可以使用以下命令在现有资源中添加监控操作。

pcs resource op add resource_id operation_action [operation_properties]

使用以下命令删除配置的资源操作。

pcs resource op remove resource_id operation_name operation_properties
注意

您必须指定准确的操作属性才能正确地删除现有的操作。

要更改监控选项的值,您可以更新资源。例如,您可以使用以下命令创建 VirtualIP

# pcs resource create VirtualIP ocf:heartbeat:IPaddr2 ip=192.168.0.99 cidr_netmask=24 nic=eth2

默认情况下,这个命令会创建这些操作。

Operations: start interval=0s timeout=20s (VirtualIP-start-timeout-20s)
            stop interval=0s timeout=20s (VirtualIP-stop-timeout-20s)
            monitor interval=10s timeout=20s (VirtualIP-monitor-interval-10s)

要改变停止超时操作,请执行以下命令。

# pcs resource update VirtualIP op stop interval=0s timeout=40s

# pcs resource config VirtualIP
 Resource: VirtualIP (class=ocf provider=heartbeat type=IPaddr2)
  Attributes: ip=192.168.0.99 cidr_netmask=24 nic=eth2
  Operations: start interval=0s timeout=20s (VirtualIP-start-timeout-20s)
              monitor interval=10s timeout=20s (VirtualIP-monitor-interval-10s)
              stop interval=0s timeout=40s (VirtualIP-name-stop-interval-0s-timeout-40s)

21.2. 配置全局资源操作默认

从 Red Hat Enterprise Linux 8.3 开始,您可以使用 pcs resource op defaults update 命令为所有资源更改默认值。

以下命令为所有监控操作设置 超时 值 240 秒的全局默认值。

# pcs resource op defaults update timeout=240s

最初的为之前版本中的所有资源设置资源操作默认值的 pcs resource op defaults name=value 命令仍然受支持,除非配置了多个默认值。但是,pcs resource op defaults update 现在是 命令的首选版本。

21.2.1. 覆盖特定于资源的操作值

请注意,只有在集群资源定义中没有指定该选项时,集群资源才会使用全局默认值。默认情况下,资源代理为所有操作定义 timeout 选项。要接受全局操作超时值,您必须明确地创建没有 timeout 选项的集群资源,或者您必须通过更新集群资源来删除 timeout 选项,如以下命令所示。

# pcs resource update VirtualIP op monitor interval=10s

例如,在为所有监控操作设置了一个 240 秒的 timeout 值,并更新集群资源 VirtualIP 来删除 monitor 操作的超时值后,资源 VirtualIPstartstopmonitor 操作的超时值将分别为 20s、40s 和 240s。这里,超时操作的全局默认值仅应用于 monitor 操作,其中默认的 timeout 选项已被上一条命令删除。

# pcs resource config VirtualIP
 Resource: VirtualIP (class=ocf provider=heartbeat type=IPaddr2)
   Attributes: ip=192.168.0.99 cidr_netmask=24 nic=eth2
   Operations: start interval=0s timeout=20s (VirtualIP-start-timeout-20s)
               monitor interval=10s (VirtualIP-monitor-interval-10s)
               stop interval=0s timeout=40s (VirtualIP-name-stop-interval-0s-timeout-40s)

21.2.2. 为一组资源更改资源操作的默认值

从 Red Hat Enterprise Linux 8.3 开始,您可以使用 pcs resource op defaults set create 命令创建 多个资源操作默认值集合,该命令允许您指定包含 资源和 操作表达式的规则。在 RHEL 8.3 ,您使用这个命令指定的规则只允许资源和操作表达式,包括 括号。在 RHEL 8.4 及更高版本中,Pacemaker 支持所有其他规则表达式也被允许。

使用这个命令,您可以为特定类型的所有资源配置默认资源操作值。例如,在使用捆绑包时,可以配置 Pacemaker 创建的隐式 podman 资源。

以下命令为所有 podman 资源的所有操作设置默认的超时值 90s。在本例中,::podman 表示类型为 podman 的任何类(任何供应商)的资源。

id 选项命名资源操作默认值,不强制使用。如果您没有设置这个选项,pc s 将自动生成 ID。设置这个值可让您提供更描述性的名称。

# pcs resource op defaults set create id=podman-timeout meta timeout=90s rule resource ::podman

以下命令为所有资源为 stop 操作设置默认的超时值 120s。

# pcs resource op defaults set create id=stop-timeout meta timeout=120s rule op stop

对于特定类型的所有资源,可以为特定的操作设置默认值。以下示例为所有 podman 资源为 stop 操作设置了一个默认的超时值 120s。

# pcs resource op defaults set create id=podman-stop-timeout meta timeout=120s rule resource ::podman and op stop

21.2.3. 显示当前配置的资源操作默认值

pcs resource op defaults 命令显示目前配置的资源操作默认值的列表,包括您指定的任何规则。

以下命令显示集群的默认操作值,为所有 podman 资源的所有操作都设置了默认的超时值 90s,并为一组资源操作默认值设置为 podman-timeout

# pcs resource op defaults
Meta Attrs: podman-timeout
  timeout=90s
  Rule: boolean-op=and score=INFINITY
    Expression: resource ::podman

以下命令显示集群的默认操作值,为所有 podman 资源的 stop 操作设置了默认超时值 120s,并为一组资源操作默认设置为 podman-stop-timeout

# pcs resource op defaults]
Meta Attrs: podman-stop-timeout
  timeout=120s
  Rule: boolean-op=and score=INFINITY
    Expression: resource ::podman
    Expression: op stop

21.3. 配置多个监控操作

您可以根据资源代理支持,使用多个监控操作配置单个资源。这样,您可以每分钟执行一次一般的健康检查,而以更高的间隔执行其他更大型的健康检查。

注意

当配置多个监控器操作时,您必须确保不会同时执行两个操作。

要为支持在不同级别上更深入检查的资源配置额外的监控操作,您需要添加一个 OCF_CHECK_LEVEL=n 选项。

例如,如果您配置了以下 IPaddr2 资源,默认情况下,这会创建一个监控操作,间隔为 10 秒,超时值为 20 秒。

# pcs resource create VirtualIP ocf:heartbeat:IPaddr2 ip=192.168.0.99 cidr_netmask=24 nic=eth2

如果虚拟 IP 支持不同的检查,且深度为 10 秒,以下命令可让 Pacemaker 每 10 秒执行一次常规的虚拟 IP 检查,每 60 秒执行更高级的监控检查。(如前所述,您不应该配置额外的监控操作,间隔为 10 秒。)

# pcs resource op add VirtualIP monitor interval=60s OCF_CHECK_LEVEL=10

第 22 章 Pacemaker 集群属性

集群属性控制在集群操作过程中可能发生情况时集群的行为。

22.1. 集群属性和选项概述

下表总结了 Pacemaker 集群属性,显示了属性的默认值以及您可以为这些属性设置的可能值。

另外,还有额外的用于隔离功能的集群属性。有关这些属性的详情,请查看确定 隔离设备常规属性 中的隔离行为的集群属性表。

注意

除了本表格中描述的属性外,还有一些由集群软件公开的集群属性。对于这些属性,建议您不要修改其默认值。

表 22.1. 集群属性
选项默认值描述

batch-limit

0

集群可以并行执行的资源操作数量。"正确的"值取决于网络和集群节点的速度和负载。默认值为 0,表示当任何节点有高 CPU 负载时,集群会动态强制限制。

migration-limit

-1(无限)

集群允许在节点上并行执行的迁移作业数量。

no-quorum-policy

stop

当集群没有仲裁(quorum)时该做什么。允许的值:

* ignore - 继续所有资源管理

* freeze - 继续管理资源,但不会从受影响分区以外的节点中恢复资源

* stop - 停止受影响集群分区中的所有资源

* suicide - 隔离受影响集群分区中的所有节点

* demote - 如果集群分区缺少仲裁,降级任何提升的资源并停止所有其他资源

symmetric-cluster

true

指明资源是否可以默认在任何节点上运行。

cluster-delay

60s

在网络间进行往返延时(不包括操作执行)。"正确的"值取决于网络和集群节点的速度和负载。

dc-deadtime

20s

在启动过程中等待来自其他节点的响应时间。"正确的"值将取决于您网络的速度和负载以及所使用的交换机类型。

stop-orphan-resources

true

指明是否应该停止删除的资源。

stop-orphan-actions

true

指明是否应该取消删除的动作。

start-failure-is-fatal

true

指明某个节点上启动资源失败是否防止了在该节点上进一步启动尝试。当设置为 false 时,集群将根据资源当前的故障数和迁移阈值决定是否在同一节点中再次启动。有关为资源设置 migration-threshold 选项的详情,请参考 配置资源 meta 选项

start-failure-is-fatal 设置为 false 会带来风险,即可能会导致一个无法启动资源的节点耽搁所有依赖的操作。这就是 start-failure-is-fatal 默认为 true 的原因。可以通过设置低迁移阈值来降低设置 start-failure-is-fatal=false 的风险,以便其他操作可在多次失败后能够继续。

pe-error-series-max

-1(全部)

调度程序输入的数量会导致要保存 ERRORs。报告问题时使用。

pe-warn-series-max

-1(全部)

调度程序输入的数量会导致 WARNINGs 保存。报告问题时使用。

pe-input-series-max

-1(全部)

要保存的 "normal" 调度程序输入数。报告问题时使用。

cluster-infrastructure

 

当前运行的 Pacemaker 的消息堆栈。用于信息和诊断目的,用户不能配置。

dc-version

 

集群的 Designated Controller(DC)上的 Pacemaker 版本。用于诊断目的,用户不能配置。

cluster-recheck-interval

15 分钟

Pacemaker 主要由事件驱动,并提前了解何时重新检查集群的故障超时以及大多数基于时间的规则。Pacemaker 还会在此属性指定的不活跃的持续时间后重新检查集群。此集群重新检查有两个目的:保证经常检查具有 date-spec 的规则,对于某些类型的调度 bug,充当一个故障保护。0 值禁用这个轮询;正值表示时间间隔。

maintenance-mode

false

Maintenance Mode 让集群进入"手动关闭"模式,而不要启动或停止任何服务,直到有其他指示为止。当维护模式完成后,集群会对任何服务的当前状态进行完整性检查,然后停止或启动任何需要它的状态。

shutdown-escalation

20min

在经过这个时间后,放弃安全关闭并直接退出。只用于高级使用。

stop-all-resources

false

集群是否应该停止所有资源。

enable-acl

false

指明集群是否可以使用通过 pcs acl 命令设置的访问控制列表。

placement-strategy

default

指定在决定集群节点上资源放置时集群是否以及如何考虑使用属性。

node-health-strategy

none

与健康资源代理结合使用时,控制 Pacemaker 如何对节点健康状况的更改做出响应。允许的值:

* none - 不跟踪节点健康状况。

* migrate-on-red - 会根据代理监控的本地条件,将资源从节点状态被健康代理确定为 red 的任何节点移除。

* only-green - 会根据代理监控的本地条件,将资源从节点状态被健康代理确定为 yellowred 的任何节点移除。

* progressive,custom - 高级节点健康策略,根据健康属性的内部数字值,提供集群对健康状况的精细控制。

22.2. 设置和删除集群属性

要设置集群属性的值,使用以下 pcs 命令。

pcs property set property=value

例如,若要将 symmetric-cluster 的值设置为 false,请使用以下命令:

# pcs property set symmetric-cluster=false

您可以使用以下命令从配置中删除集群属性。

pcs property unset property

另外,您可以通过将 pcs property set 命令的 value 字段留空来从配置中删除集群属性。这会将该属性恢复为默认值。例如,如果您之前将 symmetric-cluster 属性设置为 false,以下命令会从配置中删除您设置的值,并将 symmetric-cluster 的值恢复为 true,这是它的默认值。

# pcs property set symmetic-cluster=

22.3. 查询集群属性设置

在大多数情况下,当使用 pcs 命令显示各种群集组件的值时,您可以互换使用 pcs listpcs show。在以下示例中,pc s list 的格式用于显示多个属性的所有设置的完整列表,而 pcs show 是用于显示特定属性值的格式。

要显示为集群设置的属性设置的值,使用以下 pcs 命令。

pcs property list

要显示集群属性设置的所有值,包括未明确设置的属性设置的默认值,请使用以下命令。

pcs property list --all

要显示特定集群属性的当前值,请使用以下命令。

pcs property show property

例如,要显示 cluster-infrastructure 属性的当前值,请执行以下命令:

# pcs property show cluster-infrastructure
Cluster Properties:
 cluster-infrastructure: cman

为方便起见,您可以通过下列命令,显示这些属性的所有默认值,无论是否将其设置为非默认值。

pcs property [list|show] --defaults

22.4. 使用 pcs 命令导出集群属性

从 Red Hat Enterprise Linux 8.9 开始,您可以使用 pcs property config 命令的 --output-format=cmd 选项显示可用于在不同系统上重新创建配置的集群属性的 pcs 命令。

以下命令将 migration-limit 集群属性设置为 10。

# pcs property set migration-limit=10

设置集群属性后,以下命令显示可用于在不同系统上设置集群属性的 pcs 命令。

# pcs property config --output-format=cmd
pcs property set --force -- \
 migration-limit=10 \
 placement-strategy=minimal

第 23 章 配置资源以在清理节点关闭时保持停止

当集群节点关闭时,Pacemaker 的默认响应是停止在该节点上运行的所有资源,并在其它位置恢复这些资源,即使关闭是一个“干净”的关闭。从 RHEL 8.2 开始,您可以配置 Pacemaker,在节点关闭时,附加到节点的资源将锁定到节点,且无法在其他位置启动,直到节点关闭后重新加入集群时才会再次启动。这样,您可以在维护窗口期间关闭节点,这样可在接受服务中断时关闭节点,而不会导致节点资源切换到集群中的其他节点。

23.1. 集群属性配置资源以在清理节点关闭时保持停止

防止资源在干净节点关闭中进行故障的功能是通过下列集群属性实现的。

shutdown-lock

当将此集群属性设置为默认值 false 时,集群将恢复在被完全关闭的节点上活动的资源。当此属性设为 true 时,在被完全关闭的节点上活动的资源将无法在其它地方启动,直到它们在重新加入集群后在该节点上再次启动。

shutdown-lock 属性适用于集群节点或远程节点,但不适用于客户机节点。

如果 shutdown-lock 设为 true,您可以在节点关闭时删除一个集群资源上的锁,以便可通过使用以下命令在节点上手动刷新来在其它地方启动资源。

pcs resource refresh resource node=nodename

请注意,资源被解锁后,集群就可以自由地将资源移至其他位置。您可以使用粘性值或位置首选项来控制发生这种情况的可能性。

注意

只有在您第一次运行以下命令时,手动刷新才可以在远程节点中使用:

  1. 在远程节点上运行 systemctl stop pacemaker_remote 命令,以停止该节点。
  2. 运行 pcs resource disable remote-connection-resource 命令。

然后您可以在远程节点上手动进行刷新。

shutdown-lock-limit

当将此集群属性设置为默认值 0 以外的其他值时,如果节点在启动关闭后的指定时间内没有重新加入,则资源将在其他节点上可用。

注意

只有在您第一次运行以下命令时,shutdown-lock-limit 属性才能用于远程节点:

  1. 在远程节点上运行 systemctl stop pacemaker_remote 命令,以停止该节点。
  2. 运行 pcs resource disable remote-connection-resource 命令。

运行这些命令后,当 shutdown-lock-limit 指定的时间过后,远程节点上运行的资源将可用于在其他节点上恢复。

23.2. 设置 shutdown-lock 集群属性

以下示例将示例集群中的 shutdown-lock 集群属性设置为 true,并显示节点关闭并再次启动时的它的效果。这个示例集群由三个节点组成:z1.example.comz2.example.comz3.example.com

流程

  1. shutdown-lock 属性设为 true ,并验证其值。在本例中,shutdown-lock-limit 属性保持其默认值 0。

    [root@z3 ~]# pcs property set shutdown-lock=true
    [root@z3 ~]# pcs property list --all | grep shutdown-lock
     shutdown-lock: true
     shutdown-lock-limit: 0
  2. 检查集群的状态。在本例中,资源 thirdfifth 运行在 z1.example.com 上。

    [root@z3 ~]# pcs status
    ...
    Full List of Resources:
    ...
     * first	(ocf::pacemaker:Dummy):	Started z3.example.com
     * second	(ocf::pacemaker:Dummy):	Started z2.example.com
     * third	(ocf::pacemaker:Dummy):	Started z1.example.com
     * fourth	(ocf::pacemaker:Dummy):	Started z2.example.com
     * fifth	(ocf::pacemaker:Dummy):	Started z1.example.com
    ...
  3. 关闭 z1.example.com,这将停止在该节点上运行的资源。

    [root@z3 ~] # pcs cluster stop z1.example.com
    Stopping Cluster (pacemaker)...
    Stopping Cluster (corosync)...
  4. 运行 pcs status 命令可显示节点 z1.example.com 脱机,并且 z1.example.com 上运行的资源在节点停机时为 LOCKED

    [root@z3 ~]# pcs status
    ...
    
    Node List:
     * Online: [ z2.example.com z3.example.com ]
     * OFFLINE: [ z1.example.com ]
    
    Full List of Resources:
    ...
     * first	(ocf::pacemaker:Dummy):	Started z3.example.com
     * second	(ocf::pacemaker:Dummy):	Started z2.example.com
     * third	(ocf::pacemaker:Dummy):	Stopped z1.example.com (LOCKED)
     * fourth	(ocf::pacemaker:Dummy):	Started z3.example.com
     * fifth	(ocf::pacemaker:Dummy):	Stopped z1.example.com (LOCKED)
    
    ...
  5. z1.example.com 上再次启动集群服务,使其重新加入集群。锁住的资源应该在这个节点上启动,但当它们启动后,它们不一定会停留在同一个节点上。

    [root@z3 ~]# pcs cluster start z1.example.com
    Starting Cluster...
  6. 在本例中,会在节点 z1.example.com 上恢复 第三第五个 节点。

    [root@z3 ~]# pcs status
    ...
    
    Node List:
     * Online: [ z1.example.com z2.example.com z3.example.com ]
    
    Full List of Resources:
    ..
     * first	(ocf::pacemaker:Dummy):	Started z3.example.com
     * second	(ocf::pacemaker:Dummy):	Started z2.example.com
     * third	(ocf::pacemaker:Dummy):	Started z1.example.com
     * fourth	(ocf::pacemaker:Dummy):	Started z3.example.com
     * fifth	(ocf::pacemaker:Dummy):	Started z1.example.com
    
    ...

第 24 章 配置节点放置策略

Pacemaker 根据资源分配分数来决定在每个节点上放置资源的位置。资源将分配给资源分数最高的节点。此分配 score 源自因素的组合,包括资源约束、resource-stickiness 设置、各个节点上资源以前的故障历史记录以及每个节点的利用率。

如果所有节点上的资源分配分数相等,默认的放置策略Pacemaker 将选择一个分配的资源最少的节点来平衡负载。如果每个节点中的资源数量相等,则会选择 CIB 中列出的第一个有资格的节点来运行该资源。

但通常不同的资源使用会对节点容量有很大不同(比如内存或者 I/O)。您始终无法通过只考虑分配给节点的资源数量来平衡负载。另外,如果资源的放置使其组合需求超过所提供的容量时,则可能无法完全启动,或者它们可能会降低性能运行。要考虑以上因素,Pacemaker 允许您配置以下组件:

  • 特定节点提供的能力
  • 特定资源需要的容量
  • 资源放置的整体策略

24.1. 使用属性和放置策略

要配置节点提供或需要资源的容量,您可以使用节点和资源使用属性。您可以通过为资源设置使用变量,并将值分配给该变量以指示资源需要,然后为节点设置相同的使用变量,并为该变量分配一个值来指示节点提供的内容。

您可以根据喜好命名使用属性,并根据您的配置定义名称和值对。使用属性的值必须是整数。

24.1.1. 配置节点和资源容量

以下示例为两个节点配置 CPU 容量的使用属性,将这个属性设置为变量 cpu。它还配置 RAM 容量的使用属性,将此属性设置为变量 内存。在本例中:

  • 节点 1 定义为提供 2 个 CPU 和 2048 RAM
  • 节点 2 定义为提供 4 个 CPU 和 2048 RAM
# pcs node utilization node1 cpu=2 memory=2048
# pcs node utilization node2 cpu=4 memory=2048

以下示例指定三个不同资源需要的相同的使用属性。在本例中:

  • 资源 dummy-small 需要 1 个 CPU 容量和 1024 个 RAM 容量
  • 资源 dummy-medium 需要 2 个 CPU 容量和 2048 个 RAM 容量
  • 资源 dummy-large 需要 1 个 CPU 容量和 3072 个 RAM 容量
# pcs resource utilization dummy-small cpu=1 memory=1024
# pcs resource utilization dummy-medium cpu=2 memory=2048
# pcs resource utilization dummy-large cpu=3 memory=3072

如果节点有足够的可用容量以满足资源的要求,则节点被视为有资格获得资源。

24.1.2. 配置放置策略

在配置了节点提供的容量以及资源需要的容量后,您需要设置 placement-strategy 集群属性,否则容量配置无效。

placement-strategy 集群属性有四个值:

  • default - 根本不考虑 Utilization 值。根据分配分数分配资源。如果分数相等,则在节点间平均分配资源。
  • utilization - 只有在决定节点是否被视为有资格时才会考虑 Utilization 值(即,它是否有足够的可用容量来满足资源的要求)。负载均衡仍会根据分配给节点的资源数量进行。
  • balanced - 在决定节点是否有资格提供资源以及负载平衡时,会考虑 Utilization 值,因此会尝试以优化资源性能的方式分散资源。
  • minimal - 只有在决定节点是否有资格为资源提供服务时才会考虑 Utilization 值。对于负载平衡,会尝试尽可能将资源集中到几个节点上,从而在剩余的节点上启用以实现节电的目的。

以下示例命令将 placement-strategy 的值设为 balanced。运行此命令后,Pacemaker 会确保在整个集群中平均分配来自您的资源负载,而无需使用复杂的托管限制集合。

# pcs property set placement-strategy=balanced

24.2. Pacemaker 资源分配

Pacemaker 根据节点首选、节点容量和资源分配首选项分配资源。

24.2.1. 节点首选项

Pacemaker 根据以下策略决定在分配资源时首选哪个节点。

  • 节点权重最高的节点会首先被消耗。节点 weight 是集群维护的分数,以表示节点健康状况。
  • 如果多个节点具有相同的节点权重:

    • 如果 placement-strategy 集群属性是 defaultutilization

      • 分配的资源最少的节点会首先被消耗。
      • 如果分配的资源数量相等,在 CIB 中列出的第一个有资格的节点会首先被消耗。
    • 如果 placement-strategy 集群属性是 balanced

      • 具有最多可用容量的节点会首先被消耗。
      • 如果节点的空闲容量相等,首先消耗分配的资源数量最少的节点。
      • 如果节点的空闲容量相等,并且分配的资源数量相等,在 CIB 中列出的第一个有资格的节点会首先被消耗。
    • 如果 placement-strategy 集群属性是 minimal,则 CIB 中列出的第一个有资格的节点会首先被使用。

24.2.2. 节点容量

Pacemaker 根据以下策略决定哪个节点拥有最多的可用容量。

  • 如果只定义了一种类型的使用属性,那么空闲容量就是一个简单的数字比较。
  • 如果定义了多个类型的使用属性,那么在最多属性类型中数字最高的节点具有最大的可用容量。例如:

    • 如果 NodeA 有更多可用 CPU,而 NodeB 拥有更多可用内存,则它们的可用容量是相等的。
    • 如果 NodeA 有更多可用 CPU,而 NodeB 有更多可用内存和存储,则 NodeB 具有更多可用容量。

24.2.3. 资源分配首选项

Pacemaker 根据以下策略决定优先分配哪些资源。

  • 优先级最高的资源会首先被分配。您可以在创建资源时设置资源优先级。
  • 如果资源优先级相等,运行该资源的节点中分数最高的资源会首先被分配,以防止资源 shuffling 的问题。
  • 如果资源在运行资源的节点中的分数相等,或者资源没有运行,则首选节点上具有最高分数的资源会被首先分配。如果首选节点上的资源分数相等,则 CIB 中列出的第一个可运行资源会首先被分配。

24.3. 资源放置策略指南

为确保 Pacemaker 对资源放置策略最有效的工作,在配置系统时请考虑以下事项。

  • 请确定您有足够的物理容量。

    如果节点在通常情况下使用的物理容量接近近似的最大值,那么在故障切换过程中可能会出现问题。即使没有使用功能,您仍可能会遇到超时和二级故障。

  • 在您为节点配置的功能中构建一些缓冲。

    假设 Pacemaker 资源不会使用 100% 配置的 CPU 和内存量,所以所有时间都比您的物理资源稍多。这种方法有时被称为过量使用。

  • 指定资源优先级。

    如果集群需要牺牲一些服务,则这些服务应该是对您最不重要的。确保正确设置资源优先级,以便首先调度最重要的资源。

24.4. NodeUtilization 资源代理

NodeUtilization 重新配置代理可以检测可用 CPU、主机内存可用性和虚拟机监控程序内存可用性的系统参数,并将这些参数添加到 CIB 中。您可以将代理作为克隆资源运行,使其在每个节点上自动填充这些参数。

有关 NodeUtilization 资源代理和此代理的资源选项的详情,请运行 pcs resource describe NodeUtilization 命令。

第 25 章 将虚拟域配置为资源

您可以使用 pcs resource create 命令将 libvirt 虚拟化框架管理的虚拟域配置为集群资源,并将 VirtualDomain 指定为资源类型。

当将虚拟域配置为资源时,请考虑以下事项:

  • 在将虚拟域配置为集群资源之前,应停止它。
  • 一旦虚拟域是集群资源,除了通过集群工具外,它不应该启动、停止或迁移。
  • 不要配置您已配置为集群资源的虚拟域,使其在主机引导时启动。
  • 所有允许运行虚拟域的节点都必须有权访问该虚拟域所需的配置文件和存储设备。

如果您希望集群管理虚拟域本身中的服务,可以将该虚拟域配置为客户机节点。

25.1. 虚拟域资源选项

下表介绍了您可以为 VirtualDomain 资源配置的资源选项。

表 25.1. 虚拟域资源资源选项
默认值描述

config

 

(必需)到此虚拟域的 libvirt 配置文件的绝对路径。

hypervisor

依赖系统

要连接的虚拟机管理器 URI。您可以通过运行 virsh --quiet uri 命令来确定系统的默认 URI。

force_stop

0

在停止时总是强制关闭("destroy")域。默认的行为是仅在安全关闭尝试失败后强制关闭。只有在您的虚拟域(或您的虚拟化后端)不支持安全关闭时,才应将其设置为 true

migration_transport

依赖系统

迁移时用来连接到远程管理程序的传输。如果省略此参数,资源将使用 libvirt 的默认传输连接到远程 hypervisor。

migration_network_suffix

 

使用专用的迁移网络。迁移 URI 由在节点名称末尾添加此参数的值组成。如果节点名称是一个完全限定域名(FQDN),在 FQDN 的第一个句点(.)前插入后缀。确定由此组成的主机名可在本地被解析,相关的 IP 地址可以通过网络被访问。

monitor_scripts

 

要额外监控虚拟域中的服务,请使用要监控的脚本列表添加这个参数。注意 :当使用监控脚本时,只有所有监控脚本都成功完成时,startmigrate_from 操作才会完成。请确定设置这些操作的超时时间,以适应这个延迟

autoset_utilization_cpu

true

如果设置为 true,代理将通过 virsh 检测 domainUvCPU 数,并在执行监控时将其置于资源的 CPU 使用率中。

autoset_utilization_hv_memory

true

如果设置为 true,代理会通过 virsh 检测 Max memory 的数量,并在执行监控将其置于源的 hv_memory 使用率中。

migrateport

随机高端口

此端口将用在 qemu 迁移 URI 中。如果未设置,则端口将是一个随机高端口。

snapshot

 

保存虚拟机镜像的快照目录的路径。设定此参数后,虚拟机的 RAM 状态将在停止后保存在快照目录中的文件。如果启动了某个域的状态文件,域将在最后停止之前恢复到正确的状态。此选项与 force_stop 选项不兼容。

除了 VirtualDomain 资源选项外,您还可以配置 allow-migrate 元数据选项,以允许将资源实时迁移到另一节点上。当此选项设为 true 时,可以迁移资源,而且不丢失状态。当此选项设为 false 时(这是默认状态),虚拟域将在第一节点上关闭,然后在其从一个节点移到另一个节点时,在第二个节点上重新启动。

25.2. 创建虚拟域资源

以下流程为之前创建的虚拟机在集群中创建一个 VirtualDomain 资源。

流程

  1. 要创建 VirtualDomain 资源代理来管理虚拟机,Pacemaker 需要将虚拟机的 xml 配置文件转储到磁盘上的一个文件中。例如,如果您创建了名为 guest1 的虚拟机,请将xml 文件转储到允许运行 guest 的一个群集节点上的某个文件中。您可以使用您选择的文件名;本例使用 /etc/pacemaker/guest1.xml

    # virsh dumpxml guest1 > /etc/pacemaker/guest1.xml
  2. 将虚拟机的 xml 配置文件复制到允许运行该客户机的所有其他群集节点(在每个节点上位于同一位置)。
  3. 请确定所有允许运行虚拟域的节点都可访问该虚拟域所需的存储设备。
  4. 单独测试虚拟域是否可以在每个运行虚拟域的节点中启动和停止。
  5. 如果正在运行,请关闭该客户机节点。Pacemaker 会在集群中配置时启动节点。不应该将虚拟机配置为在主机引导时自动启动。
  6. 使用 pcs resource create 命令配置 VirtualDomain 资源。例如,以下命令配置名为 VMVirtualDomain 资源:由于 allow-migrate 选项被设为 truepcs resource move VM nodeX 命令将作为实时迁移进行。

    在本例中,migration_transport 设置为 ssh。请注意,要使 SSH 迁移正常工作,无密钥日志记录必须可以在节点间正常工作。

    # pcs resource create VM VirtualDomain config=/etc/pacemaker/guest1.xml migration_transport=ssh meta allow-migrate=true

第 26 章 配置集群仲裁

Red Hat Enterprise Linux 高可用性附加组件集群使用 votequorum 服务,并结合隔离,以避免脑裂的情况。为集群中的每个系统分配一组投票机制,只能在大多数投票机制都存在时才允许执行集群操作。该服务必须被加载到所有节点或无节点 ; 如果服务被载入到集群节点的一个子集,则结果将无法预计。有关 votequorum 服务的配置和操作的详情,请查看 votequorum(5)手册页。

26.1. 配置仲裁选项

使用 pcs cluster setup 命令创建集群时,可以设置仲裁配置的一些特殊功能。下表总结了这些选项。

表 26.1. 仲裁选项
选项描述

auto_tie_breaker

启用后,集群可能会以确定的方式达到 50% 个节点同时失败的情况。集群分区或仍与 auto_tie_breaker_node 中配置的 nodeid 保持联系的节点集合(如果未设置则为最低的 nodeid )将保持仲裁状态。其他节点将为 inquorate。

auto_tie_breaker 选项主要用于具有偶数节点的群集,因为它允许群集继续使用平均分割操作。对于更复杂的故障,如多个不均匀的分割,建议您使用仲裁设备。

auto_tie_breaker 选项与仲裁设备不兼容。

wait_for_all

在启用后,只有在所有节点都最少同时可见一次后,集群才会第一次处于仲裁状态。

wait_for_all 选项主要用于双节点群集,以及用于使用仲裁设备 lms( last man standing)算法的双向群集。

当集群有两个节点,不使用仲裁设备,且禁用了 auto_tie_breaker 时,wait_for_all 选项会自动启用。您可以通过将 wait_for_all 明确设置为 0 来覆盖它。

last_man_standing

启用后,集群可以在特定情况下重新动态计算 expected_votes 和仲裁。启用这个选项时,您必须启用 wait_for_alllast_man_standing 选项与仲裁设备不兼容。

last_man_standing_window

在集群丢失节点后,在重新计算 expected_votes 和仲裁前需要等待的时间(毫秒)。

有关配置和使用这些选项的详情,请查看 votequorum(5)man page。

26.2. 修改仲裁选项

您可以使用 pcs quorum update 命令修改集群的常规仲裁选项。执行此命令需要停止集群。有关仲裁选项的信息,请查看 votequorum(5)手册页。

pcs quorum update 命令的格式如下。

pcs quorum update [auto_tie_breaker=[0|1]] [last_man_standing=[0|1]] [last_man_standing_window=[time-in-ms] [wait_for_all=[0|1]]

以下一系列命令修改 wait_for_all 仲裁选项,并显示选项的更新状态:请注意,系统不允许在集群运行时执行这个命令。

[root@node1:~]# pcs quorum update wait_for_all=1
Checking corosync is not running on nodes...
Error: node1: corosync is running
Error: node2: corosync is running

[root@node1:~]# pcs cluster stop --all
node2: Stopping Cluster (pacemaker)...
node1: Stopping Cluster (pacemaker)...
node1: Stopping Cluster (corosync)...
node2: Stopping Cluster (corosync)...

[root@node1:~]# pcs quorum update wait_for_all=1
Checking corosync is not running on nodes...
node2: corosync is not running
node1: corosync is not running
Sending updated corosync.conf to nodes...
node1: Succeeded
node2: Succeeded

[root@node1:~]# pcs quorum config
Options:
  wait_for_all: 1

26.3. 显示制裁配置和状态

集群运行后,您可以输入以下集群仲裁命令来显示仲裁配置和状态。

以下命令显示制裁配置。

pcs quorum [config]

以下命令显示制裁运行时状态。

pcs quorum status

26.4. 运行非仲裁的集群

如果您将节点长时间移出集群,且这些节点的丢失会导致仲裁丢失,则您可以使用 pcs quorum expected-votes 命令更改实时群集的 expected_votes 参数的值。这可让集群在没有仲裁的情况下继续操作。

警告

在 Live 集群中更改预期投票时应特别小心。如果因为您手动更改了预期的投票,集群的少于 50% 的部分在运行,那么集群中的其他节点就可以单独启动并运行集群服务,从而导致数据崩溃和其他意外结果。如果更改了这个值,您应该确保启用了 wait_for_all 参数。

以下命令将 live 集群中的预期 vote 设置为指定的值。这只会影响实时集群,不会更改配置文件;如果重新加载,则 expected_votes 的值将重置为配置文件中的值。

pcs quorum expected-votes votes

在您知道群集不仲裁但您希望群集进行资源管理的情况下,您可以使用 pcs quorum unblock 命令来 防止群集在建立仲裁时等待所有节点。

注意

使用这个命令时需要特别小心。在运行此命令前,请确定关闭没有在集群中的节点,并确保无法访问共享资源。

# pcs quorum unblock

第 27 章 配置仲裁设备

您可以通过配置作为集群第三方设备的独立仲裁设备,让集群出现比标准仲裁规则处理更多节点故障的情况。对于偶数节点的集群,建议使用仲裁设备。对于双节点集群,使用仲裁设备可以更好地决定在脑裂情况下保留哪些节点。

在配置仲裁设备,您必须考虑以下内容。

  • 建议您在与使用该仲裁设备的集群相同的站点中的不同的物理网络中运行仲裁设备。理想情况下,仲裁设备主机应该独立于主集群,或者至少位于一个独立的 PSU,而不要与 corosync 环或者环位于同一个网络网段。
  • 您不能同时在集群中使用多个仲裁设备。
  • 虽然您不能同时在集群中使用多个仲裁设备,但多个集群可能同时使用一个仲裁设备。每个使用这个仲裁设备的集群都可以使用不同的算法和仲裁选项,因为它们保存在集群节点本身。例如,单个仲裁设备可由具有ffsplit (50/50 均分)算法的一个集群和具有 lms (last man standing)算法的第二个集群来使用。
  • 不应在现有集群节点中运行制裁设备。

27.1. 安装制裁设备软件包

为集群配置仲裁设备需要您安装以下软件包:

  • 在现有集群的节点上安装 corosync-qdevice

    [root@node1:~]# yum install corosync-qdevice
    [root@node2:~]# yum install corosync-qdevice
  • 在仲裁设备主机上安装 pcscorosync-qnetd

    [root@qdevice:~]# yum install pcs corosync-qnetd
  • 在仲裁设备主机上启动 pcsd 服务,并在系统启动时启用 pcsd

    [root@qdevice:~]# systemctl start pcsd.service
    [root@qdevice:~]# systemctl enable pcsd.service

27.2. 配置仲裁设备

按照以下流程配置仲裁设备并将其添加到集群中。

在本例中:

  • 用于仲裁设备的节点是 qdevice
  • 仲裁设备模型是 net,这是目前唯一支持的模型。net 模型支持以下算法:

    • ffsplit :50-50 均分。这为拥有最多活跃节点的分区提供一个投票。
    • lMS :last-man-standing。如果节点是集群中唯一可以看到 qnetd 服务器的节点,则它将返回一个投票。

      警告

      LMS 算法允许在集群中只剩下一个节点时仍保持仲裁,但也意味着制裁设备的投票权利更大,它等同于 number_of_nodes - 1。丢失与制裁设备的连接意味着丢失了 number_of_nodes - 1 个投票,就是说只有所有节点都处于活动状态的集群才能保持仲裁(通过对仲裁设备进行过度投票), 其它任何集群都变为不可仲裁。

      有关这些算法实现的详情,请查看 corosync-qdevice(8)手册页。

  • 集群节点是 node1node2

流程

  1. 在您要用来托管仲裁设备的节点中,使用以下命令配置仲裁设备。这个命令配置并启动仲裁设备模型 net,并将设备配置为在引导时启动。

    [root@qdevice:~]# pcs qdevice setup model net --enable --start
    Quorum device 'net' initialized
    quorum device enabled
    Starting quorum device...
    quorum device started

    配置制裁设备后,您可以检查其状态。这应该显示 corosync-qnetd 守护进程正在运行,此时没有客户端连接上来。--full 命令选项提供详细输出。

    [root@qdevice:~]# pcs qdevice status net --full
    QNetd address:                  *:5403
    TLS:                            Supported (client certificate required)
    Connected clients:              0
    Connected clusters:             0
    Maximum send/receive size:      32768/32768 bytes
  2. 使用以下命令在 firewalld 上启用 high-availability 服务,从而在防火墙上启用 pcsd 守护进程所需的端口和 net 仲裁设备:

    [root@qdevice:~]# firewall-cmd --permanent --add-service=high-availability
    [root@qdevice:~]# firewall-cmd --add-service=high-availability
  3. 在现有集群中的某个节点上,对托管仲裁设备的节点上的用户 hacluster 进行身份验证。这允许群集 上的 pcs 连接到 qdevice 主机上的 pcs,但不允许 qdevice 主机上的 pcs 连接到群集上的 pcs

    [root@node1:~] # pcs host auth qdevice
    Username: hacluster
    Password:
    qdevice: Authorized
  4. 在集群中添加仲裁设备。

    在添加仲裁设备前,您可以检查当前的配置以及仲裁设备的状态以便稍后进行比较。这些命令的输出表明集群还没有使用仲裁设备,每个节点的 Qdevice 成员资格状态为 NR (未注册)。

    [root@node1:~]# pcs quorum config
    Options:
    [root@node1:~]# pcs quorum status
    Quorum information
    ------------------
    Date:             Wed Jun 29 13:15:36 2016
    Quorum provider:  corosync_votequorum
    Nodes:            2
    Node ID:          1
    Ring ID:          1/8272
    Quorate:          Yes
    
    Votequorum information
    ----------------------
    Expected votes:   2
    Highest expected: 2
    Total votes:      2
    Quorum:           1
    Flags:            2Node Quorate
    
    Membership information
    ----------------------
        Nodeid      Votes    Qdevice Name
             1          1         NR node1 (local)
             2          1         NR node2

    以下命令添加您之前在集群中创建的仲裁设备。您不能同时在集群中使用多个仲裁设备。但是,一个仲裁设备可以被多个集群同时使用。这个示例命令将仲裁设备配置为使用 ffsplit 算法。有关仲裁设备的配置选项的详情,请查看 corosync-qdevice(8)手册页。

    [root@node1:~]# pcs quorum device add model net host=qdevice algorithm=ffsplit
    Setting up qdevice certificates on nodes...
    node2: Succeeded
    node1: Succeeded
    Enabling corosync-qdevice...
    node1: corosync-qdevice enabled
    node2: corosync-qdevice enabled
    Sending updated corosync.conf to nodes...
    node1: Succeeded
    node2: Succeeded
    Corosync configuration reloaded
    Starting corosync-qdevice...
    node1: corosync-qdevice started
    node2: corosync-qdevice started
  5. 检查仲裁设备的配置状态。

    在集群一端,您可以执行以下命令查看如何更改配置。

    pcs quorum config 显示已配置的仲裁设备。

    [root@node1:~]# pcs quorum config
    Options:
    Device:
      Model: net
        algorithm: ffsplit
        host: qdevice

    pcs quorum status 命令显示仲裁运行时状态,这表示仲裁设备正在使用中。每个集群节点 Qdevice 成员资格信息状态值的含义如下:

    • A/NA - 仲裁设备处于活动状态,表明 qdevicecorosync 之间是否存在心跳。这应该总是表示仲裁设备处于活动状态。
    • v/NV - 当仲裁设备为节点投票时,会设置 V。在本例中,两个节点都设为 V,因为它们可以相互通信。如果集群被分成两个单节点群集,其中一个节点将被设置为 V,另一个节点将被设置为 NV
    • MW/NMW - 设置内部仲裁设备标记(MW)或未设置(NMW)。默认情况下标志未设置,值为 NMW

      [root@node1:~]# pcs quorum status
      Quorum information
      ------------------
      Date:             Wed Jun 29 13:17:02 2016
      Quorum provider:  corosync_votequorum
      Nodes:            2
      Node ID:          1
      Ring ID:          1/8272
      Quorate:          Yes
      
      Votequorum information
      ----------------------
      Expected votes:   3
      Highest expected: 3
      Total votes:      3
      Quorum:           2
      Flags:            Quorate Qdevice
      
      Membership information
      ----------------------
          Nodeid      Votes    Qdevice Name
               1          1    A,V,NMW node1 (local)
               2          1    A,V,NMW node2
               0          1            Qdevice

      pcs quorum 设备状态 显示仲裁设备运行时状态。

      [root@node1:~]# pcs quorum device status
      Qdevice information
      -------------------
      Model:                  Net
      Node ID:                1
      Configured node list:
          0   Node ID = 1
          1   Node ID = 2
      Membership node list:   1, 2
      
      Qdevice-net information
      ----------------------
      Cluster name:           mycluster
      QNetd host:             qdevice:5403
      Algorithm:              ffsplit
      Tie-breaker:            Node with lowest node ID
      State:                  Connected

      在仲裁设备一侧,您可以执行以下状态命令,其显示 corosync-qnetd 守护进程的状态:

      [root@qdevice:~]# pcs qdevice status net --full
      QNetd address:                  *:5403
      TLS:                            Supported (client certificate required)
      Connected clients:              2
      Connected clusters:             1
      Maximum send/receive size:      32768/32768 bytes
      Cluster "mycluster":
          Algorithm:          ffsplit
          Tie-breaker:        Node with lowest node ID
          Node ID 2:
              Client address:         ::ffff:192.168.122.122:50028
              HB interval:            8000ms
              Configured node list:   1, 2
              Ring ID:                1.2050
              Membership node list:   1, 2
              TLS active:             Yes (client certificate verified)
              Vote:                   ACK (ACK)
          Node ID 1:
              Client address:         ::ffff:192.168.122.121:48786
              HB interval:            8000ms
              Configured node list:   1, 2
              Ring ID:                1.2050
              Membership node list:   1, 2
              TLS active:             Yes (client certificate verified)
              Vote:                   ACK (ACK)

27.3. 管理仲裁设备服务

PCS 提供了在本地主机上管理仲裁设备服务(corosync-qnetd)的功能,如下例所示。请注意,这些命令只影响 corosync-qnetd 服务。

[root@qdevice:~]# pcs qdevice start net
[root@qdevice:~]# pcs qdevice stop net
[root@qdevice:~]# pcs qdevice enable net
[root@qdevice:~]# pcs qdevice disable net
[root@qdevice:~]# pcs qdevice kill net

27.4. 管理集群中的仲裁设备

您可以使用各种 pcs 命令更改集群中的仲裁设备设置,禁用仲裁设备,以及删除仲裁设备。

27.4.1. 更改仲裁设备设置

您可以使用 pcs quorum device update 命令更改仲裁设备的设置。

警告

要更改仲裁设备模型 的主机 选项 net,请使用 pcs quorum device removepcs quorum device add 命令来正确设置配置,除非旧主机和新主机是同一台机器。

以下命令将仲裁设备算法改为 lms

[root@node1:~]# pcs quorum device update model algorithm=lms
Sending updated corosync.conf to nodes...
node1: Succeeded
node2: Succeeded
Corosync configuration reloaded
Reloading qdevice configuration on nodes...
node1: corosync-qdevice stopped
node2: corosync-qdevice stopped
node1: corosync-qdevice started
node2: corosync-qdevice started

27.4.2. 删除仲裁设备

以下命令删除在集群节点中配置的仲裁设备。

[root@node1:~]# pcs quorum device remove
Sending updated corosync.conf to nodes...
node1: Succeeded
node2: Succeeded
Corosync configuration reloaded
Disabling corosync-qdevice...
node1: corosync-qdevice disabled
node2: corosync-qdevice disabled
Stopping corosync-qdevice...
node1: corosync-qdevice stopped
node2: corosync-qdevice stopped
Removing qdevice certificates from nodes...
node1: Succeeded
node2: Succeeded

删除仲裁设备后,您应该在显示仲裁设备状态时看到以下出错信息。

[root@node1:~]# pcs quorum device status
Error: Unable to get quorum status: corosync-qdevice-tool: Can't connect to QDevice socket (is QDevice running?): No such file or directory

27.4.3. 销毁仲裁设备

以下命令禁用并停止仲裁设备主机上的仲裁设备,并删除其所有配置文件。

[root@qdevice:~]# pcs qdevice destroy net
Stopping quorum device...
quorum device stopped
quorum device disabled
Quorum device 'net' configuration files removed

第 28 章 为集群事件触发脚本

Pacemaker 集群是一个事件驱动的系统,其中事件可能是资源或节点故障、配置更改或资源启动或停止。您可以将 Pacemaker 集群警报配置为在集群事件发生时执行一些外部操作,警报代理是集群调用的外部程序,其方式与集群调用的资源代理处理资源配置和操作相同。

集群使用环境变量将事件信息传递给代理。代理可以执行任何操作,比如发送电子邮件信息或登录到某个文件或更新监控系统。

  • Pacemaker 提供几个示例警报代理,这些代理默认安装在 /usr/share/pacemaker/alerts 中。这些样本脚本可以像现在一样复制和使用,或者可作为模板使用,以适应您的目的。关于它们支持的所有属性,请参考样本代理的源代码。
  • 如果示例警报代理不满足您的需要,您可以编写自己的警报代理来调用。

28.1. 安装并配置示例警报代理

当使用示例警报代理时,您应该检查该脚本以确保它适合您的需要。这些示例代理是作为特定集群环境自定义脚本的起点。请注意,虽然红帽支持报警代理脚本用来与 Pacemaker 进行通信的接口,但红帽并不支持自定义代理。

要使用示例报警代理中的一个,您必须在集群中的每个节点上安装代理。例如,以下命令安装 alert_file.sh.sample 脚本来作为 alert_file.sh

# install --mode=0755 /usr/share/pacemaker/alerts/alert_file.sh.sample /var/lib/pacemaker/alert_file.sh

安装脚本后,您可以创建使用该脚本的报警。

以下示例配置了一个报警,其使用安装的 alert_file.sh 报警代理将事件记录到文件中。报警代理是以用户 hacluster 身份运行的,该用户具有最小的权限集。

这个示例创建日志文件 pcmk_alert_file.log,该文件将用于记录事件。然后,它会创建报警代理,并将路径添加到日志文件来作为其接收者。

# touch /var/log/pcmk_alert_file.log
# chown hacluster:haclient /var/log/pcmk_alert_file.log
# chmod 600 /var/log/pcmk_alert_file.log
# pcs alert create id=alert_file description="Log events to a file." path=/var/lib/pacemaker/alert_file.sh
# pcs alert recipient add alert_file id=my-alert_logfile value=/var/log/pcmk_alert_file.log

以下示例安装了 alert_snmp.sh.sample 脚本来作为 alert_snmp.sh,并配置了一个报警,其使用安装的 alert_snmp.sh 报警代理来将集群事件作为 SNMP 陷阱发送。默认情况下,该脚本会发送除成功监控调用 SNMP 服务器外的所有事件。这个示例将时间戳格式配置为 meta 选项。配置报警后,本例为报警配置了一个接收者,并显示报警配置。

# install --mode=0755 /usr/share/pacemaker/alerts/alert_snmp.sh.sample /var/lib/pacemaker/alert_snmp.sh
# pcs alert create id=snmp_alert path=/var/lib/pacemaker/alert_snmp.sh meta timestamp-format="%Y-%m-%d,%H:%M:%S.%01N"
# pcs alert recipient add snmp_alert value=192.168.1.2
# pcs alert
Alerts:
 Alert: snmp_alert (path=/var/lib/pacemaker/alert_snmp.sh)
  Meta options: timestamp-format=%Y-%m-%d,%H:%M:%S.%01N.
  Recipients:
   Recipient: snmp_alert-recipient (value=192.168.1.2)

以下示例安装了 alert_smtp.sh 代理,然后配置了一个报警,其使用安装的报警代理来将集群事件作为电子邮件消息发送。配置报警后,本示例配置了一个接收者,并显示报警配置。

# install --mode=0755 /usr/share/pacemaker/alerts/alert_smtp.sh.sample /var/lib/pacemaker/alert_smtp.sh
# pcs alert create id=smtp_alert path=/var/lib/pacemaker/alert_smtp.sh options email_sender=donotreply@example.com
# pcs alert recipient add smtp_alert value=admin@example.com
# pcs alert
Alerts:
 Alert: smtp_alert (path=/var/lib/pacemaker/alert_smtp.sh)
  Options: email_sender=donotreply@example.com
  Recipients:
   Recipient: smtp_alert-recipient (value=admin@example.com)

28.2. 创建集群警报

以下命令创建集群警报。您配置的选项是特定于代理的配置值,这些值会被传递给您指定为额外环境变量的路径上的报警代理脚本。如果没有为 id 指定值,则会生成一个。

pcs alert create path=path [id=alert-id] [description=description] [options [option=value]...] [meta [meta-option=value]...]

可能会配置多个报警代理,集群会对每个事件调用它们。报警代理只会在集群节点上调用。会为涉及 Pacemaker 远程节点的事件调用它们,但不会在这些节点上调用它们。

以下示例创建了一个简单的报警,它将对每个事件调用 myscript.sh

# pcs alert create id=my_alert path=/path/to/myscript.sh

28.3. 显示、修改和删除集群警报

您可以使用各种 pcs 命令显示、修改和删除集群警报。

以下命令显示了所有配置的报警以及配置选项的值。

pcs alert [config|show]

以下命令使用指定的 alert-id 值更新现有警报。

pcs alert update alert-id [path=path] [description=description] [options [option=value]...] [meta [meta-option=value]...]

以下命令移除具有指定 alert-id 值的警报。

pcs alert remove alert-id

或者,您可以运行 pcs alert delete 命令,该命令与 pcs alert remove 命令相同。pcs alert deletepcs alert remove 命令都允许您指定要删除的多个警报。

28.4. 配置集群警报接收者

通常,报警是指向一个接收者的。因此,每个报警可能会被额外配置一个或多个接收者。集群将为每个接收者单独调用代理。

接收者可以是警告代理可识别的任何内容:IP 地址、电子邮件地址、文件名或特定代理支持的任何内容。

以下命令为指定报警添加一个新的接收者。

pcs alert recipient add alert-id value=recipient-value [id=recipient-id] [description=description] [options [option=value]...] [meta [meta-option=value]...]

以下命令更新现有的报警接收者。

pcs alert recipient update recipient-id [value=recipient-value] [description=description] [options [option=value]...] [meta [meta-option=value]...]

以下命令移除指定的报警接收者。

pcs alert recipient remove recipient-id

或者,您可以运行 pcs alert receiver delete 命令,该命令与 pcs alert receiver remove 命令相同。pcs alert receiver removepcs alert receiver delete 命令都允许您删除多个警报接收者。

以下示例命令将接收者 ID 为 my-recipient-idmy-alert-recipient 报警接收者添加到报警 my-alert 中。这会配置集群来调用报警脚本,该脚本已对每个事件的 my-alert 进行了配置,并将接收者 some-address 作为环境变量传递。

#  pcs alert recipient add my-alert value=my-alert-recipient id=my-recipient-id options value=some-address

28.5. 警报 meta 选项

与资源代理一样,可以对报警代理配置 meta 选项来影响 Pacemaker 调用它们的方式。下表描述了警报 meta 选项。meta 选项可以为每个报警代理和每个接收者配置。

表 28.1. 报警 Meta 选项
meta-Attribute默认值描述

enabled

true

(RHEL 8.9 及更新版本)如果对警报设置为 false,则不会使用警报。如果对警报设置为 true,对该警报的特定接收者设置为 false,则不会使用该接收者。

timestamp-format

%H:%M:%S.%06N

将事件时间戳发送到代理时,集群将使用的格式。这是与 date(1)命令一起使用的字符串。

timeout

30s

如果报警代理没有在这段时间内完成,它将被终止。

以下示例配置了一个报警,其调用脚本 myscript.sh ,然后为报警添加两个接收者。第一个接收者 ID 为 my-alert-recipient1,第二个收件者的 ID 为 my-alert-recipient2。这个脚本会为每个事件调用两次,每个调用都使用 15 秒超时。一个调用将被传递给接收者 someuser@example.com,时间戳格式为 %D %H:%M,另一个调用将被传递给接收者 otheruser@example.com,时间戳格式为 %c。

# pcs alert create id=my-alert path=/path/to/myscript.sh meta timeout=15s
# pcs alert recipient add my-alert value=someuser@example.com id=my-alert-recipient1 meta timestamp-format="%D %H:%M"
# pcs alert recipient add my-alert value=otheruser@example.com id=my-alert-recipient2 meta timestamp-format="%c"

28.6. 集群警报配置命令示例

以下连续示例展示了一些基本的报警配置命令,以显示用于创建报警、添加接收者和显示配置的报警的格式。

请注意,虽然您必须在集群中的每个节点上安装警报代理,但您需要只运行一次 pcs 命令。

以下命令创建了一个简单的报警,为报警添加两个接收者,并显示配置的值。

  • 由于没有指定报警 ID 值,系统会创建 alert 的报警 ID 值。
  • 第一个接收者创建命令指定 rec_value 的接收者。由于这个命令没有指定接收者 ID,因此 alert-recipient 的值被用作接收者 ID。
  • 第二个接收者创建命令指定了 rec_value2 的接收者。此命令为接收者指定 my-recipient 的接收者 ID。
# pcs alert create path=/my/path
# pcs alert recipient add alert value=rec_value
# pcs alert recipient add alert value=rec_value2 id=my-recipient
# pcs alert config
Alerts:
 Alert: alert (path=/my/path)
  Recipients:
   Recipient: alert-recipient (value=rec_value)
   Recipient: my-recipient (value=rec_value2)

以下命令添加第二个报警,以及该报警的接收者。第二个报警的报警 ID 是 my-alert,接收者的值是 my-other-recipient。因为没有指定接收者 ID,系统会提供接收者 ID my-alert-recipient

# pcs alert create id=my-alert path=/path/to/script description=alert_description options option1=value1 opt=val meta timeout=50s timestamp-format="%H%B%S"
# pcs alert recipient add my-alert value=my-other-recipient
# pcs alert
Alerts:
 Alert: alert (path=/my/path)
  Recipients:
   Recipient: alert-recipient (value=rec_value)
   Recipient: my-recipient (value=rec_value2)
 Alert: my-alert (path=/path/to/script)
  Description: alert_description
  Options: opt=val option1=value1
  Meta options: timestamp-format=%H%B%S timeout=50s
  Recipients:
   Recipient: my-alert-recipient (value=my-other-recipient)

以下命令修改报警 my-alert 和接收者 my-alert-recipient 的报警值。

# pcs alert update my-alert options option1=newvalue1 meta timestamp-format="%H%M%S"
# pcs alert recipient update my-alert-recipient options option1=new meta timeout=60s
# pcs alert
Alerts:
 Alert: alert (path=/my/path)
  Recipients:
   Recipient: alert-recipient (value=rec_value)
   Recipient: my-recipient (value=rec_value2)
 Alert: my-alert (path=/path/to/script)
  Description: alert_description
  Options: opt=val option1=newvalue1
  Meta options: timestamp-format=%H%M%S timeout=50s
  Recipients:
   Recipient: my-alert-recipient (value=my-other-recipient)
    Options: option1=new
    Meta options: timeout=60s

以下命令从 alert 中删除接收者 my-alert-recipient

# pcs alert recipient remove my-recipient
# pcs alert
Alerts:
 Alert: alert (path=/my/path)
  Recipients:
   Recipient: alert-recipient (value=rec_value)
 Alert: my-alert (path=/path/to/script)
  Description: alert_description
  Options: opt=val option1=newvalue1
  Meta options: timestamp-format="%M%B%S" timeout=50s
  Recipients:
   Recipient: my-alert-recipient (value=my-other-recipient)
    Options: option1=new
    Meta options: timeout=60s

以下命令将从配置中删除 myalert

# pcs alert remove myalert
# pcs alert
Alerts:
 Alert: alert (path=/my/path)
  Recipients:
   Recipient: alert-recipient (value=rec_value)

28.7. 编写集群警报代理

Pacemaker 群集警报有三种类型:节点警报、隔离警报和资源警报。传递给报警代理的环境变量可能会由于报警类型而有所不同。下表描述了传递给警报代理的环境变量,并指定环境变量何时与特定警报类型关联。

表 28.2. 传递给报警代理的环境变量
环境变量描述

CRM_alert_kind

报警类型(节点、隔离或资源)

CRM_alert_version

发送报警的 Pacemaker 版本

CRM_alert_recipient

配置的接收者

CRM_alert_node_sequence

每当在本地节点上发出报警时,序列号就会增加,它可以用来参考 Pacemaker 所发出报警的顺序。发生时间较晚的事件的报警序列号比发生时间较早的事件的报警序列号要高。请注意,这个数字没有集群范围的含义。

CRM_alert_timestamp

执行代理前创建的时间戳,使用由 timestamp-format meta 选项指定的格式。这可以确保在事件发生时代理有一个可靠、高度准确的时间,无论代理本身何时被调用(这可能会因为系统负载或其他情况而延迟)。

CRM_alert_node

受影响节点的名称

CRM_alert_desc

有关事件的详情。对于节点报警,这是节点的当前状态(成员或丢失)。对于隔离报警,这是请求的隔离操作的总结,其中包括起源、目标以及隔离操作错误代码(若有的话)。对于资源报警,这是等同于 CRM_alert_status 的可读字符串。

CRM_alert_nodeid

状态更改了的节点 ID(仅由节点报警提供)

CRM_alert_task

请求的隔离或资源操作(仅由隔离和资源报警提供)

CRM_alert_rc

保护或资源操作的数字返回代码(仅由隔离和资源警告提供)

CRM_alert_rsc

受影响的资源的名称(仅限资源报警)

CRM_alert_interval

资源操作的时间间隔(仅限资源报警)

CRM_alert_target_rc

操作的预期数字返回码(仅用于资源报警)

CRM_alert_status

Pacemaker 用来表示操作结果的数字码(仅用于资源报警)

在编写报警代理时,您必须考虑以下问题。

  • 警告代理可以在没有接收者的情况下被调用(如果没有配置任何接收者),因此代理必须能够处理这种情况,即使它只在那种情况下才会退出。用户可以修改配置阶段,并在以后添加一个接收者。
  • 如果为报警配置了多个接收者,则会为每个接收者调用一次报警代理。如果代理无法同时运行,则应该只使用单个的接收者进行配置。不过,代理可以自由地将接收者解析为一个列表。
  • 当发生集群事件时,所有报警作为单独的进程同时被触发。根据配置了多少报警和接收方以及报警代理中的操作,可能会发生严重的负载突发。可以编写代理来考虑这一点,例如将资源密集型操作排队到其他实例中,而不是直接执行。
  • 报警代理以 hacluster 用户身份运行,该用户具有最小权限集。如果代理需要额外的特权,建议配置 sudo 以允许代理以具有适当特权的另一用户身份运行必要的命令。
  • 请小心地验证和清理用户配置的参数,如 CRM_alert_timestamp (其内容由用户配置的 timestamp-format 指定)、CRM_alert_recipient 和所有报警选项。这是防止配置错误所必需的。此外,如果某些用户可以在不具有 hacluster 级别权限访问集群节点的情况下修改了 CIB,则这也是一个潜在的安全问题,您应该避免注入代码的可能性。
  • 如果集群包含资源,而对资源操作的 on-fail 参数设为 fence ,则失败时会有多个隔离通知,每个设置了此参数的资源都有一个通知,另外还有一个通知。pacemaker-fencedpacemaker-controld 都将发送通知。pacemaker 在这种情况下只能执行一个实际隔离操作,无论发送了多少条通知。
注意

报警接口设计为与 ocf:pacemaker:ClusterMon 资源使用的外部脚本接口向后兼容。为了保持这种兼容性,传递给报警代理的环境变量会带有 CRM_notify_CRM_alert_ 前缀。兼容性方面的一个问题是 ClusterMon 资源以 root 用户身份运行外部脚本,而报警代理则以 hacluster 用户身份运行。

第 29 章 多站点 Pacemaker 集群

当集群跨越多个站点时,站点间网络连接的问题可能会导致崩溃问题。当连接断开时,某个位置的节点无法判断位于另一个站点中的某个节点是否失败,或者仍然能够使用失败的站点间连接。此外,在两个站点间提供高可用性服务可能会有问题。为解决这些问题,Pacemaker 完全支持通过使用 Booth 集群票据管理器配置跨多个站点的高可用性集群。

29.1. Booth 集群票据管理器概述

Booth 票据管理器(ticket manager) 是一个分布式服务,它应该在与在特定站点连接集群节点的网络不同的物理网络中运行。它会产生另一个松散集群,一个 Booth 空间,它位于站点的常规集群之上。这可整合沟通层,为独立的 Booth ticket 采用基于认可的决策流程。

Booth ticket 是 Boothship 中的单例,代表一个对时间敏感、可移动的授权单元。资源可以被配置为需要运行某个 ticket。这样可保证资源一次只在一个站点运行,并为其提供 ticket。

您可以将 Booth 看成一个覆盖集群,由在不同站点中运行的集群组成,所有原始集群相互独立。这是与集群沟通的 Booth 服务,它是否获得一个 ticket,而 Pacemaker 会根据 Pacemaker ticket 约束决定是否在集群中运行资源。这意味着,在使用 ticket 管理器时,每个集群都可以运行自己的资源和共享资源。例如,在一个集群中只能运行资源 A、B 和 C,资源 D、E 和 F 仅在另一个集群中运行,且在这两个集群中之一运行的资源 G 和 H 由 ticket 决定。也可以按照一个单独的 ticket 来决定在两个集群中运行的额外资源 J。

29.2. 使用 Pacemaker 配置多站点集群

您可以使用以下流程,配置一个使用 Booth 票据管理器的多站点配置。

这些示例命令使用以下协议:

  • 集群 1 由节点 cluster1-node1cluster1-node2 组成
  • 集群 1 具有为其分配的浮动 IP 地址 192.168.11.100
  • 集群 2 由 cluster2-node1cluster2-node2 组成
  • 集群 2 具有为其分配的浮动 IP 地址 192.168.22.100
  • 仲裁节点是 arbitrator-node ,其 IP 地址为 192.168.99.100
  • 此配置使用的 Booth ticket 的名称是 apacheticket

这些示例命令假定已将 Apache 服务的集群资源配置为每个集群的资源组 apachegroup 的一部分。不需要每个集群上的资源和资源组为这些资源配置一个 ticket 约束,因为每个集群的 Pacemaker 实例都是独立的,但这是一个常见故障转移的场景。

请注意,您可以随时输入 pcs booth config 命令来显示当前 节点或集群的 booth 配置,或使用 pcs booth status 命令在本地节点上显示 booth 的当前状态。

流程

  1. 在两个集群的每个节点上都安装 booth-site Booth ticket manager 软件包。

    [root@cluster1-node1 ~]# yum install -y booth-site
    [root@cluster1-node2 ~]# yum install -y booth-site
    [root@cluster2-node1 ~]# yum install -y booth-site
    [root@cluster2-node2 ~]# yum install -y booth-site
  2. 在仲裁节点上安装 pcsbooth-corebooth-arbitrator 软件包。

    [root@arbitrator-node ~]# yum install -y pcs booth-core booth-arbitrator
  3. 如果您正在运行 firewalld 守护进程,请在两个集群的所有节点上和临时节点上执行以下命令,以启用红帽高可用性附加组件所需的端口。

    # firewall-cmd --permanent --add-service=high-availability
    # firewall-cmd --add-service=high-availability

    您可能需要修改开放端口以适合本地条件。有关红帽高可用性附加组件所需端口的更多信息,请参阅 为高可用性附加组件启用端口

  4. 在一个集群的一个节点上创建 Booth 配置。您为每个集群和地区指定的地址必须是 IP 地址。对于每个集群,您可以指定一个浮动 IP 地址。

    [cluster1-node1 ~] # pcs booth setup sites 192.168.11.100 192.168.22.100 arbitrators 192.168.99.100

    这个命令会在其运行的节点上创建配置文件 /etc/booth/booth.conf/etc/booth/booth.key

  5. 为 Booth 配置创建 ticket。这是您要用来定义资源约束的票据,允许仅在向集群授予这个票据时运行资源。

    这个基本故障转移配置过程只使用一个 ticket,但您可以为每个复杂情况创建额外的 ticket,因为每个 ticket 都与不同的资源或资源关联。

    [cluster1-node1 ~] # pcs booth ticket add apacheticket
  6. 将 Booth 配置同步至当前集群中的所有节点。

    [cluster1-node1 ~] # pcs booth sync
  7. 在仲裁机构(arbitrator)节点中,将 Booth 配置拉取到仲裁机构中。如果您之前还没有这样做,则必须首先向要提取配置的节点验证 pcs

    [arbitrator-node ~] # pcs host auth cluster1-node1
    [arbitrator-node ~] # pcs booth pull cluster1-node1
  8. 将 Booth 配置拉取到其他集群,并同步到该集群的所有节点。与仲裁节点一样,如果您之前还没有这样做,您必须首先向要提取配置的节点验证 pcs

    [cluster2-node1 ~] # pcs host auth cluster1-node1
    [cluster2-node1 ~] # pcs booth pull cluster1-node1
    [cluster2-node1 ~] # pcs booth sync
  9. 在仲裁机构中开启并启动 Booth。

    注意

    您不能在集群的任何节点上手动启动或启用 Booth,因为 Booth 作为这些集群中的 Pacemaker 资源运行。

    [arbitrator-node ~] # pcs booth start
    [arbitrator-node ~] # pcs booth enable
  10. 使用分配给每个集群的浮动 IP 地址,将 Booth 配置为作为集群站点上的集群资源来运行。这将创建一个资源组,并将 booth-ipbooth-service 作为该组的成员。

    [cluster1-node1 ~] # pcs booth create ip 192.168.11.100
    [cluster2-node1 ~] # pcs booth create ip 192.168.22.100
  11. 为您为每个集群定义的资源组添加一个 ticket 约束。

    [cluster1-node1 ~] # pcs constraint ticket add apacheticket apachegroup
    [cluster2-node1 ~] # pcs constraint ticket add apacheticket apachegroup

    您可以输入以下命令来显示当前配置的 ticket 约束。

    pcs constraint ticket [show]
  12. 为第一个集群授予您为此设置创建的 ticket。

    请注意,在授予 ticket 前不需要定义 ticket 约束。最初为集群授予一个 ticket 后,booth 会接管票据管理,除非您使用 pcs booth ticket revoke 命令手动覆盖此票据。有关 pcs booth 管理命令的详情,请查看 pcs booth 命令的 PCS 帮助屏幕。

    [cluster1-node1 ~] # pcs booth ticket grant apacheticket

可在任何时间添加或删除票据,即使完成此步骤后也是如此。但是,添加或删除一个 ticket 后,您必须将配置文件同步到其他节点和集群,并赋予这个问题单。

有关可用于清理和删除 Booth 配置文件、票据和资源的其他 Booth 管理命令的详情,请参考 pcs booth 命令的 PCS 帮助屏幕。

第 30 章 将非 corosync 节点整合到集群中: pacemaker_remote 服务

pacemaker_remote 服务允许没有运行 corosync 的节点集成到集群中,让集群管理它们的资源,就像它们是实际的集群节点一样。

pacemaker_remote 服务提供的功能如下:

  • pacemaker_remote 服务允许您扩展超过红帽支持 RHEL 8.1 的 32 个节点。
  • pacemaker_remote 服务允许您将虚拟环境作为集群资源来管理,还可以将虚拟环境中的单个服务作为集群资源来管理。

以下术语用于描述 pacemaker_remote 服务:

  • 集群节点 - 运行高可用性服务(pacemaker 和 corosync)的节点。
  • 远程节点 - 运行 pacemaker_remote 的节点,用于远程集成到集群中,而无需 corosync 集群成员资格。远程节点被配置为使用 ocf:pacemaker:remote 资源代理的集群资源。
  • 客户机节点 - 运行 pacemaker_remote 服务的虚拟客户机节点。虚拟客体资源由集群管理,它由集群启动,并作为远程节点集成到集群中。
  • pacemaker_remote - 是一个可在远程节点和 Pacemaker 集群环境中 KVM 客户机节点中执行远程应用程序管理的服务守护进程。此服务是 Pacemaker 的本地 executor 守护进程(pacemaker-execd)的增强版本,能够在不运行 corosync 的节点上远程管理资源。

运行 pacemaker_remote 服务的 Pacemaker 集群具有以下特征:

  • 远程节点和客户机节点运行 pacemaker_remote 服务(虚拟机端只需要很少的配置)。
  • 在集群节点上运行的集群堆栈(pacemakercorosync)连接到远程节点上的 pacemaker_remote 服务,允许它们集成到集群中。
  • 在集群节点上运行的集群堆栈(pacemakercorosync)可启动客户机节点,并立即连接到客户机节点上的 pacemaker_remote 服务,允许它们集成到集群中。

集群节点与集群节点管理的远程和客户机节点之间的关键区别在于远程和客户机节点没有运行集群堆栈。这意味着远程和虚拟机节点有以下限制:

  • 它们不会在仲裁里进行
  • 它们不执行隔离设备操作
  • 他们没有有资格成为集群的指定控制器(DC)
  • 它们本身不运行完整的 pcs 命令

另外,远程节点和客户机节点不与与集群堆栈关联的可扩展性限制绑定。

除这些限制外,远程和客户机节点的行为与集群节点在资源管理方面的行为类似,且远程和虚拟机节点本身也可被保护。集群完全能够在每个远程和客户机节点上管理和监控资源:您可以针对它们构建限制,将它们置于待机状态,或使用 pcs 命令在群集节点上执行任何其他操作。远程和虚拟机节点如集群节点一样显示在集群状态输出中。

30.1. pacemaker_remote 节点的主机和虚拟机验证

集群节点与 pacemaker_remote 之间的连接是使用传输层安全(TLS)进行安全保护,使用预共享密钥(PSK)加密和验证 TCP(默认使用端口 3121)进行验证。这意味着集群节点和运行 pacemaker_remote 的节点必须共享相同的私钥。默认情况下,此密钥必须放在集群节点和远程节点上的 /etc/pacemaker/authkey 中。

pcs cluster node add-guest 命令为客户机节点设置 authkey,而 pcs cluster node add-remote 命令则为远程节点设置 authkey

30.2. 配置 KVM 客户机节点

Pacemaker 客户机节点是一个运行 pacemaker_remote 服务的虚拟客户机节点。虚拟客户机节点由集群管理。

30.2.1. 客户端节点资源选项

将虚拟机配置为充当客户机节点时,您可以创建一个 VirtualDomain 资源,该资源用于管理虚拟机。有关您可以为 VirtualDomain 资源设置的选项的描述,请参阅 虚拟域资源选项 中的"虚拟域资源的资源选项"表。

除了 VirtualDomain 资源选项外,元数据选项将资源定义为客户机节点,并定义了连接参数。您可以使用 pcs cluster node add-guest 命令设置这些资源选项。下表描述了这些元数据选项。

表 30.1. 将 KVM 资源配置为远程节点的元数据选项
默认值描述

remote-node

<none>

此资源定义的客户机节点的名称。这可让资源作为客户机节点启用,并定义用于识别客户端节点的唯一名称。WARNING:这个值不能与任何资源或节点 ID 重叠。

remote-port

3121

配置一个自定义端口,用于到 pacemaker_remote 的客户机连接

remote-addr

pcs host auth 命令中提供的地址

要连接的 IP 地址或主机名

remote-connect-timeout

60s

待处理的客户端连接超时前的时间

30.2.2. 将虚拟机整合为客户机节点

以下步骤是对 Pacemaker 启动虚拟机并使用 libvirt 和 KVM 虚拟机将该虚拟机集成为客户机节点的步骤的高级概述。

流程

  1. 配置 VirtualDomain 资源。
  2. 在每个虚拟机上输入以下命令来安装 pacemaker_remote 软件包,启动 pcsd 服务并使其在启动时运行,并通过防火墙允许 TCP 端口 3121。

    # yum install pacemaker-remote resource-agents pcs
    # systemctl start pcsd.service
    # systemctl enable pcsd.service
    # firewall-cmd --add-port 3121/tcp --permanent
    # firewall-cmd --add-port 2224/tcp --permanent
    # firewall-cmd --reload
  3. 为每个虚拟机分配一个静态网络地址和唯一主机名,适用于所有节点。
  4. 如果您还没有这样做,请在要整合为理想节点的节点中验证 pcs

    # pcs host auth nodename
  5. 使用以下命令,将现有的 VirtualDomain 资源转换为客户机节点。这个命令必须在集群节点上运行,而不是在要添加的客户端节点上运行。除了转换资源外,这个命令会将 /etc/pacemaker/authkey 复制到客户机节点,并在客户机节点上启动并启用 pacemaker_remote 守护进程。客户机节点的节点名称(您可以随意定义)可以与节点的主机名不同。

    # pcs cluster node add-guest nodename resource_id [options]
  6. 创建 VirtualDomain 资源后,您可以像对待集群中的任何其他节点一样对待客户机节点。例如,您可以创建资源并在客户机节点中运行的资源上放置资源约束,如下命令可在集群节点中运行。您可以在组群中包含客户机节点,它们允许您对存储设备、文件系统和虚拟机进行分组。

    # pcs resource create webserver apache configfile=/etc/httpd/conf/httpd.conf op monitor interval=30s
    # pcs constraint location webserver prefers nodename

30.3. 配置 Pacemaker 远程节点

远程节点被定义为将 ocf:pacemaker:remote 作为资源代理的集群资源。您可以使用 pcs cluster node add-remote 命令创建此资源。

30.3.1. 远程节点资源选项

下表描述了您可以为 远程 资源配置的资源选项。

表 30.2. 远程节点的资源选项
默认值描述

reconnect_interval

0

在到远程节点活跃连接断开后,在尝试重新连接到远程节点前等待的时间(以秒为单位)。这个等待是重复的。如果在等待时间过后重新连接失败,会在观察等待时间后进行一个新的重新连接尝试。当使用这个选项时,Pacemaker 会在每次等待的时间段内一直尝试退出并连接到远程节点。

server

使用 pcs host auth 命令指定的地址

要连接的服务器。这可以是 IP 地址或主机名。

port

 

要连接的 TCP 端口。

30.3.2. 远程节点配置概述

以下流程概述了配置 Pacemaker 远程节点并将该节点集成到现有 Pacemaker 集群环境中的步骤。

流程

  1. 在您要配置为远程节点的节点上,允许通过本地防火墙与集群相关的服务。

    # firewall-cmd --permanent --add-service=high-availability
    success
    # firewall-cmd --reload
    success
    注意

    如果您直接使用 iptables,或者除 firewalld 之外的其他防火墙解决方案,那么只需打开以下端口: TCP 端口 2224 和 3121。

  2. 在远程节点上安装 pacemaker_remote 守护进程。

    # yum install -y pacemaker-remote resource-agents pcs
  3. 在远程节点上启动并启用 pcsd

    # systemctl start pcsd.service
    # systemctl enable pcsd.service
  4. 如果您还没有这样做,请在要添加为远程节点的节点上验证 pcs

    # pcs host auth remote1
  5. 使用以下命令在集群中添加远程节点资源。此命令还会将所有相关配置文件同步到新节点上,启动节点,并将其配置为在引导时启动 pacemaker_remote。这个命令必须运行在集群节点中,而不必在要添加的远程节点中运行。

    # pcs cluster node add-remote remote1
  6. 在集群中添加 远程 资源后,您可以像对待集群中的任何其他节点一样对待远程节点。例如,您可以创建资源并在远程节点中运行的资源上放置资源约束,如下命令可在集群节点中运行。

    # pcs resource create webserver apache configfile=/etc/httpd/conf/httpd.conf op monitor interval=30s
    # pcs constraint location webserver prefers remote1
    警告

    资源组、colocation 约束或顺序约束中永远不会涉及远程节点连接资源。

  7. 为远程节点配置保护资源。远程节点的隔离方式与集群节点相同。配置保护资源,以便使用与集群节点相同的远程节点。但请注意,远程节点永远不会启动隔离操作。只有群集节点能够真正对另一节点执行隔离操作。

30.4. 更改默认端口位置

如果您需要更改 Pacemaker 或 pacemaker_remote 的默认端口位置,您可以设置影响这两个守护进程的 PCMK_remote_port 环境变量。可以通过将变量放在 /etc/sysconfig/pacemaker 文件中来启用该变量,如下所示:

\#==#==# Pacemaker Remote
...
#
# Specify a custom port for Pacemaker Remote connections
PCMK_remote_port=3121

当更改特定客户机节点或远程节点使用的默认端口时,必须在该节点的 /etc/sysconfig/pacemaker 文件中设置 PCMK_remote_port 变量,创建客户机节点或远程节点连接的群集资源也必须使用相同的端口号(对客户机节点使用 remote-port 元数据选项,或远程节点的 port 选项)。

30.5. 使用 pacemaker_remote 节点升级系统

如果在活跃的 Pacemaker 远程节点上停止 pacemaker_remote 服务,集群将在停止节点前安全地迁移该节点的资源。这可让您在不从集群中删除节点的情况下执行软件升级和其他常规维护流程。关闭 pacemaker_remote 后,集群将立即尝试重新连接。如果在资源监控器超时内没有重启 pacemaker_remote,集群会将监控器操作视为失败。

如果要避免在活跃的 Pacemaker 远程节点上停止 pacemaker_remote 服务时监控失败,您可以在执行任何可能停止 pacemaker_remote 的系统管理前使用以下步骤使节点退出集群。

流程

  1. 使用 pcs resource disable resourcename 命令停止节点的连接资源,这样可将所有服务移出节点。连接资源是远程节点的 ocf:pacemaker:remote 资源,通常是客户机节点的 ocf:heartbeat:VirtualDomain 资源。对于客户机节点,此命令也会停止虚拟机,因此虚拟机必须在集群外启动(例如,使用 virsh)以执行任何维护。

    pcs resource disable resourcename
  2. 执行所需的维护。
  3. 当准备好将节点返回集群时,请使用 pcs resource enable 命令重新启用该资源。

    pcs resource enable resourcename

第 31 章 执行集群维护

要在集群的节点上执行维护,您可能需要停止或移动该集群中运行的资源和服务。或者,在不影响服务的同时,您可能需要停止集群软件。pacemaker 提供各种执行系统维护的方法。

  • 如果您需要停止集群中的节点,同时继续提供在另一个节点中运行的服务,您可以让该集群节点处于待机模式。处于待机模式的节点无法再托管资源。该节点上任何当前活跃的资源都将移至另一节点,如果没有其他节点有资格运行该资源,则停止。有关待机模式的详情,请参考 将节点置于待机模式
  • 如果您需要在不停止该资源的情况下将单独的资源从当前运行的节点中移动,您可以使用 pcs resource move 命令将资源移到其他节点。

    执行 pcs resource move 命令时,这会向资源添加一个约束,以防止其在当前运行的节点中运行。当您准备好重新移动资源时,可以执行 pcs resource clearpcs constraint delete 命令以移除约束。这不一定将资源回原始节点,因为此时可以在哪里运行这些资源取决于您最初配置的资源。您可以使用 pcs resource relocate run 命令将资源重新定位到 首选节点。

  • 如果您需要停止正在运行的资源并阻止集群再次启动,您可以使用 pcs resource disable 命令。有关 pcs resource disable 命令的详情,请参考 禁用、启用和禁止集群资源
  • 如果要防止 Pacemaker 对资源执行任何操作(例如,要在资源维护时禁用恢复操作,或者需要重新加载 /etc/sysconfig/pacemaker 设置),请使用 pcs resource unmanage 命令,如 将资源设置为非受管模式 中所述。pacemaker 远程连接资源应该永远不是非受管状态。
  • 如果您需要将集群置于不启动或停止服务的状态,您可以设置 maintenance-mode 集群属性。将集群放入维护模式会自动使所有资源为非受管状态。有关将集群置于维护模式的详情,请参考 将集群置于维护模式
  • 如果您需要更新组成 RHEL 高可用性和弹性存储附加组件的软件包,您可以一次在一个节点上或在整个集群上更新软件包,如 更新 RHEL 高可用性集群 中所述。
  • 如果您需要在 Pacemaker 远程节点上执行维护,您可以通过禁用远程节点资源从集群中删除该节点,如 升级远程节点和客户机节点 中所述。
  • 如果需要在 RHEL 集群中迁移虚拟机,您首先需要停止虚拟机上的集群服务,以从集群中删除该节点,然后在执行迁移后启动集群备份。如 迁移 RHEL 集群中的虚拟机 中所述。

31.1. 把节点设置为待机模式

当集群节点处于待机模式时,节点将不再能够托管资源。该节点上所有当前活跃的资源都将移至另一节点。

以下命令将指定节点设置为待机模式。如果您指定了 --all,这个命令会将所有节点置于待机模式。

您可以在更新资源的软件包时使用此命令。您还可以在测试配置时使用此命令模拟恢复,而无需实际关闭节点。

pcs node standby node | --all

以下命令将指定节点从待机模式中删除。运行此命令后,指定节点就可以托管资源。如果您指定了 --all,这个命令会将所有节点从待机模式中删除。

pcs node unstandby node | --all

请注意,当执行 pcs node standby 命令时,这会阻止资源在指定节点上运行。执行 pcs node unstandby 命令时,这允许资源在指定节点上运行。这不一定将资源回指定节点 ; 此时可以在哪里运行这些资源取决于您最初配置的资源。

31.2. 手动移动集群资源

您可以覆盖集群并强制资源从其当前位置移动。当您要做到这一点时有两个问题:

  • 当某个节点处于维护状态时,您需要将该节点上运行的所有资源移至不同节点
  • 当需要移动单独指定的资源时

要将节点上运行的所有资源移动到另一个节点,需要使该节点处于待机模式。

您可以用下列方式之一移动独立指定的资源。

  • 您可以使用 pcs resource move 命令将资源从当前运行的节点中移出。
  • 您可以使用 pcs resource relocate run 命令将资源移至首选节点,具体由当前的集群状态、限制、资源位置和其他设置决定。

31.2.1. 将资源从其当前节点移动

要将资源从当前运行的节点中移动,请使用以下命令,指定定义的 resource_id。如果要指定在哪个节点上运行您要移动的资源,请指定 destination_node

pcs resource move resource_id [destination_node] [--master] [lifetime=lifetime]
注意

运行 pcs resource move 命令时,这会为资源添加约束,以防止资源在其当前运行的节点上运行。从 RHEL 8.6 开始,您可以为此命令指定 --autodelete 选项,这将导致在资源移动后,这个命令所创建的位置约束将自动被删除。对于早期版本,您可以运行 pcs resource clearpcs constraint delete 命令来手动删除约束。移除约束不一定将资源重新移回原始节点; 此时资源可以在哪里运行取决于您最初是如何配置资源的。

如果您指定了 pcs resource move 命令的 --master 参数,则约束仅适用于提升的资源实例。

您可选择为 pcs resource move 命令配置 lifetime 参数,以指示约束应保留的时间。根据 ISO 8601 中定义的格式来指定 lifetime 参数的单位,它要求您将单位指定为一个大写字母,例如 Y(年)、M(月)、W(周)、D(天)、H(小时)、M(分钟)和 S(秒)。

为了将分钟(M)与月(M)区分开,需要在分钟值前添加 PT 来指定。例如,lifetime 参数为 5M 表示 5 个月的间隔,而 lifetime 参数为 PT5M 则表示间隔为 5 分钟。

以下命令将资源 resource1 移到节点 example-node2,并防止它重新移至最初在其上运行了 1 小时 30 分钟的节点。

pcs resource move resource1 example-node2 lifetime=PT1H30M

以下命令将资源 resource1 移到节点 example-node2,并防止它重新移至最初在其上运行了 30 分钟的节点。

pcs resource move resource1 example-node2 lifetime=PT30M

31.2.2. 将资源移动到首选节点

由于故障转移或管理员手动移动节点,在资源移动后,即使解决了造成故障转移的情况,它也不一定会迁移到其原始的节点。要将资源重新定位到首选节点,请使用以下命令。首选节点由当前的集群状态、约束、资源位置和其他设置决定,并可能随时间变化。

pcs resource relocate run [resource1] [resource2] ...

如果没有指定任何资源,则所有资源都会重新定位到首选节点。

此命令在忽略资源粘性时为每个资源计算首选的节点。在计算首选节点后,它会创建位置限制,导致资源移至首选节点。移动资源后,这些限制会自动被删除。要删除由 pcs resource relocate run 命令创建的所有限制,您可以输入 pcs resource relocate clear 命令。要显示资源的当前状态及其最佳节点忽略资源粘性,请输入 pcs resource relocate show 命令。

31.3. 禁用、启用和禁止集群资源

除了 pcs resource movepcs resource relocate 命令外,您还可以使用各种其他命令来控制群集资源的行为。

禁用集群资源

您可以手动停止正在运行的资源,并使用以下命令防止集群再次启动它。根据其他配置(约束、选项、失败等)配置,资源可能会继续启动。如果您指定了 --wait 选项,pcs 等待 'n' 秒以便资源停止,然后如果资源停止,则返回 0 或 1(如果资源尚未停止)。如果没有指定 'n',则默认为 60 分钟。

pcs resource disable resource_id [--wait[=n]]

从 RHEL 8.2 开始,您可以指定仅在禁用资源对其他资源没有影响时禁用资源。在具有复杂的资源关系时,这可能无法通过手动设置来完成。

  • pcs resource disable --simulate 命令显示在不更改群集配置时禁用资源的效果。
  • pcs resource disable --safe 命令仅在没有任何方式影响任何其他资源时禁用资源,比如从一个节点迁移到另一个节点。pcs resource secure-disable 命令是 pcs resource disable --safe 命令的 别名。
  • pcs resource disable --safe --no-strict 命令仅在没有其他资源无法停止或降级时禁用资源

从 RHEL 8.5 开始,您可以为 pcs resource disable --safe 命令指定 --brief 选项来只打印错误。同样从 RHEL 8.5 开始,如果安全禁用操作失败,则 pcs resource disable --safe 命令生成的错误报告会包含受影响的资源 ID。如果您只需要知道受禁用资源影响的资源的 ID,请使用 --brief 选项,这不提供完整的模拟结果。

启用集群资源

使用以下命令来允许集群启动资源。根据其余配置,资源可能会继续停止。如果您指定了 --wait 选项,pcs 等待 'n' 秒以便资源启动,然后如果资源启动,则返回 0 或 1(如果资源尚未启动)。如果没有指定 'n',则默认为 60 分钟。

pcs resource enable resource_id [--wait[=n]]
防止资源在特定节点上运行

使用以下命令来防止资源在指定节点上运行,如果没有指定节点则在当前节点上运行。

pcs resource ban resource_id [node] [--master] [lifetime=lifetime] [--wait[=n]]

请注意,当执行 pcs resource ban 命令时,这会向资源添加 -INFINITY 位置约束,以防止其在指定节点上运行。您可以执行 pcs resource clearpcs constraint delete 命令删除约束。这不一定将资源回指定节点 ; 此时可以在哪里运行这些资源取决于您最初配置的资源。

如果您指定 pcs resource ban 命令的 --master 参数,则约束的范围仅限于 master 角色,您必须指定 master_id 而不是 resource_id

您可选择为 pcs resource ban 命令配置 lifetime 参数,以指示约束应保留的时间。

您可以选择为 pcs resource ban 命令配置 --wait[=n] 参数,以指示在返回 0(如果资源已启动)或 1 (如果资源尚未启动)之前,在目标节点上等待资源启动的秒数。如果没有指定 n,将使用默认的资源超时时间。

强制资源在当前节点上启动

使用 pcs resource 命令的 debug-start 参数强制指定资源