在 Red Hat OpenStack Platform 上配置 Red Hat High Availability 集群
在 RHOSP 实例上安装并配置 HA 集群和集群资源
摘要
对红帽文档提供反馈 复制链接链接已复制到粘贴板!
我们感谢您对我们文档的反馈。让我们了解如何改进它。
通过 Jira 提交反馈(需要帐户)
- 登录到 Jira 网站。
- 单击顶部导航栏中的 Create。
- 在 Summary 字段中输入描述性标题。
- 在 Description 字段中输入您的改进建议。包括到文档相关部分的链接。
- 点对话框底部的 Create。
第 1 章 前言 复制链接链接已复制到粘贴板!
您可以使用 Red Hat High Availability Add-On 在 Red Hat OpenStack Platform (RHOSP)实例上配置 Red Hat High Availability (HA)集群。这要求您安装所需的软件包和代理,配置基本集群、配置隔离资源并配置 HA 集群资源。
有关 RHOSP 文档,请参阅 Red Hat Openstack Platform 的产品文档。
有关适用于在 RHEL High Availability 集群中使用 RHOSP 实例的红帽策略、要求和限制,请参阅 RHEL 高可用性集群的支持策略 - OpenStack 虚拟机作为集群成员 - 红帽客户门户网站。
第 2 章 HA 实例的 RHOSP 服务器组配置 复制链接链接已复制到粘贴板!
在创建 RHOSP HA 集群节点实例前,创建一个实例服务器组。按关联性策略对实例进行分组。如果配置多个集群,请确保每个集群只有一个服务器组。
您为服务器组设置的关联性策略可以决定在 hypervisor 失败时集群是否保持正常运行。
默认关联性策略是 affinity。使用这个关联性策略,所有集群节点都可以在同一 RHOSP hypervisor 上创建。在这种情况下,如果虚拟机监控程序失败,整个集群会失败。因此,为 anti-affinity 或 soft-anti-affinity 的服务器组设置一个关联性策略。
-
通过具有
anti-affinity关联性的策略,服务器组每个 Compute 节点只允许一个集群节点。尝试创建比 Compute 节点更多的集群节点会生成错误。虽然此配置根据 RHOSP hypervisor 失败提供最高的保护,但可能需要更多资源来部署大型集群,超过您的可用集群。 -
使用
soft-anti-affinity关联性策略,服务器组在所有计算节点上尽可能平均分配集群节点。和anti-affinity策略相比,这个策略对 hypervisor 失败的保护性要更弱,但它比affinity关联性策略提供了更高的高可用性。
在确定部署的服务器组关联性策略时,需要在集群的需要与您所拥有的资源间进行平衡。您应考虑以下集群组件:
- 集群中的节点数
- 可用的 RHOSP Compute 节点数量
- 用于使集群可以正常工作的集群仲裁所需的节点数量
第 3 章 安装高可用性和 RHOSP 软件包和代理 复制链接链接已复制到粘贴板!
在 Red Hat OpenStack Platform (RHOSP)上安装配置 Red Hat High Availability 集群所需的软件包。您必须在要用作集群成员的每个节点上安装软件包。
先决条件
- RHOSP 实例的服务器组用作 HA 集群节点,按 HA 实例的 RHOSP 服务器组配置 中所述进行配置
每个 HA 集群节点的 RHOSP 实例
- 实例是服务器组的成员
- 实例配置为运行 RHEL 8.7 或更高版本的节点
流程
启用 RHEL HA 软件仓库和 RHOSP 工具频道。
subscription-manager repos --enable=rhel-8-for-x86_64-highavailability-rpms subscription-manager repos --enable=openstack-16-tools-for-rhel-8-x86_64-rpms
# subscription-manager repos --enable=rhel-8-for-x86_64-highavailability-rpms # subscription-manager repos --enable=openstack-16-tools-for-rhel-8-x86_64-rpmsCopy to Clipboard Copied! Toggle word wrap Toggle overflow 安装 RHOSP 集群资源代理和 RHOSP 隔离代理所需的 Red Hat High Availability Add-On 软件包。
yum install pcs pacemaker python3-openstackclient python3-novaclient fence-agents-openstack
# yum install pcs pacemaker python3-openstackclient python3-novaclient fence-agents-openstackCopy to Clipboard Copied! Toggle word wrap Toggle overflow 在每个节点上安装
pcs和pacemaker软件包会创建用户hacluster,即pcs管理帐户。在所有集群节点上为用户hacluster创建密码。对所有节点使用相同的密码简化了集群管理。passwd hacluster
# passwd haclusterCopy to Clipboard Copied! Toggle word wrap Toggle overflow 如果安装了
firewalld.service,在 RHEL 防火墙中添加高可用性服务。firewall-cmd --permanent --add-service=high-availability firewall-cmd --add-service=high-availability
# firewall-cmd --permanent --add-service=high-availability # firewall-cmd --add-service=high-availabilityCopy to Clipboard Copied! Toggle word wrap Toggle overflow 启动
pcs服务,并使其在引导时启动。systemctl start pcsd.service systemctl enable pcsd.service
# systemctl start pcsd.service # systemctl enable pcsd.serviceCopy to Clipboard Copied! Toggle word wrap Toggle overflow 验证
pcs服务正在运行。Copy to Clipboard Copied! Toggle word wrap Toggle overflow -
编辑
/etc/hosts文件并添加 RHEL 主机名和内部 IP 地址。有关/etc/hosts的详情,请查看红帽知识库解决方案 如何在 RHEL 集群节点上设置 /etc/hosts 文件?
第 4 章 为 RHOSP 设置验证方法 复制链接链接已复制到粘贴板!
高可用性隔离代理和资源代理支持与 RHOSP 进行通信的三种验证方法:
-
使用
clouds.yaml配置文件的验证 - 使用 OpenRC 环境脚本进行身份验证
-
通过 Pacemaker ,使用
username和密码的验证
确定用于集群的身份验证方法后,在创建隔离或集群资源时指定适当的身份验证参数。
4.1. 使用 clouds.yaml 文件,带有 RHOSP 的验证 复制链接链接已复制到粘贴板!
本文档中的流程使用 clouds.yaml 文件进行身份验证,请使用此流程中显示的 clouds.yaml 文件。这些过程为 cloud= parameter 指定 ha-example,具体如此文件中所定义。
流程
在属于集群的每个节点上,创建一个
clouds.yaml文件,如下例所示。有关创建clouds.yaml文件的详情,请参考 用户和身份管理指南。Copy to Clipboard Copied! Toggle word wrap Toggle overflow 使用以下基本的 RHOSP 命令测试身份验证是否成功,以及是否可以访问 RHOSP API,替换您在为
ha-example创建的cloud.yaml文件中指定的云的名称。如果这个命令没有显示服务器列表,请联络您的 RHOSP 管理员。openstack --os-cloud=ha-example server list
$ openstack --os-cloud=ha-example server listCopy to Clipboard Copied! Toggle word wrap Toggle overflow - 指定在创建集群资源或隔离资源时的 cloud 参数。
4.2. 使用 OpenRC 环境脚本,带有 RHOSP 的验证 复制链接链接已复制到粘贴板!
要使用 OpenRC 环境脚本通过 RHOSP 进行身份验证,请执行以下步骤。
流程
- 在作为集群一部分的每个节点中,配置 OpenRC 环境脚本。有关创建 OpenRC 环境变量的详情,请参考 使用 OpenStack RC 文件设置环境变量。
测试身份验证是否成功,并可使用以下基本 RHOSP 命令访问 RHOSP API。如果这个命令没有显示服务器列表,请联络您的 RHOSP 管理员。
openstack server list
$ openstack server listCopy to Clipboard Copied! Toggle word wrap Toggle overflow -
指定在创建集群资源或隔离资源时的
openrc参数。
4.3. 使用 用户名 和密码,带有 RHOSP 的验证 复制链接链接已复制到粘贴板!
要使用 用户名 和密码,进行带有 RHOSP 的验证,请在创建资源时为集群资源或隔离资源指定username、password 和 auth_url 参数。根据 RHOSP 配置,可能需要其他身份验证参数。RHOSP 管理员提供要使用的身份验证参数。
第 5 章 在 Red Hat OpenStack Platform 上创建基本集群 复制链接链接已复制到粘贴板!
此流程在没有配置隔离或资源的 RHOSP 平台上创建高可用性集群。
先决条件
- 为每个 HA 集群节点配置一个 RHOSP 实例
- HAcluster 节点正在运行 RHEL 8.7 或更高版本
- 在每个节点上安装高可用性和 RHOSP 软件包,如 安装高可用性和 RHOSP 软件包和代理中所述。
流程
在其中一个群集节点上,输入以下命令验证
pcs用户hacluster。指定集群中的每个节点的名称。在本例中,集群的节点为node01、node02和node03。Copy to Clipboard Copied! Toggle word wrap Toggle overflow 创建集群。在本例中,集群名为
newcluster。Copy to Clipboard Copied! Toggle word wrap Toggle overflow
验证
启用集群。
pcs cluster enable --all node01: Cluster Enabled node02: Cluster Enabled node03: Cluster Enabled
[root@node01 ~]# pcs cluster enable --all node01: Cluster Enabled node02: Cluster Enabled node03: Cluster EnabledCopy to Clipboard Copied! Toggle word wrap Toggle overflow 启动集群。命令的输出指示是否集群已在每个节点上启动。
pcs cluster start --all node02: Starting Cluster… node03: Starting Cluster… node01: Starting Cluster...
[root@node01 ~]# pcs cluster start --all node02: Starting Cluster… node03: Starting Cluster… node01: Starting Cluster...Copy to Clipboard Copied! Toggle word wrap Toggle overflow
第 6 章 为 Red Hat OpenStack Platform 上的 HA 集群配置隔离 复制链接链接已复制到粘贴板!
隔离配置确保 HA 集群上的故障节点被自动隔离。这可防止节点消耗集群的资源或影响集群的功能。
使用 fence_openstack 隔离代理为 RHOSP 上的 HA 集群配置隔离设备。您可以使用以下命令查看 RHOSP 隔离代理的选项。
pcs stonith describe fence_openstack
# pcs stonith describe fence_openstack
先决条件
- 在 RHOSP 上运行配置的 HA 集群
- 使用您要用于集群配置的 RHOSP 验证方法访问 RHOSP API,如 为 RHOSP 建立一个身份验证方法 中所述
集群属性
stonith-enabled设置为true,这是默认值。红帽不支持禁用了隔离功能的集群,因为它不适用于生产环境。运行以下命令确保隔离已启用。pcs property config --all Cluster Properties: . . . stonith-enabled: true
# pcs property config --all Cluster Properties: . . . stonith-enabled: trueCopy to Clipboard Copied! Toggle word wrap Toggle overflow
流程
从集群中的任何节点完成以下步骤。
确定集群中每个节点的 UUID。
以下命令显示
ha-example项目中所有 RHOSP 实例名称的完整列表,以及标题ID下,与该 RHOSP 实例关联的集群节点的 UUID。节点主机名可能与 RHOSP 实例名称不匹配。Copy to Clipboard Copied! Toggle word wrap Toggle overflow 创建隔离设备,使用
pcmk_host_map参数将集群中的每个节点映射到该节点的 UUID。以下每个示例隔离设备创建命令都使用不同的身份验证方法。以下命令使用
clouds.yaml配置文件为 3 节点集群创建fence_openstack隔离设备。对于cloud= parameter,在 clouds.yaml' 文件中指定云名称。pcs stonith create fenceopenstack fence_openstack pcmk_host_map="node01:4df08e9d-2fa6-4c04-9e66-36a6f002250e;node02:43ed5fe8-6cc7-4af0-8acd-a4fea293bc62;node03:6d86fa7d-b31f-4f8a-895e-b3558df9decb" power_timeout="240" pcmk_reboot_timeout="480" pcmk_reboot_retries="4" cloud="ha-example"
# pcs stonith create fenceopenstack fence_openstack pcmk_host_map="node01:4df08e9d-2fa6-4c04-9e66-36a6f002250e;node02:43ed5fe8-6cc7-4af0-8acd-a4fea293bc62;node03:6d86fa7d-b31f-4f8a-895e-b3558df9decb" power_timeout="240" pcmk_reboot_timeout="480" pcmk_reboot_retries="4" cloud="ha-example"Copy to Clipboard Copied! Toggle word wrap Toggle overflow 以下命令使用 OpenRC 环境脚本创建一个
fence_openstack隔离设备。pcs stonith create fenceopenstack fence_openstack pcmk_host_map="node01:4df08e9d-2fa6-4c04-9e66-36a6f002250e;node02:43ed5fe8-6cc7-4af0-8acd-a4fea293bc62;node03:6d86fa7d-b31f-4f8a-895e-b3558df9decb" power_timeout="240" pcmk_reboot_timeout="480" pcmk_reboot_retries="4" openrc="/root/openrc"
# pcs stonith create fenceopenstack fence_openstack pcmk_host_map="node01:4df08e9d-2fa6-4c04-9e66-36a6f002250e;node02:43ed5fe8-6cc7-4af0-8acd-a4fea293bc62;node03:6d86fa7d-b31f-4f8a-895e-b3558df9decb" power_timeout="240" pcmk_reboot_timeout="480" pcmk_reboot_retries="4" openrc="/root/openrc"Copy to Clipboard Copied! Toggle word wrap Toggle overflow 以下命令使用用户名和密码进行身份验证创建
fence_openstack隔离设备。身份验证参数(包括username,password,project_name, 和auth_url)由 RHOSP 管理员提供。pcs stonith create fenceopenstack fence_openstack pcmk_host_map="node01:4df08e9d-2fa6-4c04-9e66-36a6f002250e;node02:43ed5fe8-6cc7-4af0-8acd-a4fea293bc62;node03:6d86fa7d-b31f-4f8a-895e-b3558df9decb" power_timeout="240" pcmk_reboot_timeout="480" pcmk_reboot_retries="4" username="XXX" password="XXX" project_name="rhelha" auth_url="XXX" user_domain_name="Default"
# pcs stonith create fenceopenstack fence_openstack pcmk_host_map="node01:4df08e9d-2fa6-4c04-9e66-36a6f002250e;node02:43ed5fe8-6cc7-4af0-8acd-a4fea293bc62;node03:6d86fa7d-b31f-4f8a-895e-b3558df9decb" power_timeout="240" pcmk_reboot_timeout="480" pcmk_reboot_retries="4" username="XXX" password="XXX" project_name="rhelha" auth_url="XXX" user_domain_name="Default"Copy to Clipboard Copied! Toggle word wrap Toggle overflow
- 为确保即时和完全隔离,请在所有群集节点上禁用 ACPI Soft-Off。有关禁用 ACPI Soft-Off 的详情,请参考 配置 ACPI 以用于集成的隔离设备。
验证
从集群中的一个节点,隔离集群中的不同节点,并检查集群状态。如果隔离的节点离线,则隔离操作成功。
[root@node01 ~] # pcs stonith fence node02 [root@node01 ~] # pcs status
[root@node01 ~] # pcs stonith fence node02 [root@node01 ~] # pcs statusCopy to Clipboard Copied! Toggle word wrap Toggle overflow 重启您隔离的节点并检查状态以验证节点是否已启动。
[root@node01 ~] # pcs cluster start node02 [root@node01 ~] # pcs status
[root@node01 ~] # pcs cluster start node02 [root@node01 ~] # pcs statusCopy to Clipboard Copied! Toggle word wrap Toggle overflow
第 7 章 在 Red Hat OpenStack Platform 中配置 HA 集群资源 复制链接链接已复制到粘贴板!
下表列出了用来为 RHOSP 上的 HA 集群配置资源的特定于 RHOSP 的资源代理。
|
|
提供对特定于 RHOSP 的资源代理的支持。您必须将 |
|
|
配置虚拟 IP 地址资源。有关配置 |
|
|
配置浮动 IP 地址资源。有关配置 |
|
|
配置块存储资源。有关配置 |
在配置其他集群资源时,请使用标准 Pacemaker 资源代理。
您必须配置 openstack-info 资源,以便运行除 fence_openstack 隔离代理之外的其他特定于 RHOSP 的资源代理。
此流程创建 openstack-info 资源,使用 clouds.yaml 文件进行 RHOSP 身份验证。
先决条件
- 在 RHOSP 上运行配置的 HA 集群
- 使用您要用于集群配置的 RHOSP 验证方法访问 RHOSP API,如 为 RHOSP 建立一个身份验证方法 中所述
流程
从集群中的任何节点完成以下步骤。
要查看
openstack-info资源代理的选项,请运行以下命令。pcs resource describe openstack-info
# pcs resource describe openstack-infoCopy to Clipboard Copied! Toggle word wrap Toggle overflow 创建
openstack-info资源作为克隆资源。在本例中,该资源也称为openstack-info。本例使用clouds.yaml配置文件,cloud=参数设为clouds.yaml文件中的云名称。pcs resource create openstack-info openstack-info cloud="ha-example" clone
# pcs resource create openstack-info openstack-info cloud="ha-example" cloneCopy to Clipboard Copied! Toggle word wrap Toggle overflow 检查集群状态,以验证资源是否正在运行。
Copy to Clipboard Copied! Toggle word wrap Toggle overflow
7.2. 在 Red Hat Openstack Platform 上的 HA 集群中配置虚拟 IP 地址 复制链接链接已复制到粘贴板!
此流程为 RHOSP 平台上的 HA 集群创建 RHOSP 虚拟 IP 地址资源,使用 clouds.yaml 文件进行 RHOSP 身份验证。
RHOSP 虚拟 IP 资源与 IPaddr2 集群资源一起使用。当您配置 RHOSP 虚拟 IP 地址资源时,资源代理可确保 RHOSP 基础架构将虚拟 IP 地址与网络中的集群节点关联。这允许 IPaddr2 资源在该节点上正常工作。
先决条件
- 在 RHOSP 上运行配置的 HA 集群
- 用作虚拟 IP 地址的分配的 IP 地址
- 使用您要用于集群配置的 RHOSP 验证方法访问 RHOSP API,如 为 RHOSP 建立一个身份验证方法 中所述
流程
从集群中的任何节点完成以下步骤。
要查看
openstack-virtual-ip资源代理的选项,请运行以下命令:pcs resource describe openstack-virtual-ip
# pcs resource describe openstack-virtual-ipCopy to Clipboard Copied! Toggle word wrap Toggle overflow 运行以下命令,以确定您使用的虚拟 IP 地址的子网 ID。在本例中,虚拟 IP 地址为 172.16.0.119。
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 创建 RHOSP 虚拟 IP 地址资源。
以下命令为 IP 地址 172.16.0.119 创建 RHOSP 虚拟 IP 地址资源,指定您在上一步中确定的子网 ID。
pcs resource create ClusterIP-osp ocf:heartbeat:openstack-virtual-ip cloud=ha-example ip=172.16.0.119 subnet_id=723c5a77-156d-4c3b-b53c-ee73a4f75185
# pcs resource create ClusterIP-osp ocf:heartbeat:openstack-virtual-ip cloud=ha-example ip=172.16.0.119 subnet_id=723c5a77-156d-4c3b-b53c-ee73a4f75185Copy to Clipboard Copied! Toggle word wrap Toggle overflow 配置排序和位置约束:
-
确保
openstack-info资源在虚拟 IP 地址资源之前启动。 确保虚拟 IP 地址资源运行在与
openstack-info资源相同的节点上。pcs constraint order start openstack-info-clone then ClusterIP-osp Adding openstack-info-clone ClusterIP-osp (kind: Mandatory) (Options: first-action=start then-action=start) pcs constraint colocation add ClusterIP-osp with openstack-info-clone score=INFINITY
# pcs constraint order start openstack-info-clone then ClusterIP-osp Adding openstack-info-clone ClusterIP-osp (kind: Mandatory) (Options: first-action=start then-action=start) # pcs constraint colocation add ClusterIP-osp with openstack-info-clone score=INFINITYCopy to Clipboard Copied! Toggle word wrap Toggle overflow
-
确保
为虚拟 IP 地址创建
IPaddr2资源。pcs resource create ClusterIP ocf:heartbeat:IPaddr2 ip=172.16.0.119
# pcs resource create ClusterIP ocf:heartbeat:IPaddr2 ip=172.16.0.119Copy to Clipboard Copied! Toggle word wrap Toggle overflow 配置排序和位置限制,以确保
openstack-virtual-ip资源在IPaddr2资源之前启动,IPaddr2资源在与openstack-virtual-ip资源在同一节点上运行。pcs constraint order start ClusterIP-osp then ClusterIP Adding ClusterIP-osp ClusterIP (kind: Mandatory) (Options: first-action=start then-action=start) pcs constraint colocation add ClusterIP with ClusterIP-osp
# pcs constraint order start ClusterIP-osp then ClusterIP Adding ClusterIP-osp ClusterIP (kind: Mandatory) (Options: first-action=start then-action=start) # pcs constraint colocation add ClusterIP with ClusterIP-ospCopy to Clipboard Copied! Toggle word wrap Toggle overflow
验证
验证资源限制配置。
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 检查集群状态,以验证资源是否正在运行。
Copy to Clipboard Copied! Toggle word wrap Toggle overflow
7.3. 在 Red Hat OpenStack Platform 上的 HA 集群中配置浮动 IP 地址 复制链接链接已复制到粘贴板!
以下流程为 RHOSP 上的 HA 集群创建浮动 IP 地址资源。此流程使用 clouds.yaml 文件进行 RHOSP 身份验证。
先决条件
- 在 RHOSP 上运行配置的 HA 集群
- 用作浮动 IP 地址的公共网络上的 IP 地址,由 RHOSP 管理员分配
- 使用您要用于集群配置的 RHOSP 验证方法访问 RHOSP API,如 为 RHOSP 建立一个身份验证方法 中所述
流程
从集群中的任何节点完成以下步骤。
要查看
openstack-floating-ip资源代理的选项,请运行以下命令。pcs resource describe openstack-floating-ip
# pcs resource describe openstack-floating-ipCopy to Clipboard Copied! Toggle word wrap Toggle overflow 在您要用来创建浮动 IP 地址资源的公共网络上查找地址的子网 ID。
公共网络通常是使用默认网关的网络。运行以下命令以显示默认网关地址。
route -n | grep ^0.0.0.0 | awk '{print $2}' 172.16.0.1# route -n | grep ^0.0.0.0 | awk '{print $2}' 172.16.0.1Copy to Clipboard Copied! Toggle word wrap Toggle overflow 运行以下命令来查找 public 网络的子网 ID。这个命令生成一个 ID 和子网标题的表。
Copy to Clipboard Copied! Toggle word wrap Toggle overflow
创建浮动 IP 地址资源,为该地址指定资源和子网 ID 的公共 IP 地址。当您配置浮动 IP 地址资源时,资源代理在公共网络上配置虚拟 IP 地址,并将其与集群节点关联。
pcs resource create float-ip openstack-floating-ip cloud="ha-example" ip_id="10.19.227.211" subnet_id="723c5a77-156d-4c3b-b53c-ee73a4f75185"
# pcs resource create float-ip openstack-floating-ip cloud="ha-example" ip_id="10.19.227.211" subnet_id="723c5a77-156d-4c3b-b53c-ee73a4f75185"Copy to Clipboard Copied! Toggle word wrap Toggle overflow 配置排序约束,以确保
openstack-info资源在浮动 IP 地址资源之前启动。pcs constraint order start openstack-info-clone then float-ip Adding openstack-info-clone float-ip (kind: Mandatory) (Options: first-action=start then-action=start
# pcs constraint order start openstack-info-clone then float-ip Adding openstack-info-clone float-ip (kind: Mandatory) (Options: first-action=start then-action=startCopy to Clipboard Copied! Toggle word wrap Toggle overflow 配置位置约束,以确保浮动 IP 地址资源与
openstack-info资源在同一节点上运行。pcs constraint colocation add float-ip with openstack-info-clone score=INFINITY
# pcs constraint colocation add float-ip with openstack-info-clone score=INFINITYCopy to Clipboard Copied! Toggle word wrap Toggle overflow
验证
验证资源限制配置。
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 检查集群状态,以验证资源是否正在运行。
Copy to Clipboard Copied! Toggle word wrap Toggle overflow
7.4. 在 Red Hat OpenStack Platform 上的 HA 集群中配置块存储资源 复制链接链接已复制到粘贴板!
以下流程为 RHOSP 上的 HA 集群创建块存储资源。此流程使用 clouds.yaml 文件进行 RHOSP 身份验证。
先决条件
- 在 RHOSP 上运行配置的 HA 集群
- 由 RHOSP 管理员创建的块存储卷
- 使用您要用于集群配置的 RHOSP 验证方法访问 RHOSP API,如 为 RHOSP 建立一个身份验证方法 中所述
流程
从集群中的任何节点完成以下步骤。
要查看
openstack-cinder-volume资源代理的选项,请运行以下命令:pcs resource describe openstack-cinder-volume
# pcs resource describe openstack-cinder-volumeCopy to Clipboard Copied! Toggle word wrap Toggle overflow 确定您要配置为集群资源的块存储卷卷 ID。
运行以下命令以显示包括每个卷的 UUID 和名称的可用卷表。
openstack --os-cloud=ha-example volume list | ID | Name | | 23f67c9f-b530-4d44-8ce5-ad5d056ba926| testvolume-cinder-data-disk |
# openstack --os-cloud=ha-example volume list | ID | Name | | 23f67c9f-b530-4d44-8ce5-ad5d056ba926| testvolume-cinder-data-disk |Copy to Clipboard Copied! Toggle word wrap Toggle overflow 如果您已经知道卷名称,您可以运行以下命令,指定您要配置的卷。这将显示一个带有 ID 字段的表。
openstack --os-cloud=ha-example volume show testvolume-cinder-data-disk
# openstack --os-cloud=ha-example volume show testvolume-cinder-data-diskCopy to Clipboard Copied! Toggle word wrap Toggle overflow 创建块存储资源,为卷指定 ID。
pcs resource create cinder-vol openstack-cinder-volume volume_id="23f67c9f-b530-4d44-8ce5-ad5d056ba926" cloud="ha-example"
# pcs resource create cinder-vol openstack-cinder-volume volume_id="23f67c9f-b530-4d44-8ce5-ad5d056ba926" cloud="ha-example"Copy to Clipboard Copied! Toggle word wrap Toggle overflow 配置排序约束,以确保
openstack-info资源在块存储资源前启动。pcs constraint order start openstack-info-clone then cinder-vol Adding openstack-info-clone cinder-vol (kind: Mandatory) (Options: first-action=start then-action=start
# pcs constraint order start openstack-info-clone then cinder-vol Adding openstack-info-clone cinder-vol (kind: Mandatory) (Options: first-action=start then-action=startCopy to Clipboard Copied! Toggle word wrap Toggle overflow 配置位置约束,以确保块存储资源与
openstack-info资源在同一节点上运行。pcs constraint colocation add cinder-vol with openstack-info-clone score=INFINITY
# pcs constraint colocation add cinder-vol with openstack-info-clone score=INFINITYCopy to Clipboard Copied! Toggle word wrap Toggle overflow
验证
验证资源限制配置。
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 检查集群状态,以验证资源是否正在运行。
Copy to Clipboard Copied! Toggle word wrap Toggle overflow