5.7. 因为节点崩溃而导致 ASCS 实例失败(ENSA2)
对于 3 个节点 ENSA 2 集群环境,在任何实例的故障转移事件中考虑第三个节点。
测试先决条件
-
一个 3 个节点 SAP S/4HANA 集群,其中包含运行
ASCS和ERS的资源组。 - 第三节点可以访问所有文件系统,并可置备所需的实例特定 IP 地址,方式与前 2 个节点相同。
在示例设置中,底层共享
NFS文件系统如下:Node List: * Online: [ node1 node2 node3 ] Active Resources: * s4r9g2_fence (stonith:fence_rhevm): Started node1 * Clone Set: s4h_fs_sapmnt-clone [fs_sapmnt]: * Started: [ node1 node2 node3 ] * Clone Set: s4h_fs_sap_trans-clone [fs_sap_trans]: * Started: [ node1 node2 node3 ] * Clone Set: s4h_fs_sap_SYS-clone [fs_sap_SYS]: * Started: [ node1 node2 node3 ] * Resource Group: S4H_ASCS20_group: * S4H_lvm_ascs20 (ocf:heartbeat:LVM-activate): Started node1 * S4H_fs_ascs20 (ocf:heartbeat:Filesystem): Started node1 * S4H_vip_ascs20 (ocf:heartbeat:IPaddr2): Started node1 * S4H_ascs20 (ocf:heartbeat:SAPInstance): Started node1 * Resource Group: S4H_ERS29_group: * S4H_lvm_ers29 (ocf:heartbeat:LVM-activate): Started node2 * S4H_fs_ers29 (ocf:heartbeat:Filesystem): Started node2 * S4H_vip_ers29 (ocf:heartbeat:IPaddr2): Started node2 * S4H_ers29 (ocf:heartbeat:SAPInstance): Started node2- 已清除资源和资源组的所有故障,并且已重置故障计数。
-
一个 3 个节点 SAP S/4HANA 集群,其中包含运行
测试步骤
-
崩溃运行
ASCS的节点。
-
崩溃运行
监控
在当前在测试过程中没有运行
ASCS组的节点中的一个单独的终端中运行以下命令:[root@node2]# watch -n 1 pcs status
预期行为
-
ASCS移至第 3 个节点。 -
ERS继续在运行它的同一节点上运行。
-
测试
崩溃当前运行
ASCS组的节点:[root@node1]# echo c > /proc/sysrq-triggerASCS移至第 3 个节点,而不干扰已在第 2 个节点上运行的ERS实例:[root@node2]# pcs status | egrep -e "S4H_ascs20|S4H_ers29" * S4H_ascs20 (ocf:heartbeat:SAPInstance): Started node3 * S4H_ers29 (ocf:heartbeat:SAPInstance): Started node2
恢复过程
如果出现以下情况,清理失败的操作:
[root@node2]# pcs resource cleanup