5.3. 测试 1:通过活跃的第三个站点对主节点进行故障切换


Expand

测试的主题

自动重新注册第三个站点。

清除后,将状态更改为 SOK。

测试先决条件

  • DC1、DC2、DC3 上的 SAP HANA 正在运行。
  • 集群已启动并运行,且没有错误或警告。

测试步骤

使用 pcs resource move 命令移动 SAPHana 资源。

监控测试

在第三个站点中,作为 sidadm 命令运行(sidadm)在 table. cycles 的末尾提供的命令

在辅助节点上运行:{ watch pcs status --full

启动测试

执行集群命令:

# pcs move resource SAPHana_MTR_00-clone

# pcs resource clear SAPHana_MTR_00-clone

预期结果

在 site 3 上的 monitor 命令中,主主从 node1 变为 node2。

清除资源后,同步状态将从 SFAIL 更改为 SOK。

返回初始状态的方法

运行测试两次。

(*)

%watch hdbnsutil -sr_state
# tail -1000f /var/log/messages |egrep -e ‘SOK|SWAIT|SFAIL’
Copy to Clipboard Toggle word wrap

专家摘要:

  • 在开始测试前,请检查第三个站点中的主节点:

    % hdbnsutil -sr_stateConfiguration | grep "primary masters"
    Copy to Clipboard Toggle word wrap
  • 在集群节点上启动故障切换:

    # pcs resource move <SAPHana-clone-ressource>
    Copy to Clipboard Toggle word wrap
  • 如果主节点已更改,在第三个节点上检查:

    % hdbnsutil -sr_stateConfiguration | grep "primary masters"
    Copy to Clipboard Toggle word wrap
  • 清理环境:

    # psc resource clear <SAPHana-clone-ressource>
    Copy to Clipboard Toggle word wrap

详细描述:

  • 请首先列出资源:

    [root@node2:~]# pcs resource
      * Clone Set: SAPHanaTopology_RH2_02-clone [SAPHanaTopology_RH2_02]:
        * Started: [ node1 node2 ]
      * Clone Set: SAPHana_RH2_02-clone [SAPHana_RH2_02] (promotable):
        * Promoted: [ node2 ]
        * Unpromoted: [ node1 ]
      * vip_RH2_02_MASTER	(ocf:heartbeat:IPaddr2):	 Started node2+
    Copy to Clipboard Toggle word wrap
  • 本例中的资源名称为 SAPHana_RH2_02-clone。在移动克隆资源前,在单独的终端窗口中启动 node3 的监控。
  • 启动监控器示例:

    sidadm@+node3% watch 'hdbnsutil -sr_state | grep "primary masters"'
    primary masters: node1
    Copy to Clipboard Toggle word wrap

    RHEL 9.2 示例 - 使用上面发现的克隆资源启动移动测试:

    [root@node2:~]# pcs resource move SAPHana_RH2_02-clone
    Location constraint to move resource 'SAPHana_RH2_02-clone' has been created
    Waiting for the cluster to apply configuration changes...
    Location constraint created to move resource 'SAPHana_RH2_02-clone' has been removed
    Waiting for the cluster to apply configuration changes...
    resource 'SAPHana_RH2_02-clone' is promoted on node 'node1'; unpromoted on node 'node2'
    [root@node2:~]# pcs resource clear SAPHana_RH2_02-clone
    Copy to Clipboard Toggle word wrap

在早期版本中,建议添加目标节点,例如:

# pcs resource move SAPhana_RH2_02-clone node2
Copy to Clipboard Toggle word wrap

自动创建的位置限制的 autodelete 选项无法正常工作,这需要资源清除。Example:

# pcs resource clear SAPhana_RH2_02-clone
Copy to Clipboard Toggle word wrap
  • "主 master"监控器应当显示到新主节点的即时开关。
  • 如果您检查集群状态,则以前的次要会被提升,以前的主会被重新注册,并且 Clone_StatePromoted 变为 Undefined to WAITINGFORLPA to DEMOTED
  • SAPHana monitor 在故障转移后第一次启动时,次要会将 sync_state 更改为 SFAIL。由于现有位置约束,资源需要被清除,并在次要的 sync_state 的短时间将再次更改为 SOK
  • 二级被提升:

    # pcs status --full| egrep -e
    'Node|SOK|SFAIL|sync_state|clone_state|warning'
    
    Node List:
      * Node node1 (1): online, feature set 3.16.2
      * Node node2 (2): online, feature set 3.16.2
    Node Attributes:
      * Node: node1 (1):
        * hana_rh2_clone_state              : UNDEFINED
        * hana_rh2_sync_state               : PRIM
      * Node: node2 (2):
        * hana_rh2_clone_state              : PROMOTED
        * hana_rh2_sync_state               : SOK
      * Node: node1 (1):
      * Node: node2 (2):
    Copy to Clipboard Toggle word wrap
  • 主获取降级,但 SR sync 状态被设置为 SFAIL:

    # watch “pcs status --full| egrep -e
    'Node|SOK|SFAIL|sync_state|clone_state|arning'”
    Every 2.0s: pcs status --full| egrep -e 'Node|SOK|SFAIL|sync_state|clone_state|arning'
    
    Node List:
      * Node node1 (1): online, feature set 3.16.2
      * Node node2 (2): online, feature set 3.16.2
    Node Attributes:
      * Node: node1 (1):
        * hana_rh2_clone_state              : DEMOTED
        * hana_rh2_sync_state               : SFAIL
      * Node: node2 (2):
        * hana_rh2_clone_state              : PROMOTED
        * hana_rh2_sync_state               : PRIM
      * Node: node1 (1):
      * Node: node2 (2):
    Copy to Clipboard Toggle word wrap
  • 执行以下命令:

    # pcs resource clear SAPHana_RH2_02-clone
    Copy to Clipboard Toggle word wrap
  • 同步状态会在从 SFAIL 到 SOK 大约 5 分钟后再次更改:

    Every +2.0s: pcs status --full| egrep -e 'Node|SOK|SFAIL|sync_state|clone_state|warning'
    
    Node List:
      * Node node1 (1): online, feature set 3.16.2
      * Node node2 (2): online, feature set 3.16.2
    Node Attributes:
      * Node: node1 (1):
        * hana_rh2_clone_state              : DEMOTED
        * hana_rh2_sync_state               : SOK
      * Node: node2 (2):
        * hana_rh2_clone_state              : PROMOTED
        * hana_rh2_sync_state               : PRIM+
    Copy to Clipboard Toggle word wrap

最后,发现第三个节点上的主要节点,它应当与提升的节点上的信息同步。

返回顶部
Red Hat logoGithubredditYoutubeTwitter

学习

尝试、购买和销售

社区

关于红帽文档

通过我们的产品和服务,以及可以信赖的内容,帮助红帽用户创新并实现他们的目标。 了解我们当前的更新.

让开源更具包容性

红帽致力于替换我们的代码、文档和 Web 属性中存在问题的语言。欲了解更多详情,请参阅红帽博客.

關於紅帽

我们提供强化的解决方案,使企业能够更轻松地跨平台和环境(从核心数据中心到网络边缘)工作。

Theme

© 2025 Red Hat