9.2. 将 tiebreaker 替换为新监控器


如果您的 tiebreaker monitor 失败,您可以将其替换为新的 monitor,并将它从集群中移除。

先决条件

  • 正在运行的 Red Hat Ceph Storage 集群
  • 在集群中启用的扩展模式

流程

  1. 在集群中添加新监控器:

    1. 手动将 crush_location 添加到新监控器:

      语法

      ceph mon add NEW_HOST IP_ADDRESS datacenter=DATACENTER

      示例

      [ceph: root@host01 /]# ceph mon add host06 213.222.226.50 datacenter=DC3
      
      adding mon.host06 at [v2:213.222.226.50:3300/0,v1:213.222.226.50:6789/0]

      注意

      新监控器必须与现有非tiebreaker 监视器不同的位置。

    2. 禁用自动监控器部署:

      示例

      [ceph: root@host01 /]# ceph orch apply mon --unmanaged
      
      Scheduled mon update…

    3. 部署新监控器:

      语法

      ceph orch daemon add mon NEW_HOST

      示例

      [ceph: root@host01 /]# ceph orch daemon add mon host06

  2. 确定有 6 个监控器,其中 5 个位于仲裁中:

    示例

    [ceph: root@host01 /]# ceph -s
    
    mon: 6 daemons, quorum host01, host02, host04, host05, host06 (age 30s), out of quorum: host07

  3. 将新 monitor 设置为一个新的 tiebreaker:

    语法

    ceph mon set_new_tiebreaker NEW_HOST

    示例

    [ceph: root@host01 /]# ceph mon set_new_tiebreaker host06

  4. 删除失败的 tiebreaker 监控器:

    语法

    ceph orch daemon rm FAILED_TIEBREAKER_MONITOR --force

    示例

    [ceph: root@host01 /]# ceph orch daemon rm mon.host07 --force
    
    Removed mon.host07 from host 'host07'

  5. 验证一切是否已正确配置:

    示例

    [ceph: root@host01 /]# ceph mon dump
    
    epoch 19
    fsid 1234ab78-1234-11ed-b1b1-de456ef0a89d
    last_changed 2023-01-17T04:12:05.709475+0000
    created 2023-01-16T05:47:25.631684+0000
    min_mon_release 16 (pacific)
    election_strategy: 3
    stretch_mode_enabled 1
    tiebreaker_mon host06
    disallowed_leaders host06
    0: [v2:213.222.226.50:3300/0,v1:213.222.226.50:6789/0] mon.host06; crush_location {datacenter=DC3}
    1: [v2:220.141.179.34:3300/0,v1:220.141.179.34:6789/0] mon.host04; crush_location {datacenter=DC2}
    2: [v2:40.90.220.224:3300/0,v1:40.90.220.224:6789/0] mon.host01; crush_location {datacenter=DC1}
    3: [v2:60.140.141.144:3300/0,v1:60.140.141.144:6789/0] mon.host02; crush_location {datacenter=DC1}
    4: [v2:186.184.61.92:3300/0,v1:186.184.61.92:6789/0] mon.host05; crush_location {datacenter=DC2}
    dumped monmap epoch 19

  6. 重新部署 monitor:

    语法

    ceph orch apply mon --placement="HOST_1, HOST_2, HOST_3, HOST_4, HOST_5

    示例

    [ceph: root@host01 /]# ceph orch apply mon --placement="host01, host02, host04, host05, host06"
    
    Scheduled mon update…

Red Hat logoGithubRedditYoutubeTwitter

学习

尝试、购买和销售

社区

关于红帽文档

通过我们的产品和服务,以及可以信赖的内容,帮助红帽用户创新并实现他们的目标。

让开源更具包容性

红帽致力于替换我们的代码、文档和 Web 属性中存在问题的语言。欲了解更多详情,请参阅红帽博客.

關於紅帽

我们提供强化的解决方案,使企业能够更轻松地跨平台和环境(从核心数据中心到网络边缘)工作。

© 2024 Red Hat, Inc.