7.2. 将监控堆栈组件迁移到现有 Red Hat Ceph Storage 集群中的新节点


Red Hat Ceph Storage Dashboard 模块向 Ceph Manager 添加基于 Web 的监控和管理。使用 director 部署的 Red Hat Ceph Storage Dashboard,Red Hat Ceph Storage Dashboard 作为 overcloud 部署的一部分启用,由以下组件组成:

  • Ceph Manager 模块
  • Grafana
  • Prometheus
  • Alertmanager
  • 节点导出器

Red Hat Ceph Storage Dashboard 容器通过 tripleo-container-image-prepare 参数包括,高可用性(HA)依赖于 HAProxyPacemaker 部署到 Red Hat OpenStack Platform (RHOSP)环境中。对于外部 Red Hat Ceph Storage 集群,不支持 HA。

在此过程中,您将迁移 Ceph 监控组件并重新定位到释放 Controller 节点。

先决条件

7.2.1. 将监控堆栈迁移到目标节点

要将监控堆栈迁移到目标节点,您要将监控标签添加到现有节点,并更新每个守护进程的配置。您不需要迁移节点导出器。这些守护进程在作为 Red Hat Ceph Storage 集群一部分的节点间部署(放置为 '*')。

先决条件

  • 确认防火墙规则已就位,并且端口对于给定的监控堆栈服务打开。
注意

根据目标节点和部署或活跃的守护进程数量,您可以将现有容器重新定位到目标节点,或者选择托管监控堆栈守护进程的节点子集。不支持高可用性(HA)。通过 count: 1 减少放置,允许您在不影响其他服务的情况下迁移超融合基础架构或硬件限制中的现有守护进程。

7.2.1.1. 将现有守护进程迁移到目标节点

以下流程是具有 3 个 Red Hat Ceph Storage 节点或 ComputeHCI 节点的环境示例。此场景将监控标签扩展到属于集群的所有 Red Hat Ceph Storage 或 ComputeHCI 节点。这意味着您要为目标节点保留 3 个放置。

流程

  1. 将监控标签添加到集群中的所有 Red Hat Ceph Storage 或 ComputeHCI 节点:

    for item in $(sudo cephadm shell --  ceph orch host ls --format json | jq -r '.[].hostname'); do
        sudo cephadm shell -- ceph orch host label add  $item monitoring;
    done
    Copy to Clipboard Toggle word wrap
  2. 验证目标节点上的所有主机是否具有监控标签:

    [tripleo-admin@controller-0 ~]$ sudo cephadm shell -- ceph orch host ls
    
    HOST                        ADDR           LABELS
    cephstorage-0.redhat.local  192.168.24.11  osd monitoring
    cephstorage-1.redhat.local  192.168.24.12  osd monitoring
    cephstorage-2.redhat.local  192.168.24.47  osd monitoring
    controller-0.redhat.local   192.168.24.35  _admin mon mgr monitoring
    controller-1.redhat.local   192.168.24.53  mon _admin mgr monitoring
    controller-2.redhat.local   192.168.24.10  mon _admin mgr monitoring
    Copy to Clipboard Toggle word wrap
  3. 从 Controller 节点中删除标签:

    $ for i in 0 1 2; do sudo cephadm shell -- ceph orch host label rm "controller-$i.redhat.local" monitoring; done
    
    Removed label monitoring from host controller-0.redhat.local
    Removed label monitoring from host controller-1.redhat.local
    Removed label monitoring from host controller-2.redhat.local
    Copy to Clipboard Toggle word wrap
  4. 转储当前的监控堆栈规格:

    function export_spec {
        local component="$1"
        local target_dir="$2"
        sudo cephadm shell -- ceph orch ls --export "$component" > "$target_dir/$component"
    }
    
    SPEC_DIR=${SPEC_DIR:-"$PWD/ceph_specs"}
    mkdir -p ${SPEC_DIR}
    for m in grafana prometheus alertmanager; do
        export_spec "$m" "$SPEC_DIR"
    done
    Copy to Clipboard Toggle word wrap
  5. 对于每个守护进程,编辑当前的 spec,并将 placement.hosts: 部分替换为 placement.label: 部分,例如:

    service_type: grafana
    service_name: grafana
    placement:
      label: monitoring
    networks:
    - 172.17.3.0/24
    spec:
      port: 3100
    Copy to Clipboard Toggle word wrap

    此步骤也适用于 Prometheus 和 Alertmanager 规格。

  6. 应用新的监控 spec 来重新定位监控堆栈守护进程:

    SPEC_DIR=${SPEC_DIR:-"$PWD/ceph_specs"}
    function migrate_daemon {
        local component="$1"
        local target_dir="$2"
        sudo cephadm shell -m "$target_dir" -- ceph orch apply -i /mnt/ceph_specs/$component
    }
    for m in grafana prometheus alertmanager; do
        migrate_daemon  "$m" "$SPEC_DIR"
    done
    Copy to Clipboard Toggle word wrap
  7. 验证守护进程是否已部署到预期的节点上:

    [ceph: root@controller-0 /]# ceph orch ps | grep -iE "(prome|alert|grafa)"
    alertmanager.cephstorage-2  cephstorage-2.redhat.local  172.17.3.144:9093,9094
    grafana.cephstorage-0       cephstorage-0.redhat.local  172.17.3.83:3100
    prometheus.cephstorage-1    cephstorage-1.redhat.local  172.17.3.53:9092
    Copy to Clipboard Toggle word wrap
    注意

    迁移监控堆栈后,您会丢失高可用性。监控堆栈守护进程不再具有虚拟 IP 地址和 HAProxy。节点导出器仍然在所有节点上运行。

  8. 检查 Red Hat Ceph Storage 配置,以确保它与目标节点上的配置一致。特别是,请关注以下配置条目:

    [ceph: root@controller-0 /]# ceph config dump | grep -i dashboard
    ...
    mgr  advanced  mgr/dashboard/ALERTMANAGER_API_HOST  http://172.17.3.83:9093
    mgr  advanced  mgr/dashboard/GRAFANA_API_URL        https://172.17.3.144:3100
    mgr  advanced  mgr/dashboard/PROMETHEUS_API_HOST    http://172.17.3.83:9092
    mgr  advanced  mgr/dashboard/controller-0.ycokob/server_addr  172.17.3.33
    mgr  advanced  mgr/dashboard/controller-1.lmzpuc/server_addr  172.17.3.147
    mgr  advanced  mgr/dashboard/controller-2.xpdgfl/server_addr  172.17.3.138
    Copy to Clipboard Toggle word wrap
  9. 验证 grafanaalertmanagerprometheus 服务的 API_HOST/URL 指向每个守护进程重新定位节点的存储网络上的 IP 地址:

    [ceph: root@controller-0 /]# ceph orch ps | grep -iE "(prome|alert|grafa)"
    alertmanager.cephstorage-0  cephstorage-0.redhat.local  172.17.3.83:9093,9094
    alertmanager.cephstorage-1  cephstorage-1.redhat.local  172.17.3.53:9093,9094
    alertmanager.cephstorage-2  cephstorage-2.redhat.local  172.17.3.144:9093,9094
    grafana.cephstorage-0       cephstorage-0.redhat.local  172.17.3.83:3100
    grafana.cephstorage-1       cephstorage-1.redhat.local  172.17.3.53:3100
    grafana.cephstorage-2       cephstorage-2.redhat.local  172.17.3.144:3100
    prometheus.cephstorage-0    cephstorage-0.redhat.local  172.17.3.83:9092
    prometheus.cephstorage-1    cephstorage-1.redhat.local  172.17.3.53:9092
    prometheus.cephstorage-2    cephstorage-2.redhat.local  172.17.3.144:9092
    Copy to Clipboard Toggle word wrap
    [ceph: root@controller-0 /]# ceph config dump
    ...
    ...
    mgr  advanced  mgr/dashboard/ALERTMANAGER_API_HOST   http://172.17.3.83:9093
    mgr  advanced  mgr/dashboard/PROMETHEUS_API_HOST     http://172.17.3.83:9092
    mgr  advanced  mgr/dashboard/GRAFANA_API_URL         https://172.17.3.144:3100
    Copy to Clipboard Toggle word wrap
    注意

    Ceph 控制面板,作为 Ceph mgr 提供的服务,不受重新定位的影响。当迁移活跃 mgr 守护进程或强制失败时,您可能会遇到影响。但是,您可以在 Ceph Manager 配置中定义 3 个副本,将请求重定向到不同的实例。

返回顶部
Red Hat logoGithubredditYoutubeTwitter

学习

尝试、购买和销售

社区

关于红帽文档

通过我们的产品和服务,以及可以信赖的内容,帮助红帽用户创新并实现他们的目标。 了解我们当前的更新.

让开源更具包容性

红帽致力于替换我们的代码、文档和 Web 属性中存在问题的语言。欲了解更多详情,请参阅红帽博客.

關於紅帽

我们提供强化的解决方案,使企业能够更轻松地跨平台和环境(从核心数据中心到网络边缘)工作。

Theme

© 2025 Red Hat