1.10. 使用 cephadm将存储集群转换为


将存储集群升级到 Red Hat Ceph Storage 5 后,运行 cephadm-adopt playbook 以转换存储集群守护进程以运行 cephadm

cephadm-adopt playbook 采用 Ceph 服务,安装所有 cephadm 依赖项,启用 cephadm 编配器后端,在所有主机上生成和配置 ssh 密钥,并将主机添加到编配器配置中。

注意

运行 cephadm-adopt playbook 后,删除 ceph-ansible 软件包。集群守护进程不再可用于 ceph-ansible。您必须使用 cephadm 来管理集群守护进程。

先决条件

  • 一个正在运行的 Red Hat Ceph Storage 集群。
  • 对存储集群中所有节点的根级别访问权限。

流程

  1. 登录 ceph-ansible 节点,再将目录更改为 /usr/share/ceph-ansible
  2. 编辑 all.yml 文件。

    语法

    ceph_origin: custom/rhcs
    ceph_custom_repositories:
      - name: NAME
        state: present
        description: DESCRIPTION
        gpgcheck: 'no'
        baseurl: BASE_URL
        file: FILE_NAME
        priority: '2'
        enabled: 1
    Copy to Clipboard

    示例

    ceph_origin: custom
    ceph_custom_repositories:
      - name: ceph_custom
        state: present
        description: Ceph custom repo
        gpgcheck: 'no'
        baseurl: https://example.ceph.redhat.com
        file: cephbuild
        priority: '2'
        enabled: 1
      - name: ceph_custom_1
        state: present
        description: Ceph custom repo 1
        gpgcheck: 'no'
        baseurl: https://example.ceph.redhat.com
        file: cephbuild_1
        priority: '2'
        enabled: 1
    Copy to Clipboard

  3. 运行 cephadm-adopt playbook:

    语法

    ansible-playbook infrastructure-playbooks/cephadm-adopt.yml -i INVENTORY_FILE
    Copy to Clipboard

    示例

    [ceph-admin@admin ceph-ansible]$ ansible-playbook infrastructure-playbooks/cephadm-adopt.yml -i hosts
    Copy to Clipboard

  4. 将最小 compat 客户端参数设置为 luminous

    示例

    [ceph: root@node0 /]# ceph osd set-require-min-compat-client luminous
    Copy to Clipboard

  5. 运行以下命令,使应用在 NFS-Ganesha 池上运行:POOL_NAMEnfs-ganeshaAPPLICATION_NAME 是您要启用的应用的名称,如 cephfsrbdrgw

    语法

    ceph osd pool application enable POOL_NAME APPLICATION_NAME
    Copy to Clipboard

    示例

    [ceph: root@node0 /]# ceph osd pool application enable nfs-ganesha rgw
    Copy to Clipboard

    重要

    在将存储集群从 Red Hat Ceph Storage 4 迁移到 Red Hat Ceph Storage 5 后,cephadm-adopt playbook 不会启动 rbd-mirror。

    要临时解决这个问题,请手动添加 peer:

    语法

    rbd mirror pool peer add POOL_NAME CLIENT_NAME@CLUSTER_NAME
    Copy to Clipboard

    示例

    [ceph: root@node0 /]# rbd --cluster site-a mirror pool peer add image-pool client.rbd-mirror-peer@site-b
    Copy to Clipboard

  6. 升级后删除 Grafana:

    1. 登录到 Cephadm shell:

      示例

      [root@host01 ~]# cephadm shell
      Copy to Clipboard

    2. 在存储集群中获取 Grafana 的名称:

      示例

      [ceph: root@host01 /]# ceph orch ps --daemon_type grafana
      Copy to Clipboard

    3. 删除 Grafana:

      语法

      ceph orch daemon rm GRAFANA_DAEMON_NAME
      Copy to Clipboard

      示例

      [ceph: root@host01 /]# ceph orch daemon rm grafana.host01
      
      Removed grafana.host01 from host 'host01'
      Copy to Clipboard

    4. 等待几分钟并检查最新的日志:

      示例

      [ceph: root@host01 /]# ceph log last cephadm
      Copy to Clipboard

      cephadm 重新部署 Grafana 服务和守护进程。

返回顶部
Red Hat logoGithubredditYoutubeTwitter

学习

尝试、购买和销售

社区

关于红帽文档

通过我们的产品和服务,以及可以信赖的内容,帮助红帽用户创新并实现他们的目标。 了解我们当前的更新.

让开源更具包容性

红帽致力于替换我们的代码、文档和 Web 属性中存在问题的语言。欲了解更多详情,请参阅红帽博客.

關於紅帽

我们提供强化的解决方案,使企业能够更轻松地跨平台和环境(从核心数据中心到网络边缘)工作。

Theme

© 2025 Red Hat