1.10. cephadm を使用したストレージクラスターの変換


ストレージクラスターを Red Hat Ceph Storage 5 にアップグレードしたら、cephadm-adopt Playbook を実行し、cephadm を実行するようにストレージクラスターデーモンを変換します。

cephadm-adopt Playbook は、Ceph サービスを採用し、すべての cephadm 依存関係をインストールして、cephadm Orchestrator バックエンドを有効にし、すべてのホストで ssh キーを生成および設定して、ホストを Orchestrator 設定に追加します。

注記

cephadm-adopt Playbook の実行後に、ceph-ansible パッケージを削除します。クラスターデーモンは ceph-ansible で機能しなくなります。cephadm を使用してクラスターデーモンを管理する必要があります。

前提条件

  • 稼働中の Red Hat Ceph Storage クラスターがある。
  • ストレージクラスター内のすべてのノードへの root レベルのアクセス。

手順

  1. ceph-ansible ノードにログインし、/usr/share/ceph-ansible ディレクトリーに移動します。
  2. all.yml ファイルを編集します。

    構文

    ceph_origin: custom/rhcs
    ceph_custom_repositories:
      - name: NAME
        state: present
        description: DESCRIPTION
        gpgcheck: 'no'
        baseurl: BASE_URL
        file: FILE_NAME
        priority: '2'
        enabled: 1

    例:

    ceph_origin: custom
    ceph_custom_repositories:
      - name: ceph_custom
        state: present
        description: Ceph custom repo
        gpgcheck: 'no'
        baseurl: https://example.ceph.redhat.com
        file: cephbuild
        priority: '2'
        enabled: 1
      - name: ceph_custom_1
        state: present
        description: Ceph custom repo 1
        gpgcheck: 'no'
        baseurl: https://example.ceph.redhat.com
        file: cephbuild_1
        priority: '2'
        enabled: 1

  3. cephadm-adopt Playbook を実行します。

    構文

    ansible-playbook infrastructure-playbooks/cephadm-adopt.yml -i INVENTORY_FILE

    例:

    [ceph-admin@admin ceph-ansible]$ ansible-playbook infrastructure-playbooks/cephadm-adopt.yml -i hosts

  4. 最小の compat client パラメーターを luminous に設定します。

    例:

    [ceph: root@node0 /]# ceph osd set-require-min-compat-client luminous

  5. 以下のコマンドを実行して、アプリケーションが NFS-Ganesha プールで実行されるようにします。POOL_NAMEnfs-ganesha で、APPLICATION_NAMEcephfsrbdrgw などの有効にするアプリケーションの名前です。

    構文

    ceph osd pool application enable POOL_NAME APPLICATION_NAME

    例:

    [ceph: root@node0 /]# ceph osd pool application enable nfs-ganesha rgw

    重要

    Red Hat Ceph Storage 4 から Red Hat Ceph Storage 5 へのストレージクラスターの移行後に、cephadm-adopt Playbook が rbd-mirroring を起動しません。

    この問題を回避するには、ピアを手動で追加します。

    構文

    rbd mirror pool peer add POOL_NAME CLIENT_NAME@CLUSTER_NAME

    例:

    [ceph: root@node0 /]# rbd --cluster site-a mirror pool peer add image-pool client.rbd-mirror-peer@site-b

  6. アップグレード後に Grafana を削除します。

    1. Cephadm シェルにログインします。

      例:

      [root@host01 ~]# cephadm shell

    2. ストレージクラスター内の Grafana の名前を取得します。

      例:

      [ceph: root@host01 /]# ceph orch ps --daemon_type grafana

    3. Grafana を削除します。

      構文

      ceph orch daemon rm GRAFANA_DAEMON_NAME

      例:

      [ceph: root@host01 /]# ceph orch daemon rm grafana.host01
      
      Removed grafana.host01 from host 'host01'

    4. 数分待って、最新のログを確認します。

      例:

      [ceph: root@host01 /]# ceph log last cephadm

      cephadm は、Grafana サービスとデーモンを再デプロイします。

関連情報

Red Hat logoGithubRedditYoutubeTwitter

詳細情報

試用、購入および販売

コミュニティー

Red Hat ドキュメントについて

Red Hat をお使いのお客様が、信頼できるコンテンツが含まれている製品やサービスを活用することで、イノベーションを行い、目標を達成できるようにします。

多様性を受け入れるオープンソースの強化

Red Hat では、コード、ドキュメント、Web プロパティーにおける配慮に欠ける用語の置き換えに取り組んでいます。このような変更は、段階的に実施される予定です。詳細情報: Red Hat ブログ.

会社概要

Red Hat は、企業がコアとなるデータセンターからネットワークエッジに至るまで、各種プラットフォームや環境全体で作業を簡素化できるように、強化されたソリューションを提供しています。

© 2024 Red Hat, Inc.