1.10. cephadm を使用したストレージクラスターの変換
ストレージクラスターを Red Hat Ceph Storage 5 にアップグレードしたら、cephadm-adopt
Playbook を実行し、cephadm
を実行するようにストレージクラスターデーモンを変換します。
cephadm-adopt
Playbook は、Ceph サービスを採用し、すべての cephadm
依存関係をインストールして、cephadm
Orchestrator バックエンドを有効にし、すべてのホストで ssh
キーを生成および設定して、ホストを Orchestrator 設定に追加します。
cephadm-adopt
Playbook の実行後に、ceph-ansible
パッケージを削除します。クラスターデーモンは ceph-ansible
で機能しなくなります。cephadm
を使用してクラスターデーモンを管理する必要があります。
前提条件
- 稼働中の Red Hat Ceph Storage クラスターがある。
- ストレージクラスター内のすべてのノードへの root レベルのアクセス。
手順
-
ceph-ansible
ノードにログインし、/usr/share/ceph-ansible
ディレクトリーに移動します。 all.yml
ファイルを編集します。構文
ceph_origin: custom/rhcs ceph_custom_repositories: - name: NAME state: present description: DESCRIPTION gpgcheck: 'no' baseurl: BASE_URL file: FILE_NAME priority: '2' enabled: 1
例:
ceph_origin: custom ceph_custom_repositories: - name: ceph_custom state: present description: Ceph custom repo gpgcheck: 'no' baseurl: https://example.ceph.redhat.com file: cephbuild priority: '2' enabled: 1 - name: ceph_custom_1 state: present description: Ceph custom repo 1 gpgcheck: 'no' baseurl: https://example.ceph.redhat.com file: cephbuild_1 priority: '2' enabled: 1
cephadm-adopt
Playbook を実行します。構文
ansible-playbook infrastructure-playbooks/cephadm-adopt.yml -i INVENTORY_FILE
例:
[ceph-admin@admin ceph-ansible]$ ansible-playbook infrastructure-playbooks/cephadm-adopt.yml -i hosts
最小の compat client パラメーターを
luminous
に設定します。例:
[ceph: root@node0 /]# ceph osd set-require-min-compat-client luminous
以下のコマンドを実行して、アプリケーションが NFS-Ganesha プールで実行されるようにします。POOL_NAME は
nfs-ganesha
で、APPLICATION_NAME はcephfs
、rbd
、rgw
などの有効にするアプリケーションの名前です。構文
ceph osd pool application enable POOL_NAME APPLICATION_NAME
例:
[ceph: root@node0 /]# ceph osd pool application enable nfs-ganesha rgw
重要Red Hat Ceph Storage 4 から Red Hat Ceph Storage 5 へのストレージクラスターの移行後に、
cephadm-adopt
Playbook が rbd-mirroring を起動しません。この問題を回避するには、ピアを手動で追加します。
構文
rbd mirror pool peer add POOL_NAME CLIENT_NAME@CLUSTER_NAME
例:
[ceph: root@node0 /]# rbd --cluster site-a mirror pool peer add image-pool client.rbd-mirror-peer@site-b
アップグレード後に Grafana を削除します。
Cephadm シェルにログインします。
例:
[root@host01 ~]# cephadm shell
ストレージクラスター内の Grafana の名前を取得します。
例:
[ceph: root@host01 /]# ceph orch ps --daemon_type grafana
Grafana を削除します。
構文
ceph orch daemon rm GRAFANA_DAEMON_NAME
例:
[ceph: root@host01 /]# ceph orch daemon rm grafana.host01 Removed grafana.host01 from host 'host01'
数分待って、最新のログを確認します。
例:
[ceph: root@host01 /]# ceph log last cephadm
cephadm
は、Grafana サービスとデーモンを再デプロイします。
関連情報
-
leapp
を使用して Red Hat Enterprise Linux 7 を Red Hat Enterprise Linux 8 にアップグレードする方法は、Upgrading from Red Hat Enterprise Linux 7 to Red Hat Enterprise Linux 8 を参照してください。 -
leapp
を使用して Red Hat Enterprise Linux 8 を Red Hat Enterprise Linux 9 にアップグレードする方法の詳細は、Upgrading from Red Hat Enterprise Linux 8 to Red Hat Enterprise Linux 9 を参照してください。 - FileStore から BlueStore への変換に関する詳細は、BlueStore を参照してください。
- ストレージピアの詳細は、Viewing information about peers を参照してください。