1.10. cephadm を使用したストレージクラスターの変換
ストレージクラスターを Red Hat Ceph Storage 5 にアップグレードしたら、cephadm-adopt Playbook を実行し、cephadm を実行するようにストレージクラスターデーモンを変換します。
cephadm-adopt Playbook は、Ceph サービスを採用し、すべての cephadm 依存関係をインストールして、cephadm Orchestrator バックエンドを有効にし、すべてのホストで ssh キーを生成および設定して、ホストを Orchestrator 設定に追加します。
cephadm-adopt Playbook の実行後に、ceph-ansible パッケージを削除します。クラスターデーモンは ceph-ansible で機能しなくなります。cephadm を使用してクラスターデーモンを管理する必要があります。
前提条件
- 稼働中の Red Hat Ceph Storage クラスターがある。
- ストレージクラスター内のすべてのノードへの root レベルのアクセス。
手順
-
ceph-ansibleノードにログインし、/usr/share/ceph-ansibleディレクトリーに移動します。 all.ymlファイルを編集します。構文
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 例:
Copy to Clipboard Copied! Toggle word wrap Toggle overflow cephadm-adoptPlaybook を実行します。構文
ansible-playbook infrastructure-playbooks/cephadm-adopt.yml -i INVENTORY_FILE
ansible-playbook infrastructure-playbooks/cephadm-adopt.yml -i INVENTORY_FILECopy to Clipboard Copied! Toggle word wrap Toggle overflow 例:
ansible-playbook infrastructure-playbooks/cephadm-adopt.yml -i hosts
[ceph-admin@admin ceph-ansible]$ ansible-playbook infrastructure-playbooks/cephadm-adopt.yml -i hostsCopy to Clipboard Copied! Toggle word wrap Toggle overflow 最小の compat client パラメーターを
luminousに設定します。例:
[ceph: root@node0 /]# ceph osd set-require-min-compat-client luminous
[ceph: root@node0 /]# ceph osd set-require-min-compat-client luminousCopy to Clipboard Copied! Toggle word wrap Toggle overflow 以下のコマンドを実行して、アプリケーションが NFS-Ganesha プールで実行されるようにします。POOL_NAME は
nfs-ganeshaで、APPLICATION_NAME はcephfs、rbd、rgwなどの有効にするアプリケーションの名前です。構文
ceph osd pool application enable POOL_NAME APPLICATION_NAME
ceph osd pool application enable POOL_NAME APPLICATION_NAMECopy to Clipboard Copied! Toggle word wrap Toggle overflow 例:
[ceph: root@node0 /]# ceph osd pool application enable nfs-ganesha rgw
[ceph: root@node0 /]# ceph osd pool application enable nfs-ganesha rgwCopy to Clipboard Copied! Toggle word wrap Toggle overflow 重要Red Hat Ceph Storage 4 から Red Hat Ceph Storage 5 へのストレージクラスターの移行後に、
cephadm-adoptPlaybook が rbd-mirroring を起動しません。この問題を回避するには、ピアを手動で追加します。
構文
rbd mirror pool peer add POOL_NAME CLIENT_NAME@CLUSTER_NAME
rbd mirror pool peer add POOL_NAME CLIENT_NAME@CLUSTER_NAMECopy to Clipboard Copied! Toggle word wrap Toggle overflow 例:
[ceph: root@node0 /]# rbd --cluster site-a mirror pool peer add image-pool client.rbd-mirror-peer@site-b
[ceph: root@node0 /]# rbd --cluster site-a mirror pool peer add image-pool client.rbd-mirror-peer@site-bCopy to Clipboard Copied! Toggle word wrap Toggle overflow アップグレード後に Grafana を削除します。
Cephadm シェルにログインします。
例:
cephadm shell
[root@host01 ~]# cephadm shellCopy to Clipboard Copied! Toggle word wrap Toggle overflow ストレージクラスター内の Grafana の名前を取得します。
例:
[ceph: root@host01 /]# ceph orch ps --daemon_type grafana
[ceph: root@host01 /]# ceph orch ps --daemon_type grafanaCopy to Clipboard Copied! Toggle word wrap Toggle overflow Grafana を削除します。
構文
ceph orch daemon rm GRAFANA_DAEMON_NAME
ceph orch daemon rm GRAFANA_DAEMON_NAMECopy to Clipboard Copied! Toggle word wrap Toggle overflow 例:
[ceph: root@host01 /]# ceph orch daemon rm grafana.host01 Removed grafana.host01 from host 'host01'
[ceph: root@host01 /]# ceph orch daemon rm grafana.host01 Removed grafana.host01 from host 'host01'Copy to Clipboard Copied! Toggle word wrap Toggle overflow 数分待って、最新のログを確認します。
例:
[ceph: root@host01 /]# ceph log last cephadm
[ceph: root@host01 /]# ceph log last cephadmCopy to Clipboard Copied! Toggle word wrap Toggle overflow cephadmは、Grafana サービスとデーモンを再デプロイします。