1.10. cephadm を使用したストレージクラスターの変換
ストレージクラスターを Red Hat Ceph Storage 5 にアップグレードしたら、cephadm-adopt
Playbook を実行し、cephadm
を実行するようにストレージクラスターデーモンを変換します。
cephadm-adopt
Playbook は、Ceph サービスを採用し、すべての cephadm
依存関係をインストールして、cephadm
Orchestrator バックエンドを有効にし、すべてのホストで ssh
キーを生成および設定して、ホストを Orchestrator 設定に追加します。
cephadm-adopt
Playbook の実行後に、ceph-ansible
パッケージを削除します。クラスターデーモンは ceph-ansible
で機能しなくなります。cephadm
を使用してクラスターデーモンを管理する必要があります。
前提条件
- 稼働中の Red Hat Ceph Storage クラスターがある。
- ストレージクラスター内のすべてのノードへの root レベルのアクセス。
手順
-
ceph-ansible
ノードにログインし、/usr/share/ceph-ansible
ディレクトリーに移動します。 all.yml
ファイルを編集します。構文
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 例:
Copy to Clipboard Copied! Toggle word wrap Toggle overflow cephadm-adopt
Playbook を実行します。構文
ansible-playbook infrastructure-playbooks/cephadm-adopt.yml -i INVENTORY_FILE
ansible-playbook infrastructure-playbooks/cephadm-adopt.yml -i INVENTORY_FILE
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 例:
ansible-playbook infrastructure-playbooks/cephadm-adopt.yml -i hosts
[ceph-admin@admin ceph-ansible]$ ansible-playbook infrastructure-playbooks/cephadm-adopt.yml -i hosts
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 最小の compat client パラメーターを
luminous
に設定します。例:
[ceph: root@node0 /]# ceph osd set-require-min-compat-client luminous
[ceph: root@node0 /]# ceph osd set-require-min-compat-client luminous
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 以下のコマンドを実行して、アプリケーションが NFS-Ganesha プールで実行されるようにします。POOL_NAME は
nfs-ganesha
で、APPLICATION_NAME はcephfs
、rbd
、rgw
などの有効にするアプリケーションの名前です。構文
ceph osd pool application enable POOL_NAME APPLICATION_NAME
ceph osd pool application enable POOL_NAME APPLICATION_NAME
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 例:
[ceph: root@node0 /]# ceph osd pool application enable nfs-ganesha rgw
[ceph: root@node0 /]# ceph osd pool application enable nfs-ganesha rgw
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 重要Red Hat Ceph Storage 4 から Red Hat Ceph Storage 5 へのストレージクラスターの移行後に、
cephadm-adopt
Playbook が rbd-mirroring を起動しません。この問題を回避するには、ピアを手動で追加します。
構文
rbd mirror pool peer add POOL_NAME CLIENT_NAME@CLUSTER_NAME
rbd mirror pool peer add POOL_NAME CLIENT_NAME@CLUSTER_NAME
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 例:
[ceph: root@node0 /]# rbd --cluster site-a mirror pool peer add image-pool client.rbd-mirror-peer@site-b
[ceph: root@node0 /]# rbd --cluster site-a mirror pool peer add image-pool client.rbd-mirror-peer@site-b
Copy to Clipboard Copied! Toggle word wrap Toggle overflow アップグレード後に Grafana を削除します。
Cephadm シェルにログインします。
例:
cephadm shell
[root@host01 ~]# cephadm shell
Copy to Clipboard Copied! Toggle word wrap Toggle overflow ストレージクラスター内の Grafana の名前を取得します。
例:
[ceph: root@host01 /]# ceph orch ps --daemon_type grafana
[ceph: root@host01 /]# ceph orch ps --daemon_type grafana
Copy to Clipboard Copied! Toggle word wrap Toggle overflow Grafana を削除します。
構文
ceph orch daemon rm GRAFANA_DAEMON_NAME
ceph orch daemon rm GRAFANA_DAEMON_NAME
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 例:
[ceph: root@host01 /]# ceph orch daemon rm grafana.host01 Removed grafana.host01 from host 'host01'
[ceph: root@host01 /]# ceph orch daemon rm grafana.host01 Removed grafana.host01 from host 'host01'
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 数分待って、最新のログを確認します。
例:
[ceph: root@host01 /]# ceph log last cephadm
[ceph: root@host01 /]# ceph log last cephadm
Copy to Clipboard Copied! Toggle word wrap Toggle overflow cephadm
は、Grafana サービスとデーモンを再デプロイします。