3.6. マネージドクラスターへの OpenShift Data Foundation のインストール
2 つの OpenShift Container Platform クラスター間でストレージレプリケーションを設定するには、先に OpenShift Data Foundation Operator を各マネージドクラスターにインストールする必要があります。
前提条件
- OpenShift Data Foundation の外部デプロイメントのハードウェア要件を満たしていることを確認してください。ハードウェア要件の詳細は、外部モードの要件 を参照してください。
手順
- 各マネージドクラスターに最新の OpenShift Data Foundation クラスターをインストールして設定します。
Operator をインストールした後、Full deployment タイプおよび
Connect with external storage platformオプションを使用して、StorageSystem を作成します。バッキングストレージのタイプ はRed Hat Ceph Storageとします。詳しい手順は、外部モードでの OpenShift Data Foundation のデプロイ を参照してください。
ceph-external-cluster-details-exporter.pyスクリプトで次のフラグを使用します。少なくとも、
ceph-external-cluster-details-exporter.py scriptで次の 3 つのフラグを使用する必要があります。- --rbd-data-pool-name
-
OpenShift Container Platform の RHCS デプロイメント中に作成された RBD プールの名前を使用します。たとえば、プールを
rbdpoolと呼ぶことができます。 - --rgw-endpoint
-
<ip_address>:<port>の形式でエンドポイントを指定します。これは、設定している OpenShift Container Platform クラスターと同じサイトで実行されている RGW デーモンの RGW IP です。 - --run-as-user
- サイトごとに異なるクライアント名を使用します。
RHCS の展開中にデフォルト値が使用された場合、次のフラグは
optionalです。- --cephfs-filesystem-name
-
OpenShift Container Platform の RHCS デプロイメント中に作成した CephFS ファイルシステムの名前を使用すると、デフォルトのファイルシステム名は
cephfsになります。 - --cephfs-data-pool-name
-
OpenShift Container Platform の RHCS デプロイメント中に作成した CephFS データプールの名前で、デフォルトプールは
cephfs.dataと呼ばれます。 - --cephfs-metadata-pool-name
-
OpenShift Container Platform の RHCS デプロイメント中に作成した CephFS メタデータプールの名前で、デフォルトプールは
cephfs.metaと呼ばれます。
ブートストラップノード
ceph1で次のコマンドを実行して、datacenter1 と datacenter2 の RGW エンドポイントの IP を取得します。ceph orch ps | grep rgw.objectgw出力例:
rgw.objectgw.ceph3.mecpzm ceph3 *:8080 running (5d) 31s ago 7w 204M - 16.2.7-112.el8cp rgw.objectgw.ceph6.mecpzm ceph6 *:8080 running (5d) 31s ago 7w 204M - 16.2.7-112.el8cphost ceph3.example.com host ceph6.example.com出力例:
ceph3.example.com has address 10.0.40.24 ceph6.example.com has address 10.0.40.66ブートストラップされたノード
ceph1上の最初の OpenShift Container Platform マネージドクラスターcluster1用に設定されたパラメーターを使用してceph-external-cluster-details-exporter.pyを実行します。python3 ceph-external-cluster-details-exporter.py --rbd-data-pool-name rbdpool --cephfs-filesystem-name cephfs --cephfs-data-pool-name cephfs.cephfs.data --cephfs-metadata-pool-name cephfs.cephfs.meta --<rgw-endpoint> XXX.XXX.XXX.XXX:8080 --run-as-user client.odf.cluster1 > ocp-cluster1.json注記環境に応じて <rgw-endpoint> XXX.XXX.XXX.XXX を変更します。
ブートストラップされたノード
ceph1上の最初の OpenShift Container Platform マネージドクラスターcluster2用に設定されたパラメーターを使用してceph-external-cluster-details-exporter.pyを実行します。python3 ceph-external-cluster-details-exporter.py --rbd-data-pool-name rbdpool --cephfs-filesystem-name cephfs --cephfs-data-pool-name cephfs.cephfs.data --cephfs-metadata-pool-name cephfs.cephfs.meta --rgw-endpoint XXX.XXX.XXX.XXX:8080 --run-as-user client.odf.cluster2 > ocp-cluster2.json注記環境に応じて <rgw-endpoint> XXX.XXX.XXX.XXX を変更します。
-
ブートストラップクラスター (ceph1) で生成された 2 つのファイル
ocp-cluster1.jsonとocp-cluster2.jsonをローカルマシンに保存します。 -
外部 OpenShift Data Foundation がデプロイされている
cluster1上の OpenShift Container Platform コンソールで、ファイルocp-cluster1.jsonの内容を使用します。 -
外部 OpenShift Data Foundation がデプロイされている
cluster2上の OpenShift Container Platform コンソールで、ファイルocp-cluster2.jsonの内容を使用します。
-
ブートストラップクラスター (ceph1) で生成された 2 つのファイル
- 設定を確認し、Create StorageSystem を選択します。
以下のコマンドを使用して、各マネージドクラスターで OpenShift Data Foundation が正常にデプロイされたことを検証します。
$ oc get storagecluster -n openshift-storage ocs-external-storagecluster -o jsonpath='{.status.phase}{"\n"}'Multicloud Gateway (MCG) の場合:
$ oc get noobaa -n openshift-storage noobaa -o jsonpath='{.status.phase}{"\n"}'ステータスの結果が、プライマリーマネージドクラスター と セカンダリーマネージドクラスター の両方のクエリーに対して Ready になるまで待ちます。
-
OpenShift Web コンソールで、Installed Operators
OpenShift Data Foundation Storage System ocs-external-storagecluster-storagesystemResources の順に移動します。 StorageClusterの Status がReadyで、横に緑色のチェックマークが付いていることを確認します。