4.6. 管理対象クラスターでの OpenShift Data Foundation クラスターの作成
2 つの OpenShift Container Platform クラスター間のストレージレプリケーションを設定するには、OpenShift Data Foundation Operator をインストールした後に OpenShift Data Foundation ストレージシステムを作成します。
前提条件
- OpenShift Data Foundation の外部デプロイメントのハードウェア要件を満たしていることを確認してください。ハードウェア要件の詳細については、エクスターナルモード要件 を参照してください。
インフラストラクチャー (AWS、VMware、BM、Azure など) に固有の OpenShift Data Foundation デプロイメントガイドと手順を参照してください。
手順
- 各管理対象クラスターに最新の OpenShift Data Foundation クラスターをインストールして設定します。
Operator をインストールした後、オプション Full デプロイメント タイプおよび
Connect with external storage platformを使用して、バッキングストレージタイプ がRed Hat Ceph Storageである StorageSystem を作成します。詳しい手順は、外部モードでの OpenShift Data Foundation のデプロイ を参照してください。
少なくとも、
ceph-external-cluster-details-exporter.py scriptで次の 3 つのフラグを使用する必要があります。- --rbd-data-pool-name
-
OpenShift Container Platform の RHCS デプロイメント中に作成された RBD プールの名前を使用します。たとえば、プールを
rbdpoolと呼ぶことができます。 - --rgw-endpoint
-
<ip_address>:<port>の形式でエンドポイントを指定します。これは、設定している OpenShift Container Platform クラスターと同じサイトで実行されている RGW デーモンの RGW IP です。 - --run-as-user
- サイトごとに異なるクライアント名を使用します。
RHCS の展開中にデフォルト値が使用された場合、次のフラグは
optionalです。- --cephfs-filesystem-name
-
OpenShift Container Platform の RHCS デプロイメント中に作成した CephFS ファイルシステムの名前を使用すると、デフォルトのファイルシステム名は
cephfsになります。 - --cephfs-data-pool-name
-
OpenShift Container Platform の RHCS デプロイメント中に作成した CephFS データプールの名前で、デフォルトプールは
cephfs.dataと呼ばれます。 - --cephfs-metadata-pool-name
-
OpenShift Container Platform の RHCS デプロイメント中に作成した CephFS メタデータプールの名前で、デフォルトプールは
cephfs.metaと呼ばれます。
ブートストラップノード ceph1 で次のコマンドを実行して、datacenter1 と datacenter2 の RGW エンドポイントの IP を取得します。
ceph orch ps | grep rgw.objectgw出力例:
rgw.objectgw.ceph3.mecpzm ceph3 *:8080 running (5d) 31s ago 7w 204M - 16.2.7-112.el8cp rgw.objectgw.ceph6.mecpzm ceph6 *:8080 running (5d) 31s ago 7w 204M - 16.2.7-112.el8cphost ceph3 host ceph6出力例:
ceph3.example.com has address 10.0.40.24 ceph6.example.com has address 10.0.40.66最初の ocp 管理クラスター cluster1 用に設定されたパラメーターを使用して、ceph-external-cluster-details-exporter.py を実行します。
python3 ceph-external-cluster-details-exporter.py --rbd-data-pool-name rbdpool --cephfs-filesystem-name cephfs --cephfs-data-pool-name cephfs.cephfs.data --cephfs-metadata-pool-name cephfs.cephfs.meta --rgw-endpoint 10.0.40.24:8080 --run-as-user client.odf.cluster1 > ocp-cluster1.json最初の ocp 管理クラスター cluster2 用に設定されたパラメーターを使用して、ceph-external-cluster-details-exporter.py を実行します。
python3 ceph-external-cluster-details-exporter.py --rbd-data-pool-name rbdpool --cephfs-filesystem-name cephfs --cephfs-data-pool-name cephfs.cephfs.data --cephfs-metadata-pool-name cephfs.cephfs.meta --rgw-endpoint 10.0.40.66:8080 --run-as-user client.odf.cluster2 > ocp-cluster2.json-
ブートストラップクラスター (ceph1) で生成された 2 つのファイル
ocp-cluster1.jsonとocp-cluster2.jsonをローカルマシンに保存します。 -
外部 ODF がデプロイされている
cluster1の OCP コンソールでファイルocp-cluster1.jsonの内容を使用します。 -
外部 ODF がデプロイされている
cluster2の OCP コンソールでファイルocp-cluster2.jsonの内容を使用します。
- 設定を確認し、Create StorageSystem を選択します。
以下のコマンドを使用して、各管理対象クラスターで OpenShift Data Foundation が正常にデプロイされたことを検証します。
$ oc get storagecluster -n openshift-storage ocs-external-storagecluster -o jsonpath='{.status.phase}{"\n"}'Multicloud Gateway (MCG) の場合:
$ oc get noobaa -n openshift-storage noobaa -o jsonpath='{.status.phase}{"\n"}'ステータス結果が Primary managed cluster と Secondary managed cluster の両方のクエリーに対して
Readyである場合は、次の手順に進みます。
OpenShift Web コンソールで、Installed Operators ocs-storagecluster-storagesystem StorageCluster の Status が Ready で、横に緑色のチェックマークがあることを確認します。