3.6. 관리형 클러스터에 OpenShift Data Foundation 설치
두 OpenShift Container Platform 클러스터 간 스토리지 복제를 구성하려면 다음과 같이 각 관리 클러스터에 OpenShift Data Foundation Operator를 먼저 설치해야 합니다.
사전 요구 사항
- OpenShift Data Foundation 외부 배포의 하드웨어 요구 사항을 충족하는지 확인합니다. 하드웨어 요구 사항에 대한 자세한 내용은 외부 모드 요구 사항을 참조하십시오.
OpenShift Data Foundation 배포 가이드 및 인프라 고유의 지침(AWS, VMware, BM, Azure 등)을 참조하십시오.
절차
- 각 관리형 클러스터에 최신 OpenShift Data Foundation 클러스터를 설치하고 구성합니다.
Operator를 설치한 후 전체 배포 유형을 사용하여 StorageSystem을 생성하고 Backing
스토리지 유형이
플랫폼과 연결합니다.Red Hat Ceph Storage
인 외부 스토리지자세한 내용은 외부 모드에서 OpenShift Data Foundation 배포를 참조하십시오.
최소한
ceph-external-cluster-details-exporter.py 스크립트와 함께 다음 세 개의 플래그를 사용해야 합니다.
- --rbd-data-pool-name
-
OpenShift Container Platform용 RHCS 배포 중에 생성된 RBD 풀의 이름입니다. 예를 들어 풀을
rbdpool
이라고 할 수 있습니다. - --rgw-endpoint
-
끝점을 <
ip_address>:<port> 형식으로 입력합니다
. 구성 중인 OpenShift Container Platform 클러스터와 동일한 사이트에서 실행되는 RGW 데몬의 RGW IP입니다. - --run-as-user
- 각 사이트에 대해 다른 클라이언트 이름이 있습니다.
RHCS 배포 중 기본값을 사용한 경우 다음 플래그는
선택 사항입니다
.- --cephfs-filesystem-name
-
OpenShift Container Platform용 RHCS 배포 중에 생성한 CephFS 파일 시스템의 이름으로 기본 파일 시스템 이름은
cephfs
입니다. - --cephfs-data-pool-name
-
OpenShift Container Platform용 RHCS 배포 중에 생성한 CephFS 데이터 풀의 이름을 사용하여 기본 풀은
cephfs.data
라고 합니다. - --cephfs-metadata-pool-name
-
OpenShift Container Platform용 RHCS 배포 중에 생성한 CephFS 메타데이터 풀의 이름을 사용하여 기본 풀을
cephfs.meta
라고 합니다.
부트스트랩 노드 ceph1에서 다음 명령을 실행하여 datacenter1 및 datacenter2의 RGW 엔드포인트의 IP를 가져옵니다.
ceph orch ps | grep rgw.objectgw
출력 예:
rgw.objectgw.ceph3.mecpzm ceph3 *:8080 running (5d) 31s ago 7w 204M - 16.2.7-112.el8cp rgw.objectgw.ceph6.mecpzm ceph6 *:8080 running (5d) 31s ago 7w 204M - 16.2.7-112.el8cp
host ceph3 host ceph6
출력 예:
ceph3.example.com has address 10.0.40.24 ceph6.example.com has address 10.0.40.66
첫 번째 ocp 관리형 클러스터 cluster1에 대해 구성된 매개 변수를 사용하여 ceph-external-cluster-details-exporter.py를 실행합니다.
python3 ceph-external-cluster-details-exporter.py --rbd-data-pool-name rbdpool --cephfs-filesystem-name cephfs --cephfs-data-pool-name cephfs.cephfs.data --cephfs-metadata-pool-name cephfs.cephfs.meta --rgw-endpoint 10.0.40.24:8080 --run-as-user client.odf.cluster1 > ocp-cluster1.json
첫 번째 ocp 관리형 클러스터 cluster2에 대해 구성된 매개변수를 사용하여 ceph-external-cluster-details-exporter.py를 실행합니다.
python3 ceph-external-cluster-details-exporter.py --rbd-data-pool-name rbdpool --cephfs-filesystem-name cephfs --cephfs-data-pool-name cephfs.cephfs.data --cephfs-metadata-pool-name cephfs.cephfs.meta --rgw-endpoint 10.0.40.66:8080 --run-as-user client.odf.cluster2 > ocp-cluster2.json
-
부트스트랩 클러스터(ceph1)
ocp-cluster1.json
및ocp-cluster2.json
에 생성된 두 파일을 로컬 머신에 저장합니다. -
외부 ODF가 배포된
cluster1
의 OCP 콘솔에서ocp-cluster1.json
파일의 내용을 사용합니다. -
외부 ODF가 배포되는
cluster2
의 OCP 콘솔에서ocp-cluster2.json
파일의 내용을 사용합니다.
- 설정을 검토한 다음 Create StorageSystem 을 선택합니다.
다음 명령을 사용하여 각 관리 클러스터에서 OpenShift Data Foundation의 성공적인 배포를 검증합니다.
$ oc get storagecluster -n openshift-storage ocs-external-storagecluster -o jsonpath='{.status.phase}{"\n"}'
MCG(Multicloud Gateway)의 경우:
$ oc get noobaa -n openshift-storage noobaa -o jsonpath='{.status.phase}{"\n"}'
상태 결과가 Primary managed cluster 및 Secondary managed cluster 에 대한 쿼리 모두에 대해
Ready
인 경우 다음 단계를 계속 진행합니다.
OpenShift 웹 콘솔에서 Installed Operators ocs-storagecluster-storagesystem
StorageCluster
의 상태가 Ready
이고 옆에 녹색 눈금 표시가 있는지 확인합니다.