3.6. 관리형 클러스터에 OpenShift Data Foundation 설치


두 OpenShift Container Platform 클러스터 간 스토리지 복제를 구성하려면 다음과 같이 각 관리 클러스터에 OpenShift Data Foundation Operator를 먼저 설치해야 합니다.

사전 요구 사항

  • OpenShift Data Foundation 외부 배포의 하드웨어 요구 사항을 충족하는지 확인합니다. 하드웨어 요구 사항에 대한 자세한 내용은 외부 모드 요구 사항을 참조하십시오.
참고

OpenShift Data Foundation 배포 가이드 및 인프라 고유의 지침(AWS, VMware, BM, Azure 등)을 참조하십시오.

절차

  1. 각 관리형 클러스터에 최신 OpenShift Data Foundation 클러스터를 설치하고 구성합니다.
  2. Operator를 설치한 후 전체 배포 유형을 사용하여 StorageSystem을 생성하고 Backing 스토리지 유형이 Red Hat Ceph Storage 인 외부 스토리지 플랫폼과 연결합니다.

    자세한 내용은 외부 모드에서 OpenShift Data Foundation 배포를 참조하십시오.

    • 최소한 ceph-external-cluster-details-exporter.py 스크립트와 함께 다음 세 개의 플래그를 사용해야 합니다.

      --rbd-data-pool-name
      OpenShift Container Platform용 RHCS 배포 중에 생성된 RBD 풀의 이름입니다. 예를 들어 풀을 rbdpool 이라고 할 수 있습니다.
      --rgw-endpoint
      끝점을 < ip_address>:<port> 형식으로 입력합니다. 구성 중인 OpenShift Container Platform 클러스터와 동일한 사이트에서 실행되는 RGW 데몬의 RGW IP입니다.
      --run-as-user
      각 사이트에 대해 다른 클라이언트 이름이 있습니다.

      RHCS 배포 중 기본값을 사용한 경우 다음 플래그는 선택 사항입니다.

      --cephfs-filesystem-name
      OpenShift Container Platform용 RHCS 배포 중에 생성한 CephFS 파일 시스템의 이름으로 기본 파일 시스템 이름은 cephfs 입니다.
      --cephfs-data-pool-name
      OpenShift Container Platform용 RHCS 배포 중에 생성한 CephFS 데이터 풀의 이름을 사용하여 기본 풀은 cephfs.data 라고 합니다.
      --cephfs-metadata-pool-name
      OpenShift Container Platform용 RHCS 배포 중에 생성한 CephFS 메타데이터 풀의 이름을 사용하여 기본 풀을 cephfs.meta 라고 합니다.
    • 부트스트랩 노드 ceph1에서 다음 명령을 실행하여 datacenter1 및 datacenter2의 RGW 엔드포인트의 IP를 가져옵니다.

      ceph orch ps | grep rgw.objectgw

      출력 예:

      rgw.objectgw.ceph3.mecpzm  ceph3  *:8080       running (5d)     31s ago   7w     204M        -  16.2.7-112.el8cp
      rgw.objectgw.ceph6.mecpzm  ceph6  *:8080       running (5d)     31s ago   7w     204M        -  16.2.7-112.el8cp
      host ceph3
      host ceph6

      출력 예:

      ceph3.example.com has address 10.0.40.24
      ceph6.example.com has address 10.0.40.66
    • 첫 번째 ocp 관리형 클러스터 cluster1에 대해 구성된 매개 변수를 사용하여 ceph-external-cluster-details-exporter.py를 실행합니다.

      python3 ceph-external-cluster-details-exporter.py --rbd-data-pool-name rbdpool --cephfs-filesystem-name cephfs --cephfs-data-pool-name cephfs.cephfs.data  --cephfs-metadata-pool-name cephfs.cephfs.meta --rgw-endpoint 10.0.40.24:8080 --run-as-user client.odf.cluster1 > ocp-cluster1.json
    • 첫 번째 ocp 관리형 클러스터 cluster2에 대해 구성된 매개변수를 사용하여 ceph-external-cluster-details-exporter.py를 실행합니다.

      python3 ceph-external-cluster-details-exporter.py --rbd-data-pool-name rbdpool --cephfs-filesystem-name cephfs --cephfs-data-pool-name cephfs.cephfs.data  --cephfs-metadata-pool-name cephfs.cephfs.meta --rgw-endpoint 10.0.40.66:8080 --run-as-user client.odf.cluster2 > ocp-cluster2.json
    • 부트스트랩 클러스터(ceph1) ocp-cluster1.jsonocp-cluster2.json 에 생성된 두 파일을 로컬 머신에 저장합니다.
    • 외부 ODF가 배포된 cluster1 의 OCP 콘솔에서 ocp-cluster1.json 파일의 내용을 사용합니다.
    • 외부 ODF가 배포되는 cluster2 의 OCP 콘솔에서 ocp-cluster2.json 파일의 내용을 사용합니다.
  3. 설정을 검토한 다음 Create StorageSystem 을 선택합니다.
  4. 다음 명령을 사용하여 각 관리 클러스터에서 OpenShift Data Foundation의 성공적인 배포를 검증합니다.

    $ oc get storagecluster -n openshift-storage ocs-external-storagecluster -o jsonpath='{.status.phase}{"\n"}'

    MCG(Multicloud Gateway)의 경우:

    $ oc get noobaa -n openshift-storage noobaa -o jsonpath='{.status.phase}{"\n"}'

    상태 결과가 Primary managed clusterSecondary managed cluster 에 대한 쿼리 모두에 대해 Ready 인 경우 다음 단계를 계속 진행합니다.

참고

OpenShift 웹 콘솔에서 Installed Operators OpenShift Data Foundation Storage System ocs-storagecluster-storagesystem Resources 로 이동하여 StorageCluster상태가 Ready 이고 옆에 녹색 눈금 표시가 있는지 확인합니다.

Red Hat logoGithubRedditYoutubeTwitter

자세한 정보

평가판, 구매 및 판매

커뮤니티

Red Hat 문서 정보

Red Hat을 사용하는 고객은 신뢰할 수 있는 콘텐츠가 포함된 제품과 서비스를 통해 혁신하고 목표를 달성할 수 있습니다.

보다 포괄적 수용을 위한 오픈 소스 용어 교체

Red Hat은 코드, 문서, 웹 속성에서 문제가 있는 언어를 교체하기 위해 최선을 다하고 있습니다. 자세한 내용은 다음을 참조하세요.Red Hat 블로그.

Red Hat 소개

Red Hat은 기업이 핵심 데이터 센터에서 네트워크 에지에 이르기까지 플랫폼과 환경 전반에서 더 쉽게 작업할 수 있도록 강화된 솔루션을 제공합니다.

© 2024 Red Hat, Inc.