3.2. 오브젝트 스토리지 구성


Red Hat Quay Operator가 스토리지를 관리하거나 직접 관리할 수 있는지 여부에 관계없이 Red Hat Quay를 설치하기 전에 오브젝트 스토리지를 구성해야 합니다.

Red Hat Quay Operator가 스토리지 관리를 담당하는 경우 NooBaa 및 Red Hat OpenShift Data Foundations Operator 설치 및 구성에 대한 정보는 관리형 스토리지 의 섹션을 참조하십시오.

별도의 스토리지 솔루션을 사용하는 경우 Operator를 구성할 때 objectstorageUnmanaged 로 설정합니다. 다음 섹션을 참조하십시오. 기존 스토리지 구성에 대한 자세한 내용은 관리되지 않는 스토리지입니다.

3.2.1. 관리되지 않는 스토리지 사용

이 섹션에서는 편의를 위해 관리되지 않는 스토리지에 대한 구성 예제를 제공합니다. 오브젝트 스토리지 설정 방법에 대한 자세한 내용은 Red Hat Quay 구성 가이드를 참조하십시오.

3.2.1.1. AWS S3 스토리지

Red Hat Quay 배포를 위해 AWS S3 스토리지를 구성할 때 다음 예제를 사용합니다.

DISTRIBUTED_STORAGE_CONFIG:
  s3Storage:
    - S3Storage
    - host: s3.us-east-2.amazonaws.com
      s3_access_key: ABCDEFGHIJKLMN
      s3_secret_key: OL3ABCDEFGHIJKLMN
      s3_bucket: quay_bucket
      s3_region: <region>
      storage_path: /datastorage/registry
DISTRIBUTED_STORAGE_DEFAULT_LOCATIONS: []
DISTRIBUTED_STORAGE_PREFERENCE:
    - s3Storage

3.2.1.2. Google Cloud 스토리지

Red Hat Quay 배포를 위해 Google Cloud 스토리지를 구성할 때 다음 예제를 사용합니다.

DISTRIBUTED_STORAGE_CONFIG:
    googleCloudStorage:
        - GoogleCloudStorage
        - access_key: GOOGQIMFB3ABCDEFGHIJKLMN
          bucket_name: quay-bucket
          secret_key: FhDAYe2HeuAKfvZCAGyOioNaaRABCDEFGHIJKLMN
          storage_path: /datastorage/registry
          boto_timeout: 120 1
DISTRIBUTED_STORAGE_DEFAULT_LOCATIONS: []
DISTRIBUTED_STORAGE_PREFERENCE:
    - googleCloudStorage
1
선택 사항입니다. 연결에서 읽으려고 할 때 시간 초과 예외가 throw될 때까지 시간(초)입니다. 기본값은 60 초입니다. 또한 연결을 시도할 때 시간 초과 예외가 throw될 때까지 시간(초)을 포함합니다. 기본값은 60 초입니다.

3.2.1.3. Microsoft Azure 스토리지

Red Hat Quay 배포를 위해 Microsoft Azure 스토리지를 구성할 때 다음 예제를 사용합니다.

DISTRIBUTED_STORAGE_CONFIG:
  azureStorage:
    - AzureStorage
    - azure_account_name: azure_account_name_here
      azure_container: azure_container_here
      storage_path: /datastorage/registry
      azure_account_key: azure_account_key_here
      sas_token: some/path/
      endpoint_url: https://[account-name].blob.core.usgovcloudapi.net 1
DISTRIBUTED_STORAGE_DEFAULT_LOCATIONS: []
DISTRIBUTED_STORAGE_PREFERENCE:
    - azureStorage
1
Microsoft Azure 스토리지의 endpoint_url 매개변수는 선택 사항이며 Microsoft Azure Government (MAG) 끝점과 함께 사용할 수 있습니다. 비워 두면 endpoint_url 이 일반 Microsoft Azure 리전에 연결됩니다.

Red Hat Quay 3.7부터는 MAG Blob 서비스의 기본 엔드포인트를 사용해야 합니다. MAG Blob 서비스의 보조 끝점을 사용하면 다음과 같은 오류가 발생합니다. AuthenticationErrorDetail:Cannot find the claimed account when trying to GetProperties for the account whusc8-secondary.

3.2.1.4. Ceph/RadosGW Storage

Red Hat Quay 배포를 위해 Ceph/RadosGW 스토리지를 구성할 때 다음 예제를 사용합니다.

DISTRIBUTED_STORAGE_CONFIG:
  radosGWStorage: #storage config name
    - RadosGWStorage #actual driver
    - access_key: access_key_here #parameters
      secret_key: secret_key_here
      bucket_name: bucket_name_here
      hostname: hostname_here
      is_secure: 'true'
      port: '443'
      storage_path: /datastorage/registry
DISTRIBUTED_STORAGE_DEFAULT_LOCATIONS: []
DISTRIBUTED_STORAGE_PREFERENCE: #must contain name of the storage config
    - radosGWStorage

3.2.1.5. Swift 스토리지

Red Hat Quay 배포를 위해 Swift 스토리지를 구성할 때 다음 예제를 사용합니다.

DISTRIBUTED_STORAGE_CONFIG:
  swiftStorage:
    - SwiftStorage
    - swift_user: swift_user_here
      swift_password: swift_password_here
      swift_container: swift_container_here
      auth_url: https://example.org/swift/v1/quay
      auth_version: 3
      os_options:
        tenant_id: <osp_tenant_id_here>
        user_domain_name: <osp_domain_name_here>
      ca_cert_path: /conf/stack/swift.cert"
      storage_path: /datastorage/registry
DISTRIBUTED_STORAGE_DEFAULT_LOCATIONS: []
DISTRIBUTED_STORAGE_PREFERENCE:
    - swiftStorage

3.2.1.6. NooBaa 관리되지 않는 스토리지

관리되지 않는 스토리지 구성으로 NooBaa를 배포하려면 다음 절차를 사용하십시오.

프로세스

  1. 스토리지 오브젝트 버킷 클레임으로 이동하여 Red Hat Quay 콘솔에서 NooBaa Object Bucket Claims 를 생성합니다.
  2. Access Key, Bucket Name, Endpoint (hostname) 및 Secret Key를 포함하여 Object Bucket Claim Data 세부 정보를 검색합니다.
  3. Object Bucket Claim에 대한 정보를 사용하는 config.yaml 구성 파일을 생성합니다.

    DISTRIBUTED_STORAGE_CONFIG:
      default:
        - RHOCSStorage
        - access_key: WmrXtSGk8B3nABCDEFGH
          bucket_name: my-noobaa-bucket-claim-8b844191-dc6c-444e-9ea4-87ece0abcdef
          hostname: s3.openshift-storage.svc.cluster.local
          is_secure: true
          port: "443"
          secret_key: X9P5SDGJtmSuHFCMSLMbdNCMfUABCDEFGH+C5QD
          storage_path: /datastorage/registry
    DISTRIBUTED_STORAGE_DEFAULT_LOCATIONS: []
    DISTRIBUTED_STORAGE_PREFERENCE:
      - default

오브젝트 버킷 클레임 구성에 대한 자세한 내용은 오브젝트 버킷 클레임을 참조하십시오.

3.2.2. 관리되지 않는 NooBaa 인스턴스 사용

Red Hat Quay 배포에 관리되지 않는 NooBaa 인스턴스를 사용하려면 다음 절차를 사용하십시오.

프로세스

  1. 스토리지 오브젝트 버킷 클레임의 콘솔에 NooBaa Object Bucket Claims를 생성합니다.
  2. 액세스 키, 버킷이름,엔드포인트(hostname)시크릿 키를 포함하여 오브젝트 버킷 클레임 데이터 세부 정보를 검색합니다.
  3. Object Bucket Claim에 대한 정보를 사용하여 config.yaml 구성 파일을 생성합니다. 예를 들면 다음과 같습니다.

    DISTRIBUTED_STORAGE_CONFIG:
      default:
        - RHOCSStorage
        - access_key: WmrXtSGk8B3nABCDEFGH
          bucket_name: my-noobaa-bucket-claim-8b844191-dc6c-444e-9ea4-87ece0abcdef
          hostname: s3.openshift-storage.svc.cluster.local
          is_secure: true
          port: "443"
          secret_key: X9P5SDGJtmSuHFCMSLMbdNCMfUABCDEFGH+C5QD
          storage_path: /datastorage/registry
    DISTRIBUTED_STORAGE_DEFAULT_LOCATIONS: []
    DISTRIBUTED_STORAGE_PREFERENCE:
      - default

3.2.3. 관리 스토리지

Red Hat Quay Operator에서 Red Hat Quay용 오브젝트 스토리지를 관리하려면 클러스터에서 ObjectBucketClaim API를 통해 오브젝트 스토리지를 제공할 수 있어야 합니다. Red Hat OpenShift Data Foundation Operator를 사용하면 다음과 같은 두 가지 옵션을 사용할 수 있습니다.

  • 로컬 Kubernetes PersistentVolume 스토리지에서 지원하는 Multi-Cloud Object Gateway의 독립 실행형 인스턴스

    • 가용성이 높지 않음
    • Red Hat Quay 서브스크립션에 포함
    • Red Hat OpenShift Data Foundation에 대한 별도의 서브스크립션이 필요하지 않음
  • 스케일 아웃 오브젝트 서비스 및 Ceph를 사용하는 Red Hat OpenShift Data Foundation의 프로덕션 배포

    • 고가용성
    • Red Hat OpenShift Data Foundation에 대해 별도의 서브스크립션이 필요

독립 실행형 인스턴스 옵션을 사용하려면 아래를 계속 읽으십시오. Red Hat OpenShift Data Foundation의 프로덕션 배포는 공식 문서를 참조하십시오.

참고

오브젝트 스토리지 디스크 공간은 50GiB의 Red Hat Quay Operator에 의해 자동으로 할당됩니다. 이 수는 대부분의 소규모에서 중간 규모의 Red Hat Quay 설치에 사용 가능한 스토리지 양을 나타내지만 사용 사례에는 충분하지 않을 수 있습니다. Red Hat OpenShift Data Foundation 볼륨 크기 조정은 현재 Red Hat Quay Operator에 의해 처리되지 않습니다. 자세한 내용은 관리 스토리지 크기 조정 섹션을 참조하십시오.

3.2.3.1. Red Hat OpenShift Data Foundation Operator for Red Hat Quay에서 Multicloud Object Gateway 구성 요소 활용

Red Hat Quay 서브스크립션의 일부로 사용자는 Red Hat OpenShift Data Foundation Operator(이전의 OpenShift Container Storage Operator라고도 함)의 Multicloud Object Gateway 구성 요소를 사용할 수 있습니다. 이 게이트웨이 구성 요소를 사용하면 Kubernetes PersistentVolume- 기반 블록 스토리지에서 지원하는 Red Hat Quay에 S3 호환 오브젝트 스토리지 인터페이스를 제공할 수 있습니다. 사용량은 Operator에서 관리하는 Red Hat Quay 배포와 아래에 설명된 대로 multicloud Object Gateway 인스턴스의 정확한 사양으로 제한됩니다.

Red Hat Quay는 로컬 파일 시스템 스토리지를 지원하지 않으므로 대신 Kubernetes PersistentVolume 스토리지와 함께 게이트웨이를 활용하여 지원되는 배포를 제공할 수 있습니다. PersistentVolume 은 오브젝트 스토리지의 백업 저장소로 게이트웨이 인스턴스에 직접 마운트되며 모든 블록 기반 StorageClass 가 지원됩니다.

PersistentVolume 의 특성에 따라 이는 확장 가능한 고가용성 솔루션이 아니며 Red Hat OpenShift Data Foundation과 같은 스케일 아웃 스토리지 시스템을 대체하지 않습니다. 게이트웨이의 단일 인스턴스만 실행 중입니다. 일정 변경, 업데이트 또는 계획되지 않은 다운타임으로 인해 게이트웨이를 실행하는 Pod를 사용할 수 없게 되면 연결된 Red Hat Quay 인스턴스가 일시적으로 저하됩니다.

다음 절차를 사용하여 Local Storage Operator, Red Hat OpenShift Data Foundation을 설치하고 독립 실행형 Multicloud Object Gateway를 생성하여 OpenShift Container Platform에 Red Hat Quay를 배포합니다.

참고

다음 문서는 공식 Red Hat OpenShift Data Foundation 설명서 와 공통성을 공유합니다.

3.2.3.1.1. OpenShift Container Platform에 Local Storage Operator 설치

로컬 스토리지 장치에서 Red Hat OpenShift Data Foundation 클러스터를 생성하기 전에 OperatorHub 에서 Local Storage Operator를 설치하려면 다음 절차를 사용하십시오.

  1. OpenShift 웹 콘솔에 로그인합니다.
  2. Operators OperatorHub를 클릭합니다.
  3. 검색 상자에 로컬 스토리지를 입력하여 Operator 목록에서 Local Storage Operator를 찾습니다. 로컬 스토리지를 클릭합니다.
  4. 설치를 클릭합니다.
  5. Operator 설치 페이지에서 다음 옵션을 설정합니다.

    • Update channel의 경우 stable 을 선택합니다.
    • 설치 모드의 경우 클러스터에서 특정 네임스페이스를 선택합니다.
    • 설치된 네임스페이스의 경우 Operator 권장 네임스페이스 openshift-local-storage 를 선택합니다.
    • 업데이트 승인의 경우 자동 을 선택합니다.
  6. 설치를 클릭합니다.
3.2.3.1.2. OpenShift Container Platform에 Red Hat OpenShift Data Foundation 설치

OpenShift Container Platform에 Red Hat OpenShift Data Foundation을 설치하려면 다음 절차를 사용하십시오.

사전 요구 사항

  • cluster-admin 및 Operator 설치 권한이 있는 계정을 사용하여 OpenShift Container Platform 클러스터에 액세스할 수 있습니다.
  • OpenShift Container Platform 클러스터에 3개 이상의 작업자 노드가 있어야 합니다.
  • 추가 리소스 요구 사항은 배포 계획 가이드를 참조하십시오.

프로세스

  1. OpenShift 웹 콘솔에 로그인합니다.
  2. Operators OperatorHub를 클릭합니다.
  3. 검색 상자에 OpenShift Data Foundation 을 입력합니다. OpenShift Data Foundation 을 클릭합니다.
  4. 설치를 클릭합니다.
  5. Operator 설치 페이지에서 다음 옵션을 설정합니다.

    • Update channel의 경우 최신 stable 버전을 선택합니다.
    • 설치 모드의 경우 클러스터에서 특정 네임스페이스를 선택합니다.
    • 설치된 네임스페이스의 경우 Operator 권장 네임스페이스: openshift-storage 를 선택합니다.
    • 업데이트 승인의 경우 자동 또는 수동 을 선택합니다.

      자동 업데이트를 선택하면 OLM(Operator Lifecycle Manager)은 개입 없이 Operator의 실행 중인 인스턴스를 자동으로 업그레이드합니다.

      수동 업데이트를 선택하면 OLM에서 업데이트 요청을 생성합니다. 클러스터 관리자는 Operator를 최신 버전으로 업데이트하기 위해 해당 업데이트 요청을 수동으로 승인해야 합니다.

    • 콘솔 플러그인의 경우 Enable 을 선택합니다.
  6. 설치를 클릭합니다.

    Operator가 설치되면 메시지가 포함된 팝업이 사용자 인터페이스에 웹 콘솔 업데이트를 사용할 수 있습니다. 콘솔 변경 사항을 반영하려면 이 팝업 창에서 웹 콘솔 새로 고침을 클릭합니다.

  7. Red Hat Quay의 Multicloud Object Gateway 구성 요소를 활용하기 위해 "독립 실행형 Multicloud Object Gateway" 섹션을 계속 진행합니다.
3.2.3.1.3. OpenShift Container Platform UI를 사용하여 독립 실행형 Multicloud Object Gateway 생성

다음 절차에 따라 독립 실행형 Multicloud Object Gateway를 생성합니다.

사전 요구 사항

  • Local Storage Operator가 설치되어 있습니다.
  • Red Hat OpenShift Data Foundation Operator를 설치했습니다.

프로세스

  1. OpenShift 웹 콘솔에서 Operator 설치된 Operator 를 클릭하여 설치된 모든 Operator를 확인합니다.

    네임스페이스가 openshift-storage 인지 확인합니다.

  2. 스토리지 시스템 생성을 클릭합니다.
  3. 백업 스토리지 페이지에서 다음을 선택합니다.

    1. 배포 유형 용으로 Multicloud Object Gateway를 선택합니다.
    2. 로컬 스토리지 장치 옵션을 사용하여 새 StorageClass 만들기 옵션을 선택합니다.
    3. 다음을 클릭합니다.

      참고

      아직 설치되지 않은 경우 Local Storage Operator를 설치하라는 메시지가 표시됩니다. 설치를 클릭하고 "OpenShift Container Platform에 Local Storage Operator 설치"에 설명된 절차를 따르십시오.

  4. 로컬 볼륨 세트 생성 페이지에서 다음 정보를 제공합니다.

    1. 로컬 볼륨 세트의 이름과 스토리지 클래스를 입력합니다. 기본적으로 스토리지 클래스 이름에 로컬 볼륨 세트 이름이 표시됩니다. 이름을 변경할 수 있습니다.
    2. 다음 중 하나를 선택합니다.

      • 모든 노드의 디스크

        모든 노드에서 선택한 필터와 일치하는 사용 가능한 디스크를 사용합니다.

      • 선택한 노드의 디스크

        선택한 노드에서만 선택한 필터와 일치하는 사용 가능한 디스크를 사용합니다.

    3. 사용 가능한 디스크 유형 목록에서 SSD/NVMe을 선택합니다.
    4. 고급 섹션을 확장하고 다음 옵션을 설정합니다.

      볼륨 모드

      파일 시스템은 기본적으로 선택됩니다. 항상 볼륨 모드에 대해 파일 시스템이 선택되어 있는지 확인합니다.

      장치 유형

      드롭다운 목록에서 하나 이상의 장치 유형을 선택합니다.

      디스크 크기

      장치에 대해 최소 크기 100GB와 포함되어야 하는 장치의 사용 가능한 최대 크기를 설정합니다.

      최대 디스크 제한

      이는 노드에서 생성할 수 있는 최대 PV 수를 나타냅니다. 이 필드가 비어 있으면 일치하는 노드에서 사용 가능한 모든 디스크에 PV가 생성됩니다.

    5. 다음을클릭합니다.

      LocalVolumeSet 생성이 표시되는지 확인하는 팝업이 표시됩니다.

    6. 계속하려면 를 클릭합니다.
  5. 용량 및 노드 페이지에서 다음을 구성합니다.

    1. 사용 가능한 원시 용량 은 스토리지 클래스와 연결된 모든 디스크에 따라 용량 값으로 채워집니다. 이 작업을 수행하는 데 시간이 다소 걸립니다. 선택한 노드 목록에는 스토리지 클래스를 기반으로 하는 노드가 표시됩니다.
    2. 다음을 클릭하여 계속합니다.
  6. 선택 사항입니다. 외부 키 관리 서비스에 연결 확인란을 선택합니다. 이는 클러스터 전체 암호화의 경우 선택 사항입니다.

    1. 키 관리 서비스 공급자 드롭다운 목록에서 Vault 또는 Thales CipherTrust Manager(KMIP 사용) 를 선택합니다. Vault 를 선택한 경우 다음 단계로 이동합니다. Thales CipherTrust Manager(KMIP를 사용하여) 를 선택한 경우 iii 단계로 이동합니다.
    2. 인증 방법을 선택합니다.

      토큰 인증 방법 사용

      • 고유한 연결 이름, Vault 서버의 호스트 주소 ('https://<hostname or ip>'), 포트 번호 및 토큰 을 입력합니다.
      • 고급 설정을 확장하여 Vault 구성에 따라 추가 설정 및 인증서 세부 정보를 입력합니다.

        • OpenShift Data Foundation 전용 및 고유한 백엔드 경로에 키 값 시크릿 경로를 입력합니다.
        • 선택 사항: TLS 서버 이름Vault Enterprise 네임스페이스 를 입력합니다.
        • 각 PEM 인코딩 인증서 파일을 업로드하여 CA 인증서,클라이언트 인증서클라이언트 개인 키를 제공합니다.
        • 저장을 클릭하고 단계 활성화로 건너뜁니다.

          Kubernetes 인증 방법 사용

      • 고유한 Vault 연결 이름, Vault 서버의 호스트 주소 ('https://<hostname or ip>'), 포트 번호 및 역할 이름을 입력합니다.
      • 고급 설정을 확장하여 Vault 구성에 따라 추가 설정 및 인증서 세부 정보를 입력합니다.

        • Red Hat OpenShift Data Foundation 전용 및 고유한 백엔드 경로에 키 값 시크릿 경로를 입력합니다.
        • 선택 사항: 해당하는 경우 TLS 서버 이름인증 경로를 입력합니다.
        • 각 PEM 인코딩 인증서 파일을 업로드하여 CA 인증서,클라이언트 인증서클라이언트 개인 키를 제공합니다.
        • 저장을 클릭하고 단계 활성화로 건너뜁니다.
    3. Thales CipherTrust Manager (KMIP 사용) 를 KMS 공급자로 사용하려면 다음 단계를 따르십시오.

      1. 프로젝트 내에서 키 관리 서비스에 대한 고유한 연결 이름을 입력합니다.
      2. 주소포트 섹션에서 Thales CipherTrust Manager의 IP와 KMIP 인터페이스가 활성화된 포트를 입력합니다. 예를 들면 다음과 같습니다.

        • 주소: 123.34.3.2
        • 포트: 5696
      3. 클라이언트 인증서,CA 인증서클라이언트 개인 키를 업로드합니다.
      4. StorageClass 암호화가 활성화된 경우 위에서 생성된 암호화 및 암호 해독에 사용할 고유 ID를 입력합니다.
      5. TLS Server 필드는 선택 사항이며 KMIP 엔드포인트에 대한 DNS 항목이 없을 때 사용됩니다. 예를 들어kmip_all_<port>.ciphertrustmanager.local.
    4. 네트워크를 선택합니다.
    5. 다음을 클릭합니다.
  7. 검토 및 생성 페이지에서 구성 세부 정보를 검토합니다. 구성 설정을 수정하려면 뒤로를 클릭합니다.
  8. 스토리지 시스템 생성을 클릭합니다.
3.2.3.1.4. CLI를 사용하여 독립 실행형 Multicloud Object Gateway 생성

다음 절차에 따라 Red Hat OpenShift Data Foundation(이전의 OpenShift Container Storage) Operator를 설치하고 단일 인스턴스 Multi-Cloud Gateway 서비스를 구성합니다.

참고

Red Hat OpenShift Data Foundation이 설치된 클러스터에서는 다음 구성을 병렬로 실행할 수 없습니다.

프로세스

  1. OpenShift 웹 콘솔에서 Operator OperatorHub 를 선택합니다.
  2. Red Hat OpenShift Data Foundation 을 검색한 다음 설치를 선택합니다.
  3. 모든 기본 옵션을 수락한 다음 설치를 선택합니다.
  4. Succeeded 로 표시되어야 하는 Status 열을 확인하여 Operator가 설치되었는지 확인합니다.

    주의

    Red Hat OpenShift Data Foundation Operator 설치가 완료되면 스토리지 시스템을 생성하라는 메시지가 표시됩니다. 이 지침을 따르지 마십시오. 대신 다음 단계에 설명된 대로 NooBaa 오브젝트 스토리지를 생성합니다.

  5. 시스템에서 다음 정보를 사용하여 noobaa.yaml 이라는 파일을 생성합니다.

    apiVersion: noobaa.io/v1alpha1
    kind: NooBaa
    metadata:
      name: noobaa
      namespace: openshift-storage
    spec:
     dbResources:
       requests:
         cpu: '0.1'
         memory: 1Gi
     dbType: postgres
     coreResources:
       requests:
         cpu: '0.1'
         memory: 1Gi

    이렇게 하면 Multi-cloud Object Gateway 의 단일 인스턴스 배포가 생성됩니다.

  6. 다음 명령을 사용하여 구성을 적용합니다.

    $ oc create -n openshift-storage -f noobaa.yaml

    출력 예

    noobaa.noobaa.io/noobaa created

  7. 몇 분 후에 Multi-cloud Object Gateway 가 프로비저닝을 완료해야 합니다. 다음 명령을 입력하여 상태를 확인할 수 있습니다.

    $ oc get -n openshift-storage noobaas noobaa -w

    출력 예

    NAME     MGMT-ENDPOINTS              S3-ENDPOINTS                IMAGE                                                                                                            PHASE   AGE
    noobaa   [https://10.0.32.3:30318]   [https://10.0.32.3:31958]   registry.redhat.io/ocs4/mcg-core-rhel8@sha256:56624aa7dd4ca178c1887343c7445a9425a841600b1309f6deace37ce6b8678d   Ready   3d18h

  8. noobaa-pv-backing-store.yaml 이라는 YAML 파일을 생성하여 게이트웨이에 대한 백업 저장소를 구성합니다.

    apiVersion: noobaa.io/v1alpha1
    kind: BackingStore
    metadata:
      finalizers:
      - noobaa.io/finalizer
      labels:
        app: noobaa
      name: noobaa-pv-backing-store
      namespace: openshift-storage
    spec:
      pvPool:
        numVolumes: 1
        resources:
          requests:
            storage: 50Gi 1
        storageClass: STORAGE-CLASS-NAME 2
      type: pv-pool
    1
    오브젝트 스토리지 서비스의 전체 용량입니다. 필요에 따라 조정합니다.
    2
    요청된 PersistentVolume에 사용할 StorageClass 입니다. 클러스터 기본값을 사용하려면 이 속성을 삭제합니다.
  9. 다음 명령을 입력하여 구성을 적용합니다.

    $ oc create -f noobaa-pv-backing-store.yaml

    출력 예

    backingstore.noobaa.io/noobaa-pv-backing-store created

    이렇게 하면 게이트웨이에 대한 백업 저장소 구성이 생성됩니다. Red Hat Quay의 모든 이미지는 위의 구성으로 생성된 PersistentVolume 의 게이트웨이를 통해 오브젝트로 저장됩니다.

  10. 다음 명령을 실행하여 Red Hat Quay Operator에서 발행한 모든 ObjectBucketClaims 의 기본값을 PersistentVolume 백업 저장소로 설정합니다.

    $ oc patch bucketclass noobaa-default-bucket-class --patch '{"spec":{"placementPolicy":{"tiers":[{"backingStores":["noobaa-pv-backing-store"]}]}}}' --type merge -n openshift-storage
Red Hat logoGithubRedditYoutubeTwitter

자세한 정보

평가판, 구매 및 판매

커뮤니티

Red Hat 문서 정보

Red Hat을 사용하는 고객은 신뢰할 수 있는 콘텐츠가 포함된 제품과 서비스를 통해 혁신하고 목표를 달성할 수 있습니다. 최신 업데이트를 확인하세요.

보다 포괄적 수용을 위한 오픈 소스 용어 교체

Red Hat은 코드, 문서, 웹 속성에서 문제가 있는 언어를 교체하기 위해 최선을 다하고 있습니다. 자세한 내용은 다음을 참조하세요.Red Hat 블로그.

Red Hat 소개

Red Hat은 기업이 핵심 데이터 센터에서 네트워크 에지에 이르기까지 플랫폼과 환경 전반에서 더 쉽게 작업할 수 있도록 강화된 솔루션을 제공합니다.

© 2024 Red Hat, Inc.