OpenShift Data Foundation 업데이트


Red Hat OpenShift Data Foundation 4.13

클러스터 및 스토리지 관리자 업그레이드 관련 지침

Red Hat Storage Documentation Team

초록

이 문서에서는 Red Hat OpenShift Data Foundation의 이전 버전을 업데이트하는 방법을 설명합니다.

보다 포괄적 수용을 위한 오픈 소스 용어 교체

Red Hat은 코드, 문서, 웹 속성에서 문제가 있는 용어를 교체하기 위해 최선을 다하고 있습니다. 먼저 마스터(master), 슬레이브(slave), 블랙리스트(blacklist), 화이트리스트(whitelist) 등 네 가지 용어를 교체하고 있습니다. 이러한 변경 작업은 작업 범위가 크므로 향후 여러 릴리스에 걸쳐 점차 구현할 예정입니다. 자세한 내용은 CTO Chris Wright의 메시지를 참조하십시오.

Red Hat 문서에 관한 피드백 제공

문서 개선을 위한 의견을 보내 주십시오. 개선할 내용에 대해 알려주십시오.

피드백을 제공하려면 Bugzilla 티켓을 생성합니다.

  1. Bugzilla 웹 사이트로 이동하십시오.
  2. 구성 요소 섹션에서 설명서 를 선택합니다.
  3. 설명 필드에 문서 개선을 위한 제안 사항을 기입하십시오. 관련된 문서의 해당 부분 링크를 알려주십시오.
  4. 버그 제출을 클릭합니다.

1장. OpenShift Data Foundation 업데이트 프로세스 개요

이 장에서는 모든 Red Hat OpenShift Data Foundation 배포(내부, Internal-Attached 및 External)를 위해 마이너 릴리스와 z-streams 간에 업그레이드할 수 있습니다. 업그레이드 프로세스는 모든 배포에서 동일하게 유지됩니다.

OpenShift Data Foundation 및 해당 구성 요소는 4.12 및 4.13과 같은 마이너 릴리스 간에 또는 자동 업데이트를 활성화(운영자 설치 중에 수행하지 않은 경우) 또는 수동 업데이트 수행을 통해 4.13.0 및 4.13.1과 같은 z-stream 업데이트 간에 업그레이드할 수 있습니다. 새 z-stream 릴리스를 사용할 수 있게 되면 업데이트 전략이 자동으로 설정된 경우 업그레이드 프로세스가 자동으로 트리거됩니다.

또한 내부 및 외부 모드 배포 모두에 대해 Red Hat OpenShift Data Foundation의 다른 부분을 다음 순서로 업그레이드해야 합니다.

  1. OpenShift Container Platform의 클러스터 업데이트 설명서에 따라 OpenShift Container Platform을 업데이트합니다.
  2. Red Hat OpenShift Data Foundation을 업데이트합니다.

    1. 업데이트를 위해 연결이 끊긴 환경을 준비하려면 제한된 네트워크에서 Operator Lifecycle Manager를 사용하여 사용 중인 경우 OpenShift Data Foundation 및 Local Storage Operator를 업데이트할 수 있도록 Operator 가이드를 참조하십시오.
    2. 마이너 릴리스 간 업데이트를 보려면 Red Hat OpenShift Data Foundation 4.12에서 4.13으로 업데이트를 참조하십시오.
    3. z-stream 릴리스 간 업데이트를 보려면 Red Hat OpenShift Data Foundation 4.13.x에서 4.13.y로 업데이트를 참조하십시오.
    4. 외부 모드 배포를 업데이트하려면 Red Hat OpenShift Data Foundation 외부 시크릿 업데이트 섹션에서 단계를 수행해야 합니다.
    5. 로컬 스토리지를 사용하는 경우 Local Storage Operator를 업데이트합니다. 확실하지 않은 경우 Local Storage Operator 배포 확인을 참조하십시오.
중요

재해 복구(DR)가 활성화된 OpenShift Data Foundation 4.12의 기존 설정이 있는 경우 환경의 모든 클러스터를 동시에 업데이트하고 단일 클러스터를 업데이트하지 마십시오. 이는 잠재적인 문제를 방지하고 최상의 호환성을 유지하기 위한 것입니다. 모든 OpenShift Data Foundation DR 인스턴스에서 일관성을 유지하는 것도 중요합니다. 업그레이드 후 릴리스 노트 의 DR 업그레이드 알려진 문제 섹션에 설명된 대로 BZ#2215462의 해결 방법 중 1단계를 실행해야 합니다.

업데이트 고려 사항

시작하기 전에 다음과 같은 중요한 고려 사항을 검토하십시오.

  • Red Hat OpenShift Container Platform 버전은 Red Hat OpenShift Data Foundation과 동일합니다.

    OpenShift Container Platform 및 Red Hat OpenShift Data Foundation의 지원되는 조합에 대한 자세한 내용은 상호 운용성 매트릭스 를 참조하십시오.

  • 클러스터가 내부 또는 외부 모드로 배포되었는지 여부를 확인하려면 ODF 클러스터에 내부 또는 외부 모드에 스토리지가 있는지 확인하는 방법에 대한 지식베이스 문서를 참조하십시오.
  • Local Storage Operator 버전은 Red Hat OpenShift Container Platform 버전과 일치하는 경우에만 완전히 지원됩니다.
  • 유연한 확장 기능은 OpenShift Data Foundation의 새로운 배포에서만 사용할 수 있습니다. 자세한 내용은 스토리지 확장 가이드를 참조하십시오.
중요

Multicloud Object Gateway에는 데이터베이스의 단일 사본만 있습니다(NooBaa DB). 즉, NooBaa DB PVC가 손상되어 복구할 수 없는 경우 Multicloud Object Gateway에 있는 적용 가능한 데이터의 총 데이터 손실이 발생할 수 있습니다. 이로 인해 Red Hat은 NooBaa DB PVC를 정기적으로 백업할 것을 권장합니다. NooBaa DB가 실패하고 복구할 수 없는 경우 최신 백업 버전으로 되돌릴 수 있습니다. NooBaa DB 백업에 대한 자세한 내용은 이 knowledgabase 문서 의 단계를 따르십시오.

2장. OpenShift Data Foundation 업그레이드 채널 및 릴리스

OpenShift Container Platform 4.1에서 Red Hat은 클러스터 업그레이드에 적합한 버전을 권장하기 위해 업그레이드 채널 개념을 도입했습니다. 업그레이드 속도를 제어함으로써 이러한 업그레이드 채널을 통해 업그레이드 전략을 선택할 수 있습니다. OpenShift Data Foundation이 OpenShift Container Platform에서 Operator로 배포되면 여러 채널에 수정 사항을 전달하여 업그레이드 속도를 제어하기 위해 동일한 전략을 따릅니다. 업그레이드 채널은 OpenShift Data Foundation의 마이너 버전과 연결되어 있습니다.

예를 들어 OpenShift Data Foundation 4.13 업그레이드 채널에서는 4.13 내에서 업그레이드할 것을 권장합니다. 향후 릴리스로의 업그레이드는 권장되지 않습니다. 이 전략을 사용하면 관리자가 OpenShift Data Foundation의 다음 마이너 버전으로 업그레이드하기로 명시적으로 결정할 수 있습니다.

업그레이드 채널은 릴리스 선택만 제어하고 설치한 클러스터 버전에는 영향을 미치지 않습니다. odf-operator 는 설치할 OpenShift Data Foundation 버전을 결정합니다. 기본적으로 OpenShift Container Platform과의 호환성을 유지 관리하는 최신 OpenShift Data Foundation 릴리스를 항상 설치합니다. 따라서 OpenShift Container Platform 4.13에서는 OpenShift Data Foundation 4.13을 설치할 수 있는 최신 버전이 됩니다.

OpenShift Data Foundation 업그레이드는 OpenShift Container Platform 업그레이드와 연결되어 OpenShift Container Platform과 호환성 및 상호 운용성이 유지되도록 합니다. OpenShift Data Foundation 4.13의 경우 OpenShift Container Platform 4.13 및 4.14(일반적으로 사용 가능한 경우)가 지원됩니다. OpenShift Container Platform 4.13은 OpenShift Container Platform과 OpenShift Data Foundation의 향후 호환성을 유지하기 위해 지원됩니다. 해당 릴리스의 모든 기능 및 개선 사항을 활용하기 위해 OpenShift Data Foundation 버전을 OpenShift Container Platform과 동일하게 유지합니다.

중요

기본 Kubernetes 디자인으로 인해 마이너 버전 간 모든 OpenShift Container Platform 업데이트를 직렬화해야 합니다. OpenShift Container Platform 4.11에서 4.12로 업데이트한 다음 4.13으로 업데이트해야 합니다. OpenShift Container Platform 4.10에서 4.12로 직접 업데이트할 수 없습니다. 자세한 내용은 OpenShift Container Platform 설명서의 업데이트 클러스터 가이드의 EUS 업데이트를 수행할 준비를 참조하십시오.

OpenShift Data Foundation 4.13에서는 다음과 같은 업그레이드 채널을 제공합니다.

  • stable-4.13
  • stable-4.12

stable-4.13 채널

새 버전이 일반 사용 가능 상태가 되면 마이너 버전에 해당하는 stable 채널이 업그레이드에 사용할 수 있는 새 이미지로 업데이트됩니다. stable-4.13 채널을 사용하여 OpenShift Data Foundation 4.12에서 업그레이드하고 4.13 내에서 업그레이드할 수 있습니다.

stable-4.12

stable-4.12 채널을 사용하여 OpenShift Data Foundation 4.11에서 업그레이드하고 4.12 내의 업그레이드를 사용할 수 있습니다.

3장. Red Hat OpenShift Data Foundation 4.12에서 4.13으로 업데이트

이 장에서는 모든 Red Hat OpenShift Data Foundation 배포(내부, Internal-Attached 및 External)의 마이너 릴리스 간에 업그레이드할 수 있습니다. 업그레이드 프로세스는 모든 배포에서 동일하게 유지됩니다. 유일한 차이점은 업그레이드되고 그렇지 않은 것입니다.

  • 내부 및 내부 연결 배포를 위해 백엔드 Ceph Storage 클러스터를 포함한 모든 OpenShift Data Foundation 서비스를 업그레이드합니다.
  • 외부 모드 배포의 경우 OpenShift Data Foundation 업그레이드에서는 OpenShift Data Foundation 서비스만 업그레이드하는 반면 backend Ceph 스토리지 클러스터는 그대로 유지되며 별도로 업그레이드해야 합니다.

    새로운 기능 지원, 보안 수정 및 기타 버그 수정을 받으려면 OpenShift Data Foundation과 함께 RHCS를 업그레이드하는 것이 좋습니다. RHCS 업그레이드에 대한 강력한 종속성이 없으므로 먼저 OpenShift Data Foundation Operator를 업그레이드한 후 RHCS 업그레이드 또는 그 반대의 경우 업그레이드할 수 있습니다. Red Hat Ceph Storage 릴리스에 대한 자세한 내용은 솔루션을 참조하십시오.

중요

4.12 이상의 모든 버전에서 직접 4.13으로 업그레이드하는 것은 지원되지 않습니다.

중요

Multus 기술 프리뷰 기능을 사용하여 배포된 OpenShift Data Foundation 4.13 클러스터는 업그레이드 중에 CSI 이미지를 업데이트하지 못합니다. CSI 이미지를 수동으로 업데이트하는 방법에 대한 자세한 내용은 기술 자료 문서를 참조하십시오.

사전 요구 사항

  • OpenShift Container Platform 클러스터가 안정적인 최신 릴리스 버전 4.13.X로 업데이트되었는지 확인합니다. 클러스터 업데이트를 참조하십시오.
  • OpenShift Data Foundation 클러스터가 정상이고 데이터가 탄력적인지 확인합니다.

    • 스토리지 → Data Foundation → 스토리지 시스템 탭으로 이동한 다음 스토리지 시스템 이름을 클릭합니다.
    • 개요 - 블록 및 파일 탭 모두의 상태 카드에서 녹색 눈금을 확인합니다. 녹색 눈금은 스토리지 클러스터,오브젝트 서비스데이터 복원력 이 모두 정상임을 나타냅니다.
  • Operator Pod를 포함한 모든 OpenShift Data Foundation Pod가 openshift-storage 네임스페이스에서 Running 상태인지 확인합니다.

    Pod 상태를 보려면 OpenShift 웹 콘솔에서 워크로드 → 포드 를 클릭합니다. 프로젝트 드롭다운 목록에서 openshift-storage 를 선택합니다.

    참고

    기본 프로젝트 표시 옵션이 비활성화된 경우 토글 버튼을 사용하여 모든 기본 프로젝트를 나열합니다.

  • 업데이트 시간이 클러스터에서 실행되는 OSD 수에 따라 달라지므로 OpenShift Data Foundation 업데이트 프로세스를 완료하는 데 충분한 시간이 있는지 확인합니다.

절차

  1. OpenShift 웹 콘솔에서 Operator → 설치된 Operator로 이동합니다.
  2. openshift-storage 프로젝트를 선택합니다.
  3. OpenShift Data Foundation Operator 이름을 클릭합니다.
  4. Subscription 탭을 클릭하고 Update Channel 아래의 링크를 클릭합니다.
  5. stable-4.13 업데이트 채널을 선택하고 저장합니다.
  6. 업그레이드 상태에 승인이 필요한 경우 승인을 요청하십시오.

    1. 설치 계획 세부 정보 페이지에서 설치 계획 프리뷰 를 클릭합니다.
    2. 설치 계획을 검토하고 승인을 클릭합니다.

      상태가 알 수 없음 에서 Created 로 변경될 때까지 기다립니다.

  7. Operators → 설치된 Operators 로 이동합니다.
  8. openshift-storage 프로젝트를 선택합니다.

    OpenShift Data Foundation Operator 상태가 최신 으로 변경될 때까지 기다립니다.

  9. Operator가 성공적으로 업그레이드되면 메시지가 포함된 팝업 이 사용자 인터페이스에 웹 콘솔 업데이트를 사용할 수 있습니다. 콘솔 변경 사항을 반영하려면 이 팝업 창에서 웹 콘솔 새로 고침을 클릭합니다.

검증 단계

  • OpenShift Data Foundation 이름 아래의 Version 을 확인하고 Operator 상태를 확인합니다.

    • Operators → 설치된 Operators 로 이동하여 openshift-storage 프로젝트를 선택합니다.
    • 업그레이드가 완료되면 OpenShift Data Foundation의 새 버전 번호로 버전이 업데이트되고 녹색 눈금으로 상태가 Succeeded 로 변경됩니다.
  • OpenShift Data Foundation 클러스터가 정상이고 데이터가 탄력적인지 확인합니다.

    • 스토리지Data Foundation스토리지 시스템 탭으로 이동한 다음 스토리지 시스템 이름을 클릭합니다.
    • Overview- Block 및 File 및 Object 탭의 상태 카드에서 녹색 눈금을 확인합니다. 녹색 눈금은 스토리지 클러스터, 오브젝트 서비스 및 데이터 복구 기능이 정상임을 나타냅니다.
  • 검증 단계가 실패하는 경우 Red Hat 지원에 문의하십시오.
중요

외부 모드 배포를 업데이트한 후 외부 시크릿도 업데이트해야 합니다. 자세한 내용은 OpenShift Data Foundation 외부 시크릿 업데이트를 참조하십시오.

추가 리소스

OpenShift Data Foundation을 업데이트하는 동안 문제가 발생하면 문제 해결 가이드의 자주 필요한 로그 섹션을 참조하십시오.

4장. Red Hat OpenShift Data Foundation 4.13.x에서 4.13.y로 업데이트

이 장에서는 모든 Red Hat OpenShift Data Foundation 배포(내부, Internal-Attached 및 External)에 대해 z-stream 릴리스 간에 업그레이드하는 데 도움이 됩니다. 업그레이드 프로세스는 모든 배포에서 동일하게 유지됩니다. 유일한 차이점은 업그레이드되고 그렇지 않은 것입니다.

  • 내부 및 내부 연결 배포를 위해 백엔드 Ceph Storage 클러스터를 포함한 모든 OpenShift Data Foundation 서비스를 업그레이드합니다.
  • 외부 모드 배포의 경우 OpenShift Data Foundation 업그레이드에서는 OpenShift Data Foundation 서비스만 업그레이드하는 반면 backend Ceph 스토리지 클러스터는 그대로 유지되며 별도로 업그레이드해야 합니다.

    따라서 새로운 기능 지원, 보안 수정 및 기타 버그 수정을 받으려면 OpenShift Data Foundation과 함께 RHCS를 업그레이드하는 것이 좋습니다. RHCS 업그레이드에 대한 강력한 종속성이 없으므로 먼저 OpenShift Data Foundation Operator를 업그레이드한 후 RHCS 업그레이드 또는 그 반대의 경우 업그레이드할 수 있습니다. Red Hat Ceph Storage 릴리스에 대한 자세한 내용은 솔루션을 참조하십시오.

새 z-stream 릴리스를 사용할 수 있게 되면 업데이트 전략이 자동으로 설정된 경우 업그레이드 프로세스가 자동으로 트리거 됩니다. 업데이트 전략이 Manual 로 설정된 경우 다음 절차를 사용하십시오.

사전 요구 사항

  • OpenShift Container Platform 클러스터가 안정적인 최신 릴리스 버전 4.13.X로 업데이트되었는지 확인합니다. 클러스터 업데이트를 참조하십시오.
  • OpenShift Data Foundation 클러스터가 정상이고 데이터가 탄력적인지 확인합니다.

    • 스토리지 → Data Foundation → 스토리지 시스템 탭으로 이동한 다음 스토리지 시스템 이름을 클릭합니다.
    • 개요 상태 카드(Block and File and Object ) 탭의 상태 카드에서 녹색 눈금을 확인합니다. 녹색 눈금은 스토리지 클러스터, 오브젝트 서비스 및 데이터 복구 기능이 정상임을 나타냅니다.
  • Operator Pod를 포함한 모든 OpenShift Data Foundation Pod가 openshift-storage 네임스페이스에서 Running 상태인지 확인합니다.

    Pod 상태를 보려면 OpenShift 웹 콘솔에서 워크로드 → 포드 를 클릭합니다. 프로젝트 드롭다운 목록에서 openshift-storage 를 선택합니다.

    참고

    기본 프로젝트 표시 옵션이 비활성화된 경우 토글 버튼을 사용하여 모든 기본 프로젝트를 나열합니다.

  • 업데이트 시간이 클러스터에서 실행되는 OSD 수에 따라 달라지므로 OpenShift Data Foundation 업데이트 프로세스를 완료하는 데 충분한 시간이 있는지 확인합니다.

절차

  1. OpenShift 웹 콘솔에서 Operator → 설치된 Operator로 이동합니다.
  2. openshift-storage 프로젝트를 선택합니다.

    참고

    기본 프로젝트 표시 옵션이 비활성화된 경우 토글 버튼을 사용하여 모든 기본 프로젝트를 나열합니다.

  3. OpenShift Data Foundation Operator 이름을 클릭합니다.
  4. 서브스크립션 탭을 클릭합니다.
  5. 업그레이드 상태에 승인이 필요한 경우 요청 승인 링크를 클릭합니다.
  6. InstallPlan Details 페이지에서 설치 계획 프리뷰 를 클릭합니다.
  7. 설치 계획을 검토하고 승인을 클릭합니다.
  8. 상태가 알 수 없음 에서 Created 로 변경될 때까지 기다립니다.
  9. Operator가 성공적으로 업그레이드되면 메시지가 포함된 팝업 이 사용자 인터페이스에 웹 콘솔 업데이트를 사용할 수 있습니다. 콘솔 변경 사항을 반영하려면 이 팝업 창에서 웹 콘솔 새로 고침을 클릭합니다.

검증 단계

  • OpenShift Data Foundation 이름 아래의 Version 을 확인하고 Operator 상태를 확인합니다.

    • Operators → 설치된 Operators 로 이동하여 openshift-storage 프로젝트를 선택합니다.
    • 업그레이드가 완료되면 OpenShift Data Foundation의 새 버전 번호로 버전이 업데이트되고 녹색 눈금으로 상태가 Succeeded 로 변경됩니다.
  • OpenShift Data Foundation 클러스터가 정상이고 데이터가 탄력적인지 확인합니다.

    • 스토리지 → Data Foundation → 스토리지 시스템 탭으로 이동한 다음 스토리지 시스템 이름을 클릭합니다.
    • 개요 상태 카드(Block and File and Object ) 탭의 상태 카드에서 녹색 눈금을 확인합니다. 녹색 눈금은 스토리지 클러스터, 오브젝트 서비스 및 데이터 복구 기능이 정상임을 나타냅니다.
  • 검증 단계가 실패하는 경우 Red Hat 지원에 문의하십시오.

5장. 업데이트 승인 전략 변경

동일한 채널에서 새 업데이트를 사용할 수 있을 때 스토리지 시스템이 자동으로 업데이트되도록 하려면 업데이트 승인 전략을 자동으로 유지하는 것이 좋습니다. 업데이트 승인 전략을 수동으로 변경하려면 각 업그레이드에 대한 수동 승인이 필요합니다.

절차

  1. Operators → 설치된 Operators 로 이동합니다.
  2. 프로젝트 드롭다운 목록에서 openshift-storage 를 선택합니다.

    참고

    기본 프로젝트 표시 옵션이 비활성화된 경우 토글 버튼을 사용하여 모든 기본 프로젝트를 나열합니다.

  3. OpenShift Data Foundation Operator 이름을 클릭합니다.
  4. 서브스크립션 탭으로 이동합니다.
  5. 업데이트 승인을 변경하려면 연필 아이콘을 클릭합니다.
  6. 업데이트 승인 전략을 선택하고 저장 을 클릭합니다.

검증 단계

  • Update 승인에 새로 선택된 승인 전략이 그 아래에 표시되는지 확인합니다.

6장. OpenShift Data Foundation 외부 시크릿 업데이트

OpenShift Data Foundation의 최신 버전으로 업데이트한 후 OpenShift Data Foundation 외부 시크릿을 업데이트합니다.

참고

배치 업데이트에는 외부 시크릿 업데이트가 필요하지 않습니다. 예를 들어 OpenShift Data Foundation 4.13.x에서 4.13.y로 업데이트할 때입니다.

사전 요구 사항

  • OpenShift Container Platform 클러스터를 4.13.z의 안정적인 최신 릴리스로 업데이트하고 클러스터 업데이트를 참조하십시오.
  • OpenShift Data Foundation 클러스터가 정상이고 데이터가 탄력적인지 확인합니다. 스토리지Data Foundation스토리지 시스템 탭으로 이동한 다음 스토리지 시스템 이름을 클릭합니다.

    • 개요 - 블록 및 파일 탭에서 상태 카드를 확인하고 스토리지 클러스터에 녹색 눈금이 있는지 확인합니다.
    • 오브젝트 탭을 클릭하고 오브젝트 서비스 및 데이터 복원력 이 정상임을 나타내는 녹색 눈금이 있는지 확인합니다. RADOS Object Gateway는 외부 모드에서 OpenShift Data Foundation을 배포하는 동안 RADOS Object Gateway 엔드포인트 세부 정보가 포함된 경우에만 나열됩니다.
  • Red Hat Ceph Storage에는 Ceph 대시보드가 설치되어 구성되어 있어야 합니다.

절차

  1. ceph-external-cluster-details-exporter.py python 스크립트의 OpenShift Data Foundation 버전을 다운로드합니다.

    # oc get csv $(oc get csv -n openshift-storage | grep ocs-operator | awk '{print $1}') -n openshift-storage -o jsonpath='{.metadata.annotations.external\.features\.ocs\.openshift\.io/export-script}' | base64 --decode > ceph-external-cluster-details-exporter.py
    Copy to Clipboard
  2. 외부 Red Hat Ceph Storage 클러스터의 모든 클라이언트 노드에서 ceph-external-cluster-details-exporter.py 를 실행하여 외부 Red Hat Ceph Storage 클러스터에서 권한을 업데이트합니다. Red Hat Ceph Storage 관리자에게 이 작업을 수행하도록 요청해야 할 수도 있습니다.

    # python3 ceph-external-cluster-details-exporter.py --upgrade
    Copy to Clipboard

    업데이트된 사용자 권한은 다음과 같이 설정됩니다.

    client.csi-cephfs-node
    key: AQCYz0piYgu/IRAAipji4C8+Lfymu9vOrox3zQ==
    caps: [mds] allow rw
    caps: [mgr] allow rw
    caps: [mon] allow r, allow command 'osd blocklist'
    caps: [osd] allow rw tag cephfs =
    client.csi-cephfs-provisioner
    key: AQCYz0piDUMSIxAARuGUyhLXFO9u4zQeRG65pQ==
    caps: [mgr] allow rw
    caps: [mon] allow r, allow command 'osd blocklist'
    caps: [osd] allow rw tag cephfs metadata=*
    client.csi-rbd-node
    key: AQCYz0pi88IKHhAAvzRN4fD90nkb082ldrTaHA==
    caps: [mon] profile rbd, allow command 'osd blocklist'
    caps: [osd] profile rbd
    client.csi-rbd-provisioner
    key: AQCYz0pi6W8IIBAAgRJfrAW7kZfucNdqJqS9dQ==
    caps: [mgr] allow rw
    caps: [mon] profile rbd, allow command 'osd blocklist'
    caps: [osd] profile rbd
    Copy to Clipboard
  3. 이전에 다운로드한 python 스크립트를 실행하고 외부 Red Hat Ceph Storage 클러스터에서 생성된 JSON 출력을 저장합니다.

    1. 이전에 다운로드한 python 스크립트를 실행합니다.

      # python3 ceph-external-cluster-details-exporter.py --rbd-data-pool-name <rbd block pool name> --monitoring-endpoint <ceph mgr prometheus exporter endpoint> --monitoring-endpoint-port <ceph mgr prometheus exporter port> --rgw-endpoint <rgw endpoint> --run-as-user <ocs_client_name>  [optional arguments]
      Copy to Clipboard
      --rbd-data-pool-name
      는 OpenShift Data Foundation에서 블록 스토리지를 제공하는 데 사용되는 필수 매개 변수입니다.
      --rgw-endpoint
      이는 선택 사항입니다. OpenShift Data Foundation용 Ceph Rados Gateway를 통해 오브젝트 스토리지를 프로비저닝하는 경우 이 매개변수를 제공합니다. 끝점을 < ip_address>:<port> 형식으로 제공합니다.
      --monitoring-endpoint
      이는 선택 사항입니다. OpenShift Container Platform 클러스터에서 연결할 수 있는 활성 및 Pending mgrs의 쉼표로 구분된 IP 주소 목록을 사용할 수 있습니다. 지정하지 않으면 값이 자동으로 채워집니다.
      --monitoring-endpoint-port
      이는 선택 사항입니다. --monitoring-endpoint 에서 지정한 ceph-mgr Prometheus 내보내기와 연결된 포트입니다. 지정하지 않으면 값이 자동으로 채워집니다.
      --run-as-user

      OpenShift Data Foundation 클러스터 배포 중에 사용되는 클라이언트 이름입니다. 다른 클라이언트 이름이 설정되지 않은 경우 기본 클라이언트 이름 client.healthchecker 를 사용합니다.

      참고

      monitoring-endpoint 및 monitoring-endpoint-port를 제외한 선택적 인수를 포함한 모든 매개변수가 외부 모드에서 OpenShift Data Foundation을 배포하는 동안 사용된 것과 동일한지 확인합니다.

    2. 이전 단계에서 스크립트를 실행한 후 생성된 JSON 출력을 저장합니다.

      출력 예:

      [{"name": "rook-ceph-mon-endpoints", "kind": "ConfigMap", "data": {"data": "xxx.xxx.xxx.xxx:xxxx", "maxMonId": "0", "mapping": "{}"}}, {"name": "rook-ceph-mon", "kind": "Secret", "data": {"admin-secret": "admin-secret", "fsid": "<fs-id>", "mon-secret": "mon-secret"}}, {"name": "rook-ceph-operator-creds", "kind": "Secret", "data": {"userID": "<user-id>", "userKey": "<user-key>"}}, {"name": "rook-csi-rbd-node", "kind": "Secret", "data": {"userID": "csi-rbd-node", "userKey": "<user-key>"}}, {"name": "ceph-rbd", "kind": "StorageClass", "data": {"pool": "<pool>"}}, {"name": "monitoring-endpoint", "kind": "CephCluster", "data": {"MonitoringEndpoint": "xxx.xxx.xxx.xxxx", "MonitoringPort": "xxxx"}}, {"name": "rook-ceph-dashboard-link", "kind": "Secret", "data": {"userID": "ceph-dashboard-link", "userKey": "<user-key>"}}, {"name": "rook-csi-rbd-provisioner", "kind": "Secret", "data": {"userID": "csi-rbd-provisioner", "userKey": "<user-key>"}}, {"name": "rook-csi-cephfs-provisioner", "kind": "Secret", "data": {"adminID": "csi-cephfs-provisioner", "adminKey": "<admin-key>"}}, {"name": "rook-csi-cephfs-node", "kind": "Secret", "data": {"adminID": "csi-cephfs-node", "adminKey": "<admin-key>"}}, {"name": "cephfs", "kind": "StorageClass", "data": {"fsName": "cephfs", "pool": "cephfs_data"}}, {"name": "ceph-rgw", "kind": "StorageClass", "data": {"endpoint": "xxx.xxx.xxx.xxxx", "poolPrefix": "default"}}, {"name": "rgw-admin-ops-user", "kind": "Secret", "data": {"accessKey": "<access-key>", "secretKey": "<secret-key>"}}]
      Copy to Clipboard
  4. 생성된 JSON 파일을 업로드합니다.

    1. OpenShift 웹 콘솔에 로그인합니다.
    2. 워크로드 → 시크릿 을 클릭합니다.
    3. project를 openshift-storage 로 설정합니다.
    4. rook-ceph-external-cluster-details 를 클릭합니다.
    5. 작업(ECDHE) → 시크릿 편집을 클릭합니다.
    6. 찾아보기를 클릭하고 JSON 파일을 업로드합니다.
    7. 저장을 클릭합니다.

검증 단계

  • OpenShift Data Foundation 클러스터가 정상이고 데이터가 탄력적인지 확인하려면 스토리지Data Foundation → 스토리지 시스템 탭으로 이동한 다음 스토리지 시스템 이름을 클릭합니다.

    • 개요블록 및 파일 탭에서 세부 정보 카드를 확인하여 RHCS 대시보드 링크를 사용할 수 있는지 확인하고 상태 카드를 확인하여 스토리지 클러스터에 녹색 눈금이 있는지 확인합니다.
    • 오브젝트 탭을 클릭하고 오브젝트 서비스 및 데이터 복원력 이 정상임을 나타내는 녹색 눈금이 있는지 확인합니다. RADOS Object Gateway는 외부 모드에서 OpenShift Data Foundation을 배포하는 동안 RADOS Object Gateway 엔드포인트 세부 정보가 포함된 경우에만 나열됩니다.
  • 검증 단계가 실패하는 경우 Red Hat 지원에 문의하십시오.
맨 위로 이동
Red Hat logoGithubredditYoutubeTwitter

자세한 정보

평가판, 구매 및 판매

커뮤니티

Red Hat 문서 정보

Red Hat을 사용하는 고객은 신뢰할 수 있는 콘텐츠가 포함된 제품과 서비스를 통해 혁신하고 목표를 달성할 수 있습니다. 최신 업데이트를 확인하세요.

보다 포괄적 수용을 위한 오픈 소스 용어 교체

Red Hat은 코드, 문서, 웹 속성에서 문제가 있는 언어를 교체하기 위해 최선을 다하고 있습니다. 자세한 내용은 다음을 참조하세요.Red Hat 블로그.

Red Hat 소개

Red Hat은 기업이 핵심 데이터 센터에서 네트워크 에지에 이르기까지 플랫폼과 환경 전반에서 더 쉽게 작업할 수 있도록 강화된 솔루션을 제공합니다.

Theme

© 2025 Red Hat