1.2. 확인된 문제


Kubernetes용 Red Hat Advanced Cluster Management의 알려진 문제를 검토합니다. 다음 목록에는 이 릴리스의 알려진 문제 또는 이전 릴리스에서 계속된 알려진 문제가 포함되어 있습니다. Red Hat OpenShift Container Platform 클러스터의 경우 OpenShift Container Platform 알려진 문제를 참조하십시오.

1.2.1. 알려진 문제 문서

1.2.2. 설치 알려진 문제

Red Hat Advanced Cluster Management를 새 버전으로 업그레이드한 후 StatefulSet 에 속하는 일부 Pod는 failed 상태로 유지될 수 있습니다. 이 드물게 발생하는 경우는 알려진 Kubernetes 문제로 인해 발생합니다.

이 문제에 대한 해결 방법으로 실패한 Pod를 삭제합니다. Kubernetes는 올바른 설정으로 자동으로 다시 시작됩니다.

1.2.2.2. OpenShift Container Platform 클러스터 업그레이드 실패 상태

OpenShift Container Platform 클러스터가 업그레이드 단계에 있는 경우 클러스터 Pod가 재시작되고 클러스터가 1-5분의 변형에 대해 업그레이드 실패 상태로 남아 있을 수 있습니다. 이 동작은 예상되고 몇 분 후에 해결됩니다.

2.4.x에서 2.5.0으로 업그레이드한 후 두 개의 클러스터 큐레이터 컨트롤러가 동시에 실행될 수 있습니다. 클러스터 라이프사이클 Ansible 통합을 위한 일부 prehook 및 posthooks에 대해 두 개 이상의 AnsibleJob이 생성되었습니다. 이 문제를 해결하려면 다음 절차를 참조하십시오.

  1. 실행 중인 클러스터 Curator 컨트롤러가 두 개 있는지 확인합니다. 다중 클러스터 엔진 Operator의 multicluster-engine 네임스페이스와 open-cluster-management 네임스페이스가 포함된 다음 명령을 실행합니다.

    kubectl -n multicluster-engine get deploy cluster-curator-controller
    kubectl -n open-cluster-management get deploy cluster-curator-controller
  2. 두 개의 클러스터 Curator 컨트롤러가 실행 중인 경우 open-cluster-management 네임스페이스에서 cluster-curator-controller 를 삭제합니다. 다음 명령을 실행합니다.

    kubectl -n open-cluster-management delete deploy cluster-curator-controller

1.2.2.4. 작동하지 않는 MultiClusterEngine 버튼 생성

Red Hat OpenShift Container Platform 콘솔에서 Kubernetes용 Red Hat Advanced Cluster Management for Kubernetes를 설치하면 다음 메시지가 포함된 팝업 창이 표시됩니다.

MultiClusterEngine required

이 Operator를 사용할 MultiClusterEngine 인스턴스를 생성합니다.

팝업 창의 Create MultiClusterEngine 버튼이 작동하지 않을 수 있습니다. 이 문제를 해결하려면 Provided APIs 섹션의 MultiClusterEngine 타일에서 인스턴스 생성을 선택합니다.

1.2.3. 웹 콘솔의 알려진 문제

Red Hat Advanced Cluster Management 버전 2.5.2 이상 2.5.x 버전은 Red Hat OpenShift Container Platform 버전 4.11에서 지원되지만 다크 모드는 Red Hat Advanced Cluster Management 2.5.x에서 지원되지 않습니다. 설정에서 다크 모드를 비활성화하거나 Red Hat Advanced Cluster Management 버전 2.6로 업그레이드하여 다크 모드를 활성화합니다.

Kubernetes Operator 버전 2.0.2 및 이후 2.0.x 버전의 멀티 클러스터 엔진은 Red Hat OpenShift Container Platform 버전 4.11에서 지원되지만, Kubernetes Operator 2.0.x의 멀티 클러스터 엔진에서 다크 모드가 지원되지 않습니다. 설정에서 다크 모드를 비활성화하거나 Kubernetes Operator 버전 2.1의 다중 클러스터 엔진으로 업그레이드하여 다크 모드를 활성화합니다.

1.2.3.3. LDAP 사용자 이름은 대소문자를 구분합니다.

LDAP 사용자 이름은 대소문자를 구분합니다. LDAP 디렉터리에 구성된 방식과 정확히 이름을 사용해야 합니다.

1.2.3.4. Firefox 이전 버전에서 콘솔 기능이 표시되지 않을 수 있음

이 제품은 Mozilla Firefox 74.0 또는 Linux, macOS 및 Windows에서 사용할 수 있는 최신 버전을 지원합니다. 최상의 콘솔 호환성을 위해 최신 버전으로 업그레이드합니다.

1.2.3.5. 검색 사용자 지정의 스토리지 크기 제한 사항

searchcustomization CR에서 스토리지 크기를 업데이트하면 PVC 구성이 변경되지 않습니다. 스토리지 크기를 업데이트해야 하는 경우 다음 명령으로 PVC (<storageclassname>-search-redisgraph-0)를 업데이트합니다.

oc edit pvc <storageclassname>-search-redisgraph-0

1.2.3.6. 검색 쿼리 구문 분석 오류

환경이 크고 스케일링에 대한 테스트가 더 필요한 경우 검색 쿼리가 시간 초과되어 오류 메시지가 표시될 수 있습니다. 이 오류는 검색 쿼리를 기다리는 동안 30초 후에 표시됩니다.

다음 명령을 사용하여 시간 초과를 확장합니다.

kubectl annotate route multicloud-console haproxy.router.openshift.io/timeout=Xs

1.2.3.7. 클러스터 세트의 네임스페이스 바인딩을 편집할 수 없음

admin 역할로 설정된 클러스터 세트의 네임스페이스 바인딩을 편집하면 다음 메시지와 유사한 오류가 발생할 수 있습니다.

ResourceError: managedclustersetbindings.cluster.open-cluster-management.io "<cluster-set>"는 허용되지 않습니다. 사용자 "<user>" cannot create/delete resource "managedclustersetbindings" in API group "cluster.open-cluster-management.io" in the namespace "<namespace>".

문제를 해결하려면 바인딩하려는 네임스페이스에서 ManagedClusterSetBinding 리소스를 생성하거나 삭제할 수 있는 권한이 있어야 합니다. 역할 바인딩을 사용하면 네임스페이스로 설정된 클러스터만 바인딩할 수 있습니다.

1.2.3.8. 클러스터 세부 정보의 거짓 스케일링 경고

콘솔에서 클러스터 세부 정보를 볼 때 노드 또는 머신 풀 탭에 다음 메시지가 표시될 수 있습니다.

현재 작업자 노드가 이 클러스터에서 제거되고 있습니다. 시스템 보기 버튼을 클릭하여 스케일링 작업의 상태를 확인합니다(이 콘솔에 변경 사항이 반영되는 데 몇 분이 걸릴 수 있음).

시스템 풀이 없는 경우 UPI(User Provisioned Infrastructure) 설치를 사용하는 공급자의 경우 false 경고를 무시합니다. 컨트롤 플레인에 포함되지 않은 작업자 노드가 있는 경우 경고가 표시됩니다. 작업자 노드가 시스템 풀을 스케일링하는 대신 클러스터에 직접 추가되는 경우 IPI(Installer Provisioned Infrastructure) 설치를 사용하여 프로비저닝된 클러스터에 대해 false 경고가 표시될 수도 있습니다.

1.2.4. 가시성 알려진 문제

1.2.4.1. 서비스 수준 개요 대시보드의 중복 로컬 클러스터

다양한 허브 클러스터에서 동일한 S3 스토리지를 사용하여 Red Hat Advanced Cluster Management 관찰 기능을 배포하는 경우 중복된 로컬 클러스터를 탐지하여 Kubernetes/Service-Level Overview/API Server 대시보드에 표시할 수 있습니다. 중복된 클러스터는 다음 패널 내의 결과에 영향을미칩니다. 상위 클러스터, SLO를 초과하는 클러스터 수 및 SLO를 충족하는 클러스터 수입니다. local-cluster는 공유 S3 스토리지와 관련된 고유한 클러스터입니다. 여러 로컬 클러스터가 대시보드에 표시되지 않도록 하려면 각 고유 허브 클러스터에서 hub 클러스터 전용 S3 버킷을 사용하여 관찰 기능을 배포하는 것이 좋습니다.

1.2.4.2. Observability Endpoint Operator가 이미지를 가져오지 못했습니다.

MultiClusterObservability CustomResource(CR)에 배포할 pull-secret을 생성하고 open-cluster-management-observability 네임스페이스에 pull-secret이 없는 경우 observability 끝점 Operator가 실패합니다. 새 클러스터를 가져오거나 Red Hat Advanced Cluster Management로 생성된 Hive 클러스터를 가져오는 경우, 관리형 클러스터에서 수동으로 풀 이미지 시크릿을 생성해야 합니다.

자세한 내용은 관찰 기능 활성화를 참조하십시오.

1.2.4.3. ROKS 및 HyperShift 클러스터의 데이터가 없습니다.

Red Hat Advanced Cluster Management 관찰 기능은 기본 제공 대시보드 내의 일부 패널에 ROKS 클러스터 및 HyperShift 클러스터의 데이터를 표시하지 않습니다. 이는 ROKS와 HyperShift가 관리하는 서버에서 API Server 메트릭을 노출하지 않기 때문입니다. 다음 Grafana 대시보드에는 ROKS 및 HyperShift 클러스터를 지원하지 않는 패널이 포함되어 있습니다. Kubernetes/API 서버,Kubernetes/Compute Resources/Workload,Kubernetes/Compute Resources/Namespace(Workload)

1.2.4.4. ROKS 및 HyperShift 클러스터에서 etcd 데이터가 없습니다.

ROKS 클러스터 및 HyperShift 클러스터의 경우 Red Hat Advanced Cluster Management 관찰 기능은 대시보드의 etcd 패널에 데이터를 표시하지 않습니다.

1.2.4.5. search-collector Pod별 CPU 사용량 증가

1000개의 클러스터를 관리하는 허브 클러스터에서 검색이 비활성화되면 메모리 부족 오류(OOM)로 인해 검색이 중단됩니다. 다음 단계를 완료합니다.

  1. hub 클러스터에서 검색이 비활성화되어 있습니다. 즉 search-redisgraph-pod 가 배포되지 않음을 나타내는 경우 search-collector 배포를 0 개의 복제본으로 축소하여 메모리 사용량을 줄입니다.
  2. hub 클러스터에서 검색을 활성화하면 search-redisgraph-pod 가 배포되었음을 나타내는 경우 search-collector 배포를 편집하여 할당된 메모리를 늘립니다.

드문 경우지만 인증서 변경 후 검색 Pod가 자동으로 재배포되지 않습니다. 이로 인해 서비스 Pod에서 인증서가 일치하지 않아 TLS(Transport Layer Security) 핸드셰이크가 실패합니다. 이 문제를 해결하려면 검색 Pod를 다시 시작하여 인증서를 재설정합니다.

1.2.4.7. Grafana 콘솔에서 메트릭을 사용할 수 없음

  • Grafana 콘솔에서 주석 쿼리가 실패했습니다.

    Grafana 콘솔에서 특정 주석을 검색할 때 만료된 토큰으로 인해 다음 오류 메시지가 표시될 수 있습니다.

    "annotation Query Failed"

    브라우저를 새로 고치고 hub 클러스터에 로그인했는지 확인합니다.

  • rbac-query-proxy Pod의 오류:

    managedcluster 리소스에 대한 무단 액세스 권한으로 인해 클러스터 또는 프로젝트를 쿼리할 때 다음과 같은 오류가 발생할 수 있습니다.

    프로젝트 또는 클러스터를 찾을 수 없음

    역할 권한을 확인하고 적절하게 업데이트합니다. 자세한 내용은 역할 기반 액세스 제어를 참조하십시오.

1.2.4.8. 관리형 클러스터에서 Prometheus 데이터 손실

기본적으로 OpenShift의 Prometheus는 임시 스토리지를 사용합니다. Prometheus는 다시 시작할 때마다 모든 지표 데이터가 손실됩니다.

Red Hat Advanced Cluster Management에서 관리하는 OpenShift Container Platform 관리 클러스터에서 관찰 기능이 활성화 또는 비활성화되면 observability 끝점 Operator는 로컬 Prometheus를 자동으로 다시 시작하는 alertmanager 구성을 추가하여 cluster-monitoring-config ConfigMap 을 업데이트합니다.

1.2.4.9. 순서가 없는 샘플을 수집하는 동안 오류 발생

가시성은 Pod 에서 다음 오류 메시지를 보고합니다.

Error on ingesting out-of-order samples

오류 메시지는 메트릭 수집 간격 동안 관리 클러스터에서 보낸 시계열 데이터가 이전 수집 간격으로 보낸 시계열 데이터보다 오래되었음을 나타냅니다. 이 문제가 발생하면 Thanos 수신자에 의해 데이터가 삭제되고 Grafana 대시보드에 표시된 데이터에 차이가 발생할 수 있습니다. 오류가 자주 표시되는 경우 지표 컬렉션 간격을 더 높은 값으로 늘리는 것이 좋습니다. 예를 들어 간격을 60 초로 늘릴 수 있습니다.

이 문제는 시계열 간격이 30초와 같이 더 낮은 값으로 설정된 경우에만 발생합니다. 지표 수집 간격이 기본값 300초로 설정된 경우에는 이 문제가 표시되지 않습니다.

1.2.4.10. 관리 클러스터에서 Grafana 배포가 실패

매니페스트 크기가 50000바이트를 초과하는 경우 Grafana 인스턴스는 관리 클러스터에 배포되지 않습니다. 관찰 기능을 배포한 후 Grafana에 local-cluster 만 나타납니다.

1.2.5. 클러스터 관리 알려진 문제

클러스터 관리에 대한 다음과 같은 알려진 문제 및 제한 사항을 참조하십시오.

베어 메탈 공급자 및 연결이 끊긴 설치를 사용하여 클러스터를 생성할 때 연결 해제된 설치의 구성 섹션에 해당 인증 정보에 모든 설정을 저장해야 합니다. 클러스터 생성 콘솔 편집기에 입력할 수 없습니다.

VMware vSphere 또는 Red Hat OpenStack Platform 공급자와 연결이 끊긴 설치를 사용하여 클러스터를 생성할 때 인증서가 미러 레지스트리에 액세스해야 하는 경우 연결이 끊긴 설치 섹션 의 구성의 추가 신뢰 번들 필드에 입력해야 합니다. 클러스터 생성 콘솔 편집기에 해당 인증서를 입력하면 무시됩니다.

베어 메탈, VMware vSphere 또는 Red Hat OpenStack Platform 공급자에 대한 인증 정보를 생성할 때 설치 프로그램이 인증서를 구분하지 않으므로 프록시 및 구성의 추가 신뢰 번들 필드에 동일한 값이 포함되어 있습니다. 이러한 기능은 독립적으로 사용할 수 있으며 프록시 및 연결이 끊긴 설치에 다른 인증서가 필요한 경우 필드에 여러 인증서를 입력할 수 있습니다.

hub 클러스터에서 61Sync ManagedClusterAddOn 을 제거하면 관리 클러스터에서 desilSync Operator 서브스크립션을 제거하지만 CSV(클러스터 서비스 버전)는 제거하지 않습니다. 관리형 클러스터에서 CSV를 제거하려면 CloudEventSync를 제거할 각 관리형 클러스터에서 다음 명령을 실행합니다.

oc delete csv -n openshift-operators volsync-product.v0.4.0

다른 버전이 설치되어 있는 경우 v0.4.0 을 설치된 버전으로 교체합니다.

sushy-tools를 사용하여 베어 메탈에 관리형 클러스터를 프로비저닝하면 프로비저닝에 실패할 수 있으며 가상 미디어 cd 쿼리에서 500 오류가 반환 될 수 있습니다. sushy-tools 사용은 장기 실행 클러스터에서 신뢰할 수 없습니다.

최신 버전의 sushy-tools가 있는지 확인하고 sushy 에뮬레이터를 다시 시작하여 문제를 해결합니다.

OpenShift Container Platform 버전 4.10을 실행하는 듀얼 스택 허브에 베어 메탈 클러스터를 프로비저닝하면 프로비저닝에 실패하고 노드 검사 중에 'timeout reached while inspecting the node'라는 오류 메시지와 함께 프로비저닝이 실패합니다. 이 문제를 바이패스하려면 다음 예와 같이 install-config.yaml 파일에서 provisioning 네트워크를 비활성화합니다.

platform:
  baremetal:
    provisioningNetwork: "Disabled"

provisioning 네트워크에 대한 자세한 내용은 OpenShift Container Platform 설명서에서 provisioning 네트워크없이 배포를 참조하십시오.

ManagedClusterSet 을 삭제한 후 클러스터를 클러스터 세트에 연결하는 각 관리 클러스터에 추가된 레이블은 자동으로 제거되지 않습니다. 삭제된 관리 클러스터 세트에 포함된 각 관리 클러스터에서 레이블을 수동으로 제거합니다. 레이블은 cluster.open-cluster-management.io/clusterset:<ManagedClusterSet Name>과 유사합니다.

1.2.5.7. ClusterClaim 오류

ClusterPool 에 대해 Hive ClusterClaim 을 생성하고 수동으로 ClusterClaimspec 수명 필드를 잘못된 golang 시간 값으로 설정하는 경우 Red Hat Advanced Cluster Management는 malformed 클레임뿐만 아니라 모든 ClusterClaims 실행 및 조정을 중지합니다.

이 오류가 발생하면 clusterclaim-controller Pod 로그에 다음 내용이 표시됩니다. 이는 풀 이름과 유효하지 않은 라이프 사이클이 포함된 특정 예입니다.

E0203 07:10:38.266841       1 reflector.go:138] sigs.k8s.io/controller-runtime/pkg/cache/internal/informers_map.go:224: Failed to watch *v1.ClusterClaim: failed to list *v1.ClusterClaim: v1.ClusterClaimList.Items: []v1.ClusterClaim: v1.ClusterClaim.v1.ClusterClaim.Spec: v1.ClusterClaimSpec.Lifetime: unmarshalerDecoder: time: unknown unit "w" in duration "1w", error found in #10 byte of ...|time":"1w"}},{"apiVe|..., bigger context ...|clusterPoolName":"policy-aas-hubs","lifetime":"1w"}},{"apiVersion":"hive.openshift.io/v1","kind":"Cl|...

유효하지 않은 클레임을 삭제할 수 있습니다.

잘못된 형식의 클레임이 삭제되면 추가 상호 작용 없이 클레임이 다시 조정되기 시작합니다.

1.2.5.8. 프로비저닝된 클러스터와 동기화되지 않는 제품 채널

clusterimagesetfast 채널에 있지만 프로비저닝된 클러스터는 stable 채널에 있습니다. 현재 제품은 프로비저닝된 OpenShift Container Platform 클러스터와 채널을 동기화하지 않습니다.

OpenShift Container Platform 콘솔에서 올바른 채널로 변경합니다. Administration > Cluster Settings > Details Channel 을 클릭합니다.

사용자 정의 CA 인증서로 클러스터를 관리하는 허브 클러스터의 백업을 복원한 후 관리형 클러스터와 허브 클러스터 간의 연결이 실패할 수 있습니다. 이는 복원된 허브 클러스터에서 CA 인증서가 백업되지 않았기 때문입니다. 연결을 복원하려면 관리 클러스터의 네임스페이스에 있는 사용자 정의 CA 인증서 정보를 복원된 허브 클러스터의 < managed_cluster>-admin-kubeconfig 시크릿에 복사합니다.

팁: 백업 사본을 생성하기 전에 이 CA 인증서를 hub 클러스터에 복사하면 백업 사본에 시크릿 정보가 포함됩니다. 나중에 백업 사본을 사용하여 복원하면 허브와 관리 클러스터 간의 연결이 자동으로 완료됩니다.

1.2.5.10. local-cluster가 자동으로 다시 생성되지 않을 수 있습니다.

disableHubSelfManagementfalse 로 설정된 동안 local-cluster가 삭제되면 MulticlusterHub Operator가 로컬 클러스터를 다시 생성합니다. 로컬 클러스터를 분리한 후 로컬 클러스터가 자동으로 다시 생성되지 않을 수 있습니다.

  • 이 문제를 해결하려면 MulticlusterHub Operator에서 조사하는 리소스를 수정합니다. 다음 예제를 참조하십시오.

    oc delete deployment multiclusterhub-repo -n <namespace>
  • 로컬 클러스터를 올바르게 분리하려면 MultiClusterHub 에서 disableHubSelfManagement 를 true로 설정합니다.

1.2.5.11. 온-프레미스 클러스터를 만들 때 서브넷 선택

Red Hat Advanced Cluster Management 콘솔을 사용하여 온-프레미스 클러스터를 만드는 경우 클러스터에 사용 가능한 서브넷을 선택해야 합니다. 필수 필드로 표시되지 않습니다.

1.2.5.12. Google Cloud Platform의 클러스터 프로비저닝 실패

GCP(Google Cloud Platform)에 클러스터를 프로비저닝하려고 하면 다음 오류가 발생할 수 있습니다.

Cluster initialization failed because one or more operators are not functioning properly.
The cluster should be accessible for troubleshooting as detailed in the documentation linked below,
https://docs.openshift.com/container-platform/latest/support/troubleshooting/troubleshooting-installations.html
The 'wait-for install-complete' subcommand can then be used to continue the installation

클러스터 설치를 계속할 수 있는 GCP 프로젝트에서 Network Security API 를 활성화하여 이 오류를 해결할 수 있습니다.

1.2.5.13. Infrastructure Operator를 통한 클러스터 프로비저닝 실패

Infrastructure Operator를 사용하여 OpenShift Container Platform 클러스터를 생성할 때 ISO 이미지의 파일 이름이 너무 길 수 있습니다. 긴 이미지 이름으로 인해 이미지 프로비저닝 및 클러스터 프로비저닝이 실패합니다. 이것이 문제인지 확인하려면 다음 단계를 완료합니다.

  1. 다음 명령을 실행하여 프로비저닝하는 클러스터의 베어 메탈 호스트 정보를 확인합니다.

    oc get bmh -n <cluster_provisioning_namespace>
  2. describe 명령을 실행하여 오류 정보를 확인합니다.

    oc describe bmh -n <cluster_provisioning_namespace> <bmh_name>
  3. 다음 예와 유사한 오류는 파일 이름의 길이가 문제임을 나타냅니다.

    Status:
      Error Count:    1
      Error Message:  Image provisioning failed: ... [Errno 36] File name too long ...

이 문제가 발생하면 인프라 Operator가 이미지 서비스를 사용하지 않았기 때문에 일반적으로 다음 버전의 OpenShift Container Platform에 있습니다.

  • 4.8.17 이전
  • 4.9.6 이전

이 오류를 방지하려면 OpenShift Container Platform을 버전 4.8.18 이상 또는 4.9.7 이상으로 업그레이드하십시오.

1.2.5.14. Azure Government 클러스터를 사용할 수 없음

Azure Government 클러스터를 만들려고 하면 프로비저닝 Pod 로그에 다음과 같은 오류가 발생하여 실패합니다.

Confidential Client is not supported in Cross Cloud request

1.2.5.15. 다른 이름으로 다시 가져온 후 로컬 클러스터 상태 오프라인

실수로 다른 이름으로 local-cluster 라는 클러스터를 다시 가져오려고 하면 로컬 클러스터 상태 및 다시 가져온 클러스터 디스플레이 오프라인에서.

이 경우 복구하려면 다음 단계를 완료합니다.

  1. hub 클러스터에서 다음 명령을 실행하여 허브 클러스터의 자체 관리에 대한 설정을 일시적으로 편집합니다.

    oc edit mch -n open-cluster-management multiclusterhub
  2. spec.disableSelfManagement=true 설정을 추가합니다.
  3. hub 클러스터에서 다음 명령을 실행하여 로컬 클러스터를 삭제하고 재배포합니다.

    oc delete managedcluster local-cluster
  4. 다음 명령을 입력하여 local-cluster 관리 설정을 제거합니다.

    oc edit mch -n open-cluster-management multiclusterhub
  5. 이전에 추가한 spec.disableSelfManagement=true 를 제거합니다.

1.2.5.16. 프록시 환경에서 Ansible 자동화로 클러스터 프로비저닝 실패

다음 조건이 모두 충족되면 관리형 클러스터를 자동으로 프로비저닝하도록 구성된 AnsibleJob 템플릿이 실패할 수 있습니다.

  • hub 클러스터에는 클러스터 전체 프록시가 활성화되어 있습니다.
  • Ansible Tower는 프록시를 통해서만 액세스할 수 있습니다.

1.2.5.17. klusterlet Operator의 버전은 hub 클러스터와 동일해야 합니다.

klusterlet Operator를 설치하여 관리형 클러스터를 가져오는 경우 klusterlet Operator 버전은 hub 클러스터 버전과 동일해야 합니다. 그렇지 않으면 klusterlet Operator가 작동하지 않습니다.

1.2.5.18. 관리형 클러스터 네임스페이스를 수동으로 삭제할 수 없음

관리 클러스터의 네임스페이스를 수동으로 삭제할 수 없습니다. 관리 대상 클러스터 네임스페이스는 관리 클러스터가 분리되면 자동으로 삭제됩니다. 관리 클러스터 네임스페이스를 분리하기 전에 관리형 클러스터 네임스페이스를 수동으로 삭제하면 관리 클러스터에 관리 클러스터를 삭제한 후 연속 종료 상태가 표시됩니다. 이 종료 관리 클러스터를 삭제하려면 분리한 관리 클러스터에서 종료자를 수동으로 제거합니다.

Red Hat Advanced Cluster Management를 버전 2.3으로 업그레이드한 후에는 업그레이드하기 전에 Red Hat Advanced Cluster Management에서 생성하고 관리하는 관리형 클러스터의 인증 정보 시크릿을 변경할 수 없습니다.

1.2.5.20. Hub 클러스터 및 관리형 클러스터 시계가 동기화되지 않음

Hub 클러스터 및 클러스터 시간을 동기화가 부족하여 콘솔에 표시되지 않고 결국 몇 분 내에 사용할 수 있습니다. Red Hat OpenShift Container Platform 허브 클러스터 시간이 올바르게 구성되었는지 확인합니다. 노드 사용자 지정을 참조하십시오.

IBM OpenShift Container Platform Kubernetes Service 버전 3.11 클러스터를 가져올 수 없습니다. 이후 버전의 IBM OpenShift Kubernetes Service가 지원됩니다.

OpenShift Container Platform 3.11에서 관리형 클러스터를 분리하면 open-cluster-management-agent 네임스페이스가 자동으로 삭제되지 않습니다. 다음 명령을 실행하여 네임스페이스를 수동으로 제거합니다.

oc delete ns open-cluster-management-agent

클라우드 공급자 액세스 키를 변경하면 네임스페이스에 프로비저닝된 클러스터 액세스 키가 업데이트되지 않습니다. 이는 관리 클러스터가 호스팅되는 클라우드 공급자에서 인증 정보가 만료되고 관리되는 클러스터를 삭제하려고 할 때 필요합니다. 이와 같은 문제가 발생하면 클라우드 공급자가 액세스 키를 업데이트하려면 다음 명령을 실행합니다.

  • AWS(Amazon Web Services)

    oc patch secret {CLUSTER-NAME}-aws-creds -n {CLUSTER-NAME} --type json -p='[{"op": "add", "path": "/stringData", "value":{"aws_access_key_id": "{YOUR-NEW-ACCESS-KEY-ID}","aws_secret_access_key":"{YOUR-NEW-aws_secret_access_key}"} }]'
  • GCP(Google Cloud Platform)

    클러스터를 제거하려고 할 때 Invalid JWT Signature 를 읽는 반복 로그 오류 메시지로 이 문제를 식별할 수 있습니다. 로그에 이 메시지가 포함된 경우 새 Google Cloud Provider 서비스 계정 JSON 키를 가져와서 다음 명령을 입력합니다.

    oc set data secret/<CLUSTER-NAME>-gcp-creds -n <CLUSTER-NAME> --from-file=osServiceAccount.json=$HOME/.gcp/osServiceAccount.json

    CLUSTER-NAME 을 클러스터 이름으로 바꿉니다.

    $HOME/.gcp/osServiceAccount.json 파일의 경로를 새 Google Cloud Provider 서비스 계정 JSON 키가 포함된 파일의 경로로 바꿉니다.

  • Microsoft Azure

    oc set data secret/{CLUSTER-NAME}-azure-creds -n {CLUSTER-NAME} --from-file=osServiceAccount.json=$HOME/.azure/osServiceAccount.json
  • VMware vSphere

    oc patch secret {CLUSTER-NAME}-vsphere-creds -n {CLUSTER-NAME} --type json -p='[{"op": "add", "path": "/stringData", "value":{"username": "{YOUR-NEW-VMware-username}","password":"{YOUR-NEW-VMware-password}"} }]'

1.2.5.25. 클러스터 삭제 프로세스가 완료되지 않음

관리형 클러스터를 제거해도 1시간 후에도 상태가 Destroying 이 계속 표시되고 클러스터는 삭제되지 않습니다. 이 문제를 해결하려면 다음 단계를 완료합니다.

  1. 클라우드에 고립된 리소스가 없는지 수동으로 확인하고 관리 클러스터와 연결된 모든 공급자 리소스가 정리되었는지 확인합니다.
  2. 다음 명령을 입력하여 제거 중인 관리형 클러스터에 대한 ClusterDeployment 정보를 엽니다.

    oc edit clusterdeployment/<mycluster> -n <namespace>

    mycluster 를 제거 중인 관리형 클러스터의 이름으로 교체합니다.

    namespace 를 관리 클러스터의 네임스페이스로 바꿉니다.

  3. hive.openshift.io/deprovision 종료자를 제거하여 클라우드에서 클러스터 리소스를 정리하려는 프로세스를 강제 중지합니다.
  4. 변경 사항을 저장하고 ClusterDeployment 가 사라졌는지 확인합니다.
  5. 다음 명령을 실행하여 관리형 클러스터의 네임스페이스를 수동으로 제거합니다.

    oc delete ns <namespace>

    namespace 를 관리 클러스터의 네임스페이스로 바꿉니다.

Red Hat Advanced Cluster Management 콘솔을 사용하여 OpenShift Container Platform Dedicated 환경에 있는 OpenShift Container Platform 관리 클러스터를 업그레이드할 수 없습니다.

Ansible Automation Platform Resource Operator 에서 ppc64le 또는 s390x 이미지를 제공하지 않으므로 Kubernetes 허브용 Red Hat Advanced Cluster Management for Kubernetes hub 클러스터가 IBM Power 또는 IBM Z 시스템에서 실행되는 경우 Ansible Tower 통합을 사용할 수 없습니다.

Red Hat OpenShift Container Platform 및 비OpenShift Container Platform 클러스터 모두 Pod 로그 기능을 지원하지만 이 기능을 사용하려면 OpenShift Container Platform 클러스터가 LoadBalancer 를 활성화해야 합니다. LoadBalancer 를 활성화하려면 다음 단계를 완료합니다.

  1. 클라우드 공급자에는 서로 다른 LoadBalancer 구성이 있습니다. 자세한 내용은 클라우드 공급자 설명서를 참조하십시오.
  2. managedClusterInfo 상태의 loggingEndpoint 를 확인하여 Red Hat Advanced Cluster Management에서 LoadBalancer 가 활성화되어 있는지 확인합니다.
  3. 다음 명령을 실행하여 loggingEndpoint.IP 또는 loggingEndpoint.Host 에 유효한 IP 주소 또는 호스트 이름이 있는지 확인합니다.

    oc get managedclusterinfo <clusterName> -n <clusterNamespace> -o json | jq -r '.status.loggingEndpoint'

LoadBalancer 유형에 대한 자세한 내용은 Kubernetes 문서의 서비스 페이지를 참조하십시오.

1.2.5.30. 업그레이드 후 cluster-proxy-addon이 시작되지 않음

버전 2.4.x에서 2.5.0으로 업그레이드한 후 cluster-proxy-addon 이 시작되지 않고 cluster-proxy-addon-manager 가 nil 포인터 예외를 발생시킵니다.

이 문제를 해결하려면 다음 단계를 완료하십시오.

  1. cluster-proxy-addon 을 비활성화합니다. 자세한 내용은 고급 구성을 참조하십시오.
  2. open-cluster-management 네임스페이스에서 cluster-proxy-signer 시크릿을 삭제합니다.
  3. cluster-proxy-addon 을 활성화합니다.

1.2.6. 애플리케이션 관리 알려진 문제

애플리케이션 라이프사이클 구성 요소에 대한 다음 알려진 문제를 참조하십시오.

subscription-admin 역할에 ObjectBucket 채널 유형으로 허용 및 거부 목록을 지정할 수 없습니다. 다른 채널 유형에서 서브스크립션의 허용 및 거부 목록은 배포할 수 없는 Kubernetes 리소스 및 Kubernetes 리소스를 나타냅니다.

3.x의 Argo ApplicationSetInfrastructure.config.openshift.io API를 사용할 수 없기 때문에 3.x OpenShift Container Platform 관리 클러스터에 배포할 수 없습니다.

klusterlet Operator가 이전에 처리했을 때 관리 클러스터에서 실행 중인 application-manager 애드온을 서브스크립션 운영자가 처리합니다. 서브스크립션 Operator는 multicluster-hub 를 관리하지 않으므로 multicluster-hub 이미지 매니페스트 ConfigMap의 multicluster_operators_subscription 이미지에 대한 변경 사항이 자동으로 적용되지 않습니다.

멀티cluster -hub 이미지 매니페스트 ConfigMap에서 다중cluster_operators_subscription 이미지를 변경하여 서브스크립션 운영자가 사용하는 이미지를 재정의하는 경우 관리 클러스터application-manager 애드온은 서브스크립션 운영자 Pod가 다시 시작될 때까지 새 이미지를 사용하지 않습니다. Pod를 다시 시작해야 합니다.

1.2.6.4. 애플리케이션 토폴로지가 잘못된 애플리케이션을 표시

다른 Gitops 인스턴스에 동일한 이름의 ApplicationSets 가 생성된 경우 애플리케이션 토폴로지가 잘못된 애플리케이션을 표시합니다. Gitops 인스턴스가 여러 개 설치된 경우 각 Gitops 인스턴스에 이름이 동일한 ApplicationSets 가 있고 ApplicationSets 의 토폴로지가 올바르게 표시되지 않습니다. 이는 토폴로지가 생성된 ApplicationSets 의 네임스페이스를 구분하지 않기 때문입니다.

토폴로지를 올바르게 표시하려면 각 Gitops 인스턴스에서 다른 이름으로 ApplicationSets 를 생성해야 합니다.

policy.open-cluster-management.io/v1 리소스는 기본적으로 Red Hat Advanced Cluster Management 버전 2.4에 대해 애플리케이션 서브스크립션에 의해 더 이상 배포되지 않습니다.

서브스크립션 관리자는 이 기본 동작을 변경하기 위해 애플리케이션 서브스크립션을 배포해야 합니다.

자세한 내용은 서브스크립션 관리자로 허용 및 거부 목록 생성을 참조하십시오. 이전 Red Hat Advanced Cluster Management 버전의 기존 애플리케이션 서브스크립션에 의해 배포된 policy.open-cluster-management.io/v1 리소스는 남아 있지만 서브스크립션 관리자가 애플리케이션 서브스크립션을 배포하지 않는 한 소스 리포지토리와 조정되지 않습니다.

1.2.6.6. 애플리케이션 Ansible 후크 독립 실행형 모드

Ansible 후크 독립 실행형 모드는 지원되지 않습니다. 서브스크립션을 사용하여 허브 클러스터에 Ansible 후크를 배포하려면 다음 서브스크립션 YAML을 사용할 수 있습니다.

apiVersion: apps.open-cluster-management.io/v1
kind: Subscription
metadata:
  name: sub-rhacm-gitops-demo
  namespace: hello-openshift
annotations:
  apps.open-cluster-management.io/github-path: myapp
  apps.open-cluster-management.io/github-branch: master
spec:
  hooksecretref:
      name: toweraccess
  channel: rhacm-gitops-demo/ch-rhacm-gitops-demo
  placement:
     local: true

그러나 spec.placement.local:true독립 실행형 모드에서 서브스크립션이 실행 중이므로 이 구성은 Ansible 인스턴스를 생성하지 않을 수 있습니다. 허브 모드에서 서브스크립션을 생성해야 합니다.

  1. 로컬 클러스터에 배포하는 배치 규칙을 생성합니다. 다음 샘플을 참조하십시오.

    apiVersion: apps.open-cluster-management.io/v1
    kind: PlacementRule
    metadata:
      name: <towhichcluster>
      namespace: hello-openshift
    spec:
      clusterSelector:
        matchLabels:
          local-cluster: "true" #this points to your hub cluster
  2. 서브스크립션에 해당 배치 규칙을 참조합니다. 다음을 참조하십시오.

    apiVersion: apps.open-cluster-management.io/v1
    kind: Subscription
    metadata:
      name: sub-rhacm-gitops-demo
      namespace: hello-openshift
    annotations:
      apps.open-cluster-management.io/github-path: myapp
      apps.open-cluster-management.io/github-branch: master
    spec:
      hooksecretref:
          name: toweraccess
      channel: rhacm-gitops-demo/ch-rhacm-gitops-demo
      placement:
         placementRef:
            name: <towhichcluster>
            kind: PlacementRule

둘 다 적용한 후에는 허브 클러스터에서 생성된 Ansible 인스턴스가 표시되어야 합니다.

1.2.6.7. 애플리케이션 오류에 대한 역할 편집

편집기 역할에서 수행하는 사용자는 애플리케이션에 대한 읽기 또는 업데이트 권한만 있어야 하지만 잘못된 편집기는 애플리케이션을 생성하고 삭제 할 수도 있습니다. OpenShift Container Platform Operator Lifecycle Manager 기본 설정은 제품의 설정을 변경합니다. 문제를 해결하려면 다음 절차를 참조하십시오.

  1. oc edit clusterrole applications.app.k8s.io-v1beta2-edit -o yaml 을 실행하여 애플리케이션 편집 클러스터 역할을 엽니다.
  2. 동사 목록에서 createdelete 를 제거합니다.
  3. 변경 사항을 저장합니다.

1.2.6.8. 배치 규칙 오류에 대한 역할 편집

편집기 역할에서 수행하는 사용자는 배치 규칙에 대한 읽기 또는 업데이트 권한만 있어야 하지만 잘못된 편집기도 만들고 삭제 할 수 있습니다. OpenShift Container Platform Operator Lifecycle Manager 기본 설정은 제품의 설정을 변경합니다. 문제를 해결하려면 다음 절차를 참조하십시오.

  1. oc edit clusterrole placementrules.apps.open-cluster-management.io-v1-edit 를 실행하여 애플리케이션 편집 클러스터 역할을 엽니다.
  2. 동사 목록에서 createdelete 를 제거합니다.
  3. 변경 사항을 저장합니다.

1.2.6.9. 업데이트된 배치 규칙 이후에 배포되지 않은 애플리케이션

배치 규칙 업데이트 후 애플리케이션이 배포되지 않는 경우 klusterlet-addon-appmgr Pod가 실행 중인지 확인합니다. klusterlet-addon-appmgr 은 끝점 클러스터에서 실행해야 하는 서브스크립션 컨테이너입니다.

oc get pods -n open-cluster-management-agent-addon 을 실행하여 확인할 수 있습니다.

콘솔에서 kind:pod cluster:yourcluster 를 검색하고 klusterlet-addon-appmgr 이 실행 중인지 확인할 수도 있습니다.

확인할 수 없는 경우 클러스터를 다시 가져온 후 다시 확인합니다.

1.2.6.10. 서브스크립션 Operator에서 SCC를 생성하지 않음

관리 SCC(보안 컨텍스트 제약 조건)의 Red Hat OpenShift Container Platform SCC 에 대해 알아보십시오. 관리 대상 클러스터에 필요한 추가 구성입니다.

배포마다 다른 보안 컨텍스트 및 다양한 서비스 계정이 있습니다. 서브스크립션 운영자는 SCC를 자동으로 생성할 수 없습니다. 관리자는 Pod에 대한 권한을 제어합니다. 기본이 아닌 네임스페이스에 Pod를 생성하기 위해 상대 서비스 계정에 적절한 권한을 활성화하려면 SCC(보안 컨텍스트 제약 조건) CR이 필요합니다.

네임스페이스에서 SCC CR을 수동으로 생성하려면 다음을 완료합니다.

  1. 배포에 정의된 서비스 계정을 찾습니다. 예를 들어 다음 nginx 배포를 참조하십시오.

     nginx-ingress-52edb
     nginx-ingress-52edb-backend
  2. 네임스페이스에서 SCC CR을 생성하여 서비스 계정 또는 계정에 필요한 권한을 할당합니다. kind: SecurityContextConstraints 가 추가되는 다음 예제를 참조하십시오.

    apiVersion: security.openshift.io/v1
     defaultAddCapabilities:
     kind: SecurityContextConstraints
     metadata:
       name: ingress-nginx
       namespace: ns-sub-1
     priority: null
     readOnlyRootFilesystem: false
     requiredDropCapabilities:
     fsGroup:
       type: RunAsAny
     runAsUser:
       type: RunAsAny
     seLinuxContext:
       type: RunAsAny
     users:
     - system:serviceaccount:my-operator:nginx-ingress-52edb
     - system:serviceaccount:my-operator:nginx-ingress-52edb-backend

1.2.6.11. 애플리케이션 채널에는 고유한 네임스페이스가 필요합니다.

동일한 네임스페이스에 둘 이상의 채널을 생성하면 허브 클러스터에 오류가 발생할 수 있습니다.

예를 들어, 설치 프로그램에서 Helm 유형 채널로 네임스페이스 charts-v1 을 사용하므로 charts-v1 에서 추가 채널을 생성하지 마십시오. 고유한 네임스페이스에서 채널을 생성해야 합니다. 모든 채널에는 다른 GitHub 채널과 네임스페이스를 공유할 수 있는 GitHub 채널을 제외한 개별 네임스페이스가 필요합니다.

1.2.6.12. Ansible Automation Platform 작업 실패

호환되지 않는 옵션을 선택하면 Ansible 작업이 실행되지 않습니다. Ansible Automation Platform은 -cluster-scoped 채널 옵션을 선택한 경우에만 작동합니다. 이는 Ansible 작업을 수행해야 하는 모든 구성 요소에 영향을 미칩니다.

AAP(Ansible Automation Platform) Operator는 프록시 사용 OpenShift Container Platform 클러스터 외부에서 Ansible Tower에 액세스할 수 없습니다. 문제를 해결하려면 프록시 내에 Ansible Tower를 설치할 수 있습니다. Ansible Tower에서 제공하는 설치 단계를 참조하십시오.

Helm Argo 애플리케이션이 생성되고 편집되면 YAML 파일이 올바르면 템플릿 정보가 비어 있습니다. 에라타 2.4.1로 업그레이드하여 오류를 수정합니다.

1.2.6.15. 애플리케이션 이름 요구사항

애플리케이션 이름은 37자를 초과할 수 없습니다. 문자가 이 양을 초과하면 애플리케이션 배포에 다음 오류가 표시됩니다.

status:
  phase: PropagationFailed
  reason: 'Deployable.apps.open-cluster-management.io "_long_lengthy_name_" is invalid: metadata.labels: Invalid value: "_long_lengthy_name_": must be no more than 63 characters/n'

1.2.6.16. 애플리케이션 콘솔 테이블 제한 사항

콘솔의 다양한 애플리케이션 테이블에 대한 다음 제한 사항을 참조하십시오.

  • 개요 페이지의 애플리케이션 테이블과 고급 구성 페이지의 서브스크립션 표에서 클러스터 열에 애플리케이션 리소스가 배포된 클러스터 수가 표시됩니다. 애플리케이션은 로컬 클러스터의 리소스로 정의되므로 실제 애플리케이션 리소스가 로컬 클러스터에 배포되었는지 여부에 관계없이 로컬 클러스터는 검색 결과에 포함됩니다.
  • 서브스크립션고급 구성 표에서 애플리케이션 열에는 해당 서브스크립션을 사용하는 총 애플리케이션 수가 표시되지만 서브스크립션이 하위 애플리케이션을 배포하면 검색 결과에도 포함됩니다.
  • 채널고급 구성 표에서 서브스크립션 열에는 해당 채널을 사용하는 로컬 클러스터의 총 서브스크립션 수가 표시되지만 검색 결과에 포함된 다른 서브스크립션에서 배포한 서브스크립션은 포함되지 않습니다.

1.2.6.17. 애플리케이션 콘솔 토폴로지 필터링 없음

애플리케이션의 콘솔토폴로지 가 2.5에 대한 변경 사항입니다. 콘솔 토폴로지 페이지에서 필터링 기능이 없습니다.

1.2.6.18. ApplicationSet 리소스는 토폴로지에서 상태를 표시하지 않음

ApplicationSet YAML에 정의된 네임스페이스와 다른 네임스페이스에 리소스를 배포하는 ApplicationSet 애플리케이션을 생성하면 리소스 상태가 토폴로지에 표시되지 않습니다.

개체 스토리지 애플리케이션 서브스크립션에서는 허용거부 목록 기능이 작동하지 않습니다.

1.2.6.20. ApplicationSet 마법사가 경로를 자동으로 가져오지 않음

이전에 생성된 ApplicationSet 과 동일한 URL 및 분기를 사용하여 새 ApplicationSet 을 생성하면 ApplicationSet 마법사에서 경로를 자동으로 가져오지 않습니다.

문제를 해결하려면 경로 필드에 수동으로 경로 를 입력합니다.

1.2.7. 거버넌스 알려진 문제

1.2.7.1. Red Hat Advanced Cluster Management에서 로그아웃할 수 없음

외부 ID 공급자를 사용하여 Red Hat Advanced Cluster Management에 로그인하면 Red Hat Advanced Cluster Management에서 로그아웃하지 못할 수 있습니다. 이는 Red Hat Advanced Cluster Management를 사용하고 IBM Cloud 및 Keycloak과 함께 ID 공급자로 설치된 경우 발생합니다.

Red Hat Advanced Cluster Management에서 로그아웃하기 전에 외부 ID 공급자에서 로그아웃해야 합니다.

1.2.7.2. 게이트 키퍼 Operator 설치에 실패

Red Hat OpenShift Container Platform 버전 4.9에 게이트 키 연산자를 설치하면 설치에 실패합니다. OpenShift Container Platform을 버전 4.9.0.로 업그레이드하기 전에 gatekeeper Operator를 버전 0.2.0으로 업그레이드해야 합니다. 자세한 내용은 게이트 키퍼(upgrading gatekeeper) 및 게이트키퍼(Gatekeeper) 운영자 를 참조하십시오.

1.2.7.3. 네임스페이스가 종료 상태가 될 때 불만되는 구성 정책

complianceType 매개변수에 대해 mustnothave 로 구성된 구성 정책이 있고 remediationAction 매개변수에 적용하는 경우 Kubernetes API에 대한 삭제 요청이 수행된 후 정책이 준수로 나열됩니다. 따라서 정책이 규정 준수로 나열되는 동안 Kubernetes 오브젝트를 Terminating 상태로 유지할 수 있습니다.

1.2.7.4. 정책을 통해 배포된 Operator는 ARM을 지원하지 않습니다.

ARM 환경에 설치하는 것은 지원되지만 정책을 사용하여 배포된 Operator는 ARM 환경을 지원하지 않을 수 있습니다. Operator를 설치하는 다음 정책은 ARM 환경을 지원하지 않습니다.

1.2.7.5. 정책 템플릿 문제

구성 정책에 대한 정책 템플릿을 편집할 때 다음 문제가 발생할 수 있습니다.

  • 구성 정책의 이름을 새 이름으로 바꾸면 이전 이름으로 구성 정책의 사본이 유지됩니다.
  • hub 클러스터의 정책에서 구성 정책을 제거하면 구성 정책이 관리 클러스터에 남아 있지만 해당 상태는 제공되지 않습니다. 이 문제를 해결하려면 정책을 비활성화하고 다시 활성화합니다. 전체 정책을 삭제할 수도 있습니다.

1.2.8. 알려진 문제 백업 및 복원

hub 클러스터의 백업 및 복원 기능에는 OADP(Data Protection) Operator가 필요합니다. OADP Operator는 IBM Power 또는 IBM Z 아키텍처에서는 사용할 수 없습니다.

1.2.8.2. 백업 충돌 방지

허브 클러스터가 수동에서 기본 클러스터 및 백업으로 변경되면 다른 클러스터에서 동일한 스토리지 위치에서 데이터를 백업할 수 있습니다. 이로 인해 백업 충돌이 발생할 수 있습니다. 즉, 최신 백업이 수동 허브 클러스터에서 생성됩니다.

패시브 허브 클러스터는 hub 클러스터에서 BackupSchedule.cluster.open-cluster-management.io 리소스가 활성화되어 있기 때문에 백업을 생성하지만 허브 클러스터가 더 이상 기본 허브 클러스터가 아니기 때문에 백업 데이터를 더 이상 기록해서는 안 됩니다. 다음 명령을 실행하여 백업 충돌이 있는지 확인합니다.

oc get backupschedule -A

다음 상태가 표시될 수 있습니다.

NAMESPACE       NAME               PHASE             MESSAGE
openshift-adp   schedule-hub-1   BackupCollision   Backup acm-resources-schedule-20220301234625, from cluster with id [be97a9eb-60b8-4511-805c-298e7c0898b3] is using the same storage location. This is a backup collision with current cluster [1f30bfe5-0588-441c-889e-eaf0ae55f941] backup. Review and resolve the collision then create a new BackupSchedule resource to  resume backups from this cluster.

BackupSchedule.cluster.open-cluster-management.io 리소스 상태를 BackupCollision 로 설정하여 백업 충돌을 방지합니다. BackupSchedule 리소스에서 생성한 Schedule.velero.io 리소스는 자동으로 삭제됩니다.

백업 충돌은 hub-backup-pod 정책으로 보고됩니다. 관리자는 어떤 hub 클러스터가 데이터를 스토리지 위치에 쓰는지 확인해야 합니다. 그런 다음 Passive hub 클러스터에서 BackupSchedule.cluster.open-cluster-management.io 리소스를 제거하고 기본 허브 클러스터에서 새 BackupSchedule.cluster.open-cluster-management.io 리소스를 다시 생성하여 백업을 다시 시작합니다.

자세한 내용은 Cluster Backup and restore operator 에서 참조하십시오.

1.2.8.3. Velero 복원 제한 사항

다음 복원 제한 사항을 확인합니다.

  • 새 hub 클러스터는 초기 허브 클러스터에서 백업 데이터를 복원하기 전에 새 허브 클러스터에 기존 정책이 있을 때 데이터가 복원되는 초기 허브 클러스터와 동일하지 않습니다. 백업 리소스와 함께 사용할 수 없는 정책이므로 새 허브 클러스터에서 이 정책이 실행되고 있지 않아야 합니다.
  • Velero는 기존 리소스를 건너뛰므로 새 허브 클러스터의 정책은 변경되지 않습니다. 따라서 이 정책은 초기 허브 클러스터에서 백업된 정책과 동일하지 않습니다.
  • 사용자가 새 허브 클러스터에 백업을 다시 적용할 때 새 hub 클러스터는 활성 허브 클러스터와 다른 구성을 갖습니다. 이전 복원의 hub 클러스터에 기존 정책이 있으므로 다시 복원되지 않습니다. 백업에 예상 업데이트가 포함되어 있어도 정책 콘텐츠는 새 허브 클러스터에서 Velero에 의해 업데이트되지 않습니다.

앞서 언급한 제한 사항을 해결하기 위해 restore.cluster.open-cluster-management.io 리소스를 생성할 때 클러스터 백업 및 복원 Operator는 Velero 복원이 시작되기 전에 hub 클러스터를 정리하여 복원을 준비하는 일련의 단계를 실행합니다. 자세한 내용은 복원 전에 허브 클러스터 정리를 참조하십시오.

1.2.8.4. 가져온 관리 클러스터가 표시되지 않습니다.

기본 허브 클러스터에서 수동으로 가져온 관리형 클러스터는 수동 허브 클러스터에서 활성화 데이터가 복원되는 경우에만 표시됩니다.

1.2.8.5. 클러스터 백업 및 복원 업그레이드 제한

enableClusterBackup 매개변수를 true 로 설정하여 클러스터를 2.4에서 2.5로 업그레이드하는 경우 다음 메시지가 표시됩니다.

When upgrading from version 2.4 to 2.5, cluster backup must be disabled

클러스터를 업그레이드하기 전에 enableClusterBackup 매개변수를 false 로 설정하여 클러스터 백업 및 복원을 비활성화합니다. MultiClusterHub 리소스의 components 섹션은 다음 YAML 파일과 유사합니다.

업그레이드가 완료되면 백업 및 복원 구성 요소를 다시 활성화할 수 있습니다. 다음 샘플을 확인합니다.

overrides:
      components:
        - enabled: true
          name: multiclusterhub-repo
        - enabled: true
          name: search
        - enabled: true
          name: management-ingress
        - enabled: true
          name: console
        - enabled: true
          name: insights
        - enabled: true
          name: grc
        - enabled: true
          name: cluster-lifecycle
        - enabled: true
          name: volsync
        - enabled: true
          name: multicluster-engine
        - enabled: false
          name: cluster-proxy-addon
        - enabled: true <<<<<<<<
          name: cluster-backup
    separateCertificateManagement: false

OADP를 수동으로 설치한 경우 업그레이드하기 전에 OADP를 수동으로 제거해야 합니다. 업그레이드가 완료되고 백업 및 복원이 다시 활성화되면 OADP가 자동으로 설치됩니다.

1.2.8.6. 관리 클러스터 리소스가 복원되지 않음

로컬 클러스터 관리 클러스터 리소스의 설정을 복원하고 새 허브 클러스터에서 로컬 클러스터 데이터를 덮어쓰면 설정이 잘못 구성됩니다. 리소스에 클러스터 URL 세부 정보와 같은 로컬 클러스터 특정 정보가 포함되어 있기 때문에 이전 허브 클러스터 local- cluster 의 콘텐츠가 백업되지 않습니다.

복원된 클러스터에서 로컬 클러스터 리소스와 관련된 구성 변경 사항을 수동으로 적용해야 합니다. 자세한 내용은 새 허브 클러스터 준비를 참조하십시오.

1.2.8.7. prepareForBackup은 Velero 일정이 처음 생성될 때만 호출됩니다.

prepareForBackup 함수에 정의된 레이블은 스케줄 생성 후 생성된 리소스에 추가되지 않습니다. 이는 백업이 시작되기 전에 레이블이 지정되는 Red Hat OpenShift 시크릿의 Hive 및 Infrastructure Operator에 영향을 미칩니다.

영향을 받는 리소스 목록을 확인합니다.

  • clusterDeployments 에서 사용하고 클러스터 클레임에 의해 생성된 보안
  • 클러스터 풀 시크릿
  • 레이블 agent-install.openshift.io/watchenvironment.metal3.io라벨이 있는 시크릿

BackupSchedule,veleroSchedule 또는 veleroTTL 값을 업데이트하여 새 일정 세트를 시작합니다. 그런 다음 생성된 백업을 복원에 사용합니다. 이 백업은 백업의 최신 리소스에 레이블을 지정하도록 정의됩니다.

Hive 관리 클러스터에 대해 변경되거나 순환된 인증 기관(CA)의 백업을 복원하면 새 허브 클러스터에서 관리 클러스터가 새 허브 클러스터에 연결되지 않습니다. 이 관리된 클러스터에 대한 admin kubeconfig 시크릿은 더 이상 백업과 함께 사용할 수 없으므로 연결에 실패합니다.

새 허브 클러스터에서 관리 클러스터의 복원된 admin kubeconfig 시크릿을 수동으로 업데이트해야 합니다.

1.2.9. Submariner 알려진 문제

1.2.9.1. Submariner는 현재 OpenShift SDN을 CNI 네트워크 공급자로만 지원

OpenShiftSDN만 CNI 네트워크 공급자로 지원됩니다. OVN은 현재 지원되지 않습니다.

4.18.0-359.el8.x86_64 및 4.18.0-372.11.1.el8_6.x86_64 사이의 커널 버전을 사용하는 Red Hat Enterprise Linux 작업자 노드를 포함하는 클러스터에 Submariner를 배포하는 경우 애플리케이션 워크로드가 원격 클러스터와 통신하지 못합니다.

Submariner는 Red Hat Advanced Cluster Management에서 관리할 수 있는 모든 인프라 공급업체에서 지원되지 않습니다. 지원되는 공급자 목록은 Red Hat Advanced Cluster Management 지원 매트릭스 를 참조하십시오.

Red Hat OpenStack 클러스터에 대한 자동 클라우드 준비는 제품 인타이틀먼트 단축(product-title-short} 콘솔)의 Submariner에서 지원되지 않습니다. Red Hat Advanced Cluster Management API를 사용하여 클라우드를 수동으로 준비할 수 있습니다.

Submariner는 Globalnet을 통해 헤드리스 서비스를 지원합니다. 그러나 clusterset.local 도메인 이름을 사용하여 동일한 클러스터에 상주하는 클라이언트에서 내보낸 헤드리스 서비스에 액세스하면 헤드리스 서비스와 연결된 globalIP 가 클러스터에서 라우팅할 수 없는 클라이언트로 반환됩니다.

cluster.local 도메인 이름을 사용하여 로컬 헤드리스 서비스에 액세스할 수 있습니다.

1.2.9.6. Submariner는 에어캐지드 클러스터를 지원하지 않습니다.

Submariner는 Air-gapped 환경에서 프로비저닝된 클러스터에 대해 검증되지 않습니다.

1.2.9.7. 수많은 게이트웨이를 배포할 수 없음

여러 게이트웨이를 배포할 수 없습니다.

1.2.9.8. NAT가 활성화된 경우 Submariner는 VXLAN을 지원하지 않습니다.

VXLAN 배선 드라이버를 사용하는 Submariner는 현재 NAT 이외의 배포에서만 지원됩니다.

1.2.9.9. 글로벌net 제한 사항

Globalnet은 Red Hat OpenShift Data Foundation 재해 복구 솔루션에서는 지원되지 않습니다. 지역 재해 복구 시나리오에 각 클러스터에서 클러스터 및 서비스 네트워크에 대해 겹치지 않은 개인 IP 주소 범위를 사용해야 합니다.

Red Hat logoGithubredditYoutubeTwitter

자세한 정보

평가판, 구매 및 판매

커뮤니티

Red Hat 문서 정보

Red Hat을 사용하는 고객은 신뢰할 수 있는 콘텐츠가 포함된 제품과 서비스를 통해 혁신하고 목표를 달성할 수 있습니다. 최신 업데이트를 확인하세요.

보다 포괄적 수용을 위한 오픈 소스 용어 교체

Red Hat은 코드, 문서, 웹 속성에서 문제가 있는 언어를 교체하기 위해 최선을 다하고 있습니다. 자세한 내용은 다음을 참조하세요.Red Hat 블로그.

Red Hat 소개

Red Hat은 기업이 핵심 데이터 센터에서 네트워크 에지에 이르기까지 플랫폼과 환경 전반에서 더 쉽게 작업할 수 있도록 강화된 솔루션을 제공합니다.

Theme

© 2026 Red Hat
맨 위로 이동