릴리스 노트
릴리스 노트에서 새로운 기능, 에라타 업데이트, 알려진 문제, 사용 중단 및 제거, tcpdump 및 FIPS 준비 상태에 대한 제품 고려 사항에 대해 알아보십시오.
초록
1장. 릴리스 노트
현재 릴리스에 대해 알아보십시오.
참고: Red Hat Advanced Cluster Management의 2.3 및 이전 버전은 서비스에서 제거 되며 더 이상 지원되지 않습니다. 버전 2.3 및 이전 버전에 대한 문서는 업데이트되지 않습니다. 이 문서는 사용 가능한 상태로 남아 있을 수 있지만 에라타 또는 기타 사용 가능한 업데이트없이 더 이상 사용되지 않습니다.
현재 지원되는 릴리스 중 하나 또는 제품 설명서에 문제가 있는 경우 문제를 해결하거나 지식베이스 문서를 보거나 지원 팀에 연결하거나 케이스를 열 수 있는 Red Hat 지원으로 이동하십시오. 자격 증명을 사용하여 로그인해야 합니다. Red Hat 고객 포털 FAQ에서 고객 포털 문서에 대한 자세한 내용을 확인할 수도 있습니다.
1.1. Red Hat Advanced Cluster Management for Kubernetes의 새로운 기능
Red Hat Advanced Cluster Management for Kubernetes는 기본 거버넌스, 클러스터 라이프사이클 관리 및 애플리케이션 라이프사이클 관리 기능을 통해 전체 Kubernetes 도메인을 가시성을 제공합니다. 이번 릴리스에서는 더 많은 환경에서 클러스터 관리, 애플리케이션의 GitOps 통합 등으로 이동할 수 있습니다.
중요: 일부 기능 및 구성 요소는 기술 프리뷰 로 확인 및 릴리스됩니다.
1.1.1. 웹 콘솔
- 검색 구성 가능한 컬렉션을 사용하여 허브 클러스터 및 관리 클러스터에서 수집할 Kubernetes 리소스를 관리합니다. 자세한 내용은 검색 구성 가능한 컬렉션 만들기 를 참조하십시오.
- OpenShift Container Platform 모니터링을 사용하여 사용자 정의 지표를 수집합니다. 자세한 내용은 사용자 워크로드 지표 추가 를 참조하십시오.
-
search.search.
open-cluster-management.io라는 검색
기능에 새 사용자 정의 리소스 정의가 추가되었습니다. 검색을 추가로 사용자 정의하려면 Search customization and configurations 에서 참조하십시오. - PostgreSQL 데이터베이스 스토리지 및 구성을 편집하여 검색을 최적화합니다. 사용자 지정 및 구성 검색에서 참조하십시오.
- 이제 Grafana에서 관리 클러스터 레이블을 사용할 수 있습니다. Grafana에서 관리형 클러스터 레이블 사용을 참조하십시오.
1.1.2. Cluster
클러스터 라이프사이클 문서는 멀티 클러스터 엔진 운영자 내에서 문서화되어 있으며 이는 클러스터 플릿 관리를 개선하는 소프트웨어 운영자입니다.
멀티 클러스터 엔진 Operator는 클라우드 및 데이터 센터 전반에서 Red Hat OpenShift Container Platform 및 Kubernetes 클러스터 라이프사이클 관리를 지원합니다. Red Hat OpenShift Container Platform은 멀티 클러스터 엔진 Operator의 사전 요구 사항이지만 Red Hat Advanced Cluster Management는 그렇지 않습니다.
1.1.3. 애플리케이션
이제 LeaderElection
을 사용하여 컨트롤러가 실패 시 새 리더를 선택하도록 요청하는 방법을 변경할 수 있으므로 한 번에 하나의 리더 인스턴스에서만 조정을 처리할 수 있습니다. 컨트롤러가 LeaderElection
을 얻는 데 걸리는 시간을 늘리거나 줄일 수 있습니다. 리더 선택 구성을 참조하십시오.
AnsibleJob
사용자 정의 리소스를 사용하여 Ansible Automation Platform 워크플로를 시작할 수 있습니다. job_template_name
필드를 workflow_template_name
으로 교체하여 작업 세트를 추적합니다. Ansible Automation Platform 구성을 참조하십시오.
다른 애플리케이션 주제의 경우 애플리케이션 관리를 참조하십시오.
1.1.4. 거버넌스
- 자동화에서 정책 위반 세부 정보를 수신할 수 있습니다. 관리 자동화 구성을 참조하십시오.
-
이제 로그는
ManagedClusterAddOn
리소스와 정책 컨트롤러 이름으로 구분됩니다. 디버그 로그 구성을 참조하십시오. - 이제 정책 프레임워크에서 종속성을 사용하는 정책 또는 정책 템플릿 활성화를 지원합니다. 정책 종속성을 참조하십시오.
- 정책 생성기는 이제 유연성을 강화하기 위해 로컬 및 원격 Kustomize 구성을 참조합니다. 자세한 내용은 정책 생성기 를 참조하십시오.
- 템플릿 처리를 자동으로 조정하도록 허브 클러스터 템플릿을 구성합니다. 예를 들어 허브 클러스터에서 관리형 클러스터로 시크릿 및 기타 리소스를 동기화합니다. 재처리를 위한 특수 주석을 참조하십시오.
-
toLiteral
함수를 사용하여 템플릿 문자열을 처리한 후 따옴표를 제거합니다. 자세한 내용은 toLiteral 함수 를 참조하십시오. - OpenShift GitOps(ArgoCD)를 사용하여 정책 정의를 관리할 수 있습니다. OpenShift GitOps(ArgoCD)를 사용하여 정책 정의 관리를 참조하십시오.
- 이제 기록 열에서 오브젝트를 패치하는 정책에 대한 상태 이벤트가 표시됩니다. 자세한 내용은 Governance 페이지 을 참조하십시오.
대시보드 및 정책 프레임워크에 대한 자세한 내용은 감독을 참조하십시오. ../../html-single/governance#governance
1.1.5. 애드온
- restic 및 rclone 이동기는 이제 기본적으로 non-root로 실행되어 더 이상 SE Linux 기능이 없습니다. Pod 보안 표준에서 네임스페이스의 Pod가 제한된 권한으로 실행되도록 하려면 restic 및 rclone의 이동기 Pod에서 네임스페이스에 대한 권한 상승 권한이 필요하지 않습니다.
-
AWS 클러스터에서 Microsoft Azure Red Hat OpenShift 클러스터 및 Red Hat OpenShift Service의 배포를 간소화하는 새로운 Submariner
LoadBalancer
모드를 사용할 수 있습니다. 자세한 내용은 콘솔(기술 프리뷰)을 사용하고 콘솔(기술 프리뷰)을 사용하여 AWS에서 Red Hat OpenShift Service 준비(기술 프리뷰)를 사용하여 Microsoft Azure Red Hat OpenShift for Submariner 준비를 참조하십시오. - Submariner는 이제 보안 문제를 줄일 수 있도록 연결이 끊긴 클러스터를 지원합니다. 자세한 내용은 연결이 끊긴 클러스터에 Submariner 배포를 참조하십시오.
1.1.6. 백업 및 복원
- Managed Service Account 구성 요소를 사용하여 가져온 클러스터를 새 허브 클러스터에 자동으로 연결할 수 있습니다. 자세한 내용은 관리 서비스 계정을 사용하여 클러스터 자동 연결을 참조하십시오.
1.1.7. 이 릴리스에 대해 자세히 알아보기
- welcome to Red Hat Advanced Cluster Management for Kubernetes에서 Kubernetes용 Red Hat Advanced Cluster Management에 대한 개요를 확인하십시오.
- Red Hat Advanced Cluster Management 릴리스 노트에서 알려진 문제 및 제한과 같은 릴리스 노트 에서 자세한 내용을 참조하십시오.
- 제품의 주요 구성 요소에 대한 자세한 내용은 Multicluster 아키텍처 주제를 참조하십시오.
- Red Hat Advanced Cluster Management Troubleshooting 가이드의 지원 정보를 참조하십시오.
- 오픈 소스의 상호 작용, 성장 및 오픈 커뮤니티의 기여를 위해 오픈 소스 오픈 클러스터 관리 리포지토리에 액세스하십시오. 참여하려면 open-cluster-management.io 를 참조하십시오. 자세한 내용은 GitHub 리포지토리를 참조하십시오.
1.2. 확인된 문제
Kubernetes용 Red Hat Advanced Cluster Management의 알려진 문제를 검토합니다. 다음 목록에는 이 릴리스의 알려진 문제 또는 이전 릴리스에서 계속된 알려진 문제가 포함되어 있습니다.
Red Hat OpenShift Container Platform 클러스터의 경우 OpenShift Container Platform 알려진 문제를 참조하십시오.
사용 중단 및 제거에 대한 자세한 내용은 릴리스 노트의 http:.release_notes/deprecate_remove.adoc#deprecations-removals[Deprecations and removals]를 참조하십시오.
1.2.1. 알려진 문제 문서
1.2.1.1. 고객 포털의 문서 링크에서 상위 수준 섹션에 링크할 수 있습니다.
경우에 따라 고객 포털의 Red Hat Advanced Cluster Management 설명서의 다른 섹션에 대한 내부 링크가 이름이 지정된 섹션에 직접 연결되지 않는 경우도 있습니다. 일부 경우에서는 링크가 가장 높은 수준 섹션으로 확인됩니다.
이 경우 지정된 섹션을 수동으로 확인하거나 다음 단계를 완료하여 해결할 수 있습니다.
-
확인하지 않는 링크를 올바른 섹션으로 복사하여 브라우저 주소 표시줄에 붙여넣습니다. 예를 들면
https://access.redhat.com/documentation/en-us/red_hat_advanced_cluster_management_for_kubernetes/2.7/html/add-ons/index#volsync
일 수 있습니다. -
링크에서 html을
html
-singlehttps://access.redhat.com/documentation/en-us/red_hat_advanced_cluster_management_for_kubernetes/2.7/html-single/add-ons/index#volsync
- 새 URL로 링크하여 문서에서 지정된 섹션을 찾습니다.
1.2.2. 설치 알려진 문제
1.2.2.1. RBAC 사용자에게 업그레이드 후 배포된 리소스를 보려면 추가 역할 및 역할 바인딩이 필요합니다.
Red Hat Advanced Cluster Management 버전 2.7로 업그레이드한 후 apps.open-cluster-management.io
그룹의 리소스에 대한 사용자 권한을 사용할 수 없습니다. Red Hat Advanced Cluster Management 버전 2.7부터 이러한 사용자 정의 리소스 정의는 더 이상 OLM에 의해 배포되지 않으며 다음과 같은 변경 사항이 발생합니다.
- Red Hat Advanced Cluster Management 서브스크립션 콘솔에서 리소스를 생성하기 위해 선택할 수 있는 카드로 리소스 유형을 더 이상 사용할 수 없습니다.
-
기본 역할에 집계 규칙이 할당된
클러스터roles
는 API 리소스 종류에 적용되지 않습니다.
RBAC 사용자가 이러한 리소스에 액세스해야 하는 경우 올바른 권한을 부여해야 합니다.
1.2.2.2. 에라타 릴리스로 업그레이드한 후에도 더 이상 사용되지 않는 리소스는 유지됩니다.
2.4.x에서 2.5.x로 업그레이드한 다음 2.6.x로 업그레이드한 후 관리형 클러스터 네임스페이스의 더 이상 사용되지 않는 리소스가 남아 있을 수 있습니다. 버전 2.6.x가 2.4.x에서 업그레이드된 경우 더 이상 사용되지 않는 리소스를 수동으로 삭제해야 합니다.
참고: 버전 2.5.x에서 버전 2.6.x로 업그레이드하기 전에 30분 이상을 기다려야 합니다.
콘솔에서 삭제하거나 삭제하려는 리소스에 대해 다음 예와 유사한 명령을 실행할 수 있습니다.
oc delete -n <managed cluster namespace> managedclusteraddons.addon.open-cluster-management.io <resource-name>
남아 있는 더 이상 사용되지 않는 리소스 목록을 참조하십시오.
managedclusteraddons.addon.open-cluster-management.io: policy-controller manifestworks.work.open-cluster-management.io: -klusterlet-addon-appmgr -klusterlet-addon-certpolicyctrl -klusterlet-addon-crds -klusterlet-addon-iampolicyctrl -klusterlet-addon-operator -klusterlet-addon-policyctrl -klusterlet-addon-workmgr
1.2.2.3. Red Hat Advanced Cluster Management를 업그레이드한 후에는 Pod가 백업되지 않을 수 있습니다.
Red Hat Advanced Cluster Management를 새 버전으로 업그레이드한 후 StatefulSet
에 속하는 일부 Pod는 failed
상태로 유지될 수 있습니다. 이 드물게 발생하는 경우는 알려진 Kubernetes 문제로 인해 발생합니다.
이 문제에 대한 해결 방법으로 실패한 Pod를 삭제합니다. Kubernetes는 올바른 설정으로 자동으로 다시 시작됩니다.
1.2.2.4. OpenShift Container Platform 클러스터 업그레이드 실패 상태
OpenShift Container Platform 클러스터가 업그레이드 단계에 있는 경우 클러스터 Pod가 재시작되고 클러스터가 1-5분의 변형에 대해 업그레이드 실패
상태로 남아 있을 수 있습니다. 이 동작은 예상되고 몇 분 후에 해결됩니다.
1.2.2.5. 작동하지 않는 MultiClusterEngine 버튼 생성
Red Hat OpenShift Container Platform 콘솔에서 Kubernetes용 Red Hat Advanced Cluster Management for Kubernetes를 설치하면 다음 메시지가 포함된 팝업 창이 표시됩니다.
MultiClusterEngine required
이 Operator를 사용할 MultiClusterEngine 인스턴스를 생성합니다.
팝업 창의 Create MultiClusterEngine 버튼이 작동하지 않을 수 있습니다. 이 문제를 해결하려면 Provided APIs 섹션의 MultiClusterEngine 타일에서 인스턴스 생성을 선택합니다.
1.2.3. 웹 콘솔의 알려진 문제
1.2.3.1. 콘솔 액세스 디스플레이를 사용할 수 없음
독립 실행형 콘솔에 액세스하려고 하면 다음 메시지가 표시됩니다.
애플리케이션을 사용할 수 없음: 애플리케이션이 현재 이 끝점에서 요청을 처리하지 않습니다. 시작되지 않았거나 아직 시작되지 않았을 수 있습니다.
Red Hat Advanced Cluster Management 2.7에서 제거되었기 때문에 멀티클라우드 콘솔 경로에서 콘솔에
액세스할 수 없습니다. 이제 OpenShift Container Platform 콘솔과 통합된 콘솔의 동적 플러그인 버전에 액세스할 수 있습니다. 자세한 내용은 콘솔에 액세스를 참조하십시오.
1.2.3.2. LDAP 사용자 이름은 대소문자를 구분합니다.
LDAP 사용자 이름은 대소문자를 구분합니다. LDAP 디렉터리에 구성된 방식과 정확히 이름을 사용해야 합니다.
1.2.3.3. Firefox 이전 버전에서 콘솔 기능이 표시되지 않을 수 있음
이전 버전의 Firefox에 대한 다크 셰이크에 대한 알려진 문제가 있습니다. 최상의 콘솔 호환성을 위해 최신 버전으로 업그레이드합니다.
자세한 내용은 지원 브라우저를 참조하십시오.
1.2.3.4. 검색 사용자 지정의 스토리지 크기 제한 사항
searchcustomization
CR에서 스토리지 크기를 업데이트하면 PVC 구성이 변경되지 않습니다. 스토리지 크기를 업데이트해야 하는 경우 다음 명령으로 PVC (<storageclassname>-search-redisgraph-0
)를 업데이트합니다.
oc edit pvc <storageclassname>-search-redisgraph-0
1.2.3.5. 검색 쿼리 구문 분석 오류
환경이 커지고 스케일링에 대한 테스트가 더 필요한 경우 검색 쿼리가 시간 초과되어 오류 메시지 구문 분석 메시지가 표시될 수 있습니다. 이 오류는 검색 쿼리를 기다리는 동안 30초 후에 표시됩니다.
다음 명령을 사용하여 시간 초과를 확장합니다.
kubectl annotate route multicloud-console haproxy.router.openshift.io/timeout=Xs
1.2.3.6. 클러스터 세트의 네임스페이스 바인딩을 편집할 수 없음
admin
역할 또는 바인딩 역할로 설정된 클러스터의 네임스페이스 바인딩을 편집하면 다음 메시지와 유사한 오류가 발생할 수 있습니다.
ResourceError: managedclustersetbindings.cluster.open-cluster-management.io "<cluster-set>"는 허용되지 않습니다. 사용자 "<user>" cannot create/delete resource "managedclustersetbindings" in API group "cluster.open-cluster-management.io" in the namespace "<namespace>".
문제를 해결하려면 바인딩하려는 네임스페이스에서 ManagedClusterSetBinding
리소스를 생성하거나 삭제할 수 있는 권한이 있어야 합니다. 역할 바인딩을 사용하면 네임스페이스로 설정된 클러스터만 바인딩할 수 있습니다.
1.2.3.7. 호스트된 컨트롤 플레인 클러스터 프로비저닝 후에는 수평 스크롤이 작동하지 않습니다.
호스팅된 컨트롤 플레인 클러스터를 프로비저닝한 후에는 ClusterVersionUpgradeable
매개변수가 너무 길면 Red Hat Advanced Cluster Management 콘솔의 클러스터 개요에서 수평으로 스크롤할 수 없습니다. 숨겨진 데이터는 결과적으로 볼 수 없습니다.
이 문제를 해결하려면 브라우저 확대 제어를 사용하여 축소하거나 Red Hat Advanced Cluster Management 콘솔 창 크기를 늘리거나 텍스트를 복사하여 다른 위치에 붙여넣습니다.
1.2.4. 가시성 알려진 문제
1.2.4.1. 서비스 수준 개요 대시보드의 중복 로컬 클러스터
다양한 허브 클러스터에서 동일한 S3 스토리지를 사용하여 Red Hat Advanced Cluster Management 관찰 기능을 배포하는 경우 중복된 로컬 클러스터를
탐지하여 Kubernetes/Service-Level Overview/API Server 대시보드에 표시할 수 있습니다. 중복된 클러스터는 다음 패널 내의 결과에 영향을미칩니다. 상위 클러스터, SLO를 초과하는 클러스터 수 및 SLO를 충족하는 클러스터 수입니다. local-cluster는
공유 S3 스토리지와 관련된 고유한 클러스터입니다. 여러 로컬 클러스터가 대시보드에 표시되지 않도록 하려면 각 고유 허브 클러스터에서 hub 클러스터 전용
S3 버킷을 사용하여 관찰 기능을 배포하는 것이 좋습니다.
1.2.4.2. Observability Endpoint Operator가 이미지를 가져오지 못했습니다.
MultiClusterObservability CustomResource(CR)에 배포할 pull-secret을 생성하고 open-cluster-management-observability
네임스페이스에 pull-secret이 없는 경우 observability 끝점 Operator가 실패합니다. 새 클러스터를 가져오거나 Red Hat Advanced Cluster Management로 생성된 Hive 클러스터를 가져오는 경우, 관리형 클러스터에서 수동으로 풀 이미지 시크릿을 생성해야 합니다.
자세한 내용은 관찰 기능 활성화를 참조하십시오.
1.2.4.3. ROKS 클러스터의 데이터가 없습니다.
Red Hat Advanced Cluster Management 관찰 기능은 기본 제공 대시보드 내의 일부 패널에 ROKS 클러스터의 데이터를 표시하지 않습니다. 이는 ROKS가 관리하는 서버에서 API 서버 지표를 노출하지 않기 때문입니다. 다음 Grafana 대시보드에는 ROKS 클러스터를 지원하지 않는 패널이 포함되어 있습니다. Kubernetes/API 서버
,Kubernetes/Compute Resources/Workload
,Kubernetes/Compute Resources/Namespace(Workload)
1.2.4.4. ROKS 클러스터의 etcd 데이터가 없습니다.
ROKS 클러스터의 경우 Red Hat Advanced Cluster Management 관찰 기능은 대시보드의 etcd 패널에 데이터를 표시하지 않습니다.
1.2.4.5. Grafana 콘솔에서 메트릭을 사용할 수 없음
Grafana 콘솔에서 주석 쿼리가 실패했습니다.
Grafana 콘솔에서 특정 주석을 검색할 때 만료된 토큰으로 인해 다음 오류 메시지가 표시될 수 있습니다.
"annotation Query Failed"
브라우저를 새로 고치고 hub 클러스터에 로그인했는지 확인합니다.
rbac-query-proxy Pod의 오류:
managedcluster
리소스에 대한 무단 액세스 권한으로 인해 클러스터 또는 프로젝트를 쿼리할 때 다음과 같은 오류가 발생할 수 있습니다.프로젝트 또는 클러스터를 찾을 수 없음
역할 권한을 확인하고 적절하게 업데이트합니다. 자세한 내용은 역할 기반 액세스 제어를 참조하십시오.
1.2.4.6. 관리형 클러스터에서 Prometheus 데이터 손실
기본적으로 OpenShift의 Prometheus는 임시 스토리지를 사용합니다. Prometheus는 다시 시작할 때마다 모든 지표 데이터가 손실됩니다.
Red Hat Advanced Cluster Management에서 관리하는 OpenShift Container Platform 관리 클러스터에서 관찰 기능이 활성화 또는 비활성화되면 observability 끝점 Operator는 로컬 Prometheus를 자동으로 다시 시작하는 alertmanager 구성을 추가하여 cluster-monitoring-config
ConfigMap
을 업데이트합니다.
1.2.4.7. 순서가 없는 샘플을 수집하는 동안 오류 발생
가시성은 Pod
에서 다음 오류 메시지를 보고합니다.
Error on ingesting out-of-order samples
오류 메시지는 메트릭 수집 간격 동안 관리 클러스터에서 보낸 시계열 데이터가 이전 수집 간격으로 보낸 시계열 데이터보다 오래되었음을 나타냅니다. 이 문제가 발생하면 Thanos 수신자에 의해 데이터가 삭제되고 Grafana 대시보드에 표시된 데이터에 차이가 발생할 수 있습니다. 오류가 자주 표시되는 경우 지표 컬렉션 간격을 더 높은 값으로 늘리는 것이 좋습니다. 예를 들어 간격을 60 초로 늘릴 수 있습니다.
이 문제는 시계열 간격이 30초와 같이 더 낮은 값으로 설정된 경우에만 발생합니다. 지표 수집 간격이 기본값 300초로 설정된 경우에는 이 문제가 표시되지 않습니다.
1.2.4.8. 관리 클러스터에서 Grafana 배포가 실패
매니페스트 크기가 50000바이트를 초과하는 경우 Grafana 인스턴스는 관리 클러스터에 배포되지 않습니다. 관찰 기능을 배포한 후 Grafana에 local-cluster
만 나타납니다.
1.2.4.9. 업그레이드 후 Grafana 배포가 실패합니다.
이전 버전 2.6에 배포된 grafana-dev
인스턴스가 있고 환경을 2.6으로 업그레이드하는 경우 grafana-dev
가 작동하지 않습니다. 다음 명령을 실행하여 기존 grafana-dev
인스턴스를 삭제해야 합니다.
./setup-grafana-dev.sh --clean
다음 명령을 사용하여 인스턴스를 다시 생성합니다.
./setup-grafana-dev.sh --deploy
1.2.4.10. klusterlet-addon-search Pod 실패
메모리 제한에 도달하여 klusterlet-addon-search
Pod가 실패합니다. 관리 클러스터에서 klusterlet-addon-search
배포를 사용자 정의하여 메모리 요청 및 제한을 업데이트해야 합니다. hub 클러스터에서 search-collector
라는 ManagedclusterAddon
사용자 정의 리소스를 편집합니다. search-collector
에 다음 주석을 추가하고 메모리 addon.open-cluster-management.io/search_memory_request=512Mi
및 addon.open-cluster-management.io/search_memory_limit=1024Mi
.
예를 들어 foobar
라는 관리 클러스터가 있는 경우 다음 명령을 실행하여 메모리 요청을 512Mi
로 변경하고 메모리 제한을 1024Mi
로 변경합니다.
oc annotate managedclusteraddon search-collector -n foobar \ addon.open-cluster-management.io/search_memory_request=512Mi \ addon.open-cluster-management.io/search_memory_limit=1024Mi
1.2.5. 클러스터 관리 알려진 문제
클러스터 관리 또는 클러스터 라이프사이클은 Red Hat Advanced Cluster Management를 포함하거나 사용하지 않고 멀티 클러스터 엔진 Operator에서 제공합니다. Red Hat Advanced Cluster Management에만 적용되는 클러스터 관리의 알려진 문제 및 제한 사항을 참조하십시오. 대부분의 클러스터 관리 알려진 문제는 클러스터 라이프사이클 알려진 문제의 클러스터 라이프사이클 설명서에 있습니다.
1.2.5.1. IBM Power 또는 IBM Z 시스템 허브 클러스터와 Ansible Automation Platform 통합을 사용할 수 없음
Ansible Automation Platform Resource Operator 에서 ppc64le
또는 s390x
이미지를 제공하지 않으므로 Kubernetes 허브용 Red Hat Advanced Cluster Management for Kubernetes hub 클러스터가 IBM Power 또는 IBM Z 시스템에서 실행되는 경우 Ansible Automation Platform 통합을 사용할 수 없습니다.
1.2.6. 애플리케이션 관리 알려진 문제
애플리케이션 라이프사이클 구성 요소에 대한 다음 알려진 문제를 참조하십시오.
1.2.6.1. 애플리케이션 차단 상태
애플리케이션이 차단된
상태인 경우 서브스크립션이 클러스터가 오프라인 상태임을 표시되지만 클러스터는 정상이고
상태입니다.
준비된
1.2.6.2. Application ObjectBucket 채널 유형은 허용 및 거부 목록을 사용할 수 없습니다.
subscription-admin
역할에 ObjectBucket 채널 유형으로 허용 및 거부 목록을 지정할 수 없습니다. 다른 채널 유형에서 서브스크립션의 허용 및 거부 목록은 배포할 수 없는 Kubernetes 리소스 및 Kubernetes 리소스를 나타냅니다.
1.2.6.3. Argo 애플리케이션은 3.x OpenShift Container Platform 관리 클러스터에 배포할 수 없습니다.
3.x의 Argo ApplicationSet
은 Infrastructure.config.openshift.io
API를 사용할 수 없기 때문에 3.x OpenShift Container Platform 관리 클러스터에 배포할 수 없습니다.
1.2.6.4. multicluster_operators_subscription 이미지 변경 사항이 자동으로 적용되지 않음
klusterlet Operator가 이전에 처리했을 때 관리 클러스터에서 실행 중인 application-manager
애드온을 서브스크립션 운영자가 처리합니다. 서브스크립션 Operator는
를 관리하지 않으므로 multicluster-hub 이미지 매니페스트 ConfigMap의 multicluster-hub
multicluster_operators_subscription
이미지에 대한 변경 사항이 자동으로 적용되지 않습니다.
멀티cluster -hub 이미지 매니페스트 ConfigMap에서
의 다중cluster_operators_subscription
이미지를 변경하여 서브스크립션 운영자가 사용하는 이미지를 재정의하는 경우 관리 클러스터application-manager
애드온은 서브스크립션 운영자 Pod가 다시 시작될 때까지 새 이미지를 사용하지 않습니다. Pod를 다시 시작해야 합니다.
1.2.6.5. 서브스크립션 관리자가 배포하지 않는 경우 정책 리소스가 배포되지 않음
policy.open-cluster-management.io/v1
리소스는 기본적으로 Red Hat Advanced Cluster Management 버전 2.4에 대해 애플리케이션 서브스크립션에 의해 더 이상 배포되지 않습니다.
서브스크립션 관리자는 이 기본 동작을 변경하기 위해 애플리케이션 서브스크립션을 배포해야 합니다.
자세한 내용은 서브스크립션 관리자로 허용 및 거부 목록 생성을 참조하십시오. 이전 Red Hat Advanced Cluster Management 버전의 기존 애플리케이션 서브스크립션에 의해 배포된 policy.open-cluster-management.io/v1
리소스는 남아 있지만 서브스크립션 관리자가 애플리케이션 서브스크립션을 배포하지 않는 한 소스 리포지토리와 조정되지 않습니다.
1.2.6.6. 애플리케이션 Ansible 후크 독립 실행형 모드
Ansible 후크 독립 실행형 모드는 지원되지 않습니다. 서브스크립션을 사용하여 허브 클러스터에 Ansible 후크를 배포하려면 다음 서브스크립션 YAML을 사용할 수 있습니다.
apiVersion: apps.open-cluster-management.io/v1 kind: Subscription metadata: name: sub-rhacm-gitops-demo namespace: hello-openshift annotations: apps.open-cluster-management.io/github-path: myapp apps.open-cluster-management.io/github-branch: master spec: hooksecretref: name: toweraccess channel: rhacm-gitops-demo/ch-rhacm-gitops-demo placement: local: true
그러나 spec.placement.local:true
에 독립 실행형
모드에서 서브스크립션이 실행 중이므로 이 구성은 Ansible 인스턴스를 생성하지 않을 수 있습니다. 허브 모드에서 서브스크립션을 생성해야 합니다.
로컬 클러스터에 배포하는 배치 규칙을
생성합니다. 다음 샘플을 참조하십시오.apiVersion: apps.open-cluster-management.io/v1 kind: PlacementRule metadata: name: <towhichcluster> namespace: hello-openshift spec: clusterSelector: matchLabels: local-cluster: "true" #this points to your hub cluster
서브스크립션에 해당 배치 규칙을 참조합니다. 다음을 참조하십시오.
apiVersion: apps.open-cluster-management.io/v1 kind: Subscription metadata: name: sub-rhacm-gitops-demo namespace: hello-openshift annotations: apps.open-cluster-management.io/github-path: myapp apps.open-cluster-management.io/github-branch: master spec: hooksecretref: name: toweraccess channel: rhacm-gitops-demo/ch-rhacm-gitops-demo placement: placementRef: name: <towhichcluster> kind: PlacementRule
둘 다 적용한 후에는 허브 클러스터에서 생성된 Ansible 인스턴스가 표시되어야 합니다.
1.2.6.7. 애플리케이션 오류에 대한 역할 편집
편집기
역할에서 수행하는 사용자는 애플리케이션에 대한 읽기
또는 업데이트
권한만 있어야 하지만 잘못된 편집기는 애플리케이션을 생성하고
삭제
할 수도 있습니다. OpenShift Container Platform Operator Lifecycle Manager 기본 설정은 제품의 설정을 변경합니다. 문제를 해결하려면 다음 절차를 참조하십시오.
-
oc edit clusterrole applications.app.k8s.io-v1beta2-edit -o yaml
을 실행하여 애플리케이션 편집 클러스터 역할을 엽니다. -
동사 목록에서
create
및delete
를 제거합니다. - 변경 사항을 저장합니다.
1.2.6.8. 배치 규칙 오류에 대한 역할 편집
편집기
역할에서 수행하는 사용자는 배치 규칙에 대한 읽기
또는 업데이트
권한만 있어야 하지만 잘못된 편집기도 만들고
삭제
할 수 있습니다. OpenShift Container Platform Operator Lifecycle Manager 기본 설정은 제품의 설정을 변경합니다. 문제를 해결하려면 다음 절차를 참조하십시오.
-
oc edit clusterrole placementrules.apps.open-cluster-management.io-v1-edit
를 실행하여 애플리케이션 편집 클러스터 역할을 엽니다. -
동사 목록에서
create
및delete
를 제거합니다. - 변경 사항을 저장합니다.
1.2.6.9. 업데이트된 배치 규칙 이후에 배포되지 않은 애플리케이션
배치 규칙 업데이트 후 애플리케이션을 배포하지 않는 경우 application-manager
포드가 실행 중인지 확인합니다. application-manager
는 관리 클러스터에서 실행해야 하는 서브스크립션 컨테이너입니다.
oc get pods -n open-cluster-management-agent-addon |grep application-manager
를 실행하여 확인할 수 있습니다.
콘솔에서 kind:pod cluster:yourcluster
를 검색하고 application-manager
가 실행 중인지 확인할 수도 있습니다.
확인할 수 없는 경우 클러스터를 다시 가져온 후 다시 확인합니다.
1.2.6.10. 서브스크립션 Operator에서 SCC를 생성하지 않음
관리 SCC(보안 컨텍스트 제약 조건)의 Red Hat OpenShift Container Platform SCC 에 대해 알아보십시오. 관리 대상 클러스터에 필요한 추가 구성입니다.
배포마다 다른 보안 컨텍스트 및 다양한 서비스 계정이 있습니다. 서브스크립션 Operator는 SCC CR을 자동으로 생성할 수 없습니다. 관리자는 Pod에 대한 권한을 제어합니다. 기본이 아닌 네임스페이스에 Pod를 생성하기 위해 상대 서비스 계정에 적절한 권한을 활성화하려면 SCC(보안 컨텍스트 제약 조건) CR이 필요합니다. 네임스페이스에서 SCC CR을 수동으로 생성하려면 다음 단계를 완료합니다.
배포에 정의된 서비스 계정을 찾습니다. 예를 들어 다음
nginx
배포를 참조하십시오.nginx-ingress-52edb nginx-ingress-52edb-backend
네임스페이스에서 SCC CR을 생성하여 서비스 계정 또는 계정에 필요한 권한을 할당합니다. 다음 예제를 참조하십시오. 여기서
kind: SecurityContextConstraints
가 추가됩니다.apiVersion: security.openshift.io/v1 defaultAddCapabilities: kind: SecurityContextConstraints metadata: name: ingress-nginx namespace: ns-sub-1 priority: null readOnlyRootFilesystem: false requiredDropCapabilities: fsGroup: type: RunAsAny runAsUser: type: RunAsAny seLinuxContext: type: RunAsAny users: - system:serviceaccount:my-operator:nginx-ingress-52edb - system:serviceaccount:my-operator:nginx-ingress-52edb-backend
1.2.6.11. 애플리케이션 채널에는 고유한 네임스페이스가 필요합니다.
동일한 네임스페이스에 둘 이상의 채널을 생성하면 허브 클러스터에 오류가 발생할 수 있습니다.
예를 들어, 설치 프로그램에서 Helm 유형 채널로 네임스페이스 charts-v1
을 사용하므로 charts-v1
에서 추가 채널을 생성하지 마십시오. 고유한 네임스페이스에서 채널을 생성해야 합니다. 모든 채널에는 다른 GitHub 채널과 네임스페이스를 공유할 수 있는 GitHub 채널을 제외한 개별 네임스페이스가 필요합니다.
1.2.6.12. Ansible Automation Platform 작업 실패
호환되지 않는 옵션을 선택하면 Ansible 작업이 실행되지 않습니다. Ansible Automation Platform은 -cluster-scoped
채널 옵션을 선택한 경우에만 작동합니다. 이는 Ansible 작업을 수행해야 하는 모든 구성 요소에 영향을 미칩니다.
1.2.6.13. Ansible Automation Platform Operator는 프록시 외부에서 Ansible Automation Platform에 액세스
Red Hat Ansible Automation Platform Operator는 프록시 사용 OpenShift Container Platform 클러스터 외부에서 Ansible Automation Platform에 액세스할 수 없습니다. 문제를 해결하려면 프록시 내에 Ansible Automation Platform을 설치할 수 있습니다. Ansible Automation Platform에서 제공하는 설치 단계를 참조하십시오.
1.2.6.14. 애플리케이션 이름 요구사항
애플리케이션 이름은 37자를 초과할 수 없습니다. 문자가 이 양을 초과하면 애플리케이션 배포에 다음 오류가 표시됩니다.
status: phase: PropagationFailed reason: 'Deployable.apps.open-cluster-management.io "_long_lengthy_name_" is invalid: metadata.labels: Invalid value: "_long_lengthy_name_": must be no more than 63 characters/n'
1.2.6.15. 애플리케이션 콘솔 테이블 제한 사항
콘솔의 다양한 애플리케이션 테이블에 대한 다음 제한 사항을 참조하십시오.
- 개요 페이지의 애플리케이션 테이블과 고급 구성 페이지의 서브스크립션 표에서 클러스터 열에 애플리케이션 리소스가 배포된 클러스터 수가 표시됩니다. 애플리케이션은 로컬 클러스터의 리소스로 정의되므로 실제 애플리케이션 리소스가 로컬 클러스터에 배포되었는지 여부에 관계없이 로컬 클러스터는 검색 결과에 포함됩니다.
- 서브스크립션 의 고급 구성 표에서 애플리케이션 열에는 해당 서브스크립션을 사용하는 총 애플리케이션 수가 표시되지만 서브스크립션이 하위 애플리케이션을 배포하면 검색 결과에도 포함됩니다.
- 채널 의 고급 구성 표에서 서브스크립션 열에는 해당 채널을 사용하는 로컬 클러스터의 총 서브스크립션 수가 표시되지만 검색 결과에 포함된 다른 서브스크립션에서 배포한 서브스크립션은 포함되지 않습니다.
1.2.6.16. 애플리케이션 콘솔 토폴로지 필터링 없음
2.7에 대한 애플리케이션의 콘솔 및 토폴로지 가 변경됩니다. 콘솔 토폴로지 페이지에서 필터링 기능이 없습니다.
1.2.6.17. 오브젝트 스토리지 애플리케이션에서 허용 및 거부 목록이 작동하지 않음
개체 스토리지 애플리케이션 서브스크립션에서는 허용
및 거부
목록 기능이 작동하지 않습니다.
1.2.7. 거버넌스 알려진 문제
1.2.7.1. Red Hat Advanced Cluster Management에서 로그아웃할 수 없음
외부 ID 공급자를 사용하여 Red Hat Advanced Cluster Management에 로그인하면 Red Hat Advanced Cluster Management에서 로그아웃하지 못할 수 있습니다. 이는 Red Hat Advanced Cluster Management를 사용하고 IBM Cloud 및 Keycloak과 함께 ID 공급자로 설치된 경우 발생합니다.
Red Hat Advanced Cluster Management에서 로그아웃하기 전에 외부 ID 공급자에서 로그아웃해야 합니다.
1.2.7.2. 게이트 키퍼 Operator 설치에 실패
Red Hat OpenShift Container Platform 버전 4.9에 게이트 키 연산자를 설치하면 설치에 실패합니다. OpenShift Container Platform을 버전 4.9.0.로 업그레이드하기 전에 gatekeeper Operator를 버전 0.2.0으로 업그레이드해야 합니다. 자세한 내용은 게이트 키퍼(upgrading gatekeeper) 및 게이트키퍼(Gatekeeper) 운영자 를 참조하십시오.
1.2.7.3. 네임스페이스가 종료 상태가 될 때 불만되는 구성 정책
complianceType
매개변수에 대해 mustnothave
로 구성된 구성 정책이 있고 remediationAction
매개변수에 적용하는
경우 Kubernetes API에 대한 삭제 요청이 수행된 후 정책이 준수로 나열됩니다. 따라서 정책이 규정 준수로 나열되는 동안 Kubernetes 오브젝트를 Terminating
상태로 유지할 수 있습니다.
1.2.7.4. 정책을 통해 배포된 Operator는 ARM을 지원하지 않습니다.
ARM 환경에 설치하는 것은 지원되지만 정책을 사용하여 배포된 Operator는 ARM 환경을 지원하지 않을 수 있습니다. Operator를 설치하는 다음 정책은 ARM 환경을 지원하지 않습니다.
1.2.7.5. ConfigurationPolicy CRD가 종료되지 않음
KlusterletAddonConfig
에서 정책 컨트롤러를 비활성화하거나 클러스터를 분리하여 관리 클러스터에서 config-policy-controller
애드온을 제거하면 ConfigurationPolicy
CRD가 종료 상태가 될 수 있습니다. ConfigurationPolicy
CRD가 종료 상태인 경우 나중에 애드온을 다시 설치하는 경우 새 정책이 클러스터에 추가되지 않을 수 있습니다. 다음과 같은 오류가 발생할 수 있습니다.
template-error; Failed to create policy template: create not allowed while custom resource definition is terminating
다음 명령을 사용하여 CRD가 중단되었는지 확인합니다.
oc get crd configurationpolicies.policy.open-cluster-management.io -o=jsonpath='{.metadata.deletionTimestamp}'
삭제 타임스탬프가 리소스에 있으면 CRD가 정지됩니다. 문제를 해결하려면 클러스터에 남아 있는 구성 정책에서 종료자를 모두 제거하십시오. 관리형 클러스터에서 다음 명령을 사용하고 < cluster-namespace
>를 관리형 클러스터 네임스페이스로 교체합니다.
oc get configurationpolicy -n <cluster-namespace> -o name | xargs oc patch -n <cluster-namespace> --type=merge -p '{"metadata":{"finalizers": []}}'
구성 정책 리소스는 클러스터에서 자동으로 제거되고 CRD는 종료 상태를 종료합니다. 애드온을 이미 다시 설치한 경우 CRD는 삭제 타임스탬프 없이 자동으로 다시 생성됩니다.
1.2.7.6. 기존 구성 정책을 수정할 때 PruneObject>-<가 작동하지 않음
기존 구성 정책을 수정할 때 pruneObject
>-< 기능의 DeleteAll
또는 DeleteIfCreated
를 수정하기 전에 생성된 이전 리소스를 정리하지 않습니다. 구성 정책을 삭제할 때 정책 생성 및 정책 업데이트의 새 리소스만 추적 및 삭제됩니다.
1.2.7.7. 시행 시 정책 상태가 반복적인 업데이트를 표시합니다.
정책이 수정: 적용
및 반복적으로 업데이트되는 경우 Red Hat Advanced Cluster Management 콘솔에는 업데이트가 성공하면 반복적으로 위반이 표시됩니다. 이는 다음 두 가지 경우에 발생할 수 있습니다.
다른 컨트롤러 또는 프로세스도 다른 값으로 오브젝트를 업데이트하는 것입니다.
문제를 해결하려면 정책을 비활성화하고 정책 및 관리 클러스터에서 오브젝트의
objectDefinition
간의 차이점을 비교합니다. 값이 다르면 다른 컨트롤러 또는 프로세스가 업데이트될 수 있습니다. 오브젝트의메타데이터
를 확인하여 값이 다른 이유를 식별하는 데 도움이 됩니다.정책이 적용될 때 Kubernetes에서 오브젝트를 처리하므로
ConfigurationPolicy
의objectDefinition
이 일치하지 않습니다.문제를 해결하려면 정책을 비활성화하고 정책 및 관리 클러스터에서 오브젝트의
objectDefinition
간의 차이점을 비교합니다. 키가 다르거나 누락된 경우 Kubernetes에서 키를 오브젝트에 적용하기 전에 해당 키를 처리할 수 있습니다. 예를 들어PodSecurityPolicy
의 경우 Kubernetes는false
로 설정된 키가 제거되므로 관리형 클러스터에서 결과 오브젝트를 확인할 수 있습니다. 이 경우 정책의objectDefinition
에서 키를 제거합니다.
1.2.7.8. 정책 템플릿 문제
구성 정책에 대한 정책 템플릿을 편집할 때 다음 문제가 발생할 수 있습니다.
- 구성 정책의 이름을 새 이름으로 바꾸면 이전 이름으로 구성 정책의 사본이 유지됩니다.
- hub 클러스터의 정책에서 구성 정책을 제거하면 구성 정책이 관리 클러스터에 남아 있지만 해당 상태는 제공되지 않습니다.
이 문제를 해결하려면 정책을 비활성화하고 다시 활성화합니다. 전체 정책을 삭제할 수도 있습니다.
1.2.7.9. OpenShift 4.12 이상에서 지원되지 않는 Pod 보안 정책
Pod 보안 정책은 OpenShift Container Platform 4.12 이상에서 및 Kubernetes v1.25 이상에서 제거됩니다. PodSecurityPolicy
리소스를 적용하면 다음과 같은 비호환 메시지가 표시될 수 있습니다.
violation - couldn't find mapping resource with kind PodSecurityPolicy, please check if you have CRD deployed
1.2.8. 알려진 문제 백업 및 복원
1.2.8.1. 백업 충돌 방지
허브 클러스터가 수동에서 기본 클러스터 및 백업으로 변경되면 다른 클러스터에서 동일한 스토리지 위치에서 데이터를 백업할 수 있습니다. 이로 인해 백업 충돌이 발생할 수 있습니다. 즉, 최신 백업이 수동 허브 클러스터에서 생성됩니다.
패시브 허브 클러스터는 hub 클러스터에서 BackupSchedule.cluster.open-cluster-management.io
리소스가 활성화되어 있기 때문에 백업을 생성하지만 허브 클러스터가 더 이상 기본 허브 클러스터가 아니기 때문에 백업 데이터를 더 이상 기록해서는 안 됩니다. 다음 명령을 실행하여 백업 충돌이 있는지 확인합니다.
oc get backupschedule -A
다음 상태가 표시될 수 있습니다.
NAMESPACE NAME PHASE MESSAGE openshift-adp schedule-hub-1 BackupCollision Backup acm-resources-schedule-20220301234625, from cluster with id [be97a9eb-60b8-4511-805c-298e7c0898b3] is using the same storage location. This is a backup collision with current cluster [1f30bfe5-0588-441c-889e-eaf0ae55f941] backup. Review and resolve the collision then create a new BackupSchedule resource to resume backups from this cluster.
컨트롤러는 BackupSchedule.cluster.open-cluster-management.io
리소스 상태를
BackupCollision
로 설정하여 백업 충돌을 방지합니다. BackupSchedule
리소스에서 생성한 Schedule.velero.io
리소스는 자동으로 삭제됩니다.
백업 충돌은 hub-backup-pod
정책으로 보고됩니다. 관리자는 어떤 hub 클러스터가 데이터를 스토리지 위치에 쓰는지 확인해야 합니다. 그런 다음 Passive hub 클러스터에서 BackupSchedule.cluster.open-cluster-management.io
리소스를 제거하고 기본 허브 클러스터에서 새 BackupSchedule.cluster.open-cluster-management.io
리소스를 다시 생성하여 백업을 다시 시작합니다.
자세한 내용은 백업 및 복원 을 참조하십시오.
1.2.8.2. Velero 복원 제한 사항
새 hub 클러스터에 데이터가 복원되는 새 허브 클러스터의 경우 사용자가 생성한 리소스가 있는 경우 활성 허브 클러스터와 다른 구성이 있을 수 있습니다. 예를 들어 새 허브 클러스터에서 백업 데이터를 복원하기 전에 새 허브 클러스터에서 생성된 기존 정책을 포함할 수 있습니다.
복원된 백업의 일부가 아닌 경우 Velero 리소스를 건너뛰므로 새 허브 클러스터에 대한 정책은 변경되지 않고 새 hub 클러스터와 활성 허브 클러스터 간에 다른 구성이 생성됩니다.
이 제한을 해결하기 위해 클러스터 백업 및 복원 Operator는 restore.cluster.open-cluster-management.io
리소스가 생성될 때 사용자 또는 다른 복원 작업에서 생성한 리소스를 정리하기 위해 사후 복원 작업을 실행합니다.
자세한 내용은 백업 및 복원 Operator 주제에서 복원하기 전에 hub 클러스터 정리 를 참조하십시오.
1.2.8.3. 수동 구성에서 관리 클러스터를 표시하지 않음
관리형 클러스터는 수동 허브 클러스터에서 활성화 데이터가 복원된 경우에만 표시됩니다.
1.2.8.4. 클러스터 백업 및 복원 업그레이드 제한
enableClusterBackup
매개변수를 true
로 설정하여 클러스터를 2.6에서 2.7로 업그레이드하는 경우 다음 메시지가 표시됩니다.
When upgrading from version 2.4 to 2.5, cluster backup must be disabled
클러스터를 업그레이드하기 전에 enableClusterBackup
매개변수를 false
로 설정하여 클러스터 백업 및 복원을 비활성화합니다. MultiClusterHub
리소스의 components
섹션은 다음 YAML 파일과 유사합니다.
업그레이드가 완료되면 백업 및 복원 구성 요소를 다시 활성화할 수 있습니다. 다음 샘플을 확인합니다.
overrides: components: - enabled: true name: multiclusterhub-repo - enabled: true name: search - enabled: true name: management-ingress - enabled: true name: console - enabled: true name: insights - enabled: true name: grc - enabled: true name: cluster-lifecycle - enabled: true name: volsync - enabled: true name: multicluster-engine - enabled: false name: cluster-proxy-addon - enabled: true <<<<<<<< name: cluster-backup separateCertificateManagement: false
OADP를 수동으로 설치한 경우 업그레이드하기 전에 OADP를 수동으로 제거해야 합니다. 업그레이드가 완료되고 백업 및 복원이 다시 활성화되면 OADP가 자동으로 설치됩니다.
1.2.8.5. 관리 클러스터 리소스가 복원되지 않음
로컬 클러스터 관리 클러스터
리소스의 설정을 복원하고 새 허브 클러스터에서 로컬 클러스터
데이터를 덮어쓰면 설정이 잘못 구성됩니다. 리소스에 클러스터 URL 세부 정보와 같은 로컬 클러스터 특정 정보가 포함되어 있기 때문에 이전 허브 클러스터
의 콘텐츠가 백업되지 않습니다.
local-
cluster
복원된 클러스터에서 로컬 클러스터
리소스와 관련된 구성 변경 사항을 수동으로 적용해야 합니다. 백업 및 복원 Operator 주제 에서 새 허브 클러스터 준비를 참조하십시오.
1.2.8.6. 복원된 Hive 관리형 클러스터가 새 hub 클러스터와 연결되지 않을 수 있습니다.
Hive 관리 클러스터에 대해 변경되거나 순환된 인증 기관(CA)의 백업을 복원하면 새 허브 클러스터에서 관리 클러스터가 새 허브 클러스터에 연결되지 않습니다. 이 관리된 클러스터에 대한 admin
kubeconfig
시크릿은 더 이상 백업과 함께 사용할 수 없으므로 연결에 실패합니다.
새 허브 클러스터에서 관리 클러스터의 복원된 admin
kubeconfig
시크릿을 수동으로 업데이트해야 합니다.
1.2.8.7. 가져온 관리 클러스터에 보류 중인 가져오기 상태가 표시됩니다.
기본 허브 클러스터에서 수동으로 가져온 관리형 클러스터에는 활성화 데이터가 수동 허브 클러스터에서 복원될 때 보류 중
상태가 표시됩니다. 자세한 내용은 Managed 서비스 계정을 사용하여 클러스터 자동 연결을 참조하십시오.
1.2.8.8. hub 클러스터를 복원한 후 appliedmanifestwork 가 관리 클러스터에서 제거되지 않음
새 hub 클러스터에서 hub 클러스터 데이터가 복원되면 수정된 클러스터 세트가 아닌 애플리케이션 서브스크립션에 대한 배치 규칙이 있는 관리형 클러스터에서 appliedmanifestwork
가 제거되지 않습니다.
고정된 클러스터 세트가 아닌 애플리케이션 서브스크립션에 대한 배치 규칙의 다음 예제를 참조하십시오.
spec: clusterReplicas: 1 clusterSelector: matchLabels: environment: dev
결과적으로 관리 클러스터가 복원된 허브 클러스터에서 분리되면 애플리케이션이 분리됩니다.
문제를 방지하려면 배치 규칙에 고정된 클러스터 세트를 지정합니다. 다음 예제를 참조하십시오.
spec: clusterSelector: matchLabels: environment: dev
다음 명령을 실행하여 나머지 manifestwork
를 수동으로 삭제할 수도 있습니다.
oc delete appliedmanifestwork <the-left-appliedmanifestwork-name>
1.2.9. Submariner 알려진 문제
1.2.9.1. Red Hat Advanced Cluster Management에서 관리할 수 있는 인프라 공급자가 모두 지원되는 것은 아닙니다.
Submariner는 Red Hat Advanced Cluster Management에서 관리할 수 있는 모든 인프라 공급업체에서 지원되지 않습니다. 지원되는 공급자 목록은 Red Hat Advanced Cluster Management 지원 매트릭스 를 참조하십시오.
1.2.9.2. 제한된 헤드리스 서비스 지원
Globalnet을 사용할 때 선택기 없이 헤드리스 서비스에 대해 서비스 검색이 지원되지 않습니다.
1.2.9.3. NAT가 활성화된 경우 VXLAN을 사용하는 배포는 지원되지 않습니다.
NAT 이외의 배포만 VXLAN 연결 드라이버를 사용한 Submariner 배포를 지원합니다.
1.2.9.4. OVN Kubernetes에는 OCP 4.11 이상이 필요합니다.
OVN Kubernetes CNI 네트워크를 사용하는 경우 Red Hat OpenShift 4.11 이상이 필요합니다.
1.2.9.5. 글로벌net 제한 사항
Globalnet은 Red Hat OpenShift Data Foundation 재해 복구 솔루션에서는 지원되지 않습니다. 지역 재해 복구 시나리오에 각 클러스터에서 클러스터 및 서비스 네트워크에 대해 겹치지 않은 개인 IP 주소 범위를 사용해야 합니다.
1.2.9.6. 자체 서명된 인증서로 인해 브로커에 연결되지 않을 수 있습니다.
브로커의 자체 서명된 인증서로 인해 결합된 클러스터가 브로커에 연결되지 않을 수 있습니다. 인증서 검증 오류와 함께 연결에 실패합니다. 관련 SubmarinerConfig
오브젝트에서 InsecureBrokerConnection
을 true
로 설정하여 브로커 인증서 유효성 검사를 비활성화할 수 있습니다. 다음 예제를 참조하십시오.
apiVersion: submarineraddon.open-cluster-management.io/v1alpha1 kind: SubmarinerConfig metadata: name: submariner namespace: <managed-cluster-namespace> spec: insecureBrokerConnection: true
1.3. 에라타 업데이트
기본적으로 에라타 업데이트는 릴리스될 때 자동으로 적용됩니다. 자세한 내용은 Operator를 사용하여 업그레이드를 참조하십시오.
중요: 참조를 위해 에라타 링크 및 GitHub 번호가 콘텐츠에 추가되어 내부적으로 사용될 수 있습니다. 액세스 권한이 필요한 링크는 사용자가 사용할 수 없습니다.
FIPS 알림: spec.ingress.sslCiphers
에서 자체 암호를 지정하지 않으면 multiclusterhub-operator
에서 기본 암호 목록을 제공합니다. 2.4의 경우 이 목록에는 FIPS에서 승인하지 않은 두 개의 암호가 포함되어 있습니다. 버전 2.4.x 또는 이전 버전에서 업그레이드하고 FIPS 준수를 원하는 경우 다중 클러스터 허브
리소스에서 다음 두 암호를 제거하십시오. ECDHE-ECDSA-CHACHA20-POLY1305
및 ECDHE-RSA-CHACHA20-POLY1305
.
1.3.1. 에라타 2.7.2
1.3.2. 에라타 2.7.1
- 관리 클러스터가 온라인 상태인 경우에도 관리 클러스터가 토폴로지에 오프라인 상태가 된 콘솔 문제를 해결합니다. (ACM-3466)
1.4. 중단 및 제거
제품의 일부가 더 이상 사용되지 않거나 Kubernetes용 Red Hat Advanced Cluster Management에서 제거된 경우를 알아봅니다. 현재 릴리스 및 두 개의 이전 릴리스에 대한 표에 표시되는 권장 동작 및 세부 사항의 대체 작업을 고려하십시오.
중요: Red Hat Advanced Cluster Management의 2.3 버전과 이전 버전은 제거되어 더 이상 지원되지 않습니다. 버전 2.3 및 이전 버전에 대한 문서는 업데이트되지 않습니다. 이 문서는 사용 가능한 상태로 남아 있을 수 있지만 에라타 또는 기타 사용 가능한 업데이트없이 더 이상 사용되지 않습니다.
모범 사례: Red Hat Advanced Cluster Management의 최신 버전으로 업그레이드.
1.4.1. API 사용 중단 및 제거
Red Hat Advanced Cluster Management는 API에 대한 Kubernetes 사용 중단 지침을 따릅니다. 해당 정책에 대한 자세한 내용은 Kubernetes 사용 중단 정책을 참조하십시오. Red Hat Advanced Cluster Management API는 더 이상 사용되지 않거나 다음 타임라인 외부에서만 제거됩니다.
-
모든
V1
API는 일반적으로 12 개월 또는 3 개의 릴리스에서 사용할 수 있으며 지원됩니다. V1 API는 제거되지 않지만 해당 시간 제한 외부에서 더 이상 사용되지 않을 수 있습니다. -
모든
베타
API는 일반적으로 9 개월 또는 3 개의 릴리스에서 사용할 수 있습니다. 베타 API는 해당 시간 제한 외부에서 제거되지 않습니다. -
모든
alpha
API는 지원되지 않아도 되지만 사용자에게 도움이 되는 경우 더 이상 사용되지 않거나 제거될 수 있습니다.
1.4.1.1. API 사용 중단
제품 또는 카테고리 | 영향을 받는 항목 | 버전 | 권장 작업 | 자세한 내용 및 링크 |
---|---|---|---|---|
검색 |
DiscoveredCluster 및 DiscoveryConfig | 2.5 |
| 없음 |
배치 |
| 2.5 |
|
|
PlacementDecisions |
| 2.5 |
| 없음 |
애플리케이션 |
| 2.5 |
| 없음 |
애플리케이션 |
| 2.5 | 없음 | 배포 가능한 API는 업그레이드 경로에 대해서만 남아 있습니다. 배포 가능한 CR 생성, 업데이트 또는 삭제는 조정되지 않습니다. |
ManagedClusterSets |
| 2.7 |
| 없음 |
ManagedClusterSetBindings |
| 2.7 |
| 없음 |
ClusterManagementAddOn |
Add | 2.7 |
| 없음 |
ManagedClusterAddOn |
| 2.7 |
| 없음 |
1.4.1.2. API 제거
제품 또는 카테고리 | 영향을 받는 항목 | 버전 | 권장 작업 | 자세한 내용 및 링크 |
---|---|---|---|---|
HypershiftDeployment |
| 2.7 | 이 API를 사용하지 마십시오. | |
BareMetalAssets |
| 2.7 | 이 API를 사용하지 마십시오. | Baremetalassets.inventory.open-cluster-management.io |
배치 |
| 2.7 |
대신 | Placements.cluster.open-cluster-management.io |
PlacementDecisions |
| 2.7 |
대신 | PlacementDecisions.cluster.open-cluster-management.io |
ManagedClusterSets |
| 2.7 |
대신 | ManagedClusterSets.cluster.open-cluster-management.io |
ManagedClusterSetBindings |
| 2.7 |
대신 | ManagedClusterSetBindings.cluster.open-cluster-management.io |
CertPolicyController |
| 2.6 | 이 API를 사용하지 마십시오. | CertPolicyController.agent.open-cluster-management.io |
ApplicationManager |
| 2.6 | 이 API를 사용하지 마십시오. | ApplicationManager.agent.open-cluster-management.io |
IAMPolicyController |
| 2.6 | 이 API를 사용하지 마십시오. | IAMPolicyController.agent.open-cluster-management.io |
PolicyController |
| 2.6 | 이 API를 사용하지 마십시오. | PolicyController.agent.open-cluster-management.io |
SearchCollector |
| 2.6 | 이 API를 사용하지 마십시오. | SearchCollector.agent.open-cluster-management.io |
WorkManager |
| 2.6 | 이 API를 사용하지 마십시오. | WorkManager.agent.open-cluster-management.io |
1.4.2. Red Hat Advanced Cluster Management 사용 중단
더 이상 사용되지 않는 구성 요소, 기능 또는 서비스가 지원되지만 더 이상 사용하지 않으며 향후 릴리스에서 더 이상 사용되지 않을 수 있습니다. 권장 동작 의 대체 작업과 다음 표에 제공된 세부 사항을 고려하십시오.
제품 또는 카테고리 | 영향을 받는 항목 | 버전 | 권장 작업 | 자세한 내용 및 링크 |
---|---|---|---|---|
가시성 |
| 2.5 |
| 관찰 기능을 사용자 지정 할 수 있습니다. |
설치 프로그램 |
| 2.7 | 없음 | 설치 구성을 위한 고급 구성을 참조하십시오. |
설치 프로그램 |
| 2.7 | 없음 | 설치 구성을 위한 고급 구성을 참조하십시오. |
설치 프로그램 |
| 2.5 | 없음 | 설치 구성을 위한 고급 구성을 참조하십시오. |
애플리케이션 | 보안 관리 | 2.4 | 대신 시크릿에 정책 허브 템플릿을 사용합니다. | 보안 정책 관리를 참조하십시오. |
거버넌스 콘솔 |
| 2.4 | 없음 | 없음 |
거버넌스 | 게이트 키퍼 Operator | 2.6 | 대신 서브스크립션으로 설치합니다. | 게이트키퍼 운영자 정책 관리를 참조하십시오. |
설치 프로그램 |
| 2.3 | 없음 | 없음 |
1.4.3. 제거
제거된 항목은 일반적으로 이전 릴리스에서 더 이상 사용되지 않으며 제품에서 더 이상 사용할 수 없는 기능입니다. 제거된 함수에 대안을 사용해야 합니다. 권장 동작 의 대체 작업과 다음 표에 제공된 세부 사항을 고려하십시오.
제품 또는 카테고리 | 영향을 받는 항목 | 버전 | 권장 작업 | 자세한 내용 및 링크 |
---|---|---|---|---|
거버넌스 | 이전 릴리스에서 사용된 관리 인그레스가 제거되었습니다. | 2.7 |
더 이상 관리 수신 인증서를 줄일 수 없습니다. 관리 인그레스와 함께 사용할 자체 인증서를 가져온 경우 | 없음 |
검색 |
| 2.7 |
| 없음 |
검색 | RedisGraph는 PostgreSQL으로 내부 데이터베이스로 교체되었습니다. | 2.7 | 변경이 필요하지 않습니다. | 검색 구성 요소는 PostgreSQL을 내부 데이터베이스로 사용하여 다시 구현됩니다. |
콘솔 | 독립 실행형 웹 콘솔 | 2.7 | 통합된 웹 콘솔을 사용합니다. | 자세한 내용은 콘솔에 액세스를 참조하십시오. |
거버넌스 | 무결성 방전 (기술 프리뷰) | 2.7 | 무결성 분리를 커뮤니티 제공 서명 솔루션으로 계속 사용할 수 있습니다. 자세한 내용은 Integrity Shield 설명서 시작하기 설명서를 참조하십시오. | 없음 |
클러스터 | 라벨을 사용하여 Red Hat Ansible 작업 구성 | 2.6 | 콘솔을 사용하여 Red Hat Ansible 작업을 구성합니다. | 자세한 내용은 콘솔을 사용하여 클러스터에서 실행할 Automation 템플릿 구성을 참조하십시오. |
클러스터 | 베어 메탈 자산을 사용한 클러스터 생성 | 2.6 | 콘솔을 사용하여 인프라 환경 생성 | 절차 프로세스를 위해 온-프레미스 환경에서 클러스터 만들기 를 참조하십시오. |
애드온 operator | 기본 제공 관리형 클러스터 애드온 설치 | 2.6 | 없음 | 없음 |
거버넌스 | 사용자 정의 정책 컨트롤러 | 2.6 | 작업이 필요하지 않음 | 없음 |
거버넌스 |
사용되지 않은 | 2.6 | 없음 | Kubernetes 구성 정책 컨트롤러 설명서를 참조하십시오. |
애플리케이션 | 배포 가능한 컨트롤러 | 2.5 | 없음 | 배포 가능한 컨트롤러가 제거되었습니다. |
Red Hat Advanced Cluster Management 콘솔 | 비주얼 웹 터미널 (기술 프리뷰) | 2.4 | 대신 터미널 사용 | 없음 |
애플리케이션 | 단일 ArgoCD 가져오기 모드: 허브 클러스터의 하나의 ArgoCD 서버로 가져온 시크릿입니다. | 2.3 | 클러스터 보안을 여러 ArgoCD 서버로 가져올 수 있습니다. | 없음 |
애플리케이션 |
argocd 클러스터 통합: | 2.3 | GitOps 클러스터를 생성하고 사용자 정의 리소스를 배치하여 관리 클러스터를 등록합니다. | |
거버넌스 |
| 2.3 | 작업이 필요하지 않음 | 없음 |
거버넌스 | 사용자 정의 정책 컨트롤러 | 2.6 | 작업이 필요하지 않음 | 없음 |
거버넌스 |
사용되지 않은 | 2.6 | 없음 | Kubernetes 구성 정책 컨트롤러 설명서를 참조하십시오. |
거버넌스 | 무결성 방전 (기술 프리뷰) | 2.7 | 없음 | 무결성 분리를 커뮤니티 제공 서명 솔루션으로 계속 사용할 수 있습니다. 자세한 내용은 Integrity Shield 설명서 시작하기 설명서를 참조하십시오. |
1.5. Red Hat Advanced Cluster Management for Kubernetes 플랫폼 고려 사항
1.5.1. notice
이 문서는 일반 데이터 보호 규정 (ECDHE) 준비에 도움이 되도록 작성되었습니다. 이 제품은 사용자가 구성할 수 있는 Red Hat Advanced Cluster Management for Kubernetes 플랫폼의 기능과 제품 사용의 측면에 대한 정보를 제공합니다. 이 기능은 귀하의 organization with help your enterprise readiness를 참조하십시오. 클라이언트가 선택하고 구성할 수 있는 다양한 방법과 제품이 타사 클러스터 및 시스템과 함께 사용할 수 있는 다양한 방법으로 인해 이 정보는 포괄적인 목록이 아닙니다.
고객은 유럽 연합 일반 데이터 보호 규정을 포함하여 다양한 법률 및 규정을 준수할 책임이 있습니다. 고객은 고객의 비즈니스에 영향을 미칠 수 있는 모든 관련 법률 및 규정의 식별 및 해석과 고객이 이러한 법률 및 규정을 준수하기 위해 취해야 할 모든 조치에 대한 조언을 얻을 책임이 있습니다.
여기에 설명된 제품, 서비스 및 기타 기능은 모든 클라이언트 상황에 적합하지 않으며 가용성을 제한할 수 있습니다. Red Hat은 법률, 회계 또는 감사 조언을 제공하거나 서비스 또는 제품이 고객이 법률 또는 규정을 준수하도록 보장한다는 것을 보증하지 않습니다.
1.5.2. 목차
1.5.3. GDPR
general Data Protection regulations regulations (ECDHE)는 유럽 연합 ( EU)에 의해 채택되었으며 2018 년 5 월 25 일부터 적용됩니다.
1.5.3.1. #177이 중요한 이유는 무엇입니까?
hieradata는 개인의 개인 데이터를 처리하기 위해 보다 강력한 데이터 보호 규제 프레임워크를 설정합니다. iPXE는 다음을 제공합니다.
- 개인에 대한 새롭고 향상된 권한
- 개인 데이터에 대한 광범위한 정의
- 프로세서에 대한 새로운 의무
- 비준수에 대한 상당한 금융 수익의 가능성이 있습니다.
- 필수 데이터 위반 알림
1.5.3.2. journalctl에 대해 자세히 알아보기
1.5.4. journalctl에 대한 제품 구성
다음 섹션에서는 Red Hat Advanced Cluster Management for Kubernetes 플랫폼 내에서 데이터 관리의 측면을 설명하고 client에 대한 requirements 요구 사항을 지원하는 기능에 대한 정보를 제공합니다.
1.5.5. 데이터 라이프 사이클
Red Hat Advanced Cluster Management for Kubernetes는 컨테이너화된 온프레미스 애플리케이션을 개발하고 관리하기 위한 애플리케이션 플랫폼입니다. 컨테이너 오케스트레이터 Kubernetes, 클러스터 라이프사이클, 애플리케이션 라이프사이클 및 보안 프레임워크( 정부, 위험 및 규정 준수)가 포함된 컨테이너를 관리하기 위한 통합 환경입니다.
따라서 Red Hat Advanced Cluster Management for Kubernetes 플랫폼은 플랫폼 구성 및 관리와 관련된 기술 데이터를 주로 처리하며, 그 중 일부는ECDHE의 대상이 될 수 있습니다. Red Hat Advanced Cluster Management for Kubernetes 플랫폼은 플랫폼을 관리하는 사용자에 대한 정보도 처리합니다. 이 데이터는 10.0.0.1 요구 사항 충족을 담당하는 고객의 인식을 위해 이 문서 전체에 설명되어 있습니다.
이 데이터는 구성 파일이나 데이터베이스에 있는 로컬 또는 원격 파일 시스템의 플랫폼에서 유지됩니다. Kubernetes 플랫폼용 Red Hat Advanced Cluster Management에서 실행되도록 개발된 애플리케이션은 journalctl에 따라 다른 형태의 개인 데이터를 처리할 수 있습니다. 플랫폼 데이터를 보호하고 관리하는 데 사용되는 메커니즘은 플랫폼에서 실행되는 애플리케이션에서도 사용할 수 있습니다. Red Hat Advanced Cluster Management for Kubernetes 플랫폼에서 실행되는 애플리케이션에 의해 수집된 개인 데이터를 관리하고 보호하는 데 추가 메커니즘이 필요할 수 있습니다.
Kubernetes 플랫폼용 Red Hat Advanced Cluster Management 및 해당 데이터 흐름을 가장 잘 이해하려면 Kubernetes, Docker 및 Operator의 작동 방식을 이해해야 합니다. 이러한 오픈 소스 구성 요소는 Red Hat Advanced Cluster Management for Kubernetes 플랫폼의 핵심입니다. Kubernetes 배포를 사용하여 Docker 이미지를 참조하는 Operator에 빌드된 애플리케이션 인스턴스를 배치합니다. Operator에는 애플리케이션에 대한 세부 정보가 포함되어 있으며 Docker 이미지에는 애플리케이션이 실행해야 하는 모든 소프트웨어 패키지가 포함되어 있습니다.
1.5.5.1. Red Hat Advanced Cluster Management for Kubernetes 플랫폼을 통한 데이터 흐름
Red Hat Advanced Cluster Management for Kubernetes는 관리자 ID 및 암호, 서비스 사용자 ID 및 암호, IP 주소 및 Kubernetes 노드 이름과 같은 개인 데이터로 간주할 수 있는 몇 가지 기술 데이터를 다룹니다. Red Hat Advanced Cluster Management for Kubernetes 플랫폼은 플랫폼을 관리하는 사용자에 대한 정보도 처리합니다. 플랫폼에서 실행되는 애플리케이션은 플랫폼에 알 수 없는 다른 범주의 개인 데이터를 도입할 수 있습니다.
이 기술 데이터가 수집/생성, 저장, 액세스, 보안, 기록 및 삭제된 방법에 대한 정보는 이 문서의 뒷부분에서 설명합니다.
1.5.5.2. 온라인 연락처를 위해 사용되는 개인 데이터
고객은 주로 다음과 같은 다양한 방법으로 온라인 댓글/수증/요청을 제출할 수 있습니다.
- Slack 채널이 있는 경우 공개 Slack 커뮤니티
- 제품 문서에 대한 공개 댓글 또는 티켓
- <기술 커뮤니티의 대중의 대화>
일반적으로 고객 이름과 이메일 주소만 사용하여 연락처 주제의 개인 답변을 제공하며 개인 데이터 사용은 Red Hat 온라인 개인 정보 취급 방침 을 준수합니다.
1.5.6. 데이터 수집
Red Hat Advanced Cluster Management for Kubernetes 플랫폼은 민감한 개인 데이터를 수집하지 않습니다. 관리자 ID 및 암호, 서비스 사용자 ID 및 암호, IP 주소 및 Kubernetes 노드 이름과 같은 기술 데이터를 생성하고 관리하며, 이는 개인 데이터로 간주될 수 있습니다. Red Hat Advanced Cluster Management for Kubernetes 플랫폼은 플랫폼을 관리하는 사용자에 대한 정보도 처리합니다. 이러한 모든 정보는 역할 기반 액세스 제어가 있는 관리 콘솔을 통해 또는 Kubernetes 플랫폼 용 Red Hat Advanced Cluster Management for Kubernetes 플랫폼 노드에 로그인하더라도 시스템 관리자만 액세스할 수 있습니다.
Red Hat Advanced Cluster Management for Kubernetes 플랫폼에서 실행되는 애플리케이션은 개인 데이터를 수집할 수 있습니다.
컨테이너화된 애플리케이션을 실행하는 Kubernetes 플랫폼용 Red Hat Advanced Cluster Management의 사용 및 journalctl 요구 사항을 충족할 때, 다음과 같은 애플리케이션에서 수집한 개인 데이터 유형 및 해당 데이터를 관리하는 방법을 고려해야 합니다.
- 애플리케이션이 전달될 때 데이터가 어떻게 보호되고 있습니까? 전송 중에 데이터가 암호화됩니까?
- 데이터가 애플리케이션에 의해 어떻게 저장됩니까? 데이터가 유휴 상태에서 암호화됩니까?
- 수집 및 저장되는 애플리케이션에 액세스하는 데 사용되는 자격 증명은 무엇입니까?
- 애플리케이션에서 수집 및 저장된 데이터 소스에 액세스하는 데 사용하는 자격 증명은 무엇입니까?
- 필요에 따라 애플리케이션에서 수집한 데이터는 어떻게 제거됩니까?
이는 Red Hat Advanced Cluster Management for Kubernetes 플랫폼에서 수집하는 데이터 유형의 최종 목록이 아닙니다. 이는 고려해야 할 예로 제공됩니다. 데이터 유형에 대한 질문이 있는 경우 Red Hat에 문의하십시오.
1.5.7. 데이터 스토리지
Red Hat Advanced Cluster Management for Kubernetes 플랫폼은 로컬 또는 원격 파일 시스템에 구성 파일 또는 데이터베이스에 있는 상태 저장 저장소의 플랫폼 구성 및 관리와 관련된 기술 데이터를 유지합니다. 모든 데이터를 안전하게 보호해야합니다. Red Hat Advanced Cluster Management for Kubernetes 플랫폼은 dm-crypt
를 사용하는 상태 저장 저장소의 데이터 암호화를 지원합니다.
다음 항목에서는 data가 저장된 영역을 강조 표시합니다.이 항목은 10.0.0.1에 대해 고려해야 할 수 있습니다.
- 플랫폼 구성 데이터: Kubernetes 플랫폼 구성용 Red Hat Advanced Cluster Management는 일반 설정, Kubernetes, 로그, 네트워크, Docker 및 기타 설정에 대한 속성으로 구성 YAML 파일을 업데이트하여 사용자 지정할 수 있습니다. 이 데이터는 하나 이상의 노드를 배포하기 위해 Kubernetes 플랫폼 설치 관리자의 Red Hat Advanced Cluster Management로 사용됩니다. 속성에는 부트스트랩에 사용되는 관리자 ID 및 암호도 포함됩니다.
-
Kubernetes 구성 데이터: Kubernetes 클러스터 상태 데이터는 분산 키-값 저장소인
etcd
에 저장됩니다. - 사용자 ID 및 암호를 포함한 사용자 인증 데이터: 사용자 ID 및 암호 관리는 클라이언트 엔터프라이즈 LDAP 디렉터리를 통해 처리됩니다. LDAP에서 정의된 사용자 및 그룹은 Kubernetes 플랫폼 팀용 Red Hat Advanced Cluster Management에 추가하고 액세스 역할을 할당할 수 있습니다. Red Hat Advanced Cluster Management for Kubernetes 플랫폼은 LDAP의 이메일 주소와 사용자 ID를 저장하지만 암호는 저장하지 않습니다. Red Hat Advanced Cluster Management for Kubernetes 플랫폼은 그룹 이름을 저장하고 로그인하면 사용자가 속한 사용 가능한 그룹을 캐시합니다. 그룹 멤버십은 장기적인 방식으로 유지되지 않습니다. 엔터프라이즈 LDAP에 남아 있는 사용자 및 그룹 데이터 보안을 고려해야 합니다. Red Hat Advanced Cluster Management for Kubernetes 플랫폼에는 엔터프라이즈 디렉터리와 상호 작용하고 액세스 토큰을 유지보수하는 인증 서비스인 OIDC(Open ID Connect)도 포함되어 있습니다. 이 서비스는 ETCD를 백업 저장소로 사용합니다.
-
사용자 ID 및 암호를 포함한 서비스 인증 데이터: 구성 요소 간 액세스를 위해 Kubernetes 플랫폼 구성 요소에 사용되는 Red Hat Advanced Cluster Management에서 사용하는 자격 증명은 Kubernetes Secrets로 정의됩니다. 모든 Kubernetes 리소스 정의는
etcd
키-값 데이터 저장소에 유지됩니다. 초기 인증 정보 값은 플랫폼 구성 데이터에 Kubernetes Secret 구성 YAML 파일로 정의됩니다. 자세한 내용은 Kubernetes 문서의 시크릿 을 참조하십시오.
1.5.8. 데이터 액세스
Kubernetes 플랫폼용 Red Hat Advanced Cluster Management 데이터는 다음과 같은 정의된 제품 인터페이스를 통해 액세스할 수 있습니다.
- 웹 사용자 인터페이스( 콘솔)
-
Kubernetes
kubectl
CLI - Red Hat Advanced Cluster Management for Kubernetes CLI
- oc CLI
이러한 인터페이스는 Red Hat Advanced Cluster Management for Kubernetes 클러스터를 관리할 수 있도록 설계되었습니다. Red Hat Advanced Cluster Management for Kubernetes에 대한 관리 액세스는 안전하게 보호할 수 있으며 요청이 수행될 때 세 가지 논리, 즉 인증, 역할 매핑 및 권한 부여가 수행됩니다.
1.5.8.1. 인증
Red Hat Advanced Cluster Management for Kubernetes 플랫폼 인증 관리자는 콘솔에서 사용자 자격 증명을 수락하고 인증 정보를 백엔드 OIDC 공급자로 전달합니다. 이 공급자는 엔터프라이즈 디렉터리에 대한 사용자 자격 증명을 검증합니다. 그러면 OIDC 공급자는 JSON 웹 토큰(JWT
)의 콘텐츠와 함께 인증 관리자에 대한 인증 쿠키(auth-cookie
)를 반환합니다. JWT 토큰은 인증 요청 시 그룹 멤버십 외에도 사용자 ID 및 이메일 주소와 같은 정보를 유지합니다. 이 인증 쿠키는 다시 콘솔로 전송됩니다. 세션 중에 쿠키가 새로 고쳐집니다. 콘솔에서 로그아웃하거나 웹 브라우저를 종료한 후 12시간 동안 유효합니다.
콘솔에서 생성된 모든 후속 인증 요청에 대해 프런트 엔드 NGINX 서버는 요청에서 사용 가능한 인증 쿠키를 디코딩하고 인증 관리자를 호출하여 요청의 유효성을 검사합니다.
Red Hat Advanced Cluster Management for Kubernetes 플랫폼 CLI에서 로그인할 자격 증명을 제공해야 합니다.
kubectl
및 oc
CLI에는 클러스터에 액세스하기 위해 인증 정보가 필요합니다. 이러한 인증 정보는 관리 콘솔에서 얻을 수 있으며 12시간 후에 만료됩니다. 서비스 계정을 통한 액세스가 지원됩니다.
1.5.8.2. 역할 매핑
Red Hat Advanced Cluster Management for Kubernetes 플랫폼은 RBAC(역할 기반 액세스 제어)를 지원합니다. 역할 매핑 단계에서 인증 단계에서 제공되는 사용자 이름은 사용자 또는 그룹 역할에 매핑됩니다. 역할은 인증된 사용자가 수행할 수 있는 관리 활동을 승인할 때 사용됩니다.
1.5.8.3. 권한 부여
Red Hat Advanced Cluster Management for Kubernetes 플랫폼 역할은 클러스터 구성 작업, 카탈로그 및 Helm 리소스, Kubernetes 리소스에 대한 액세스를 제어합니다. Cluster Administrator, Administrator, Operator, Editor, Viewer를 포함한 여러 IAM(Identity and Access Management) 역할이 제공됩니다. 팀에 추가할 때 역할이 사용자 또는 사용자 그룹에 할당됩니다. 리소스에 대한 팀 액세스는 네임스페이스를 통해 제어할 수 있습니다.
1.5.8.4. Pod 보안
Pod 보안 정책은 Pod에서 수행할 수 있는 작업 또는 액세스할 수 있는 작업에 대한 클러스터 수준 제어를 설정하는 데 사용됩니다.
1.5.9. 데이터 처리
Kubernetes용 Red Hat Advanced Cluster Management 사용자는 시스템 구성을 통해 구성 및 관리와 관련된 기술 데이터를 처리하고 보호하는 방식을 제어할 수 있습니다.
RBAC( 역할 기반 액세스 제어 )는 사용자가 액세스할 수 있는 데이터 및 기능을 제어합니다.
Data-in-transit 은 TLS
를 사용하여 보호됩니다. HTTPS
(TLS
기본)는 사용자 클라이언트와 백엔드 서비스 간의 보안 데이터 전송에 사용됩니다. 사용자는 설치 중에 사용할 루트 인증서를 지정할 수 있습니다.
data-at-rest 보호는 dm-crypt
를 사용하여 데이터를 암호화하는 방식으로 지원됩니다.
Kubernetes 플랫폼용 Red Hat Advanced Cluster Management for Kubernetes 플랫폼 기술 데이터를 관리하고 보호하는 데 사용되는 동일한 플랫폼 메커니즘을 사용하여 사용자 개발 또는 사용자 제공 애플리케이션의 개인 데이터를 관리하고 보호할 수 있습니다. 클라이언트는 추가 제어를 구현하기 위해 자체 기능을 개발할 수 있습니다.
1.5.10. 데이터 삭제
Red Hat Advanced Cluster Management for Kubernetes 플랫폼은 명령으로 생성되거나 제품에 의해 수집된 데이터를 삭제하기 위한 명령, API(애플리케이션 프로그래밍 인터페이스) 및 사용자 인터페이스 작업을 제공합니다. 이러한 기능을 통해 사용자는 서비스 사용자 ID 및 암호, IP 주소, Kubernetes 노드 이름 또는 기타 플랫폼 구성 데이터와 같은 기술 데이터를 삭제할 수 있습니다.
데이터 삭제 지원을 위해 고려해야 할 Kubernetes 플랫폼용 Red Hat Advanced Cluster Management 영역:
-
플랫폼 구성과 관련된 모든 기술 데이터는 관리 콘솔 또는 Kubernetes
kubectl
API를 통해 삭제할 수 있습니다.
계정 데이터 삭제 지원을 위해 고려해야 할 Red Hat Advanced Cluster Management for Kubernetes 플랫폼 영역입니다.
-
플랫폼 구성과 관련된 모든 기술 데이터는 Kubernetes용 Red Hat Advanced Cluster Management 또는 Kubernetes
kubectl
API를 통해 삭제할 수 있습니다.
엔터프라이즈 LDAP 디렉터리를 통해 관리되는 사용자 ID 및 암호 데이터를 제거하는 기능은 Kubernetes용 Red Hat Advanced Cluster Management와 함께 사용되는 LDAP 제품에서 제공합니다.
1.5.11. 개인 정보의 사용을 제한할 수 있는 기능
이 문서에 요약된 기능을 사용하여 Red Hat Advanced Cluster Management for Kubernetes 플랫폼을 사용하면 최종 사용자가 개인 데이터로 간주되는 플랫폼 내의 모든 기술 데이터 사용을 제한할 수 있습니다.
journalctl에 따라 사용자는 처리에 액세스, 수정 및 제한할 수 있는 권한이 있습니다. 다음을 제어하려면 이 문서의 다른 섹션을 참조하십시오.
액세스 권한
- Red Hat Advanced Cluster Management for Kubernetes 플랫폼 관리자는 Kubernetes 플랫폼용 Red Hat Advanced Cluster Management 기능을 사용하여 개인 데이터에 액세스할 수 있습니다.
- Red Hat Advanced Cluster Management for Kubernetes 플랫폼 관리자는 Red Hat Advanced Cluster Management for Kubernetes 플랫폼 기능을 사용하여 Red Hat Advanced Cluster Management for Kubernetes 플랫폼의 개별 데이터에 대한 개인 정보를 제공할 수 있습니다.
변경할 수 있는 권한
- Red Hat Advanced Cluster Management for Kubernetes 플랫폼 관리자는 Kubernetes 플랫폼용 Red Hat Advanced Cluster Management 기능을 사용하여 사용자가 데이터를 수정하거나 수정할 수 있습니다.
- Red Hat Advanced Cluster Management for Kubernetes 플랫폼 관리자는 Kubernetes 플랫폼용 Red Hat Advanced Cluster Management 기능을 사용하여 개인의 데이터를 수정할 수 있습니다.
처리를 제한할 수 있는 권한
- Red Hat Advanced Cluster Management for Kubernetes 플랫폼 관리자는 Kubernetes 플랫폼용 Red Hat Advanced Cluster Management 기능을 사용하여 개인의 데이터 처리를 중지할 수 있습니다.
1.5.12. 부록
Red Hat Advanced Cluster Management for Kubernetes는 관리자 ID 및 암호, 서비스 사용자 ID 및 암호, IP 주소 및 Kubernetes 노드 이름과 같은 개인 데이터로 간주할 수 있는 몇 가지 기술 데이터를 다룹니다. Red Hat Advanced Cluster Management for Kubernetes 플랫폼은 플랫폼을 관리하는 사용자에 대한 정보도 처리합니다. 플랫폼에서 실행되는 애플리케이션은 플랫폼에 알 수 없는 다른 범주의 개인 데이터를 도입할 수 있습니다.
이 부록에는 플랫폼 서비스에서 기록한 데이터에 대한 세부 정보가 포함되어 있습니다.
1.6. FIPS 준비
Red Hat Advanced Cluster Management for Kubernetes를 위한 FIPS 준비 완료 Red Hat Advanced Cluster Management는 동일한 도구를 사용하여 암호화 호출이 Red Hat OpenShift Container Platform에서 사용하는 RHEL(Red Hat Enterprise Linux) 인증 암호화 모듈에 전달되도록 합니다. OpenShift FIPS 지원에 대한 자세한 내용은 FIPS 암호화 지원을 참조하십시오.
1.6.1. 제한
Red Hat Advanced Cluster Management 및 FIPS를 통해 다음과 같은 제한 사항을 확인하십시오.
-
Red Hat OpenShift Container Platform은
x86_64
아키텍처에서만 FIPS를 지원합니다. - 검색 및 관찰 기능 구성 요소에서 사용하는 PVC(영구 볼륨 클레임) 및 S3 스토리지는 제공된 스토리지를 구성할 때 암호화해야 합니다. Red Hat Advanced Cluster Management는 스토리지 암호화를 제공하지 않으며 OpenShift Container Platform 설명서, FIPS 암호화 지원을 참조하십시오.
Red Hat Advanced Cluster Management 콘솔을 사용하여 관리형 클러스터를 프로비저닝하는 경우 관리형 클러스터 생성의 Cluster details 섹션에서 다음 확인란을 선택하여 FIPS 표준을 활성화합니다.
FIPS with information text: Use the Federal Information Processing Standards (FIPS) modules provided with Red Hat Enterprise Linux CoreOS instead of the default Kubernetes cryptography suite file before you deploy the new managed cluster.