검색

1.3. 새로운 기능 및 개선 사항

download PDF

이 릴리스에는 다음 구성 요소 및 개념과 관련된 개선 사항이 추가되었습니다.

1.3.1. RHCOS(Red Hat Enterprise Linux CoreOS)

1.3.1.1. RHCOS에서 RHEL 9.4 사용

RHCOS는 OpenShift Container Platform 4.16에서 RHEL (Red Hat Enterprise Linux) 9.4 패키지를 사용합니다. 이러한 패키지를 사용하면 OpenShift Container Platform 인스턴스에 최신 수정 사항, 기능, 개선 사항, 하드웨어 지원 및 드라이버 업데이트가 제공됩니다. EUS (Extended Update Support) 릴리스로 OpenShift Container Platform 4.14는 이러한 변경 사항에서 제외되며 전체 라이프 사이클 동안 RHEL 9.2 EUS 패키지를 계속 사용합니다.

1.3.1.2. iSCSI 부팅 볼륨 지원

이번 릴리스에서는 RHCOS를 iSCSI(Small Computer Systems Interface) 부팅 장치에 설치할 수 있습니다. iSCSI의 다중 경로도 지원됩니다. 자세한 내용은 iSCSI 부팅 장치에 수동으로 RHCOS 설치및 iBFT를 사용하여 iSCSI 부팅 장치에 RHCOS 설치를 참조하십시오.

1.3.1.3. CPU (VROC)에서 Intel® Virtual RAID를 사용하여 RAID 스토리지 지원

이번 릴리스에서는 Intel® VROC RAID 장치에 RHCOS를 설치할 수 있습니다. Intel® VROC 장치로 RAID를 구성하는 방법에 대한 자세한 내용은 VROC (CPU에서 Intel® Virtual RAID on CPU) 데이터 볼륨 구성 을 참조하십시오.

1.3.2. 설치 및 업데이트

1.3.2.1. 클러스터 API에서 AWS 설치를 위한 Terraform을 대체합니다.

OpenShift Container Platform 4.16에서 설치 프로그램은 Terraform 대신 Cluster API를 사용하여 Amazon Web Services에 설치하는 동안 클러스터 인프라를 프로비저닝합니다. 이러한 변경으로 인해 필요한 몇 가지 추가 권한이 있습니다. 자세한 내용은 IAM 사용자에 대한 필수 AWS 권한을 참조하십시오.

또한 컨트롤 플레인 및 컴퓨팅 시스템에 대한 SSH 액세스는 더 이상 시스템 네트워크에 열려 있지 않지만 컨트롤 플레인 및 컴퓨팅 시스템과 연결된 보안 그룹으로 제한됩니다.

주의

클러스터 API 구현을 사용하여 시크릿 또는 최상위 시크릿 리전에 AWS(Amazon Web Services)의 클러스터를 OpenShift Container Platform 4.16 릴리스부터 테스트하지 않았습니다. 이 문서는 시크릿 리전에 설치할 때 업데이트됩니다. 시크릿 또는 최상위 시크릿 리전의 보안 그룹에 대한 Network Load Balancer 지원에서 이로 인해 설치에 실패하는 알려진 문제가 있습니다. 자세한 내용은 OCPBUGS-33311 을 참조하십시오.

1.3.2.2. Cluster API는 VMware vSphere 설치를 위한 Terraform을 대체합니다.

OpenShift Container Platform 4.16에서 설치 프로그램은 Terraform 대신 Cluster API를 사용하여 VMware vSphere에 설치하는 동안 클러스터 인프라를 프로비저닝합니다.

1.3.2.3. Cluster API는 Nutanix 설치의 Terraform을 대체합니다.

OpenShift Container Platform 4.16에서 설치 프로그램은 Terraform 대신 Cluster API를 사용하여 Nutanix에 설치하는 동안 클러스터 인프라를 프로비저닝합니다.

1.3.2.4. Cluster API는 GCP(Google Cloud Platform) 설치의 Terraform을 대체 (기술 프리뷰)

OpenShift Container Platform 4.16에서 설치 프로그램은 Terraform 대신 Cluster API를 사용하여 GCP에 설치하는 동안 클러스터 인프라를 프로비저닝합니다. 이 기능은 OpenShift Container Platform 4.16에서 기술 프리뷰로 사용할 수 있습니다. 기술 프리뷰 기능을 활성화하려면 설치 전에 install-config.yaml 파일에서 featureSet: TechPreviewNoUpgrade 매개변수를 설정합니다. 또는 다른 기술 프리뷰 기능 없이 클러스터 API 설치를 활성화하려면 설치 전에 install-config.yaml 파일에 다음 스탠자를 추가합니다.

featureSet: CustomNoUpgrade
featureGates:
- ClusterAPIInstall=true

자세한 내용은 선택적 구성 매개변수를 참조하십시오.

1.3.2.5. Ingress 기능

Ingress 기능은 구성 가능한 클러스터 기능이며 Red Hat HyperShift의 경우 선택 사항입니다. 구성할 수 없으며 독립 실행형 OpenShift Container Platform에 대해 항상 활성화됩니다.

주의

Ingress 기능을 비활성화하지 마십시오. OpenShift Container Platform 클러스터는 Ingress 기능이 비활성화된 상태에서 실행되지 않습니다.

1.3.2.6. 지원 설치 관리자를 사용하여 Alibaba Cloud에 설치 (기술 프리뷰)

이번 릴리스에서는 OpenShift Container Platform 설치 프로그램에서 더 이상 Alibaba Cloud 플랫폼에서 설치 관리자 프로비저닝 설치를 지원하지 않습니다. 현재 기술 프리뷰 기능인 지원 설치 관리자를 사용하여 Alibaba Cloud에 클러스터를 설치할 수 있습니다. 자세한 내용은 Alibaba 클라우드에 설치를 참조하십시오.

1.3.2.7. 선택적 클라우드 컨트롤러 관리자 클러스터 기능

OpenShift Container Platform 4.16에서는 설치 중에 클라우드 컨트롤러 관리자 기능을 비활성화할 수 있습니다. 자세한 내용은 클라우드 컨트롤러 관리자 기능을 참조하십시오.

1.3.2.8. OpenShift Container Platform 4.16의 FIPS 설치 요구 사항

이번 업데이트를 통해 FIPS 지원 클러스터를 설치하는 경우 FIPS 모드에서 작동하도록 구성된 RHEL 9 컴퓨터에서 설치 프로그램을 실행해야 하며 FIPS 가능 버전의 설치 프로그램을 사용해야 합니다. 자세한 내용은 FIPS 암호화 지원을 참조하십시오.

1.3.2.9. VMware vSphere의 선택적 추가 태그

OpenShift Container Platform 4.16에서는 VMware vSphere 클러스터에서 프로비저닝한 VM(가상 머신)에 연결할 최대 10개의 태그를 추가할 수 있습니다. 이러한 태그는 클러스터가 해제될 때 설치 프로그램에서 관련 VM을 식별하고 제거하는 데 사용하는 고유한 클러스터별 태그에 추가됩니다.

클러스터를 생성하는 동안 install-config.yaml 파일에서 VMware vSphere VM에 태그를 정의할 수 있습니다. 자세한 내용은 설치 관리자 프로비저닝 VMware vSphere 클러스터의 샘플 install-config.yaml 파일을 참조하십시오.

머신 세트를 사용하여 기존 클러스터에서 컴퓨팅 또는 컨트롤 플레인 시스템에 대한 태그를 정의할 수 있습니다. 자세한 내용은 컴퓨팅 또는 컨트롤 플레인 머신 세트의 "머신 세트를 사용하여 머신에 태그 추가"를 참조하십시오.

1.3.2.10. OpenShift Container Platform 4.15에서 4.16으로 업데이트할 때 관리자 승인 필요

OpenShift Container Platform 4.16에서는 더 이상 사용되지 않는 몇 가지 API를 제거한 Kubernetes 1.29를 사용합니다.

클러스터 관리자는 OpenShift Container Platform 4.15에서 4.16으로 클러스터를 업데이트하기 전에 수동 승인을 제공해야 합니다. 이는 OpenShift Container Platform 4.16으로 업데이트한 후에도 문제를 방지하기 위한 것입니다. 여기서 제거된 API는 클러스터에서 실행되거나 클러스터와 상호 작용하는 워크로드, 툴 또는 기타 구성 요소에서 계속 사용되고 있습니다. 관리자는 제거될 모든 API에 대해 클러스터를 평가하고 영향을 받는 구성 요소를 마이그레이션하여 적절한 새 API 버전을 사용해야 합니다. 이 작업이 완료되면 관리자는 관리자 승인을 제공할 수 있습니다.

모든 OpenShift Container Platform 4.15 클러스터에는 OpenShift Container Platform 4.16으로 업데이트하기 전에 이 관리자의 승인이 필요합니다.

자세한 내용은 OpenShift Container Platform 4.16으로 업데이트 준비를 참조하십시오.

1.3.2.11. console에 kubeadmin 암호가 표시되지 않도록 보호

이번 릴리스에서는 클러스터 생성 중에 --skip-password-print 플래그를 사용하여 설치 후 kubeadmin 암호가 콘솔에 표시되지 않도록 할 수 있습니다. 암호는 auth 디렉터리에서 액세스할 수 있습니다.

1.3.2.12. OpenShift 기반 어플라이언스 빌더(기술 프리뷰)

이번 릴리스에서는 OpenShift 기반 어플라이언스 빌더를 기술 프리뷰 기능으로 사용할 수 있습니다. 어플라이언스 빌더는 자체 포함 OpenShift Container Platform 클러스터 설치를 활성화합니다. 즉 인터넷 연결 또는 외부 레지스트리를 사용하지 않습니다. 에이전트 기반 설치 프로그램이 포함된 디스크 이미지를 빌드하는 컨테이너 기반 유틸리티로, 여러 OpenShift Container Platform 클러스터를 설치하는 데 사용할 수 있습니다.

자세한 내용은 OpenShift 기반 어플라이언스 빌더 사용자 가이드를 참조하십시오.

1.3.2.13. AWS에 설치할 수 있도록 자체 IPv4(BYOIP) 기능을 가져옵니다.

이번 릴리스에서는 publicIpv4Pool 필드를 사용하여 EIP(Elastic IP 주소)를 할당하여 AWS(Amazon Web Services)에 설치할 때 자체 공용 IPv4 주소(BYOIP) 기능을 활성화할 수 있습니다. BYOIP를 활성화하는 데 필요한 권한이 있는지 확인해야 합니다. 자세한 내용은 선택적 AWS 구성 매개변수를 참조하십시오.

1.3.2.14. 조하네스버그 (Saudi Arabia) 및 조하네스버그 (South Africa) 리전에 GCP 배포

OpenShift Container Platform 4.16을 GCP(Google Cloud Platform), 사우디 아라비아 (me-central2) 리전 및 Johannesberg, South Africa (africa-south1) 리전에 배포할 수 있습니다. 자세한 내용은 지원되는 GCP 리전 을 참조하십시오.

1.3.2.15. GCP(Google Cloud Platform)에 NVIDIA H100 인스턴스 유형에 설치

이번 릴리스에서는 GCP에 클러스터를 설치할 때 GPU 지원 NVIDIA H100 시스템에 컴퓨팅 노드를 배포할 수 있습니다. 자세한 내용은 액셀러레이터 최적화 머신 제품군에 대한 GCP 및 Google의 인스턴스 유형 테스트를 참조하십시오.

1.3.3. 설치 후 구성

1.3.3.1. Multiarch Tuning Operator를 사용하여 다중 아키텍처 클러스터에서 워크로드 관리 (기술 프리뷰)

이번 릴리스에서는 Multiarch Tuning Operator를 사용하여 다중 아키텍처 클러스터에서 워크로드를 관리할 수 있습니다. 이 Operator는 다중 아키텍처 클러스터 및 다중 아키텍처 컴퓨팅 구성으로 마이그레이션하는 단일 아키텍처 클러스터 내에서 운영 환경을 향상시킵니다. 아키텍처 인식 워크로드 스케줄링을 지원하기 위해 ClusterPodPlacementConfig CR(사용자 정의 리소스)을 구현합니다.

자세한 내용은 Multiarch Tuning Operator를 사용하여 다중 아키텍처 클러스터에서 워크로드 관리를 참조하십시오.

중요

Multiarch Tuning Operator는 기술 프리뷰 기능 전용입니다. 제한된 네트워크 시나리오가 있는 클러스터를 지원하지 않습니다.

1.3.3.2. 64비트 ARM 컨트롤 플레인 시스템이 있는 클러스터에 64비트 x86 컴퓨팅 시스템 추가 지원

이 기능은 64비트 ARM 컨트롤 플레인 시스템이 있는 다중 아키텍처 클러스터에 64비트 x86 컴퓨팅 머신을 추가할 수 있도록 지원합니다. 이번 릴리스에서는 64비트 ARM 컨트롤 플레인 시스템을 사용하는 클러스터에 64비트 x86 컴퓨팅 머신을 추가할 수 있으며 이미 64비트 ARM 컴퓨팅 머신이 포함되어 있습니다.

1.3.3.3. 멀티 페이로드를 사용하여 에이전트 기반 설치 관리자 클러스터 설치 지원

이 기능은 다중 페이로드를 사용하여 에이전트 기반 설치 관리자 클러스터를 설치할 수 있도록 지원합니다. 멀티 페이로드를 사용하여 에이전트 기반 설치 관리자 클러스터를 설치한 후 다른 아키텍처가 있는 컴퓨팅 머신을 클러스터에 추가할 수 있습니다.

1.3.4. 웹 콘솔

1.3.4.1. 프랑스어 및 스페인어에 대한 언어 지원

이번 릴리스에서는 웹 콘솔에서 프랑스어 및 스페인어가 지원됩니다. 사용자 환경 설정 페이지의 언어 목록에서 웹 콘솔의 언어 를 업데이트할 수 있습니다.

1.3.4.2. PatternFly 4는 4.16에서 더 이상 사용되지 않습니다.

이번 릴리스에서는 웹 콘솔에서 Patternfly 4 및 React Router 5가 더 이상 사용되지 않습니다. 모든 플러그인은 가능한 한 빨리 Patternfly 5 및 React Router 6로 마이그레이션해야합니다.

1.3.4.3. 관리자 화면

이번 릴리스에서는 웹 콘솔의 관리자 화면에 다음 업데이트가 도입되었습니다.

  • OperatorHub의 인프라 기능 필터에 GCP(Google Cloud Platform) 토큰 인증, 인증 토큰 GCP구성 가능한 TLS 암호화 필터가 추가되었습니다.
  • system:admin 사용자를칭하는 새로운 퀵 스타트는 system:admin 사용자 가장에 대한 정보와 함께 사용할 수 있습니다.
  • 이제 Pod의 마지막 종료 상태를 컨테이너 목록 및 컨테이너 세부 정보 페이지에서 확인할 수 있습니다.
  • 적절한 RoleBinding 을 검색하지 않고도 그룹 및 그룹 세부 정보 페이지에서 Im personate Group 작업을 사용할 수 있습니다.
1.3.4.3.1. OpenShift Container Platform 웹 콘솔의 노드 CSR 처리

이번 릴리스에서는 OpenShift Container Platform 웹 콘솔에서 CSR(노드 인증서 서명 요청)을 지원합니다.

1.3.4.3.2. 교차 스토리지 클래스 복제 및 복원

이번 릴리스에서는 복제 또는 복원 작업을 완료할 때 동일한 공급자에서 스토리지 클래스를 선택할 수 있습니다. 이러한 유연성을 통해 다양한 복제본 수가 있는 스토리지 클래스 간에 원활한 전환을 수행할 수 있습니다. 예를 들어 복제본이 3개인 스토리지 클래스에서 2/1 복제본으로 이동합니다.

1.3.4.4. 개발자 화면

이번 릴리스에서는 웹 콘솔의 개발자 화면에 다음과 같은 업데이트가 도입되었습니다.

  • 검색할 때 검색 페이지의 리소스 목록에 새 섹션이 추가되어 최근 검색한 항목을 검색한 순서대로 표시했습니다.
  • 이번 릴리스에서는 시작하기 섹션을 축소하고 확장할 수 있습니다.
1.3.4.4.1. 콘솔 Telemetry

이번 릴리스에서는 클러스터 Telemetry도 활성화된 경우 익명화된 사용자 분석이 활성화되었습니다. 이는 대부분의 클러스터의 기본값이며 웹 콘솔 사용 방법에 대한 메트릭을 Red Hat에 제공합니다. 클러스터 관리자는 각 클러스터에서 이 값을 업데이트하고, 옵트인, 옵트아웃 또는 프런트 엔드 Telemetry를 비활성화할 수 있습니다.

1.3.5. OpenShift CLI(oc)

1.3.5.1. oc-mirror 플러그인 v2 (기술 프리뷰)

OpenShift Container Platform용 oc-mirror 플러그인 v2에는 Operator 이미지 및 기타 OpenShift Container Platform 콘텐츠의 미러링 프로세스를 개선하는 새로운 기능 및 기능이 포함되어 있습니다.

다음은 oc-mirror 플러그인 v2의 주요 개선 사항 및 기능입니다.

  • IDMS 및 ITMS 오브젝트 자동 생성:

    oc-mirror 플러그인 v2는 각 실행 후 ImageDigestMirrorSet (IDMS) 및 ImageTagMirrorSet (ITMS) 오브젝트의 포괄적인 목록을 자동으로 생성합니다. 이러한 오브젝트는 oc-mirror 플러그인 v1에 사용된 ICSP( ImageContentSourcePolicy )를 대체합니다. 이번 개선된 기능을 통해 Operator 이미지를 수동으로 병합하고 정리할 필요가 없으며 필요한 모든 이미지가 포함되어 있는지 확인합니다.

  • CatalogSource 오브젝트:

    이제 플러그인이 모든 관련 카탈로그 인덱스에 대한 CatalogSource 오브젝트를 생성하여 oc-mirror의 출력 아티팩트를 연결이 끊긴 클러스터에 적용합니다.

  • 향상된 검증:

    oc-mirror 플러그인 v2는 이미지가 이전에 미러링되었는지 여부와 관계없이 이미지 세트 구성에 지정된 전체 이미지 세트가 레지스트리에 미러링되었는지 확인합니다. 이를 통해 포괄적이고 신뢰할 수 있는 미러링이 보장됩니다.

  • 캐시 시스템:

    새 캐시 시스템은 새 이미지만 아카이브에 통합하여 최소한의 아카이브 크기를 유지 관리하는 메타데이터를 대체합니다. 이를 통해 스토리지를 최적화하고 성능을 향상시킵니다.

  • 날짜별 선택적 미러링:

    사용자는 이제 미러링 날짜를 기반으로 미러링 아카이브를 생성할 수 있으므로 새 이미지를 선택적으로 포함할 수 있습니다.

  • 향상된 이미지 삭제 제어:

    삭제 기능이 도입되어 자동 정리가 교체되어 사용자에게 이미지 삭제를 보다 효과적으로 제어할 수 있습니다.

  • registries.conf지원:

    oc-mirror 플러그인 v2는 동일한 캐시를 사용하여 여러 개의 빈으로 미러링할 수 있는 registries.conf 파일을 지원합니다. 이렇게 하면 미러링된 이미지 관리의 유연성과 효율성이 향상됩니다.

  • Operator 버전 필터링:

    사용자는 번들 이름으로 Operator 버전을 필터링하여 미러링 프로세스에 포함된 버전을 보다 정확하게 제어할 수 있습니다.

oc-mirror v1 및 v2 간 차이점

oc-mirror 플러그인 v2는 다양한 개선 사항을 제공하지만 oc-mirror 플러그인 v1의 일부 기능은 아직 oc-mirror 플러그인 v2에 존재하지 않습니다.

  • Helm 차트: oc-mirror 플러그인 v2에는 Helm 차트가 없습니다.
  • ImageSetConfig v1alpha2: API 버전 v1alpha2 를 사용할 수 없으며 사용자가 v2alpha1 로 업데이트해야 합니다.
  • 스토리지 메타데이터(storageConfig): oc-mirror 플러그인 v2 ImageSetConfiguration 에서는 스토리지 메타데이터가 사용되지 않습니다.
  • 자동 정리: oc-mirror 플러그인 v2의 새 삭제 기능으로 교체되었습니다.
  • 릴리스 서명: oc-mirror 플러그인 v2에서는 릴리스 서명이 생성되지 않습니다.
  • 일부 명령: init,list, describe 명령은 oc-mirror 플러그인 v2에서 사용할 수 없습니다.

oc-mirror 플러그인 v2 사용

oc-mirror 플러그인 v2를 사용하려면 oc-mirror 명령줄에 --v2 플래그를 추가합니다.

oc-mirror OpenShift CLI(oc) 플러그인은 필요한 모든 OpenShift Container Platform 콘텐츠 및 기타 이미지를 미러 레지스트리에 미러링하여 연결이 끊긴 클러스터의 유지 관리를 단순화하는 데 사용됩니다.

1.3.5.2. oc adm upgrade status 명령 소개 (기술 프리뷰)

이전에는 oc adm upgrade 명령에서 클러스터 업데이트 상태에 대한 제한된 정보를 제공했습니다. 이번 릴리스에서는 oc adm upgrade 명령에서 상태 정보를 분리하고 컨트롤 플레인 및 작업자 노드 업데이트를 포함하여 클러스터 업데이트에 대한 특정 정보를 제공하는 oc adm upgrade status 명령이 추가되었습니다.

1.3.5.3. 중복 리소스 단축 이름에 대한 경고

이번 릴리스에서는 짧은 이름을 사용하여 리소스를 쿼리하면 OpenShift CLI(oc)에서 클러스터에 동일한 이름의 CRD(사용자 정의 리소스 정의)가 두 개 이상 있는 경우 경고를 반환합니다.

warning 예

Warning: short name "ex" could also match lower priority resource examples.test.com

1.3.5.4. 리소스를 삭제할 때 확인이 필요한 새 플래그 (기술 프리뷰)

이번 릴리스에서는 oc delete 명령에 새로운 --interactive 플래그가 도입되었습니다. --interactive 플래그가 true 로 설정되면 사용자가 삭제를 확인하는 경우에만 리소스가 삭제됩니다. 이 플래그는 기술 프리뷰 기능으로 사용할 수 있습니다.

1.3.6. IBM Z 및 IBM LinuxONE

이번 릴리스에서 IBM Z® 및 IBM® LinuxONE은 이제 OpenShift Container Platform 4.16과 호환됩니다. z/VM, LPAR 또는 RHEL(Red Hat Enterprise Linux) KVM(커널 기반 가상 시스템)을 사용하여 설치를 수행할 수 있습니다. 설치 지침은 IBM Z 및 IBM LinuxONE에 설치 준비를 참조하십시오.

중요

컴퓨팅 노드는 RHCOS(Red Hat Enterprise Linux CoreOS)를 실행해야 합니다.

IBM Z 및 IBM LinuxONE 주요 개선 사항

OpenShift Container Platform 4.16의 IBM Z® 및 IBM® LinuxONE 릴리스는 OpenShift Container Platform 구성 요소 및 개념에 향상된 기능과 새로운 기능을 추가합니다.

이번 릴리스에서는 IBM Z® 및 IBM® LinuxONE에서 다음 기능을 지원합니다.

  • RHEL KVM용 에이전트 기반 설치 관리자 ISO 부팅
  • Ingress 노드 방화벽 Operator
  • LPAR의 다중 아키텍처 컴퓨팅 머신
  • z/VM 및 LPAR용 보안 부팅

1.3.7. IBM Power

IBM Power®는 이제 OpenShift Container Platform 4.16과 호환됩니다. 설치 지침은 다음 설명서를 참조하십시오.

중요

컴퓨팅 노드는 RHCOS(Red Hat Enterprise Linux CoreOS)를 실행해야 합니다.

IBM Power 주요 개선 사항

OpenShift Container Platform 4.16의 IBM Power® 릴리스는 OpenShift Container Platform 구성 요소에 개선 사항 및 새로운 기능을 추가합니다.

이번 릴리스에서는 IBM Power®에서 다음 기능을 지원합니다.

  • CPU 관리자
  • Ingress 노드 방화벽 Operator

IBM Power, IBM Z 및 IBM LinuxONE 지원 매트릭스

OpenShift Container Platform 4.14부터 EUS (Extended Update Support)는 IBM Power® 및 IBM Z® 플랫폼으로 확장됩니다. 자세한 내용은 OpenShift EUS 개요 를 참조하십시오.

표 1.1. OpenShift Container Platform 기능
기능IBM Power®IBM Z® 및 IBM® LinuxONE

대체 인증 공급자

지원됨

지원됨

에이전트 기반 설치 관리자

지원됨

지원됨

지원되는 설치 관리자

지원됨

지원됨

로컬 스토리지 Operator를 통한 자동 장치 검색

지원되지 않음

지원됨

시스템 상태 점검으로 손상된 시스템 자동 복구

지원되지 않음

지원되지 않음

IBM Cloud®용 클라우드 컨트롤러 관리자

지원됨

지원되지 않음

노드에서 오버 커밋 제어 및 컨테이너 밀도 관리

지원되지 않음

지원되지 않음

Cron 작업

지원됨

지원됨

Descheduler

지원됨

지원됨

송신 IP

지원됨

지원됨

etcd에 저장된 데이터 암호화

지원됨

지원됨

FIPS 암호화

지원됨

지원됨

Helm

지원됨

지원됨

수평 Pod 자동 스케일링

지원됨

지원됨

호스팅된 컨트롤 플레인(기술 프리뷰)

지원됨

지원됨

IBM Secure Execution

지원되지 않음

지원됨

IBM Power® Virtual Server용 설치 관리자 프로비저닝 인프라 활성화

지원됨

지원되지 않음

단일 노드에 설치

지원됨

지원됨

IPv6

지원됨

지원됨

사용자 정의 프로젝트 모니터링

지원됨

지원됨

다중 아키텍처 컴퓨팅 노드

지원됨

지원됨

다중 아키텍처 컨트롤 플레인

지원됨

지원됨

다중 경로

지원됨

지원됨

network-Bound 디스크 암호화 - 외부 Tang 서버

지원됨

지원됨

NVMe(Non-volatile Memory express drives)

지원됨

지원되지 않음

NX-gzip for Power10 (Hardware Acceleration)

지원됨

지원되지 않음

oc-mirror 플러그인

지원됨

지원됨

OpenShift CLI (oc) plugins

지원됨

지원됨

Operator API

지원됨

지원됨

OpenShift Virtualization

지원되지 않음

지원되지 않음

IPsec 암호화를 포함한 OVN-Kubernetes

지원됨

지원됨

PodDisruptionBudget

지원됨

지원됨

PTP(Precision Time Protocol) 하드웨어

지원되지 않음

지원되지 않음

Red Hat OpenShift Local

지원되지 않음

지원되지 않음

스케줄러 프로파일

지원됨

지원됨

Secure Boot

지원되지 않음

지원됨

SCTP(스트림 제어 전송 프로토콜)

지원됨

지원됨

다중 네트워크 인터페이스 지원

지원됨

지원됨

IBM Power® (Hardware Acceleration)에서 다양한 SMT 수준을 지원하는 openshift-install 유틸리티

지원됨

지원됨

3-노드 클러스터 지원

지원됨

지원됨

토폴로지 관리자

지원됨

지원되지 않음

SCSI 디스크의 z/VM Emulated FBA 장치

지원되지 않음

지원됨

4K FCP 블록 장치

지원됨

지원됨

표 1.2. 영구 스토리지 옵션
기능IBM Power®IBM Z® 및 IBM® LinuxONE

iSCSI를 사용하는 영구 스토리지

지원됨 [1]

지원됨 [1],[2]

로컬 볼륨(LSO)을 사용하는 영구 스토리지

지원됨 [1]

지원됨 [1],[2]

hostPath를 사용하는 영구 스토리지

지원됨 [1]

지원됨 [1],[2]

파이버 채널을 사용하는 영구 스토리지

지원됨 [1]

지원됨 [1],[2]

Raw Block을 사용하는 영구 스토리지

지원됨 [1]

지원됨 [1],[2]

EDEV/FBA를 사용하는 영구 스토리지

지원됨 [1]

지원됨 [1],[2]

  1. 영구 공유 스토리지는 Red Hat OpenShift Data Foundation 또는 기타 지원되는 스토리지 프로토콜을 사용하여 프로비저닝해야 합니다.
  2. 영구 비공유 스토리지는 iSCSI, FC와 같은 로컬 스토리지를 사용하거나 DASD, FCP 또는 EDEV/FBA와 LSO를 사용하여 프로비저닝해야 합니다.
표 1.3. Operator
기능IBM Power®IBM Z® 및 IBM® LinuxONE

cert-manager Operator for Red Hat OpenShift

지원됨

지원됨

Cluster Logging Operator

지원됨

지원됨

Cluster Resource Override Operator

지원됨

지원됨

Compliance Operator

지원됨

지원됨

Cost Management Metrics Operator

지원됨

지원됨

File Integrity Operator

지원됨

지원됨

HyperShift Operator

기술 프리뷰

기술 프리뷰

IBM Power® Virtual Server Block CSI Driver Operator

지원됨

지원되지 않음

Ingress 노드 방화벽 Operator

지원됨

지원됨

Local Storage Operator

지원됨

지원됨

MetalLB Operator

지원됨

지원됨

Network Observability Operator

지원됨

지원됨

NFD Operator

지원됨

지원됨

NMState Operator

지원됨

지원됨

OpenShift Elasticsearch Operator

지원됨

지원됨

Vertical Pod Autoscaler Operator

지원됨

지원됨

표 1.4. Multus CNI 플러그인
기능IBM Power®IBM Z® 및 IBM® LinuxONE

Bridge

지원됨

지원됨

Host-device

지원됨

지원됨

IPAM

지원됨

지원됨

IPVLAN

지원됨

지원됨

표 1.5. CSI 볼륨
기능IBM Power®IBM Z® 및 IBM® LinuxONE

복제

지원됨

지원됨

확장

지원됨

지원됨

스냅샷

지원됨

지원됨

1.3.8. 인증 및 권한 부여

1.3.8.1. 기존 클러스터에서 Microsoft Entra Workload ID 활성화

이번 릴리스에서는 Microsoft Entra Workload ID를 활성화하여 기존 Microsoft Azure OpenShift Container Platform 클러스터에서 단기 자격 증명을 사용할 수 있습니다. 이 기능은 이제 OpenShift Container Platform 버전 4.14 및 4.15에서도 지원됩니다. 자세한 내용은 토큰 기반 인증 활성화를 참조하십시오.

1.3.9. 네트워킹

1.3.9.1. OpenShift SDN 네트워크 플러그인 블록 향후 주요 업그레이드

OpenShift Container Platform의 일부로 OpenShift Container Platform 4.16부터 OpenShift SDN 네트워크 플러그인을 사용하는 경우 OVN-Kubernetes로 마이그레이션하지 않고 향후 OpenShift Container Platform의 주요 버전으로 업그레이드할 수 없습니다. OVN-Kubernetes로 마이그레이션하는 방법에 대한 자세한 내용은 OpenShift SDN 네트워크 플러그인에서 마이그레이션 을 참조하십시오.

업그레이드를 시도하면 CNO(Cluster Network Operator)에서 다음 상태를 보고합니다.

- lastTransitionTime: "2024-04-11T05:54:37Z"
  message: Cluster is configured with OpenShiftSDN, which is not supported in the
    next version. Please follow the documented steps to migrate from OpenShiftSDN
    to OVN-Kubernetes in order to be able to upgrade. https://docs.openshift.com/container-platform/4.16/networking/ovn_kubernetes_network_provider/migrate-from-openshift-sdn.html
  reason: OpenShiftSDNConfigured
  status: "False"
  type: Upgradeable

1.3.9.2. PTP 할 마스터 클럭으로 듀얼 NIC Intel E810 Westport 채널 (일반 사용 가능)

듀얼 Intel E810 Westport Channel 네트워크 인터페이스 컨트롤러(NIC)의 경우 linuxptp 서비스를 T-GM(T-GM)으로 구성하는 것은 OpenShift Container Platform에서 일반적으로 사용할 수 있는 기능입니다. 호스트 시스템 클록은 GNSS(Global Navigation Satellite Systems) 시간 소스에 연결된 NIC에서 동기화됩니다. 두 번째 NIC는 GNSS에 연결된 NIC에서 제공하는 1PPS 타이밍 출력과 동기화됩니다. 자세한 내용은 Configuring linuxptp services as a grandmaster clock for dual E810 Westport Channel NICs 를 참조하십시오.

1.3.9.3. 고가용성 시스템 클럭을 사용하여 듀얼 NIC E810 PTP 경계 클럭 (일반 사용 가능)

이중 PTP 경계 클럭(T-BC)의 linuxptp 서비스 ptp4lphc2sys 를 고가용성(HA) 시스템 클럭으로 구성할 수 있습니다.

자세한 내용은 이중 NIC Intel E810 PTP 경계 클록의 고가용성 시스템 클럭으로 linuxptp 구성을 참조하십시오.

1.3.9.4. 네트워크 연결을 확인하기 위해 Pod 배치 구성

클러스터 구성 요소 간 네트워크 연결을 정기적으로 테스트하기 위해 CNO(Cluster Network Operator)는 network-check-source 배포 및 network-check-target 데몬 세트를 생성합니다. OpenShift Container Platform 4.16에서는 노드 선택기를 설정하고 소스 및 대상 Pod를 실행하여 네트워크 연결을 확인하여 노드를 구성할 수 있습니다. 자세한 내용은 끝점에 대한 연결 확인을 참조하십시오.

1.3.9.5. 하나의 네트워크 보안 그룹(NSG) 규칙에 대해 여러 CIDR 블록 정의

이번 릴리스에서는 Microsoft Azure에서 호스팅되는 OpenShift Container Platform 클러스터의 NSG에서 IP 주소 및 범위가 보다 효율적으로 처리됩니다. 결과적으로 allowedSourceRanges 필드를 사용하여 Microsoft Azure 클러스터의 모든 Ingress 컨트롤러에 대한 CIDR(Classless Inter-Domain Routings)의 최대 제한은 약 1000에서 4000 CIDRs로 증가합니다.

1.3.9.6. Nutanix의 OpenShift SDN에서 OVN-Kubernetes로 마이그레이션

이번 릴리스에서는 OpenShift SDN 네트워크 플러그인에서 OVN-Kubernetes로의 마이그레이션이 이제 Nutanix 플랫폼에서 지원됩니다. 자세한 내용은 OVN-Kubernetes 네트워크 플러그인으로 마이그레이션을 참조하십시오.

1.3.9.7. CoreDNS와 송신 방화벽 간의 통합 개선 (기술 프리뷰)

이번 릴리스에서는 OVN-Kubernetes는 새 DNSNameResolver 사용자 정의 리소스를 사용하여 송신 방화벽 규칙에서 DNS 레코드를 계속 추적하고 기술 프리뷰로 사용할 수 있습니다. 이 사용자 정의 리소스는 와일드카드 DNS 이름과 일반 DNS 이름을 모두 사용하도록 지원하며 변경과 연결된 IP 주소와 관계없이 DNS 이름에 액세스할 수 있습니다.

자세한 내용은 향상된 DNS 확인 및 와일드카드 도메인 이름 확인을 참조하십시오.

1.3.9.8. SR-IOV 네트워크 정책 업데이트 중 병렬 노드 드레이닝

이번 릴리스에서는 네트워크 정책 업데이트 중에 노드를 병렬로 드레이닝하도록 SR-IOV Network Operator를 구성할 수 있습니다. 노드를 병렬로 드레이닝하는 옵션을 사용하면 SR-IOV 네트워크 구성을 더 빠르게 롤아웃할 수 있습니다. SriovNetworkPoolConfig 사용자 정의 리소스를 사용하여 병렬 노드 드레이닝을 구성하고 Operator가 병렬로 드레이닝할 수 있는 풀의 최대 노드 수를 정의할 수 있습니다.

자세한 내용은 SR-IOV 네트워크 정책 업데이트 중 병렬 노드 드레이닝 구성 을 참조하십시오.

1.3.9.9. SR-IOV Network Operator가 더 이상 SriovOperatorConfig CR을 자동으로 생성하지 않음

OpenShift Container Platform 4.16부터 SR-IOV Network Operator는 더 이상 SriovOperatorConfig CR(사용자 정의 리소스)을 자동으로 생성하지 않습니다. SR-IOV Network Operator 구성에 설명된 절차를 사용하여 SriovOperatorConfig CR을 생성합니다.

1.3.9.10. 이중 태그된 패킷 지원(QinQ)

이 릴리스에는 QinQ 지원이라고도 하는 802.1Q-in-802.1Q 가 도입되었습니다. QinQ에는 서비스 공급자가 사용할 외부 태그를 지정하여 유연성을 제공하고 내부 태그는 고객의 VLAN 전용 상태로 유지되는 두 번째 VLAN 태그가 도입되었습니다. 패킷에 두 개의 VLAN 태그가 있는 경우 외부 VLAN 태그는 802.1Q 또는 802.1ad일 수 있습니다. 내부 VLAN 태그는 항상 802.1Q여야 합니다.

자세한 내용은 SR-IOV 지원 워크로드에 대한 QinQ 지원 구성을 참조하십시오.

1.3.9.11. 온프레미스 인프라에 대한 사용자 관리 로드 밸런서 구성

이번 릴리스에서는 기본 로드 밸런서 대신 사용자 관리 로드 밸런서를 사용하도록 베어 메탈, VMware vSphere, RHOSP(Red Hat OpenStack Platform) 또는 Nutanix와 같은 온프레미스 인프라에서 OpenShift Container Platform 클러스터를 구성할 수 있습니다. 이 구성의 경우 클러스터의 install-config.yaml 파일에 loadBalancer.type: UserManaged 를 지정해야 합니다.

베어 메탈 인프라에서 이 기능에 대한 자세한 내용은 OpenShift 설치 환경 설정에서 사용자 관리 로드 밸런서의 서비스를 참조하십시오.

1.3.9.12. iptables에 대한 감지 및 경고

이번 릴리스에서는 iptables 규칙을 사용하여 클러스터에 Pod가 있는 경우 향후 사용 중단에 대해 경고하기 위해 다음 이벤트 메시지가 제공됩니다.

This pod appears to have created one or more iptables rules. IPTables is deprecated and will no longer be available in RHEL 10 and later. You should consider migrating to another API such as nftables or eBPF.

자세한 내용은 nftables 시작하기를 참조하십시오. 타사 소프트웨어를 실행하는 경우 공급 업체에 문의하여 곧 nftables 기반 버전을 사용할 수 있는지 확인하십시오.

1.3.9.13. OpenShift Container Platform 서비스의 수신 네트워크 흐름

이번 릴리스에서는 OpenShift Container Platform 서비스의 수신 네트워크 흐름을 볼 수 있습니다. 이 정보를 사용하여 네트워크의 수신 트래픽을 관리하고 네트워크 보안을 개선할 수 있습니다.

자세한 내용은 OpenShift Container Platform 네트워크 흐름 매트릭스 를 참조하십시오.

1.3.9.14. 기존 듀얼 스택 네트워크 패치

이번 릴리스에서는 클러스터 인프라를 패치하여 API 및 Ingress 서비스의 IPv6 가상 IP(VIP)를 기존 듀얼 스택 구성된 클러스터에 추가할 수 있습니다.

이미 클러스터를 OpenShift Container Platform 4.16으로 업그레이드하고 단일 스택 클러스터 네트워크를 듀얼 스택 클러스터 네트워크로 변환해야 하는 경우 YAML 구성 패치 파일에서 클러스터에 대해 다음을 지정해야 합니다.

  • 첫 번째 machineNetwork 구성에서 API 및 Ingress 서비스에 대한 IPv4 네트워크입니다.
  • 두 번째 machineNetwork 구성에서 API 및 Ingress 서비스를 위한 IPv6 네트워크입니다.

자세한 내용은 IPv4/IPv6 듀얼 스택 네트워킹으로 변환에서 듀얼 스택 클러스터 네트워크로 변환을 참조하십시오.

1.3.9.15. MetalLB 및 FRR-K8의 통합 (기술 프리뷰)

이번 릴리스에서는 Kubernetes 호환 방식으로 FRR API의 하위 집합을 노출하는 Kubernetes 기반 DaemonSetFRR-K8s 가 도입되었습니다. 클러스터 관리자는 FRRConfiguration CR(사용자 정의 리소스)을 사용하여 FRR-K8s 데몬 세트를 백엔드로 사용하도록 MetalLB Operator를 구성할 수 있습니다. 이를 사용하여 경로 수신과 같은 FRR 서비스를 작동할 수 있습니다.

자세한 내용은 MetalLB 및 FRR-K8의 통합 구성 을 참조하십시오.

1.3.9.16. 외부 관리 인증서로 경로 생성 (기술 프리뷰)

이번 릴리스에서는 타사 인증서 관리 솔루션을 사용하여 OpenShift Container Platform 경로를 구성하여 경로 API의 .spec.tls.externalCertificate 필드를 사용할 수 있습니다. 이를 통해 시크릿을 통해 외부 관리형 TLS 인증서를 참조하고 수동 인증서 관리를 제거하여 프로세스를 간소화할 수 있습니다. 외부 관리형 인증서를 사용하면 오류를 줄이고 더 원활한 인증서 업데이트 프로세스를 보장하며 OpenShift 라우터에서 갱신된 인증서를 신속하게 제공할 수 있습니다. 자세한 내용은 외부 관리 인증서를 사용하여 경로 생성 을 참조하십시오.

1.3.9.17. AdminNetworkPolicy 사용 가능

이 기능은 관리NetworkPolicy (ANP) 및 Baseline AdminNetworkPolicy (BANP)의 두 가지 새로운 API를 제공합니다. 클러스터 관리자는 네임스페이스를 생성하기 전에 ANP 및 BANP를 사용하여 클러스터 범위 네트워크 정책 및 전체 클러스터에 대한 보호 장치를 적용할 수 있습니다. 클러스터 범위이므로 ANP는 관리자가 각 네임스페이스에서 네트워크 정책을 복제하지 않고도 대규모로 네트워크의 보안을 관리할 수 있는 솔루션을 제공합니다.

자세한 내용은 IPv4/IPv6 듀얼 스택 네트워킹으로 변환에서 듀얼 스택 클러스터 네트워크로 변환을 참조하십시오.

1.3.9.18. OVN-Kubernetes 네트워크 플러그인으로 실시간 마이그레이션

이전에는 OpenShift SDN에서 OVN-Kubernetes로 마이그레이션할 때 사용 가능한 유일한 옵션은 오프라인 마이그레이션 방법이었습니다. 이 프로세스에는 클러스터에 연결할 수 없는 다운타임이 포함되어 있었습니다.

이번 릴리스에서는 실시간 마이그레이션 방법이 도입되었습니다. 실시간 마이그레이션 방법은 OpenShift SDN 네트워크 플러그인과 네트워크 구성, 연결 및 관련 리소스가 서비스 중단 없이 OVN-Kubernetes 네트워크 플러그인으로 마이그레이션하는 프로세스입니다. OpenShift Container Platform, Red Hat OpenShift Dedicated, Red Hat OpenShift Dedicated, AWS의 Red Hat OpenShift Service, Microsoft Azure Red Hat OpenShift 배포 유형에서 사용할 수 있습니다. HyperShift 배포 유형에는 사용할 수 없습니다. 이 마이그레이션 방법은 지속적인 서비스 가용성이 필요하며 다음과 같은 이점을 제공하는 배포 유형에 중요합니다.

  • 지속적인 서비스 가용성
  • 다운타임 최소화
  • 자동 노드 재부팅
  • OpenShift SDN 네트워크 플러그인에서 OVN-Kubernetes 네트워크 플러그인으로의 원활한 전환

OVN-Kubernetes로의 마이그레이션은 단방향 프로세스로 사용됩니다.

자세한 내용은 OVN-Kubernetes 네트워크 플러그인 개요로 실시간 마이그레이션 을 참조하십시오.

1.3.9.19. Whereabouts를 사용하여 다중 테넌트 네트워크에 대한 IP 구성 중복

이전에는 동일한 CIDR 범위를 두 번 구성하고 Whereabouts CNI 플러그인이 이러한 범위의 IP 주소를 독립적으로 할당할 수 없었습니다. 이 제한으로 인해 다른 그룹이 겹치는 CIDR 범위를 선택해야 할 수 있는 멀티 테넌트 환경에서 문제가 발생했습니다.

이번 릴리스에서는 Whereabouts CNI 플러그인은 network_name 매개변수를 포함하여 중복된 IP 주소 범위를 지원합니다. 관리자는 network_name 매개변수를 사용하여 별도의 NetworkAttachmentDefinitions 내에서 동일한 CIDR 범위를 여러 번 구성하여 각 범위에 대해 독립적인 IP 주소 할당을 활성화할 수 있습니다.

이 기능에는 향상된 네임스페이스 처리가 포함되며, IPPool 사용자 정의 리소스(CR)를 적절한 네임스페이스에 저장하고 Multus에서 허용하는 경우 교차 네임스페이스를 지원합니다. 이러한 향상된 기능을 통해 멀티 테넌트 환경에서 유연성 및 관리 기능이 향상됩니다.

이 기능에 대한 자세한 내용은 Whereabouts를 사용한 동적 IP 주소 할당 구성을 참조하십시오.

1.3.9.20. OVN-Kubernetes 네트워크 플러그인 내부 IP 주소 범위 변경 지원

OVN-Kubernetes 네트워크 플러그인을 사용하는 경우 transit, join, masquerade 서브넷을 구성할 수 있습니다. 전송 및 조인 서브넷은 클러스터 설치 중 또는 이후에 구성할 수 있습니다. 가상 서브넷은 설치 중에 구성해야 하며 후에는 변경할 수 없습니다. 서브넷 기본값은 다음과 같습니다.

  • 전송 서브넷: 100.88.0.0/16fd97::/64
  • 조인 서브넷: 100.64.0.0/16fd98::/64
  • 마스커레이드 서브넷: 169.254.169.0/29fd69::/125

이러한 구성 필드에 대한 자세한 내용은 CNO( Cluster Network Operator) 구성 오브젝트를 참조하십시오. 기존 클러스터에서 전송 및 결합 서브넷 구성에 대한 자세한 내용은 OVN-Kubernetes 내부 IP 주소 서브넷 구성을 참조하십시오.

1.3.9.21. IPsec Telemetry

Telemetry 및 Insights Operator는 IPsec 연결에서 Telemetry를 수집합니다. 자세한 내용은 Telemetry에서 수집한 데이터 표시를 참조하십시오.

1.3.10. 스토리지

1.3.10.1. Secrets Store CSI Driver Operator에서 HashiCorp Vault 사용 가능 (기술 프리뷰)

이제 Secrets Store CSI Driver Operator를 사용하여 HashiCorp Vault의 시크릿을 OpenShift Container Platform의 CSI(Container Storage Interface) 볼륨에 마운트할 수 있습니다. Secrets Store CSI Driver Operator는 기술 프리뷰 기능으로 사용할 수 있습니다.

사용 가능한 시크릿 저장소 공급자의 전체 목록은 시크릿 저장소 공급자 를 참조하십시오.

HashiCorp Vault에서 보안을 마운트하는 데 Secrets Store CSI Driver Operator를 사용하는 방법에 대한 자세한 내용은 HashiCorp Vault 의 시크릿 마운트를 참조하십시오.

1.3.10.2. Microsoft Azure File에서 지원되는 볼륨 복제 (기술 프리뷰)

OpenShift Container Platform 4.16에서는 Microsoft Azure File Container Storage Interface (CSI) Driver Operator의 볼륨 복제를 기술 프리뷰 기능으로 도입했습니다. 볼륨 복제는 OpenShift Container Platform의 데이터 손실을 방지하기 위해 기존 PV(영구 볼륨)를 중복합니다. 표준 볼륨을 사용하는 것처럼 볼륨 복제를 사용할 수도 있습니다.

자세한 내용은 Azure File CSI Driver OperatorCSI 볼륨 복제 를 참조하십시오.

1.3.10.3. 노드 확장 시크릿 사용 가능

Node Expansion Secret 기능을 사용하면 노드 확장 작업을 수행하기 위해 시크릿(예: Storage Area Network) 패브릭에 액세스하는 데 필요한 보안 정보(예: 해당 볼륨에 액세스하는 데 필요한 인증 정보)가 필요한 경우에도 클러스터에서 마운트된 볼륨의 스토리지를 확장할 수 있습니다. OpenShift Container Platform 4.16에서는 이 기능을 일반적으로 사용할 수 있습니다.

1.3.10.4. vSphere CSI 최대 스냅샷 수 변경 일반적으로 사용 가능

VMware vSphere CSI(Container Storage Interface)의 기본 최대 스냅샷 수는 볼륨당 3개입니다. OpenShift Container Platform 4.16에서는 이제 이 최대 스냅샷 수를 볼륨당 최대 32개로 변경할 수 있습니다. 또한 vSAN 및 가상 볼륨 데이터 저장소에 대한 최대 스냅샷 수를 세부적으로 제어할 수 있습니다. OpenShift Container Platform 4.16에서는 이 기능을 일반적으로 사용할 수 있습니다.

자세한 내용은 vSphere의 최대 스냅샷 수 변경을 참조하십시오.

1.3.10.5. 영구 볼륨 마지막 단계 전환 시간 매개변수 (기술 프리뷰)

OpenShift Container Platform 4.16에서는 PV(영구 볼륨)가 다른 단계(pv.Status.Phase)로 전환할 때마다 업데이트되는 타임스탬프가 있는 새 매개변수인 LastPhaseTransitionTime 이 도입되었습니다. 이 기능은 기술 프리뷰 상태로 릴리스되고 있습니다.

1.3.10.6. CIFS/SMB CSI Driver Operator를 사용한 영구 스토리지 (기술 프리뷰)

OpenShift Container Platform은 CIFS(Common Internet File System)alect/SMB(Server Message Block) 프로토콜용 CSI(Container Storage Interface) 드라이버를 사용하여 PV(영구 볼륨)를 프로비저닝할 수 있습니다. 이 드라이버를 관리하는 CIFS/SMB CSI Driver Operator는 기술 프리뷰 상태입니다.

자세한 내용은 CIFS/SMB CSI Driver Operator 를 참조하십시오.

1.3.10.7. SELinux 컨텍스트 마운트를 사용하는 RWOP 사용 가능

OpenShift Container Platform 4.14에서는 PV(영구 볼륨)에 대한 기술 프리뷰 상태 및 RWOP(ReadWriteOncePod)라는 PVC(영구 볼륨 클레임)가 포함된 새로운 액세스 모드를 도입했습니다. RWOP는 여러 Pod에서 PV 또는 PVC를 단일 노드에서 사용할 수 있는 기존 ReadWriteOnce 액세스 모드에 비해 단일 노드의 단일 Pod에서만 사용할 수 있습니다. 드라이버를 활성화하면 RWOP에서 PodSpec 또는 컨테이너에 설정된 SELinux 컨텍스트 마운트를 사용하므로 드라이버가 올바른 SELinux 레이블을 사용하여 볼륨을 직접 마운트할 수 있습니다. 이렇게 하면 볼륨 레이블을 재귀적으로 다시 지정할 필요가 없으며 Pod 시작 속도가 훨씬 빨라질 수 있습니다.

OpenShift Container Platform 4.16에서 이 기능을 일반적으로 사용할 수 있습니다.

자세한 내용은 액세스 모드를 참조하십시오.

1.3.10.8. vSphere CSI Driver 3.1에서 CSI 토폴로지 요구 사항 업데이트

멀티 zonal 클러스터에서 VMware vSphere CSI(Container Storage Interface) 볼륨 프로비저닝 및 사용량을 지원하려면 배포가 CSI 드라이버의 특정 요구 사항과 일치해야 합니다. 이러한 요구 사항은 3.1.0부터 변경되었으며 OpenShift Container Platform 4.16에서는 이전 태그 지정 방법과 새 태그 지정 방법을 모두 허용하지만 VMware vSphere에서 잘못된 구성으로 간주하기 때문에 새 태그 지정 방법을 사용해야 합니다. 문제를 방지하려면 이전 태그 지정 방법을 사용해서는 안 됩니다.

자세한 내용은 vSphere CSI 토폴로지 요구 사항을 참조하십시오.

1.3.10.9. 씩 프로비저닝된 스토리지 구성 지원

이 기능은 씩 프로비저닝된 스토리지 구성을 지원합니다. LVMCluster CR(사용자 정의 리소스)에서 deviceClasses.thinPoolConfig 필드를 제외하면 논리 볼륨이 씩 프로비저닝됩니다. 씩 프로비저닝된 스토리지 사용에는 다음과 같은 제한 사항이 포함됩니다.

  • 볼륨 복제에 대한 COW(Copy-On-Write) 지원이 없습니다.
  • VolumeSnapshotClass 를 지원하지 않습니다. 따라서 CSI 스냅샷이 지원되지 않습니다.
  • 과도한 프로비저닝을 지원하지 않습니다. 결과적으로 PVC(PersistentVolumeClaims)의 프로비저닝된 용량이 볼륨 그룹에서 즉시 줄어듭니다.
  • thin 메트릭을 지원하지 않습니다. 씩 프로비저닝된 장치는 볼륨 그룹 지표만 지원합니다.

LVMCluster CR 구성에 대한 자세한 내용은 LVMCluster 사용자 정의 리소스 정보를 참조하십시오.

1.3.10.10. LVMCluster 사용자 정의 리소스에 장치 선택기가 구성되지 않은 경우 새 경고 메시지 지원

이번 업데이트에서는 LVMCluster CR(사용자 정의 리소스)에서 deviceSelector 필드를 구성하지 않는 경우 새 경고 메시지를 제공합니다.

LVMCluster CR은 deviceSelector 필드가 구성되었는지 여부를 나타내는 새로운 필드인 deviceDiscoveryPolicy 를 지원합니다. deviceSelector 필드를 구성하지 않으면 LVM 스토리지에서 deviceDiscoveryPolicy 필드를 RuntimeDynamic 로 자동으로 설정합니다. 그렇지 않으면 deviceDiscoveryPolicy 필드가 Preconfigured 로 설정됩니다.

LMVCluster CR에서 deviceSelector 필드를 제외하지 않는 것이 좋습니다. deviceSelector 필드를 구성하지 않는 제한 사항에 대한 자세한 내용은 볼륨 그룹에 장치 추가 정보를 참조하십시오.

1.3.10.11. 볼륨 그룹에 암호화된 장치 추가 지원

이 기능은 암호화된 장치를 볼륨 그룹에 추가할 수 있도록 지원합니다. OpenShift Container Platform을 설치하는 동안 클러스터 노드에서 디스크 암호화를 활성화할 수 있습니다. 장치를 암호화한 후 LVMCluster 사용자 정의 리소스의 deviceSelector 필드에 LUKS 암호화된 장치의 경로를 지정할 수 있습니다. 디스크 암호화에 대한 자세한 내용은 디스크 암호화 정보디스크 암호화 및 미러링 구성입니다.

볼륨 그룹에 장치를 추가하는 방법에 대한 자세한 내용은 볼륨 그룹에 장치 추가 정보를 참조하십시오.

1.3.11. Operator 라이프사이클

1.3.11.1. Operator API의 이름이 ClusterExtension로 변경 (기술 프리뷰)

OLM(Operator Lifecycle Manager) 1.0의 이전 기술 프리뷰 단계에서는 Operator Controller 구성 요소에서 operator.operators.operatorframework.io 로 제공되는 새 Operator API가 도입되었습니다. OpenShift Container Platform 4.16에서 이 API는 OLM 1.0의 이 기술 프리뷰 단계에 대해 clusterextension.olm.operatorframework.io 로 이름이 지정됩니다.

이 API는 사용자용 API를 단일 오브젝트로 통합하여 registry+v1 번들 형식을 통해 Operator를 포함하는 설치된 확장 확장의 관리를 간소화합니다. ClusterExtension 주소로의 이름 변경은 다음과 같습니다.

  • 클러스터 기능 확장의 단순화된 기능을 보다 정확하게 반영합니다.
  • 보다 유연한 패키징 형식을 더 잘 나타냅니다.
  • 클러스터 접두사는 ClusterExtension 오브젝트가 클러스터 범위로, Operator가 네임스페이스 범위 또는 클러스터 범위 중 하나인 기존 OLM에서 변경됨을 명확하게 나타냅니다.

자세한 내용은 Operator Controller 를 참조하십시오.

중요

현재 OLM 1.0에서는 다음 기준을 충족하는 확장 기능을 설치할 수 있습니다.

  • 확장에서는 AllNamespaces 설치 모드를 사용해야 합니다.
  • 확장에서는 Webhook를 사용하지 않아야 합니다.

Webhook를 사용하거나 단일 또는 지정된 네임스페이스 집합을 대상으로 하는 클러스터 확장은 설치할 수 없습니다.

1.3.11.2. OLM(Operator Lifecycle Manager) 1.0의 클러스터 확장에 대한 상태 조건 메시지 및 사용 중단 알림 (기술 프리뷰)

이번 릴리스에서는 OLM 1.0에 설치된 클러스터 확장에 대한 다음 상태 조건 메시지가 표시됩니다.

  • 특정 번들 이름
  • 설치된 버전
  • 상태 보고 개선
  • 패키지, 채널 및 번들에 대한 사용 중단 알림

1.3.11.3. OLM 1.0에서 레거시 OLM 업그레이드 에지 지원 (기술 프리뷰)

설치된 클러스터 확장에 대한 업그레이드 에지를 결정할 때 OLM(Operator Lifecycle Manager) 1.0은 OpenShift Container Platform 4.16에서 시작하는 레거시 OLM 의미 체계를 지원합니다. 이 지원은 몇 가지 차이점이 있지만 대체,건너뛰기, skipRange 지시문을 포함하여 레거시 OLM의 동작을 따릅니다.

OLM 1.0은 레거시 OLM 의미 체계를 지원하여 카탈로그의 업그레이드 그래프를 정확하게 준수합니다.

참고

이 기술 프리뷰 단계에서 레거시 OLM 의미 체계를 선호하기 위해 OpenShift Container Platform 4.15에서는 시맨틱 버전 관리(semver) 업그레이드 제한에 대한 지원이 도입되었지만 4.16에서는 비활성화되어 있습니다.

자세한 내용은 Upgrade constraint semantics 를 참조하십시오.

1.3.12. 빌드

인증되지 않은 사용자가 system:webhook 역할 바인딩에서 제거되었습니다.

이번 릴리스에서는 인증되지 않은 사용자가 더 이상 system:webhook 역할 바인딩에 액세스할 수 없습니다. OpenShift Container Platform 4.16 이전에는 인증되지 않은 사용자가 system:webhook 역할 바인딩에 액세스할 수 있었습니다. 인증되지 않은 사용자에 대해 이 액세스 권한을 변경하면 추가 보안 계층이 추가되며 필요한 경우에만 사용자가 활성화해야 합니다. 이 변경 사항은 새 클러스터의 경우입니다. 이전 클러스터는 영향을 받지 않습니다.

인증되지 않은 사용자를 특정 네임스페이스에 대해 system:webhook 역할 바인딩을 허용해야 하는 사용 사례가 있습니다. system:webhook 클러스터 역할을 사용하면 사용자가 GitHub, GitLab, Bitbucket과 같은 OpenShift Container Platform 인증 메커니즘을 사용하지 않는 외부 시스템에서 빌드를 트리거할 수 있습니다. 클러스터 관리자는 인증되지 않은 사용자에게 system:webhook 역할 바인딩에 대한 액세스 권한을 부여하여 이 사용 사례를 용이하게 할 수 있습니다.

중요

인증되지 않은 액세스를 수정할 때 항상 조직의 보안 표준을 준수하는지 확인하십시오.

특정 네임스페이스에서 인증되지 않은 사용자에게 system:webhook 역할 바인딩에 대한 액세스 권한을 부여하려면 system:webhook 역할 바인딩에 인증되지 않은 사용자 추가 를 참조하십시오.

1.3.13. Machine Config Operator

1.3.13.1. 렌더링되지 않은 사용되지 않는 머신 구성의 가비지 컬렉션

이번 릴리스에서는 사용되지 않은 렌더링되지 않은 머신 구성을 가비지 수집할 수 있습니다. oc adm prune renderedmachineconfigs 명령을 사용하면 사용되지 않은 렌더링된 머신 구성을 보고 제거할지 확인한 다음 더 이상 필요하지 않은 렌더링된 머신 구성을 삭제할 수 있습니다. 머신 구성이 너무 많으면 머신 구성을 혼동시킬 수 있으며 디스크 공간 및 성능 문제에도 기여할 수 있습니다. 자세한 내용은 사용되지 않은 렌더링된 머신 구성 관리를 참조하십시오.

1.3.13.2. 노드 중단 정책 (기술 프리뷰)

기본적으로 MachineConfig 오브젝트의 매개변수를 특정 변경할 때 MCO(Machine Config Operator)는 해당 머신 구성과 연결된 노드를 드레이닝하고 재부팅합니다. 그러나 MCO 네임스페이스에 노드 중단 정책을 생성하여 워크로드를 거의 중단하지 않아도 되는 Ignition 구성 개체 집합을 정의하는 노드 중단 정책을 생성할 수 있습니다. 자세한 내용은 노드 중단 정책을 사용하여 머신 구성 변경으로 인한 중단을 최소화합니다.

1.3.13.3. 클러스터 내 RHCOS 이미지 계층화 (기술 프리뷰)

RHCOS(Red Hat Enterprise Linux CoreOS) 이미지 계층 지정을 사용하면 클러스터에서 직접 사용자 정의 계층 이미지를 기술 프리뷰 기능으로 자동으로 빌드할 수 있습니다. 이전에는 클러스터 외부에서 사용자 정의 계층 이미지를 빌드한 다음 이미지를 클러스터로 가져와야 했습니다. 이미지 계층 지정 기능을 사용하여 기본 이미지에 추가 이미지를 계층화하여 기본 RHCOS 이미지의 기능을 확장할 수 있습니다. 자세한 내용은 RHCOS 이미지 계층 지정을 참조하십시오.

1.3.13.4. 부팅 이미지 업데이트 (기술 프리뷰)

기본적으로 MCO는 RHCOS(Red Hat Enterprise Linux CoreOS) 노드를 가져오는 데 사용하는 부팅 이미지를 삭제하지 않습니다. 결과적으로 클러스터의 부팅 이미지가 클러스터와 함께 업데이트되지 않습니다. 이제 클러스터를 업데이트할 때마다 부팅 이미지를 업데이트하도록 클러스터를 구성할 수 있습니다. 자세한 내용은 부팅 이미지 업데이트를 참조하십시오.

1.3.14. 머신 관리

1.3.14.1. 클러스터 자동 스케일러의 확장 프로그램 구성

이번 릴리스에서는 클러스터 자동 스케일러가 LeastWaste,PriorityRandom expander를 사용할 수 있습니다. 클러스터를 확장할 때 머신 세트 선택에 영향을 미치도록 이러한 확장기를 구성할 수 있습니다. 자세한 내용은 클러스터 자동 스케일러 구성을 참조하십시오.

1.3.14.2. VMware vSphere용 클러스터 API로 머신 관리 (기술 프리뷰)

이번 릴리스에서는 OpenShift Container Platform에 통합된 업스트림 클러스터 API를 VMware vSphere 클러스터의 기술 프리뷰로 사용하여 머신을 관리하는 기능이 도입되었습니다. 이 기능은 Machine API를 사용하여 머신 관리하는 것에 대한 대안이나 추가 기능입니다. 자세한 내용은 클러스터 API 정보를 참조하십시오.

1.3.14.3. 컨트롤 플레인 머신 세트의 vSphere 실패 도메인 정의

이번 릴리스에서는 컨트롤 플레인 머신 세트의 vSphere 장애 도메인을 정의하는 이전의 기술 프리뷰 기능이 일반적으로 사용 가능합니다. 자세한 내용은 VMware vSphere의 컨트롤 플레인 구성 옵션을 참조하십시오.

1.3.15. 노드

1.3.15.1. Vertical Pod Autoscaler Operator Pod 이동

VPA(Vertical Pod Autoscaler Operator)는 권장 사항, 업데이트 관리자 및 승인 컨트롤러의 세 가지 구성 요소로 구성됩니다. Operator 및 각 구성 요소에는 컨트롤 플레인 노드의 VPA 네임스페이스에 자체 Pod가 있습니다. VPA Operator 및 구성 요소 Pod를 인프라 또는 작업자 노드로 이동할 수 있습니다. 자세한 내용은 Vertical Pod Autoscaler Operator 구성 요소 이동을 참조하십시오.

1.3.15.2. must-gather에서 수집하는 추가 정보

이번 릴리스에서는 oc adm must-gather 명령에서 다음과 같은 추가 정보를 수집합니다.

  • OpenShift CLI(oc) 바이너리 버전
  • must-gather 로그

이러한 추가 기능은 특정 버전의 oc 를 사용할 때 발생할 수 있는 문제를 식별하는 데 도움이 됩니다. oc adm must-gather 명령은 사용된 이미지와 must-gather 로그에 데이터를 수집할 수 없는 경우에도 나열됩니다.

자세한 내용은 must-gather 툴 정보를 참조하십시오.

1.3.15.3. BareMetalHost 리소스 편집

OpenShift Container Platform 4.16 이상에서는 베어 메탈 노드의 BareMetalHost 리소스에서 BMC(Baseboard Management Controller) 주소를 편집할 수 있습니다. 노드는 Provisioned,ExternallyProvisioned,Registering 또는 Available 상태에 있어야 합니다. BareMetalHost 리소스에서 BMC 주소를 편집해도 노드의 프로비저닝이 해제되지 않습니다. 자세한 내용은 BareMetalHost 리소스 편집을 참조하십시오.

1.3.15.4. 부팅 불가능한 ISO 연결

OpenShift Container Platform 4.16 이상에서는 DataImage 리소스를 사용하여 일반 부팅 불가능한 ISO 가상 미디어 이미지를 프로비저닝된 노드에 연결할 수 있습니다. 리소스를 적용하면 다음 재부팅 시 운영 체제에서 ISO 이미지에 액세스할 수 있게 됩니다. 이 기능을 지원하려면 노드에서 Redfish 또는 드라이버를 사용해야 합니다. 노드가 Provisioned 또는 ExternallyProvisioned 상태여야 합니다. 자세한 내용은 부팅 불가능한 ISO를 베어 메탈 노드에 첨부 를 참조하십시오.

1.3.16. 모니터링

이 릴리스의 클러스터 내 모니터링 스택에는 다음과 같은 새로운 수정된 기능이 포함되어 있습니다.

1.3.16.1. 모니터링 스택 구성 요소 및 종속 항목에 대한 업데이트

이 릴리스에는 클러스터 내 모니터링 스택 구성 요소 및 종속 항목에 대한 다음 버전 업데이트가 포함되어 있습니다.

  • kube-state-metrics to 2.12.0
  • 메트릭 서버 to Cryostat.1
  • node-exporter to 1.8.0
  • Prometheus에서 2.52.0으로
  • Prometheus Operator to Cryostat3.2
  • Thanos 0.35.0

1.3.16.2. 경고 규칙 변경

참고

Red Hat은 규칙 또는 경고 규칙에 대한 이전 버전과의 호환성을 보장하지 않습니다.

  • Cluster Monitoring Operator 구성에서 더 이상 사용되지 않는 필드를 사용할 때 모니터링할 ClusterMonitoringOperatorDepreedConfig 경고가 추가되었습니다.
  • Prometheus Operator가 오브젝트 상태를 업데이트하지 못하는 경우 모니터링하기 위해 PrometheusOperatorStatusUpdateErrors 경고가 추가되었습니다.

1.3.16.3. 메트릭 API 정식 출시 (GA)에 액세스하기 위한 메트릭 서버 구성 요소

이제 Metrics Server 구성 요소를 일반적으로 사용할 수 있으며 더 이상 사용되지 않는 Prometheus Adapter 대신 자동으로 설치됩니다. 지표 서버는 리소스 지표를 수집하여 다른 툴 및 API에서 사용할 metrics.k8s.io Metrics API 서비스에 노출되므로 코어 플랫폼 Prometheus 스택이 이 기능을 처리할 수 없습니다. 자세한 내용은 Cluster Monitoring Operator의 구성 맵 API 참조의 MetricsServerConfig 를 참조하십시오.

1.3.16.4. Alertmanager API에 대한 읽기 전용 액세스를 허용하는 새로운 모니터링 역할

이번 릴리스에서는 openshift-monitoring 프로젝트에서 Alertmanager API에 대한 읽기 전용 액세스를 허용하는 새로운 monitoring-alertmanager-view 역할이 도입되었습니다.

1.3.16.5. VPA 메트릭은 kube-state-metrics 에이전트에서 사용할 수 있습니다.

VPA(Verical Pod Autoscaler) 메트릭은 kube-state-metrics 에이전트를 통해 사용할 수 있습니다. VPA 메트릭은 더 이상 사용되지 않고 기본 지원 업스트림에서 제거되기 전과 마찬가지로 유사한 이전 형식을 따릅니다.

1.3.16.6. 모니터링 구성 요소를 위한 프록시 서비스 변경

이번 릴리스에서는 Prometheus, Alertmanager 및 Thanos Ruler 앞에 있는 프록시 서비스가 OAuth에서 kube-rbac-proxy 로 업데이트되었습니다. 이러한 변경 사항은 적절한 역할 및 클러스터 역할 없이 서비스 계정 및 이러한 API 끝점에 액세스하는 사용자에게 영향을 미칠 수 있습니다.

1.3.16.7. Prometheus가 중복 샘플을 처리하는 방법 변경

이번 릴리스에서는 Prometheus가 대상을 스크랩하면 동일한 값이 있더라도 중복 샘플이 더 이상 자동으로 무시되지 않습니다. 첫 번째 샘플이 수락되고 prometheus_target_scrapes_sample_duplicate_timestamp_total 카운터가 증가하여 PrometheusDuplicateTimestamps 경고가 트리거될 수 있습니다.

1.3.17. Network Observability Operator

Network Observability Operator는 OpenShift Container Platform 마이너 버전 릴리스 스트림과 독립적으로 업데이트를 릴리스합니다. 업데이트는 현재 지원되는 모든 OpenShift Container Platform 4 버전에서 지원되는 단일 롤링 스트림을 통해 제공됩니다. Network Observability Operator의 새로운 기능, 개선 사항 및 버그 수정에 대한 정보는 Network Observability 릴리스 노트 에서 확인할 수 있습니다.

1.3.18. 확장 및 성능

1.3.18.1. 워크로드 파티션 개선 사항

이번 릴리스에서는 CPU 제한과 CPU 요청을 모두 포함하는 워크로드 주석으로 배포된 플랫폼 Pod에는 CPU 제한이 정확히 계산되어 특정 Pod의 CPU 할당량으로 적용됩니다. 이전 릴리스에서는 워크로드 분할된 Pod에 CPU 제한 및 요청이 모두 설정된 경우 Webhook에서 무시했습니다. Pod는 워크로드 파티셔닝의 이점이 아니며 특정 코어에 종속되지 않았습니다. 이번 업데이트에서는 Webhook에서 요청 및 제한이 올바르게 해석됩니다.

참고

CPU 제한의 값이 주석의 요청 값과 다른 경우 CPU 제한이 요청과 동일합니다.

자세한 내용은 워크로드 파티셔닝을 참조하십시오.

1.3.18.2. Linux Control Groups 버전 2가 성능 프로필 기능으로 지원됨

OpenShift Container Platform 4.16부터 성능 프로필이 있는 경우에도 cgroup2 또는 cgroupsv2라고도 하는 제어 그룹 버전 2(cgroup v2)는 기본적으로 활성화되어 있습니다.

OpenShift Container Platform 4.14부터 cgroups v2는 기본값이지만 성능 프로필 기능을 사용하려면 cgroups v1을 사용해야 합니다. 이 문제가 해결되었습니다.

cgroup v1은 OpenShift Container Platform 4.16 이전 초기 설치 날짜가 있는 성능 프로필이 있는 업그레이드된 클러스터에서 계속 사용됩니다. node.config 오브젝트의 cgroupMode 필드를 v1로 변경하여 현재 버전에서 cgroup v1 을 계속 사용할 수 있습니다.

자세한 내용은 노드에서 Linux cgroup 버전 구성을 참조하십시오.

1.3.18.3. etcd 데이터베이스 크기 증가 지원 (기술 프리뷰)

이번 릴리스에서는 etcd에서 디스크 할당량을 늘릴 수 있습니다. 이는 기술 프리뷰 기능입니다. 자세한 내용은 etcd의 데이터베이스 크기 감소를 참조하십시오.

1.3.18.4. 예약된 코어 빈도 튜닝

이번 릴리스에서는 Node Tuning Operator에서 예약 및 분리된 코어 CPU에 대해 PerformanceProfile 의 CPU 주파수 설정을 지원합니다. 이는 특정 빈도를 정의하는 데 사용할 수 있는 선택적 기능입니다. 그런 다음 Node Tuning Operator는 Intel 하드웨어에서 intel_pstate CPUFreq 드라이버를 활성화하여 해당 frequencies를 설정합니다. 기본 CPU 빈도를 기본 실행 빈도보다 낮은 값으로 설정해야 하는 FlexRAN 같은 애플리케이션의 frequencies에 대한 Intel의 권장 사항을 따라야 합니다.

1.3.18.5. Node Tuning Operator intel_pstate 드라이버 기본 설정

이전 버전에서는 RAN DU-profile의 경우 PerformanceProfile 에서 realTime 워크로드 힌트를 true 로 설정하면 항상 intel_pstate 를 비활성화했습니다. 이번 릴리스에서는 TuneD 를 사용하여 기본 Intel 하드웨어를 감지하고 프로세서 생성에 따라 intel_pstate 커널 매개변수를 적절하게 설정합니다. 이렇게 하면 intel_pstaterealTimehighPowerConsumption 워크로드 힌트에서 분리됩니다. intel_pstate 는 이제 기본 프로세서 생성에만 의존합니다.

pre-IceLake 프로세서의 경우 intel_pstate 는 기본적으로 비활성화되지만 IceLake 및 이후 생성 프로세서의 경우 intel_pstateactive 로 설정됩니다.

1.3.19. 엣지 컴퓨팅

1.3.19.1. RHACM PolicyGenerator 리소스를 사용하여 GitOps ZTP 클러스터 정책 관리 (기술 프리뷰)

이제 PolicyGenerator 리소스 및 RHACM(Red Hat Advanced Cluster Management)을 사용하여 GitOps ZTP가 있는 관리 클러스터의 정책을 배포할 수 있습니다. PolicyGenerator API는 Open Cluster Management 표준의 일부이며 PolicyGenTemplate API에서는 사용할 수 없는 일반적인 리소스 패치를 제공합니다. PolicyGenTemplate 리소스를 사용하여 정책을 관리하고 배포할 예정인 OpenShift Container Platform 릴리스에서는 더 이상 사용되지 않습니다.

자세한 내용은 PolicyGenerator 리소스를 사용하여 관리되는 클러스터 정책 구성 을 참조하십시오.

참고

PolicyGenerator API는 현재 항목 목록이 포함된 사용자 정의 Kubernetes 리소스와 패치 병합을 지원하지 않습니다. 예를 들어 PtpConfig CR에서 다음을 수행합니다.

1.3.19.2. TALM 정책 수정

이번 릴리스에서는 Topology Aware Lifecycle Manager(TALM)에서 Red Hat Advanced Cluster Management(RHACM) 기능을 사용하여 관리 클러스터에 대한 정보 정책을 수정합니다. 이번 개선된 기능을 통해 Operator에서 정책을 수정하는 동안 정보 정책의 추가 사본을 생성할 필요가 없습니다. 이번 개선된 기능을 통해 복사된 정책으로 인해 허브 클러스터의 워크로드가 줄어들고 관리 클러스터에서 정책을 수정하는 데 필요한 전체 시간을 줄일 수 있습니다.

자세한 내용은 관리 클러스터에 대한 정책 업데이트를 참조하십시오.

1.3.19.3. GitOps ZTP 프로비저닝 가속화 (기술 프리뷰)

이번 릴리스에서는 단일 노드 OpenShift에 대해 GitOps ZTP의 빠른 프로비저닝을 사용하여 클러스터 설치에 걸리는 시간을 줄일 수 있습니다. 가속화 ZTP는 이전 단계에서 정책에서 파생된 Day 2 매니페스트를 적용하여 설치를 가속화합니다.

배포 규모에 따라 GitOps ZTP의 프로비저닝 가속화의 이점. 전체 가속은 더 많은 수의 클러스터에서 더 많은 이점을 제공합니다. 더 적은 수의 클러스터를 사용하면 설치 시간을 줄이는 것이 덜 중요합니다.

자세한 내용은 GitOps ZTP의 가속 프로비저닝 을 참조하십시오.

1.3.19.4. Lifecycle Agent를 사용하는 단일 노드 OpenShift 클러스터의 이미지 기반 업그레이드

이번 릴리스에서는 라이프사이클 에이전트를 사용하여 OpenShift Container Platform <4.y>에서 <4.y+2>로 단일 노드 OpenShift 클러스터에 대한 이미지 기반 업그레이드를 오케스트레이션하고 <4.y.z>를 <4.y.z+n>으로 오케스트레이션할 수 있습니다. Lifecycle Agent는 참여 클러스터의 구성과 일치하는 OCI(Open Container Initiative) 이미지를 생성합니다. OCI 이미지 외에도 이미지 기반 업그레이드는 ostree 라이브러리 및 OADP Operator를 사용하여 원래 플랫폼과 대상 플랫폼 버전 간에 전환할 때 업그레이드 및 서비스 중단 기간을 줄입니다.

자세한 내용은 단일 노드 OpenShift 클러스터의 이미지 기반 업그레이드 이해를 참조하십시오.

1.3.19.5. GitOps ZTP 및 RHACM을 사용하여 관리형 클러스터에 IPsec 암호화 배포 (기술 프리뷰)

GitOps ZTP 및 RHACM(Red Hat Advanced Cluster Management)로 배포하는 관리형 단일 노드 OpenShift 클러스터에서 IPsec 암호화를 활성화할 수 있습니다. 관리 클러스터 외부의 Pod와 IPsec 끝점 간의 외부 트래픽을 암호화할 수 있습니다. OVN-Kubernetes 클러스터 네트워크의 노드 간 모든 pod-to-pod 네트워크 트래픽은 전송 모드에서 IPsec으로 암호화됩니다.

자세한 내용은 GitOps ZTP 및 siteConfig 리소스를 사용하여 단일 노드 OpenShift 클러스터에 대한 IPsec 암호화 구성 을 참조하십시오.

1.3.20. 보안

새 서명자 인증 기관(CA), openshift-etcd 를 이제 인증서에 서명할 수 있습니다. 이 CA는 기존 CA가 있는 신뢰 번들에 포함되어 있습니다. 두 개의 CA 보안,etcd-signeretcd-metric-signer 도 순환에 사용할 수 있습니다. 이 릴리스부터 모든 인증서는 검증된 라이브러리로 이동합니다. 이러한 변경으로 cluster-etcd-operator 에서 관리하지 않은 모든 인증서를 자동으로 순환할 수 있습니다. 모든 노드 기반 인증서는 현재 업데이트 프로세스를 계속합니다.

Red Hat logoGithubRedditYoutubeTwitter

자세한 정보

평가판, 구매 및 판매

커뮤니티

Red Hat 문서 정보

Red Hat을 사용하는 고객은 신뢰할 수 있는 콘텐츠가 포함된 제품과 서비스를 통해 혁신하고 목표를 달성할 수 있습니다.

보다 포괄적 수용을 위한 오픈 소스 용어 교체

Red Hat은 코드, 문서, 웹 속성에서 문제가 있는 언어를 교체하기 위해 최선을 다하고 있습니다. 자세한 내용은 다음을 참조하세요.Red Hat 블로그.

Red Hat 소개

Red Hat은 기업이 핵심 데이터 센터에서 네트워크 에지에 이르기까지 플랫폼과 환경 전반에서 더 쉽게 작업할 수 있도록 강화된 솔루션을 제공합니다.

© 2024 Red Hat, Inc.