1.3. 새로운 기능 및 개선 사항


이 릴리스에는 다음 구성 요소 및 개념과 관련된 개선 사항이 추가되었습니다.

1.3.1. API 서버

1.3.1.1. kube-apiserver의 경우 루프백 인증서 유효 기간을 3년으로 연장

이번 업데이트 이전에는 Kubernetes API 서버의 자체 서명된 루프백 인증서가 1년 후에 만료되었습니다. 이번 릴리스를 통해 인증서의 만료일이 3년으로 연장되었습니다.

1.3.1.2. 시험 실행 옵션은 'oc delete istag'에 연결되어 있습니다.

이번 업데이트 이전에는 --dry-run=server 옵션을 사용하여 istag 리소스를 실수로 삭제하여 서버에서 이미지를 실제로 삭제했습니다. 이 예기치 않은 삭제는 oc delete istag 명령에서 시험 실행 옵션이 잘못 구현되어 발생했습니다. 이번 릴리스에서는 oc delete istag 명령에 시험 실행 옵션이 연결됩니다. 결과적으로 이미지 오브젝트를 실수로 삭제할 수 없으며 --dry-run=server 옵션을 사용할 때 istag 오브젝트는 그대로 유지됩니다.

1.3.2. 인증 및 권한 부여

1.3.3. 문서

1.3.4. 엣지 컴퓨팅

1.3.4.1. LVM Storage Operator에 대한 NetworkPolicy 지원

LVM Storage Operator는 이제 설치 중에 Kubernetes NetworkPolicy 오브젝트를 적용하여 네트워크 통신을 필수 구성 요소로만 제한합니다. 이 기능은 OpenShift Container Platform 클러스터에 LVM Storage 배포에 대해 기본 네트워크 격리를 적용합니다.

LVM Storage Operator를 사용하여 PV(영구 볼륨)를 생성하면 이제 PV에 kubernetes.io/hostname 레이블이 포함됩니다. 이 레이블은 PV가 있는 노드를 표시하여 워크로드와 관련된 노드를 더 쉽게 식별할 수 있습니다. 이 변경 사항은 새로 생성된 PV에만 적용됩니다. 기존 PV는 수정되지 않습니다.

1.3.4.3. LVM Storage Operator의 기본 네임스페이스

LVM Storage Operator의 기본 네임스페이스는 이제 openshift-lvm-storage 입니다. 사용자 지정 네임스페이스에 LVM 스토리지를 계속 설치할 수 있습니다.

1.3.4.4. siteConfig CR to ClusterInstance CR 마이그레이션 툴

OpenShift Container Platform 4.20에는 SiteConfig CR(사용자 정의 리소스)을 사용하여 관리 클러스터를 ClusterInstance CR로 마이그레이션하는 데 도움이 되는 siteconfig-converter 툴이 도입되었습니다. SiteConfig CR을 사용하여 관리되는 클러스터를 정의하는 것은 더 이상 사용되지 않으며 향후 릴리스에서 제거됩니다. ClusterInstance CR은 클러스터를 정의하는 데 보다 통합되고 일반적인 접근 방식을 제공하며 GitOps ZTP 워크플로에서 클러스터 배포를 관리하는 데 권장되는 방법입니다.

siteconfig-converter 툴을 사용하여 SiteConfig CR을 ClusterInstance CR로 변환한 다음 한 번에 하나 이상의 클러스터를 점진적으로 마이그레이션할 수 있습니다. 기존 파이프라인 및 새 파이프라인이 병렬로 실행되므로 다운타임 없이 제어되고 단계적으로 클러스터를 마이그레이션할 수 있습니다.

참고

siteconfig-converter 툴은 더 이상 사용되지 않는 spec.clusters.extraManifestPath 필드를 사용하는 SiteConfig CR을 변환하지 않습니다.

자세한 내용은 SiteConfig CR에서 ClusterInstance CR로 마이그레이션을 참조하십시오.

1.3.5. 확장 (OLM v1)

1.3.5.1. Webhook를 사용하는 클러스터 확장 배포 (기술 프리뷰)

이번 릴리스에서는 TechPreviewNoUpgrade 기능 세트가 활성화된 클러스터에 Webhook를 사용하는 클러스터 확장을 배포할 수 있습니다.

자세한 내용은 지원되는 확장 기능을 참조하십시오.

1.3.6. 호스팅된 컨트롤 플레인

호스팅되는 컨트롤 플레인은 OpenShift Container Platform에서 비동기적으로 릴리스되므로 자체 릴리스 노트가 있습니다. 자세한 내용은 호스팅 컨트롤 플레인 릴리스 노트를 참조하십시오.

1.3.7. IBM Power

OpenShift Container Platform 4.20의 IBM Power® 릴리스는 OpenShift Container Platform 구성 요소에 개선 사항 및 새로운 기능을 추가합니다.

이 릴리스에서는 IBM Power에서 다음 기능을 지원합니다.

  • IBM Power®에서 가속기를 활성화합니다.

1.3.8. IBM Z 및 IBM LinuxONE

OpenShift Container Platform 4.20의 IBM Z® 및 IBM® LinuxONE 릴리스는 OpenShift Container Platform 구성 요소에 향상된 기능과 새로운 기능을 추가합니다.

이번 릴리스에서는 IBM Z® 및 IBM® LinuxONE에서 다음 기능을 지원합니다.

  • IBM Z®에서 가속기를 활성화합니다.

1.3.9. IBM Power, IBM Z 및 IBM LinuxONE 지원 매트릭스

OpenShift Container Platform 4.14부터 EUS (Extended Update Support)는 IBM Power® 및 IBM Z® 플랫폼으로 확장됩니다. 자세한 내용은 OpenShift EUS 개요 를 참조하십시오.

Expand
표 1.1. CSI 볼륨
기능IBM Power®IBM Z® 및 IBM® LinuxONE

복제

지원됨

지원됨

확장

지원됨

지원됨

스냅샷

지원됨

지원됨

Expand
표 1.2. Multus CNI 플러그인
기능IBM Power®IBM Z® 및 IBM® LinuxONE

Bridge

지원됨

지원됨

Host-device

지원됨

지원됨

IPAM

지원됨

지원됨

IPVLAN

지원됨

지원됨

Expand
표 1.3. OpenShift Container Platform 기능
기능IBM Power®IBM Z® 및 IBM® LinuxONE

OpenShift CLI(oc)를 사용하여 온프레미스 클러스터에 컴퓨팅 노드 추가

지원됨

지원됨

대체 인증 공급자

지원됨

지원됨

에이전트 기반 설치 관리자

지원됨

지원됨

지원되는 설치 관리자

지원됨

지원됨

로컬 스토리지 Operator를 통한 자동 장치 검색

지원되지 않음

지원됨

시스템 상태 점검으로 손상된 시스템 자동 복구

지원되지 않음

지원되지 않음

IBM Cloud®용 클라우드 컨트롤러 관리자

지원됨

지원되지 않음

노드에서 오버 커밋 제어 및 컨테이너 밀도 관리

지원되지 않음

지원되지 않음

CPU 관리자

지원됨

지원됨

Cron 작업

지원됨

지원됨

Descheduler

지원됨

지원됨

송신 IP

지원됨

지원됨

etcd에 저장된 데이터 암호화

지원됨

지원됨

FIPS 암호화

지원됨

지원됨

Helm

지원됨

지원됨

수평 Pod 자동 스케일링

지원됨

지원됨

호스팅된 컨트롤 플레인

지원됨

지원됨

IBM Secure Execution

지원되지 않음

지원됨

IBM Power® Virtual Server용 설치 관리자 프로비저닝 인프라 활성화

지원됨

지원되지 않음

단일 노드에 설치

지원됨

지원됨

IPv6

지원됨

지원됨

사용자 정의 프로젝트 모니터링

지원됨

지원됨

다중 아키텍처 컴퓨팅 노드

지원됨

지원됨

다중 아키텍처 컨트롤 플레인

지원됨

지원됨

다중 경로

지원됨

지원됨

network-Bound 디스크 암호화 - 외부 Tang 서버

지원됨

지원됨

NVMe(Non-volatile Memory express drives)

지원됨

지원되지 않음

NX-gzip for Power10 (Hardware Acceleration)

지원됨

지원되지 않음

oc-mirror 플러그인

지원됨

지원됨

OpenShift CLI(oc) 플러그인

지원됨

지원됨

Operator API

지원됨

지원됨

OpenShift Virtualization

지원되지 않음

지원됨

IPsec 암호화를 포함한 OVN-Kubernetes

지원됨

지원됨

PodDisruptionBudget

지원됨

지원됨

PTP(Precision Time Protocol) 하드웨어

지원되지 않음

지원되지 않음

Red Hat OpenShift Local

지원되지 않음

지원되지 않음

스케줄러 프로파일

지원됨

지원됨

Secure Boot

지원되지 않음

지원됨

SCTP(스트림 제어 전송 프로토콜)

지원됨

지원됨

다중 네트워크 인터페이스 지원

지원됨

지원됨

IBM Power® (Hardware Acceleration)에서 다양한 SMT 수준을 지원하는 openshift-install 유틸리티

지원됨

지원되지 않음

3-노드 클러스터 지원

지원됨

지원됨

토폴로지 관리자

지원됨

지원되지 않음

SCSI 디스크의 z/VM Emulated FBA 장치

지원되지 않음

지원됨

4K FCP 블록 장치

지원됨

지원됨

Expand
표 1.4. Operator
기능IBM Power®IBM Z® 및 IBM® LinuxONE

cert-manager Operator for Red Hat OpenShift

지원됨

지원됨

Cluster Logging Operator

지원됨

지원됨

Cluster Resource Override Operator

지원됨

지원됨

Compliance Operator

지원됨

지원됨

Cost Management Metrics Operator

지원됨

지원됨

File Integrity Operator

지원됨

지원됨

HyperShift Operator

지원됨

지원됨

IBM Power® Virtual Server Block CSI Driver Operator

지원됨

지원되지 않음

Ingress 노드 방화벽 Operator

지원됨

지원됨

Local Storage Operator

지원됨

지원됨

MetalLB Operator

지원됨

지원됨

Network Observability Operator

지원됨

지원됨

NFD Operator

지원됨

지원됨

NMState Operator

지원됨

지원됨

OpenShift Elasticsearch Operator

지원됨

지원됨

Vertical Pod Autoscaler Operator

지원됨

지원됨

Expand
표 1.5. 영구 스토리지 옵션
기능IBM Power®IBM Z® 및 IBM® LinuxONE

iSCSI를 사용하는 영구 스토리지

지원됨 [1]

지원됨 [1] , [2]

로컬 볼륨(LSO)을 사용한 영구 스토리지

지원됨 [1]

지원됨 [1] , [2]

hostPath를 사용하는 영구 스토리지

지원됨 [1]

지원됨 [1] , [2]

파이버 채널을 사용하는 영구 스토리지

지원됨 [1]

지원됨 [1] , [2]

Raw Block을 사용하는 영구 스토리지

지원됨 [1]

지원됨 [1] , [2]

EDEV/FBA를 사용하는 영구 스토리지

지원됨 [1]

지원됨 [1] , [2]

  1. 영구 공유 스토리지는 Red Hat OpenShift Data Foundation 또는 기타 지원되는 스토리지 프로토콜을 사용하여 프로비저닝해야 합니다.
  2. 영구 비공유 스토리지는 iSCSI, FC와 같은 로컬 스토리지를 사용하거나 DASD, FCP 또는 EDEV/FBA와 LSO를 사용하여 프로비저닝해야 합니다.

1.3.10. Insights Operator

1.3.10.1. 클러스터에서 virt-launcher 로그 가져오기 지원

이번 릴리스에서는 virt-launcher Pod의 명령줄 로그를 Kubernetes 클러스터 전체에서 수집할 수 있습니다. JSON 인코딩 로그는 경로 네임스페이스/<namespace-name>/pods/<pod-name>/virt-launcher.json 에 저장되므로 가상 머신의 문제 해결 및 디버깅이 용이합니다.

1.3.11. 설치 및 업데이트

1.3.11.1. CVO 로그 수준 변경 (기술 프리뷰)

이번 릴리스에서는 CVO(Cluster Version Operator) 로그 수준 세부 정보 표시를 클러스터 관리자가 변경할 수 있습니다.

자세한 내용은 CVO 로그 수준 변경을 참조하십시오.

OpenShift Container Platform 4.18을 사용하면 노드에 대해 여러 NIC(네트워크 인터페이스 컨트롤러)가 있는 VMware vSphere 클러스터를 기술 프리뷰 기능으로 설치할 수 있었습니다. 이 기능은 이제 일반적으로 사용할 수 있습니다.

자세한 내용은 여러 NIC 구성을 참조하십시오.

기존 vSphere 클러스터의 경우 컴퓨팅 머신 세트를 사용하여 여러 서브넷을 추가할 수 있습니다.

이번 릴리스에서는 Google Cloud의 클러스터를 공유 VPC에 설치할 때 DNS 프라이빗 영역의 위치를 지정할 수 있습니다. 프라이빗 영역은 호스트 프로젝트 또는 기본 서비스 프로젝트와 다른 서비스 프로젝트에 있을 수 있습니다.

자세한 내용은 추가 Google Cloud 구성 매개변수를 참조하십시오.

이번 릴리스에서는 암호화된 가상 네트워크를 사용하여 Azure에 클러스터를 설치할 수 있습니다. premiumIO 매개변수가 true 로 설정된 Azure 가상 머신을 사용해야 합니다. 자세한 내용은 암호화 및 요구 사항 및 제한을 사용하여 가상 네트워크 생성에 대한 Microsoft의 설명서를 참조하십시오.

이번 릴리스에서는 IBM Cloud Paks를 사용하여 클러스터를 설치하는 경우 포트 443에서 icr.iocp.icr.io 에 대한 아웃바운드 액세스를 허용해야 합니다. 이 액세스는 IBM Cloud Pak 컨테이너 이미지에 필요합니다. 자세한 내용은 방화벽 구성을 참조하십시오.

1.3.11.6. Intel TDX 기밀 VM을 사용하여 Microsoft Azure에 클러스터 설치

이번 릴리스에서는 Intel 기반 기밀 VM을 사용하여 Azure에 클러스터를 설치할 수 있습니다. 이제 다음 머신 크기가 지원됩니다.

  • DCesv5-series
  • DCedsv5-series
  • ECesv5-series
  • ECedsv5-series

자세한 내용은 기밀 VM 활성화를 참조하십시오.

1.3.11.7. Microsoft Azure의 etcd 전용 디스크 (기술 프리뷰)

이번 릴리스에서는 etcd 용 전용 데이터 디스크를 사용하여 Azure에 OpenShift Container Platform 클러스터를 설치할 수 있습니다. 이 구성은 별도의 관리 디스크를 각 컨트롤 플레인 노드에 연결하고 etcd 데이터에만 사용하므로 클러스터 성능과 안정성을 향상시킬 수 있습니다. 이 기능은 기술 프리뷰로 사용할 수 있습니다. 자세한 내용은 etcd 전용 디스크 구성을 참조하십시오.

1.3.11.8. 베어 메탈에 대한 다중 아키텍처 지원

이번 릴리스에서는 다중 아키텍처 기능을 지원하는 베어 메탈 환경을 설치할 수 있습니다. 가상 미디어를 사용하여 기존 x86_64 클러스터에서 x86_64aarch64 아키텍처를 프로비저닝할 수 있습니다. 즉, 다양한 하드웨어 환경을 보다 효율적으로 관리할 수 있습니다.

자세한 내용은 다중 아키텍처 컴퓨팅 머신을 사용하여 클러스터 구성 을 참조하십시오.

1.3.11.9. 베어 메탈의 NIC의 호스트 펌웨어 구성 요소 업데이트 지원

이번 릴리스에서는 베어 메탈의 HostFirmwareComponents 리소스에서 NIC(네트워크 인터페이스 컨트롤러)를 설명합니다. NIC 호스트 펌웨어 구성 요소를 업데이트하려면 서버에서 Redfish를 지원해야 하며 Redfish를 사용하여 NIC 펌웨어를 업데이트할 수 있어야 합니다.

자세한 내용은 HostFirmwareComponents 리소스 정보를 참조하십시오.

OpenShift Container Platform 4.17에서 이전에 제거된 Kubernetes API 가 의도치 않게 다시 도입되었습니다. OpenShift Container Platform 4.20에서 다시 제거되었습니다.

OpenShift Container Platform 4.19에서 4.20으로 클러스터를 업데이트하려면 먼저 클러스터 관리자가 수동으로 승인을 제공해야 합니다. 이러한 보호 조치는 워크로드, 툴 또는 기타 구성 요소가 OpenShift Container Platform 4.20에서 제거된 Kubernetes API에 의존하는 경우 발생할 수 있는 업데이트 문제를 방지하는 데 도움이 됩니다.

관리자는 클러스터 업데이트를 진행하기 전에 다음 작업을 수행해야 합니다.

  1. 제거할 API 사용을 위해 클러스터를 평가합니다.
  2. 지원되는 API 버전을 사용하도록 영향을 받는 매니페스트, 워크로드 및 API 클라이언트를 마이그레이션합니다.
  3. 관리자에게 필요한 모든 업데이트가 수행되었음을 승인을 제공합니다.

모든 OpenShift Container Platform 4.19 클러스터에는 OpenShift Container Platform 4.20으로 업데이트하기 전에 이 관리자에게 승인해야 합니다.

자세한 내용은 Kubernetes API 제거를 참조하십시오.

1.3.12. Machine Config Operator

1.3.12.1. vSphere에서 업데이트된 부팅 이미지 지원 (기술 프리뷰)

업데이트된 부팅 이미지가 VMware vSphere 클러스터의 기술 프리뷰 기능으로 지원됩니다. 이 기능을 사용하면 클러스터를 업데이트할 때마다 노드 부팅 이미지를 업데이트하도록 클러스터를 구성할 수 있습니다. 기본적으로 클러스터의 부팅 이미지는 클러스터와 함께 업데이트되지 않습니다. 자세한 내용은 업데이트된 부팅 이미지 업데이트를 참조하십시오.

1.3.12.2. 클러스터의 이미지 모드 재부팅 개선 사항

다음 머신 구성 변경으로 인해 더 이상 클러스터의 사용자 정의 계층화된 이미지가 있는 노드가 재부팅되지 않습니다.

  • /var 또는 /etc 디렉토리의 구성 파일 수정
  • systemd 서비스 추가 또는 수정
  • SSH 키 변경
  • ICSP,ITMS, IDMS 오브젝트에서 미러링 규칙 제거
  • openshift-config 네임스페이스에서 user-ca-bundle configmap을 업데이트하여 신뢰할 수 있는 CA 변경

자세한 내용은 On-cluster 이미지 모드의 알려진 제한 사항을 참조하십시오.

1.3.12.3. On-cluster 이미지 모드 상태 보고 개선 사항

OpenShift의 이미지 모드가 구성되면 다음 변경 사항을 포함하여 오류 보고가 개선되었습니다.

  • 사용자 정의 계층 이미지를 빌드하고 내보낸 후 특정 시나리오에서는 오류로 인해 빌드 프로세스가 실패할 수 있습니다. 이 경우 MCO는 오류를 보고하고 machineosbuild 오브젝트 및 빌더 Pod가 실패로 보고됩니다.
  • oc describe mcp 출력에는 사용자 정의 계층 이미지 빌드에 실패했는지 보고하는 새로운 ImageBuildDegraded status 필드가 있습니다.

노드에 실시간 커널을 설치하기 위해 클러스터의 사용자 정의 계층 이미지가 있는 노드의 MachineConfig 오브젝트에서 kernelType 매개변수를 사용할 수 있습니다. 이전에는 클러스터의 사용자 정의 계층 이미지가 있는 노드에서 kernelType 매개변수가 무시되었습니다. 자세한 내용은 노드에 실시간 커널 추가를 참조하십시오.

1.3.12.5. 노드에 이미지 고정

이미지 레지스트리에 대한 신뢰할 수 없는 연결이 느리고 신뢰할 수 없는 경우 PinnedImageSet 오브젝트를 사용하여 필요한 이미지를 미리 가져온 다음 해당 이미지를 머신 구성 풀과 연결할 수 있습니다. 이렇게 하면 필요한 경우 해당 풀의 노드에서 이미지를 사용할 수 있습니다. Machine Config Operator의 must-gather 에는 클러스터의 모든 PinnedImageSet 오브젝트가 포함됩니다. 자세한 내용은 노드에 이미지 고정을 참조하십시오.

1.3.12.6. 이제 MCO 상태 보고 기능이 개선되어 일반적으로 사용 가능

이제 노드에 대한 머신 구성 업데이트 진행 상황을 모니터링하는 데 사용할 수 있는 머신 구성 노드 사용자 정의 리소스를 사용할 수 있습니다.

이제 컨트롤 플레인 및 작업자 풀 외에도 사용자 정의 머신 구성 풀에 대한 업데이트 상태를 볼 수 있습니다. 기능의 기능은 변경되지 않았습니다. 그러나 명령 출력 및 MachineConfigNode 오브젝트의 status 필드에 있는 일부 정보가 업데이트되었습니다. Machine Config Operator의 must-gather 에 클러스터의 모든 MachineConfigNodes 오브젝트가 포함됩니다. 자세한 내용은 머신 구성 노드 상태 확인 에서 참조하십시오.

1.3.12.7. 직접 활성화

이번 릴리스에는 hostmount-anyuid-v2 라는 새로운 SCC(보안 컨텍스트 제약 조건)가 포함되어 있습니다. 이 SCC는 hostmount-anyuid SCC와 동일한 기능을 제공하지만 seLinuxContext: RunAsAny 가 포함되어 있습니다. hostmount-anyuid SCC가 신뢰할 수 있는 Pod가 호스트의 모든 경로에 액세스할 수 있도록 하지만 SELinux는 컨테이너가 대부분의 경로에 액세스하지 못하도록 하기 때문에 추가되었습니다. hostmount-anyuid-v2 를 사용하면 UID 0을 포함하여 모든 UID로 호스트 파일 시스템에 액세스할 수 있으며 권한이 있는 SCC 대신 사용할 수 있습니다. 주의해서 실행합니다.

1.3.13. 머신 관리

1.3.13.1. 추가 AWS 용량 예약 구성 옵션

클러스터 API를 사용하여 머신을 관리하는 클러스터에서 추가 제약 조건을 지정하여 컴퓨팅 시스템에서 AWS 용량 예약을 사용하는지 여부를 확인할 수 있습니다. 자세한 내용은 용량 예약 구성 옵션을 참조하십시오.

1.3.13.2. 클러스터 자동 스케일러 확장 지연

ClusterAutoscaler CR의 spec.scaleUp.newPodScaleUpDelay 매개변수를 사용하여 클러스터 자동 스케일러가 새로 보류 중인 Pod를 인식하고 새 노드에 Pod를 예약하기 전에 지연을 구성할 수 있습니다. 지연 후 노드가 일정하지 않은 상태로 남아 있으면 클러스터 자동 스케일러가 새 노드를 확장할 수 있습니다. 이 지연으로 클러스터 자동 스케일러는 적절한 노드를 찾을 수 있는 추가 시간을 제공하거나 기존 Pod의 공간을 사용할 수 있을 때까지 기다릴 수 있습니다. 자세한 내용은 클러스터 자동 스케일러 구성을 참조하십시오.

1.3.14. 모니터링

이 릴리스의 클러스터 내 모니터링 스택에는 다음과 같은 새로운 수정된 기능이 포함되어 있습니다.

1.3.14.1. 모니터링 스택 구성 요소 및 종속 항목에 대한 업데이트

이 릴리스에는 클러스터 내 모니터링 스택 구성 요소 및 종속 항목에 대한 다음 버전 업데이트가 포함되어 있습니다.

  • Prometheus - 3.5.0
  • Prometheus Operator to 0.85.0
  • 메트릭 서버 - 0.8.0
  • Thanos 0.39.2
  • kube-state-metrics 에이전트에서 2.16.0으로
  • prom-label-proxy to 0.12.0

1.3.14.2. 경고 규칙 변경

참고

Red Hat은 규칙 또는 경고 규칙에 대한 이전 버전과의 호환성을 보장하지 않습니다.

  • AlertmanagerClusterFailedToSendAlerts 경고의 표현식이 변경되었습니다. 경고는 이제 5m 에서 15m 까지 더 긴 기간 동안 속도를 평가합니다.

1.3.14.3. Metrics Server에 대한 로그 세부 정보 설정 지원

이번 릴리스에서는 Metrics Server에 대한 로그 세부 정보 표시를 구성할 수 있습니다. 숫자 상세 정보 수준을 설정하여 기록된 정보의 양을 제어할 수 있습니다. 여기서 더 많은 숫자가 로깅 세부 정보를 늘립니다.

자세한 내용은 모니터링 구성 요소의 로그 수준 설정을 참조하십시오.

1.3.15. 네트워킹

1.3.15.1. 게이트웨이 API 유추 확장 지원

OpenShift Container Platform 4.20은 Red Hat OpenShift Service Mesh를 버전 3.1.0으로 업데이트하며 이제 Red Hat OpenShift AI를 지원합니다. 이 버전 업데이트는 중요한 CVE 수정 사항을 통합하고, 다른 버그를 해결하며, Istio를 1.26.2 버전으로 업그레이드하여 보안 및 성능을 향상시킵니다. 자세한 내용은 Service Mesh 3.1.0 릴리스 노트 를 참조하십시오.

1.3.15.2. BGP 라우팅 프로토콜 지원

CNO(Cluster Network Operator)에서 BGP(Border Gateway Protocol) 라우팅 활성화를 지원합니다. BGP를 사용하면 경로를 기본 공급자 네트워크로 가져오고 내보낼 수 있으며 다중 호밍, 링크 중복성 및 빠른 통합 기능을 사용할 수 있습니다. BGP 구성은 FRRConfiguration CR(사용자 정의 리소스)을 사용하여 관리됩니다.

MetalLB Operator를 설치한 이전 버전의 OpenShift Container Platform에서 업그레이드할 때 custom frr-k8s 구성을 metallb-system 네임스페이스에서 openshift-frr-k8s 네임스페이스로 수동으로 마이그레이션해야 합니다. 이러한 CR을 이동하려면 다음 명령을 입력합니다.

  1. openshift-frr-k8s 네임스페이스를 생성하려면 다음 명령을 입력합니다.

    $ oc create namespace openshift-frr-k8s
    Copy to Clipboard Toggle word wrap
  2. 마이그레이션을 자동화하려면 다음 콘텐츠를 사용하여 migrate.sh 파일을 생성합니다.

    #!/bin/bash
    OLD_NAMESPACE="metallb-system"
    NEW_NAMESPACE="openshift-frr-k8s"
    FILTER_OUT="metallb-"
    oc get frrconfigurations.frrk8s.metallb.io -n "${OLD_NAMESPACE}" -o json |\
      jq -r '.items[] | select(.metadata.name | test("'"${FILTER_OUT}"'") | not)' |\
      jq -r '.metadata.namespace = "'"${NEW_NAMESPACE}"'"' |\
      oc create -f -
    Copy to Clipboard Toggle word wrap
  3. 마이그레이션 스크립트를 실행하려면 다음 명령을 입력합니다.

    $ bash migrate.sh
    Copy to Clipboard Toggle word wrap
  4. 마이그레이션이 성공했는지 확인하려면 다음 명령을 입력합니다.

    $ oc get frrconfigurations.frrk8s.metallb.io -n openshift-frr-k8s
    Copy to Clipboard Toggle word wrap

마이그레이션이 완료되면 metallb-system 네임스페이스에서 FRR-K8s 사용자 정의 리소스를 제거할 수 있습니다.

자세한 내용은 BGP 라우팅 정보를 참조하십시오.

OVN-Kubernetes 네트워크 플러그인은 경로 알림을 활성화하면 클러스터 사용자 정의 네트워크(CUDN)와 연결된 Pod 및 서비스에 대한 경로의 직접 알림을 공급자 네트워크로 지원합니다. 이 기능을 사용하면 다음과 같은 이점이 있습니다.

  • Pod로의 경로를 동적으로 알아보기
  • 동적으로 경로 알림
  • 적절한 ARP를 기반으로 계층 2 페일오버 외에도 EgressIP 페일오버의 계층 3 알림을 활성화합니다.
  • 대규모 네트워크에서 필요한 BGP 연결 수를 줄이는 외부 경로 리플렉터 지원

자세한 내용은 경로 알림 정보를 참조하십시오.

1.3.15.4. 구성된 br-ex 브리지를 NMState로 마이그레이션 지원

configure-ovs.sh 쉘 스크립트를 사용하여 클러스터 설치 중에 br-ex 브리지를 설정하는 경우 br-ex 브리지를 postinstallation 작업으로 NMState로 마이그레이션할 수 있습니다. 자세한 내용은 구성된 br-ex 브리지를 NMState로 마이그레이션 을 참조하십시오.

1.3.15.5. 향상된 PTP 로깅 구성

linuxptp-daemon 에서 생성한 로그 볼륨을 줄이기 위해 PTP Operator의 향상된 로그 감소를 구성할 수 있습니다.

이 기능은 기본 로그 감소와 함께 사용할 수 없는 필터링된 로그를 주기적으로 요약합니다. 선택적으로 요약 로그에 대한 특정 간격과 마스터 오프셋 로그에 대해 나노초 단위의 임계값을 설정할 수 있습니다.

자세한 내용은 향상된 PTP 로깅 구성을 참조하십시오.

1.3.15.6. AArch64 노드에서 중복성이 추가된 PTP 일반 클록 (기술 프리뷰)

이번 릴리스에서는 다음 듀얼 포트 NIC만 사용하는 AArch64 아키텍처 노드에서 중복성을 추가하여 PTP 일반 클록을 구성할 수 있습니다.

  • NVIDIA ConnectX-7 시리즈
  • NIC 모드에서 NVIDIA BlueField-3 시리즈

이 기능은 기술 프리뷰로 사용할 수 있습니다. 자세한 내용은 이중 포트 NIC를 사용하여 PTP 일반 클록의 중복성 개선을 참조하십시오.

1.3.15.7. 본딩 CNI 플러그인을 사용한 로드 밸런싱 구성 (기술 프리뷰)

이 릴리스에서는 본딩 CNI 플러그인 구성의 일부로 xmitHashPolicy 를 사용하여 집계된 인터페이스 간에 로드 밸런싱을 위한 전송 해시 정책을 지정할 수 있습니다. 이 기능은 기술 프리뷰로 사용할 수 있습니다.

자세한 내용은 Bond CNI 보조 네트워크의 구성을 참조하십시오.

1.3.15.8. 애플리케이션 네임스페이스에서 SR-IOV 네트워크 관리

OpenShift Container Platform 4.20을 사용하면 이제 애플리케이션 네임스페이스 내에서 SR-IOV 네트워크를 직접 생성하고 관리할 수 있습니다. 이 새로운 기능을 사용하면 네트워크 구성을 보다 효과적으로 제어할 수 있으며 워크플로를 단순화할 수 있습니다.

이전에는 SR-IOV 네트워크를 생성하려면 클러스터 관리자가 이를 구성해야 했습니다. 이제 몇 가지 주요 이점을 제공하는 자체 네임스페이스에서 이러한 리소스를 직접 관리할 수 있습니다.

  • 자율성 및 제어 증가: 이제 자체 SriovNetwork 오브젝트를 생성하여 네트워크 구성 작업을 위한 클러스터 관리자가 필요 없이 수행할 수 있습니다.
  • 보안 강화: 자체 네임스페이스 내에서 리소스를 관리하면 애플리케이션을 보다 효과적으로 분리하고 의도하지 않은 잘못된 구성을 방지할 수 있습니다.
  • 간소화된 권한: 네임스페이스가 지정된 SR-IOV 네트워크를 사용하여 권한을 단순화하고 운영 오버헤드를 줄일 수 있습니다.

자세한 내용은 네임스페이스가 지정된 SR-IOV 리소스 구성을 참조하십시오.

1.3.15.9. 번호가 지정되지 않은 BGP 피어링

이번 릴리스에서는 OpenShift Container Platform에 번호가 지정되지 않은 BGP 피어링이 포함되어 있습니다. 이전에는 기술 프리뷰 기능으로 사용 가능했습니다. BGP 피어 사용자 정의 리소스의 spec.interface 필드를 사용하여 번호가 지정되지 않은 BGP 피어링을 구성할 수 있습니다.

자세한 내용은 MetalLB 및 FRR-K8의 통합 구성 을 참조하십시오.

이 기술 프리뷰 기능에는 PF Status Relay Operator가 도입되었습니다. Operator는 LACP(Link Aggregation Control Protocol)를 상태 점검으로 사용하여 업스트림 스위치 오류를 탐지하여 SR-IOV 네트워크 VF(가상 기능)와 Pod 수준 본딩을 사용하는 워크로드에 대한 고가용성을 활성화합니다.

이 기능이 없으면 기본 물리적 기능(PF)이 여전히 up 상태를 보고하는 동안 업스트림 스위치가 실패할 수 있습니다. PF에 연결된 VFS도 유지되어 Pod가 dead endpoint로 트래픽을 전송하고 패킷 손실이 발생합니다.

PF Status Relay Operator는 PF의 LACP 상태를 모니터링하여 이를 방지합니다. 오류가 감지되면 Operator에서 연결된 VF의 링크 상태를 강제 중단하여 Pod의 본딩이 백업 경로로 장애 조치되도록 트리거합니다. 이렇게 하면 워크로드를 계속 사용할 수 있으며 패킷 손실이 최소화됩니다.

자세한 내용은 SR-IOV 네트워크에서 Pod 수준 본딩의 고가용성을 참조하십시오.

1.3.15.11. 추가 네임스페이스의 네트워크 정책

이번 릴리스에서는 OpenShift Container Platform에서 Kubernetes 네트워크 정책을 추가 시스템 네임스페이스에 배포하여 수신 및 송신 트래픽을 제어합니다. 향후 릴리스에는 추가 시스템 네임스페이스 및 Red Hat Operator에 대한 네트워크 정책이 포함될 수 있습니다.

1.3.16. 노드

1.3.16.1. 이제 Sigstore 지원을 일반적으로 사용할 수 있습니다.

이제 sigstore ClusterImagePolicyImagePolicy 오브젝트에 대한 지원을 일반적으로 사용할 수 있습니다. API 버전은 config.openshift.io/v1 입니다. 자세한 내용은 sigstore를 사용하여 보안 서명 관리를 참조하십시오.

참고

기본 openshift 클러스터 이미지 정책은 기술 프리뷰이며 기술 프리뷰 기능을 활성화한 클러스터에서만 활성화됩니다.

1.3.17. Sigstore 지원 BYOPKI (BYOPKI) 이미지 검증

이제 sigstore ClusterImagePolicyImagePolicy 오브젝트를 사용하여 policy.json 파일에 BYOPKI 구성을 생성하여 BYOPKI 를 사용하여 이미지 서명을 확인할 수 있습니다. 자세한 내용은 클러스터 및 이미지 정책 매개변수 정보를 참조하십시오.

이제 Pod 및 컨테이너를 Linux 사용자 네임스페이스에 배포할 수 있으며 기본적으로 활성화되어 있습니다. 개별 사용자 네임스페이스에서 Pod 및 컨테이너를 실행하면 손상된 컨테이너가 다른 Pod 및 노드 자체를 초래할 수 있는 몇 가지 취약점을 완화할 수 있습니다. 이 변경에는 사용자 네임스페이스에 사용하도록 특별히 설계된 두 가지 새로운 보안 컨텍스트 제약 조건인 restricted-v3nested-container 도 포함됩니다. Pod의 /proc 파일 시스템을 마스킹되지 않은 것으로 구성할 수도 있습니다. 자세한 내용은 Linux 사용자 네임스페이스에서 Pod 실행을 참조하십시오.

1.3.17.2. Pod 중단 없이 Pod 리소스 수준 조정

인플레이스 Pod 크기 조정 기능을 사용하면 Pod를 다시 생성하거나 다시 시작하지 않고 실행 중인 Pod 내의 컨테이너의 CPU 및 메모리 리소스를 변경하는 데 크기 조정 정책을 적용할 수 있습니다. 자세한 내용은 Pod 리소스 수준 수동 조정을 참조하십시오.

1.3.17.3. Pod에 OCI 이미지 마운트

이미지 볼륨을 사용하여 OCI(Open Container Initiative) 호환 컨테이너 이미지 또는 아티팩트를 Pod에 직접 마운트할 수 있습니다. 자세한 내용은 Pod에 OCI 이미지 마운트를 참조하십시오.

1.3.17.4. Pod에 특정 GPU 할당 (기술 프리뷰)

이제 제품 이름, GPU 메모리 용량, 컴퓨팅 기능, 벤더 이름, 드라이버 버전과 같은 특정 장치 특성에 따라 Pod에서 GPU를 요청할 수 있습니다. 이러한 속성은 사용자가 설치하는 타사 DRA 리소스 드라이버를 사용하여 노출됩니다. 자세한 내용은 GPU를 Pod에 할당을 참조하십시오.

1.3.18. OpenShift CLI(oc)

1.3.18.1. oc adm upgrade recommend 명령 소개 (일반 가용성)

이전 버전의 기술 프리뷰 및 이제 oc adm upgrade recommend 명령을 사용하면 시스템 관리자가 CLI(명령줄 인터페이스)를 사용하여 OpenShift Container Platform 클러스터에서 사전 업데이트 검사를 수행할 수 있습니다. 업데이트 전 점검은 잠재적인 문제를 식별하여 사용자가 업데이트를 시작하기 전에 문제를 해결할 수 있도록 지원합니다. precheck 명령을 실행하고 출력을 검사하여 클러스터 업데이트를 준비하고 업데이트를 시작할 시기에 대한 정보에 대한 결정을 내릴 수 있습니다.

자세한 내용은 CLI를 사용하여 클러스터 업데이트를 참조하십시오.

1.3.18.2. oc adm upgrade status 명령 (일반 가용성) 소개

이전 버전의 기술 프리뷰 및 이제 oc adm upgrade status 명령을 사용하면 클러스터 관리자가 CLI(명령줄 인터페이스)를 사용하여 OpenShift Container Platform 클러스터 업데이트 상태에 대한 고급 요약 정보를 얻을 수 있습니다. 명령을 입력할 때 컨트롤 플레인 정보, 작업자 노드 정보 및 상태 인사이트의 세 가지 유형의 정보가 제공됩니다.

이 명령은 현재 HCP(Hosted Control Plane) 클러스터에서 지원되지 않습니다.

자세한 내용은 CLI를 사용하여 클러스터 업데이트를 참조하십시오.

런타임 시 Operator 컨트롤러에서 동적으로 배포하는 피연산자 이미지는 일반적으로 컨트롤러의 배포 템플릿 내의 환경 변수에서 참조합니다.

oc-mirror 플러그인 v2가 이러한 환경 변수에 액세스할 수 있는 동안 OpenShift Container Platform 4.20 이전에는 이미지 이외의 참조(예: 로그 수준)를 포함하여 모든 값을 미러링하려고 시도하여 오류가 발생했습니다. 이번 업데이트를 통해 OpenShift Container Platform은 이러한 환경 변수에서 참조하는 컨테이너 이미지만 식별하고 미러링합니다.

자세한 내용은 oc-mirror 플러그인 v2의 이미지 세트 구성 매개변수를 참조하십시오.

1.3.19. Operator 개발

1.3.19.1. 지원되는 Operator 기본 이미지

이번 릴리스에서는 OpenShift Container Platform 4.20과의 호환성을 위해 Operator 프로젝트의 다음 기본 이미지가 업데이트됩니다. 이러한 기본 이미지의 런타임 기능 및 구성 API는 버그 수정 및 CVE 문제를 해결하는 데 지원됩니다.

  • Ansible 기반 Operator 프로젝트의 기본 이미지
  • Helm 기반 Operator 프로젝트의 기본 이미지

자세한 내용은 OpenShift Container Platform 4.19 이상(Red Hat Knowledgebase)의 기존 Ansible 또는 Helm 기반 Operator 프로젝트의 기본 이미지 업데이트를 참조하십시오.

1.3.20. Operator 라이프사이클

이번 릴리스에서는 Red Hat 제공 Operator 카탈로그가 OperatorHub에서 소프트웨어 카탈로그로 이동했으며 Operator 탐색 항목의 이름이 콘솔의 Ecosystem 으로 변경되었습니다. 통합 소프트웨어 카탈로그는 동일한 콘솔 뷰에 Operator, Helm 차트 및 기타 설치 가능한 콘텐츠를 제공합니다.

  • 콘솔에서 Red Hat 제공 Operator 카탈로그에 액세스하려면 Ecosystem Software Catalog 를 선택합니다.
  • 설치된 Operator를 관리, 업데이트 및 제거하려면 에코시스템 설치된 Operator 를 선택합니다.
참고

현재 콘솔은 OLM(Operator Lifecycle Manager) Classic을 사용하여 Operator 관리를 지원합니다. OLM v1을 사용하여 Operator와 같은 클러스터 확장을 설치하고 관리하려면 CLI를 사용해야 합니다.

기본 또는 사용자 정의 카탈로그 소스를 관리하려면 콘솔 또는 CLI에서 OperatorHub CR(사용자 정의 리소스)과 상호 작용합니다.

1.3.21. 설치 후 구성

이번 릴리스에서는 설치 중에 그렇지 않은 경우에도 STS를 사용하도록 AWS OpenShift Container Platform 클러스터를 구성할 수 있습니다.

자세한 내용은 기존 클러스터에서 AWS STS(보안 토큰 서비스) 활성화를 참조하십시오.

1.3.22. RHCOS(Red Hat Enterprise Linux CoreOS)

1.3.22.1. kdump를 사용하여 커널 충돌 조사 (일반 가용성)

이번 업데이트를 통해 x86_64,arm64,s390x, ppc64 le 등 지원되는 모든 아키텍처에 kdump 를 일반적으로 사용할 수 있습니다. 이번 개선된 기능을 통해 사용자는 커널 문제를 보다 효율적으로 진단하고 해결할 수 있습니다.

1.3.22.2. Ignition 버전 2.20.0으로 업데이트

RHCOS는 Ignition 버전 2.20.0을 도입했습니다. 이번 개선된 기능을 통해 이제 dracut 모듈 설치에 포함된 partx 유틸리티를 사용하여 마운트된 파티션이 있는 파티션 파티셔닝을 지원합니다. 또한 이 업데이트에는 Proxmox 가상 환경에 대한 지원이 추가되었습니다.

1.3.22.3. Butane이 0.23.0으로 업데이트

RHCOS에는 Butane 버전 0.23.0이 포함됩니다.

1.3.22.4. Bburn이 버전 5.7.0으로 업데이트 후

RHCOS에는 Afterburn 버전 5.7.0이 포함되어 있습니다. 이번 업데이트에서는 Proxmox 가상 환경에 대한 지원이 추가되었습니다.

1.3.22.5. coreos-installer 를 버전 0.23.0으로 업데이트

이번 릴리스에서는 coreos-installer 유틸리티가 버전 0.23.0으로 업데이트되었습니다.

1.3.23. 확장 및 성능

1.3.23.1. NUMA 인식 스케줄러 복제본 및 고가용성 구성 (기술 프리뷰)

OpenShift Container Platform 4.20에서 NUMA Resources Operator는 기본적으로 HA(고가용성) 모드를 자동으로 활성화합니다. 이 모드에서 NUMA Resources Operator는 중복을 보장하기 위해 클러스터의 각 control-plane 노드에 대해 하나의 스케줄러 복제본을 생성합니다. 이 기본 동작은 spec.replicas 필드가 NUMAResourcesScheduler 사용자 정의 리소스에 지정되지 않은 경우 발생합니다. 또는 spec.replicas 필드를 0 으로 설정하여 기본 HA 동작을 덮어쓰거나 스케줄러를 완전히 비활성화하도록 특정 수의 스케줄러 복제본을 명시적으로 설정할 수 있습니다. 컨트롤 플레인 노드의 수가 3을 초과하면 최대 복제본 수는 3입니다.

자세한 내용은 NUMA 인식 스케줄러의 HA(고가용성) 관리를 참조하십시오.

이번 릴리스에서는 NUMA 리소스 Operator에서 예약 가능으로 구성된 컨트롤 플레인 노드를 관리할 수 있습니다. 이 기능을 사용하면 컨트롤 플레인 노드에 토폴로지 인식 워크로드를 배포할 수 있으므로 컴팩트 클러스터와 같은 리소스가 제한적인 환경에서 특히 유용합니다.

이번 개선된 기능을 통해 NUMA Resources Operator는 컨트롤 플레인 노드에서도 가장 적합한 NUMA 토폴로지를 사용하여 노드에서 NUMA 인식 Pod를 예약할 수 있습니다.

자세한 내용은 예약 가능한 컨트롤 플레인 노드에 대한 NUMA 리소스 Operator 지원을 참조하십시오.

1.3.23.3. 수신 패킷 처리(RPS)가 기본적으로 비활성화되어 있습니다.

이번 릴리스에서는 성능 프로필을 적용할 때RPS(Receive Packet Steering)가 더 이상 구성되지 않습니다. RPS 구성은 대기 시간에 민감한 스레드 내에서 직접 send와 같은 네트워킹 시스템 호출을 수행하는 컨테이너에 영향을 미칩니다. RPS가 구성되지 않은 경우 대기 시간이 미치는 영향을 방지하려면 네트워킹 호출을 도우미 스레드 또는 프로세스로 이동합니다.

이전 RPS 구성을 통해 전체 Pod 커널 네트워킹 성능이 저하되는 대기 시간 문제를 해결했습니다. 현재 기본 구성은 개발자에게 성능에 영향을 미치는 대신 기본 애플리케이션 설계를 해결하도록 하여 투명성을 향상시킵니다.

이전 동작으로 되돌리려면 performance.openshift.io/enable-rps 주석을 PerformanceProfile 매니페스트에 추가합니다.

apiVersion: performance.openshift.io/v2
kind: PerformanceProfile
metadata:
  name: example-performanceprofile
  annotations:
    performance.openshift.io/enable-rps: "enable"
Copy to Clipboard Toggle word wrap
참고

이 작업은 모든 Pod의 네트워킹 성능을 전역적으로 줄이는 대신 이전 기능을 복원합니다.

1.3.23.4. Intel Cryostat Forest CPU가 있는 작업자 노드의 성능 튜닝

이번 릴리스에서는 PerformanceProfile 사용자 정의 리소스를 사용하여 Intel Cryostat Forest CPU가 설치된 시스템에서 작업자 노드를 구성할 수 있습니다. 이러한 CPU는 단일 NUMA 도메인(NPS=1)으로 구성된 경우 지원됩니다.

1.3.23.5. AMD Turin CPU가 있는 작업자 노드의 성능 튜닝

이번 릴리스에서는 PerformanceProfile 사용자 정의 리소스를 사용하여 AMD Turin CPU가 있는 시스템에서 작업자 노드를 구성할 수 있습니다. 이러한 CPU는 단일 NUMA 도메인(NPS=1)으로 구성된 경우 완전히 지원됩니다.

1.3.23.6. Kubernetes API에 대한 적중 횟수 없는 TLS 인증서 교체

이 새로운 기능은 OpenShift Container Platform에서 TLS 인증서 교체를 개선하여 95%의 클러스터 가용성을 보장합니다. 높은 수준의 클러스터 및 단일 노드 OpenShift 배포를 통해 부하가 많은 경우에도 원활한 작업을 수행하는 데 특히 유용합니다.

1.3.24. 보안

1.3.25. 스토리지

1.3.25.1. Secrets Store CSI Driver Operator에 대한 NetworkPolicy 지원

Secrets Store CSI Driver Operator 버전 4.20은 이제 업스트림 v1.5.2 릴리스를 기반으로 합니다. Secrets Store CSI Driver Operator는 설치 중에 Kubernetes NetworkPolicy 오브젝트를 적용하여 네트워크 통신을 필수 구성 요소로만 제한합니다.

1.3.26. 웹 콘솔

맨 위로 이동
Red Hat logoGithubredditYoutubeTwitter

자세한 정보

평가판, 구매 및 판매

커뮤니티

Red Hat 문서 정보

Red Hat을 사용하는 고객은 신뢰할 수 있는 콘텐츠가 포함된 제품과 서비스를 통해 혁신하고 목표를 달성할 수 있습니다. 최신 업데이트를 확인하세요.

보다 포괄적 수용을 위한 오픈 소스 용어 교체

Red Hat은 코드, 문서, 웹 속성에서 문제가 있는 언어를 교체하기 위해 최선을 다하고 있습니다. 자세한 내용은 다음을 참조하세요.Red Hat 블로그.

Red Hat 소개

Red Hat은 기업이 핵심 데이터 센터에서 네트워크 에지에 이르기까지 플랫폼과 환경 전반에서 더 쉽게 작업할 수 있도록 강화된 솔루션을 제공합니다.

Theme

© 2025 Red Hat