1.3. 새로운 기능 및 개선 사항


이 릴리스에는 다음 구성 요소 및 개념과 관련된 개선 사항이 추가되었습니다.

1.3.1. RHCOS(Red Hat Enterprise Linux CoreOS)

1.3.1.1. RHCOS에서 RHEL 9.2 사용

RHCOS는 이제 OpenShift Container Platform 4.13에서 RHEL (Red Hat Enterprise Linux) 9.2 패키지를 사용합니다. 이를 통해 최신 수정 사항, 기능 및 향상된 기능은 물론 최신 하드웨어 지원 및 드라이버 업데이트를 받을 수 있습니다.

1.3.1.1.1. RHEL 9.2를 사용하여 OpenShift Container Platform으로 업그레이드하기 위한 고려 사항

이번 릴리스에서는 OpenShift Container Platform 4.13에서 RHEL 9.2 기반 RHCOS가 도입되었으며 업그레이드하기 전에 몇 가지 고려해야 할 사항이 있습니다.

  • 일부 구성 요소 구성 옵션 및 서비스가 RHEL 8.6과 RHEL 9.2 간에 변경될 수 있으므로 기존 머신 구성 파일이 더 이상 유효하지 않을 수 있습니다.
  • 기본 OpenSSH /etc/ssh/sshd_config 서버 구성 파일을 사용자 지정한 경우 이 Red Hat 지식베이스 문서에 따라 업데이트해야 합니다.
  • RHEL 6 기본 이미지 컨테이너는 RHCOS 컨테이너 호스트에서는 지원되지 않지만 RHEL 8 작업자 노드에서 지원됩니다. 자세한 내용은 Red Hat Container Compatibility Matrix를 참조하십시오.
  • 일부 장치 드라이버는 더 이상 사용되지 않습니다. 자세한 내용은 RHEL 설명서 를 참조하십시오.

1.3.1.2. 설치 관리자 프로비저닝 인프라를 사용하는 IBM Power Virtual Server (기술 프리뷰)

설치 관리자 프로비저닝 인프라(IPI)는 OpenShift Container Platform의 전체 스택 설치 및 설정을 제공합니다.

자세한 내용은 IBM Power Virtual Server에 설치 준비를 참조하십시오.

1.3.1.3. IBM Secure Execution on IBM Z and IBM (R) LinuxONE

이 기능은 OpenShift Container Platform 4.12에서 기술 프리뷰로 소개되었으며 현재 OpenShift Container Platform 4.13에서 일반적으로 사용할 수 있습니다. IBM Secure Execution은 KVM 게스트의 메모리 경계를 보호하는 하드웨어 기능 강화입니다. IBM Secure Execution은 클러스터 워크로드에 대해 최고 수준의 격리 및 보안을 제공하며 IBM Secure Execution-ready QCOW2 부팅 이미지를 사용하여 활성화할 수 있습니다.

IBM Secure Execution을 사용하려면 호스트 머신의 호스트 키가 있어야 하며 Ignition 구성 파일에 지정해야 합니다. IBM Secure Execution은 LUKS 암호화를 사용하여 부팅 볼륨을 자동으로 암호화합니다.

자세한 내용은 IBM 보안 실행을 사용하여 RHCOS 설치를 참조하십시오.

1.3.1.4. 지원 설치 관리자 SaaS는 IBM Power, IBM Z 및 IBM(R) LinuxONE에 대한 플랫폼 통합 지원을 제공합니다.

console.redhat.com 에서 지원되는 설치 관리자 SaaS는 지원 설치 관리자 사용자 인터페이스 또는 REST API를 사용하여 IBM Power, IBM Z 및 IBM® LinuxONE 플랫폼에 OpenShift Container Platform 설치를 지원합니다. 통합을 통해 사용자는 단일 인터페이스에서 인프라를 관리할 수 있습니다. IBM Power, IBM Z 및 IBM® LinuxONE과 지원 설치 관리자 SaaS와의 통합을 활성화하는 몇 가지 추가 설치 단계가 있습니다.

자세한 내용은 지원 설치 관리자를 사용하여 온프레미스 클러스터 설치를 참조하십시오.

1.3.1.5. RHCOS에 lsof 포함

OpenShift Container Platform 4.13에는 이제 RHCOS에 lsof 명령이 포함되어 있습니다.

1.3.2. 설치 및 업데이트

1.3.2.1. VMware vSphere 버전 8.0 지원

OpenShift Container Platform 4.13에서는 VMware vSphere 버전 8.0을 지원합니다. VMware vSphere 버전 7.0 업데이트 2에 OpenShift Container Platform 클러스터를 계속 설치할 수 있습니다.

1.3.2.2. VMware vSphere 리전 및 영역 활성화

OpenShift Container Platform 클러스터를 단일 VMware vCenter에서 실행되는 여러 vSphere 데이터 센터 또는 리전에 배포할 수 있습니다. 각 데이터 센터는 여러 클러스터 또는 영역을 실행할 수 있습니다. 이 설정을 사용하면 하드웨어 장애 또는 네트워크 중단으로 인해 클러스터가 실패할 위험이 줄어듭니다.

중요

이 기능에는 vSphere CSI(Container Storage Interface) 드라이버가 클러스터의 기본 스토리지 드라이버로 필요하므로 VMware vSphere 리전 및 영역 활성화 기능은 새로 설치된 클러스터에서만 사용할 수 있습니다.

이전 릴리스에서 업그레이드된 클러스터는 기본적으로 in-tree vSphere 드라이버를 사용합니다. 따라서 이 기능을 사용하려면 클러스터에 대해 CSI 자동 마이그레이션을 활성화해야 합니다. 그런 다음 업그레이드된 클러스터에 대해 여러 리전 및 영역을 구성할 수 있습니다.

자세한 내용은 VMware vSphere 리전 및 영역 사용을 참조하십시오.

1.3.2.3. 기본 vSphere install-config.yaml 파일로 변경

vSphere에서 OpenShift Container Platform용 설치 프로그램을 실행한 후 이제 기본 install-config.yaml 파일에 vcentersfailureDomains 필드가 포함되어 클러스터의 여러 데이터 센터, 리전 및 영역 정보를 지정할 수 있습니다. VMware vCenter에서 실행되는 단일 데이터 센터로 구성된 vSphere 환경에 OpenShift Container Platform 클러스터를 설치하려는 경우 이러한 필드를 비워 둘 수 있습니다.

자세한 내용은 VMware vCenter의 리전 및 영역 구성을 참조하십시오.

1.3.2.4. 여러 vSphere 서브넷을 지원하는 외부 로드 밸런서

여러 서브넷을 지원하는 외부 로드 밸런서를 사용하도록 OpenShift Container Platform 클러스터를 구성할 수 있습니다. 여러 서브넷을 사용하는 경우 로드 밸런서 대상에서 사용하는 네트워크의 모든 IP 주소를 명시적으로 나열할 수 있습니다. 이 구성을 사용하면 로드 밸런서 대상을 재구성하지 않고 해당 네트워크 내에서 노드를 생성하고 삭제할 수 있으므로 유지 관리 오버헤드가 줄어들 수 있습니다.

자세한 내용은 외부 로드 밸런서 구성을 참조하십시오.

1.3.2.5. VMware vSphere에 클러스터를 설치하기 전에 VM 암호화 지원

OpenShift Container Platform 4.13의 경우 사용자 프로비저닝 인프라를 사용하여 VMware vSphere에 클러스터를 설치하기 전에 가상 머신을 암호화할 수 있습니다.

자세한 내용은 가상 머신 암호화를 위한 요구 사항을참조하십시오.

1.3.2.6. 3-노드 클러스터 지원

OpenShift Container Platform 4.13부터 AWS(Amazon Web Services), Microsoft Azure, GCP(Google Cloud Platform) 및 VMware vSphere에서 3노드 클러스터 배포가 지원됩니다. 이 유형의 OpenShift Container Platform 클러스터는 컴퓨팅 머신 역할을 하는 세 개의 컨트롤 플레인 시스템으로 구성되므로 더 작고 리소스 효율이 높은 클러스터입니다.

자세한 내용은 AWS에 3-노드 클러스터설치, Azure에 3-노드 클러스터설치, GCP에 3-노드 클러스터 설치, vSphere에 3-노드 클러스터 설치를 참조하십시오.

1.3.2.7. IBM Cloud VPC 및 기존 VPC 리소스

기존 VPC(가상 프라이빗 클라우드)에 OpenShift Container Platform 클러스터를 배포하는 경우 networkResourceGroupName 매개변수를 사용하여 이러한 기존 리소스가 포함된 리소스 그룹의 이름을 지정할 수 있습니다. 이번 개선된 기능을 통해 기존 VPC 리소스 및 서브넷을 설치 프로그램이 프로비저닝하는 클러스터 리소스와 별도로 유지할 수 있습니다. 그런 다음 resourceGroupName 매개변수를 사용하여 설치 프로그램에서 프로비저닝한 모든 클러스터 리소스를 배포하는 데 사용할 수 있는 기존 리소스 그룹의 이름을 지정할 수 있습니다. resourceGroupName 이 정의되지 않은 경우 클러스터에 대한 새 리소스 그룹이 생성됩니다.

자세한 내용은 추가 IBM Cloud VPC 구성 매개변수를 참조하십시오.

1.3.2.8. OpenShift Container Platform 클러스터를 설치 및 삭제하는 데 GCP가 필요한 최소 권한

OpenShift Container Platform 4.13에서는 사전 정의된 역할을 사용하는 대신 OpenShift Container Platform 클러스터를 설치하고 삭제하는 데 필요한 최소 권한을 포함하도록 사용자 정의 역할을 정의할 수 있습니다. 이러한 권한은 설치 관리자 프로비저닝 인프라 및 사용자 프로비저닝 인프라에서 사용할 수 있습니다.

1.3.2.9. Azure에 대한 사용자 정의 태그

OpenShift Container Platform 4.13에서는 리소스를 그룹화하고 리소스 액세스 및 비용을 관리하기 위해 Azure에서 태그를 구성할 수 있습니다. 태그에 대한 지원은 Azure Public Cloud에서 생성된 리소스와 OpenShift Container Platform 4.13에서 TP(기술 프리뷰)로만 사용할 수 있습니다. OpenShift Container Platform 클러스터 생성 중에 install-config.yaml 파일에서 Azure 리소스에 태그를 정의할 수 있습니다.

1.3.2.10. 공유 VPC(Virtual Private Cloud)에 GCP의 OpenShift Container Platform 클러스터를 설치

OpenShift Container Platform 4.13에서는 GCP(Google Cloud Platform)의 공유 VPC(Virtual Private Cloud)에 클러스터를 설치할 수 있습니다. 이 설치 방법은 다른 GCP 프로젝트와 VPC를 공유하도록 클러스터를 구성합니다. 공유 VPC를 사용하면 조직에서 공통 VPC 네트워크를 통해 여러 프로젝트의 리소스를 연결할 수 있습니다. 일반적인 VPC 네트워크는 내부 IP 주소를 사용하여 조직의 통신의 보안과 효율성을 높일 수 있습니다.

자세한 내용은 공유 VPC에 GCP의 클러스터 설치를 참조하십시오.

1.3.2.11. 보호된 VM을 사용하여 GCP에 클러스터 설치

OpenShift Container Platform 4.13에서는 클러스터를 설치할 때 Shielded VMs를 사용할 수 있습니다. Shielded VM에는 보안 부팅, 펌웨어 및 무결성 모니터링, 루트킷 탐지 등 추가 보안 기능이 있습니다. 자세한 내용은 Enabling Shielded VMs and Google's documentation on Shielded VMs 에서 참조하십시오.

1.3.2.12. 기밀성 VM을 사용하여 GCP에 클러스터 설치

OpenShift Container Platform 4.13에서는 클러스터를 설치할 때 기밀성 VM을 사용할 수 있습니다. 기밀 VM은 처리되는 동안 데이터를 암호화합니다. 자세한 내용은 기밀 컴퓨팅에 대한 Google 문서를 참조하십시오. 서로 의존하지는 않지만 기밀 VM과 방패 VM을 동시에 활성화할 수 있습니다.

중요

OpenShift Container Platform 4.13 및 이전 버전에서 알려진 문제로 인해 GCP(Google Cloud Platform)에서 기밀 VM이 있는 클러스터에서 영구 볼륨 스토리지를 사용할 수 없습니다. 이 문제는 OpenShift Container Platform 4.13.4에서 해결되었습니다. 자세한 내용은 OCPBUGS-11768 에서 참조하십시오.

1.3.2.13. 기존 VPC(Virtual Private Cloud)에 AWS의 클러스터를 설치

OpenShift Container Platform 4.13에서는 AWS VPC를 사용하는 클러스터의 설치 프로세스가 간소화됩니다. 이 릴리스에서는 AWS Local Zones에 최적화된 머신 풀인 엣지 풀도 도입되었습니다.

자세한 내용은 AWS 로컬 영역을 사용하여 클러스터 설치를 참조하십시오.

1.3.2.14. OpenShift Container Platform 4.12에서 4.13으로 업그레이드할 때 관리자 승인 필요

OpenShift Container Platform 4.13에서는 더 이상 사용되지 않는 여러 API를 제거한 Kubernetes 1.26을 사용합니다.

클러스터 관리자는 클러스터를 OpenShift Container Platform 4.12에서 4.13로 업그레이드하기 전에 수동으로 승인을 제공해야 합니다. 이는 OpenShift Container Platform 4.13으로 업그레이드한 후에도 문제를 방지하기 위한 것입니다. 여기서 제거된 API는 클러스터에서 실행 중이거나 클러스터와 상호 작용하는 기타 구성 요소에서 여전히 사용 중입니다. 관리자는 제거될 모든 API에 대해 클러스터를 평가하고 영향을 받는 구성 요소를 마이그레이션하여 적절한 새 API 버전을 사용해야 합니다. 이 작업이 완료되면 관리자는 관리자 승인을 제공할 수 있습니다.

모든 OpenShift Container Platform 4.12 클러스터에는 OpenShift Container Platform 4.13으로 업그레이드하기 전에 이 관리자가 승인해야 합니다.

자세한 내용은 OpenShift Container Platform 4.13으로 업데이트 준비를 참조하십시오.

1.3.2.15. Microsoft Azure가 OpenShift Container Platform 클러스터를 설치 및 삭제하는 데 필요한 최소 권한

OpenShift Container Platform 4.13에서는 기본 제공 역할을 사용하는 대신 Microsoft Azure가 OpenShift Container Platform 클러스터를 설치하고 삭제하는 데 필요한 최소 권한을 포함하도록 사용자 정의 역할을 정의할 수 있습니다. 이러한 권한은 설치 관리자 프로비저닝 인프라 및 사용자 프로비저닝 인프라에서 사용할 수 있습니다.

1.3.2.16. 다중 아키텍처 페이로드 마이그레이션에 대한 단일 아키텍처

OpenShift Container Platform 4.13에서는 oc adm upgrade --to-multi-arch 명령을 도입하여 단일 아키텍처 컴퓨팅 머신이 있는 클러스터를 다중 아키텍처 컴퓨팅 머신이 있는 클러스터로 마이그레이션할 수 있습니다. 다중 아키텍처의 매니페스트 목록에 있는 페이로드로 업데이트하면 혼합 아키텍처 컴퓨팅 머신을 클러스터에 추가할 수 있습니다.

1.3.2.17. vSphere의 컨트롤 플레인에서 실행되도록 네트워크 구성 요소 구성

vSphere 설치의 컨트롤 플레인 노드에서 실행하려면 VIP 주소가 필요한 경우 컨트롤 플레인 노드에서 독점적으로 실행되도록 ingressVIP 주소를 구성해야 합니다. 기본적으로 OpenShift Container Platform에서는 작업자 머신 구성 풀의 모든 노드가 ingressVIP 주소를 호스팅할 수 있습니다. vSphere 환경은 컨트롤 플레인 노드와 별도의 서브넷에 작업자 노드를 배포하므로 컨트롤 플레인 노드에서 독점적으로 실행되도록 ingressVIP 주소를 구성하면 별도의 서브넷에 작업자 노드를 배포하여 문제가 발생하지 않습니다. 자세한 내용은 vSphere의 컨트롤 플레인에서 실행되도록 네트워크 구성 요소 구성을 참조하십시오.

1.3.2.18. 단일 노드를 사용하여 AWS에 OpenShift Container Platform 클러스터 설치

OpenShift Container Platform 4.13에서는 AWS(Amazon Web Services)에 단일 노드로 클러스터를 설치할 수 있습니다. 단일 노드에 설치하면 노드의 리소스 요구 사항이 증가합니다. 자세한 내용은 단일 노드에 클러스터 설치를 참조하십시오.

1.3.2.19. Bare Metal Operator를 사용하여 사용자 프로비저닝 클러스터에서 베어 메탈 호스트를 확장

OpenShift Container Platform 4.13을 사용하면 Bare Metal Operator(BMO) 및 기타 메탈3 구성 요소를 사용하여 기존 사용자 프로비저닝 인프라 클러스터에서 베어 메탈 호스트를 확장할 수 있습니다. 사용자 프로비저닝 클러스터에서 Bare Metal Operator를 사용하면 호스트의 관리 및 스케일링을 단순화하고 자동화할 수 있습니다.

BMO를 사용하면 BareMetalHost 오브젝트를 구성하여 호스트를 추가하거나 제거할 수 있습니다. BareMetalHost 오브젝트 인벤토리에 external Provisioned 로 등록하여 기존 호스트를 추적할 수도 있습니다.

참고

베어 메탈 Operator를 사용하여 프로비저닝 네트워크를 사용하여 사용자 프로비저닝 인프라 클러스터를 확장할 수 없습니다. 이 워크플로는 프로비저닝 네트워크를 지원하지 않으므로 가상 미디어 네트워크 부팅을 지원하는 베어 메탈 호스트 드라이버만 사용할 수 있습니다(예: redfish-virtualmediaidrac-virtualmedia ).

BMO를 사용하여 사용자 프로비저닝 클러스터를 스케일링하는 방법에 대한 자세한 내용은 Bare Metal Operator가 있는 사용자 프로비저닝 클러스터 스케일링을 참조하십시오.

1.3.2.20. 64비트 ARM의 OpenShift Container Platform

OpenShift Container Platform 4.13은 이제 64비트 ARM 아키텍처 기반 Azure 사용자 프로비저닝 설치에서 지원됩니다. 에이전트 기반 설치 프로그램은 이제 64비트 ARM 시스템에서도 지원됩니다. 인스턴스 가용성 및 설치 설명서에 대한 자세한 내용은 다른 플랫폼에 대해 지원되는 설치 방법을 참조하십시오.

1.3.2.21. git-lfs 패키지 지원

OpenShift Jenkins 이미지는 이제 git-lfs 패키지를 지원합니다. 이 패키지를 사용하면 OpenShift Jenkins 이미지에서 200MB(MB)보다 큰 아티팩트를 사용할 수 있습니다.

1.3.2.22. oc-mirror 플러그인을 사용하여 로컬 OCI Operator 카탈로그를 포함하는 기능을 일반적으로 사용할 수 있습니다.

oc-mirror 플러그인을 사용하여 디스크의 로컬 OCI Operator 카탈로그를 미러 레지스트리에 미러링할 수 있습니다. 이 기능은 이전에 OpenShift Container Platform 4.12에서 기술 프리뷰로 소개되었으며 현재 OpenShift Container Platform 4.13에서 일반적으로 사용할 수 있습니다.

이 릴리스에서는 로컬 OCI 카탈로그가 포함된 경우 다음 기능을 지원합니다.

  • 대상 미러 레지스트리에서 이미지 정리
  • 도구를 마지막으로 실행한 이후 변경된 항목만 미러링하려면 증분 미러링
  • 대상 미러 레지스트리에 있는 카탈로그의 대체 이름의 네임스페이스 계층 구조
중요
  • OpenShift Container Platform 4.12용 oc-mirror 플러그인에 기술 프리뷰 OCI 로컬 카탈로그 기능을 사용한 경우 oc-mirror 플러그인의 OCI 기능을 사용하여 로컬에서 카탈로그를 복사하고 OCI 형식으로 변환하여 완전히 연결이 끊긴 클러스터로 미러링할 수 있습니다.
  • 로컬 OCI 카탈로그를 미러링할 때 로컬 OCI 형식의 카탈로그와 함께 미러링하려는 OpenShift Container Platform 릴리스 또는 추가 이미지를 레지스트리에서 가져와야 합니다. 디스크의 oc-mirror 이미지 세트 파일과 함께 OCI 카탈로그를 미러링할 수 없습니다.
  • --use-oci-feature 플래그가 더 이상 사용되지 않습니다. 대신 --include-local-oci-catalogs 플래그를 사용하여 로컬 OCI 카탈로그 미러링을 활성화합니다.

자세한 내용은 로컬 OCI Operator 카탈로그 포함 을 참조하십시오.

1.3.2.23. RHOSP에서 장애 도메인을 사용하는 클러스터 배포 (기술 프리뷰)

RHOSP에서 여러 장애 도메인에 걸쳐 있는 클러스터를 배포할 수 있습니다. 대규모 배포의 경우 장애 도메인은 복원력과 성능을 향상시킵니다.

자세한 내용은 실패 도메인의 RHOSP 매개변수를 참조하십시오.

1.3.2.24. RHOSP에 사용자 관리 로드 밸런서를 사용하여 클러스터 배포 (기술 프리뷰)

이제 기본 내부 로드 밸런서가 아닌 사용자 관리 로드 밸런서를 사용하여 RHOSP에 클러스터를 배포할 수 있습니다.

자세한 내용은 사용자 관리 로드 밸런서를 사용하여 OpenStack에 클러스터 설치 구성을 참조하십시오.

1.3.2.25. Nutanix에 클러스터를 설치할 때 프로젝트 및 카테고리 사용

OpenShift Container Platform 4.13에서는 프로젝트 및 카테고리를 사용하여 Nutanix에 설치된 클러스터의 컴퓨팅 플레인 가상 머신을 구성할 수 있습니다. 프로젝트는 권한, 네트워크 및 기타 매개 변수를 관리하기 위한 사용자 역할의 논리 그룹을 정의합니다. 카테고리를 사용하여 공유 특성을 기반으로 가상 머신 그룹에 정책을 적용할 수 있습니다.

자세한 내용은 Nutanix에 클러스터 설치를 참조하십시오.

1.3.2.26. 에이전트 기반 설치 관리자에서 네트워크 연결 검사를 수행합니다.

에이전트 기반 설치 관리자를 사용하여 OpenShift Container Platform 4.13을 설치하는 경우 콘솔 애플리케이션(텍스트 사용자 인터페이스 포함)은 설치 프로세스 초기에 가져오기 검사를 수행하여 현재 호스트가 구성된 릴리스 이미지를 검색할 수 있는지 확인합니다. 콘솔 애플리케이션은 사용자가 네트워크 구성을 직접 수정할 수 있도록 하여 문제 해결 문제를 지원합니다.

자세한 내용은 현재 설치 호스트가 릴리스 이미지를 가져올 수 있는지 확인을 참조하십시오.

1.3.3. 설치 후 구성

1.3.3.1. 다중 아키텍처 컴퓨팅 머신이 있는 OpenShift Container Platform 클러스터

다중 아키텍처 컴퓨팅 머신이 있는 OpenShift Container Platform 4.13 클러스터를 일반적으로 사용할 수 있습니다. Day 2 작업에서는 AWS 및 Azure 설치 관리자 프로비저닝 인프라에 다양한 아키텍처의 컴퓨팅 노드를 사용하여 클러스터를 생성할 수 있습니다. 베어 메탈에 사용자 프로비저닝 설치는 기술 프리뷰에 있습니다. 다중 아키텍처 컴퓨팅 머신을 사용하여 클러스터를 생성하는 방법에 대한 자세한 내용은 OpenShift Container Platform 클러스터에서 다중 아키텍처 컴퓨팅 머신 구성을 참조하십시오.

1.3.3.2. VSphere에서 클러스터의 여러 장애 도메인 지정

관리자는 VMware VSphere 인스턴스에서 실행되는 OpenShift Container Platform 클러스터에 대해 여러 장애 도메인을 지정할 수 있습니다. 즉, 데이터센터에 다양한 하드웨어 리소스 간에 주요 컨트롤 플레인과 워크로드 요소를 배포할 수 있습니다. 또한 여러 계층 2 네트워크 구성을 사용하도록 클러스터를 구성하여 노드 간 데이터 전송이 여러 네트워크에 걸쳐 확장될 수 있습니다.

자세한 내용은 VSphere에서 클러스터의 여러 장애 도메인 지정 을 참조하십시오.

1.3.4. 웹 콘솔

1.3.4.1. 개발자 화면

이번 릴리스에서는 웹 콘솔의 개발자 화면에서 다음 작업을 수행할 수 있습니다.

  • Git에서 가져오기 흐름을 사용하여 Serverless 함수 를 생성합니다.
  • 추가 페이지에서 사용할 수 있는 Serverless 함수 생성 흐름을 사용하여 Serverless 함수를 생성합니다.
  • Git에서 가져오기 워크플로에서 pipeline-as-code 를 옵션으로 선택합니다.
  • 사용자 인터페이스에서 다음 위치에서 트래픽을 수신하는 Pod를 확인합니다.

    • 토폴로지 보기의 측면 창
    • Pod의 세부 정보 보기
    • Pod 목록 보기
  • 웹 터미널 을 인스턴스화할 때 시간 초과 기간을 사용자 지정하거나 자체 이미지를 제공합니다.
  • 관리자로 기본 리소스를 모든 사용자의 개발자 화면 탐색에 미리 고정하도록 설정합니다.
1.3.4.1.1. 파이프라인 페이지 개선 사항

OpenShift Container Platform 4.13에서는 Pipelines 페이지에서 다음과 같은 탐색 개선 사항이 표시됩니다.

  • 이전에 선택한 탭은 Pipelines 페이지로 돌아갈 때 계속 표시됩니다.
  • Repository details 페이지의 기본 탭은 이제 PipelinesRuns 이지만 Create Git Repository flow를 따르면 기본 탭이 세부 정보입니다.
1.3.4.1.2. Helm 페이지 개선 사항

OpenShift Container Platform 4.13에서 Helm 페이지에는 다음과 같은 새로운 기능 및 업데이트된 기능이 포함됩니다.

  • 페이지에 사용되는 용어는 Helm 차트를 설치 및 제거하는 대신 Helm 릴리스 생성 및 삭제를 나타냅니다.
  • Helm 릴리스를 비동기식으로 생성 및 삭제하고 웹 콘솔에서 다음 작업을 수행하기 전에 작업이 완료될 때까지 기다리지 않을 수 있습니다.
  • Helm 릴리스 목록에 상태 열이 포함됩니다.

1.3.5. OpenShift CLI(oc)

1.3.5.1. 지정된 네임스페이스에서 must-gather를 실행하기 위해 새 플래그 추가

OpenShift Container Platform 4.13에서 oc adm must-gather 명령에 --run-namespace 플래그를 사용할 수 있습니다. 이 플래그를 사용하여 must-gather 툴을 실행할 기존 네임스페이스를 지정할 수 있습니다.

자세한 내용은 must-gather 툴 정보를 참조하십시오.

1.3.5.2. OpenShift CLI(oc)를 사용하여 매니페스트 가져오기

OpenShift Container Platform 4.13에서는 새 oc CLI(명령줄 인터페이스) 플래그 --import-mode 가 다음 oc 명령에 추가되었습니다.

  • oc import-image
  • oc tag

이 향상된 기능을 통해 사용자는 oc import-image 또는 oc tag 명령을 실행할 때 매니페스트 목록의 단일 하위 매니페스트 또는 모든 매니페스트를 가져오는 옵션을 제공하는 --import-mode 플래그를 Legacy 또는 PreserveOriginal 로 설정할 수 있습니다.

자세한 내용은 매니페스트 목록 작업을 참조하십시오.

1.3.5.3. 이미지의 os/arch 및 다이제스트 반환

OpenShift Container Platform 4.13에서 이미지에서 oc describe 를 실행하면 각 매니페스트의 os/arch 및 다이제스트가 반환됩니다.

1.3.6. IBM Z 및 IBM(R) LinuxONE

이번 릴리스에서 IBM Z 및 IBM® LinuxONE은 이제 OpenShift Container Platform 4.13과 호환됩니다. z/VM 또는 RHEL(Red Hat Enterprise Linux) KVM(커널 기반 가상 시스템)을 사용하여 설치할 수 있습니다. 설치 지침은 다음 설명서를 참조하십시오.

중요

컴퓨팅 노드는 RHCOS(Red Hat Enterprise Linux CoreOS)를 실행

IBM Z 및 IBM (R) LinuxONE 주요 개선 사항

OpenShift Container Platform 4.13의 IBM Z 및 IBM® LinuxONE 릴리스에서는 OpenShift Container Platform 구성 요소 및 개념에 향상된 기능과 새로운 기능이 추가되었습니다.

이번 릴리스에서는 IBM Z 및 IBM® LinuxONE에서 다음 기능을 지원합니다.

  • 지원되는 설치 관리자
  • Cluster Resource Override Operator
  • 송신 IP
  • MetalLB Operator
  • Network-Bound 디스크 암호화 - 외부 Tang 서버
IBM Secure Execution

OpenShift Container Platform은 IBM Z 및 IBM® LinuxONE(s390x 아키텍처)에서 IBM Secure Execution 용 RHCOS(Red Hat Enterprise Linux CoreOS) 노드 구성을 지원합니다.

설치 지침은 다음 설명서를 참조하십시오.

1.3.7. IBM Power

이 릴리스에서 IBM Power는 이제 OpenShift Container Platform 4.13과 호환됩니다. 설치 지침은 다음 설명서를 참조하십시오.

중요

컴퓨팅 노드는 RHCOS(Red Hat Enterprise Linux CoreOS)를 실행

IBM Power 주요 기능 개선

OpenShift Container Platform 4.13의 IBM Power 릴리스에는 OpenShift Container Platform 구성 요소 및 개념에 대한 개선 사항 및 새로운 기능이 추가되었습니다.

이 릴리스에서는 IBM Power의 다음 기능을 지원합니다.

  • 지원되는 설치 관리자
  • Cluster Resource Override Operator
  • IBM Power Virtual Server Block CSI Driver Operator (기술 프리뷰)
  • 송신 IP
  • 설치 관리자 프로비저닝 IBM Power Virtual Server용 인프라 활성화(기술 프리뷰)
  • MetalLB Operator
  • Network-Bound 디스크 암호화 - 외부 Tang 서버

IBM Power,IBM Z 및 IBM(R) LinuxONE 지원 매트릭스

표 1.1. OpenShift Container Platform 기능
기능IBM PowerIBM Z 및 IBM® LinuxONE

대체 인증 공급자

지원됨

지원됨

지원되는 설치 관리자

지원됨

지원됨

로컬 스토리지 Operator를 통한 자동 장치 검색

지원되지 않음

지원됨

시스템 상태 점검으로 손상된 시스템 자동 복구

지원되지 않음

지원되지 않음

IBM Cloud용 클라우드 컨트롤러 관리자

지원됨

지원되지 않음

노드에서 오버 커밋 제어 및 컨테이너 밀도 관리

지원되지 않음

지원되지 않음

Cron 작업

지원됨

지원됨

Descheduler

지원됨

지원됨

송신 IP

지원됨

지원됨

etcd에 저장된 데이터 암호화

지원됨

지원됨

Helm

지원됨

지원됨

수평 Pod 자동 스케일링

지원됨

지원됨

IPv6

지원됨

지원됨

사용자 정의 프로젝트 모니터링

지원됨

지원됨

다중 경로

지원됨

지원됨

Network-Bound 디스크 암호화 - 외부 Tang 서버

지원됨

지원됨

비volatile 메모리 표현 드라이브(NVMe)

지원됨

지원되지 않음

OpenShift CLI(oc) 플러그인

지원됨

지원됨

Operator API

지원됨

지원됨

OpenShift Virtualization

지원되지 않음

지원되지 않음

IPsec 암호화를 포함한 OVN-Kubernetes

지원됨

지원됨

PodDisruptionBudget

지원됨

지원됨

PTP(Precision Time Protocol) 하드웨어

지원되지 않음

지원되지 않음

Red Hat OpenShift Local

지원되지 않음

지원되지 않음

스케줄러 프로파일

지원됨

지원됨

SCTP(스트림 제어 전송 프로토콜)

지원됨

지원됨

다중 네트워크 인터페이스 지원

지원됨

지원됨

3-노드 클러스터 지원

지원됨

지원됨

토폴로지 관리자

지원됨

지원되지 않음

SCSI 디스크의 z/VM Emulated FBA 장치

지원되지 않음

지원됨

4K FCP 블록 장치

지원됨

지원됨

표 1.2. 영구 스토리지 옵션
기능IBM PowerIBM Z 및 IBM® LinuxONE

iSCSI를 사용하는 영구 스토리지

지원됨 [1]

지원됨 [1],[2]

로컬 볼륨(LSO)을 사용하는 영구 스토리지

지원됨 [1]

지원됨 [1],[2]

hostPath를 사용하는 영구 스토리지

지원됨 [1]

지원됨 [1],[2]

파이버 채널을 사용하는 영구 스토리지

지원됨 [1]

지원됨 [1],[2]

Raw Block을 사용하는 영구 스토리지

지원됨 [1]

지원됨 [1],[2]

EDEV/FBA를 사용하는 영구 스토리지

지원됨 [1]

지원됨 [1],[2]

  1. 영구 공유 스토리지는 Red Hat OpenShift Data Foundation 또는 기타 지원되는 스토리지 프로토콜을 사용하여 프로비저닝해야 합니다.
  2. 영구 비공유 스토리지는 iSCSI, FC와 같은 로컬 스토리지를 사용하거나 DASD, FCP 또는 EDEV/FBA 함께 LSO를 사용하여 프로비저닝해야 합니다.
표 1.3. Operator
기능IBM PowerIBM Z 및 IBM® LinuxONE

Cluster Logging Operator

지원됨

지원됨

Cluster Resource Override Operator

지원됨

지원됨

Compliance Operator

지원됨

지원됨

File Integrity Operator

지원됨

지원됨

Local Storage Operator

지원됨

지원됨

MetalLB Operator

지원됨

지원됨

NFD Operator

지원됨

지원됨

NMState Operator

지원됨

지원됨

OpenShift Elasticsearch Operator

지원됨

지원됨

Service Binding Operator

지원됨

지원됨

Vertical Pod Autoscaler Operator

지원됨

지원됨

표 1.4. Multus CNI 플러그인
기능IBM PowerIBM Z 및 IBM® LinuxONE

Bridge

지원됨

지원됨

Host-device

지원됨

지원됨

IPAM

지원됨

지원됨

IPVLAN

지원됨

지원됨

표 1.5. CSI 볼륨
기능IBM PowerIBM Z 및 IBM® LinuxONE

복제

지원됨

지원됨

확장

지원됨

지원됨

스냅샷

지원됨

지원됨

1.3.8. 이미지

1.3.8.1. 이미지 스트림에서 매니페스트 나열 이미지 지원

OpenShift Container Platform 4.13에서는 이제 이미지 스트림에 나열된 매니페스트 이미지에 대한 지원을 일반적으로 사용할 수 있습니다.

1.3.9. 보안 및 컴플라이언스

1.3.9.1. AES-GCM 암호화 지원

OpenShift Container Platform에서 etcd 암호화를 활성화할 때 AES-GCM 암호화 유형이 지원됩니다. AES-GCM 암호화 유형의 암호화 키는 매주 순환됩니다.

자세한 내용은 지원되는 암호화 유형을 참조하십시오.

1.3.10. 네트워킹

1.3.10.1. 네트워킹 지표 개선

1.3.10.1.1. egress_ips_rebalance_total
  • 지표 이름: ovnkube_master_egress_ips_rebalance_total
  • 도움말 메시지: 다른 노드로 이동하는 데 필요한 총 송신 IP 횟수입니다.
1.3.10.1.2. egress_ips_node_unreachable_total
  • 메트릭 이름: ovnkube_master_egress_ips_node_unreachable_total
  • 도움말 메시지:할당된 송신 IP에 할당된 총 횟수에 연결할 수 없었습니다.
1.3.10.1.3. egress_ips_unassign_latency_seconds
  • 지표 이름: ovnkube_master_egress_ips_unassign_latency_seconds
  • 도움말 메시지:OVN northbound 데이터베이스에서 송신 IP 할당 해제 대기 시간입니다.
1.3.10.1.4. interfaces_total
  • 지표 이름: ovs_vswitchd_interfaces_total
  • 도움말 메시지:포드 및 Open vSwitch 인터페이스에 대해 생성된 총 Open vSwitch 인터페이스 수를 사용할 수 있습니다.
1.3.10.1.5. interface_up_wait_seconds_total
  • 지표 이름: ovs_vswitchd_interface_up_wait_seconds_total
  • 도움말 메시지:포드를 대기하는 데 필요한 총 초 수와 Open vSwitch 인터페이스를 사용할 수 있을 때까지의 총 시간(초)입니다.
1.3.10.1.6. ovnkube_resource_retry_failures_total
  • 메트릭 이름: ovnkube_resource_retry_failures_total
  • 도움말 메시지:Kubernetes 리소스를 처리하는 총 횟수가 최대 재시도 제한에 도달하여 더 이상 처리되지 않았습니다.

1.3.10.2. 네트워킹 경고 기능 개선

  • OVN Kubernetes는 클레임을 삭제하기 전에 최대 15번 재시도합니다. 이번 업데이트를 통해 이 오류가 발생하면 OpenShift Container Platform에서 클러스터 관리자에게 경고합니다. 각 경고에 대한 설명은 콘솔에서 볼 수 있습니다.
1.3.10.2.1. NoOvnMasterLeader
  • 요약: ovn-kubernetes 마스터 리더가 없습니다.
  • 콘솔의 설명:

    Networking control plane is degraded. Networking configuration updates applied to the cluster will not be implemented while there is no OVN Kubernetes leader. Existing workloads should continue to have connectivity. OVN-Kubernetes control plane is not functional.
1.3.10.2.2. OVNKubernetesNodeOVSOverflowUserspace
  • 요약: OVS vSwitch 데몬은 버퍼 오버플로로 인해 패킷을 삭제합니다.
  • 콘솔의 설명:

    Netlink messages dropped by OVS vSwitch daemon due to netlink socket buffer overflow. This will result in packet loss.
1.3.10.2.3. OVNKubernetesNodeOVSOverflowKernel
  • 요약: OVS 커널 모듈은 버퍼 오버플로로 인해 패킷을 삭제합니다.
  • 콘솔의 설명:

    Netlink messages dropped by OVS kernel module due to netlink socket buffer overflow. This will result in packet loss.

1.3.10.3. devfile IPAddressPool 리소스의 IP 주소를 특정 네임스페이스 및 서비스에 할당

이번 업데이트를 통해 CloudEvent IPAddressPool 리소스의 IP 주소를 서비스, 네임스페이스 또는 둘 다에 할당할 수 있습니다. 이 기능은 IP 주소 풀에서 특정 서비스 및 네임스페이스에 IP 주소를 고정하기 위해 CloudEvent가 필요한 muti 테넌트 베어 메탈 환경에서 유용합니다. 많은 IP 주소 풀의 IP 주소를 서비스 및 네임스페이스에 할당할 수 있습니다. 그런 다음 이러한 IP 주소 풀의 우선 순위를 정의할 수 있으므로 CloudEvent에서 더 높은 우선순위 IP 주소 풀부터 시작하는 IP 주소를 할당할 수 있습니다.

IP 주소 풀의 IP 주소를 서비스 및 네임스페이스에 할당하는 방법에 대한 자세한 내용은 CloudEvent 주소 풀 구성을 참조하십시오.

1.3.10.4. 이중 포트 NIC를 사용하여 노드에 OpenShift Container Platform 설치 지원 (기술 프리뷰)

이번 업데이트를 통해 다음 방법을 사용하여 두 개의 물리적 기능(PF)에서 2개의 VF(가상 기능)가 있는 본딩 인터페이스에 OpenShift Container Platform 클러스터를 배포할 수 있습니다.

  • 에이전트 기반 설치
  • 설치 프로그램에서 제공하는 인프라 설치
  • 사용자 프로비저닝 인프라 설치

듀얼 포트 NIC가 있는 노드에 OpenShift Container Platform을 설치하는 방법에 대한 자세한 내용은 SR-IOV 장치의 NIC 파티셔닝을 참조하십시오.

1.3.10.5. BlueField-2 네트워크 장치를 DPDK(데이터 처리 장치) 모드에서 NIC(네트워크 인터페이스 컨트롤러) 모드로 전환하는 지원

이번 릴리스에서는 DPDK(데이터 처리 장치) 모드에서 NIC(네트워크 인터페이스 컨트롤러) 모드로 BlueField-2 네트워크 장치를 전환할 수 있습니다.

자세한 내용은 BlueField-2를 DPU에서 NIC로 전환을 참조하십시오.

1.3.10.6. 네트워크 카드의 MT2892 제품군의 하드웨어 오프로드 [ConnectX-6 Dx]는 GA입니다.

OpenShift Container Platform 4.13에서는 네트워크 카드의 MT2892 제품군 [ConnectX-6 Dx]에 대한 OvS Hardware Offload 지원이 추가되었습니다.

자세한 내용은 지원 장치를 참조하십시오.

1.3.10.7. OpenShift SDN 네트워크 플러그인으로 마이그레이션

OVN-Kubernetes 네트워크 플러그인을 사용하는 경우 OpenShift SDN 네트워크 플러그인으로 마이그레이션할 수 있습니다.

자세한 내용은 OpenShift SDN 네트워크 플러그인으로 마이그레이션을 참조하십시오.

1.3.10.8. CoreDNS 1.10.1로 업데이트

OpenShift Container Platform 4.13은 CoreDNS를 1.10.1로 업데이트합니다. CoreDNS는 이제 원래 클라이언트 쿼리에 지정된 DNSSEC DO Bit을 사용합니다. 클라이언트가 DNSSEC를 요청하지 않는 경우 DNS 응답 UDP 패킷 크기가 줄어듭니다. 결과적으로 작은 패킷 크기로 인해 TCP 연결 재시도 및 전체 DNS 대역폭에 의해 DNS 잘림이 저하될 가능성이 줄어듭니다.

1.3.10.9. 클러스터 네트워크 IP 주소 범위 확장

클러스터에 노드 추가를 지원하도록 클러스터 네트워크를 확장할 수 있습니다. 예를 들어 클러스터를 배포하고 10.128.0.0/19 를 클러스터 네트워크 범위와 23 의 호스트 접두사로 지정한 경우 16개의 노드로 제한됩니다. 클러스터의 CIDR 마스크를 /14 로 변경하여 이를 510 노드로 확장할 수 있습니다. 자세한 내용은 클러스터 네트워크 범위 구성을 참조하십시오.

1.3.10.10. VMware vSphere 클러스터의 듀얼 스택 IPv4/IPv6

설치 관리자 프로비저닝 vSphere 클러스터에서는 IPv4가 있는 듀얼 스택 네트워킹을 기본 IP 제품군으로, IPv6를 보조 주소 제품군으로 사용할 수 있습니다. 자세한 내용은 네트워크 구성 매개변수를 참조하십시오.

1.3.10.11. 베어 메탈 듀얼 스택 클러스터에서 기본 IP 주소 제품군인 IPv6

베어 메탈에 클러스터를 설치하는 동안 듀얼 스택 클러스터에서 IPv6를 기본 IP 주소 제품군으로 구성할 수 있습니다. 새 클러스터를 설치할 때 이 기능을 활성화하려면 머신 네트워크, 클러스터 네트워크, 서비스 네트워크, API VIP 및 ingress VIP의 IPv4 주소 제품군 앞에 IPv6 주소 제품군을 지정합니다.

자세한 내용은 다음 소스를 참조하십시오.

1.3.10.12. OVN-Kubernetes는 보조 네트워크로 사용 가능(기술 프리뷰)

이번 릴리스에서는 Red Hat OpenShift Networking OVN-Kubernetes 네트워크 플러그인을 통해 Pod에 대한 보조 네트워크 인터페이스를 구성할 수 있습니다. 보조 네트워크로 OVN-Kubernetes는 계층 2(스위스) 토폴로지 네트워크를 지원합니다. 이는 기술 프리뷰 기능으로 사용할 수 있습니다.

보조 네트워크로 OVN-Kubernetes에 대한 자세한 내용은 OVN-Kubernetes 추가 네트워크 의 구성을 참조하십시오.

1.3.10.13. OVN-Kubernetes 네트워크 플러그인의 송신 방화벽에 노드 선택기 추가

OpenShift Container Platform 4.13에서 nodeSelector 가 OVN-Kubernetes 네트워크 플러그인의 송신 방화벽 대상 사양에 추가되었습니다. 이 기능을 사용하면 하나 이상의 노드에 레이블을 추가할 수 있으며 선택한 노드의 IP 주소가 관련 규칙에 포함됩니다. 자세한 내용은 EgressFirewall에 대한 nodeSelector 예제를 참조하십시오.

1.3.10.14. RHOSP에서 실행되는 클러스터의 OVN-Kubernetes 마이그레이션 절차 (기술 프리뷰)

이제 RHOSP에서 실행되고 Kuryr를 OVN-Kubernetes로 사용하는 클러스터를 마이그레이션할 수 있습니다.

자세한 내용은 Kuryr 네트워크 플러그인에서 OVN-Kubernetes 네트워크 플러그인으로 마이그레이션을 참조하십시오.

1.3.10.15. RHOSP에서 실행되는 클러스터에 대한 송신 IP 지원 개선

RHOSP에서 실행되고 OVN-Kubernetes를 사용하는 클러스터의 경우 예약 포트에 유동 IP 주소를 수동으로 다시 할당할 필요가 없습니다. 예약 포트가 한 노드에서 제거되고 다른 포트에서 다시 생성되는 경우 이제 재할당이 자동으로 수행됩니다.

1.3.10.16. SR-IOV에서 지원되는 하드웨어 (Single Root I/O Virtualization)

OpenShift Container Platform 4.13에서는 다음과 같은 SR-IOV 장치에 대한 지원이 추가되었습니다.

  • Intel E810-XXVDA4T
  • Intel X710 Base T

자세한 내용은 지원 장치를 참조하십시오.

1.3.11. 스토리지

1.3.11.1. KMS에서 재암호화에 대한 고객 관리 키 지원

이번 업데이트를 통해 AWS의 기본 인증 정보 요청이 수정되어 KMS(Key Management Service)에서 고객 관리 키를 다시 암호화할 수 있습니다. 수동 모드를 사용하도록 구성된 CCO(Cloud Credential Operator)가 있는 클러스터의 경우 관리자는 키 정책에 kms:ReEncrypt* 권한을 추가하여 이러한 변경 사항을 수동으로 적용해야 합니다. 다른 관리자는 이 변경의 영향을 받지 않습니다. (OCPBUGS-5410)

1.3.11.2. 논리 볼륨 관리자 스토리지(LVM Storage)에 대한 듀얼 스택 지원

OpenShift Container Platform 4.13에서는 IPv4 및 IPv6 네트워크 환경에서 LVM 스토리지가 이중 스택에서 지원됩니다. 자세한 내용은 듀얼 스택 클러스터 네트워크로 변환을 참조하십시오.

1.3.11.3. GitOps ZTP의 LVM 스토리지 지원

OpenShift Container Platform 4.13에서는 GitOps ZTP를 통해 LVM(Logical Volume Manager Storage)을 추가하고 구성할 수 있습니다. 자세한 내용은 PolicyGenTemplate CR 및 LVM Storage를 사용하여 LVM 스토리지 구성 을 참조하십시오.

1.3.11.4. 연결이 끊긴 환경의 LVM 스토리지 지원

OpenShift Container Platform 4.13에서는 연결이 끊긴 환경에 LVM 스토리지를 설치할 수 있습니다. 자세한 내용은 연결이 끊긴 환경에서 LVM 스토리지 설치를 참조하십시오.

1.3.11.5. 사용자 관리 암호화 사용 가능

사용자 관리 암호화 기능을 사용하면 설치 중에 OpenShift Container Platform 노드 루트 볼륨을 암호화하는 키를 제공하고 모든 관리 스토리지 클래스에서 이 키를 사용하여 프로비저닝된 스토리지 볼륨을 암호화할 수 있습니다. 이를 통해 플랫폼의 기본 계정 키가 아닌 선택한 키로 스토리지 볼륨을 암호화할 수 있습니다.

이 기능은 다음 스토리지 유형을 지원합니다.

1.3.11.6. 비정상적인 노드 종료 후 CSI 볼륨 분리 (기술 프리뷰)

CSI(Container Storage Interface) 드라이버는 노드가 비정상적으로 중단될 때 볼륨을 자동으로 분리할 수 있습니다. 비정상적인 노드 종료가 발생하면 노드에 서비스 부족 테인트를 수동으로 추가하여 볼륨에서 자동으로 노드에서 분리할 수 있습니다. 이 기능은 기술 프리뷰 상태에서 지원됩니다.

자세한 내용은 비정상적인 노드 종료 후 CSI 볼륨 분리를 참조하십시오.

1.3.11.7. 일반적으로 VMware vSphere 암호화 지원 사용 가능

vSphere에서 실행되는 OpenShift Container Platform에서 VM(가상 머신) 및 영구 볼륨(PV)을 암호화할 수 있습니다.

자세한 내용은 vSphere 영구 디스크 암호화를 참조하십시오.

1.3.11.8. 여러 데이터센터에 대한 VMware vSphere CSI 토폴로지 지원 사용 가능

OpenShift Container Platform 4.12에는 다양한 영역 및 지역에 vSphere용 OpenShift Container Platform을 배포하는 기능이 도입되어 여러 컴퓨팅 클러스터에 배포할 수 있으므로 단일 장애 지점을 방지할 수 있습니다. OpenShift Container Platform 4.13에서는 여러 데이터센터를 통해 배포하고 설치 또는 설치 후 생성된 장애 도메인을 사용하여 토폴로지를 설정할 수 있도록 지원합니다.

자세한 내용은 vSphere CSI 토폴로지 에서 참조하십시오.

1.3.11.9. 일반적으로 사용 가능한 기본 스토리지 클래스를 두 개 이상 생성할 수 있습니다.

OpenShift Container Platform 4.13에서는 둘 이상의 기본 스토리지 클래스를 생성할 수 있습니다. 이 기능을 사용하면 기본값으로 정의된 두 번째 스토리지 클래스를 생성할 수 있으므로 기본 스토리지 클래스를 쉽게 변경할 수 있습니다. 그런 다음 이전 기본 스토리지 클래스에서 기본 상태를 제거하기 전에 두 개의 기본 스토리지 클래스가 일시적으로 있습니다. 짧은 시간 동안 기본 스토리지 클래스가 여러 개 있을 수 있지만 결국 하나의 기본 스토리지 클래스만 있는지 확인해야 합니다.

자세한 내용은 기본 스토리지 클래스 변경 및 다중 기본 스토리지 클래스 변경을 참조하십시오.

1.3.11.10. 기본 스토리지 클래스 관리 사용 가능

OpenShift Container Platform 4.13에서는 ClusterCSIDriver 오브젝트에 spec.storageClassState 필드를 도입하여 OpenShift Container Platform에서 생성한 기본 스토리지 클래스를 관리하여 여러 가지 목표를 수행할 수 있습니다.

  • 기본 스토리지 클래스가 있는 경우 스토리지 Operator가 초기 기본 스토리지 클래스를 다시 생성하지 못하도록 합니다.
  • 기본 스토리지 클래스 이름 변경 또는 변경
  • 동적 프로비저닝을 비활성화하여 정적 프로비저닝을 강제 적용합니다.

자세한 내용은 Managing the default storage class 를 참조하십시오.

1.3.11.11. 소급 기본 StorageClass 할당 (기술 프리뷰)

이전 버전에서는 기본 스토리지 클래스가 없는 경우 기본 스토리지 클래스를 요청한 PVC(영구 볼륨 클레임)는 수동으로 삭제하고 다시 생성하지 않는 한 기본 스토리지 클래스를 무기한 보류 상태로 남아 있었습니다. OpenShift Container Platform은 이제 이러한 PVC에 기본 스토리지 클래스를 소급적으로 할당하여 해당 PVC가 보류 중 상태로 유지되지 않도록 할 수 있습니다. 이 기능을 활성화하면 기본 스토리지 클래스가 생성되거나 기존 스토리지 클래스 중 하나가 기본값으로 선언된 후 이전에 설정된 PVC가 기본 스토리지 클래스에 할당됩니다.

이 기능은 기술 프리뷰 상태에서 지원됩니다.

자세한 내용은 Absent 기본 스토리지 클래스 를 참조하십시오.

1.3.11.12. IBM Power Virtual Server Block CSI Driver Operator (기술 프리뷰)

OpenShift Container Platform은 IBM Power Virtual Server Block Storage의 CSI(Container Storage Interface) 드라이버를 사용하여 PV(영구 볼륨)를 프로비저닝할 수 있습니다.

자세한 내용은 IBM Power Virtual Server Block CSI Driver Operator 에서 참조하십시오.

1.3.11.13. CSI 인라인 임시 볼륨 사용 가능

CSI(Container Storage Interface) 인라인 임시 볼륨은 OpenShift Container Platform 4.5에서 기술 프리뷰 기능으로 도입되었으므로 pod가 배포되고 Pod가 제거될 때 인라인 임시 볼륨을 생성하는 Pod 사양을 정의할 수 있습니다. 이 기능은 이제 일반적으로 사용할 수 있습니다.

이 기능은 지원되는 CSI(Container Storage Interface) 드라이버에서만 사용할 수 있습니다.

이 기능에는 CSI 볼륨 승인 플러그인이 포함되어 있습니다. 이 플러그인은 Pod 승인 시 CSI 임시 볼륨을 프로비저닝할 수 있는 개별 CSI 드라이버를 사용할 수 있는 메커니즘을 제공합니다. 관리자 또는 배포는 CSIDriver 오브젝트에 csi-ephemeral-volume-profile 레이블을 추가할 수 있으며 레이블은 Admission 플러그인에 의해 검사되고 시행, 경고 및 감사 결정에 사용됩니다.

자세한 내용은 CSI 인라인 임시 볼륨을 참조하십시오.

1.3.11.14. Microsoft Azure File용 자동 CSI 마이그레이션 사용 가능

OpenShift Container Platform 4.8부터는 동등한 CSI(Container Storage Interface) 드라이버로 인트리 볼륨 플러그인에 대한 자동 마이그레이션을 기술 프리뷰 기능으로 사용할 수 있게 되었습니다. 이 기능은 OpenShift Container Platform 4.10에서 Azure File에 대한 지원이 제공되었습니다. OpenShift Container Platform 4.13에서는 이제 일반적으로 사용 가능한 Azure File에 대한 자동 마이그레이션을 지원합니다. Azure File의 CSI 마이그레이션은 기본적으로 활성화되어 있으며 관리자가 수행할 필요가 없습니다.

이 기능은 인트리 오브젝트를 해당 CSI 표현으로 자동 변환하므로 사용자에게 완전히 투명해야 합니다. 변환된 오브젝트는 디스크에 저장되지 않으며 사용자 데이터는 마이그레이션되지 않습니다.

in-tree 스토리지 플러그인을 참조하는 스토리지 클래스는 계속 작동하지만 기본 스토리지 클래스를 CSI 스토리지 클래스로 전환하는 것이 좋습니다.

자세한 내용은 CSI 자동 마이그레이션 을 참조하십시오.

1.3.11.15. VMware vSphere에 대한 자동 CSI 마이그레이션이 일반적으로 사용 가능

이 기능은 인트리 오브젝트를 해당 CSI 표현으로 자동 변환하므로 사용자에게 완전히 투명해야 합니다. in-tree 스토리지 플러그인을 참조하는 스토리지 클래스는 계속 작동하지만 기본 스토리지 클래스를 CSI 스토리지 클래스로 전환하는 것이 좋습니다.

OpenShift Container Platform 4.8부터는 동등한 CSI(Container Storage Interface) 드라이버로 인트리 볼륨 플러그인에 대한 자동 마이그레이션을 기술 프리뷰 기능으로 사용할 수 있게 되었습니다. vSphere에 대한 지원은 OpenShift Container Platform 4.10에서 이 기능을 통해 제공되었습니다. OpenShift Container Platform 4.13에서는 일반적으로 사용 가능한 vSphere에 대한 자동 마이그레이션을 지원합니다.

OpenShift Container Platform 4.13 이상을 새로 설치하는 경우 자동 마이그레이션이 기본적으로 활성화됩니다. 그러나 OpenShift Container Platform 4.12 또는 이전 버전에서 4.13으로 업데이트할 때 vSphere에 대한 자동 CSI 마이그레이션은 옵트인하는 경우에만 수행됩니다. 마이그레이션에 옵트인하기 전에 표시된 결과를 신중하게 검토합니다.

다음 조건이 모두 true인 경우 OpenShift Container Platform 4.12에서 4.13으로, 4.13에서 4.14로 업데이트가 차단됩니다.

  • CSI 마이그레이션이 아직 활성화되지 않았습니다.
  • OpenShift Container Platform은 vSphere 7.0u3L+ 또는 8.0u2 이상에서 실행되지 않습니다.
  • vSphere in-tree PV(영구 볼륨)가 있습니다.

자세한 내용은 CSI 자동 마이그레이션 을 참조하십시오.

1.3.11.16. AWS EFS CSI 드라이버에 대한 교차 계정 지원 사용 가능

계정 간 지원을 통해 하나의 AWS(Amazon Web Services) 계정에 OpenShift Container Platform 클러스터를 사용하고 AWS EBS(Elastic File System) CSI(Container Storage Interface) 드라이버를 사용하여 다른 AWS 계정에 파일 시스템을 마운트할 수 있습니다.

자세한 내용은 AWS EFS CSI cross account support 에서 참조하십시오.

1.3.11.17. Kubelet 대신 CSI Driver에 FSGroup 위임 사용 가능

이 기능을 사용하면 OpenShift Container Platform에서 볼륨이 마운트될 때 Pod의 FSGroup을 CSI(Container Storage Interface) 드라이버에 제공할 수 있습니다. Microsoft Azure File CSI 드라이버는 이 기능에 따라 다릅니다.

1.3.11.18. NFS를 지원하는 Azure File 사용 가능

OpenShift Container Platform 4.13은 일반적으로 사용 가능한 NFS(Network File System)를 사용하는 CSI(Azure File Container Storage Interface) Driver Operator를 지원합니다.

자세한 내용은 NFS 지원을 참조하십시오.

1.3.12. Operator 라이프사이클

1.3.12.1. OpenShift CLI를 사용하여 Operator 버전 찾기

OpenShift Container Platform 4.13에서는 다음 OpenShift CLI (oc) 명령을 실행하여 시스템에 설치할 수 있는 Operator 버전 및 채널을 찾을 수 있습니다.

oc describe 명령 구문의 예

$ oc describe packagemanifests <operator_name> -n <catalog_namespace>

다음 명령을 실행하여 Operator 버전 및 채널 정보의 출력 형식을 지정할 수 있습니다.

oc get 명령 구문의 예

$ oc get packagemanifests <operator_name> -n <catalog_namespace> -o <output_format>

자세한 내용은 특정 버전의 Operator 설치를 참조하십시오.

1.3.12.2. 다중 테넌트 클러스터의 Operator

OLM(Operator Lifecycle Manager)의 기본 동작은 Operator 설치 중에 단순화를 제공하는 것입니다. 그러나 이러한 동작으로 인해 특히 다중 테넌트 클러스터에서 유연성이 부족할 수 있습니다.

다중 테넌트 클러스터에서 Operator 관리에 대한 지침 및 권장 솔루션이 다음 주제를 사용하여 추가되었습니다.

1.3.12.3. 네임스페이스에 Operator 공동 배치

OLM(Operator Lifecycle Manager)은 동일한 네임스페이스에 설치된 OLM 관리 Operator를 처리합니다. 즉 서브스크립션 리소스는 관련 Operator와 동일한 네임스페이스에 배치됩니다. OLM은 실제로 관련이 없는 경우에도 버전 및 업데이트 정책과 같은 상태를 업데이트할 때 해당 상태를 고려합니다.

Operator 공동 배치 및 사용자 지정 네임스페이스를 사용하는 대체 절차에 대한 지침이 다음 주제와 함께 추가되었습니다.

1.3.12.4. CSV 복사본 비활성화 시 업데이트된 웹 콘솔 동작

클러스터에서 CSV(클러스터 서비스 버전)가 비활성화되어 있는 경우 OpenShift Container Platform 웹 콘솔이 더 나은 Operator 검색을 제공하도록 업데이트되었습니다.

클러스터 관리자가 CSV를 복사할 수 없는 경우 CSV가 실제로 모든 네임스페이스에 복사되지 않더라도 일반 사용자를 위해 모든 네임스페이스의 openshift 네임스페이스에서 CSV 복사를 표시하도록 웹 콘솔을 수정합니다. 이를 통해 일반 사용자는 네임스페이스에서 이러한 Operator의 세부 정보를 확인하고 전역적으로 설치된 Operator가 제공하는 CR(사용자 정의 리소스)을 생성할 수 있습니다.

자세한 내용은 복사된 CSV 비활성화를 참조하십시오.

1.3.13. Operator 개발

1.3.13.1. 기본 노드 선택기로 제안된 네임스페이스 템플릿 설정

이번 릴리스에서는 Operator 작성자가 Operator가 실행되는 제안된 네임스페이스에 기본 노드 선택기를 설정할 수 있습니다. 제안된 네임스페이스는 CSV( ClusterServiceVersion )에 포함된 YAML의 네임스페이스 매니페스트를 사용하여 생성됩니다. OperatorHub를 사용하여 클러스터에 Operator를 추가하면 웹 콘솔은 설치 프로세스 중에 클러스터 관리자에게 제안된 네임스페이스를 자동으로 채웁니다.

자세한 내용은 기본 노드 선택기로 제안된 네임스페이스 설정을 참조하십시오.

1.3.13.2. Node Tuning Operator

NodeTuning 클러스터 기능을 사용하여 NFD(Node Tuning Operator)를 활성화/비활성화할 수 있습니다. 클러스터 설치 시 비활성화된 경우 나중에 다시 활성화할 수 있습니다. 자세한 내용은 Node Tuning 기능을 참조하십시오.

1.3.14. 머신 API

1.3.14.1. 컨트롤 플레인 머신 세트에 대한 추가 플랫폼 지원

  • 이번 릴리스에서는 Google Cloud Platform 클러스터에서 컨트롤 플레인 머신 세트가 지원됩니다.
  • 이 릴리스에는 Microsoft Azure 클러스터에서 컨트롤 플레인 머신 세트의 사용자 환경에 대한 향상된 기능이 포함되어 있습니다. OpenShift Container Platform 버전 4.13과 함께 설치되거나 업그레이드된 Azure 클러스터의 경우 더 이상 컨트롤 플레인 머신 세트 사용자 정의 리소스(CR)를 생성할 필요가 없습니다.

    • 버전 4.13을 사용하여 설치된 클러스터에는 기본적으로 활성화된 컨트롤 플레인 머신 세트가 있습니다.
    • 버전 4.13으로 업그레이드된 클러스터의 경우 클러스터에 대해 비활성 CR이 생성되고 CR의 값이 컨트롤 플레인 시스템에 적합한지 확인한 후 활성화할 수 있습니다.

자세한 내용은 Control Plane Machine Set Operator 시작하기를 참조하십시오.

1.3.15. Machine Config Operator

1.3.15.1. RHCOS(Red Hat Enterprise Linux CoreOS) 이미지 계층 지정 사용 가능

이제 RHCOS(Red Hat Enterprise Linux CoreOS) 이미지 계층을 일반적으로 사용할 수 있습니다. 이 기능을 사용하면 추가 이미지를 기본 이미지에 계층화하여 기본 RHCOS 이미지의 기능을 확장할 수 있습니다.

자세한 내용은 RHCOS(Red Hat Enterprise Linux CoreOS) 이미지 계층 지정을 참조하십시오.

1.3.15.2. RHCOS에 타사 및 사용자 정의 콘텐츠 추가 지원

RHCOS(Red Hat Enterprise Linux CoreOS) 이미지 계층을 사용하여 RHEL(Red Hat Enterprise Linux) 및 타사 패키지를 클러스터 노드에 추가할 수 있습니다.

자세한 내용은 RHCOS(Red Hat Enterprise Linux CoreOS) 이미지 계층 지정을 참조하십시오.

1.3.15.3. 코어 사용자 암호 설정 지원

이제 RHCOS 코어 사용자의 암호를 생성할 수 있습니다. SSH 또는 oc debug node 명령을 사용하여 노드에 액세스할 수 없는 경우 이 암호를 사용하면 core 사용자를 사용하여 클라우드 공급자 직렬 콘솔 또는 베어 메탈 BMC(Baseboard Controller manager)를 통해 노드에 액세스할 수 있습니다.

자세한 내용은 노드 액세스의 코어 사용자 암호 변경을 참조하십시오.

1.3.16. 노드

1.3.16.1. 태그를 통한 이미지 레지스트리 저장소 미러링

이제 다이제스트 사양 외에도 이미지 태그를 사용하여 미러링된 레지스트리에서 이미지를 가져올 수 있습니다. 이러한 변경을 수행하기 위해 ImageContentSourcePolicy (ICSP) 오브젝트가 더 이상 사용되지 않습니다. 이제 다이제스트 사양 또는 ImageTagMirrorSet (ITMS) 오브젝트를 사용하여 이미지 태그를 사용하여 이미지를 가져오도록 ImageDigestMirrorSet (IDMS) 오브젝트를 사용할 수 있습니다.

ICSP 오브젝트를 생성하는 데 사용한 기존 YAML 파일이 있는 경우 oc adm migrate icsp 명령을 사용하여 해당 파일을 IDMS YAML 파일로 변환할 수 있습니다.

이러한 새 오브젝트에 대한 자세한 내용은 이미지 레지스트리 저장소 미러링 구성을 참조하십시오.

기존 ICSP YAML 파일을 IDMS YAML 파일로 변환하는 방법에 대한 자세한 내용은 이미지 레지스트리 저장소 미러링을 위한 ICSP (ICSP) 파일 변환을 참조하십시오.

1.3.16.2. crun 정식 출시일

이제 OpenShift Container Platform 4.13에서 crun 하위 수준 컨테이너 런타임을 일반적으로 사용할 수 있습니다. GA 버전에는 새로운 기능이 없습니다.

1.3.16.3. Linux Control Group 버전 2(cgroup v2) 정식 출시일

이제 OpenShift Container Platform 4.13에서 Linux Control Group 버전 2(cgroup v2)를 일반적으로 사용할 수 있습니다. GA 버전에는 새로운 기능이 없습니다.

1.3.16.4. Pod 중단 예산 (PDB) 비정상적인 Pod 제거 정책 (기술 프리뷰)

이번 릴리스에서는 PDB(Pod 중단 예산)에 대한 비정상적인 Pod 제거 정책을 기술 프리뷰 기능으로 지정할 수 있습니다. 이는 노드를 드레이닝하는 동안 애플리케이션의 오작동을 제거하는 데 도움이 될 수 있습니다.

이 기술 프리뷰 기능을 사용하려면 TechPreviewNoUpgrade 기능 세트를 활성화해야 합니다.

주의

클러스터에서 TechPreviewNoUpgrade 기능 세트를 활성화하면 취소할 수 없으며 마이너 버전 업데이트를 방지할 수 없습니다. 프로덕션 클러스터에서 이 기능 세트를 활성화해서는 안 됩니다.

자세한 내용은 비정상 Pod에 대한 제거 정책 지정을 참조하십시오.

1.3.16.5. Metal3 수정 지원

이전에는 Machine Health Checks가 자체 대응하거나 Self Node Remediation 공급자를 사용할 수 있었습니다. 이번 릴리스에서는 베어 메탈 클러스터에서 새 Metal3 수정 공급자도 지원됩니다.

자세한 내용은 베어 메탈의 전원 기반 업데이트 적용 정보를 참조하십시오.

1.3.17. 모니터링

이 릴리스의 모니터링 스택에는 다음과 같은 새로운 수정된 기능이 포함되어 있습니다.

1.3.17.1. 모니터링 스택 구성 요소 및 종속 항목에 대한 업데이트

이 릴리스에는 스택 구성 요소 및 종속 항목을 모니터링하기 위한 다음 버전 업데이트가 포함되어 있습니다.

  • Alertmanager에서 0.25.0으로
  • kube-state-metrics to 2.8.1
  • node-exporter를 1.5.0으로
  • prom-label-proxy에서 0.6.0으로
  • Prometheus를 2.42.0으로
  • prometheus-operator to 0.63.0
  • Thanos에서 0.30.2로

1.3.17.2. 경고 규칙 변경

참고

Red Hat은 규칙 또는 경고 규칙에 대한 이전 버전과의 호환성을 보장하지 않습니다.

  • NodeFilesystemAlmostOutOfSpace 경고는 설계에 의해 항상 가득 찬 특정 tmpfs 마운트 지점에 대해 더 이상 발생하지 않습니다.

1.3.17.3. Alertmanager 설정에 보안을 추가하는 새로운 옵션

이번 릴리스에서는 코어 플랫폼 모니터링 및 사용자 정의 프로젝트의 Alertmanager 구성에 보안을 추가할 수 있습니다. Alertmanager가 경고를 보낼 수 있도록 수신자로 인증해야 하는 경우 수신자에 대한 인증 자격 증명이 포함된 보안을 사용하도록 Alertmanager를 구성할 수 있습니다.

1.3.17.4. node-exporter 컬렉터를 구성하는 새로운 옵션

이번 릴리스에서는 다음 node-exporter 수집기에 대해 CMO(Cluster Monitoring Operator) 구성 맵 설정을 사용자 지정할 수 있습니다. 다음 node-exporter 수집기는 선택 사항이며 활성화 또는 비활성화할 수 있습니다.

  • buddyinfo 수집기
  • cpufreq 수집기
  • netclass 수집기
  • netdev 수집기
  • netclass 수집기의 netlink 백엔드
  • tcpstat 수집기

1.3.17.6. 메트릭 컬렉션 프로필을 활성화하는 새로운 옵션 (기술 프리뷰)

이 릴리스에서는 기본 플랫폼 모니터링에 대한 기술 프리뷰 기능을 도입하여 관리자가 기본 메트릭 데이터 또는 최소 양의 메트릭 데이터를 수집하도록 메트릭 수집 프로필을 설정할 수 있습니다. 최소 프로필을 활성화하면 경고와 같은 기본 모니터링 기능이 계속 작동하지만 Prometheus에 필요한 CPU 및 메모리 리소스가 감소합니다.

1.3.18. Network Observability Operator

Network Observability Operator는 OpenShift Container Platform 마이너 버전 릴리스 스트림과 별도로 업데이트를 릴리스합니다. 업데이트는 현재 지원되는 모든 OpenShift Container Platform 4 버전에서 지원되는 단일 롤링 스트림을 통해 제공됩니다. Network Observability Operator의 새로운 기능, 개선 사항 및 버그 수정에 대한 정보는 Network Observability 릴리스 노트 에서 확인할 수 있습니다.

1.3.19. 확장 및 성능

1.3.19.1. NUMA 리소스 Operator를 사용한 NUMA 인식 스케줄링 사용 가능

NUMA 리소스 Operator를 사용한 NUMA 인식 예약은 이전에 OpenShift Container Platform 4.10에서 기술 프리뷰로 도입되었으며 이제 OpenShift Container Platform 4.13에서 일반적으로 사용할 수 있습니다.

NUMA 리소스 Operator는 클러스터에서 사용 가능한 NUMA 영역에 대한 전체 이미지를 기반으로 워크로드에 대한 스케줄링을 결정하는 NUMA 인식 보조 스케줄러를 배포합니다. 이렇게 향상된 NUMA 인식 스케줄링을 통해 대기 시간에 민감한 워크로드를 단일 NUMA 영역에서 처리하여 효율성과 성능을 극대화합니다.

이번 업데이트에서는 다음 기능이 추가되었습니다.

  • NUMA 리소스 보고서의 API 폴링 미세 조정.
  • 노드 토폴로지 내보내기에 대한 노드 그룹 수준에서 구성 옵션입니다.

자세한 내용은 NUMA 인식 워크로드 스케줄링을 참조하십시오.

1.3.19.2. 3-노드 클러스터 및 표준 클러스터의 워크로드 파티셔닝 지원 (기술 프리뷰)

이번 업데이트 이전에는 단일 노드 OpenShift 클러스터에만 워크로드 파티셔닝이 지원되었습니다. 이제 3-노드 컴팩트 클러스터 및 표준 클러스터의 워크로드 파티셔닝을 구성할 수도 있습니다. 워크로드 파티셔닝을 사용하여 예약된 CPU 세트에서 실행되도록 OpenShift Container Platform 서비스, 클러스터 관리 워크로드 및 인프라 Pod를 분리합니다.

자세한 내용은 워크로드 파티셔닝을 참조하십시오.

1.3.19.3. GitOps ZTP를 사용하여 전원 상태 구성

OpenShift Container Platform 4.12에는 중요 및 중요하지 않은 워크로드의 전원 상태를 설정하는 기능이 도입되었습니다. OpenShift Container Platform 4.13에서는 GitOps ZTP를 사용하여 전원 상태를 구성할 수 있습니다.

기능에 대한 자세한 내용은 PolicyGenTemplates CR을 사용하여 전원 상태 구성을 참조하십시오.

1.3.19.4. TALM 및 GitOps ZTP로 관리되는 클러스터의 컨테이너 이미지 사전 캐싱

이번 릴리스에서는 GitOps ZTP와 함께 사용할 수 있는 두 가지 새로운 토폴로지 라이프사이클 관리자(TALM) 기능이 추가되었습니다.

  • 새 검사를 통해 클러스터를 업데이트하기 전에 관리 클러스터 호스트에서 사용 가능한 디스크 공간이 충분한지 확인합니다. 이제 컨테이너 이미지 사전 캐싱 중에 TALM은 사용 가능한 호스트 디스크 공간을 예상 OpenShift Container Platform 이미지 크기와 비교하여 호스트에 디스크 공간이 충분한지 확인합니다.
  • ConfigMap CR의 새로운 excludePrecachePatterns 필드를 사용하면 업데이트 전에 이미지 TALM이 클러스터 호스트에 다운로드하는 사전 캐시를 제어하는 데 사용할 수 있습니다.

자세한 내용은 컨테이너 이미지 사전 캐시 필터 사용을 참조하십시오.

1.3.19.5. HTTP 전송은 PTP 및 베어 메탈 이벤트용 AMQP 대체(기술 프리뷰)

HTTP는 이제 PTP 및 베어 메탈 이벤트 인프라에서 기본 전송입니다. AMQ Interconnect는 2024년 6월 30일부터 EOL(End of Life)입니다.

자세한 내용은 PTP 빠른 이벤트 알림 프레임워크 정보를 참조하십시오.

1.3.19.6. Intel E810 웨스트 포트 채널 NIC를 PTP 회선 마스터 시계로 지원 (기술 프리뷰)

이제 PTP Operator를 사용하여 Intel E810 웨스트 포트 채널 NIC를 PTP 오브 마스터 시계로 구성할 수 있습니다. PTP 무지 마스터 시계는 시스템 클럭 및 네트워크 시간 동기화에 ts2phc (시간 스탬프 2 물리적 시계)를 사용합니다.

자세한 내용은 Configuring linuxptp services as a breakingmaster clock 에서 참조하십시오.

1.3.19.7. GitOps ZTP에서 관리되는 클러스터의 기본 컨테이너 런타임으로 crun 구성

기본 컨테이너 런타임으로 crun을 구성하는 ContainerRuntimeConfig CR은 GitOps ZTP ztp-site-generate 컨테이너에 추가되었습니다.

GitOps ZTP를 사용하여 설치하는 클러스터에서 최적의 성능을 위해 단일 노드 OpenShift의 컨트롤 플레인 및 작업자 노드에 대해 crun을, 추가 Day 0 설치 매니페스트 CR과 함께 3노드 OpenShift 및 표준 클러스터에 대해 crun을 활성화합니다.

자세한 내용은 Configuring crun as the default container runtime 에서 참조하십시오.

1.3.19.8. 문서 개선: etcd 개요 사용 가능

이제 OpenShift Container Platform 설명서에서 제공되는 이점 및 작동 방식 등 etcd에 대한 개요를 확인할 수 있습니다. Kubernetes의 기본 데이터 저장소인 etcd는 etcd Operator를 통해 OpenShift Container Platform의 클러스터 구성 및 관리에 대한 안정적인 접근 방식을 제공합니다. 자세한 내용은 etcd의 개요 를 참조하십시오.

1.3.20. Insights Operator

OpenShift Container Platform 4.13에서 Insights Operator는 이제 다음 정보를 수집합니다.

  • openshift_apps_deploymentconfigs_strategy_total 지표 이 메트릭은 배포 구성에서 배포 전략 정보를 수집합니다.
  • 머신이 실패하는 이유를 식별하는 추가 머신 리소스 정의
  • Authentication Operator의 성능이 저하된 경우 Insights에 알리는 기본 ingresscontroller.operator.openshift.io 리소스입니다.

1.3.21. 호스트된 컨트롤 플레인(기술 프리뷰)

1.3.21.1. 호스트된 컨트롤 플레인 섹션 사용 가능

OpenShift Container Platform 설명서에는 호스트된 컨트롤 플레인 전용 섹션이 포함되어 있습니다. 이 섹션에는 호스팅된 클러스터 구성 및 관리에 대한 정보 및 기능 개요가 있습니다. 자세한 내용은 호스팅 컨트롤 플레인 을 참조하십시오.

1.3.21.2. 호스트된 컨트롤 플레인 업데이트

OpenShift Container Platform 설명서에 호스트 컨트롤 플레인 업데이트에 대한 정보가 포함되어 있습니다. 호스트된 컨트롤 플레인을 업데이트하려면 호스팅 클러스터 및 노드 풀을 업데이트해야 합니다. 자세한 내용은 호스팅된 컨트롤 플레인 업데이트를 참조하십시오.

1.3.22. 단일 노드에 OpenShift Container Platform을 설치하기 위한 요구사항

4.13에서는 x86_64 및 shut 64 CPU 아키텍처를 지원합니다.

Red Hat logoGithubRedditYoutubeTwitter

자세한 정보

평가판, 구매 및 판매

커뮤니티

Red Hat 문서 정보

Red Hat을 사용하는 고객은 신뢰할 수 있는 콘텐츠가 포함된 제품과 서비스를 통해 혁신하고 목표를 달성할 수 있습니다.

보다 포괄적 수용을 위한 오픈 소스 용어 교체

Red Hat은 코드, 문서, 웹 속성에서 문제가 있는 언어를 교체하기 위해 최선을 다하고 있습니다. 자세한 내용은 다음을 참조하세요.Red Hat 블로그.

Red Hat 소개

Red Hat은 기업이 핵심 데이터 센터에서 네트워크 에지에 이르기까지 플랫폼과 환경 전반에서 더 쉽게 작업할 수 있도록 강화된 솔루션을 제공합니다.

© 2024 Red Hat, Inc.