1.3. 새로운 기능 및 개선 사항
이 릴리스에는 다음 구성 요소 및 개념과 관련된 개선 사항이 추가되었습니다.
1.3.1. 문서
1.3.1.1. OpenShift Container Platform 시작하기
OpenShift Container Platform 4.10에는 이제 시작 가이드가 포함되어 있습니다. OpenShift Container Platform 시작하기에서는 기본 용어를 정의하고 개발자와 관리자를 위한 역할 기반 다음 단계를 제공합니다.
튜토리얼은 웹 콘솔과 OpenShift CLI(oc
) 인터페이스를 통해 신규 사용자를 안내합니다. 신규 사용자는 시작하기를 통해 다음 작업을 수행할 수 있습니다.
- 프로젝트 생성
- 보기 권한 부여
- Quay에서 컨테이너 이미지 배포
- 애플리케이션 검사 및 스케일링
- GitHub에서 Python 애플리케이션 배포
- Quay에서 데이터베이스에 연결
- 시크릿 생성
- 애플리케이션 로드 및 보기
자세한 내용은 OpenShift Container Platform 시작하기를 참조하십시오.
1.3.2. RHCOS(Red Hat Enterprise Linux CoreOS)
1.3.2.1. 베어 메탈 RHCOS 설치 사용자 정의 개선 사항
coreos-installer
유틸리티에는 라이브 ISO 및 PXE 이미지에서 RHCOS를 설치할 때 보다 유연한 사용자 지정을 위해 iso customize
및 pxe customize
하위 명령이 있습니다.
여기에는 사용자 정의 인증 기관 또는 자체 서명된 인증서를 사용하는 HTTPS 서버에서 Ignition 구성을 가져오도록 설치를 사용자 지정할 수 있습니다.
1.3.2.2. RHCOS에서 RHEL 8.4 사용
RHCOS는 이제 OpenShift Container Platform 4.10에서 RHEL (Red Hat Enterprise Linux) 8.4 패키지를 사용합니다. 이러한 패키지는 NetworkManager 기능과 같은 최신 수정 사항, 기능 및 개선 사항 및 최신 하드웨어 지원 및 드라이버 업데이트를 제공합니다.
1.3.3. 설치 및 업그레이드
1.3.3.1. AWS 설치를 위한 새로운 기본 구성 요소 유형
OpenShift Container Platform 4.10 설치 프로그램은 AWS에 설치할 때 새로운 기본 구성 요소 유형을 사용합니다. 설치 프로그램은 기본적으로 다음 구성 요소를 사용합니다.
- 사용 가능한 경우 컨트롤 플레인 및 컴퓨팅 노드 모두에 AWS EC2 M6i 인스턴스
- AWS EBS gp3 스토리지
1.3.3.2. install-config.yaml
파일의 API 개선 사항
이전에는 사용자가 베어 메탈 설치 관리자 프로비저닝 인프라에 OpenShift Container Platform을 설치할 때 Ironic 서버와 통신하도록 고정 IP 또는 vLAN과 같은 사용자 지정 네트워크 인터페이스를 구성할 위치가 없었습니다.
베어 메탈에서만 Day 1 설치를 구성할 때 사용자는 이제 install-config.yaml
파일에서 API를 사용하여 네트워크 구성(networkConfig
)을 사용자 지정할 수 있습니다. 이 구성은 설치 및 프로비저닝 프로세스 중에 설정되며 호스트당 정적 IP 설정 등 고급 옵션을 포함합니다.
1.3.3.3. ARM의 OpenShift Container Platform
OpenShift Container Platform 4.10은 이제 ARM 기반 AWS EC2 및 베어 메탈 플랫폼에서 지원됩니다. 인스턴스 가용성 및 설치 문서는 다른 플랫폼에 지원되는 설치 방법에서 확인할 수 있습니다.
ARM의 OpenShift Container Platform에서 지원되는 기능은 다음과 같습니다.
- OpenShift 클러스터 모니터링
- RHEL 8 Application Streams
- OVNKube
- AWS용 EBS(Elastic Block Store)
- AWS .NET 애플리케이션
- 베어 메탈의 NFS 스토리지
다음 Operator는 ARM의 OpenShift Container Platform에서 지원됩니다.
- Node Tuning Operator
- Node Feature Discovery Operator
- Cluster Samples Operator
- Cluster Logging Operator
- Elasticsearch Operator
- Service Binding Operator
1.3.3.4. 설치 관리자 프로비저닝 인프라를 사용하여 IBM Cloud에 클러스터 설치 (기술 프리뷰)
OpenShift Container Platform 4.10에서는 기술 프리뷰의 설치 관리자 프로비저닝 인프라를 사용하여 IBM Cloud에 클러스터를 설치할 수 있도록 지원합니다.
IPI를 사용하는 IBM Cloud에는 다음과 같은 제한 사항이 적용됩니다.
- 기존 네트워크에 IPI를 사용하여 IBM Cloud를 배포하는 것은 지원되지 않습니다.
- CCO(Cloud Credential Operator)는 수동 모드만 사용할 수 있습니다. Mint 모드 또는 STS는 지원되지 않습니다.
- IBM Cloud DNS 서비스는 지원되지 않습니다. IBM Cloud 인터넷 서비스 인스턴스가 필요합니다.
- 프라이빗 또는 연결이 끊긴 배포는 지원되지 않습니다.
자세한 내용은 IBM Cloud에 설치 준비를 참조하십시오.
1.3.3.5. VMware vSphere 클러스터 설치에 대한 씬 프로비저닝 지원
OpenShift Container Platform 4.10에서는 설치 관리자 프로비저닝 인프라를 사용하여 클러스터를 설치할 때 씬 프로비저닝된 디스크를 지원합니다. 디스크를 thin
, thick
, 또는 eagerZeroedThick
으로 프로비저닝할 수 있습니다. VMware vSphere의 디스크 프로비저닝 모드에 대한 자세한 내용은 설치 구성 매개 변수를 참조하십시오.
1.3.3.6. Amazon Web Services GovCloud 리전에 클러스터 설치
이제 AWS GovCloud 리전에서 RHCOS(Red Hat Enterprise Linux CoreOS) AMI(Amazon Machine Images)를 사용할 수 있습니다. 이러한 AMI의 가용성은 더 이상 클러스터를 배포하기 위해 사용자 지정 RHCOS AMI를 업로드하지 않아도 되므로 설치 프로세스가 향상됩니다.
자세한 내용은 정부 리전에 AWS의 클러스터 설치를 참조하십시오.
1.3.3.7. 인스턴스 프로필에 사용자 지정 AWS IAM 역할 사용
OpenShift Container Platform 4.10부터 기존 IAM 역할로 클러스터를 구성하면 설치 프로그램에서 클러스터를 배포할 때 더 이상 shared
태그를 역할에 추가하지 않습니다. 이 기능 향상을 통해 사용자 지정 IAM 역할을 사용하려고 하지만 보안 정책으로 인해 shared
태그 사용이 금지된 조직에 대한 설치 프로세스가 향상되었습니다.
1.3.3.8. vSphere 클러스터에 CSI 드라이버 설치
vSphere에서 실행되는 클러스터에 CSI 드라이버를 설치하려면 다음 구성 요소가 설치되어 있어야 합니다.
- 가상 하드웨어 버전 15 이상
- vSphere 버전 6.7 업데이트 3 이상
- VMware ESXi 버전 6.7 3 이상
위의 버전보다 이전 버전의 구성 요소는 계속 지원되지만 더 이상 사용되지 않습니다. 이러한 버전은 여전히 완전히 지원되지만 OpenShift Container Platform 버전 4.11에는 vSphere 가상 하드웨어 버전 15 이상이 필요합니다.
클러스터가 vSphere에 배포되고 위의 구성 요소가 위에 언급된 버전보다 낮은 경우 vSphere의 OpenShift Container Platform 4.9에서 4.10으로 업그레이드되지만 vSphere CSI 드라이버가 설치되지 않습니다. 버그 수정 및 4.10으로의 기타 업그레이드는 계속 지원되지만 4.11로 업그레이드할 수 없습니다.
1.3.3.9. 설치 관리자 프로비저닝 인프라를 사용하여 RuntimeClass Cloud에 클러스터 설치(기술 프리뷰)
OpenShift Container Platform 4.10에는 기술 프리뷰의 설치 관리자 프로비저닝 인프라를 사용하여 RuntimeClass Cloud에 클러스터를 설치할 수 있는 기능이 도입되었습니다. 이러한 유형의 설치를 통해 설치 프로그램이 프로비저닝하고 클러스터가 유지보수하는 인프라에 클러스터를 배포할 수 있습니다.
1.3.3.10. 설치 관리자 프로비저닝 인프라를 사용하여 Microsoft Azure Stack Hub에 클러스터 설치
OpenShift Container Platform 4.10에서는 설치 관리자 프로비저닝 인프라를 사용하여 Azure Stack Hub에 클러스터를 설치할 수 있도록 지원합니다. 이러한 유형의 설치를 통해 설치 프로그램이 프로비저닝하고 클러스터가 유지보수하는 인프라에 클러스터를 배포할 수 있습니다.
OpenShift Container Platform 4.10.14부터 Premium_LRS ,standardSSD_LRS
또는 standard
디스크 유형을 사용하여 컨트롤 플레인 및 컴퓨팅 노드를 배포할 수 있습니다. 기본적으로 설치 프로그램은 Premium _LRS
_LRS
디스크 유형의 컨트롤 플레인 및 컴퓨팅 노드를 배포합니다. 이전 4.10 릴리스에서는 standard_LRS
디스크 유형만 지원되었습니다.
자세한 내용은 설치 관리자 프로비저닝 인프라를 사용하여 Azure Stack Hub에 클러스터 설치를 참조하십시오.
1.3.3.11. 조건부 업데이트
OpenShift Container Platform 4.10은 OpenShift Update Service에서 제공하는 조건부 업데이트 경로 사용을 지원합니다. 조건부 업데이트 경로는 확인된 위험 및 해당 위험이 클러스터에 적용되는 조건을 전달합니다. 웹 콘솔의 관리자 (Administrator) 모드에서는 클러스터가 알려진 위험과 일치하지 않는 권장되는 업그레이드 경로만 제공합니다. 그러나 OpenShift CLI(oc
) 4.10 이상에서는 OpenShift Container Platform 4.10 클러스터에 대한 추가 업그레이드 경로를 표시하는 데 사용할 수 있습니다. 문서 참조를 비롯한 관련 위험 정보는 경로와 함께 표시됩니다. 관리자는 참조 자료를 검토하고 지원되는 업그레이드(더 이상 권장되지 않음)를 수행할 수 있습니다.
자세한 내용은 조건부 업데이트 및 조건부 업그레이드 경로에 따라 업데이트를 참조하십시오.
1.3.3.12. oc-mirror CLI 플러그인으로 연결이 끊긴 미러링 (기술 프리뷰)
이번 릴리스에서는 oc-mirror OpenShift CLI(oc
) 플러그인이 기술 프리뷰로 도입되었습니다. oc-mirror 플러그인을 사용하여 연결이 끊긴 환경의 이미지를 미러링할 수 있습니다.
1.3.3.13. OVS-DPDK를 사용하는 RHOSP에 클러스터 설치
이제 OVS-DPDK(Data Plane Development Kit) 네트워크를 사용하여 Open vSwitch에서 컴퓨팅 머신이 실행되는 RHOSP(Red Hat OpenStack Platform)에 클러스터를 설치할 수 있습니다. 이러한 머신에서 실행되는 워크로드는 OVS-DPDK의 성능 및 대기 시간 개선의 이점을 얻을 수 있습니다.
자세한 내용은 DPDK 연결 컴퓨팅 머신을 지원하는 RHOSP에 클러스터 설치를 참조하십시오.
1.3.3.14. RHOSP에 설치하는 동안 컴퓨팅 머신 선호도 설정
RHOSP에 클러스터를 설치할 때 컴퓨팅 머신 선호도를 선택할 수 있습니다. 기본적으로 컴퓨팅 머신은 soft-anti-affinity
서버 정책을 사용하여 배포되지만 anti-affinity
또는 soft-affinity
정책을 선택할 수도 있습니다.
1.3.4. 웹 콘솔
1.3.4.1. 개발자 화면
- 이번 업데이트를 통해 바인딩 연결을 수행하는 동안 토폴로지 보기에서 서비스 바인딩 커넥터의 이름을 지정할 수 있습니다.
이번 업데이트를 통해 파이프라인 워크플로우 생성이 향상되었습니다.
- 이제 Git에서 가져오기 파이프라인 워크플로에서 애플리케이션을 가져오는 동안 드롭다운 목록에서 사용자 정의 파이프라인을 선택할 수 있습니다.
- Git에서 가져오기 워크플로를 사용하여 생성된 파이프라인에 기본 Webhook가 추가되고 토폴로지 보기에서 선택한 리소스의 측면 패널에 URL이 표시됩니다.
TektonConfig
사용자 정의 리소스에서enable-devconsole-integration
매개변수를false
로 설정하여 기본 Tekton Hub 통합을 옵트아웃할 수 있습니다.Tekton Hub 통합을 옵트아웃하는
TektonConfig
CR의 예... hub: params: - name: enable-devconsole-integration value: 'false' ...
- 파이프라인 빌더에는 클러스터에서 지원하는 Tekton Hub 작업이 포함되어 있으며 다른 모든 지원되지 않는 작업은 목록에서 제외됩니다.
- 이번 업데이트를 통해 내보내기가 진행되는 동안 애플리케이션 내보내기 워크플로에 내보내기 로그 대화 상자 또는 경고가 표시됩니다. 대화 상자를 사용하여 내보내기 프로세스를 취소하거나 다시 시작할 수 있습니다.
- 이번 업데이트를 통해 사용자 정의 리소스를 생성하여 새 Helm 차트 리포지터리를 개발자 카탈로그에 추가할 수 있습니다. 새 ProjectHelmChartRepository를 추가하려면 개발자 화면의 퀵 스타트 가이드를 참조하십시오.
- 이번 업데이트를 통해 개발자 카탈로그를 사용하여 커뮤니티 devfiles 샘플에 액세스할 수 있습니다.
1.3.4.2. 동적 플러그인 (기술 프리뷰)
OpenShift Container Platform 4.10부터 OpenShift 콘솔 동적 플러그인을 생성하는 기능을 기술 프리뷰 기능으로 사용할 수 있습니다. 이 기능을 사용하여 다음을 포함하여 런타임 시 인터페이스를 사용자 지정할 수 있습니다.
- 사용자 정의 페이지 추가
- 화면 추가 및 탐색 항목 업데이트
- 리소스 페이지에 탭 및 작업 추가
동적 플러그인에 대한 자세한 내용은 OpenShift Container Platform 웹 콘솔에 동적 플러그인 추가를 참조하십시오.
1.3.4.3. 디버그 모드에서 Pod 실행
이번 업데이트를 통해 웹 콘솔에서 디버그 터미널을 볼 수 있습니다. Pod에 CrashLoopBackOff
상태에 있는 컨테이너가 있는 경우 디버그 Pod를 시작할 수 있습니다. 터미널 인터페이스가 표시되고 크래시 루프 컨테이너를 디버깅하는 데 사용할 수 있습니다.
- 이 기능은 Pod 상태를 클릭하여 액세스하는 Pod 상태 팝업 창에서 액세스할 수 있으며 해당 Pod 내의 각 크래시 루프 컨테이너에 대한 디버그 터미널 링크를 제공합니다.
- Pod 세부 정보 페이지의 로그 탭에서 이 기능에 액세스할 수도 있습니다. 크래시 루프 컨테이너가 선택되면 로그 창 위에 디버그 터미널 링크가 표시됩니다.
또한 Pod 상태 팝업 창에서 Pod 세부 정보 페이지의 로그 및 이벤트 탭에 대한 링크를 제공합니다.
1.3.4.4. 사용자 정의 워크로드 알림
이번 업데이트를 통해 사용자 환경 설정 페이지에서 워크로드 알림을 사용자 지정할 수 있습니다. 알림 탭의 사용자 워크로드 알림을 사용하여 클러스터 개요 페이지 또는 드로어에 표시되는 사용자 워크로드 알림을 숨길 수 있습니다.
1.3.4.5. 할당량 가시성 개선
이번 업데이트를 통해 관리자 이외의 사용자는 이제 프로젝트 개요,ResourceQuotas, API Explorer 페이지에서 AppliedClusterResourceQuota
의 사용량을 보고 사용할 수 있는 클러스터 범위 할당량을 결정할 수 있습니다. 또한 AppliedClusterResourceQuota
세부 정보는 이제 검색 페이지에서 확인할 수 있습니다.
1.3.4.6. 클러스터 지원 수준
OpenShift Container Platform을 사용하면 개요
1.3.5. IBM Z 및 LinuxONE
이 릴리스에서 IBM Z 및 LinuxONE은 이제 OpenShift Container Platform 4.10과 호환됩니다. z/VM 또는 RHEL KVM을 사용하여 설치할 수 있습니다. 설치 지침은 다음 설명서를 참조하십시오.
주요 개선 사항
OpenShift Container Platform 4.10을 사용하는 IBM Z 및 LinuxONE에서 지원되는 새로운 기능은 다음과 같습니다.
- 수평 Pod 자동 스케일링
다음 Multus CNI 플러그인이 지원됩니다.
- Bridge
- Host-device
- IPAM
- IPVLAN
- Compliance Operator 0.1.49
- NMState Operator
- OVN-Kubernetes IPsec 암호화
- Vertical Pod Autoscaler Operator
지원되는 기능
다음 기능은 IBM Z 및 LinuxONE에서도 지원됩니다.
현재 다음 Operator가 지원됩니다.
- Cluster Logging Operator
- Compliance Operator 0.1.49
- Local Storage Operator
- NFD Operator
- NMState Operator
- OpenShift Elasticsearch Operator
- Service Binding Operator
- Vertical Pod Autoscaler Operator
- etcd에 저장된 데이터 암호화
- Helm
- 다중 경로
- iSCSI를 사용하는 영구 스토리지
- 로컬 볼륨을 사용하는 영구저장장치(Local Storage Operator)
- hostPath를 사용하는 영구 스토리지
- 파이버 채널을 사용하는 영구 스토리지
- Raw Block을 사용하는 영구 스토리지
- OVN-Kubernetes
- 다중 네트워크 인터페이스 지원
- 3-노드 클러스터 지원
- SCSI 디스크의 z/VM Emulated FBA 장치
- 4K FCP 블록 장치
다음 기능은 4.10용 IBM Z 및 LinuxONE의 OpenShift Container Platform에서만 사용할 수 있습니다.
- FICON의 ECKD 스토리지에 연결된 가상 머신에 대해 IBM Z 및 LinuxONE에서 HyperPAV 활성화
제한 사항
다음 제한 사항은 IBM Z 및 LinuxONE의 OpenShift Container Platform에 영향을 미칩니다.
다음 OpenShift Container Platform 기술 프리뷰 기능은 지원되지 않습니다.
- PTP(Precision Time Protocol) 하드웨어
다음 OpenShift Container Platform 기능은 지원되지 않습니다 :
- 시스템 상태 점검으로 손상된 시스템 자동 복구
- CRC(CodeReady Containers)
- 노드에서 오버 커밋 제어 및 컨테이너 밀도 관리
- CSI 볼륨 복제
- CSI 볼륨 스냅샷
- FIPS 암호화
- NVMe
- OpenShift Metering
- OpenShift Virtualization
- OpenShift Container Platform 배포 시 Tang 모드 디스크 암호화
- 작업자 노드는 RHCOS(Red Hat Enterprise Linux CoreOS)를 실행해야 합니다.
- 영구 공유 스토리지는 OpenShift Data Foundation 또는 기타 지원되는 스토리지 프로토콜을 사용하여 프로비저닝해야 합니다.
- 영구 비공유 스토리지는 iSCSI, FC와 같은 로컬 스토리지를 사용하거나 DASD, FCP 또는 EDEV/FBA 함께 LSO를 사용하여 프로비저닝해야 합니다.
1.3.6. IBM Power
이번 릴리스에서 IBM Power는 이제 OpenShift Container Platform 4.10과 호환됩니다. 설치 지침은 다음 설명서를 참조하십시오.
주요 개선 사항
OpenShift Container Platform 4.10을 사용하는 IBM Power에서 다음과 같은 새로운 기능이 지원됩니다.
- 수평 Pod 자동 스케일링
다음 Multus CNI 플러그인이 지원됩니다.
- Bridge
- Host-device
- IPAM
- IPVLAN
- Compliance Operator 0.1.49
- NMState Operator
- OVN-Kubernetes IPsec 암호화
- Vertical Pod Autoscaler Operator
지원되는 기능
다음 기능은 IBM Power에서도 지원됩니다.
현재 다음 Operator가 지원됩니다.
- Cluster Logging Operator
- Compliance Operator 0.1.49
- Local Storage Operator
- NFD Operator
- NMState Operator
- OpenShift Elasticsearch Operator
- SR-IOV 네트워크 Operator
- Service Binding Operator
- Vertical Pod Autoscaler Operator
- etcd에 저장된 데이터 암호화
- Helm
- 다중 경로
- Multus SR-IOV
- NVMe
- OVN-Kubernetes
- iSCSI를 사용하는 영구 스토리지
- 로컬 볼륨을 사용하는 영구저장장치(Local Storage Operator)
- hostPath를 사용하는 영구 스토리지
- 파이버 채널을 사용하는 영구 스토리지
- Raw Block을 사용하는 영구 스토리지
- 다중 네트워크 인터페이스 지원
- Power10 지원
- 3-노드 클러스터 지원
- 4K 디스크 지원
제한 사항
IBM Power의 OpenShift Container Platform에 영향을 미치는 제한 사항은 다음과 같습니다.
다음 OpenShift Container Platform 기술 프리뷰 기능은 지원되지 않습니다.
- PTP(Precision Time Protocol) 하드웨어
다음 OpenShift Container Platform 기능은 지원되지 않습니다 :
- 시스템 상태 점검으로 손상된 시스템 자동 복구
- CRC(CodeReady Containers)
- 노드에서 오버 커밋 제어 및 컨테이너 밀도 관리
- FIPS 암호화
- OpenShift Metering
- OpenShift Virtualization
- OpenShift Container Platform 배포 시 Tang 모드 디스크 암호화
- 작업자 노드는 RHCOS(Red Hat Enterprise Linux CoreOS)를 실행해야 합니다.
- 영구 스토리지는 로컬 볼륨, OpenShift Data Foundation, NFS(Network File System) 또는 CSI(Container Storage Interface)를 사용하는 Filesystem 유형이어야 합니다.
1.3.7. 보안 및 컴플라이언스
보안 및 규정 준수 구성 요소에 대한 새로운 기능, 개선 사항, 버그 수정에 대한 정보는 Compliance Operator 및 File Integrity Operator 릴리스 노트에서 확인할 수 있습니다.
보안 및 컴플라이언스에 대한 자세한 내용은 OpenShift Container Platform 보안 및 규정 준수 를 참조하십시오.
1.3.8. 네트워킹
1.3.8.1. Dual-stack 서비스를 사용하려면 ipFamilyPolicy를 지정해야 합니다.
여러 IP 주소 제품군을 사용하는 서비스를 생성할 때 Service 오브젝트 정의에서 ipFamilyPolicy: PreferDualStack
또는 ipFamilyPolicy: RequireDualStack
을 명시적으로 지정해야 합니다. 이번 변경으로 인해 이전 릴리스의 OpenShift Container Platform과 역호환이 중단됩니다.
자세한 내용은 BZ#2045576에서 참조하십시오.
1.3.8.2. 클러스터 설치 후 클러스터 네트워크 MTU 변경
클러스터 설치 후 OpenShift SDN 클러스터 네트워크 공급자 또는 OVN-Kubernetes 클러스터 네트워크 공급자를 사용하는 경우 하드웨어 MTU 및 클러스터 네트워크 MTU 값을 변경할 수 있습니다. 클러스터 전체에서 MTU를 변경하는 것은 중단되므로 각 노드를 여러 번 재부팅해야 합니다. 자세한 내용은 클러스터 네트워크 MTU 변경을 참조하십시오.
1.3.8.3. 게이트웨이 구성에 대한 OVN-Kubernetes 지원
OVN-Kubernetes CNI 네트워크 공급자는 송신 트래픽이 노드 게이트웨이로 전송되는 방법을 구성하는 지원을 추가합니다. 기본적으로 송신 트래픽은 클러스터를 종료하기 위해 OVN에서 처리되며 트래픽은 커널 라우팅 테이블의 특수 경로의 영향을 받지 않습니다.
이번 개선된 기능에는 gatewayConfig.routingViaHost
필드가 추가되었습니다. 이번 업데이트를 통해 런타임 시 필드를 설치 후 활동으로 설정할 수 있으며 true
로 설정되면 송신 트래픽이 Pod에서 호스트 네트워킹 스택으로 전송됩니다. 이번 업데이트에서는 커널 라우팅 테이블에 수동으로 구성된 경로를 사용하는 고도의 전문 설치 및 애플리케이션에 도움이 됩니다.
이번 개선된 기능을 통해 Open vSwitch 하드웨어 오프로드 기능과 상호 작용합니다. 이번 업데이트를 통해 gatewayConfig.routingViaHost
필드가 true
로 설정되면 송신 트래픽이 호스트 네트워킹 스택에서 처리되므로 오프로드의 성능 이점을 받지 않습니다.
송신 트래픽을 설정하려면 gatewayConfig.routingViaHost
를 사용하고 openshift-network-operator
네임스페이스에서 설정한 경우 gateway-mode-config
구성 맵을 삭제합니다. gateway-mode-config
솔루션과 OpenShift Container Platform 4.10 이상에서 OVN-Kubernetes 게이트웨이 모드를 설정하는 방법에 대한 자세한 내용은 영생을 참조하십시오.
구성 정보는 OVN-Kubernetes CNI 클러스터 네트워크 공급자에 대한 구성을 참조하십시오.
1.3.8.4. 네트워킹 지표 개선
이제 클러스터에 다음 지표를 사용할 수 있습니다. sdn_controller
로 시작하는 지표 이름은 OpenShift SDN CNI 네트워크 공급자에 고유합니다. ovn
으로 시작하는 지표 이름은 OVN-Kubernetes CNI 네트워크 공급자에 고유합니다.
-
network_attachment_definition_instances{networks="egress-router"}
-
openshift_unidle_events_total
-
ovn_controller_bfd_run
-
ovn_controller_ct_zone_commit
-
ovn_controller_flow_generation
-
ovn_controller_flow_installation
-
ovn_controller_if_status_mgr
-
ovn_controller_if_status_mgr_run
-
ovn_controller_if_status_mgr_update
-
ovn_controller_integration_bridge_openflow_total
-
ovn_controller_ofctrl_seqno_run
-
ovn_controller_patch_run
-
ovn_controller_pinctrl_run
-
ovnkube_master_ipsec_enabled
-
ovnkube_master_num_egress_firewall_rules
-
ovnkube_master_num_egress_firewalls
-
ovnkube_master_num_egress_ips
-
ovnkube_master_pod_first_seen_lsp_created_duration_seconds
-
ovnkube_master_pod_lsp_created_port_binding_duration_seconds
-
ovnkube_master_pod_port_binding_chassis_port_binding_up_duration_seconds
-
ovnkube_master_pod_port_binding_port_binding_chassis_duration_seconds
-
sdn_controller_num_egress_firewall_rules
-
sdn_controller_num_egress_firewalls
-
sdn_controller_num_egress_ips
4.10 릴리스에 대해 ovnkube_master_resource_update_total
메트릭이 제거됩니다.
1.3.8.5. YAML 보기와 웹 콘솔 양식 간 전환
- 이전에는 웹 콘솔에서 YAML 보기 및 양식 보기를 전환할 때 변경 사항이 유지되지 않았습니다. 또한 YAML 보기로 전환한 후 양식 보기로 돌아갈 수 없었습니다. 이번 업데이트를 통해 변경 사항을 손실하지 않고도 웹 콘솔에서 YAML 보기와 양식 보기를 쉽게 전환할 수 있습니다.
1.3.8.6. 네트워크 정책의 대상 Pod 나열
OpenShift Container Platform 웹 콘솔에서 네트워크 정책 기능을 사용하는 경우 정책의 영향을 받는 Pod가 나열됩니다. 이러한 정책 섹션의 결합된 네임스페이스 및 Pod 선택기가 수정됨에 따라 목록이 변경됩니다.
- 피어 정의
- 규칙 정의
- Ingress
- Egress
영향을 받는 Pod 목록에는 사용자가 액세스할 수 있는 Pod만 포함됩니다.
1.3.8.7. 네트워크 추적을 간소화하기 위해 must-gather의 기능 개선
oc adm must-gather
명령은 네트워크 패킷 캡처 수집을 간소화하는 방식으로 향상되었습니다.
이전 버전에서는 oc adm must-gather
가 단일 디버그 Pod만 시작할 수 있었습니다. 이번 개선된 기능을 통해 여러 노드에서 동시에 디버그 Pod를 시작할 수 있습니다.
향상된 기능을 사용하여 네트워크 통신 문제 해결을 단순화하기 위해 여러 노드에서 패킷 캡처를 실행할 수 있습니다. 새로운 --node-selector
인수는 패킷 캡처를 수집하는 노드를 식별하는 방법을 제공합니다.
자세한 내용은 네트워크 추적 방법 및 호스트 네트워크 추적 수집을 참조하십시오.
1.3.8.8. 보조 네트워크에 대한 Pod 수준 본딩
Pod 수준의 본딩은 고가용성과 처리량이 필요한 Pod 내부의 워크로드를 활성화하는 데 중요합니다. Pod 수준 본딩을 사용하면 커널 모드 인터페이스에서 여러 개의 SR-IOV(root I/O Virtualization) 가상 기능 인터페이스에서 본딩 인터페이스를 생성할 수 있습니다. SR-IOV 가상 기능은 Pod에 전달되고 커널 드라이버에 연결됩니다.
Pod 수준 본딩이 필요한 시나리오에는 다양한 물리적 기능의 여러 SR-IOV 가상 함수에서 본딩 인터페이스 생성이 포함됩니다. 호스트에서 두 가지 물리적 함수에서 본딩 인터페이스를 생성하여 Pod 수준에서 고가용성을 실현할 수 있습니다.
1.3.8.9. 퍼블릭 클라우드에 설치된 클러스터에 대한 송신 IP 주소 지원
클러스터 관리자는 하나 이상의 송신 IP 주소를 네임스페이스와 연결할 수 있습니다. 송신 IP 주소를 사용하면 클러스터를 나가는 특정 네임스페이스의 트래픽과 일관된 소스 IP 주소가 연결됩니다.
OVN-Kubernetes 및 OpenShift SDN 클러스터 네트워크 공급자의 경우 다음 퍼블릭 클라우드 공급자에서 송신 IP 주소를 구성할 수 있습니다.
- AWS(Amazon Web Services)
- GCP(Google Cloud Platform)
- Microsoft Azure
자세한 내용은 클러스터 네트워크 공급자에 대한 해당 문서를 참조하십시오.
1.3.8.10. 송신 정책 및 ipBlock에 대한 OpenShift SDN 클러스터 네트워크 공급자 네트워크 정책 지원
OpenShift SDN 클러스터 네트워크 공급자를 사용하는 경우 ipBlock
및 ipBlock.except
을 사용하여 네트워크 정책에서 송신 규칙을 사용할 수 있습니다. NetworkPolicy
오브젝트의 egress
배열에 송신 정책을 정의합니다.
자세한 내용은 네트워크 정책 정보를 참조하십시오.
1.3.8.11. Ingress 컨트롤러 라우터 압축
이번 개선된 기능에는 특정 MIME 유형에 대해 HAProxy Ingress 컨트롤러에서 글로벌 HTTP 트래픽 압축을 구성하는 기능이 추가되었습니다. 이번 업데이트에서는 압축 가능한 라우팅 트래픽이 많은 경우 수신 워크로드를 gzip으로 압축할 수 있습니다.
자세한 내용은 라우터 압축 사용을 참조하십시오.
1.3.8.12. CoreDNS 사용자 정의 지원
클러스터 관리자는 이제 기본 도메인에 대해 구성된 서버를 통해 DNS 이름 확인을 허용하도록 DNS 서버를 구성할 수 있습니다. DNS 전달 구성에는 /etc/resolv.conf
파일과 업스트림 DNS 서버에 지정된 기본 서버가 모두 있을 수 있습니다.
자세한 내용은 DNS 전달 사용을 참조하십시오.
1.3.8.13. CoreDNS 로그 수준 및 Operator 로그 수준 지원
이번 개선된 기능에는 Operator의 로그 수준을 개별적으로 또는 클러스터 전체에 수동으로 변경할 수 있는 기능이 추가되었습니다.
자세한 내용은 CoreDNS 로그 수준 설정을 참조하십시오.
1.3.8.14. Ingress 컨트롤러에서 syslog 메시지의 최대 길이 구성 지원
Ingress 컨트롤러의 syslog 메시지의 최대 길이를 480에서 4096바이트 사이의 값으로 설정할 수 있습니다.
자세한 내용은 Ingress 컨트롤러 구성 매개변수를 참조하십시오.
1.3.8.15. CoreDNS 전달 정책 설정
이제 DNS Operator를 통해 CoreDNS 전달 정책을 설정할 수 있습니다. 기본값은 Random
이며 값을 RoundRobin
또는 Sequential
으로 설정할 수도 있습니다.
자세한 내용은 DNS 전달 사용을 참조하십시오.
1.3.8.16. SR-IOV에 대한 Open vSwitch 하드웨어 오프로드 지원
이제 호환되는 베어 메탈 노드에서 데이터 처리 성능을 높이기 위해 Open vSwitch 하드웨어 오프로드를 구성할 수 있습니다. 하드웨어 오프로드는 CPU에서 데이터 처리 작업을 제거하고 네트워크 인터페이스 컨트롤러의 전용 데이터 처리 장치로 전송하는 데이터를 처리하는 방법입니다. 이 기능의 이점은 더 빠른 데이터 처리, CPU 워크로드 감소 및 컴퓨팅 비용을 절감할 수 있습니다.
자세한 내용은 하드웨어 오프로드 구성을 참조하십시오.
1.3.8.17. Red Hat External DNS Operator를 사용하여 DNS 레코드 생성 (기술 프리뷰)
이제 AWS, Azure 및 GCP와 같은 클라우드 공급자에서 Red Hat External DNS Operator를 사용하여 DNS 레코드를 생성할 수 있습니다. OperatorHub를 사용하여 외부 DNS Operator를 설치할 수 있습니다. 매개변수를 사용하여 필요에 따라 ExternalDNS
를 구성할 수 있습니다.
자세한 내용은 외부 DNS Operator 이해를 참조하십시오.
1.3.8.18. 변경 가능한 Ingress 컨트롤러 끝점 게시 전략 개선
클러스터 관리자는 OpenShift Container Platform의 Internal
및 External
간에 로드 밸런서 범위를 변경하기 위해 Ingress 컨트롤러 끝점 게시 전략을 구성할 수 있습니다.
자세한 내용은 Ingress 컨트롤러 끝점 게시 전략을 참조하십시오.
1.3.8.19. RHOSP의 클러스터용 OVS 하드웨어 오프로드(기술 프리뷰)
RHOSP(Red Hat OpenStack Platform)에서 실행되는 클러스터의 경우 OVS(Open vSwitch) 하드웨어 오프로드를 활성화할 수 있습니다.
자세한 내용은 OVS 하드웨어 오프로드 활성화를 참조하십시오.
1.3.8.20. Kuryr로 생성된 RHOSP 리소스의 감소
RHOSP에서 실행되는 클러스터의 경우 Kuryr는 이제 Pod 네트워크에 하나 이상의 Pod가 있는 네임스페이스에 대한 Neutron 네트워크와 서브넷만 생성합니다. 또한 Pod 네트워크의 Pod가 네임스페이스에 생성된 후 네임스페이스의 풀이 채워집니다.
1.3.8.21. RHOSP DCN 지원 (기술 프리뷰)
이제 distributed compute node (DCN) 구성을 사용하는 RHOSP(Red Hat OpenStack Platform) 배포에 클러스터를 배포할 수 있습니다. 이 배포 구성에는 몇 가지 제한 사항이 있습니다.
- RHOSP 버전 16만 지원됩니다.
- RHOSP 16.1.4의 경우 HCI(하이퍼 컨버지드 인프라) 및 Ceph 기술만 에지에서 지원됩니다.
- RHOSP 16.2의 경우 HCI가 아닌 Ceph 기술도 지원됩니다.
- 네트워크는 테넌트 또는 공급자 네트워크로 미리 생성해야 합니다 (Bring Your Own Network). 이러한 네트워크는 적절한 가용성 영역에서 예약되어야 합니다.
1.3.8.22. RHOSP에서 클러스터용 외부 클라우드 공급자 지원 (기술 프리뷰)
RHOSP에서 실행되는 클러스터는 이제 클라우드 공급자 OpenStack을 사용할 수 있습니다. 이 기능은 TechPreviewNoUpgrade
기능 세트의 일부로 사용할 수 있습니다.
1.3.8.23. 설치 관리자 프로비저닝 클러스터에서 NMState를 사용하여 호스트 네트워크 인터페이스 구성
OpenShift Container Platform에서는 호스트 인터페이스를 구성하기 위해 NMState YAML 구성을 사용하는 설치 관리자 프로비저닝 클러스터에 대한 networkConfig
구성 설정을 제공합니다. 설치 프로그램에서 제공하는 설치 중에 networkConfig
구성 설정과 NMState YAML 구성을 install-config.yaml
파일에 추가할 수 있습니다. 또한 Bare Metal Operator를 사용할 때 networkConfig
구성 설정과 NMState YAML 구성을 베어 메탈 호스트 리소스에 추가할 수 있습니다.
networkConfig
구성 설정의 가장 일반적인 사용 사례는 설치 중에 또는 클러스터를 확장하는 동안 호스트의 네트워크 인터페이스에 고정 IP 주소를 설정하는 것입니다.
자세한 내용은 install-config.yaml 파일에서 호스트 네트워크 인터페이스 구성을 참조하십시오.
1.3.8.24. linuxptp 서비스에 대한 경계 클럭 및 PTP 개선 사항
이제 PtpConfig
프로필에 여러 네트워크 인터페이스를 지정하여 RAN vDU 애플리케이션을 실행하는 노드가 Precision Time Protocol Telecom Boundary Clock(PTP T-BC) 역할을 할 수 있습니다. 경계 클럭으로 구성된 인터페이스는 PTP 빠른 이벤트도 지원합니다.
자세한 내용은 linuxptp 서비스를 경계 클록으로 구성을 참조하십시오.
1.3.8.25. Intel 800-Series Columbiaville NIC 지원
Intel 800-Series Columbiaville NIC는 이제 경계 클럭 또는 일반 클럭으로 구성된 인터페이스에서 완전히 지원됩니다. Columbiaville NIC는 다음 구성에서 지원됩니다.
- 일반 클록
- Grandmaster 클럭과 동기화된 경계 클럭
- 업스트림 소스 클럭에서 동기화하는 포트 1 개와 대상 클럭에 다운스트림 타이밍을 제공하는 포트 3 개가 있는 경계 클럭
자세한 내용은 PTP 장치 구성을 참조하십시오.
1.3.8.26. Kubernetes NMState Operator는 베어 메탈, IBM Power, IBM Z 및 LinuxONE 설치를 위한 GA입니다.
OpenShift Container Platform은 이제 베어 메탈, IBM Power, IBM Z 및 LinuxONE 설치를 위한 Kubernetes NMState Operator를 제공합니다. Kubernetes NMState Operator는 다른 모든 플랫폼의 기술 프리뷰입니다. 자세한 내용은 Kubernetes NMState Operator 정보를 참조하십시오.
1.3.8.27. Mellanox MT2892 카드에 대한 SR-IOV 지원
Mellanox MT2892 카드에 SR-IOV 지원을 사용할 수 있습니다.
1.3.8.28. Network Observability Operator에서 네트워크 트래픽 흐름을 관찰
관리자는 Network Observability Operator를 설치하여 콘솔에서 OpenShift Container Platform 클러스터의 네트워크 트래픽을 확인할 수 있습니다. 다른 그래픽 표현에서 네트워크 트래픽 데이터를 보고 모니터링할 수 있습니다. Network Observability Operator는 eBPF 기술을 사용하여 네트워크 흐름을 생성합니다. 네트워크 흐름은 OpenShift Container Platform 정보로 보강되고 로키에 저장됩니다. 자세한 문제 해결 및 분석을 위해 네트워크 트래픽 정보를 사용할 수 있습니다.
Network Observability Operator는 4.12 버전의 OpenShift Container Platform의 GA(General Availability) 상태이며 OpenShift Container Platform 4.10에서도 지원됩니다.
자세한 내용은 Network Observability 을 참조하십시오.
1.3.8.28.1. Network Observability Operator 업데이트
Network Observability Operator는 OpenShift Container Platform 마이너 버전 릴리스 스트림과 별도로 업데이트를 릴리스합니다. 업데이트는 현재 지원되는 모든 OpenShift Container Platform 4 버전에서 지원되는 단일 롤링 스트림을 통해 제공됩니다. Network Observability Operator의 새로운 기능, 개선 사항 및 버그 수정에 대한 정보는 Network Observability 릴리스 노트 에서 확인할 수 있습니다.
1.3.9. 하드웨어
1.3.9.1. MetalLB 로드 밸런싱 개선
이 릴리스에는 MetalLB 및 MetalLB Operator에 대한 다음과 같은 개선 사항이 포함되어 있습니다.
- BGP(Border Gateway Protocol)에 대한 지원이 추가되었습니다.
- BGP와 함께 BFD (Tedirectal Forwarding Detection)에 대한 지원이 추가되었습니다.
- IPv6 및 이중 스택 네트워킹에 대한 지원이 추가되었습니다.
-
speaker
Pod에서 노드 선택기를 지정하는 기능이 추가되었습니다. 이제 로드 밸런서 서비스 IP 주소를 알리는 데 사용되는 노드를 제어할 수 있습니다. 이 향상된 기능은 계층 2 모드 및 BGP 모드에 적용됩니다. - 주소 풀 및 BGP 피어 사용자 정의 리소스가 유효한지 확인하기 위해 웹 후크 유효성 검사가 추가되었습니다.
-
4.9 릴리스에 도입된
AddressPool
및MetalLB
사용자 정의 리소스 정의의v1alpha1
API 버전은 더 이상 사용되지 않습니다. 두 사용자 지정 리소스는 모두v1beta1
API 버전으로 업데이트됩니다. - MetalLB 사용자 정의 리소스 정의에서 스피커 Pod 허용 오차가 지원됩니다.
자세한 내용은 MetalLB 및 MetalLB Operator 정보를 참조하십시오.
1.3.9.2. 호스트 펌웨어 설정 수정 지원
OpenShift Container Platform은 HostFirmware>-<
및 FirmwareSchema
리소스를 지원합니다. 베어 메탈 호스트에 OpenShift Container Platform을 배포할 때 프로비저닝 전이나 후에 호스트를 변경해야 하는 경우가 있습니다. 여기에는 호스트의 펌웨어 및 BIOS 세부 정보 검사가 포함될 수 있습니다. Bare Metal Operator(BMO)와 함께 사용할 수 있는 두 가지 새로운 리소스가 있습니다.
-
HostFirmwareSettings
:HostFirmwareSettings
리소스를 사용하여 호스트의 BIOS 설정을 검색하고 관리할 수 있습니다. 리소스에는 BMC(Baseboard Management Controller)에서 반환된 전체 BIOS 구성이 포함되어 있습니다. 반면BareMetalHost
리소스의 펌웨어 필드는 세 가지 벤더 독립적인 필드를 반환하며,HostFirmwareSettings
리소스는 일반적으로 호스트 모델당 벤더별 필드의 많은 BIOS 설정을 포함합니다. -
FirmwareSchema
:FirmwareSchema
를 사용하여 호스트 펌웨어 설정을 변경할 때 호스트의 수정 가능한 BIOS 값과 제한을 확인할 수 있습니다.
자세한 내용은 베어 메탈 구성을 참조하십시오.
1.3.10. 스토리지
1.3.10.1. 스토리지 메트릭 지표
-
이번 업데이트를 통해 공유 리소스 CSI 드라이버에서 제공하는 인라인 임시
csi
볼륨을 사용하여 워크로드는 네임스페이스에서Secrets
및ConfigMap
오브젝트를 안전하게 공유할 수 있습니다. CSI(Container Storage Interface) 볼륨 및 공유 리소스 CSI 드라이버는 기술 프리뷰 기능입니다. (BUILD-293)
1.3.10.2. 콘솔 스토리지 플러그인 개선
- 화면 리더의 설치 흐름에 AImagePrepare 라벨을 추가하는 Console Storage 플러그인에 새로운 기능이 추가되었습니다. 이를 통해 스크린 리더를 사용하여 콘솔에 액세스하는 사용자에게 더 나은 접근성을 제공합니다.
- PVC(영구 볼륨 클레임)에 사용되는 볼륨의 사용 공간을 나타내는 메트릭을 제공하는 새 기능이 추가되었습니다. 이 정보는 PVC 목록과 사용된 열의 PVC 세부 정보에 표시됩니다. (BZ#1985965)
1.3.10.3. vGPU AliCloud Disk CSI Driver Operator를 사용한 영구 스토리지
OpenShift Container Platform은 AliCloud Disk의 CSI(Container Storage Interface) 드라이버를 사용하여 PV(영구 볼륨)를 프로비저닝할 수 있습니다. 이 드라이버를 관리하는 AliCloud Disk Driver Operator는 일반적으로 사용 가능하며 OpenShift Container Platform 4.10에서 기본적으로 활성화됩니다.
자세한 내용은 AliCloud Disk CSI Driver Operator 를 참조하십시오.
1.3.10.4. Microsoft Azure File CSI Driver Operator를 사용한 영구 스토리지 (기술 프리뷰)
OpenShift Container Platform은 Azure 파일의 CSI(Container Storage Interface) 드라이버를 사용하여 PV(영구 볼륨)를 프로비저닝할 수 있습니다. 이 드라이버를 관리하는 Azure File Driver Operator는 기술 프리뷰로 사용할 수 있습니다.
자세한 내용은 Azure File CSI Driver Operator 를 참조하십시오.
1.3.10.5. IBM VPC Block CSI Driver Operator를 사용한 영구 스토리지
OpenShift Container Platform은 IBM Virtual Private Cloud(VPC) 블록용 CSI(Container Storage Interface) 드라이버를 사용하여 PV(영구 볼륨)를 프로비저닝할 수 있습니다. 이 드라이버를 관리하는 IBM VPC Block Driver Operator는 일반적으로 사용 가능하며 OpenShift Container Platform 4.10에서 기본적으로 활성화됩니다.
자세한 내용은 IBM VPC Block CSI Driver Operator 에서 참조하십시오.
1.3.10.6. VMware vSphere CSI Driver Operator를 사용하는 영구 스토리지를 일반적으로 사용할 수 있습니다.
OpenShift Container Platform은 vSphere용 CSI(Container Storage Interface) 드라이버를 사용하여 PV(영구 볼륨)를 프로비저닝할 수 있습니다. 이 기능은 이전에 OpenShift Container Platform 4.8에서 기술 프리뷰 기능으로 소개되었으며 현재 OpenShift Container Platform 4.10에서 일반적으로 사용 가능하며 활성화되어 있습니다.
자세한 내용은 vSphere CSI Driver Operator에서 참조하십시오.
vSphere CSI Driver Operator를 설치하려면 다음이 필요합니다.
- 특정 최소 구성 요소 버전이 설치되어 있어야 합니다. vSphere 클러스터에 CSI 드라이버 설치참조
- Red Hat vSphere CSI 드라이버이외 제거 (Red Hat vSphere CSI Operator 드라이버이외 제거)
-
이름이
thin-csi
인 모든 스토리지 클래스가 제거됨
이전 조건이 충족되지 않더라도 클러스터는 계속 업그레이드되지만 지원되는 vSphere CSI Operator 드라이버를 사용하려면 이러한 조건을 충족하는 것이 좋습니다.
1.3.10.7. Microsoft Azure Disk CSI Driver Operator를 사용하는 영구 스토리지 사용 가능
OpenShift Container Platform은 Azure Disk용 CSI(Container Storage Interface) 드라이버를 사용하여 PV(영구 볼륨)를 프로비저닝할 수 있습니다. 이 기능은 이전에 OpenShift Container Platform 4.8에서 기술 프리뷰 기능으로 소개되었으며 현재 OpenShift Container Platform 4.10에서 일반적으로 사용할 수 있으며 기본적으로 활성화되어 있습니다.
자세한 내용은 Azure Disk CSI Driver Operator에서 참조하십시오.
1.3.10.8. AWS Elastic File Storage CSI Driver Operator를 사용하는 영구 스토리지 사용 가능
OpenShift Container Platform은 AWS Elastic File Storage(EFS)용 CSI(Container Storage Interface) 드라이버를 사용하여 PV(영구 볼륨)를 프로비저닝할 수 있습니다. 이 기능은 이전에 OpenShift Container Platform 4.9에서 기술 프리뷰 기능으로 소개되었으며 현재 OpenShift Container Platform 4.10에서 일반적으로 사용할 수 있습니다.
자세한 내용은 AWS EFS CSI Driver Operator에서 참조하십시오.
1.3.10.9. 자동 CSI 마이그레이션 지원 Microsoft Azure 파일 (기술 프리뷰)
OpenShift Container Platform 4.8부터 동등한 CSI(Container Storage Interface) 드라이버로 in-tree 볼륨 플러그인에 대한 자동 마이그레이션이 기술 프리뷰 기능으로 사용 가능하게 되었습니다. 이 기능은 Azure File CSI 드라이버로 Azure File in-tree 플러그인에 대한 자동 마이그레이션을 지원합니다.
자세한 내용은 CSI 자동 마이그레이션 을 참조하십시오.
1.3.10.10. 자동 CSI 마이그레이션 지원 VMware vSphere (기술 프리뷰)
OpenShift Container Platform 4.8부터 동등한 CSI(Container Storage Interface) 드라이버로 in-tree 볼륨 플러그인에 대한 자동 마이그레이션이 기술 프리뷰 기능으로 사용 가능하게 되었습니다. 이 기능은 vSphere CSI 드라이버로 vSphere in-tree 플러그인에 대한 자동 마이그레이션을 지원합니다.
자세한 내용은 CSI 자동 마이그레이션 을 참조하십시오.
1.3.10.11. fsGroup을 사용하여 Pod 타임아웃 감소
스토리지 볼륨에 많은 파일이 포함된 경우(약 1,000,000개 이상) Pod가 타임아웃될 수 있습니다.
OpenShift Container Platform 4.10에는 fsGroup
및 fsGroupChangePolicy
를 사용하여 스토리지 볼륨에 대한 재귀 권한 변경을 건너뛸 수 있는 기능이 도입되어 Pod 시간 초과 문제를 방지할 수 있습니다.
자세한 내용은 fsGroup을 사용하여 Pod 시간 초과 감소를 참조하십시오.
1.3.11. Registry
1.3.12. Operator 라이프사이클
1.3.12.1. 대규모 클러스터 지원을 위해 복사된 CSV 비활성화
OLM(Operator Lifecycle Manager)에서 Operator를 설치하면 Operator가 조사하도록 구성된 모든 네임스페이스에서 CSV(클러스터 서비스 버전)의 단순화된 사본이 생성됩니다. 이러한 CSV는 복사된 CSV라고 하며 지정된 네임스페이스에서 리소스 이벤트를 적극적으로 조정하는 컨트롤러를 식별합니다.
대규모 클러스터에서는 수백 개 또는 수천 개의 복사된 Operator가 있는 대규모 클러스터에서는 OLM의 메모리 사용량, 클러스터 etcd 제한 및 네트워킹 대역폭과 같은 리소스가 지원되지 않는 리소스를 사용할 수 있습니다. 이러한 대규모 클러스터를 지원하기 위해 클러스터 관리자는 AllNamespaces
모드로 설치된 Operator에 대해 복사된 CSV를 비활성화할 수 있습니다.
자세한 내용은 Operator Lifecycle Manager 기능 구성을 참조하십시오.
1.3.12.2. 종속 항목에 대한 일반 및 복잡한 제약 조건
특정 종속성 요구 사항이 있는 Operator는 이제 복잡한 제약 조건 또는 요구 사항 표현식을 사용할 수 있습니다. 새 olm.constraint
번들 속성에는 종속성 제약 조건 정보가 포함되어 있습니다. 메시지 필드를 사용하면 Operator 작성자가 특정 제약 조건을 사용한 이유에 대한 높은 수준의 세부 정보를 전달할 수 있습니다.
자세한 내용은 Operator Lifecycle Manager 종속성 확인을 참조하십시오.
1.3.12.3. Hypershift에 대한 Operator Lifecycle Manager 지원
Operator 카탈로그를 포함한 OLM(Operator Lifecycle Manager) 구성 요소는 이제 Hypershift 관리 컨트롤 플레인에서 완전히 실행될 수 있습니다. 이 기능은 작업자 노드의 테넌트에 비용이 발생하지 않습니다.
1.3.12.4. ARM에 대한 Operator Lifecycle Manager 지원
이전에는 기본 Operator 카탈로그에서 ARM을 지원하지 않습니다. 이번 개선된 기능을 통해 OLM(Operator Lifecycle Manager)은 ARM 클러스터에 기본 Operator 카탈로그를 추가합니다. 결과적으로 OperatorHub에는 ARM을 지원하는 Operator에 대한 콘텐츠가 기본적으로 포함되어 있습니다. (BZ#1996928)
1.3.13. Operator 개발
1.3.13.1. hybrid Helm Operator (기술 프리뷰)
Operator SDK의 표준 Helm 기반 Operator 지원은 Operator 완성 모델의 Auto Pilot 기능(level V)에 도달한 Go 기반 및 Ansible 기반 Operator 지원에 비해 기능이 제한되어 있습니다.
OpenShift Container Platform 4.10부터 기술 프리뷰 기능으로 부터 Operator SDK에는 Go API를 통해 기존 Helm 기반 지원 기능을 개선할 수 있는 하이브리드 Helm Operator가 포함되어 있습니다. Operator 작성자는 Helm 차트로 시작하는 Operator 프로젝트를 생성한 다음 Go 언어의 Helm 조정기에 고급 이벤트 기반 논리를 추가할 수 있습니다. 작성자는 Go를 사용하여 동일한 프로젝트에 새 API 및 사용자 지정 리소스 정의(CRD)를 계속 추가할 수 있습니다.
자세한 내용은 하이브리드 Helm Operator에 대한 Operator SDK 튜토리얼을 참조하십시오.
1.3.13.2. Ansible 기반 Operator의 사용자 정의 메트릭
Operator 작성자는 Operator SDK에서 Ansible 기반 Operator 지원을 사용하여 사용자 정의 지표를 노출하고 Kubernetes 이벤트를 발송하며 더 나은 로깅을 제공할 수 있습니다.
자세한 내용은 Ansible 기반 Operator에 대한 사용자 정의 지표 노출을 참조하십시오.
1.3.13.3. Go 기반 Operator의 오브젝트 정리
operator-lib
정리 유틸리티를 사용하면 Go 기반 Operator가 클러스터에 남아 있고 리소스를 사용할 수 있는 작업 또는 Pod와 같은 오브젝트를 정리할 수 있습니다. 유틸리티에는 Go 기반 Operator의 일반적인 정리 전략이 포함됩니다. Operator 작성자는 유틸리티를 사용하여 사용자 정의 후크 및 전략을 생성할 수도 있습니다.
정리 유틸리티에 대한 자세한 내용은 Go 기반 Operator의 오브젝트 정리 유틸리티를 참조하십시오.
1.3.13.4. 연결이 끊긴 환경을 위한 다이제스트 기반 번들
이번 개선된 기능을 통해 Operator SDK는 OLM(Operator Lifecycle Manager)을 사용하여 연결이 끊긴 환경에서 작동하는 번들에 Operator 프로젝트를 패키징할 수 있습니다. Operator 작성자는 make bundle
명령을 실행하고 USE_IMAGE_DIGESTS
를 true
로 설정하여 Operator 이미지 참조를 태그가 아닌 다이제스트로 자동으로 업데이트할 수 있습니다. 명령을 사용하려면 환경 변수를 사용하여 하드 코딩된 관련 이미지 참조를 교체해야 합니다.
연결이 끊긴 환경을 위해 Operator를 개발하는 방법에 대한 자세한 내용은 제한된 네트워크 환경에서 Operator 활성화를 참조하십시오.
1.3.14. 빌드
이번 업데이트를 통해 OpenShift 빌드에서 기술 프리뷰 기능인 CSI 볼륨을 사용할 수 있습니다. 이 기능은 새로 도입된 공유 리소스 CSI 드라이버 및 Insights Operator를 사용하여 RHEL Simple Content Access(SCA) 인증서를 가져옵니다. 예를 들어 이 기능을 사용하면 RHEL 서브스크립션 인증 정보 및 인증서를 빌드의 네임스페이스에 복사하는 대신 빌드 중에
SharedSecret
오브젝트를 사용하여 권한이 부여된 빌드를 실행하고 빌드 중에 권한 있는 RPM 패키지를 설치할 수 있습니다. (BUILD-274)중요SharedSecret
오브젝트 및 OpenShift Shared Resources 기능은TechPreviewNoUpgrade
기능 세트를 활성화하는 경우에만 사용할 수 있습니다. 이러한 기술 프리뷰 기능은 기본 기능의 일부가 아닙니다. 이 기능 세트를 활성화하면 실행 취소할 수 없으며 업그레이드할 수 없습니다. 이 기능 세트는 프로덕션 클러스터에서는 권장되지 않습니다. FeatureGates를 사용하여 기술 프리뷰 기능 활성화를 참조하십시오.-
이번 업데이트를 통해 공유 리소스 CSI 드라이버에서 제공하는 인라인 임시
csi
볼륨을 사용하여 워크로드는 네임스페이스에서Secrets
및ConfigMap
오브젝트를 안전하게 공유할 수 있습니다. CSI(Container Storage Interface) 볼륨 및 공유 리소스 CSI 드라이버는 기술 프리뷰 기능입니다. (BUILD-293)
1.3.15. Jenkins
-
이번 업데이트를 통해 Jenkins 에이전트를 사이드카 컨테이너로 실행할 수 있습니다. 이 기능을 사용하여 올바르게 구성된 pod 템플릿 및 Jenkins 파일이 있는 Jenkins 파이프라인에서 모든 컨테이너 이미지를 실행할 수 있습니다. 이제 코드를 컴파일하려면 Jenkins를 사용하여
java-build
및nodejs-builder
라는 두 개의 새 pod 템플릿을 사이드카 컨테이너로 실행할 수 있습니다. 이 두 pod 템플릿은openshift
네임스페이스의java
및nodejs
이미지 스트림에서 제공하는 최신 Java 및 NodeJS 버전을 사용합니다. 이전의 비-사이드카maven
및nodejs
pod 템플릿이 더 이상 사용되지 않습니다. (JKNS-132)
1.3.16. 머신 API
1.3.16.1. Azure 임시 OS 디스크 지원
이번 개선된 기능을 통해 Azure에서 실행되는 머신 세트를 생성하여 임시 OS 디스크에 머신을 배포할 수 있습니다. 임시 OS 디스크는 원격 Azure Storage가 아닌 로컬 VM 용량을 사용합니다.
자세한 내용은 임시 OS 디스크에 머신을 배포하는 머신 세트를 참조하십시오.
1.3.16.2. Azure Accelerated Networking 지원
이번 릴리스에서는 Machine API를 사용하여 Microsoft Azure VM에 Accelerated Networking을 활성화할 수 있습니다. 가속 네트워킹은 단일 루트 I/O 가상화(SR-IOV)를 사용하여 VM에 더 직접적인 전환 경로를 제공합니다.
자세한 내용은 Microsoft Azure VM용 Accelerated Networking을 참조하십시오.
1.3.16.3. 글로벌 Azure 가용성 세트 지원
이번 릴리스에서는 여러 가용성 영역이 없는 글로벌 Azure 리전에서 가용성 세트를 사용하여 고가용성을 보장할 수 있습니다.
1.3.16.4. Google Cloud Platform에서 GPU 지원
GCP(Google Cloud Platform) Compute Engine을 사용하면 사용자가 VM 인스턴스에 GPU를 추가할 수 있습니다. GPU 리소스에 액세스할 수 있는 워크로드는 이 기능이 활성화된 컴퓨팅 머신에서 더 효과적으로 수행할 수 있습니다. 이번 릴리스에서는 Machine API를 사용하여 인스턴스에 사용할 지원되는 GPU를 정의할 수 있습니다.
자세한 내용은 머신 세트의 GPU 지원 활성화를 참조하십시오.
1.3.16.5. 클러스터 자동 스케일러 노드 사용률 임계값
이번 개선된 기능을 통해 ClusterAutoscaler
리소스 정의에 노드 사용률 임계값을 지정할 수 있습니다. 이 임계값은 불필요한 노드를 삭제할 수 있는 노드 사용률 수준을 나타냅니다.
자세한 내용은 클러스터 자동 스케일러 정보를 참조하십시오.
1.3.17. Machine Config Operator
1.3.17.1. 구성 드리프트 감지 기능 개선
이번 개선된 기능을 통해 MCD(Machine Config Daemon)는 이제 노드 부팅 외에도 시스템 구성에 지정된 파일에 대해 파일 시스템 쓰기 이벤트가 발생하고 새 시스템 구성이 적용되기 전에 구성 드리프트에 대해 노드를 검사합니다. 이전에는 MCD에서 노드 부팅 시 구성 드리프트만 확인했습니다. 이는 관리자가 문제를 해결할 수 있을 때까지 구성 드리프트로 인한 문제를 방지할 만큼 노드 재부팅이 자주 발생하지 않기 때문에 변경되었습니다.
노드의 디스크상의 상태가 머신 구성에 구성된 것과 다른 경우 구성 드리프트가 발생합니다. MCO(Machine Config Operator)는 MCD를 사용하여 구성 드리프트의 노드를 확인하고, 탐지된 경우 해당 노드와 MCP(Machine config pool)를 degraded
로 설정합니다.
구성 드리프트에 대한 자세한 내용은 구성 드리프트 감지 이해를 참조하십시오.
1.3.18. 노드
1.3.18.1. Linux 제어 그룹 버전 2(개발자 프리뷰)
이제 클러스터의 특정 노드에서 Linux 제어 그룹 버전 2 (cgroups v2)를 활성화할 수 있습니다. cgroups v2를 활성화하는 OpenShift Container Platform 프로세스는 모든 cgroups 버전 1 컨트롤러 및 계층을 비활성화합니다. OpenShift Container Platform cgroups 버전 2 기능은 개발자 프리뷰에 있으며 현재 Red Hat에서 지원하지 않습니다. 자세한 내용은 Linux 제어 그룹 버전 2(cgroups v2) 활성화를 참조하십시오.
1.3.18.2. 노드에서 스왑 메모리 사용 지원 (기술 프리뷰)
노드별로 OpenShift Container Platform 워크로드에 대한 스왑 메모리 사용을 활성화할 수 있습니다. 자세한 내용은 노드에서 스왑 메모리 사용량 활성화를 참조하십시오.
1.3.18.3. Node Maintenance Operator를 사용하여 노드를 유지보수 모드에 배치
Node Maintenance Operator (NMO)는 나머지 클러스터에서 노드를 차단하고 노드의 모든 Pod를 드레이닝합니다. 노드를 유지보수 모드에 배치하면 머신 관련 문제를 조사하거나 기본 머신에서 작업을 수행할 수 있으므로 노드에 오류가 발생할 수 있습니다. 이것은 NMO의 독립형 버전입니다. OpenShift Virtualization을 설치한 경우 번들로 제공되는 NMO를 사용해야 합니다.
1.3.18.4. Node Health Check Operator 개선 사항 (기술 프리뷰)
Node Health Check Operator는 다음과 같은 새로운 개선 사항을 제공합니다.
- 연결이 끊긴 모드에서 실행 지원
- 머신 상태 점검과 충돌하지 않도록 합니다. 자세한 내용은 노드 상태 점검에서 머신 상태 점검과의 충돌을 방지하는 방법을 참조하십시오.
1.3.18.5. Poison Pill Operator 개선 사항
Poison Pill Operator는 NodeDeletion
을 기본 수정 전략으로 사용합니다. NodeDeletion
수정 전략에서는 node
오브젝트를 제거합니다.
OpenShift Container Platform 4.10에서 Poison Pill Operator에는 ResourceDeletion
이라는 새로운 수정 전략이 도입되었습니다. ResourceDeletion
수정 전략에서는 node
오브젝트가 아닌 노드의 Pod 및 관련 볼륨 연결을 제거합니다. 이 전략은 워크로드를 더 빨리 복구하는 데 도움이 됩니다.
1.3.18.6. RHOSP에서 컨트롤 플레인 노드 마이그레이션
서비스 중단 없이 하나의 RHOSP 호스트에서 다른 RHOSP 호스트로 컨트롤 플레인 노드를 마이그레이션할 수 있습니다.
1.3.19. Red Hat OpenShift Logging
OpenShift Container Platform 4.7에서 Cluster Logging은 Red Hat OpenShift Logging이 되었습니다. 자세한 내용은 Red Hat OpenShift Logging 릴리스 노트를 참조하십시오.
1.3.20. 모니터링
이 릴리스의 모니터링 스택에는 다음과 같은 새로운 수정된 기능이 포함되어 있습니다.
1.3.20.1. 스택 구성 요소 및 종속 항목 모니터링
모니터링 스택 구성 요소 및 종속 항목에 대한 업데이트에는 다음이 포함됩니다.
- Alertmanager to 0.23.0
- Grafana to 8.3.4
- kube-state-metrics to 2.3.0
- node-exporter to 1.3.1
- prom-label-proxy to 0.4.0
- Prometheus to 2.32.1
- Prometheus adapter to 0.9.1
- Prometheus operator to 0.53.1
- Thanos to 0.23.1
1.3.20.2. OpenShift Container Platform 웹 콘솔의 메트릭 대상의 새 페이지
OpenShift Container Platform 웹 콘솔의 새 메트릭 대상 페이지에는 기본 OpenShift Container Platform 프로젝트 및 사용자 정의 프로젝트의 대상이 표시됩니다. 이 페이지를 사용하여 현재 스크래핑을 대상으로 하는 끝점을 보고, 검색하고, 필터링할 수 있으므로 문제를 식별하고 해결하는 데 도움이 됩니다.
1.3.20.3. 메트릭 수집에 TLS 인증을 사용하도록 업데이트된 모니터링 구성 요소
이번 릴리스에서는 모든 모니터링 구성 요소가 메트릭 수집에 대해 Bearer Token 정적 인증이 아닌 상호 TLS 인증을 사용하도록 구성됩니다. TLS 인증은 Kubernetes API 중단에 더 탄력적이며 Kubernetes API의 로드를 줄입니다.
1.3.20.4. 글로벌 TLS 보안 프로필을 사용하도록 Cluster Monitoring Operator 업데이트
이번 릴리스에서는 Cluster Monitoring Operator 구성 요소에서 글로벌 OpenShift Container Platform tlsSecurityProfile
설정을 준수합니다. 다음 구성 요소 및 서비스에서 TLS 보안 프로필을 사용합니다.
- Alertmanager Pod(9092 및 9097 포트)
- kube-state-metrics Pod (8443 및 9443 포트)
- openshift-state-metrics Pod (8443 및 9443 포트)
- node-exporter Pod (9100 포트)
- Grafana pod (3002 포트)
- prometheus-adapter Pod (6443 포트)
- Prometheus-k8s Pod (9092 및 10902 포트)
- Thanos 쿼리 Pod (9092, 9093 및 9094 포트)
- Prometheus Operator (8080 및 8443 포트)
- Telemeter-client Pod(8443 포트)
사용자 정의 모니터링이 활성화된 경우 다음 Pod에서 프로필을 사용합니다.
- prometheus-user-workload Pod (9091 및 10902 포트)
- prometheus-operator pod(8080 및 8443 포트)
1.3.20.5. 경고 규칙 변경
새로운 사항
-
모든 Thanos 경고 규칙에
namespace
라벨을 추가했습니다. -
모든 플랫폼 경고에
openshift_io_alert_source="platform"
라벨을 추가했습니다.
-
모든 Thanos 경고 규칙에
변경 사항
-
AggregatedAPIDown
의 이름을KubeAggregatedAPIDown
으로 변경합니다. -
AggregatedAPIErrors
의 이름을KubeAggregatedAPIErrors
로 변경합니다. -
HighlyAvailableWorkloadIncorrectlySpread
경고를 삭제했습니다. -
KubeMemoryOvercommit
경고에 대한 설명이 개선되었습니다. -
Kubernetes 가비지 컬렉션 임계값과 일치하도록
NodeFilesystemSpaceFillingUp
경고가 개선되었습니다. -
KubePersistentVolumeFillingUp
경고에서ReadOnlyMany
볼륨을 제외합니다. -
openshift-user-workload-monitoring
네임스페이스에서 실행되는Prometheus Operator
를 포함하도록 확장된 PrometheusOperator 경고입니다. -
ThanosSidecarPrometheusDown
및ThanosSidecarUnhealthy
경고를ThanosSidecarNoConnectionToStartedPrometheus
로 교체했습니다. -
KubeletTooManyPods
의 심각도를warning
에서info
로 변경했습니다. -
alerts.k8s.io/KubePersistentVolumeFillingUp: disabled
라벨을 영구 볼륨 리소스에 추가하여KubePersistentVolumeFillingUp
의 특정 영구 볼륨을 제외할 수 있습니다.
-
Red Hat은 규칙 또는 경고 규칙에 대한 이전 버전과의 호환성을 보장하지 않습니다.
1.3.20.6. 메트릭 변경 사항
- 슬라이스 수준에서 사용 가능한 Pod 중심 cAdvisor 메트릭이 삭제되었습니다.
이제 다음 메트릭이 노출됩니다.
-
kube_poddisruptionbudget_labels
-
kube_persistentvolumeclaim_labels
-
kube_persistentvolume_labels
-
-
kube_*annotation
라는 이름의 메트릭이kube-state-metrics
에서 제거되었습니다.
Red Hat은 메트릭에 대한 이전 버전과의 호환성을 보장하지 않습니다.
1.3.20.7. 특정 구성 요소에 대한 엄격한 유사성 방지 규칙 및 Pod 중단 예산 추가
이번 릴리스에서는 다음 모니터링 구성 요소에 대해 하드 방지 규칙 및 Pod 중단 예산을 활성화하여 패치 업그레이드 중에 다운타임을 줄일 수 있습니다.
Alertmanager
참고이러한 변경의 일환으로 Alertmanager 복제본 수가 3에서 2로 단축되었습니다. 그러나 제거된 세 번째 복제본의 PVC(영구 볼륨 클레임)는 업그레이드 프로세스의 일부로 자동으로 제거되지 않습니다. Alertmanager에 대한 영구 스토리지를 구성한 경우 Cluster Monitoring Operator에서 이 PVC를 수동으로 제거할 수 있습니다. 자세한 내용은 "알려진 문제" 섹션을 참조하십시오.
- Prometheus 어댑터
- Prometheus
- Thanos Querier
사용자 정의 모니터링을 활성화한 경우 다음 구성 요소도 이러한 규칙과 예산을 사용합니다.
- Prometheus
- Thanos Ruler
1.3.20.8. 사용자 정의 프로젝트에 대한 경고 라우팅 (기술 프리뷰)
이 릴리스에는 관리자가 사용자 정의 프로젝트 모니터링을 위해 경고 라우팅을 활성화할 수 있는 기술 프리뷰 기능이 도입되었습니다. 그러면 사용자가 사용자 정의 프로젝트에 대한 경고 라우팅을 추가하고 구성할 수 있습니다.
1.3.20.9. Alertmanager
OpenShift Container Platform 경로에서 타사 Alertmanager 웹 사용자 인터페이스에 대한 액세스가 제거되었습니다.
1.3.20.10. Prometheus
- OpenShift Container Platform 클러스터 관리자는 이제 Prometheus에 대한 쿼리 로깅을 구성할 수 있습니다.
- 타사 Prometheus 웹 사용자 인터페이스에 대한 액세스는 더 이상 사용되지 않으며 향후 OpenShift Container Platform 릴리스에서 제거됩니다.
1.3.20.11. Prometheus 어댑터
- Prometheus 어댑터에서 Prometheus API 대신 Thanos Querier API를 사용합니다.
- OpenShift Container Platform 클러스터 관리자는 이제 Prometheus 어댑터에 대한 감사 로그를 구성할 수 있습니다.
1.3.20.12. Thanos Querier
- OpenShift Container Platform 경로에서 타사 Thanos Querier 웹 사용자 인터페이스에 대한 액세스가 제거되었습니다.
-
Thanos Querier 테넌시 포트의
/api/v1/labels
,/api/v1/label/*/values
,/api/v1/series
엔드 포인트가 노출되었습니다. - OpenShift Container Platform 클러스터 관리자는 이제 쿼리 로깅을 구성할 수 있습니다.
- 사용자 워크로드 모니터링이 활성화된 경우 OpenShift Container Platform 경로에서 타사 Thanos Ruler 웹 사용자 인터페이스에 대한 액세스가 제거되었습니다.
1.3.20.13. Grafana
타사 Grafana 웹 사용자 인터페이스에 대한 액세스는 더 이상 사용되지 않으며 향후 OpenShift Container Platform 릴리스에서 제거됩니다.
1.3.21. 확장 및 성능
1.3.21.1. 새로운 Special Resource Operator 메트릭
SRO(Special Resource Operator)에서 SRO 사용자 정의 리소스 및 오브젝트의 상태를 확인하는 데 도움이 되는 메트릭을 노출합니다. 자세한 내용은 Prometheus Special Resource Operator 메트릭을 참조하십시오.
1.3.21.2. Special Resource Operator 사용자 정의 리소스 정의 필드
SRO(Special Resource Operator)에 oc explain
을 사용하면 SRO CRD(사용자 정의 리소스 정의)에 대한 온라인 문서가 제공됩니다. 이번 개선된 기능을 통해 CRD 필드에 대한 세부 정보가 개선되었습니다. (BZ#2031875)
1.3.21.3. Telemetry에 새로운 Node Tuning Operator 메트릭 추가
이제 Node Tuning Operator (NTO) 메트릭이 Telemetry에 추가되었습니다. Telemetry에서 수집한 데이터 표시 절차에 따라 Telemetry에서 수집한 모든 메트릭을 확인합니다.
1.3.21.4. NFD Topology Updater 사용 가능
NFD(Node Feature Discovery) Topology Updater는 작업자 노드에서 할당된 리소스를 검사하는 데몬입니다. 이 노드는 영역별로 새 Pod에 할당할 수 있는 리소스를 차지하며, 여기서 영역이 NUMA(Non-Uniform Memory Access) 노드일 수 있습니다. 자세한 내용은 NFD Topology Updater 사용을 참조하십시오.
1.3.21.5. 하이퍼 스레딩 인식 CPU 관리자 정책 (기술 프리뷰)
OpenShift Container Platform의 하이퍼 스레딩 인식 CPU 관리자 정책을 추가 튜닝 없이도 사용할 수 있습니다. 필요한 경우 클러스터 관리자가 이 기능을 활성화할 수 있습니다. 하이퍼스레드는 하드웨어에서 논리 프로세서로 추상화됩니다. 하이퍼 스레딩을 사용하면 단일 물리적 프로세서가 두 개의 고체중 높은 스레드(processes)를 동시에 실행하여 프로세서 리소스를 동적으로 공유할 수 있습니다.
1.3.21.6. NUMA 리소스 Operator를 사용한 NUMA 인식 스케줄링 (기술 프리뷰)
기본 OpenShift Container Platform 스케줄러는 컴퓨팅 노드의 개별 NUMA(Non-Uniform Memory Access) 영역을 볼 수 없습니다. 이로 인해 대기 시간에 민감한 워크로드의 일시적인 스케줄링이 발생할 수 있습니다. NUMA 인식 보조 스케줄러를 배포하는 새 NUMA 리소스 Operator를 사용할 수 있습니다. NUMA 인식 보조 스케줄러는 클러스터에서 사용 가능한 NUMA 영역에 대한 전체 이미지를 기반으로 워크로드를 예약합니다. 이렇게 하면 대기 시간에 민감한 워크로드를 단일 NUMA 영역에서 처리하여 효율성 및 성능을 극대화할 수 있습니다.
자세한 내용은 NUMA 인식 스케줄링 정보를 참조하십시오.
1.3.21.7. siteConfig 필터를 사용하여 ZTP spoke 클러스터 설치 중 사용자 정의 리소스 필터링
이제 필터를 사용하여 zero touch provisioning (ZTP) GitOps 파이프라인의 설치 단계에서 사용할 다른 CR을 포함하거나 제외하도록 site Config
CR을 사용자 지정할 수 있습니다. 자세한 내용은 site Config 필터를 사용하여 사용자 정의 리소스 필터링을 참조하십시오.
1.3.21.8. vDU 사용 사례에 대해 PolicyGenTemplate CR에서 chronyd를 비활성화
RAN vDU 애플리케이션을 실행하는 노드에서는 이전 버전에서 OpenShift Container Platform 4.10으로 업데이트하는 경우 chronyd
를 비활성화해야 합니다. chronyd
를 비활성화하려면 TunedPerformancePatch.yaml
파일의 .spec.profile.data
아래의 [service]
섹션에 다음 행을 추가합니다. TunedPerformancePatch.yaml
파일은 PolicyGenTemplate
CR 그룹에서 참조됩니다.
[service] service.chronyd=stop,disable
자세한 내용은 vDU 애플리케이션을 실행하도록 권장 클러스터 구성 입니다.
1.3.22. 백업 및 복원
1.3.23. 개발자 경험
1.3.23.1. 배포 복제본 세트 정리 (기술 프리뷰)
이번 릴리스에서는 기술 프리뷰 플래그 --replica-sets
가 oc adm prune deployment
명령에 도입되었습니다. 기본적으로 복제 컨트롤러는 oc adm prune deployments
명령을 사용하여 정리됩니다. --replica-sets
를 true
로 설정하면 복제 세트도 정리 프로세스에 포함됩니다.
자세한 내용은 배포 리소스 정리를 참조하십시오.
1.3.24. Insights Operator
1.3.24.1. 간단한 콘텐츠 액세스 인증서 가져오기
OpenShift Container Platform 4.10에서 Insights Operator는 기본적으로 Red Hat OpenShift Cluster Manager에서 간단한 콘텐츠 액세스 인증서를 가져올 수 있습니다.
자세한 내용은 Insights Operator를 사용하여 간단한 콘텐츠 액세스 인증서 가져오기를 참조하십시오.
1.3.24.2. Insights Operator 데이터 수집 기능 개선 사항
Red Hat으로 전송되는 데이터 양을 줄이기 위해 Insights Operator는 특정 조건이 충족되는 경우에만 정보를 수집합니다. 예를 들어 Insights Operator는 Alertmanager가 경고 알림을 전송하지 못하는 경우에만 Alertmanager 로그를 수집합니다.
OpenShift Container Platform 4.10에서 Insights Operator는 다음과 같은 추가 정보를 수집합니다.
-
(조건)
KubePodCrashlooping
및KubePodNotReady
경고가 실행되는 Pod의 로그 -
(조건)
AlertmanagerClusterFailedToSendAlerts
또는AlertmanagerFailedToSendAlerts
경고가 실행되는 경우 Alertmanager 로그 - Alertmanager에서 경고 음소거
- 저널 단위(kubelet)의 노드 로그
-
costmanagement-metrics-operator
가 설치된 클러스터의CostManagementMetricsConfig
- 모니터링 스택 Prometheus 인스턴스의 시계열 데이터베이스 상태
- OpenShift Container Platform 스케줄러에 대한 추가 정보
Red Hat은 이러한 추가 정보를 통해 OpenShift Container Platform 기능을 개선하고 Insights Advisor 권장 사항을 향상시킵니다.
1.3.25. 인증 및 권한 부여
1.3.25.1. OpenID Connect ID 공급자의 그룹 멤버십 동기화
이번 릴리스에서는 사용자 로그인 시 OpenID Connect 공급자의 그룹 멤버십을 OpenShift Container Platform으로 동기화하는 기능이 추가되었습니다. OpenShift Container Platform OpenID Connect ID 공급자 구성에서 groups
클레임을 구성하여 이를 활성화할 수 있습니다.
자세한 내용은 샘플 OpenID Connect CR을 참조하십시오.
1.3.25.2. 지원되는 추가 OIDC 공급자
Okta 및 Ping Identity OpenID Connect(OIDC) 공급자는 이제 OpenShift Container Platform에서 테스트하고 지원됩니다.
OIDC 공급자의 전체 목록은 지원되는 OIDC 공급자를 참조하십시오.
1.3.25.3. oc 명령으로 Podman 구성 위치에서 인증 정보를 가져옵니다.
이전 버전에서는 레지스트리 구성을 사용한 oc
명령(예: oc registry login
또는 oc image
명령)은 Docker 구성 위치에서 인증 정보를 가져옵니다. OpenShift Container Platform 4.10에서 레지스트리 항목을 기본 Docker 구성 위치에 찾을 수 없는 경우 oc
명령은 Podman 구성 위치에서 인증 정보를 가져옵니다. 우선 순위를 지정하려면 REGISTRY_AUTH_PREFERENCE
환경 변수를 사용하여 docker
또는 podman
으로 기본 설정을 설정할 수 있습니다.
사용자에게는 기존 --registry-config
CLI 플래그 대신 사용되는 REGISTRY_AUTH_FILE
환경 변수를 사용할 수 있는 옵션도 있습니다. REGISTRY_AUTH_FILE
환경 변수는 podman
과도 호환됩니다.
1.3.25.4. Google Cloud Platform 워크로드 ID 지원
이제 CCO(Cloud Credential Operator) 유틸리티 ccoctl
을 사용하여 Google Cloud Platform Workload Identity를 사용하도록 CCO를 구성할 수 있습니다. CCO가 GCP Workload Identity를 사용하도록 구성된 경우 클러스터 내 구성 요소는 단기적이고 제한된 권한 보안 인증 정보를 사용하여 IAM 서비스 계정을 구성 요소에 가장할 수 있습니다.
자세한 내용은 GCP 워크로드 ID에서 수동 모드 사용을 참조하십시오.
OpenShift Container Platform 4.10.8에서는 이미지 레지스트리에 부정적인 영향을 미치기 때문에 GCP Workload Identity 사용에 대한 이미지 레지스트리 지원이 제거되었습니다. Workload Identity를 사용하는 OpenShift Container Platform 4.10.8 클러스터에서 이미지 레지스트리를 사용하려면 대신 장기 인증 정보를 사용하도록 이미지 레지스트리를 구성해야 합니다.
OpenShift Container Platform 4.10.21에서는 이미지 레지스트리에서 GCP 워크로드 ID 사용을 지원합니다. OpenShift Container Platform 4.10.8과 4.10.20 간의 이 기능의 상태에 대한 자세한 내용은 관련 지식베이스 문서 를 참조하십시오.