1.8. 확인된 문제
OpenShift Container Platform 4.1에서는 익명 사용자가 검색 엔드 포인트에 액세스할 수 있었습니다. 이후 릴리스에서는 일부 검색 끝점이 통합된 API 서버로 전달되기 때문에 보안 악용에 대한 가능성을 줄이기 위해 이 액세스를 취소했습니다. 그러나 인증되지 않은 액세스는 기존 사용 사례가 손상되지 않도록 업그레이드된 클러스터에 보존됩니다.
OpenShift Container Platform 4.1에서 4.9로 업그레이드된 클러스터의 클러스터 관리자인 경우 인증되지 않은 액세스를 취소하거나 계속 허용할 수 있습니다. 특별히 필요한 경우가 아니면 인증되지 않은 액세스를 취소하는 것이 좋습니다. 인증되지 않은 액세스를 계속 허용하는 경우 이에 따라 보안 위험이 증가될 수 있다는 점에 유의하십시오.
주의인증되지 않은 액세스에 의존하는 애플리케이션이있는 경우 인증되지 않은 액세스를 취소하면 HTTP
403
오류가 발생할 수 있습니다.다음 스크립트를 사용하여 감지 끝점에 대한 인증되지 않은 액세스를 취소하십시오.
## Snippet to remove unauthenticated group from all the cluster role bindings $ for clusterrolebinding in cluster-status-binding discovery system:basic-user system:discovery system:openshift:discovery ; do ### Find the index of unauthenticated group in list of subjects index=$(oc get clusterrolebinding ${clusterrolebinding} -o json | jq 'select(.subjects!=null) | .subjects | map(.name=="system:unauthenticated") | index(true)'); ### Remove the element at index from subjects array oc patch clusterrolebinding ${clusterrolebinding} --type=json --patch "[{'op': 'remove','path': '/subjects/$index'}]"; done
이 스크립트는 인증되지 않은 주제를 다음 클러스터 역할 바인딩에서 제거합니다.
-
cluster-status-binding
-
discovery
-
system:basic-user
-
system:discovery
-
system:openshift:discovery
-
OpenShift Container Platform 4.9로 업그레이드할 때 Cluster Version Operator는 사전 조건 검사에 실패하는 동안 약 5분 동안 업그레이드를 차단합니다.
It may not be safe to apply this update
라는 오류 텍스트는 잘못된 것일 수 있습니다. 이 오류는 하나 또는 여러 개의 사전 조건 검사에 실패할 때 발생합니다. 경우에 따라 이러한 사전 조건 검사는 예를 들어 etcd 백업 중에 단기간 동안만 실패할 수 있습니다. 이러한 경우 Cluster Version Operator 및 해당 Operator는 설계에 따라 실패한 사전 조건 검사를 자동으로 해결하며 CVO가 업그레이드를 성공적으로 시작합니다.사용자는 클러스터 Operator의 상태 및 조건을 확인해야 합니다. Cluster Version Operator에서
It may not be safe to apply this update
오류가 표시되는 경우 이러한 상태 및 조건이 메시지의 심각도에 대한 자세한 정보를 제공합니다. 자세한 내용은 BZ#1999777, BZ#2061444, BZ#2006611 을 참조하십시오.
-
명령이 주석 이름과 값 간의 구분 기호로 등호(
=
)를 포함하는 LDAP 그룹 이름에 대해oc annotate
명령은 작동하지 않습니다. 이 문제를 해결하려면oc patch
또는oc edit
를 사용하여 주석을 추가합니다. (BZ#1917280) 클러스터 관리자는 503, 404 또는 두 오류 페이지의 사용자 정의 HTTP 오류 코드 응답 페이지를 지정할 수 있습니다. 사용자 정의 오류 코드 응답 페이지에 올바른 형식을 지정하지 않으면 라우터 Pod 중단이 발생하고 해결되지 않습니다. 사용자 지정 오류 코드 페이지가 업데이트되도록 라우터가 다시 로드되지 않습니다. 이 문제를 해결하려면
oc rsh
명령을 사용하여 라우터 Pod에 로컬로 액세스할 수 있습니다. 그런 다음 사용자 정의 http 오류 코드 페이지를 제공하는 모든 라우터 Pod에서reload-haproxy
를 실행합니다.$ oc -n openshift-ingress rsh router-default-6647d984d8-q7b58 sh-4.4$ bash -x /var/lib/haproxy/reload-haproxy
또는 경로에 주석을 추가하여 강제로 다시 로드할 수 있습니다. (BZ#1990020), (BZ#2003961)
-
OVN(Open Virtual Network) 버그로 인해 Octavia 로드 밸런서에 지속적으로 연결 문제가 발생합니다. Octavia 로드 밸런서가 생성되면 OVN을 일부 Neutron 서브넷에 연결하지 못할 수 있습니다. 이러한 로드 밸런서는 일부 Neutron 서브넷에 연결할 수 없습니다. 이 문제는 Kuryr를 구성할 때 각 OpenShift 네임스페이스에 대해 임의로 생성되는 Neutron 서브넷에 영향을 미칩니다. 결과적으로 이 문제가 발생하면 OpenShift
Service
오브젝트를 구현하는 로드 밸런서가 문제의 영향을 받는 OpenShift 네임스페이스에서 연결할 수 없습니다. 이 버그로 인해 OVN 및 OVN Octavia가 구성된 RHOSP(Red Hat OpenStack Platform) 16.1에서는 Kuryr SDN을 사용하는 OpenShift Container Platform 4.8 배포가 권장되지 않습니다. 이 문제는 향후 RHOSP 릴리스에서 해결될 예정입니다. (BZ#1937392) - 클러스터 전체 프록시가 RHOSP API에 액세스해야 하는 경우 Kuryr를 사용하는 RHOSP(Red Hat OpenStack Platform)에 설치는 클러스터 전체 프록시로 구성되지 않습니다. (BZ#1985486)
-
경쟁 조건으로 인해 RHOSP(Red Hat OpenStack Platform) 클라우드 공급자가 제대로 시작되지 않을 수 있습니다. 결과적으로 LoadBalancer 서비스에
EXTERNAL-IP
세트를 가져오지 못할 수 있습니다. 임시 해결 방법으로 BZ#2004542에 설명된 절차를 사용하여 kube-controller-manager Pod를 다시 시작할 수 있습니다. -
ap-northeast-3
AWS 리전은 지원되는 AWS 리전인 경우에도 OpenShift Container Platform을 설치할 때 설치 프로그램에서 옵션으로 제공되지 않습니다. 임시 해결 방법으로 설치 프롬프트에서 다른 AWS 리전을 선택한 다음 클러스터를 설치하기 전에 생성된install-config.yaml
파일에서 지역 정보를 업데이트할 수 있습니다. (BZ#1996544) -
us-east-1
리전의 AWS에 클러스터를 설치할 때 로컬 AWS 영역을 사용할 수 없습니다. 임시 해결 방법으로 클러스터를 설치할 때install-config.yaml
파일에서 로컬이 아닌 가용성 영역을 지정해야 합니다. (BZ#1997059) - 공개적으로 신뢰할 수 있는 CA(인증 기관)가 서명한 인증서로 보안되는 ARM 끝점과 같은 공용 끝점을 사용하여 Azure Stack Hub에 OpenShift Container Platform을 설치할 수 있습니다. 내부 CA에 대한 지원은 향후 OpenShift Container Platform z-stream 릴리스에 추가됩니다. (BZ#2012173)
클러스터 관리자는 503, 404 또는 두 오류 페이지의 사용자 정의 HTTP 오류 코드 응답 페이지를 지정할 수 있습니다. 사용자 지정 오류 코드 페이지가 업데이트되도록 라우터가 다시 로드되지 않습니다. 이 문제를 해결하려면 라우터 pod에서 rsh를 실행하고 사용자 정의 http 오류 코드 페이지를 제공하는 모든 라우터 Pod에서
reload-haproxy
를 실행합니다.$ oc -n openshift-ingress rsh router-default-6647d984d8-q7b58 sh-4.4$ bash -x /var/lib/haproxy/reload-haproxy
또는 경로에 주석을 추가하여 강제로 다시 로드할 수 있습니다. (BZ#1990020)
- 이 릴리스에는 알려진 문제가 포함되어 있습니다. OpenShift OAuth 경로의 호스트 이름과 인증서를 사용자 지정해도 Jenkins에서 더 이상 OAuth 서버 엔드포인트를 신뢰하지 않습니다. 결과적으로 OpenShift OAuth 통합을 사용하여 ID 및 액세스를 관리하는 경우 Jenkins 콘솔에 로그인할 수 없습니다. 현재 사용 가능한 해결방법이 없습니다. (BZ#1991448)
특정 높은 Cardinality 모니터링 메트릭이 의도치 않게 삭제되었으므로
Pod
,qos
,System
이라는 컨테이너 성능 입력 및 출력 메트릭을 사용할 수 없습니다.이 문제에 대한 해결방법이 없습니다. 프로덕션 워크로드에 대해 이러한 메트릭을 추적하려면 초기 4.9 릴리스로 업그레이드하지 마십시오. (BZ#2008120)
- SRO(Special Resource Operator)가 소프트웨어 정의 네트워크 정책으로 인해 Google Cloud Platform에 설치되지 않을 수 있습니다. 결과적으로 simple-kmod Pod가 생성되지 않습니다. 이는 OpenShift Container Platform 4.9.4 릴리스에서 수정되었습니다. (BZ#1996916)
- OpenShift Container Platform 4.9에서 클러스터 역할의 사용자는 배포 또는 배포 구성에 대한 편집 권한이 없는 경우 콘솔을 사용하여 배포 또는 배포 구성을 확장할 수 없습니다. (BZ#1886888)
- OpenShift Container Platform 4.9에서는 Developer Console에 최소 또는 데이터가 없는 경우 대부분의 모니터링 차트 또는 그래프(예: CPU 사용량, 메모리 사용량 및 대역폭)에 -1~1의 범위가 표시됩니다. 그러나 이러한 값은 0 이하로 내려갈 수 없으므로 음수 값을 사용하는 것은 올바르지 않습니다. (BZ#1904106)
-
cgroup
이 일치하지 않아ip vrf exec
명령이 작동하지 않습니다. 따라서 이 명령은 OpenShift pod 내에서 사용할 수 없습니다. VRF(가상 라우팅 및 전달)를 사용하려면 애플리케이션은 VRF를 인식하고 VRF 인터페이스에 직접 바인딩해야 합니다. (BZ#1995631) -
NUMA(Nonniform Memory Access) 버그로 인해 컨테이너에 대해 바람직하지 않은 NUMA 고정이 발생하여 대기 시간 또는 성능 저하가 발생할 수 있습니다. 토폴로지 관리자는
single-numa-node
토폴로지 관리 정책에서 둘 이상의 NUMA 노드에 충족할 수 있는 리소스를 사용하여 컨테이너를 고정할 수 있습니다. 컨테이너는 보장된 QoS(Quality of Service) pod 아래에 고정됩니다. 이 문제를 해결하려면 컨테이너 메모리 리소스 요청이single-numa-node
정책에서 제공할 수 있는 것보다 큰 경우 보장된 QoS Pod를 시작하지 마십시오. (BZ#1999603) - 삭제용으로 선택한 pod가 삭제되지 않는 경우도 있습니다. 이는 클러스터에 리소스가 부족할 때 발생합니다. 리소스를 회수하기 위해 시스템에서 삭제할 하나 이상의 Pod를 선택합니다. 리소스가 부족하여 처리 속도가 느려지면 삭제 작업이 설정된 삭제 유예 기간을 초과하여 오류가 발생할 수 있습니다. 이 경우 Pod를 수동으로 삭제합니다. 그런 다음 클러스터에서 사용 가능한 리소스를 회수합니다. (BZ#1997476)
-
간헐적으로 Pod는 OVS(Open vSwitch) 포트 바인딩을 기다리는 동안
ContainerCreating
상태로 중단되고 시간 초과될 수 있습니다. 보고된 이벤트는failed to configure pod interface: timed out waiting for OVS port binding
입니다. 이 문제는 OVN-Kubernetes 플러그인에 대해 많은 Pod가 생성될 때 발생할 수 있습니다. (BZ#2005598) -
송신 노드를 재부팅한 후
lr-policy-list
에는 중복 레코드 또는 누락된 내부 IP 주소와 같은 오류가 포함됩니다. 예상된 결과는lr-policy-list
가 송신 노드를 재부팅하기 전과 동일한 레코드를 보유하고 있다는 것입니다. 이 문제를 해결하려면ovn-kubemaster
Pod를 다시 시작할 수 있습니다. (BZ#1995887) - 분산 게이트웨이 포트를 포함하는 논리 라우터에서 IP 멀티캐스트 릴레이를 활성화하면 멀티캐스트 트래픽이 분산 게이트웨이 포트에서 올바르게 전달되지 않습니다. 결과적으로 OVN-Kubernetes에서 IP 멀티캐스트 기능이 손상됩니다. (BZ#2010374)
- 웹 콘솔의 관리자 화면에서 노드 목록을 사용할 수 있기 전에 노드 목록을 표시해야 하는 페이지가 렌더링되어 페이지가 응답하지 않습니다. 해결방법은 없지만 이 문제는 향후 릴리스에서 해결될 예정입니다. (BZ#2013088)
OLM(Operator Lifecycle Manager)은 타임스탬프 검사 및 사용되지 않는 API 호출의 조합을 사용하여
skipRange
업그레이드에는 작동하지 않는 특정 서브스크립션에 대한 업그레이드를 수행해야 하는지 여부를 결정합니다.skipRange
업그레이드를 사용하는 Operator의 경우 업그레이드 프로세스가 지연되어 문제를 해결하는 데 최대 15분이 걸릴 수 있으며 잠재적으로 훨씬 더 오랜 시간 동안 차단될 수 있습니다.이 문제를 해결하려면 클러스터 관리자가
openshift-operator-lifecycle-manager
네임스페이스에서catalog-operator
Pod를 삭제할 수 있습니다. 이로 인해 Pod가 자동으로 다시 생성되어skipRange
업그레이드가 트리거됩니다. (BZ#2002276)- 현재 FIPS 모드가 활성화된 Google Cloud Platform에서 RHEL(Red Hat Enterprise Linux) 8을 시작하면 Red Hat Update Infrastructure(RHUI)에서 패키지를 설치하려고 할 때 RHEL 8에서 메타데이터를 다운로드하지 못합니다. 임시 해결 방법으로 RHUI 리포지토리를 비활성화하고 Red Hat 서브스크립션 관리를 사용하여 컨텐츠를 가져올 수 있습니다. (BZ#2001464), (BZ#1997516).
-
OpenShift Container Platform 단일 노드 재부팅 후 모든 Pod가 다시 시작되어 일반 Pod 생성 시간보다 오래 걸립니다. 이 문제는 CNI(컨테이너 네트워크 인터페이스)에서
pod add
이벤트를 충분히 신속하게 처리할 수 없기 때문에 발생합니다.timed out waiting for OVS port binding
이라는 오류 메시지가 표시됩니다. OpenShift Container Platform 단일 노드 인스턴스는 결국 예상보다 느리게 복구됩니다. (BZ#1986216) - MetalLB가 ARP 또는 NDP 요청에 응답하는 단일 노드가 아닌 OVN-Kubernetes Container Network Interface 네트워크 공급자를 사용하여 계층 2 모드에서 실행되면 클러스터의 모든 노드가 요청에 응답합니다. 예기치 않은 ARP 응답 수는 ARP 스푸핑 공격과 유사할 수 있습니다. 환경은 설계된 것과 다르지만, ARP를 차단하도록 호스트 또는 서브넷에 소프트웨어가 구성되지 않는 한 트래픽이 서비스로 라우팅됩니다. 이 버그는 향후 OpenShift Container Platform 릴리스에서 수정되었습니다. (BZ#1987445)
- Tang 디스크 암호화 및 고정 IP 주소 구성이 VMWare vSphere 사용자 프로비저닝 인프라 클러스터에 적용되면 처음 프로비저닝된 후 노드가 제대로 부팅되지 않습니다. (BZ#1975701)
-
Operator는 로컬 소스에서 실행하도록 OLM(Operator Lifecycle Manager)의 관련 이미지를 나열해야 합니다. 현재 CSV(
ClusterServiceVersion
) 오브젝트의relatedImages
매개변수가 정의되지 않은 경우opm render
가 관련 이미지를 채우지 않습니다. 이 문제는 향후 릴리스에서 수정될 예정입니다. (BZ#2000379) - 이전 버전에서는 OVS(Open vSwitch)가 각 OpenShift Container Platform 클러스터 노드의 컨테이너에서 실행되었으며 노드 내보내기 에이전트는 노드에서 OVS CPU 및 메모리 메트릭을 수집했습니다. 이제 OVS가 클러스터 노드에서 systemd 단위로 실행되고 메트릭은 수집되지 않습니다. 이 문제는 향후 릴리스에서 수정될 예정입니다. OVS 패킷 메트릭은 계속 수집됩니다. (BZ#2002868)
-
OpenShift Container Platform 웹 콘솔의 스토리지
개요 페이지를 숨기거나 표시하는 데 사용되는 플래그가 잘못 설정되어 있습니다. 결과적으로 OpenShift Cluster Storage를 포함하는 클러스터를 배포한 후에는 개요 페이지가 표시되지 않습니다. 이 문제는 향후 릴리스에서 수정될 예정입니다. (BZ#2013132)
OpenShift Container Platform 4.6 이상에서는 풀에 대한 이미지 참조에서 다음 Red Hat 레지스트리를 지정해야 합니다.
-
registry.redhat.io
-
registry.access.redhat.com
-
quay.io
그렇지 않으면 이러한 레지스트리를 지정하지 않으면 빌드 Pod에서 이미지를 가져올 수 없습니다.
이 문제를 해결하려면 이미지 가져오기 사양에서
registry.redhat.io/ubi8/ubi:latest
및registry.access.redhat.com/rhel7.7:latest
와 같은 정규화된 이름을 사용하십시오.필요한 경우 이미지 단축 이름을 허용하는 레지스트리를 추가하여 이미지 레지스트리 설정을 업데이트할 수 있습니다. (BZ#2011293)
-
OpenShift Container Platform 4.8 이전에는 기본 로드 밸런싱 알고리즘이
최소conn
이었습니다. 비 패스스루 경로의 OpenShift Container Platform 4.8.0에서 기본값이임의로
변경되었습니다.임의로
스위칭하면 해당 환경에서 메모리 사용량이 크게 증가하므로 장기 실행 웹 소켓 연결을 사용해야 하는 환경과 호환되지 않습니다. 이 중요한 메모리 사용을 완화하기 위해 기본 로드 밸런싱 알고리즘이 OpenShift Container Platform 4.9에서leastconn
으로 되돌아갔습니다. 메모리 사용량이 많지 않은 솔루션이 있으면 향후 OpenShift Container Platform 릴리스에서 기본값이임의로
변경됩니다.다음 명령을 입력하여 기본 설정을 확인할 수 있습니다.
$ oc get deployment -n openshift-ingress router-default -o yaml | grep -A 2 ROUTER_LOAD_BALANCE_ALGORITHM - name: ROUTER_LOAD_BALANCE_ALGORITHM value: leastconn
random
옵션은 계속 사용할 수 있습니다. 그러나 이 알고리즘 선택으로 이점을 얻는 경로는 다음 명령을 입력하여 경로별로 주석에서 해당 옵션을 명시적으로 설정해야 합니다.$ oc annotate -n <NAMESPACE> route/<ROUTE-NAME> "haproxy.router.openshift.io/balance=random"
-
로컬 레지스트리에서 호스팅된 이미지가 지정되면
oc adm release extract --tools
명령이 실패합니다. (BZ#1823143) OpenShift Container Platform 단일 노드 구성에서 비실시간 커널을 사용할 때보다 실시간
커널(커널-rt
)을 사용할 때 Pod 생성 시간이 2배 이상 느려집니다.kernel-rt
를 사용하는 경우 노드 재부팅 후 복구 시간이 영향을 받기 때문에 Pod 생성 속도가 느린 Pod의 최대 Pod 수에 영향을 미칩니다.이 문제를 해결하려면
kernel-rt
를 사용하는 경우rcupdate.rcu_normal_after_boot=0
커널 인수로 부팅하여 복구 시간을 개선할 수 있습니다. 이를 위해서는 실시간 커널 버전kernel-rt-4.18.0-305.16.1.rt7.88.el8_4
이상이 필요합니다. 이 알려진 문제는 OpenShift Container Platform 버전 4.8.15 이상에 적용됩니다. (BZ#1975356)-
OpenShift Container Platform 단일 노드 재부팅 후 모든 Pod가 다시 시작되어 일반 Pod 생성 시간보다 오래 걸립니다. 이 문제는 CNI(컨테이너 네트워크 인터페이스)에서
pod add
이벤트를 충분히 신속하게 처리할 수 없기 때문에 발생합니다.timed out waiting for OVS port binding
이라는 오류 메시지가 표시됩니다. OpenShift Container Platform 단일 노드 인스턴스는 결국 복구되지만 예상보다 느리게 복구됩니다. 이 알려진 문제는 OpenShift Container Platform 버전 4.8.15 이상에 적용됩니다. (BZ#1986216) -
bootkube
가 클러스터 부트스트랩 프로세스 종료에oc
를 사용하려고 하는 SNO 클러스터 프로비저닝 중에 오류가 발생합니다. kube API에서 종료 요청을 수신하고 이로 인해 클러스터 부트스트랩 프로세스가 실패합니다. (BZ#2010665) - 동일한 호스트에 4.8을 성공적으로 배포한 후 수정된 부팅 테이블 항목으로 인해 OpenShift Container Platform 버전 4.9 SNO 클러스터를 배포하는 데 실패합니다. (BZ#2011306)
- DPDK 기반 워크로드가 OpenShift Container Platform 버전 4.8.5에 배포될 때 표시되는 inbox iavf 드라이버에는 불안정 문제가 있습니다. 또한 DPDK 워크로드를 실시간 8용 RHEL을 실행하는 호스트에 배포하면 드러납니다. 이 문제는 Intel XXV710 NIC가 설치된 호스트에서 발생합니다. (BZ#2000180)
-
PTP Operator가 배포하는
linuxptp
하위 시스템에서 클럭 건너뛰기 오류가 발생합니다. 보고된 오류 메시지는클럭이 뒤로 이동하거나 예상보다 느리게 실행됩니다!
. Intel Columbiaville E810 NIC가 OpenShift Container Platform 버전 4.8 또는 4.9 클러스터에 설치된 호스트에서 오류가 발생했습니다. 이 오류는linuxptp
하위 시스템에서 오류가 아닌 Intel nova 드라이버와 관련이 있을 가능성이 큽니다. (BZ#2013478) DU 노드의 제로 스크립팅 프로비저닝(ZTP) 설치 중에 Operator 설치에 실패하는 경우가 있습니다.
InstallPlan
API에서 오류를 보고합니다. 보고된 오류 메시지는 다음과 같습니다.배포 압축을 해제하지 못했습니다. 이유: DeadlineExceeded
. Operator 설치 작업이 600초를 초과하면 오류가 발생합니다.이 문제를 해결하려면 실패한 Operator에 대해 다음
oc
명령을 실행하여 Operator 설치를 다시 시도합니다.카탈로그 소스를 삭제합니다.
$ oc -n openshift-marketplace delete catsrc <failed_operator_name>
설치 계획을 삭제합니다.
$ oc -n <failed_operator_namespace> delete ip <failed_operator_install_plan>
서브스크립션을 삭제하고 관련 사용자 정의 리소스 정책에서 Operator
CatalogSource
및Subscription
리소스를 다시 생성할 때까지 기다립니다.$ oc -n <failed_operator_namespace> delete sub <failed_operator_subscription>
예상 결과
Operator
InstallPlan
및ClusterServiceVersion
리소스가 생성되고 Operator가 설치됩니다.
SR-IOV Operator와 MCO(Machine Config Operator) 사이에 경합 조건이 존재합니다. 간헐적으로 발생하고 DU 노드의 ZTP 설치 프로세스 중에 서로 다른 방식으로 표시됩니다. 경합 조건은 다음과 같은 오류가 발생할 수 있습니다.
ZTP 설치 프로세스가 DU 노드 프로비저닝을 완료하면 성능 프로필 구성이 적용되지 않는 경우가 있습니다. ZTP 설치 프로세스가 DU 노드 프로비저닝을 완료하면 성능 프로필 구성이 노드에 적용되지 않으며
MachineConfigPool
리소스가Updating
상태로 전환됩니다.이 문제를 해결하려면 다음 절차를 수행합니다.
실패한 DU 노드의 이름을 가져옵니다.
$ oc get mcp
출력 예
NAME CONFIG UPDATED UPDATING DEGRADED control-plane-1 rendered-control-plane-1-90fe2b00c718 False True False compute-1 rendered-compute-1-31197fc6da09 True False False
오류가 발생한 노드를 분리하고
machine-config-daemon
이 성능 프로필을 적용할 때까지 기다립니다. 예를 들면 다음과 같습니다.$ oc adm uncordon compute-compute-1-31197fc6da09
예상 결과
machine-config-daemon
은 성능 프로필 구성을 노드에 적용합니다.
- 성능 프로필 구성이 DU 노드 구성 중에 적용되지 않는 경우가 있습니다. 이 문제를 해결하려면 DU 노드에서 정책을 적용하는 시퀀스를 변경합니다. MCO(Machine Config Operator) 및PAO(Performance Addon Operator) 정책을 먼저 적용한 다음 SR-IOV 정책을 적용합니다.
DU 노드의 정책 구성 중에 재부팅하는 데 수십 분이 걸릴 수 있습니다. 이 인스턴스에는 해결방법이 필요하지 않습니다. 결국 시스템이 복구됩니다.
- VF(가상 기능)가 이미 존재하는 경우 물리적 기능(PF)에 macvlan을 생성할 수 없습니다. 이 문제는 Intel E810 NIC에 영향을 미칩니다. (BZ#2120585)