1.8. 확인된 문제


  • OpenShift Container Platform 4.1에서는 익명 사용자가 검색 엔드 포인트에 액세스할 수 있었습니다. 이후 릴리스에서는 일부 검색 끝점이 통합된 API 서버로 전달되기 때문에 보안 악용에 대한 가능성을 줄이기 위해 이 액세스를 취소했습니다. 그러나 인증되지 않은 액세스는 기존 사용 사례가 손상되지 않도록 업그레이드된 클러스터에 보존됩니다.

    OpenShift Container Platform 4.1에서 4.14로 업그레이드된 클러스터의 클러스터 관리자인 경우 인증되지 않은 액세스를 취소하거나 계속 허용할 수 있습니다. 인증되지 않은 액세스가 필요하지 않은 경우 해당 액세스를 취소해야 합니다. 인증되지 않은 액세스를 계속 허용하는 경우 이에 따라 보안 위험이 증가될 수 있다는 점에 유의하십시오.

    주의

    인증되지 않은 액세스에 의존하는 애플리케이션이있는 경우 인증되지 않은 액세스를 취소하면 HTTP 403 오류가 발생할 수 있습니다.

    다음 스크립트를 사용하여 감지 끝점에 대한 인증되지 않은 액세스를 취소하십시오.

    ## Snippet to remove unauthenticated group from all the cluster role bindings
    $ for clusterrolebinding in cluster-status-binding discovery system:basic-user system:discovery system:openshift:discovery ;
    do
    ### Find the index of unauthenticated group in list of subjects
    index=$(oc get clusterrolebinding ${clusterrolebinding} -o json | jq 'select(.subjects!=null) | .subjects | map(.name=="system:unauthenticated") | index(true)');
    ### Remove the element at index from subjects array
    oc patch clusterrolebinding ${clusterrolebinding} --type=json --patch "[{'op': 'remove','path': '/subjects/$index'}]";
    done

    이 스크립트는 인증되지 않은 주제를 다음 클러스터 역할 바인딩에서 제거합니다.

    • cluster-status-binding
    • discovery
    • system:basic-user
    • system:discovery
    • system:openshift:discovery

    (BZ#1821771)

  • 명령이 주석 이름과 값 간의 구분 기호로 등호(=)를 포함하는 LDAP 그룹 이름에 대해 oc annotate 명령은 작동하지 않습니다. 이 문제를 해결하려면 oc patch 또는 oc edit를 사용하여 주석을 추가합니다. (BZ#1917280)
  • 설치 프로그램에서 GCP(Google Cloud Platform) 서비스 계정과 연결된 모든 프로젝트를 가져올 수 없는 경우 컨텍스트 데드라인 초과 오류 메시지와 함께 설치에 실패합니다.

    이 동작은 다음 조건이 충족되면 발생합니다.

    • 서비스 계정에는 과도한 수의 프로젝트에 액세스할 수 있습니다.
    • 설치 프로그램은 다음 명령 중 하나를 사용하여 실행됩니다.

      • openshift-install create install-config

        오류 메시지

        FATAL failed to fetch Install Config: failed to fetch dependency of "Install Config": failed to fetch dependency of "Base Domain": failed to generate asset "Platform": failed to get projects: context deadline exceeded

      • openshift-install create cluster without an existing installation configuration file (install-config.yaml)

        오류 메시지

        FATAL failed to fetch Metadata: failed to fetch dependency of "Metadata": failed to fetch dependency of "Cluster ID": failed to fetch dependency of "Install Config": failed to fetch dependency of "Base Domain": failed to generate asset "Platform": failed to get projects: context deadline exceeded

      • OpenShift-install 은 기존 설치 구성 파일을 사용하거나 사용하지 않고 매니페스트 생성

        오류 메시지

        ERROR failed to fetch Master Machines: failed to load asset "Install Config": failed to create install config: platform.gcp.project: Internal error: context deadline exceeded

        이 문제를 해결하려면 설치 구성 파일이 있는 경우 사용할 특정 프로젝트 ID(platform.gcp.projectID)로 업데이트합니다. 그렇지 않으면 설치 구성 파일을 수동으로 생성하고 특정 프로젝트 ID를 입력합니다. 파일을 지정하여 설치 프로그램을 다시 실행합니다. (OCPBUGS-15238)

  • 대규모 계산 노드에서 부팅에 실패합니다. (OCPBUGS-20075)
  • IBM Power®에 네트워크 유형의 OVNKubernetes 를 사용하여 클러스터를 배포할 때 커널 스택 오버플로로 인해 컴퓨팅 노드가 재부팅될 수 있습니다. 이 문제를 해결하려면 Network Type of OpenShiftSDN 을 사용하여 클러스터를 배포할 수 있습니다. (RHEL-3901)
  • 다음 알려진 문제는 릴리스 후보 3 또는 4를 사용하여 OpenShift Container Platform 배포를 초기 액세스 버전으로 업데이트한 사용자에게 적용됩니다.

    노드 식별 기능이 도입되면 root로 실행 중인 일부 Pod가 권한이 없는 실행을 위해 업데이트됩니다. OpenShift Container Platform 4.14의 초기 액세스 버전으로 업데이트된 사용자의 경우 4.14 공식 버전으로 업그레이드하려고 하면 진행되지 않을 수 있습니다. 이 시나리오에서 Network Operator는 다음 상태를 보고하여 update: DaemonSet "/openshift-network-node-identity/network-node-identity" 업데이트가 롤링임을 나타냅니다.

    이 문제를 해결하려면 다음 명령을 실행하여 openshift-network-node-identify 네임스페이스의 모든 Pod를 삭제할 수 있습니다. oc delete --force=true -n openshift-network-node-identity --all pod. 이 명령을 실행하면 업데이트가 계속됩니다.

    초기 액세스에 대한 자세한 내용은 candidate-4.14 채널.

  • 현재는 openshift-multus 네임스페이스에서 cni -sysctl-allowlist 구성 맵을 업데이트하여 인터페이스별 안전한 sysctl 목록을 수정할 수 없습니다. 이 문제를 해결하려면 수동으로 또는 DaemonSet을 사용하여 노드 또는 노드에서 /etc/cni/tuning/allowlist.conf 파일을 수정할 수 있습니다. (OCPBUGS-11046)
  • OpenShift Container Platform 4.14에서 모든 노드는 기본 RHEL 9 구성과 일치하는 내부 리소스 관리를 위해 Linux 제어 그룹 버전 2(cgroup v2)를 사용합니다. 그러나 클러스터에 성능 프로필을 적용하면 성능 프로필과 관련된 대기 시간이 짧은 튜닝 기능이 cgroup v2를 지원하지 않습니다.

    결과적으로 성능 프로필을 적용하면 클러스터의 모든 노드가 재부팅되어 cgroup v1 구성으로 다시 전환합니다. 이 재부팅에는 성능 프로필의 대상이 아닌 컨트롤 플레인 노드 및 작업자 노드가 포함됩니다.

    클러스터의 모든 노드를 cgroups v2 구성으로 되돌리려면 Node 리소스를 편집해야 합니다. 자세한 내용은 Linux cgroup v2 구성을 참조하십시오. 마지막 성능 프로필을 제거하여 클러스터를 cgroups v2 구성으로 되돌릴 수 없습니다. (OCPBUGS-16976)

  • OpenShift Container Platform 4.14를 사용하여 설치된 클러스터에서 AWS M4C4 인스턴스가 제대로 부팅되지 않을 수 있습니다. 현재 해결방법이 없습니다. (OCPBUGS-17154)
  • 이 릴리스에는 설치 관리자 프로비저닝 인프라를 사용하여 Alibaba Cloud에 클러스터를 설치하지 않는 알려진 문제가 있습니다. Alibaba Cloud에 클러스터를 설치하는 것은 이 릴리스에서 기술 프리뷰 기능입니다. (OCPBUGS-20552)
  • OpenShift Container Platform 4.14부터는 라우터 역할을 하는 노드가 있는 클러스터 관리자에게 바람직하지 않은 영향을 방지하기 위해 OVN-Kubernetes 기반 클러스터 배포에서 글로벌 IP 주소 전달이 비활성화됩니다. OVN-Kubernetes는 이제 관리형 인터페이스별로 전달을 활성화하고 제한합니다.

    네트워크 리소스에서 gatewayConfig.ipForwarding 사양을 사용하여 OVN-Kubernetes 관리 인터페이스에서 모든 트래픽에 대한 IP 전달을 제어할 수 있습니다. OVN-Kubernetes와 관련된 모든 트래픽을 전달하려면 제한 사항을 지정합니다. 모든 IP 트래픽을 전달할 수 있도록 Global 을 지정합니다. 새 설치의 경우 기본값은 Restricted 입니다. 4.14로 업그레이드하는 경우 기본값은 Global 입니다. (OCPBUGS-3176) (OCPBUGS-16051)

  • 루트 볼륨 가용성 영역이 있고 RHOSP에서 실행 중인 클러스터의 경우 4.14로 업그레이드하고 루트 볼륨 가용성 영역이 있는 클러스터의 경우 컨트롤 플레인 시스템 세트를 활성화하기 전에 컨트롤 플레인 시스템을 하나의 서버 그룹에 통합해야 합니다. 필요한 변경을 수행하려면 지식 베이스 문서 의 지침을 따르십시오. (OCPBUGS-13300)
  • 컴퓨팅 영역이 하나 이상의 영역으로 구성되어 있고 RHOSP에서 실행되고 있는 클러스터의 경우 버전 4.14로 업그레이드 가능한 RHOSP에서 실행 중인 클러스터의 경우 루트 볼륨도 하나 이상의 영역으로 구성해야 합니다. 이 구성 변경이 발생하지 않으면 클러스터에 대한 컨트롤 플레인 머신 세트를 생성할 수 없습니다. 필요한 변경을 수행하려면 기술 자료 문서 의 지침을 따르십시오. (OCPBUGS-15997)
  • 현재 SR-IOV 네트워크 장치를 사용하는 Pod를 삭제할 때 오류가 발생할 수 있습니다. 이 오류는 RHEL 9의 이전 이름이 이름이 변경될 때 대체 이름 목록에 추가되는 RHEL 9의 변경으로 인해 발생합니다. 결과적으로 SR-IOV 가상 기능(VF)에 연결된 Pod가 삭제되면 VF는 ensf0v2 와 같은 원래 이름 대신 dev69 와 같은 새로운 예기치 않은 이름을 사용하여 풀로 돌아갑니다. 이 오류는 심각하지는 않지만 시스템을 복구하는 동안 Multus 및 SR-IOV 로그에 오류가 표시될 수 있습니다. 이 오류로 인해 Pod를 삭제하는 데 몇 초가 더 걸릴 수 있습니다. (OCPBUGS-11281, OCPBUGS-18822, RHEL-5988)
  • RHEL 5.14.0-284.28.1.el9_2 부터 특정 MAC 주소로 SR-IOV 가상 기능을 구성하는 경우 i40e 드라이버에서 구성 오류가 발생할 수 있습니다. 그 결과 Intel 7xx 시리즈 NIC에 연결 문제가 있을 수 있습니다. 이 문제를 해결하려면 Pod 리소스의 metadata.annotations 필드에 MAC 주소를 지정하지 마십시오. 대신 드라이버가 가상 기능에 할당하는 기본 주소를 사용합니다.(RHEL-7168, OCPBUGS-19536, OCPBUGS-19407, OCPBUGS-18873)
  • 현재 Tuned 리소스의 프로필 필드에서 본딩 장치용 슬래시를 사용하여 설정에 대한 sysctl 값을 정의하지 못할 수 있습니다. sysctl 옵션 이름에 슬래시가 있는 값은 /proc 파일 시스템에 올바르게 매핑되지 않습니다. 이 문제를 해결하려면 /etc/sysctl.d 노드 디렉터리에 필요한 값을 사용하여 구성 파일을 배치하는 MachineConfig 리소스를 만듭니다. (RHEL-3707)
  • 현재 Kubernetes 관련 문제로 인해 CPU 관리자는 마지막 Pod의 CPU 리소스를 노드에 사용 가능한 CPU 리소스 풀로 반환할 수 없습니다. 후속 Pod가 노드에 허용되면 이러한 리소스를 할당할 수 있습니다. 그러나 이렇게 하면 마지막 포드가 됩니다. CPU 관리자는 이 Pod의 리소스를 사용 가능한 풀로 되돌릴 수 없습니다.

    이 문제는 CPU 부하 분산 기능에 영향을 미칩니다. 이러한 기능은 사용 가능한 풀로 CPU 관리자를 해제하는 CPU 관리자에 따라 다릅니다. 결과적으로 보장되지 않는 Pod가 적은 CPU 수로 실행될 수 있었습니다. 이 문제를 해결하려면 영향을 받는 노드에서 가장 적합한 CPU 관리자 정책을 사용하여 Pod를 예약합니다. 이 Pod는 마지막 Pod가 되어 리소스가 사용 가능한 풀로 올바르게 릴리스되도록 합니다. (OCPBUGS-17792)

  • 현재 MCO는 작업자 풀 및 사용자 지정 풀의 머신 구성을 처리하는 방법 때문에 MCO가 사용자 지정 풀에 대해 잘못된 cgroup 버전 인수를 적용할 수 있습니다. 결과적으로 사용자 지정 풀의 노드에 잘못된 cgroup 커널 인수가 있어 예기치 않은 동작이 발생할 수 있었습니다. 이 문제를 해결하려면 작업자 및 컨트롤 플레인 풀에 대해서만 cgroup 버전 커널 인수를 지정합니다. (OCPBUGS-19352)
  • 현재 물리적 네트워크 장치에 대한 udev 규칙의 적용과 모든 네트워크 장치에 대한 기본 요청(RPS) 마스크 간의 경쟁 조건으로 인해 일부 물리적 네트워크 장치에 잘못된 RPS 마스크 구성이 포함될 수 있습니다. 결과적으로 성능 저하가 잘못된 RPS 마스크 구성으로 물리적 네트워크 장치에 영향을 미칠 수 있습니다. 향후 z-stream 릴리스에는 이 문제에 대한 수정 사항이 포함될 것으로 예상됩니다. (OCPBUGS-21845)
  • 레거시 SR-IOV(Single Root I/O Virtualization)의 Broadcom 네트워크 인터페이스 컨트롤러는 SRIOV VLAN의 QoS(Quality of Service) 및 TPID(태그 프로토콜 식별자) 설정을 지원하지 않습니다. 이는 Broadcom BCM57414, Broadcom BCM57508 및 Broadcom BCM57504에 영향을 미칩니다. (RHEL-9881)
  • 듀얼 스택 네트워크를 사용하는 환경에서 호스팅 클러스터를 생성할 때 다음과 같은 DNS 관련 문제가 발생할 수 있습니다.

    • service-ca-operator pod의 CrashLoopBackOff 상태: Pod가 호스팅된 컨트롤 플레인을 통해 Kubernetes API 서버에 연결하려고 하면 kube-system 네임스페이스의 데이터 플레인 프록시가 요청을 확인할 수 없기 때문에 Pod는 서버에 연결할 수 없습니다. 이 문제는 HAProxy 설정에서 프런트 엔드에서 IP 주소를 사용하고 백엔드에서 Pod를 확인할 수 없는 DNS 이름을 사용하므로 발생합니다.
    • Pod가 ContainerCreating 상태로 유지됨: openshift-service-ca-operator 에서 DNS pod에 DNS 확인에 필요한 metrics-tls 시크릿을 생성할 수 없기 때문에 이 문제가 발생합니다. 결과적으로 Pod는 Kubernetes API 서버를 확인할 수 없습니다.

    이러한 문제를 해결하려면 듀얼 스택 네트워크의 DNS 구성 지침에 따라 DNS 서버 설정을 구성합니다. (OCPBUGS-22753, OCPBUGS-23234)

  • OpenShift Container Platform의 호스트된 컨트롤 플레인에서는 다음 Operator 및 구성 요소가 테스트되지 않습니다(OCPSTRAT-605).

    • Performance Addon Operator
    • OpenShift 샌드박스 컨테이너
    • Red Hat OpenShift GitOps
    • Red Hat OpenShift Service Mesh
    • Red Hat OpenShift Pipelines
    • Red Hat OpenShift Dev Spaces
    • Red Hat의 Single Sign-On 기술
    • OpenShift Container Platform 웹 콘솔의 웹 터미널
    • 애플리케이션용 마이그레이션 툴킷
  • OpenShift Container Platform의 호스팅된 컨트롤 플레인에서는 호스팅된 클러스터에 File Integrity Operator를 설치할 수 없습니다. (OCPBUGS-3410)
  • OpenShift Container Platform의 호스팅된 컨트롤 플레인에서 Vertical Pod Autoscaler Operator가 호스팅된 클러스터에 설치되지 않습니다. (PODAUTO-65)
  • OpenShift Container Platform의 호스팅된 컨트롤 플레인에서는 베어 메탈 및 OpenShift Virtualization 플랫폼에서 자동 페어링 기능이 비활성화됩니다. (OCPBUGS-20028)
  • OpenShift Container Platform의 호스팅된 컨트롤 플레인에서는 Secrets Store CSI Driver Operator with AWS Secrets Manager 또는 AWS Systems Manager Parameter Store를 사용하는 것은 지원되지 않습니다. (OCPBUGS-18711)
  • OpenShift Container Platform의 호스트된 컨트롤 플레인에서 기본,kube-systemkube-public 네임스페이스는 Pod 보안 승인에서 올바르게 제외되지 않습니다. (OCPBUGS-22379)
  • OpenShift Virtualization의 호스팅된 컨트롤 플레인에서 작업자 노드는 재시작 후 네트워크 연결이 끊어질 수 있습니다. (OCPBUGS-23208)
  • 노드 테인트를 제거하지 못하여 vSphere의 에이전트 기반 설치가 실패하여 설치가 보류 중 상태가 됩니다. 단일 노드 OpenShift 클러스터는 영향을 받지 않습니다. 다음 명령을 실행하여 노드 테인트를 수동으로 삭제하여 이 문제를 해결할 수 있습니다.

    $ oc adm taint nodes <node_name> node.cloudprovider.kubernetes.io/uninitialized:NoSchedule-

    (OCPBUGS-20049)

  • 이 릴리스의 기술 프리뷰 기능인 Azure 기밀 가상 머신을 사용하는 데 알려진 문제가 있습니다. PMK(Platform-managed key) 또는 CCMK(고객 관리 키)를 사용하여 관리 디스크 및 VMGS(VM VM 게스트 상태) Blob을 암호화하도록 클러스터를 구성하는 것은 지원되지 않습니다. 이 문제를 방지하려면 securityEncryptionType 매개변수 값을 VMGuestStateOnly 로 설정하여 VMGS Blob의 암호화를 활성화합니다. (OCPBUGS-18379)
  • 이 릴리스의 기술 프리뷰 기능인 Azure 기밀 가상 머신을 사용하는 데 알려진 문제가 있습니다. 컨트롤 플레인 프로비저닝 프로세스가 30분 후에 시간 초과되므로 이 기능을 사용하도록 구성된 클러스터를 설치할 수 없습니다.

    이 경우 설치를 완료하기 위해 openshift-install create cluster 명령을 두 번 실행할 수 있습니다.

    이 문제를 방지하려면 머신 세트를 사용하여 기존 클러스터에서 기밀 VM을 활성화할 수 있습니다. (OCPBUGS-18488)

  • 베어 메탈 플랫폼에서 호스팅된 컨트롤 플레인을 실행할 때 작업자 노드가 실패하면 다른 에이전트를 사용할 수 있는 경우에도 다른 노드가 호스팅된 클러스터에 자동으로 추가되지 않습니다. 이 문제를 해결하려면 실패한 작업자 노드와 연결된 머신을 수동으로 삭제합니다. (MGMT-15939)
  • 소스 카탈로그는 아키텍처별 opm 바이너리를 번들하므로 해당 아키텍처에서 미러링을 실행해야 합니다. 예를 들어 ppc64le 카탈로그를 미러링하는 경우 ppc64le 아키텍처에서 실행되는 시스템에서 oc-mirror를 실행해야 합니다. (OCPBUGS-22264)
  • OpenShift Container Platform 그룹이 동일한 LDAP 그룹을 가리키는 경우 하나의 OpenShift Container Platform 그룹만 동기화됩니다. oc adm groups sync 명령은 여러 그룹이 동일한 LDAP 그룹을 가리키는 경우 단일 그룹만 매핑할 수 있음을 나타내는 경고를 출력합니다. (OCPBUGS-11123)
  • Secure Boot가 비활성화된 노드에서 bootModeUEFISecureBoot 로 설정하여 OpenShift Container Platform을 설치할 때 설치에 실패합니다. Secure Boot가 활성화된 후속 OpenShift Container Platform 설치 시도는 정상적으로 진행됩니다. (OCPBUGS-19884)
  • OpenShift Container Platform 4.14에서 Ignition 버전 3.4가 있는 MachineConfig 오브젝트가 CrashLoopBackOff 오류가 있는 api-collector Pod의 검사에 실패할 수 있으므로 Compliance Operator가 예상대로 작동하지 않을 수 있습니다. (OCPBUGS-18025)
  • OpenShift Container Platform 4.14에서는 기본 네트워크 인터페이스가 아닌 네트워크 인터페이스에 IPv6 송신 IP를 할당하는 것은 지원되지 않습니다. 이는 알려진 문제이며 향후 OpenShift Container Platform 버전에서 해결될 예정입니다. (OCPBUGS-17637)
  • OpenShift Container Platform 클러스터에서 CNF 대기 시간 테스트를 실행하면 oslat 테스트에서 20마이크로초보다 큰 결과를 반환할 수 있습니다. 이로 인해 oslat 테스트 실패가 발생합니다. (RHEL-9279)
  • 실시간 커널과 함께 preempt-rt 패치를 사용하고 네트워크 인터럽트의 SMP 선호도를 업데이트하면 해당 IRQ 스레드에서 업데이트를 즉시 수신하지 않습니다. 대신 다음 인터럽트가 수신되면 업데이트가 적용되며 스레드가 나중에 올바른 코어로 마이그레이션됩니다. (RHEL-9148)
  • 높은 해상도의 타이머를 사용하는 대기 시간이 짧은 애플리케이션은 예상보다 대기 시간이 길어질 수 있습니다. 예상되는 대기 시간은 20>-<s 미만이지만 대기 시간이 초과된 경우 장기간(24시간 이상) 동안 사이클 테스트 도구를 실행할 때 종종 볼 수 있습니다. 테스트 결과, 대기 시간은 샘플의 99.999999% 이상 20의 레이턴시 미만입니다. (RHELPLAN-138733)
  • 마스터 클록(T-GM)으로 구성된 Intel Westport Channel e810 NIC의 글로벌 탐색 Satellite 시스템(GNSS) 모듈은 GPS FIX 상태 및 GNSS 모듈과 GNSS 연결 위성 간의 GNSS 오프셋을 보고할 수 있습니다.

    현재 T-GM 구현에서는 ubxtool CLI를 사용하여 GNSS 오프셋 및 GPS FIX 값을 읽기 위해 ublox 모듈을 조사하지 않습니다. 대신 gpsd 서비스를 사용하여 GPS FIX 정보를 읽습니다. 이는 ubxtool CLI의 현재 구현이 응답을 수신하는 데 2초가 걸리며 모든 호출과 함께 CPU 사용량이 3배 증가하기 때문입니다. (OCPBUGS-17422)

  • GNSS에서 소싱된 PTP 할 마스터 클록에서 GNSS 신호가 손실되면 디지털 단계 잠금(DPLL) 클럭 상태가 2가지 방법으로 변경될 수 있습니다. 즉 잠금 해제로 전환하거나 보류 상태로 전환할 수 있습니다. 현재 드라이버는 기본적으로 잠금 해제되도록 DPLL 상태를 전환합니다. 현재 홀드오버 상태 기능을 처리하고 사용되는 상태 시스템 처리를 구성하기 위해 업스트림 변경 사항이 개발되고 있습니다. (RHELPLAN-164754)
  • DPLL 하위 시스템 및 DPLL 지원은 현재 Intel Westport Channel e810 NIC 아이스크림 드라이버에서 활성화되지 않습니다. (RHELPLAN-165955)
  • 현재 마스터 클록(T-GM) 구현에는 백업 NMEA 문장 생성기 없이 GNSS에서 소싱된 단일 NMEA 문장 생성기가 있습니다. NMEA 문장이 e810 NIC로의 길에서 손실되는 경우 T-GM은 네트워크 동기화 체인의 장치를 동기화할 수 없으며 PTP Operator에서 오류를 보고합니다. 제안된 수정 사항은 NMEA 문자열이 손실될 때 free RUN 이벤트를 보고하는 것입니다. (OCPBUGS-19838)
  • 현재 컨테이너의 cgroup 계층 구조 설정의 차이로 인해 crun OCI 런타임을 PerformanceProfile 구성과 함께 사용하는 컨테이너에 성능 저하가 발생합니다. 이 문제를 해결하려면 runc OCI 컨테이너 런타임을 사용합니다. runc 컨테이너 런타임은 컨테이너 시작, 종료 작업 및 exec 프로브 중에 성능이 떨어지지만 crunrunc 컨테이너 런타임은 기능적으로 동일합니다. 향후 z-stream 릴리스에는 이 문제에 대한 수정 사항이 포함될 것으로 예상됩니다. (OCPBUGS-20492)
  • 런타임 중에 IPsec을 활성화하고 비활성화하여 오류 메시지와 함께 클러스터가 비정상 상태가 된 후 알려진 문제가 있습니다. 알 수 없는 오류가 발생했습니다: MultipleErrors. (OCPBUGS-19408)
  • 컨트롤 플레인 노드에 예약된 Microsoft Azure File NFS 볼륨을 사용하여 Pod를 생성하면 마운트가 거부됩니다.

    이 문제를 해결하려면 컨트롤 플레인 노드를 예약할 수 있고 작업자 노드에서 Pod를 실행할 수 있는 경우 nodeSelector 또는 Affinity를 사용하여 작업자 노드에서 Pod를 예약합니다. (OCPBUGS-18581)

  • RHOSP 17.1에서 실행되고 NFV(네트워크 기능 가상화)를 사용하는 클러스터의 경우 RHOSP에서 알려진 문제로 인해 클러스터 배포에 성공하지 못합니다. 이 문제에 대한 해결방법이 없습니다. Red Hat 지원에 문의하여 핫픽스를 요청하십시오. (BZ2228643)
  • RHOSP 17.1에서 Kuryr 설치를 지원하지 않습니다.
  • 현재 OpenShift Container Platform 4.14에서 HAProxy 버전 2.6.13으로 업데이트하면 트래픽 재암호화에 P99 대기 시간이 증가합니다. 이는 Ingress 트래픽 볼륨이 IngressController CR(사용자 정의 리소스)의 HAProxy 구성 요소를 상당한 부하에 배치하는 경우 관찰됩니다. 대기 시간 증가는 전체 처리량에 영향을 주지 않으므로 일관성이 유지됩니다.

    기본 IngressController CR은 4개의 HAProxy 스레드로 구성됩니다. 특히 트래픽이 재암호화되는 트래픽이 많은 동안 P99 대기 시간이 증가한 경우 대기 시간을 줄이기 위해 HAProxy 스레드 수를 늘리는 것이 좋습니다. (OCPBUGS-18936)

  • 4.14의 단일 노드 OpenShift 및 GCP(Google Cloud Platform)의 경우 CrashLoopBackOff 상태로 CrashL Config Controller(CNCC)에 알려진 문제가 있습니다. 이는 CNCC가 GCP 내부 로드 밸런서 주소에 도달하려고 할 때 초기화 시 발생하며 결과적인 hairpin 트래픽이 GCP의 OVN-Kubernetes 공유 게이트웨이 모드에서 올바르게 차단되지 않습니다. 이러한 경우 CNO(Cluster Network Operator)에 Progressing=true 상태가 표시됩니다. 현재 이 문제에 대한 해결방법이 없습니다. (OCPBUGS-20554)
  • CPU가 보장되고 Interrupt Request (IRQ) 로드 밸런싱이 비활성화된 단일 노드 OpenShift에서 컨테이너 시작 시 대기 시간이 급증할 수 있습니다. (OCPBUGS-22901)
  • Pod 수가 많은 애플리케이션을 배포할 때 일부 Pod에 CPU 제한이 구성되어 있으면 배포에 실패할 수 있습니다. 해결방법은 애플리케이션을 다시 배포하는 것입니다. (RHEL-7232)
  • 기능을 비활성화한 Single-node OpenShift에서 openshift-controller-manager-operator 를 지속적으로 다시 시작할 수 있습니다. 이 문제를 해결하려면 빌드 기능을 활성화하거나 builds.config.openshift.io CRD를 수동으로 생성합니다.

    다음 단계를 수행하여 builds.config.openshift.io CRD를 수동으로 생성합니다.

    1. 다음 명령을 실행하여 릴리스 매니페스트를 추출합니다.

      $ oc adm release extract --to manifests
    2. 매니페스트 디렉터리 및 하위 디렉터리에서 builds.config.openshift.io 를 검색합니다.

      $ grep -r builds.config.openshift.io manifests

      예상 출력

      manifests/0000_10_openshift-controller-manager-operator_01_build.crd.yaml:  name: builds.config.openshift.io

    3. 0000_10_openshift-controller-manager-operator_01_build.crd.yaml 에 지정된 구성을 적용합니다.

      $ oc apply -f manifests/0000_10_openshift-controller-manager-operator_01_build.crd.yaml

    (OCPBUGS-21778)

  • Microsoft Azure Stack Hub의 OpenShift Container Platform 버전으로 클러스터를 설치하거나 클러스터에 업데이트할 수 없는 알려진 문제가 있습니다. 자세한 내용 및 해결 방법은 Red Hat 지식 베이스 문서 를 참조하십시오. (OCPBUGS-20548)
  • 버전 4.14.2 이전의 OpenShift Container Platform 4.14 버전에서 Azure AD Workload Identity를 사용하는 Microsoft Azure 클러스터에 알려진 문제가 있습니다. eastus 리전의 새 Azure 스토리지 계정에 대한 기본 보안 설정을 최근 변경하면 해당 리전에서 Azure AD 워크로드 ID를 사용하는 클러스터를 설치할 수 없습니다. 현재 다른 지역은 영향을 받지 않지만 향후 영향을 받을 수 있습니다.

    이 문제는 OpenShift Container Platform 4.14.2 에서 해결되었습니다.

    이 문제를 해결하려면 단기 인증 정보를 사용하도록 Azure 클러스터 구성 절차에서 ccoctl azure create-all 을 실행하기 전에 공용 액세스를 허용하는 스토리지 계정을 수동으로 생성합니다.

    다음 단계를 수행합니다.

    1. 다음 Azure CLI 명령을 실행하여 스토리지 계정에 대한 리소스 그룹을 생성합니다.

      $ az group create --name <oidc_resource_group_name> --location <azure_region>
    2. 다음 Azure CLI 명령을 실행하여 공용 액세스를 허용하는 스토리지 계정을 생성합니다.

      $ az storage account create --name <storage_account_name> --resource-group <oidc_resource_group_name> --location <azure_region> --sku Standard_LRS --kind StorageV2 --allow-blob-public-access true
    3. ccoctl 툴을 사용하여 다음 명령을 실행하여 모든 CredentialsRequest 오브젝트를 처리할 때 이전 단계에서 생성한 리소스를 지정해야 합니다.

      $ ccoctl azure create-all \
        --name=<azure_infra_name> \
        --output-dir=<ccoctl_output_dir> \
        --region=<azure_region> \
        --subscription-id=<azure_subscription_id> \
        --credentials-requests-dir=<path_to_credentials_requests_directory> \
        --dnszone-resource-group-name=<azure_dns_zone_resource_group_name> \
        --tenant-id=<azure_tenant_id> \
        --storage-account-name=<storage_account_name> \
        --oidc-resource-group-name=<oidc_resource_group-name>

    (OCPBUGS-22651)

Red Hat logoGithubRedditYoutubeTwitter

자세한 정보

평가판, 구매 및 판매

커뮤니티

Red Hat 문서 정보

Red Hat을 사용하는 고객은 신뢰할 수 있는 콘텐츠가 포함된 제품과 서비스를 통해 혁신하고 목표를 달성할 수 있습니다.

보다 포괄적 수용을 위한 오픈 소스 용어 교체

Red Hat은 코드, 문서, 웹 속성에서 문제가 있는 언어를 교체하기 위해 최선을 다하고 있습니다. 자세한 내용은 다음을 참조하세요.Red Hat 블로그.

Red Hat 소개

Red Hat은 기업이 핵심 데이터 센터에서 네트워크 에지에 이르기까지 플랫폼과 환경 전반에서 더 쉽게 작업할 수 있도록 강화된 솔루션을 제공합니다.

© 2024 Red Hat, Inc.