1.7. 확인된 문제
사용자 프로비저닝 인프라를 사용하여 vSphere의 가상 머신의 전원을 켜는 경우 노드를 확장하는 프로세스가 예상대로 작동하지 않을 수 있습니다. 하이퍼바이저 구성에서 알려진 문제로 인해 시스템이 하이퍼바이저 내에 생성되지만 전원이 켜지지 않습니다. 머신 세트를 확장한 후 노드가
Provisioning
상태에 있는 것으로 표시되면 vSphere 인스턴스 자체에서 가상 머신의 상태를 조사할 수 있습니다. VMware 명령govc tasks
및govc events
이벤트를 사용하여 가상 시스템의 상태를 확인합니다. 다음과 유사한 오류 메시지가 있는지 확인합니다.[Invalid memory setting: memory reservation (sched.mem.min) should be equal to memsize(8192). ]
이 VMware KBase 문서의 지침에 따라 문제를 해결할 수 있습니다. 자세한 내용은 Red Hat Knowledgebase 솔루션 [UPI vSphere] 노드 확장이 예상대로 작동하지 않음을 참조하십시오. (BZ#1918383)
OpenShift Container Platform 4.6.8에서는 CLO(Cluster Logging Operator)에서 인증서를 다시 생성하는 방법을 변경한 버그 수정이 도입되었습니다. 이번 수정으로 인해 EO(OpenShift Elasticsearch Operator)가 클러스터를 다시 시작하는 동안 CLO에서 인증서를 다시 생성할 수 있는 문제가 발생합니다. 이로 인해 EO와 클러스터 간에 통신 문제가 발생하여 EO 노드에서 인증서가 일치하지 않습니다.
Elasticsearch를 업그레이드할 때 일치하지 않는 인증서로 인해 문제가 발생할 수 있습니다. 이 문제를 해결하려면 CLO 및 EO를 선택적으로 별도로 업그레이드할 수 있습니다. 작동하지 않는 경우 다음 명령을 실행하여 Elasticsearch Pod를 다시 시작합니다.
$ oc delete pod -l component=es
Pod가 재시작되면 일치하지 않는 인증서가 수정되어 업그레이드 문제를 해결합니다. (BZ#1906641)
- 현재 OVN-Kubernetes 클러스터 네트워킹 공급자를 사용하여 OpenShift Container Platform 4.5에서 4.6으로 업그레이드할 수 없습니다. 이 문제는 향후 4.6.z 릴리스에서 해결될 것입니다. (BZ#1880591)
- 현재 클러스터에서 노드를 75개 이상으로 확장하면 OVN-Kubernetes 클러스터 네트워킹 공급자 데이터베이스가 손상되어 클러스터를 사용할 수 없는 상태가 될 수 있습니다. (BZ#1887585)
- 현재 OVN-Kubernetes 클러스터 네트워킹 공급자가 있는 클러스터에서 RHEL (Red Hat Enterprise Linux) 작업자 노드 확장이 작동하지 않습니다. 이 문제는 향후 RHEL 7.8.z 및 RHEL 7.9.z 릴리스에서 해결될 것입니다. (BZ#1884323, BZ#1871935)
- 현재 RHEL (Red Hat Enterprise Linux) 7.8에서 실행중인 작업자 노드를 확장하면 OVN-Kubernetes 클러스터 네트워킹 공급자가 새 노드에서 초기화되지 않습니다. (BZ#1884323)
- OpenShift Container Platform 4.6에서 4.5로의 다운그레이드는 향후 4.5.z 릴리스에서 수정됩니다. (BZ#1882394, BZ#1886148, BZ#1886127)
- 현재 RHEL(Red Hat Enterprise Linux) 작업자 노드를 사용하여 OpenShift Container Platform 4.5에서 4.6으로 업그레이드할 수 없습니다. 이 문제는 향후 4.6.z 릴리스에서 해결될 것입니다. 먼저 RHEL을 업그레이드한 다음 클러스터를 업그레이드하고 일반 RHEL 업그레이드 플레이북을 다시 실행하십시오. (BZ#1887607)
-
본딩 장치에 외부 네트워크가 구성된 경우 OpenShift Container Platform 4.5를 4.6으로 업그레이드할 수 없습니다.
ovs-configuration
서비스가 실패하고 노드에 연결할 수 없습니다. 이 문제는 향후 4.6.z 릴리스에서 해결될 것입니다. (BZ#1887545) - 현재 여러 NUMA(Non-Uniform Memory Access) 노드에서 요청 시 대규모 페이지가 제대로 탐지되지 않습니다. 이는 클러스터에 여러 NUMA 노드가 포함된 경우 cnf-tests 제품군 보고 오류 때문에 한 NUMA의 대규모 페이지 수와 전체 노드의 총 대규모 페이지 수를 비교하기 때문입니다. (BZ#1889633)
- 패킷 전달 및 수신을 확인하는 데 사용되는 DPDK(데이터 플레인 개발 키트) 테스트가 항상 실패합니다. (BZ#1889631)
- 원시 구성이 없는 머신 구성이 하나 이상 있는 경우 SCTP(Stream Control Transmission Protocol) 검증 단계가 실패합니다. 이러한 구성의 예로는 커널 인수만 포함하는 머신 구성이 있습니다. (BZ#1889275)
- cnf-tests 제품군에서 PTP를 실행하는 노드 수를 제대로 탐지하지 못하여 PTP(Precision Time Protocol) 검증 단계가 실패합니다. (BZ#1889741)
-
NIC(네트워크 인터페이스 카드) 검증 단계는 노드의 장치를 사용할 수 있을 때까지 기다리지 않기 때문에 실패합니다. 포드가 노드에서 실행될 때까지 기다리는 시간이 너무 짧아 포드가 여전히
보류 중
상태이고 잘못 테스트될 수 있습니다. (BZ#1890088) -
ose-egress-dns-proxy
이미지에 컨테이너 시작을 방해하는 알려진 결함이 있습니다. 이 이미지는 이전 릴리스에서도 손상되어 있었으므로 4.6에서는 문제의 재발로 간주하지 않습니다. (BZ#1888024)
OpenShift Container Platform 4.1에서는 익명 사용자가 검색 끝점에 액세스할 수 있었습니다. 이후 릴리스에서는 일부 검색 끝점이 통합된 API 서버로 전달되기 때문에 보안 악용에 대한 가능성을 줄이기 위해 이 액세스를 취소했습니다. 그러나 인증되지 않은 액세스는 기존 사용 사례가 손상되지 않도록 업그레이드된 클러스터에 보존됩니다.
OpenShift Container Platform 4.1에서 4.6으로 업그레이드된 클러스터의 클러스터 관리자인 경우 인증되지 않은 액세스를 취소하거나 계속 허용할 수 있습니다. 특별히 필요한 경우가 아니면 인증되지 않은 액세스를 취소하는 것이 좋습니다. 인증되지 않은 액세스를 계속 허용하는 경우 이에 따라 보안 위험이 증가될 수 있다는 점에 유의하십시오.
주의인증되지 않은 액세스에 의존하는 애플리케이션이있는 경우 인증되지 않은 액세스를 취소하면 HTTP 403 오류가 발생할 수 있습니다.
다음 스크립트를 사용하여 감지 끝점에 대한 인증되지 않은 액세스를 취소하십시오.
## Snippet to remove unauthenticated group from all the cluster role bindings $ for clusterrolebinding in cluster-status-binding discovery system:basic-user system:discovery system:openshift:discovery ; do ### Find the index of unauthenticated group in list of subjects index=$(oc get clusterrolebinding ${clusterrolebinding} -o json | jq 'select(.subjects!=null) | .subjects | map(.name=="system:unauthenticated") | index(true)'); ### Remove the element at index from subjects array oc patch clusterrolebinding ${clusterrolebinding} --type=json --patch "[{'op': 'remove','path': '/subjects/$index'}]"; done
이 스크립트는 인증되지 않은 주제를 다음 클러스터 역할 바인딩에서 제거합니다.
-
cluster-status-binding
-
discovery
-
system:basic-user
-
system:discovery
-
system:openshift:discovery
-
operator-sdk new
또는operator-sdk create api
명령을--helm-chart
플래그를 지정하지 않고 실행하면 기본 보일러 플레이트 Nginx 차트를 사용하는 Helm 기반 Operator가 빌드됩니다. 이 예제 차트는 업스트림 쿠버네티스에서 올바르게 작동하지만 OpenShift Container Platform에 성공적으로 배포되지 않습니다.이 문제를 해결하려면
--helm-chart
플래그를 사용하여 OpenShift Container Platform에 성공적으로 배포하는 Helm 차트를 제공합니다. 예를 들면 다음과 같습니다.$ operator-sdk new <operator_name> --type=helm \ --helm-chart=<repo>/<name>
- Redfish 가상 미디어 기능을 사용하여 베어 메탈 노드에 OpenShift Container Platform을 설치할 때 BMC(베이스보드 관리 컨트롤러)가 프로비저닝 네트워크에서 가상 미디어 이미지를 로드하려고 하면 오류가 발생합니다. 이러한 문제는 BMC에서 프로비저닝 네트워크를 사용하지 않거나 해당 네트워크에 프로비저닝 네트워크에 대한 라우팅이 설정되지 않은 경우 발생합니다. 이 문제를 해결하려면 가상 미디어를 사용할 때 프로비저닝 네트워크를 끄거나, 사전 요구 사항으로 BMC를 프로비저닝 네트워크로 라우팅해야 합니다. (BZ#1872787)
-
OpenShift Container Platform 설치 프로그램에서는 알려진 문제로 인해 GCP 및 Azure에서
install-config.yaml
파일을 사용하여 수동 모드를 구성할 수 없습니다. 대신 수동으로 Azure용 IAM 생성 및 수동으로 GCP용 IAM 생성에 설명된 대로 클러스터 설치 프로세스의 매니페스트 생성 단계에서 매니페스트 디렉터리에 구성 맵을 수동으로 삽입해야 합니다. (BZ#1884691) -
전원 환경에서 FC 영구 볼륨 클레임과 targetWWN을 매개 변수로 사용하여 Pod를 생성하면 FC 볼륨 연결이 실패하고
fc 디스크가 없는
오류 메시지가 표시되고 Pod는ContainerCreating 상태로
유지됩니다. (BZ#1887026) - 송신 IP를 제공하는 노드가 종료되면 해당 노드에서 호스팅되는 포드가 송신 IP를 제공하는 다른 노드로 이동하지 않습니다. 이로 인해 송신 IP를 제공하는 노드가 종료될 때 포드의 발신 트래픽이 항상 실패합니다. (BZ#1877273)
-
알려진 문제로 인해
us-gov-east-1
리전에 설치하는 경우 연결되지 않은 비공개 클러스터 설치가 AWS GovCloud에 지원되지 않습니다. (BZ#1881262). 인프라 ID가 접두사로 지정되지 않은 머신에서 사용하는 방화벽 규칙은 설치 관리자 프로비저닝 인프라를 사용하여 GCP(Google Cloud Platform)에서 실행되는 클러스터를 삭제할 때 보존됩니다. 이로 인해 설치 프로그램의 제거 프로세스가 실패합니다. 이 문제를 해결하려면 GCP 웹 콘솔에서 머신의 방화벽 규칙을 수동으로 삭제해야 합니다.
$ gcloud compute firewall-rules delete <firewall_rule_name>
인프라 ID가 없는 머신의 방화벽 규칙을 제거하면 클러스터를 삭제할 수 있습니다. (BZ#1801968)
-
opm alpha bundle build
명령이 Windows 10에서 실패합니다. (BZ#1883773) OpenShift Container Platform 4.6에서는 리소스 지표 API 서버에서 사용자 정의 지표를 지원합니다. 리소스 지표 API 서버는 OpenAPI 사양을 구현하지 않으며 다음 메시지가
kube-apiserver
로그로 전송됩니다.controller.go:114] loading OpenAPI spec for "v1beta1.metrics.k8s.io" failed with: OpenAPI spec does not exist controller.go:127] OpenAPI AggregationController: action for item v1beta1.metrics.k8s.io: Rate Limited Requeue.
경우에 따라 이러한 오류로 인해
KubeAPIErrorsHigh
경고가 표시될 수 있지만, OpenShift Container Platform 기능을 저하시키는 근본적인 문제는 확인되지 않았습니다. (BZ#1819053)- 규칙 API 저장소보다 먼저 저장소 API 저장소가 검색되면 규칙 API 백엔드가 탐지되지 않는 경우가 있습니다. 이 경우 규칙 API 클라이언트 없이 저장소 참조가 생성되고 Thanos Querier의 규칙 API 끝점에서 규칙을 반환하지 않습니다. (BZ#1870287)
AWS 계정이 전역 조건을 사용하여 모든 작업을 거부하거나 특정 권한이 필요한 AWS 조직 서비스 컨트롤 정책(SCP)을 사용하도록 구성된 경우, 권한을 검증하는 AWS 정책 시뮬레이터 API에서 거짓 부정을 생성합니다. 권한을 검증할 수 없는 경우 설치에 필요한 권한이 제공된 자격 증명에 있어도 OpenShift Container Platform AWS를 설치할 수 없습니다.
이 문제를 해결하기 위해
install-config.yaml
구성 파일에서credentialsMode
매개변수 값을 설정하여 AWS 정책 시뮬레이터 권한 점검을 바이패스할 수 있습니다.credentialsMode
값은 CCO(Cloud Credential Operator)의 동작을 지원되는 세 가지 모드 중 하나로 변경합니다.install-config.yaml
설정 파일 예apiVersion: v1 baseDomain: cluster1.example.com credentialsMode: Mint 1 compute: - architecture: amd64 hyperthreading: Enabled ...
- 1
- 이 행은
credentialsMode
매개변수를Mint
로 설정하기 위해 추가됩니다.
이 점검을 바이패스하는 경우 제공하는 자격 증명에 지정된 모드에 필요한 권한이 있는지 확인하십시오.
-
RHOSP에서 실행되고 Kuryr를 사용하는 클러스터에서 각
hostNetworking
포드에 불필요한 Neutron 포트를 생성합니다. 이러한 포트는 사용자가 안전하게 삭제할 수 있습니다. 자동 포트 삭제는 OpenShift Container Platform의 향후 릴리스에 계획되어 있습니다. (BZ#1888318) -
Kuryr로 구성된 RHOSP에 배포하면 kuryr-cni Pod가 크래시 루프로 전환되어
NetlinkError가 보고될 수 있습니다. (17, 'file exists')
오류 메시지. 이 문제를 해결하려면 노드를 재부팅해야 합니다. 이 문제를 해결하기 위한 수정은 OpenShift Container Platform의 향후 릴리스에 계획되어 있습니다. (BZ#1869606) - DNS 프록시 모드에서 송신 라우터 포드를 배포할 때 포드가 초기화되지 않습니다. (BZ#1888024)
- RHCOS 실시간(RT) 커널은 현재 컨트롤 플레인 노드가 아닌 컴퓨팅 노드에서만 지원됩니다. OpenShift Container Platform 4.6의 RT 커널에서는 컴팩트 클러스터가 지원되지 않습니다. (BZ#1887007)
보안을 강화하기 위해 기본 CRI-O 기능 목록에서
NET_RAW
및SYS_CHROOT
기능을 더 이상 사용할 수 없습니다.-
NET_RAW
: 보호되지 않는 경우 이 기능을 사용하면 Pod에서 낮은 포트, 소스 IP 주소, 소스 MAC 주소와 같은 헤더 필드를 변경할 수 있는 패킷을 생성할 수 있습니다. 이러한 기능은 악의적인 해킹 시도를 허용할 수 있습니다. -
SYS_CHROOT
: 일반적인 워크로드에는chroot
가 필요하지 않아야 합니다. 권한 있는 작업에 대한 액세스 권한은 필요한 경우에만 부여해야 합니다.
NET_RAW
및SYS_CHROOT
기능은 OpenShift Container Platform 4.5.16의 기본 기능에서 제거되었습니다. 4.5.16 이전 릴리스에서 생성된 클러스터에 대한 영향을 줄이기 위해 기본 기능 목록이 별도의 머신 구성에 포함됩니다.99-worker-generated-crio-capabilities
및99-master-generated-crio-capabilities
. OpenShift Container Platform은 이전 릴리스에서 업데이트할 때 새 머신 구성을 생성합니다.업그레이드 후에는
NET_RAW
및SYS_CHROOT
기능을 비활성화한 다음 워크로드를 테스트하는 것이 좋습니다. 해당 기능을 제거할 준비가 되면99-worker-generated-crio-capabilities
및99-master-generated-crio-capabilities
머신 구성을 삭제합니다.중요: 이전 릴리스에서 업데이트하는 경우 4.6으로 업데이트하기 전에 4.5.16으로 업데이트합니다. (BZ#1874671).
-
-
OpenShift Container Platform 머신 API 베어 메탈 작동기에서는 현재 기본 베어 메탈 호스트가 삭제될 때 머신 오브젝트를 삭제합니다. 이러한 동작은 기본 클라우드 공급자 리소스가 삭제되는 경우
머신
오브젝트를 모두 제거하는 대신 실패한 단계로 이동하는 다른 클라우드 공급자 작동자와 일치하지 않습니다. (BZ#1868104) - vSphere에 설치 관리자 프로비저닝 인프라와 함께 설치된 클러스터를 버전 4.5에서 4.6으로 업그레이드할 때 업그레이드 중 컨트롤 플레인 노드 IP 주소가 변경되면 업그레이드가 실패합니다. 이 문제를 해결하려면 버전 4.6으로 업그레이드하기 전에 컨트롤 플레인 노드 IP 주소를 예약해야 합니다. 예약 구성에 대한 내용은 DHCP 서버 설명서를 검토하십시오. (BZ#1883521)
TLS 확인이 필요한
oc
명령의 경우 인증서에서 주체 대체 이름을 설정하지 않으면 확인 작업에서 일반 이름 필드로 대체하지 않고 다음 오류와 함께 명령이 실패합니다.x509: certificate relies on legacy Common Name field, use SANs or temporarily enable Common Name matching with GODEBUG=x509ignoreCN=0
이 문제를 해결하기 위해 적절한 주체 대체 이름이 설정된 인증서를 사용하거나
oc
명령 앞에GODEBUG=x509ignoreCN=0
을 지정하여 이 동작을 일시적으로 덮어쓸 수 있습니다.향후 4.6 z-stream에서는 오류 대신 경고를 반환하여 사용자가 인증서를 업데이트하여 준수하도록 더 많은 시간을 허용할 수 있습니다.
- Helm 패키지 관리자를 사용하여 Agones를 설치하고 개발자 화면을 사용하여 네임스페이스의 차트 리소스를 검사하려고 하면 리소스 세부 정보 대신 오류 메시지가 표시됩니다. (BZ#1866087)
-
토폴로지 보기에서 배포를 선택하는 경우 작업
<deployment_name> 편집을 클릭한 후 수정하십시오. 수정된 배포
YAML 파일은포드 템플릿 사양
의 볼륨 마운트를 덮어쓰거나 제거합니다. (BZ#1867965) -
추가
카탈로그에서 옵션을 사용하고 템플릿으로 필터링한 후 템플릿을 선택하고 인스턴스화하면 개발자 화면에 성공 또는 실패 메시지가 표시되지 않습니다. (BZ#1876535) - 건너뛴 작업이 있는 PipelineRuns에서 작업을 실패한 것으로 잘못 표시합니다. (BZ#1880389)
- 애플리케이션 단계 보기의 애플리케이션 세부 정보 페이지에 애플리케이션 환경에 있는 프로젝트에 대한 부정확한 링크가 있었습니다. (BZ#1889348)
-
Pod 생성이 많은 조건에서
pod 이름을 예약하는 오류 메시지와 함께 생성이 실패합니다.: name은 reserved
입니다. CNI 실행 파일에 대한 CRI-O의 컨텍스트가 종료되고 프로세스가 종료됩니다. 포드는 결국 생성되지만 시간이 오래 걸립니다. 따라서 kubelet은 CRI-O에서 Pod를 생성하지 않았다고 간주합니다. kubelet에서 요청을 다시 전송하고 이름 충돌이 발생합니다. 이 문제는 현재 조사 중입니다. (BZ#1785399) - 클러스터 네트워킹 공급자가 OVN-Kubernetes인 경우 클러스터의 모든 노드에 할당되지 않은 서비스 외부 IP 주소를 사용하는 경우 외부 IP 주소에 대한 네트워크 트래픽을 라우팅할 수 없습니다. 이 문제를 해결하려면 서비스 외부 IP 주소가 항상 클러스터의 노드에 할당되어 있는지 확인합니다. (BZ#1890270)
관리자는 제한된 네트워크 환경(연결이 끊긴 클러스터라고도 함)에서 OpenShift Container Platform 4.6 클러스터에서 OLM(Operator Lifecycle Manager)을 사용하도록
redhat-operators
카탈로그를 미러링할 수 있습니다. 그러나 다음 Operator는 예상된 공개 호스트 이름 registry.redhat.
io 대신 개인 호스트 이름
파일에 항목을 반환합니다.registry-proxy.engineering.redhat.com
을 사용하여 mapping.txt- amq-online.1.5.3
- amq-online.1.6.0
이로 인해 일반적으로 내부 Red Hat 테스트를 위한 액세스 불가능한 프라이빗 레지스트리에 대해 이미지가 실패합니다. 이 문제를 해결하려면
mapping.txt 파일을 생성한 후 다음 명령을 실행합니다.
$ sed -i -e 's/registry-proxy.engineering.redhat.com/registry.redhat.io/g' \ -e 's/rh-osbs\/amq7-/amq7\//g' \ -e 's/amq7\/tech-preview-/amq7-tech-preview\//g' \ ./redhat-operator-index-manifests/imageContentSourcePolicy.yaml \ ./redhat-operator-index-manifests/mapping.txt
PowerVM의 IBM Power Systems의 OpenShift Container Platform의 경우 다음 요구 사항이 권장됩니다.
- 마스터 노드의 가상 CPU 2개
- 작업자 노드의 가상 CPU 4개
- 모든 노드 용 0.5 프로세서
- 모든 노드의 경우 32GB 가상 RAM
Red Hat Operator 게시 프로세스의 버그로 인해 OpenShift Container Platform 4.6 인덱스 이미지의 스테이징 환경 버전이 간략하게 게시되었습니다. 버그가 해결되었으며 이미지가 올바른 콘텐츠로 곧 다시 게시되었습니다.
이 단계 레지스트리 이미지를 사용하는 동안 Operator를 설치하거나 업그레이드하려고 하면
openshift-marketplace
네임스페이스의 작업이 예상 공개 호스트 이름 registry.stage.redhat.io 대신 프라이빗 호스트 이름 registry.stage.redhat.io
로 표시되는 다음과 같은 오류와 함께 실패할 수 있습니다.redhat.io
:출력 예
ImagePullBackOff for Back-off pulling image "registry.stage.redhat.io/openshift4/ose-elasticsearch-operator-bundle@sha256:6d2587129c746ec28d384540322b40b05833e7e00b25cca584e004af9a1d292e"
출력 예
rpc error: code = Unknown desc = error pinging docker registry registry.stage.redhat.io: Get "https://registry.stage.redhat.io/v2/": dial tcp: lookup registry.stage.redhat.io on 10.0.0.1:53: no such host
이로 인해 액세스 불가능한 프라이빗 레지스트리에 대해 이미지 풀이 실패했으며 일반적으로 내부 Red Hat 테스트를 위해 빌드되었으며 관련 Operator 설치 및 업그레이드에 성공하지 못했습니다. 이 문제를 정리하려면 해결 방법은 장애가 발생한 서브스크립션 새로 고침을 참조하십시오. (BZ#1909152)
-
명령이 주석 이름과 값 간의 구분 기호로 등호(
=
)를 포함하는 LDAP 그룹 이름에 대해oc annotate
명령은 작동하지 않습니다. 이 문제를 해결하려면oc patch
또는oc edit
를 사용하여 주석을 추가합니다. (BZ#1917280) -
OVN-Kubernetes 네트워크 공급자는
NodePort
- 및LoadBalancer
-유형 서비스에 대한externalTrafficPolicy
기능을 지원하지 않습니다.service.spec.externalTrafficPolicy
필드는 서비스의 트래픽이 노드-로컬 또는 클러스터 전체 엔드포인트로 라우팅되는지 여부를 결정합니다. 현재 이러한 트래픽은 기본적으로 클러스터 전체 엔드포인트로 라우팅되며 노드 로컬 엔드포인트로 트래픽을 제한할 수 없습니다. 이 문제는 향후 릴리스에서 해결될 예정입니다. (BZ#1903408) - 현재 Kubernetes 포트 충돌 문제로 인해 Pod가 재배포된 후에도 Pod 간 통신이 중단될 수 있습니다. 자세한 내용과 해결 방법은 Red Hat 지식 베이스 솔루션 Port collisions between pod and cluster IPs on OpenShift 4 with OVN-Kubernetes에서 참조하십시오. (BZ#1939676, BZ#1939045)