3장. 릴리스 정보
본 릴리스 노트에서는 Red Hat OpenStack Platform 릴리스를 배포할 때 고려해야 할 기술 프리뷰 항목, 권장 사항, 알려진 문제 및 사용되지 않는 기능에 대해 설명합니다.
Red Hat OpenStack Platform 릴리스의 지원 라이프사이클 중에 출시된 업데이트에 대한 정보는 각 업데이트와 관련된 권고 설명에 기재됩니다.
3.1. Red Hat OpenStack Platform 13 GA
이 릴리스 노트에서는 Red Hat OpenStack Platform 릴리스를 배포할 때 고려해야 할 기술 프리뷰 항목, 권장 사항, 알려진 문제 및 사용되지 않는 기능에 대해 설명합니다.
3.1.1. 기능 개선
이번 Red Hat OpenStack Platform 릴리스에는 다음과 같은 개선된 기능이 포함되어 있습니다.
BZ#1419556
이제 Object Store 서비스(swift)를 Barbican과 통합하여 저장된 오브젝트를 투명하게 암호화하고 암호 해독할 수 있습니다. 유휴 암호화는 전송 내 암호화와 다르며 디스크에 저장되는 동안 암호화되는 오브젝트를 나타냅니다.
Swift 오브젝트는 디스크에 일반 텍스트로 저장됩니다. 이러한 디스크는 수명 종료에 도달할 때 적절히 폐기되지 않은 경우 보안 위험을 초래할 수 있습니다. 오브젝트를 암호화하면 해당 위험이 완화됩니다.
Swift는 swift로 업로드할 때 자동으로 암호화되고 사용자에게 제공할 때 자동으로 암호 해독되는 오브젝트와 함께 이러한 암호화 작업을 투명하게 수행합니다. 이 암호화 및 암호 해독은 Barbican에 저장된 동일한 (symmetric) 키를 사용하여 수행됩니다.
BZ#1540239
이번 개선된 기능에는 metrics 데이터를 Gnocchi DB 인스턴스로 보내는 지원이 추가되었습니다.
collectd 구성 가능 서비스에 대한 다음 새 매개변수가 추가되었습니다. CollectdGnocchiAuthMode가 'simple'으로 설정된 경우 CollectdGnocchitocol, CollectdGnocchiServer, CollectdGnocchiPort 및 CollectdGnocchiUser가 구성에 대해 고려됩니다.
CollectdGnocchiAuthMode가 'keystone'로 설정된 경우 CollectdGnocchiKeystone* 매개변수가 구성에 대해 고려됩니다.
다음은 추가된 매개변수에 대한 자세한 설명입니다.
- CollectdGnocchiAuthMode
유형: 문자열
설명: 인증 Gnocchi 서버의 유형은 를 사용하고 있습니다. 지원되는 값은 'simple' 및 'keystone'입니다.
기본값: 'simple'
- CollectdGnocchiProtocol
유형: 문자열
설명: API 프로토콜 Gnocchi 서버는 를 사용합니다.
default: 'http'
- CollectdGnocchiServer
유형: 문자열
설명: 메트릭을 보내야 하는 gnocchi 엔드포인트의 이름 또는 주소입니다.
기본값: nil
- CollectdGnocchiPort
유형: 번호
Description: Gnocchi 서버에 연결할 포트입니다.
기본값: 8041
- CollectdGnocchiUser
유형: 문자열
설명: 간단한 인증을 사용하여 원격 Gnocchi 서버에 인증하기 위한 사용자 이름입니다.
기본값: nil
- CollectdGnocchiKeystoneAuthUrl
유형: 문자열
설명: 인증할 Keystone 엔드포인트 URL입니다.
기본값: nil
- CollectdGnocchiKeystoneUserName
유형: 문자열
설명: Keystone에 인증하기 위한 사용자 이름입니다.
기본값: nil
- CollectdGnocchiKeystoneUserId
유형: 문자열
설명: Keystone에 인증하기 위한 사용자 ID입니다.
기본값: nil
- CollectdGnocchiKeystonePassword
유형: 문자열
설명: Keystone에 인증하기 위한 암호
기본값: nil
- CollectdGnocchiKeystoneProjectId
유형: 문자열
설명: Keystone에 인증하기 위한 프로젝트 ID입니다.
기본값: nil
- CollectdGnocchiKeystoneProjectName
유형: 문자열
설명: Keystone에 인증하기 위한 프로젝트 이름입니다.
기본값: nil
- CollectdGnocchiKeystoneUserDomainId
유형: 문자열
설명: Keystone에 인증하기 위한 사용자 도메인 ID입니다.
기본값: nil
- CollectdGnocchiKeystoneUserDomainName
유형: 문자열
설명: Keystone에 인증하기 위한 사용자 도메인 이름입니다.
기본값: nil
- CollectdGnocchiKeystoneProjectDomainId
유형: 문자열
Description: Keystone 인증을 위한 프로젝트 도메인 ID입니다.
기본값: nil
- CollectdGnocchiKeystoneProjectDomainName
유형: 문자열
설명: Keystone에 인증하기 위한 프로젝트 도메인 이름입니다.
기본값: nil
- CollectdGnocchiKeystoneRegionName
유형: 문자열
설명: Keystone에 인증할 리전 이름입니다.
기본값: nil
- CollectdGnocchiKeystoneInterface
유형: 문자열
설명: 인증할 Keystone 엔드포인트 유형입니다.
기본값: nil
- CollectdGnocchiKeystoneEndpoint
유형: 문자열
설명: Keystone 값을 재정의하려면 Explicitly state Gnocchi 서버 URL
기본값: nil
- CollectdGnocchiResourceType
유형: 문자열
설명: Gnocchi의 collectd-gnocchi 플러그인에 의해 생성된 기본 리소스 유형은 호스트를 저장합니다.
default: 'collectd'
- CollectdGnocchiBatchSize
유형: 번호
설명: Gnocchi의 최소 값 수를 일괄 처리해야 합니다.
기본값: 10
BZ#1592823
Ansible 플레이북의 로그에 배포, 업데이트 및 업그레이드 중 작업 타이밍에 대한 정보를 제공하는 타임스탬프가 포함됩니다.
3.1.2. 기술 프리뷰
이 섹션에 나열된 항목은 기술 프리뷰로 제공됩니다. 기술 프리뷰 상태 범위에 대한 자세한 내용 및 해당 지원에 미치는 영향은 https://access.redhat.com/support/offerings/techpreview/의 내용을 참조하십시오.
BZ#1446311
이번 릴리스에서는 "[pci]alias" 구성 옵션의 일부로 구성된 PCI 장치 NUMA 선호도 정책에 대한 지원이 추가되었습니다. 세 가지 정책이 지원됩니다.
"필수 사항"(필수 사항) "기존"(기본값)이 있어야 합니다. "사용 가능한 경우 우선"이 있어야 합니다(필요한 경우).
가능한 경우 모든 경우에 엄격한 NUMA 선호도가 제공됩니다. 이러한 정책을 사용하면 리소스 사용을 최대화하려면 NUMA 선호도를 PCI 별칭별로 얼마나 엄격하게 구성할 수 있습니다. 정책의 주요 차이점은 예약에 실패하기 전에 쉐이크를 위조할 것인지에 대한 NUMA 선호도입니다.
PCI 장치에 대해 "기본 설정" 정책이 구성된 경우 nova는 사용 가능한 경우 PCI 장치의 NUMA 노드와 다른 NUMA 노드에서 CPU를 사용합니다. 이로 인해 리소스 사용률이 향상되지만 이러한 인스턴스의 성능이 저하됩니다.
BZ#1488095
RHOS-12 이후부터 OpenStack 서비스가 컨테이너화되고 있습니다. 이번 릴리스에서는 OpenStack Tempest도 컨테이너화합니다. 컨테이너화된 OpenStack 임시는 기술 프리뷰로 사용할 수 있습니다.
3.1.3. 릴리스 노트
본 섹션에서는 Red Hat OpenStack Platform에 대한 권장 사항 및 중요한 변경 사항을 포함하여 이번 릴리스 관련 중요한 세부 사항에 대해 간단히 설명합니다. 최상의 배포 결과를 얻으려면 이 정보를 반드시 숙지하셔야 합니다.
BZ#1468020
Shared File System 서비스(manila)는 이제 IPv6 환경에서 manila를 사용할 수 있는 NetApp ONTAP cDOT 드라이버에 대한 IPv6 액세스 규칙 지원을 제공합니다.
결과적으로 공유 파일 시스템 서비스는 이제 IPv6 네트워크를 통해 NetApp ONTAP 백엔드에서 지원하는 공유 내보내기를 지원합니다. 내보낸 공유에 대한 액세스는 IPv6 클라이언트 주소로 제어합니다.
BZ#1469208
Shared File System 서비스(manila)는 NFSv4 프로토콜을 통해 Ceph 파일 시스템(CephFS)에서 지원하는 공유 파일 시스템 마운트를 지원합니다. 컨트롤러 노드에서 작동하는 NFS-Ganesha 서버는 HA(고가용성)가 있는 테넌트에 CephFS를 내보내는 데 사용됩니다. 테넌트는 서로 격리되며 제공된 NFS 게이트웨이 인터페이스를 통해서만 CephFS에 액세스할 수 있습니다. 이 새로운 기능은 director에 완전히 통합되어 공유 파일 시스템 서비스의 CephFS 백엔드 배포 및 구성을 사용할 수 있습니다.
BZ#1496584
neutron 서비스가 컨테이너화되면 네트워크 네임스페이스에서 명령을 실행하려고 하면 다음 오류가 발생할 수 있습니다.
# ip netns exec qrouter... RTNETLINK answers: Invalid argument
네트워크 네임스페이스 내에서 명령을 실행하려면 네임스페이스를 생성한 neutron 컨테이너에서 해당 명령을 수행해야 합니다. 예를 들어 l3-agent는 라우터의 네트워크 네임스페이스를 생성하므로 명령을 다음과 같이 변경해야 합니다.
# docker exec neutron_l3_agent ip netns exec qrouter...
'qdhcp'로 시작하는 네트워크 네임스페이스와 마찬가지로 'neutron_dhcp' 컨테이너에서 exec가 필요합니다.
BZ#1503521
이 버전에서는 networking-ovn에서 내부 DNS 확인을 지원합니다. 두 가지 제한 사항이 있지만 .BZ#1581332로, 내부 dns를 통해 내부 fqdn 요청을 올바르게 확인하지 않습니다.
확장 기능은 GA 릴리스에서 tripleo에서 기본적으로 구성되지 않습니다. 해결방법은 .BZ#1577592를 참조하십시오.
BZ#1533206
openstack-gnocchi 패키지의 이름이 gnocchi로 변경되었습니다. 업스트림 프로젝트 범위 변경 때문에 openstack- 접두사가 제거되었습니다. Gnocchi는 OpenStack 우산에서 이동되었으며 독립 실행형 프로젝트로 유지됩니다.
BZ#1556933
버전 2.1부터 python-cryptography는 인증서에 사용된 CNS 이름이 IDN 표준을 준수하는지 확인합니다. 확인된 이름이 이 사양을 따르지 않으면 암호화가 인증서를 검증하지 못하고 OpenStack 명령줄 인터페이스 또는 OpenStack 서비스 로그에서 다른 오류를 찾을 수 있습니다.
BZ#1563412
OpenStack Compute(nova)의 예약 호스트 메모리가 2048MB에서 4096MB로 증가했습니다. 이는 사용자의 환경에 대한 용량 추정에 영향을 미칠 수 있습니다. 필요한 경우 환경 파일에서 'NovaReservedHostMemory' 매개변수를 사용하여 예약된 메모리를 재구성할 수 있습니다. 예를 들면 다음과 같습니다.
parameter_defaults: NovaReservedHostMemory: 2048
BZ#1564176
python-mistralclient는 지원되는 오버클라우드 사용 사례의 일부가 아니므로 OSP 13 릴리스의 -tools 채널에서 삭제됩니다.
BZ#1567735
OVN을 네트워킹 백엔드로 사용하는 OSP13에는 첫 번째 릴리스에서 IPv6 지원이 포함되지 않습니다. 게스트 VM에서 들어오는 Neighbor Solicitation 요청에 대한 응답에 문제가 있으므로 기본 경로가 손실됩니다.
BZ#1575752
이전 버전에서는 *NetName 매개변수(예: InternalApiNetName)가 기본 네트워크의 이름을 변경했습니다. 이는 더 이상 지원되지 않습니다.
기본 네트워크의 이름을 변경하려면 사용자 지정 구성 가능 네트워크 파일(network_data.yaml)을 사용하여 '-n' 옵션을 사용하여 'openstack overcloud deploy' 명령에 포함하십시오. 이 파일에서 "name_lower" 필드를 변경하려는 네트워크의 사용자 지정 네트워크 이름으로 설정해야 합니다. 자세한 내용은 Advanced Overcloud Customization 가이드의 "추가 네트워크 사용"을 참조하십시오.
또한 ServiceNetMap 테이블의 로컬 매개변수를 network_environment.yaml에 추가하고 이전 네트워크 이름의 모든 기본값을 새 사용자 지정 이름으로 재정의해야 합니다. 기본값은 /usr/share/openstack-tripleo-heat-templates/network/service_net_map.j2.yaml에서 확인할 수 있습니다. ServiceNetMap을 수정하기 위한 이 요구 사항은 향후 OSP-13 릴리스에서 필요하지 않습니다.
BZ#1577537
일부 컨테이너 이미지를 사용할 수 없는 OSP 13 베타 문제를 해결합니다.
BZ#1578312
OVSDB 서버가 다른 컨트롤러 노드에 장애 조치되면 이 조건을 감지하지 않기 때문에 neutron-server/metadata-agent의 재연결이 수행되지 않습니다.
결과적으로 metadata-agent가 새 메타데이터 네임스페이스를 프로비저닝하지 않고 클러스터링이 예상대로 작동하지 않으므로 VM 부팅이 작동하지 않을 수 있습니다.
가능한 해결 방법은 새 컨트롤러가 OVN 데이터베이스의 마스터로 승격된 후 모든 컴퓨팅 노드에서 ovn_metadata_agent 컨테이너를 다시 시작하는 것입니다. 또한 plugin.ini의 ovsdb_probe_interval을 600000밀리초 값으로 늘립니다.
BZ#1589849
컴퓨팅 노드에서 OVN 메타데이터 에이전트가 중지되면 해당 노드의 모든 VM이 메타데이터 서비스에 액세스할 수 없습니다. 새로운 VM이 생성되거나 기존 VM이 재부팅되면 OVN 메타데이터 에이전트가 다시 가동될 때까지 VM이 메타데이터에 액세스하지 못할 수 있습니다.
BZ#1592528
드문 경우지만 컨트롤러 노드를 여러 번 재부팅한 후 RabbitMQ가 일관성 없는 상태로 실행되어 오버클라우드의 API 작업을 차단할 수 있습니다.
이 문제의 증상은 - DuplicateMessageError: Found duplicate message(629ff0024219488499b0fac0caa5) 형식의 OpenStack 서비스 로그에 참여합니다. 이를 건너뜁니다. - "openstack network agent list"는 일부 에이전트가 DOWN임을 반환합니다.
일반 작업을 복원하려면 모든 컨트롤러 노드에서 다음 명령을 실행합니다(컨트롤러에서만 이 작업을 수행해야 함): pcs resource restart rabbitmq-bundle
3.1.4. 알려진 문제
현재 Red Hat OpenStack Platform의 확인된 문제는 다음과 같습니다.
BZ#1321179
python-requests
를 사용하는 OpenStack 명령줄 클라이언트는 현재 SAN 필드에 IP 주소가 있는 인증서의 유효성을 검사할 수 없습니다.
BZ#1461132
Red Hat Ceph Storage를 Cinder 볼륨 및 Cinder 백업 모두에 대해 블록 스토리지 백엔드로 사용하는 경우 증분 백업을 수행하려고 하면 경고 없이 전체 백업이 발생합니다. 이것은 확인된 문제입니다.
BZ#1508449
OVN은 컴퓨팅 노드에서 직접 ovn-controller와 함께 DHCP를 openflow 컨트롤러로 사용합니다. 그러나 SR-IOV 인스턴스는 VF/PF를 통해 네트워크에 직접 연결됩니다. 따라서 SR-IOV 인스턴스는 어디에서나 DHCP 응답을 가져올 수 없습니다.
이 문제를 해결하려면 OS::TripleO::Services::NeutronDhcpAgent를 다음과 같이 변경합니다.
OS::TripleO::Services::NeutronDhcpAgent: docker/services/neutron-dhcp.yaml
BZ#1515815
라우터 게이트웨이를 제거하면 학습된 IP 주소와 관련된 계층 3 흐름이 제거되지 않습니다. 학습된 IP 주소에는 PNF 및 외부 게이트웨이 IP 주소가 포함됩니다. 이로 인해 오래된 흐름이 발생하지만 기능적인 문제는 발생하지 않습니다. 외부 게이트웨이 및 IP 주소는 자주 변경되지 않습니다. 외부 네트워크를 삭제하면 오래된 흐름이 제거됩니다.
BZ#1518126
Redis는 TLS가 활성화된 HA 배포의 노드에서 데이터를 올바르게 복제할 수 없습니다. Redis follower 노드는 리더 노드의 데이터를 포함하지 않습니다. Redis 배포의 TLS를 비활성화하는 것이 좋습니다.
BZ#1519783
Neutron에서는 Neutron 라우터 생성 시 할당량이 초과되었음을 나타내는 오류가 발생할 수 있습니다. 이는 networking-odl의 버그로 인해 Neutron DB에서 단일 생성 요청으로 여러 라우터 리소스가 생성되는 알려진 문제입니다. 이 문제의 해결 방법은 OpenStack Neutron CLI를 사용하여 중복된 라우터를 삭제하고 다시 라우터를 생성하여 단일 인스턴스가 생성되는 것입니다.
BZ#1557794
director 언더클라우드를 백업하고 복원하는 절차에서 회귀가 확인되었습니다. 따라서 이 절차에서는 게시하기 전에 수정 및 확인이 필요합니다.
따라서 'Back Up and Restore the Director Undercloud'는 Red Hat OpenStack Platform 13의 일반 사용 가능으로 사용할 수 없습니다. 이 절차는 일반 가용성 릴리스 후 우선 순위로 업데이트되고 확인되는 즉시 게시됩니다.
BZ#1559055
OpenDaylight 로깅이 이전 로그가 누락되었을 수 있습니다. 이는 OpenDaylight의 journald 로깅 (Docker logs opendaylght_api" 명령 사용)과 관련하여 알려진 문제입니다. 현재 해결방법은 OpenDaylight 로깅을 컨테이너 내부에서 /opt/opendaylight/data/logs/karaf.log에 기록할 "file" 메커니즘으로 전환하는 것입니다. 이렇게 하려면 OpenDaylightLogMechanism: 'file'이라는 heat 매개변수를 구성합니다.
BZ#1568012
유동 IP를 인스턴스에 연결할 때 외부 IP에 연결하면 유동 IP의 연결을 해제하지 못합니다. 이 상황은 NAPT가 아닌 스위치에서 생성된 VM이 유동 IP와 연결되고 * 유동 IP가 제거될 때 테넌트 VLAN 네트워크에서 발생합니다. 그 결과 NAPT 스위치의 FIB 테이블에 누락된 흐름(sporadically)이 발생합니다.
FIB 테이블 누락으로 인해 VM이 공용 네트워크에 대한 연결이 끊어집니다.
유동 IP를 VM에 연결하면 공용 네트워크에 대한 연결이 복원됩니다. 유동 IP가 VM과 연결되어 있으면 인터넷에 연결할 수 있습니다. 그러나 외부 네트워크에서 공용 IP/유동 IP가 손실됩니다.
BZ#1568311
유동 IP가 없는 인스턴스가 다른 라우터에 유동 IP가 있는 다른 인스턴스에 연결하려고 하면 여러 서브넷에서 nova 인스턴스 간 3개의 연결이 실패할 수 있습니다. 이러한 문제는 nova 인스턴스가 여러 계산 노드에 분산될 때 발생합니다. 이 문제에 대한 적절한 해결방법은 없습니다.
BZ#1568976
배포 중에 기능 로드 버그로 인해 하나 이상의 OpenDaylight 인스턴스가 올바르게 시작되지 않을 수 있습니다. 이로 인해 배포 또는 기능 오류가 발생할 수 있습니다.
배포가 통과되면 배포에 성공하려면 세 개의 OpenDaylight 인스턴스 중 두 개만 작동해야 합니다. 세 번째 OpenDaylight 인스턴스가 잘못 시작되었을 수 있습니다. docker ps
명령을 사용하여 각 컨테이너의 상태를 확인합니다. 비정상적인 경우 docker 재시작 opendaylight_api
를 사용하여 컨테이너를 다시 시작합니다.
배포에 실패하면 유일한 옵션은 배포를 다시 시작하는 것입니다. TLS 기반 배포의 경우 모든 OpenDaylight 인스턴스가 올바르게 부팅되어야 합니다. 그렇지 않으면 배포가 실패합니다.
BZ#1571864
fast-forward 업그레이드 준비 중에 Heat 스택 리소스를 임시 제거하면 RHEL 규제 해제가 트리거됩니다. 그 결과 Heat 소프트웨어 배포 신호 처리가 제대로 작동하지 않기 때문에 RHEL의 등록 해제가 중단됩니다.
문제가 발생하지 않도록 하려면 오버클라우드가 OSP 10에 남아 있고 마지막 오버클라우드 마이너 버전 업데이트를 수행할 준비가 된 경우 1입니다. 템플릿 파일 /usr/share/openstack-tripleo-heat-templates/extraconfig/pre_deploy/rhel-registration.yaml 2를 편집합니다. 템플릿에서 RHELUnregistration 및 RHELUnregistrationDeployment 리소스를 삭제합니다. 3. 마이너 업데이트 및 빠른 전달 업그레이드 절차를 진행합니다.
BZ#1573597
Gnocchi 백엔드로 사용되는 Swift 클러스터를 제대로 수행하면 gnocchi-metricd.conf의 collectd 로그 및 "ConnectionError: ('Connection aborted.', CannotSendRequest())" 오류가 발생할 수 있습니다. 문제를 완화하려면 CollectdDefaultPollingInterval 매개변수 값을 늘리거나 Swift 클러스터 성능을 향상시킵니다.
BZ#1574708
클러스터에서 OpenDaylight 인스턴스가 제거되고 다시 연결되면 인스턴스가 클러스터에 참여하지 못할 수 있습니다. 결국 노드는 클러스터에 다시 참여합니다.
이러한 상황에서 다음 작업을 수행해야 합니다. * 결함이 있는 노드를 재시작합니다. * REST 엔드포인트를 모니터링하여 클러스터 멤버가 정상인지 확인합니다. http://$ODL_IP:8081/jolokia/read/org.opendaylight.controller:Category=ShardManager,name=shard-manager-config,type=DistributedConfigDatastore * 응답에는 "true" 필드가 포함되어야 합니다.
BZ#1574725
VLAN 공급자 네트워크의 동일한 서브넷에 있는 여러 VM이 서로 다른 두 개의 컴퓨팅 노드로 예약되면 VM 간에 ARP가 제대로 실패합니다.
VM 간 ARP 패킷이 실패하므로 두 VM 간에 네트워킹이 기본적으로 없습니다.
BZ#1575023
ceph-ansible의 복잡한 ceph-keys 처리를 변경하면 /etc/ceph/ceph.client.manila.keyring 파일에서 잘못된 콘텐츠가 생성되므로 manila-share 서비스가 초기화되지 않습니다.
manila-share 서비스가 초기화되도록 하려면 다음을 수행합니다.
1) 오버클라우드 배포에 사용할 /usr/share/openstack/tripleo-heat-templates의 사본을 만듭니다.
2) 295 행의 모든 삼중 백슬래시를 단일 백슬래시로 변경하도록 …/tripleo-heat-templates/docker/services/ceph-ansible/ceph-base.yaml 파일을 편집합니다.
편집 전:
mon_cap: 'allow r, allow command \\"auth del\\\", allow command \\"auth caps\\", allow command \\"auth get\\", allow command \\"auth get\\", allow command \\"auth get-or-create\\"''
편집 후:
mon_cap: 'allow r, allow command \"auth del\", allow command \"auth caps\", allow command \"auth get\", allow command \"auth get\", allow command \"auth get\".
3) 원래 overcloud-deploy 명령에서 /usr/share/openstack-tripleo-heat 템플릿이 발생한 모든 tripleo-heat-templates 복사본에 대한 경로를 배포할 수 있습니다.
ceph 키 /etc/ceph/ceph.client.manila.keyring 파일에는 적절한 콘텐츠가 있고 manila-share 서비스가 제대로 초기화됩니다.
BZ#1575118
Ceph 릴리스 12.2.1은 각 OSD에 허용되는 최대 PG 수를 줄입니다. 하한 한도로 인해 모니터가 HEALTH_WARN 메시지를 조기에 발행할 수 있습니다.
모니터 경고 임계값이 OSD당 300개에서 200개의 PG로 감소했습니다. 200은 여전히 OSD당 100 PG의 일반적으로 권장되는 대상입니다. 이 제한은 모니터의 mon_max_pg_per_osd 옵션을 통해 조정할 수 있습니다. 이전 mon_pg_warn_max_per_osd 옵션이 제거되었습니다.
풀에서 사용하는 PG의 양을 줄일 수 없습니다. 업그레이드로 인해 기존 배포가 최대 제한에 도달하면 ceph-upgrade 단계에서 제한을 사전 업그레이드 값으로 늘릴 수 있습니다. 환경 파일에서 다음과 같이 매개변수 설정을 추가합니다.
parameter_defaults: CephConfigOverrides: mon_max_pg_per_osd: 300
설정은 ceph.conf에 적용되며 클러스터는 HEALTH_OK 상태로 유지됩니다.
BZ#1575150
OpenDaylight 클러스터 멤버가 중지되면 OpenDaylight 클러스터가 최대 30분 동안 응답하지 않을 수 있는 알려진 문제가 있습니다(실패하거나 다른 경우). 해결 방법은 클러스터가 다시 활성화될 때까지 대기합니다.
BZ#1575496
Director와 함께 외부 네트워크에 물리적 호스트 인터페이스를 사용하는 경우 인터페이스가 OVS 브리지에 연결되어 있지 않으면 OpenDaylight 설정에서 인터페이스가 트래픽을 전달하지 않습니다. 트래픽은 통과되지 않으며 이러한 유형의 구성을 피해야 합니다.
오버클라우드 외부 네트워크에 대해 NIC 템플릿에서 항상 OVS 브리지를 사용합니다. 이 브리지는 기본적으로 Director에서 "br-ex"라고 합니다(이름을 사용할 수도 있음). 외부 네트워크에 사용되는 물리적 호스트 인터페이스를 이 OVS 브리지에 연결해야 합니다.
OVS 브리지에 연결된 인터페이스를 사용하면 배포가 올바르게 작동하고 테넌트에 대한 외부 네트워크 트래픽이 올바르게 작동합니다.
BZ#1577975
OpenDaylight는 CPU 사용량이 매우 높은 기간일 수 있습니다. 이 문제는 다른 시스템 서비스에 잠재적으로 영향을 줄 수 있지만 OpenDaylight의 기능에 영향을 주지 않아야 합니다.
BZ#1579025
pacemaker가 슬레이브 노드를 승격하려고 할 때 OVN pacemaker Resource Agent(RA) 스크립트에서 승격 작업을 제대로 처리하지 않는 경우가 있습니다. 이는 마스터 ip가 노드로 이동되면 ovsdb-servers에서 RA 스크립트에 마스터로 상태를 보고하는 경우 표시됩니다. 이 문제는 업스트림에서 해결되었습니다.
문제가 발생하면 neutron 서버에서 OVN North 및 South DB 서버와 모든 Create/Update/Delete API를 neutron 서버에 연결할 수 없습니다.
ovn-dbs-bundle 리소스를 다시 시작하면 문제가 해결됩니다. 컨트롤러 노드 중 하나에서 아래 명령을 실행합니다.
"pcs 리소스 재시작 ovn-dbs-bundle"
BZ#1579417
SNAT 지원에는 테넌트 네트워크에서 사용되는 캡슐화와 관계없이 VXLAN 터널을 구성해야 합니다. 또한 VXLAN 터널 헤더가 페이로드에 추가되므로 VLAN 테넌트 네트워크를 사용할 때 MTU를 올바르게 구성해야 하며, 이로 인해 패킷이 기본 MTU(1500 Bytes)를 초과할 수 있습니다.
SNAT 트래픽이 해당 트래픽을 통과하도록 VXLAN 터널을 올바르게 구성해야 합니다. VLAN 테넌트 네트워크를 사용하는 경우 다음 방법 중 하나를 사용하여 SNAT 트래픽이 VXLAN 터널을 통해 흐름할 수 있도록 MTU를 구성합니다. * 네트워크 구성에 1450의 MTU를 사용하도록 VLAN 테넌트 기반 네트워크를 구성합니다. * NeutronGlobalPhysnetMtu heat 매개변수를 1450으로 설정합니다. 참고: 모든 플랫/VLAN 공급자 네트워크에는 1450 MTU가 있으며 바람직하지 않을 수 있습니다(특히 외부 공급자 네트워크의 경우). * 1550 이상의 MTU를 사용하여 테넌트 네트워크를 구성합니다. 여기에는 테넌트 네트워크 NIC에 대한 NIC 템플릿의 MTU 설정이 포함됩니다.
BZ#1581337
네트워크 부하 분산에 사용되는 HAProxy는 PING 유형 상태 모니터를 올바르게 지원하기 위해 버전 1.6 이상이어야 합니다.
Red Hat OpenStack Platform 13에 포함된 HAProxy 버전은 PING 유형 상태 모니터를 구성할 때 TCP 연결을 사용하는 1.6 이전 버전입니다.
BZ#1583541
SRIOV 기반 Compute 인스턴스는 다른 네트워크에 있는 경우 OVS Compute 인스턴스에 연결할 수 없습니다. 해결방법은 VLAN 프로바이더 네트워크 모두에 연결된 외부 라우터를 사용하는 것입니다.
BZ#1584518
RHOSP는 nova에서 기본적으로 DifferentHostFilter / SameHostFilter의 가용성을 구성하지 않으며 일부 테스트를 올바르게 완료하는 데 이러한 설정이 필요합니다. 따라서 여러 보안 그룹 테스트가 무작위로 실패할 수 있습니다.
이러한 테스트를 건너뛰거나 해당 필터를 nova 구성에 추가해야 합니다.
BZ#1584762
언더클라우드에서 Telemetry가 수동으로 활성화된 경우 각 노드에서 방화벽을 잘못 구성했기 때문에 hardware.*
지표가 작동하지 않습니다.
이 문제를 해결하려면 다음과 같이 언더클라우드 배포에 대한 추가 템플릿을 추가하여 컨트롤 플레인 네트워크를 사용하여 snmpd
서브넷을 수동으로 설정해야 합니다.
parameter_defaults: SnmpdIpSubnet: 192.168.24.0/24
BZ#1588186
경쟁 조건으로 인해 Open vSwitch가 Opendaylight openflowplugin에 연결되지 않습니다. 현재 이 제품의 13.z 릴리스에 대한 수정이 구현 중입니다.
BZ#1590114
언더클라우드에서 Telemetry가 수동으로 활성화된 경우 각 노드에서 방화벽을 잘못 구성했기 때문에 hardware.*
지표가 작동하지 않습니다.
이 문제를 해결하려면 다음과 같이 언더클라우드 배포에 대한 추가 템플릿을 추가하여 컨트롤 플레인 네트워크를 사용하여 snmpd
서브넷을 수동으로 설정해야 합니다.
parameter_defaults: SnmpdIpSubnet: 192.168.24.0/24
BZ#1590560
ceph-ansible 유틸리티는 생성한 동일한 노드에서 ceph-create-keys 컨테이너를 항상 제거하지는 않습니다.
이로 인해 "Error response from daemon: No such container: ceph-create-keys라는 메시지와 함께 배포에 실패할 수 있습니다. 이는 새 배포를 포함하여 ceph-ansible 실행에 영향을 미칠 수 있습니다. * * 여러 컴퓨팅 노트 또는 * 사용자 지정 역할은 ceph를 사용하는 서비스를 호스팅하는 ceph 클라이언트로 변경될 수 있습니다.
BZ#1590938
RHCS3에 OSD를 3개 이상 배포하고 pgcalc(https://access.redhat.com/labs/cephpgc)에 정의된 풀의 PG 번호를 설정하면 모든 OSD가 활성화되기 전에 ceph-ansible이 풀을 생성하므로 배포가 실패합니다.
문제를 방지하려면 기본 PG 번호를 32로 설정하고 배포가 완료되면 스토리지 전략 가이드( https://access.redhat.com/documentation/en-us/red_hat_ceph_storage/3/html/storage_strategies_guide/placement_groups_pgs#set_the_number_of_pgs 설명된 대로 PG 번호를 수동으로 올립니다.
BZ#1590939
ceph-ansible OpenStack 풀 작업에는 잘못된 컨테이너 이름이 있으므로 아직 Ceph MON 및 OSD를 배치할 수 없습니다. 표준 HCI(Computes + OSD)는 영향을 받지 않습니다.
BZ#1593290
SR-IOV 기반 네트워크 인터페이스가 연결된 게스트가 실행되고 게스트를 제거할 때 nova-compute 서비스를 재시작하고 게스트를 제거하면 더 이상 해당 노드의 SR-IOV VF를 게스트에 연결할 수 없습니다. 이는 사용 가능한 장치가 서비스 시작 시 열거되지만 장치가 게스트에 연결되어 있으므로 호스트 장치 목록에 포함되지 않기 때문입니다.
게스트를 제거한 후 'nova-compute' 서비스를 다시 시작해야 합니다. 게스트를 제거하고 서비스를 다시 시작한 후 사용 가능한 SR-IOV 장치 목록이 수정됩니다.
BZ#1593715
비보안 레지스트리 목록은 메이저 업그레이드 중에 일부 컨테이너 이미지를 가져오는 것보다 나중에 업데이트됩니다. 따라서 openstack overcloud upgrade run
명령 중에 새로 도입된 비보안 레지스트리의 컨테이너 이미지를 다운로드할 수 없습니다.
다음 해결 방법 중 하나를 사용할 수 있습니다.
옵션 A: Pacemaker에서 관리하는 컨테이너가 있는 노드에서 /etc/sysconfig/docker 파일을 수동으로 업데이트하고 새로 도입된 비보안 레지스트리를 추가합니다.
옵션 B: 업그레이드 전에 openstack overcloud deploy
명령을 실행하고 DockerInsecureRegistryAddress 매개변수가 있는 환경 파일을 사용하여 원하는 새 비보안 레지스트리 목록을 제공합니다.
업그레이드 중에 모든 컨테이너 이미지가 성공적으로 다운로드되어야 합니다.
BZ#1593757
기존 오버클라우드 배포에서 Octavia를 활성화하면 컨트롤러 노드의 방화벽 규칙이 잘못 구성되어 있으므로 Octavia API 끝점에 연결할 수 없습니다.
해결방법은 모든 컨트롤러 노드에서 방화벽 규칙을 추가하고 DROP 규칙 앞에 삽입되는지 확인합니다.
IPv4: # iptables -A INPUT -p tcp -m multiport --dports 9876 -m state --state NEW -m comment --comment "100 octavia_api_haproxy ipv4" -j ACCEPT # iptables -A INPUT -p tcp -m multiport --dports 13876 -m state --state NEW -m comment --comment "100 octavia_api_haproxy_ssl ipv4" -j ACCEPT # iptables -A INPUT -p tcp -m multiport --dports 9876,13876 -m state --state NEW -m comment --comment "120 octavia_api ipv4" -j ACCEPT
IPv6: # ip6tables -A INPUT -p tcp -m multiport --dports 9876 -m state --state NEW -m comment --comment "100 octavia_api_haproxy ipv6" -j ACCEPT # ip6tables -A INPUT -p tcp -m multiport --dports 13876 -m state --state NEW -m comment --comment "100 octavia_api_haproxy_ssl ipv6" -j ACCEPT # ip6tables -A INPUT -p tcp -m multiport --dports 9876,13876 -m state --state NEW -m comment --comment "120 octavia_api ipv6" -j ACCEPT
HAProxy를 재시작합니다.
# docker restart haproxy-bundle-docker-0
BZ#1595363
빠른 전달 업그레이드 프로세스 중에 사용자가 언더클라우드를 버전 10에서 버전 11으로 업그레이드합니다. 경우에 따라 nova-api.log에서 다음 오류를 보고할 수 있습니다.
예기치 않은 API 오류. 'nova_cell0.instances'가 존재하지 않음
다음 명령을 실행하여 이 오류를 해결할 수 있습니다.
$ sudo nova-manage api_db sync
이 문제는 중요하지 않으며 주요 방식으로 빠르게 후속 업그레이드 프로세스를 중단해서는 안 됩니다.
BZ#1790653
OpenStack Networking이 포트를 바인딩하는 방식으로 인해 DVR 환경에서 네트워크 인스턴스를 실시간 마이그레이션하면 유동 IP 주소를 사용하여 기존 연결이 끊어질 수 있습니다. 현재 RHOSP 13에는 해결방법이 없습니다. 그러나 RHOSP 14 이상 릴리스에서는 이 문제가 해결되었습니다.