搜索

1.3. 新功能及功能增强

download PDF

此版本对以下方面进行了改进。

1.3.1. Red Hat Enterprise Linux CoreOS (RHCOS)

1.3.1.1. RHCOS 现在使用 RHEL 9.4

现在,在 OpenShift Container Platform 4.16 中 RHCOS 使用 Red Hat Enterprise Linux (RHEL) 9.4。这些软件包可确保 OpenShift Container Platform 实例收到最新的修复、功能、增强功能、硬件支持和驱动程序更新。虽然作为一个延长更新支持 (EUS) 版本,OpenShift Container Platform 4.14 并不适用于这些变化,它将继续在整个生命周期中使用 RHEL 9.2 EUS 软件包。

1.3.1.2. 支持 iSCSI 引导卷

在这个版本中,您可以将 RHCOS 安装到 Small Computer Systems Interface (iSCSI) 引导设备。iSCSI 的多路径也被支持。如需更多信息,请参阅在 iSCSI 引导设备上手动安装 RHCOS,以及使用 iBFT 在 iSCSI 引导设备上安装 RHCOS

1.3.1.3. 支持使用 Intel® Virtual RAID on CPU (VROC) 的 RAID 存储

在这个版本中,您可以将 RHCOS 安装到 Intel® VROC RAID 设备。有关将 RAID 配置为 Intel® VROC 设备的更多信息,请参阅在 CPU (VROC) 数据卷中配置 Intel® Virtual RAID

1.3.2. 安装和更新

1.3.2.1. 对于 AWS 安装,Cluster API 替换了 Terraform

对于 OpenShift Container Platform 4.16,在 Amazon Web Services 上安装时使用 Cluster API 而不是 Terraform 置备集群基础架构。由于这个变化,还需要一些额外的权限。如需更多信息,请参阅 IAM 用户所需的 AWS 权限

另外,对 control plane 和计算机器的 SSH 访问不再对机器网络开放,它仅限于与 control plane 和计算机器关联的安全组。

警告

在 OpenShift Container Platform 4.16 发布时,使用 Cluster API 在 Amazon Web Services (AWS) 中将集群安装到 secret 或 top-secret 区域还没有被测试。在对安装到 secret 区域进行了测试后,本文档会做相应的更新。Network Load Balancers 对 secret 或 top secret 区域中的安全组的支持存在一个已知的问题,这会导致在这些区域中安装失败。如需更多信息,请参阅 OCPBUGS-33311

1.3.2.2. 对于 VMware vSphere 安装,Cluster API 替换了 Terraform

在 OpenShift Container Platform 4.16 中,安装程序使用 Cluster API 而不是 Terraform 在 VMware vSphere 上安装时置备集群基础架构。

1.3.2.3. 对于 Nutanix 安装,Cluster API 替换了 Terraform

在 OpenShift Container Platform 4.16 中,安装程序使用 Cluster API 而不是 Terraform 在 Nutanix 上安装时置备集群基础架构。

1.3.2.4. 对于 Google Cloud Platform (GCP) 安装,Cluster API 替换了 Terraform(技术预览)

在 OpenShift Container Platform 4.16 中,安装程序使用 Cluster API 而不是 Terraform 在 GCP 上安装时置备集群基础架构。此功能在 OpenShift Container Platform 4.16 中作为技术预览提供。要启用技术预览功能,请在安装前在 install-config.yaml 文件中设置 featureSet: TechPreviewNoUpgrade 参数。另外,在安装前将以下小节添加到 install-config.yaml 文件中,以启用 Cluster API 安装,而无需任何其他技术预览功能:

featureSet: CustomNoUpgrade
featureGates:
- ClusterAPIInstall=true

如需更多信息,请参阅可选配置参数

1.3.2.5. Ingress 功能

Ingress 功能现在是可配置的集群功能,对于 Red Hat HyperShift 是可选的。它不是可配置的,始终为独立的 OpenShift Container Platform 启用。

警告

不要禁用 Ingress 功能。OpenShift Container Platform 集群不会在禁用 Ingress 功能的情况下运行。

1.3.2.6. 使用 Assisted Installer 在 Alibaba Cloud 上安装(技术预览)

在这个版本中,OpenShift Container Platform 安装程序不再支持 Alibaba Cloud 平台上的安装程序置备的安装。您可以使用 Assisted Installer 在 Alibaba Cloud 上安装集群,它目前是一个技术预览功能。如需更多信息,请参阅在 Alibaba 云上安装

1.3.2.7. 可选的云控制器管理器集群功能

在 OpenShift Container Platform 4.16 中,您可以在安装过程中禁用云控制器管理器功能。如需更多信息,请参阅云控制器管理器功能

1.3.2.8. OpenShift Container Platform 4.16 中的 FIPS 安装要求

在这个版本中,如果安装启用了 FIPS 的集群,则必须从配置为以 FIPS 模式运行的 RHEL 9 计算机运行安装程序,且必须使用安装程序支持的 FIPS 版本。如需更多信息,请参阅 FIPS 加密的支持

1.3.2.9. VMware vSphere 的可选额外标签

在 OpenShift Container Platform 4.16 中,您可以添加最多 10 个标签来附加到 VMware vSphere 集群置备的虚拟机 (VM)。这些标签是安装程序在一个集群不再使用时用于识别和删除集群时使用的特定于集群的标签的补充。

您可以在集群创建过程中在 install-config.yaml 文件中的 VMware vSphere 虚拟机上定义标签。如需更多信息,请参阅安装程序置备的 VMware vSphere 集群的 install-config.yaml 文件示例

您可以使用机器集为现有集群上的计算或 control plane 机器定义标签。如需更多信息,请参阅为 computecontrol plane 机器集"使用机器集向机器添加标签"。

1.3.2.10. 从 OpenShift Container Platform 4.15 更新至 4.16 时所需的管理员确认

OpenShift Container Platform 4.16 使用 Kubernetes 1.29,它删除了几个已弃用的 API

集群管理员必须在从 OpenShift Container Platform 4.15 升级到 4.16 前提供手动确认。这有助于防止升级到 OpenShift Container Platform 4.16 后出现问题,防止仍然使用已删除的 API 运行工作负载、工具或于集群进行交互的组件。管理员必须针对将要删除的任何 API 评估其集群,并迁移受影响的组件,以使用适当的新 API 版本。完成此操作后,管理员可以向管理员提供确认。

所有 OpenShift Container Platform 4.15 集群都需要此管理员确认,然后才能升级到 OpenShift Container Platform 4.16。

如需更多信息,请参阅准备升级到 OpenShift Container Platform 4.16

1.3.2.11. 保护 kubeadmin 密码在控制台中显示

在这个版本中,您可以防止在安装后在控制台中显示 kubeadmin 密码,在集群创建过程中使用 --skip-password-print 标记。密码仍然可以在 auth 目录中访问。

1.3.2.12. 基于 OpenShift 的设备构建器(技术预览)

在这个版本中,提供了基于 OpenShift 的设备构建器(Appliance Builder)作为技术预览。Appliance Builder 提供了自我包含的 OpenShift Container Platform 集群安装,这意味着它不需要依赖于互联网连接或外部 registry。它是一个基于容器的实用程序,它会构建一个包含了基于代理的安装程序的磁盘镜像,然后使用它来安装多个 OpenShift Container Platform 集群。

如需更多信息,请参阅基于 OpenShift 的设备构建器用户指南

1.3.2.13. 在 AWS 的安装启用了 Bring your own IPv4 (BYOIP) 功能

在这个版本中,您可以使用 publicIpv4Pool 字段在 Amazon Web Services (AWS) 上安装时启用自己的公共 IPv4 地址 (BYOIP) 功能来分配 Elastic IP 地址 (EIPs)。您必须确保具有启用 BYOIP 所需的权限。如需更多信息,请参阅可选 AWS 配置参数

1.3.2.14. 在 Dammam (Saudi Arabia) 和 Johannesburg (South Africa) 区域部署 GCP

您可以在 Dammam、Saudi Arabia (me-central2) 区域和 Johannesburg, South Africa (africa-south1) 区域中的 Google Cloud Platform (GCP) 上部署 OpenShift Container Platform 4.16。如需更多信息,请参阅支持的 GCP 区域

1.3.2.15. 在 Google Cloud Platform (GCP) 上的 NVIDIA H100 实例类型上安装

在这个版本中,您可以在 GCP 上安装集群时,在启用了 GPU 的 NVIDIA H100 机器上部署计算节点。如需更多信息,请参阅为 GCP 测试的实例类型和 Google 文档 Accelerator-optimized machine family

1.3.3. 安装后配置

1.3.3.1. 使用 Multiarch Tuning Operator 管理多架构集群中的工作负载(技术预览)

在这个版本中,您可以使用 Multiarch Tuning Operator 在多架构集群中管理工作负载。此 Operator 增强了多架构集群中的操作体验,以及迁移到多架构计算配置的单架构集群。它实施 ClusterPodPlacementConfig 自定义资源(CR) 以支持架构感知的工作负载调度。

如需更多信息,请参阅使用 Multiarch Tuning Operator 在多架构集群中管理工作负载

重要

Multiarch Tuning Operator 只是一个技术预览功能。它不支持带有受限网络场景的集群。

1.3.3.2. 支持将 64 位 x86 计算机器添加到具有 64 位 ARM control plane 机器的集群中

此功能支持将 64 位 x86 计算机器添加到具有 64 位 ARM control plane 机器的多架构集群中。在这个版本中,您可以将 64 位 x86 计算机器添加到一个使用 64 位 ARM control plane 机器并且已包含了 64 位 ARM 计算机器的集群。

1.3.3.3. 支持安装带有多有效负载的基于代理的安装程序集群

此功能支持带有有效负载的基于代理的安装程序集群。在安装了带有有效负载的基于代理的安装程序集群后,您可以将具有不同架构的计算机器添加到集群中。

1.3.4. Web 控制台

1.3.4.1. 对法语和西班牙语的支持

在这个版本中,Web 控制台支持法语和西班牙语。您可以从 User Preferences 页面上的 Language 列表更新 web 控制台中的语言。

1.3.4.2. 4.16 现已弃用了 PatternFly 4

在这个版本中,Web 控制台中已弃用了 Patternfly 4 和 React Router 5。所有相关插件都应尽快迁移到 Patternfly 5 和 React Router 6。

1.3.4.3. Administrator perspective (管理员视角)

此发行版本对 web 控制台的 Administrator 视角包括以下更新:

  • 在 OperatorHub 中,为 Infrastructure features 过滤添加了 Google Cloud Platform (GCP) 令牌验证(Auth Token GCP)和一个可配置 TLS ciphers
  • 新的快速启动(I mpersoning the system:admin 用户 )提供了模拟 system:admin 用户的信息。
  • pod 的最后一个终止状态现在可以在 容器列表和容器 详情页面中查看
  • 现在,在 Groups 和 Group 详情页中提供了 Impersonate Group 操作,而无需搜索适当的 RoleBinding
1.3.4.3.1. OpenShift Container Platform Web 控制台中的节点 CSR 处理

在这个版本中,OpenShift Container Platform Web 控制台支持节点证书签名请求(CSR)。

1.3.4.3.2. 跨存储类克隆和恢复

在这个版本中,您可以在完成克隆或恢复操作时从同一供应商选择一个存储类。这种灵活性允许在具有不同副本数的存储类之间进行无缝转换。例如,从具有 3 个副本的存储类移到 2/1 副本。

1.3.4.4. Developer Perspective (开发者视角)

此发行版本在 web 控制台的 Developer 视角包括以下更新:

  • 搜索时,会在 Search 页面上的 Resources 列表中添加一个新部分,以显示最近搜索的项目,按搜索的顺序显示。
  • 在这个版本中,您可以折叠并展开 Getting started 部分。
1.3.4.4.1. 控制台 Telemetry

在这个版本中,如果也启用了集群遥测,则启用匿名用户分析。这是大多数集群的默认设置,红帽提供了如何使用 Web 控制台的指标。集群管理员可以在每个集群中更新它,并选择选择、选择或禁用前端遥测。

1.3.5. OpenShift CLI (oc)

1.3.5.1. oc-mirror 插件 v2 (技术预览)

OpenShift Container Platform 的 oc-mirror 插件 v2 包括新的特性和功能,改进 Operator 镜像和其他 OpenShift Container Platform 内容的镜像过程。

以下是 oc-mirror 插件 v2 中的主要改进和功能:

  • 自动生成 IDMS 和 ITMS 对象

    oc-mirror 插件 v2 每次运行后自动生成 ImageDigestMirrorSet (IDMS)和 ImageTagMirrorSet (ITMS)对象的完整列表。这些对象替换 oc-mirror 插件 v1 中使用的 ImageContentSourcePolicy (ICSP)。此功能增强无需手动合并并清理操作器镜像,并确保包含所有必要的镜像。

  • CatalogSource 对象

    CatalogSource 对象创建,其中插件现在为所有相关目录索引生成 CatalogSource 对象,以便将 oc-mirror 的输出工件应用到断开连接的集群的应用程序。

  • 改进了验证

    oc-mirror 插件 v2 验证镜像设置配置中指定的完整镜像集是否已镜像到 registry,无论镜像是否之前被镜像。这样可确保全面可靠的镜像。

  • 缓存系统

    新的缓存系统通过仅将新镜像合并到存档中来替换元数据,从而维护最小归档大小。这会优化存储并提高性能。

  • 按日期选择 的镜像:

    用户现在可以根据镜像日期生成镜像存档,允许选择包含新镜像。

  • 增强的镜像删除控制

    Delete 功能的引入可替换自动修剪功能,为用户提供对镜像删除更大的控制。

  • 支持 registry.conf

    oc-mirror 插件 v2 支持 registry.conf 文件,它有助于使用相同的缓存镜像到多个 enclaves。这提高了管理已镜像镜像的灵活性和效率。

  • Operator 版本过滤

    用户可以根据捆绑包名称过滤 Operator 版本,从而更加精确地控制镜像流程中包含的版本。

oc-mirror v1 和 v2 之间的区别

虽然 oc-mirror 插件 v2 提供了很多改进,但 oc-mirror 插件 v1 中的一些功能还没有出现在 oc-mirror 插件 v2 中。

  • Helm Charts:oc-mirror 插件 v2 中不存在 Helm chart。
  • ImageSetConfig v1alpha2: API 版本 v1alpha2 不可用,用户必须更新到 v2alpha1
  • 存储元数据(storageConfig): oc-mirror 插件 v2 ImageSetConfiguration 没有使用存储元数据。
  • 自动修剪 :使用 oc-mirror 插件 v2 中的新的 Delete 功能替换。
  • 发行签名:发行签名不会在 oc-mirror 插件 v2 中生成。
  • 有些命令:oc-mirror 插件 v2 中不提供 initlistdescribe 命令。

使用 oc-mirror 插件 v2

要使用 oc-mirror 插件 v2,请在 oc-mirror 命令行中添加-- v2 标志。

oc-mirror OpenShift CLI (oc)插件用于将所有所需的 OpenShift Container Platform 内容和其他镜像(mirror)镜像到您的镜像 registry,简化了断开连接的集群的维护。

1.3.5.2. oc adm upgrade status 命令简介(技术预览)

在以前的版本中,oc adm upgrade 命令提供有关集群更新状态的有限信息。此发行版本添加了 oc adm upgrade status 命令,该命令与 oc adm upgrade 命令分离状态信息,并提供有关集群更新的特定信息,包括 control plane 和 worker 节点更新的状态。

1.3.5.3. 对重复的资源短名称的警告

在这个版本中,如果您使用其短名称查询资源,如果集群中存在多个具有相同短名称的自定义资源定义(CRD),则 OpenShift CLI (oc)会返回警告。

警告示例

Warning: short name "ex" could also match lower priority resource examples.test.com

1.3.5.4. 删除资源时需要确认的新标志(技术预览)

此发行版本为 oc delete 命令引入了一个新的 --interactive 标志。当 --interactive 标志被设置为 true 时,只有在用户确认删除时才会删除该资源。这个标志作为技术预览提供。

1.3.6. IBM Z 和 IBM LinuxONE

在这个版本中,IBM Z® 和 IBM® LinuxONE 与 OpenShift Container Platform 4.16 兼容。您可以使用 z/VM、LPAR 或 Red Hat Enterprise Linux (RHEL) 基于内核的虚拟机 (KVM) 执行安装。有关安装说明,请参阅准备在 IBM Z 和 IBM LinuxONE 上安装

重要

Compute 节点必须运行 Red Hat Enterprise Linux CoreOS (RHCOS)。

IBM Z 和 IBM LinuxONE 主要改进

OpenShift Container Platform 4.16 上的 IBM Z® 和 IBM® LinuxONE 版本为 OpenShift Container Platform 组件和概念增加了改进和新功能。

此发行版本引进了对 IBM Z® 和 IBM® LinuxONE 中的以下功能的支持:

  • 基于代理的 RHEL KVM 安装程序 ISO 引导
  • Ingress Node Firewall Operator
  • LPAR 中的多架构计算机器
  • z/VM 和 LPAR 的安全引导

1.3.7. IBM Power

IBM Power® 现在与 OpenShift Container Platform 4.16 兼容。有关安装说明,请参阅以下文档:

重要

Compute 节点必须运行 Red Hat Enterprise Linux CoreOS (RHCOS)。

IBM Power 主要改进

OpenShift Container Platform 4.16 上的 IBM Power® 发行版本为 OpenShift Container Platform 组件添加了改进和新功能。

此发行版本引进了对 IBM Power® 的以下功能的支持:

  • CPU Manager
  • Ingress Node Firewall Operator

IBM Power、IBM Z 和 IBM LinuxONE 支持列表

从 OpenShift Container Platform 4.14 开始,延长更新支持 (EUS) 已扩展到 IBM Power® 和 IBM Z® 平台。如需更多信息,请参阅 OpenShift EUS 概述

表 1.1. OpenShift Container Platform 功能
功能IBM Power®IBM Z® 和 IBM® LinuxONE

备用身份验证供应商

支持

支持

基于代理的安装程序

支持

支持

支持的安装程序

支持

支持

使用 Local Storage Operator 自动设备发现

不支持

支持

使用机器健康检查功能自动修复损坏的机器

不支持

不支持

IBM Cloud® 的云控制器管理器。

支持

不支持

在节点上控制过量使用和管理容器密度

不支持

不支持

Cron 作业

支持

支持

Descheduler

支持

支持

Egress IP

支持

支持

加密数据存储在 etcd 中

支持

支持

FIPS 加密

支持

支持

Helm

支持

支持

Pod 横向自动扩展

支持

支持

托管 control plane(技术预览)

支持

支持

IBM 安全执行

不支持

支持

IBM Power® Virtual Server 的安装程序置备的基础架构支持

支持

不支持

在单一节点上安装

支持

支持

IPv6

支持

支持

用户定义项目的监控

支持

支持

多架构计算节点

支持

支持

多架构 control plane

支持

支持

多路径(Multipathing)

支持

支持

网络绑定磁盘加密 - 外部 Tang 服务器

支持

支持

非易失性内存表达驱动器(NVMe)

支持

不支持

NX-gzip for Power10 (硬件加速)

支持

不支持

oc-mirror 插件

支持

支持

OpenShift CLI (oc) 插件

支持

支持

Operator API

支持

支持

OpenShift Virtualization

不支持

不支持

OVN-Kubernetes,包括 IPsec 加密

支持

支持

PodDisruptionBudget

支持

支持

精度时间协议 (PTP) 硬件

不支持

不支持

Red Hat OpenShift Local

不支持

不支持

Scheduler 配置集

支持

支持

安全引导

不支持

支持

流控制传输协议 (SCTP)

支持

支持

支持多个网络接口

支持

支持

openshift-install 工具支持 IBM Power® 上的各种 SMT 级别 (Hardware Acceleration)

支持

支持

三节点集群支持

支持

支持

拓扑管理器

支持

不支持

SCSI 磁盘中的 z/VM 模拟 FBA 设备

不支持

支持

4K FCP 块设备

支持

支持

表 1.2. 持久性存储选项
功能IBM Power®IBM Z® 和 IBM® LinuxONE

使用 iSCSI 的持久性存储

支持 [1]

支持 [1],[2]

使用本地卷 (LSO) 的持久性存储

支持 [1]

支持 [1],[2]

使用 hostPath 的持久性存储

支持 [1]

支持 [1],[2]

使用 Fibre Channel 持久性存储

支持 [1]

支持 [1],[2]

使用 Raw Block 的持久性存储

支持 [1]

支持 [1],[2]

使用 EDEV/FBA 的持久性存储

支持 [1]

支持 [1],[2]

  1. 必须使用 Red Hat OpenShift Data Foundation 或其他支持的存储协议来置备持久性共享存储。
  2. 必须使用本地存储(如 iSCSI、FC 或者带有 DASD、FCP 或 EDEV/FBA 的 LSO)来置备持久性非共享存储。
表 1.3. Operator
功能IBM Power®IBM Z® 和 IBM® LinuxONE

cert-manager Operator for Red Hat OpenShift

支持

支持

Cluster Logging Operator

支持

支持

Cluster Resource Override Operator

支持

支持

Compliance Operator

支持

支持

Cost Management Metrics Operator

支持

支持

File Integrity Operator

支持

支持

HyperShift Operator

技术预览

技术预览

IBM Power® Virtual Server Block CSI Driver Operator

支持

不支持

Ingress Node Firewall Operator

支持

支持

Local Storage Operator

支持

支持

MetalLB Operator

支持

支持

Network Observability Operator

支持

支持

NFD Operator

支持

支持

NMState Operator

支持

支持

OpenShift Elasticsearch Operator

支持

支持

Vertical Pod Autoscaler Operator

支持

支持

表 1.4. Multus CNI 插件
功能IBM Power®IBM Z® 和 IBM® LinuxONE

Bridge

支持

支持

Host-device

支持

支持

IPAM

支持

支持

IPVLAN

支持

支持

表 1.5. CSI 卷
功能IBM Power®IBM Z® 和 IBM® LinuxONE

克隆

支持

支持

扩展

支持

支持

Snapshot

支持

支持

1.3.8. 认证和授权

1.3.8.1. 在现有集群中启用 Microsoft Entra Workload ID

在本发行版本中,您可以启用 Microsoft Entra Workload ID,以便在现有 Microsoft Azure OpenShift Container Platform 集群上使用简短凭证。此功能现在在 OpenShift Container Platform 的 4.14 和 4.15 版本中被支持。如需更多信息,请参阅启用基于令牌的身份验证

1.3.9. 网络

1.3.9.1. OpenShift SDN 网络插件会阻止将来的主要升级

作为 OpenShift Container Platform 的一部分,作为唯一支持的网络插件,从 OpenShift Container Platform 4.16 开始,如果集群使用 OpenShift SDN 网络插件,在没有迁移到 OVN-Kubernetes 的情况下,您无法升级到将来的 OpenShift Container Platform 主版本。有关迁移到 OVN-Kubernetes 的更多信息,请参阅从 OpenShift SDN 网络插件 迁移。

如果尝试升级,Cluster Network Operator 会报告以下状态:

- lastTransitionTime: "2024-04-11T05:54:37Z"
  message: Cluster is configured with OpenShiftSDN, which is not supported in the
    next version. Please follow the documented steps to migrate from OpenShiftSDN
    to OVN-Kubernetes in order to be able to upgrade. https://docs.openshift.com/container-platform/4.16/networking/ovn_kubernetes_network_provider/migrate-from-openshift-sdn.html
  reason: OpenShiftSDNConfigured
  status: "False"
  type: Upgradeable

1.3.9.2. 双 NIC Intel E810 Westport Channel 作为 PTP grandmaster 时钟(正式发布)

linuxptp 服务配置为双 Intel E810 Westport Channel 网络接口控制器(NIC)的 grandmaster 时钟(T-GM)现在是 OpenShift Container Platform 中的通用功能。主机系统时钟从连接到 Global Navigation Satellite Systems (GNSS)时间源的 NIC 同步。第二个 NIC 同步到由连接到 GNSS 的 NIC 提供的 1PPS 时间输出。如需更多信息,请参阅 将 linuxptp 服务配置为双 E810 Westport Channel NIC 的 grandmaster 时钟

1.3.9.3. 带有高可用性系统时钟的双 NIC Intel E810 PTP 边界时钟(正式发布)

您可以将 linuxptp 服务 ptp4lphc2sys 配置为双 PTP 边界时钟 (T-BC) 的高可用性 (HA) 系统时钟。

如需更多信息,请参阅 将 linuxptp 配置为双 NIC Intel E810 PTP 边界时钟的高可用性系统时钟

1.3.9.4. 配置 pod 放置以检查网络连接

要定期测试集群组件之间的网络连接,Cluster Network Operator (CNO)会创建 network-check-source 部署以及 network-check-target 守护进程集。在 OpenShift Container Platform 4.16 中,您可以通过设置节点选择器并运行源和目标 pod 来检查网络连接来配置节点。如需更多信息,请参阅 验证到端点的连接

1.3.9.5. 为一个网络安全组(NSG)规则定义多个 CIDR 块

在这个版本中,在 Microsoft Azure 上托管的 OpenShift Container Platform 集群的 NSG 中更有效地处理 IP 地址和范围。因此,使用允许的SourceRanges 字段(从大约 1000 到 4000 CIDR)中,Microsoft Azure 集群中的所有 Ingress Controller 的最大无类别域间路由(CIDR)限制最大限制。

1.3.9.6. 在 Nutanix 上从 OpenShift SDN 迁移到 OVN-Kubernetes

在这个版本中,在 Nutanix 平台上支持从 OpenShift SDN 网络插件迁移到 OVN-Kubernetes。如需更多信息,请参阅 迁移到 OVN-Kubernetes 网络插件

1.3.9.7. 改进了 CoreDNS 和出口防火墙之间的集成(技术预览)

在这个版本中,OVN-Kubernetes 使用新的 DNSNameResolver 自定义资源来跟踪出口防火墙规则中的 DNS 记录,并作为技术预览提供。此自定义资源支持同时使用通配符 DNS 名称和常规 DNS 名称,并允许访问 DNS 名称,无论与其更改相关联的 IP 地址是什么。

如需更多信息,请参阅 增强 DNS 解析和解析通配符域名

1.3.9.8. SR-IOV 网络策略更新过程中并行节点排空

在这个版本中,您可以将 SR-IOV Network Operator 配置为在网络策略更新过程中并行排空节点。并行排空节点的选项可以更快地推出 SR-IOV 网络配置。您可以使用 SriovNetworkPoolConfig 自定义资源配置并行节点排空,并在 Operator 可以并行排空池中定义最大节点数量。

如需更多信息,请参阅在 SR-IOV 网络策略更新过程中配置并行节点排空

1.3.9.9. SR-IOV Network Operator 不再自动创建 SriovOperatorConfig CR

自 OpenShift Container Platform 4.16 起,SR-IOV Network Operator 不再自动创建一个 SriovOperatorConfig 自定义资源(CR)。使用 配置 SR-IOV Network Operator 中的步骤创建 SriovOperatorConfig CR。

1.3.9.10. 支持双标记数据包(QinQ)

此发行版本引入了 802.1Q-in-802.1Q,也称为 QinQ 支持。QinQ 引入了第二个 VLAN 标签,其中服务提供商为其使用指定外部标签,提供它们的灵活性,而内部标签则保留给客户的 VLAN 专用。当数据包中存在两个 VLAN 标签时,外部 VLAN 标签可以是 802.1Q 或 802.1ad。内部 VLAN 标签必须始终是 802.1Q。

如需更多信息,请参阅为启用 SR-IOV 的工作负载配置 QinQ 支持

1.3.9.11. 为内部基础架构配置用户管理的负载均衡器

在这个版本中,您可以在任何内部基础架构上配置 OpenShift Container Platform 集群,如裸机、VMware vSphere、Red Hat OpenStack Platform (RHOSP)或 Nutanix,以使用用户管理的负载均衡器来代替默认负载均衡器。对于此配置,您必须在集群的 install-config.yaml 文件中指定 loadBalancer.type: UserManaged

有关裸机基础架构上此功能的更多信息,请参阅为用户管理的负载均衡器的服务请参阅为 OpenShift 安装设置环境 中的服务

1.3.9.12. 检测和警告 iptables

在这个版本中,如果您使用 iptables 规则的集群中 pod,会发出以下事件信息来警告将来的弃用:

This pod appears to have created one or more iptables rules. IPTables is deprecated and will no longer be available in RHEL 10 and later. You should consider migrating to another API such as nftables or eBPF.

如需更多信息,请参阅开始使用 nftables。如果您正在运行第三方软件,请检查您的厂商以确保它们很快提供基于 nftables 的版本。

1.3.9.13. OpenShift Container Platform 服务的 Ingress 网络流

在这个版本中,您可以查看 OpenShift Container Platform 服务的入口网络流。您可以使用这些信息来管理网络的入口流量,并提高网络安全性。

如需更多信息,请参阅 OpenShift Container Platform 网络流列表

1.3.9.14. 修补现有的双栈网络

在这个版本中,您可以通过修补集群基础架构,将 API 和 Ingress 服务的 IPv6 虚拟 IP (VIP)添加到现有的双栈集群中。

如果您已经将集群升级到 OpenShift Container Platform 4.16,且您需要将单堆栈集群网络转换为双栈集群网络,则必须在 YAML 配置补丁文件中为集群指定以下内容:

  • 第一个 machineNetwork 配置中 API 和 Ingress 服务的 IPv4 网络。
  • 第二个 machineNetwork 配置中的 API 和 Ingress 服务的 IPv6 网络。

如需更多信息,请参阅 转换到 IPv4/IPv6 双栈网络 中的 转换为双栈网络

1.3.9.15. MetalLB 和 FRR-K8s 集成(技术预览)

此发行版本引进了 FRR-K8s,它是基于 Kubernetes 的 DaemonSet,它以兼容 Kubernetes 的方式公开 FRR API 的子集。作为集群管理员,您可以使用 FRRConfiguration 自定义资源(CR)将 MetalLB Operator 配置为使用 FRR-K8s 守护进程集作为后端。您可以使用它来运行 FRR 服务,如接收路由。

如需更多信息,请参阅配置 MetalLB 和 FRR-K8s 的集成

1.3.9.16. 使用外部受管证书创建路由(技术预览)

在这个版本中,OpenShift Container Platform 路由可以使用第三方证书管理解决方案来配置,使用路由 API 中的 .spec.tls.externalCertificate 字段。这可让您通过 secret 引用外部管理的 TLS 证书,通过消除手动证书管理来简化流程。通过使用外部受管证书,您可以减少错误,确保证书更新过程,并使 OpenShift 路由器能够及时提供更新的证书。如需更多信息 ,请参阅使用外部管理的证书创建路由。

1.3.9.17. AdminNetworkPolicy 已正式发布

此功能提供两个新的 API,即 AdminNetworkPolicy (ANP)和 BaselineAdminNetworkPolicy (BANP)。在创建命名空间前,集群管理员可以使用 ANP 和 BANP 应用集群范围的网络策略并保护整个集群。由于它是集群范围的,因此 ANP 提供了一种解决方案,以便大规模管理其网络的安全性,而无需在每个命名空间中复制其网络策略。

如需更多信息,请参阅 转换到 IPv4/IPv6 双栈网络 中的 转换为双栈网络

1.3.9.18. 实时迁移到 OVN-Kubernetes 网络插件

在以前的版本中,当从 OpenShift SDN 迁移到 OVN-Kubernetes 时,唯一可用的选项是 离线 迁移方法。这个过程包括一些停机时间,在此期间集群无法访问。

此发行版本引入了 实时迁移 方法。实时迁移方法是在不中断服务的情况下将 OpenShift SDN 网络插件及其网络配置、连接和相关资源迁移到 OVN-Kubernetes 网络插件的过程。它可用于 OpenShift Container Platform、Red Hat OpenShift Dedicated、Red Hat OpenShift Service on AWS 和 Microsoft Azure Red Hat OpenShift 部署类型。它不适用于 HyperShift 部署类型。这个迁移方法对于需要持续服务可用性的部署类型非常重要,并具有以下优点:

  • 持续服务可用性
  • 最小化停机时间
  • 自动节点重新引导
  • 从 OpenShift SDN 网络插件无缝过渡到 OVN-Kubernetes 网络插件

迁移到 OVN-Kubernetes 旨在是一个单向过程。

如需更多信息,请参阅 实时迁移到 OVN-Kubernetes 网络插件概述

1.3.9.19. 使用 Whereabouts 进行多租户网络的重叠 IP 配置

在以前的版本中,无法配置相同的 CIDR 范围两次,并让 Whereabouts CNI 插件单独分配 IP 地址。这个限制会导致在多租户环境中出现问题,不同的组可能需要选择重叠的 CIDR 范围。

在这个版本中,Whereabouts CNI 插件通过包含 network_name 参数来支持重叠的 IP 地址范围。管理员可以使用 network_name 参数在单独的 NetworkAttachmentDefinition 中多次配置相同的 CIDR 范围,这样可为每个范围启用独立的 IP 地址分配。

此功能还包括增强的命名空间处理,在适当的命名空间中存储 IPPool 自定义资源(CR),并在 Multus 允许时支持跨命名空间。这些改进在多租户环境中提供更大的灵活性和管理功能。

有关此功能的更多信息,请参阅使用 Whereabouts 进行动态 IP 地址分配配置

1.3.9.20. 支持更改 OVN-Kubernetes 网络插件内部 IP 地址范围

如果使用 OVN-Kubernetes 网络插件,您可以配置传输、加入和伪装子网。在集群安装过程中或之后,可以配置传输和加入子网。伪装子网必须在安装过程中配置,且之后无法更改。子网默认值为:

  • 传输子网 :100.88.0.0/16fd97::/64
  • 加入子网:100. 64.0.0/16 和 fd98::/64
  • masquerade subnet: 169.254.169.0/29fd69::/125

有关这些配置字段的更多信息,请参阅 Cluster Network Operator 配置对象。有关在现有集群中配置传输和加入子网的更多信息,请参阅配置 OVN-Kubernetes 内部 IP 地址子网。

1.3.9.21. IPsec 遥测

Telemetry 和 Insights Operator 会在 IPsec 连接上收集遥测功能。如需更多信息,请参阅 显示 Telemetry 收集的数据

1.3.10. Storage

1.3.10.1. HashiCorp Vault 现在可用于 Secrets Store CSI Driver Operator (技术预览)

现在,您可以使用 Secrets Store CSI Driver Operator 将 secret 从 HashiCorp Vault 挂载到 OpenShift Container Platform 中的 Container Storage Interface (CSI)卷。Secrets Store CSI Driver Operator 作为技术预览提供。

有关可用 机密存储提供程序的完整列表,请参阅 Secret 存储提供程序

有关使用 Secrets Store CSI Driver Operator 从 HashiCorp Vault 挂载 secret 的详情,请参考 从 HashiCorp Vault 挂载 secret

1.3.10.2. Microsoft Azure File 支持的卷克隆(技术预览)

OpenShift Container Platform 4.16 引入了 Microsoft Azure File Container Storage Interface (CSI) Driver Operator 的卷克隆作为技术预览功能。卷克隆会复制现有的持久性卷(PV),以帮助防止 OpenShift Container Platform 中的数据丢失。您还可以像使用任何标准卷一样使用卷克隆。

如需更多信息,请参阅 Azure File CSI Driver OperatorCSI 卷克隆

1.3.10.3. 节点扩展 Secret 已正式发布

节点扩展 Secret 功能允许集群扩展挂载卷的存储,即使访问这些卷也需要 secret (例如,用于访问存储区域网络(SAN) fabric)的凭证来执行节点扩展操作。OpenShift Container Platform 4.16 正式发布(GA)支持此功能。

1.3.10.4. 更改 vSphere CSI 最大快照数已正式发布

VMware vSphere Container Storage Interface (CSI)中的默认快照数是每个卷的默认最多快照数。在 OpenShift Container Platform 4.16 中,您可以将这个最大快照数量改为每个卷最多 32 个。您还可以精细控制 vSAN 和虚拟磁盘数据存储的最大快照数量。OpenShift Container Platform 4.16 正式发布(GA)支持此功能。

如需更多信息,请参阅 更改 vSphere 的最大快照数

1.3.10.5. 持久性卷最后一个阶段转换时间参数(技术预览)

在 OpenShift Container Platform 4.16 中,引入了一个新的参数 LastPhaseTransitionTime,它有一个时间戳,每次持久性卷(PV)转换为不同的阶段(pv.Status.Phase)时都会更新。此功能以技术预览状态发布。

1.3.10.6. 使用 CIFS/SMB CSI Driver Operator 的持久性存储(技术预览)

OpenShift Container Platform 能够置备持久性卷(PV),并带有通用互联网文件系统(CIFS) dialect/Server Message Block (SMB)协议的 Container Storage Interface (CSI)驱动程序。管理此驱动程序的 CIFS/SMB CSI Driver Operator 处于技术预览状态。

如需更多信息,请参阅 CIFS/SMB CSI Driver Operator

1.3.10.7. 带有 SELinux 上下文挂载的 RWOP 已正式发布

OpenShift Container Platform 4.14 引入了一个新的访问模式,它带有技术预览状态用于持久性卷(PV)和持久性卷声明(PVC),名为 ReadWriteOncePod (RWOP)。RWOP 只能在单个节点上的单个 pod 中使用,与多个 pod 可以在单个节点上使用 PV 或 PVC 的现有 ReadWriteOnce 访问模式。如果驱动程序启用它,RWOP 将使用 PodSpec 或容器中设置的 SELinux 上下文挂载,它允许驱动程序使用正确的 SELinux 标签直接挂载卷。这消除了递归重新标记卷的需求,pod 启动可能会显著提高。

在 OpenShift Container Platform 4.16 中,此功能已正式发布。

如需更多信息,请参阅 访问模式

1.3.10.8. vSphere CSI Driver 3.1 更新了 CSI 拓扑要求

要在多zonal 集群中支持 VMware vSphere Container Storage Interface (CSI)卷置备和使用,部署应该与 CSI 驱动程序施加的某些要求匹配。这些要求已从 3.1.0 开始改变,虽然 OpenShift Container Platform 4.16 接受旧的和新的标记方法,但您应该使用新的标记方法,因为 VMware vSphere 认为是无效的配置。要防止问题,您不应该使用旧的标记方法。

如需更多信息,请参阅 vSphere CSI 拓扑要求

1.3.10.9. 支持配置 thick-provisioned 存储

此功能为配置厚置备的存储提供支持。如果您在 LVMCluster 自定义资源(CR)中排除 deviceClasses.thinPoolConfig 字段,逻辑卷是厚置备的。使用厚置备的存储包括以下限制:

  • 不支持卷克隆。
  • 不支持 VolumeSnapshotClass。因此,不支持 CSI 快照。
  • 不支持过度配置。因此,PVC 置备的容量会立即从卷组中减少。
  • 不支持精简指标。厚置备的设备只支持卷组指标。

有关配置 LVMCluster CR 的详情,请参考 关于 LVMCluster 自定义资源

1.3.10.10. 当 LVMCluster 自定义资源中没有配置设备选择器时,支持新的警告信息

当您没有在 LVMCluster 自定义资源(CR)中配置 deviceSelector 字段时,这个版本提供了一个新的警告信息。

LVMCluster CR 支持一个新的字段 deviceDiscoveryPolicy,它表示是否配置了 deviceSelector 字段。如果没有配置 deviceSelector 字段,LVM Storage 会自动将 deviceDiscoveryPolicy 字段设置为 RuntimeDynamic。否则,deviceDiscoveryPolicy 字段被设置为 Preconfigured

不建议从 LMVCluster CR 中排除 deviceSelector 字段。有关没有配置 deviceSelector 字段的限制的更多信息,请参阅关于在卷组中添加设备

1.3.10.11. 支持向卷组添加加密设备

此功能支持将加密设备添加到卷组。您可以在 OpenShift Container Platform 安装过程中在集群节点上启用磁盘加密。加密设备后,您可以在 LVMCluster 自定义资源的 deviceSelector 字段中指定 LUKS 加密设备的路径。有关磁盘加密的详情,请参阅 关于磁盘加密和配置磁盘加密和镜像https://docs.redhat.com/en/documentation/openshift_container_platform/4.16/html-single/installing/#installation-special-config-encrypt-disk_installing-customizing

有关向卷组添加设备的更多信息,请参阅关于在卷组中添加设备

1.3.11. Operator 生命周期

1.3.11.1. Operator API 重命名为 ClusterExtension (技术预览)

Operator Lifecycle Manager (OLM) 1.0 的早期技术预览阶段引入了一个新的 Operator API,由 Operator Controller 组件以 operator.operators.operatorframework.io 提供。在 OpenShift Container Platform 4.16 中,这个 API 被重命名为 ClusterExtension,为 OLM 1.0 的这个技术预览阶段提供 clusterextension.olm.operatorframework.io

此 API 仍然通过 registry+v1 捆绑包格式简化安装的扩展管理,其中包括通过 registry+v1 捆绑包格式的 Operator,方法是将面向用户的 API 整合到单个对象中。重命名至 ClusterExtension 地址,如下所示:

  • 更准确地反映扩展集群功能的简化功能
  • better 代表更灵活的打包格式
  • 集群前缀明确表示 Cluster Extension 对象是集群范围的,与旧的 OLM 的更改,其中 Operator 可以是命名空间范围的或集群范围的

如需更多信息,请参阅 Operator Controller

重要

目前,OLM 1.0 支持安装满足以下条件的扩展:

  • 扩展必须使用 AllNamespaces 安装模式。
  • 扩展不能使用 Webhook。

使用 Webhook 或以单个或指定命名空间集合的集群扩展无法安装。

1.3.11.2. 改进了 Operator Lifecycle Manager (OLM) 1.0 中集群扩展的状态条件消息和弃用通知(技术预览)

在这个版本中,OLM 1.0 显示已安装集群扩展的以下状态条件信息:

  • 特定的捆绑包名称
  • 已安装的版本
  • 改进了健康报告
  • 软件包、频道和捆绑包的弃用通知

1.3.11.3. 支持 OLM 1.0 中的旧 OLM 升级边缘(技术预览)

在为已安装的集群扩展决定升级边缘时,Operator Lifecycle Manager (OLM) 1.0 支持从 OpenShift Container Platform 4.16 开始的传统 OLM 语义。这个支持遵循旧的 OLM 的行为,包括 替换跳过、和 skipRange 指令,但有一些区别。

通过支持传统的 OLM 语义,OLM 1.0 现在从目录中准确遵循升级图表。

注意

OpenShift Container Platform 4.15 中引入了对语义版本(semver)升级限制的支持,但在这个技术预览阶段禁用在 4.16 中。

如需更多信息,请参阅升级 约束语义

1.3.12. Builds

未经身份验证的用户已从 system:webhook 角色绑定中删除

在这个版本中,未经身份验证的用户不再能够访问 system:webhook 角色绑定。在 OpenShift Container Platform 4.16 之前,未经身份验证的用户可以访问 system:webhook 角色绑定。为未经身份验证的用户更改此访问权限会添加额外的安全层,并仅在需要时供用户启用。这个变化适用于新集群,以前的集群不受影响。

在有些用例中,您可能希望允许未经身份验证的用户特定命名空间的 system:webhook 角色绑定。system:webhook 集群角色允许用户触发不使用 OpenShift Container Platform 身份验证机制的外部系统的构建,如 GitHub、GitLab 和 Bitbucket。集群管理员可以授予未经身份验证的用户访问 system:webhook 角色绑定,以便于这个用例。

重要

在修改未经身份验证的访问时,始终验证符合您机构的安全标准。

要授予未经身份验证的用户访问特定命名空间中的 system:webhook 角色绑定,请参阅 将未经身份验证的用户添加到 system:webhook 角色绑定

1.3.13. Machine Config Operator

1.3.13.1. 未使用的呈现机器配置的垃圾回收

在这个版本中,您可以垃圾回收未使用的呈现机器配置。通过使用 oc adm prune renderedmachineconfigs 命令,您可以查看未使用的渲染机器配置,决定要删除的机器配置,然后批量删除您不再需要的渲染机器配置。具有太多机器配置可能会导致机器配置混淆,并有助于提高磁盘空间和性能问题。如需更多信息,请参阅管理未使用的呈现的机器配置

1.3.13.2. 节点中断策略(技术预览)

默认情况下,当您对 MachineConfig 对象中的参数进行某些更改时,Machine Config Operator (MCO)会排空并重启与该机器配置关联的节点。但是,您可以在 MCO 命名空间中创建节点中断策略,该策略定义了一组 Ignition 配置对象更改,这些配置对象对工作负载只需要少或不会中断。如需更多信息,请参阅使用节点中断策略来最大程度降低机器配置变化的中断

1.3.13.3. 集群 RHCOS 镜像分层(技术预览)

使用 Red Hat Enterprise Linux CoreOS (RHCOS)镜像分层,您现在可以直接在集群中自动构建自定义分层镜像,作为技术预览功能。在以前的版本中,您需要在集群之外构建自定义分层镜像,然后将镜像拉取到集群中。您可以通过将额外镜像分层到基础镜像,使用镜像层功能来扩展基本 RHCOS 镜像的功能。如需更多信息,请参阅 RHCOS 镜像分层

1.3.13.4. 更新引导镜像(技术预览)

默认情况下,MCO 不会删除它用来启动 Red Hat Enterprise Linux CoreOS (RHCOS)节点的引导镜像。因此,集群中的引导镜像不会随集群一起更新。现在,您可以将集群配置为在更新集群时更新引导镜像。如需更多信息,请参阅更新引导镜像

1.3.14. 机器管理

1.3.14.1. 为集群自动扩展配置扩展器

在这个版本中,集群自动扩展可以使用 LeastWastePriorityRandom 展开器。您可以配置这些扩展器,以便在扩展集群时影响机器集的选择。如需更多信息 ,请参阅配置集群自动扩展

1.3.14.2. 使用 VMware vSphere 的集群 API 管理机器(技术预览)

此发行版本引入了使用上游 Cluster API (集成到 OpenShift Container Platform)作为 VMware vSphere 集群的技术预览来管理机器的功能。这个功能是使用 Machine API 管理机器的补充或替代功能。如需更多信息 ,请参阅关于集群 API

1.3.14.3. 为 control plane 机器集定义 vSphere 故障域

在这个版本中,为 control plane 机器集定义 vSphere 故障域的以前技术预览功能正式发布。如需更多信息,请参阅 VMware vSphere 的 Control plane 配置选项

1.3.15. 节点

1.3.15.1. 移动 Vertical Pod Autoscaler Operator pod

Vertical Pod Autoscaler Operator (VPA)由三个组件组成:推荐器、更新器和准入控制器。Operator 和每个组件在 control plane 节点上的 VPA 命名空间中都有自己的 pod。您可以将 VPA Operator 和组件 pod 移到基础架构或 worker 节点。如需更多信息,请参阅 Moving Vertical Pod Autoscaler Operator 组件

1.3.15.2. must-gather 收集的附加信息

在这个版本中,oc adm must-gather 命令收集以下附加信息:

  • OpenShift CLI (oc)二进制版本
  • must-gather 日志

这些添加有助于识别使用特定版本的 oc 的问题。oc adm must-gather 命令还会列出使用的镜像,以及任何数据在 must-gather 日志中无法收集到的信息。

如需更多信息,请参阅关于 must-gather 工具

1.3.15.3. 编辑 BareMetalHost 资源

在 OpenShift Container Platform 4.16 及更高版本中,您可以编辑裸机节点的 BareMetalHost 资源中的基板管理控制器(BMC)地址。节点必须处于 Provisioned、Externally Provisioned RegisteringAvailable 状态。编辑 BareMetalHost 资源中的 BMC 地址不会取消置备节点。如需了解更多详细信息 ,请参阅编辑 BareMetalHost 资源

1.3.15.4. 附加不可启动的 ISO

在 OpenShift Container Platform 4.16 及更高版本中,您可以使用 DataImage 资源将一个通用的、不可启动的 ISO 虚拟介质镜像附加到置备的节点上。应用资源后,操作系统在下次重启时可以访问 ISO 镜像。节点必须使用 Redfish 或从中派生的驱动程序来支持此功能。节点必须处于 ProvisionedExternallyProvisioned 状态。如需了解更多详细信息,请参阅将不可启动的 ISO 附加到裸机节点

1.3.16. 监控

此发行版本中的集群监控堆栈包括以下新功能和修改后的功能。

1.3.16.1. 监控堆栈组件和依赖项更新

此发行版本包括对集群监控堆栈组件和依赖项的以下版本更新:

  • kube-state-metrics 到 2.12.0
  • 指标服务器到 0.7.1
  • node-exporter 到 1.8.0
  • Prometheus 到 2.52.0
  • Prometheus Operator 到 0.73.2
  • Thanos to 0.35.0

1.3.16.2. 对警报规则的更改

注意

红帽不保证记录规则或警报规则的向后兼容性。

  • 添加了 ClusterMonitoringOperatorDeprecatedConfig 警报,以便在 Cluster Monitoring Operator 配置使用已弃用的字段时监控。
  • 添加了 PrometheusOperatorStatusUpdateErrors 警报,以监控 Prometheus Operator 无法更新对象状态的时间。

1.3.16.3. 用于访问 Metrics API 正式发布(GA)的指标服务器组件

Metrics Server 组件现已正式发布,并自动安装,而不是已弃用的 Prometheus Adapter。指标服务器收集资源指标,并在 metrics.k8s.io Metrics API 服务中公开它们,供其他工具和 API 使用,从而释放核心平台 Prometheus 堆栈处理此功能。如需更多信息,请参阅 Cluster Monitoring Operator 的配置映射 API 参考中的 MetricsServerConfig

1.3.16.4. 新的监控角色,允许对 Alertmanager API 进行只读访问

此发行版本引入了一个新的 monitoring-alertmanager-view 角色,允许对 openshift-monitoring 项目中的 Alertmanager API 进行只读访问。

1.3.16.5. VPA 指标包括在 kube-state-metrics 代理中

Vertical Pod Autoscaler (VPA)指标可以通过 kube-state-metrics 代理获得。VPA 指标遵循类似的组成格式,就如在从原生支持上游弃用和删除之前一样。

1.3.16.6. 监控组件的代理服务更改

在这个版本中,Prometheus、Alertmanager 和 Thanos Ruler 前面的代理服务已从 OAuth 更新至 kube-rbac-proxy。此更改可能会影响服务帐户和用户访问这些 API 端点,而无需适当的角色和集群角色。

1.3.16.7. Prometheus 处理重复样本的方式改变

在这个版本中,当 Prometheus 提取目标时,重复的示例不再被静默忽略,即使它们具有相同的值。第一个示例被接受,prometheus_target_scrapes_sample_duplicate_timestamp_total 计数器会递增,这可能会触发 PrometheusDuplicateTimestamps 警报。

1.3.17. Network Observability Operator

Network Observability Operator 发行版本独立于 OpenShift Container Platform 次版本流的更新。更新可以通过单一的滚动流提供,该流在所有当前支持的 OpenShift Container Platform 4 版本中被支持。有关 Network Observability Operator 的新功能、功能增强和程序错误修复的信息,请参阅 Network Observability 发行注记

1.3.18. 可伸缩性和性能

1.3.18.1. 工作负载分区增强

在这个版本中,使用工作负载注解部署的平台 pod 包括 CPU 限制和 CPU 请求会准确计算并应用 CPU 限值,并作为特定 pod 的 CPU 配额进行计算并应用。在以前的版本中,如果工作负载分区 pod 同时设置了 CPU 限值和请求,则 Webhook 会忽略它们。pod 无法从工作负载分区中受益,且不会锁定到特定内核。在这个版本中,webhook 可以正确解释请求和限值。

注意

如果 CPU 限值的值与注解中请求的值不同,则 CPU 限值与请求相同。

如需更多信息,请参阅 工作负载分区

1.3.18.2. 现在,性能配置集功能支持 Linux Control Groups 版本 2

从 OpenShift Container Platform 4.16 开始,控制组群版本 2 (cgroup v2) (也称为 cgroup2 或 cgroupsv2)对于所有新部署都默认启用,即使性能配置集存在。

从 OpenShift Container Platform 4.14 开始,cgroup v2 是默认的,但性能配置集功能需要使用 cgroup v1。这个问题已解决。

通过将 node.config 对象中的 cgroupMode 字段更改为 v1,在 OpenShift Container Platform 4.16. cgroup v1 之前,仍会在当前版本中使用 cgroup v1 的升级集群。

如需更多信息,请参阅 在节点上配置 Linux cgroup 版本

1.3.18.3. 支持增加 etcd 数据库大小(技术预览)

在这个版本中,您可以在 etcd 中增加磁盘配额。这是一个技术预览功能。如需更多信息,请参阅 增加 etcd 的数据库大小

1.3.18.4. 保留内核频率调整

在这个版本中,Node Tuning Operator 支持在 PerformanceProfile 中为保留和隔离的内核 CPU 设置 CPU 频率。这是可用于定义特定频率的可选功能。然后,Node Tuning Operator 通过在 Intel 硬件中启用 intel_pstate CPUFreq 驱动程序来设置这些频率。您必须遵循 Intel 对 FlexRAN-like 应用程序的建议,这需要将默认 CPU 频率设置为比默认运行频率低的值。

1.3.18.5. Node Tuning Operator intel_pstate 驱动程序默认设置

在以前的版本中,对于 RAN DU-profile,在 PerformanceProfile 中将 realTime 工作负载提示设置为 true 会始终禁用 intel_pstate。在这个版本中,Node Tuning Operator 会检测使用 TuneD 的底层 Intel 硬件,并根据处理器的生成正确设置 intel_pstate 内核参数。这会将 intel_pstaterealTimehighPowerConsumption 工作负载提示分离。intel_pstate 现在依赖于底层处理器的生成。

对于 pre-IceLake 处理器的处理器,默认情况下为 intel_pstate,而对于 IceLake 及更新的生成处理器,intel_pstate 设置为 active

1.3.19. 边缘计算

1.3.19.1. 使用 RHACM PolicyGenerator 资源管理 GitOps ZTP 集群策略(技术预览)

现在,您可以使用 PolicyGenerator 资源和 Red Hat Advanced Cluster Management (RHACM)来使用 GitOps ZTP 为受管集群部署策略。PolicyGenerator API 是 Open Cluster Management 标准的一部分,它提供了一种通用的修补资源的方法,这些资源无法通过 PolicyGenTemplate API 来实现。使用 PolicyGenTemplate 资源管理和部署策略将在即将发布的 OpenShift Container Platform 发行版本中弃用。

如需更多信息,请参阅使用 PolicyGenerator 资源配置受管集群策略

注意

PolicyGenerator API 目前不支持将补丁与包含项目列表的自定义 Kubernetes 资源合并。例如,在 PtpConfig CR 中。

1.3.19.2. TALM 策略补救

在这个版本中,Topology Aware Lifecycle Manager (TALM)使用 Red Hat Advanced Cluster Management (RHACM)功能来修复受管集群中的 inform 策略。此功能增强删除了 Operator 在策略补救过程中创建 inform 策略的 强制 副本。由于复制策略,这个增强还减少了 hub 集群上的工作负载,并可减少在受管集群中修复策略所需的总体时间。

如需更多信息,请参阅在受管集群上更新策略

1.3.19.3. 加速置备 GitOps ZTP (技术预览)

在这个版本中,您可以通过为单节点 OpenShift 使用 GitOps ZTP 置备来缩短集群安装所需的时间。加速 ZTP 通过在早期阶段应用从策略派生的第 2 天清单来加快安装速度。

加速置备 GitOps ZTP 的好处会随着部署的规模增加。完全加速为更多集群带来更多好处。使用较少的集群,安装时间缩短会显著减少。

如需更多信息,请参阅 GitOps ZTP 的加速置备

1.3.19.4. 使用 Lifecycle Agent 为单节点 OpenShift 集群进行基于镜像的升级

在这个版本中,您可以使用 Lifecycle Agent 编配从 OpenShift Container Platform <4.y> 到 <4.y+2> 的单节点 OpenShift 集群的基于镜像的升级,并将 <4.y.z+n> 升级到 <4.y.z+n>。Lifecycle Agent 生成与参与集群的配置匹配的开放容器项目(OCI)镜像。除了 OCI 镜像外,基于镜像的升级使用 ostree 库和 OADP Operator 来降低在原始平台版本和目标平台版本间进行转换时的升级和服务中断持续时间。

如需更多信息,请参阅了解单节点 OpenShift 集群的基于镜像的升级

1.3.19.5. 使用 GitOps ZTP 和 RHACM 将 IPsec 加密部署到受管集群(技术预览)

现在,您可以使用 GitOps ZTP 和 Red Hat Advanced Cluster Management (RHACM)部署的受管单节点 OpenShift 集群中启用 IPsec 加密。您可以加密受管集群外部 pod 和 IPsec 端点之间的外部流量。OVN-Kubernetes 集群网络上的节点之间的所有 pod 到 pod 网络流量都使用 IPsec 在传输模式中加密。

如需更多信息,请参阅使用 GitOps ZTP 和 SiteConfig 资源为单节点 OpenShift 集群配置 IPsec 加密

1.3.20. 安全性

新的签名者证书颁发机构(CA) openshift-etcd 现在可以为证书签名。此 CA 包含在与现有 CA 的信任捆绑包中。有两个 CA secret (etcd-signeretcd-metric-signer )也可用于轮转。从这个版本开始,所有证书都将移至经过验证的库。此更改允许自动轮转不是由 cluster-etcd-operator 管理的所有证书。所有节点都基于节点的证书将继续进行当前的更新过程。

Red Hat logoGithubRedditYoutubeTwitter

学习

尝试、购买和销售

社区

关于红帽文档

通过我们的产品和服务,以及可以信赖的内容,帮助红帽用户创新并实现他们的目标。

让开源更具包容性

红帽致力于替换我们的代码、文档和 Web 属性中存在问题的语言。欲了解更多详情,请参阅红帽博客.

關於紅帽

我们提供强化的解决方案,使企业能够更轻松地跨平台和环境(从核心数据中心到网络边缘)工作。

© 2024 Red Hat, Inc.