1.3. 新功能及功能增强


此版本对以下方面进行了改进。

1.3.1. Red Hat Enterprise Linux CoreOS (RHCOS)

1.3.1.1. 新集群的默认控制台现在由安装平台决定

从 OpenShift Container Platform 4.12 引导镜像安装的 Red Hat Enterprise Linux CoreOS (RHCOS) 节点现在使用特定于平台的默认控制台。云平台上的默认控制台对应于该云供应商期望的特定系统控制台。VMware 和 OpenStack 镜像现在使用一个主图形控制台和一个从串行控制台。其他裸机安装现在默认只使用图形控制台,且不启用串行控制台。使用 coreos-installer 进行的安装可能会覆盖现有的默认值并启用串行控制台。

现有节点不受影响。现有集群上的新节点应该不会受到影响,因为它们通常从最初用来安装集群的引导镜像安装。

有关如何启用串行控制台的详情,请查看以下文档:

1.3.1.2. IBM Z 和 LinuxONE 上的 IBM Secure Execution (技术预览)

OpenShift Container Platform 现在支持为 IBM Z 和 LinuxONE (s390x 架构)上的 IBM Secure Execution 配置 Red Hat Enterprise Linux CoreOS (RHCOS) 节点作为技术预览功能。IBM Secure Execution 是一种硬件增强,可为 KVM 客户机保护内存边界。IBM Secure Execution 为集群工作负载提供最高级别的隔离和安全,您可以使用支持 IBM Secure Execution 的 QCOW2 引导镜像启用它。

要使用 IBM Secure Execution,您需要有主机机器的主机密钥,且必须在 Ignition 配置文件中指定它们。IBM Secure Execution 会使用 LUKS 加密自动加密引导卷。

如需更多信息,请参阅使用 IBM Secure Execution 安装 RHCOS

1.3.1.3. RHCOS 现在使用 RHEL 8.6

RHCOS 现在在 OpenShift Container Platform 4.12 中使用 Red Hat Enterprise Linux (RHEL) 8.6 软件包。这可让您获得最新的修复、功能和增强,以及最新的硬件支持和驱动程序更新。OpenShift Container Platform 4.10 是一个延长更新支持(EUS)版本,其整个生命周期中将继续使用 RHEL 8.4 EUS 软件包。

1.3.2. 安装和升级

1.3.2.1. 支持的安装程序 SaaS 为 Nutanix 提供平台集成支持

console.redhat.com 上支持的安装程序 SaaS 支持使用 Assisted Installer 用户界面或 REST API 在 Nutanix 平台上安装 OpenShift Container Platform。集成可让 Nutanix Prism 用户从单一接口管理其基础架构,并启用自动扩展。有几个额外的安装步骤可启用 Nutanix 与辅助安装程序 SaaS 集成。详情请查看 Assisted Installer 文档。

1.3.2.2. 在安装过程中指定 AWS 中的负载均衡器类型

从 OpenShift Container Platform 4.12 开始,您可以在安装过程中将 Network Load Balancer (NLB) 或 Classic 指定为持久负载均衡器类型。之后,如果删除了 Ingress Controller,负载均衡器类型会在安装过程中保留配置的 lbType。

如需更多信息,请参阅使用网络自定义在 AWS 上安装集群

1.3.2.3. 当安装到一个带有 Local Zone 子网的现有 Virtual Private Cloud (VPC) 中时,将 worker 节点扩展到 AWS 边缘。

在这个版本中,您可以将 OpenShift Container Platform 安装到带有安装程序置备的基础架构的现有 VPC 中,将 worker 节点扩展到 Local Zones 子网。安装程序将在 AWS 网络的边缘上置备 worker 节点,该网络使用 NoSchedule 污点为用户应用程序指定。在本地区位置部署的应用程序为最终用户提供低延迟。

如需更多信息,请参阅使用 AWS 本地区域 安装集群

1.3.2.4. Google Cloud Platform Marketplace 产品

OpenShift Container Platform 现在包括在 GCP Marketplace 中。使用 GCP Marketplace 镜像安装 OpenShift Container Platform 可让您创建由 GCP 按使用付费(按小时、每个内核)的自我管理的集群部署,同时仍然被红帽直接支持。

有关使用安装程序置备的基础架构安装的更多信息,请参阅使用 GCP Marketplace 镜像。有关使用用户置备的基础架构的更多信息,请参阅在 GCP 中创建额外的 worker 机器

1.3.2.5. 在 GCP 和 Azure 上的安装过程中对 bootstrap 进行故障排除会失败

安装程序现在从 GCP 和 Azure 上的 bootstrap 和 control plane 主机收集串口控制台日志。此日志数据被添加到标准 bootstrap 日志捆绑包中。

如需更多信息,请参阅故障排除安装问题

1.3.2.6. IBM Cloud VPC 正式发布

IBM Cloud VPC 现在包括在 OpenShift Container Platform 4.12 中。

有关安装集群的更多信息,请参阅准备在 IBM Cloud VPC 上安装

1.3.2.7. 从 OpenShift Container Platform 4.11 升级到 4.12 时,需要管理员确认

OpenShift Container Platform 4.12 使用 Kubernetes 1.25,它删除了几个已弃用的 API

集群管理员必须在从 OpenShift Container Platform 4.11 升级到 4.12 前提供手动确认。这有助于防止升级到 OpenShift Container Platform 4.12 后出现问题,其中已删除的 API 仍在由运行或与集群交互的工作负载、工具或其他组件使用。管理员必须针对将要删除的任何 API 评估其集群,并迁移受影响的组件,以使用适当的新 API 版本。完成此操作后,管理员可以向管理员提供确认。

所有 OpenShift Container Platform 4.11 集群都需要此管理员确认,然后才能升级到 OpenShift Container Platform 4.12。

如需更多信息,请参阅准备升级到 OpenShift Container Platform 4.12

1.3.2.8. 在安装集群时启用功能集

从 OpenShift Container Platform 4.12 开始,您可以在安装过程中启用功能集。功能集是 OpenShift Container Platform 功能的集合,默认情况下不启用。

有关在安装过程中启用功能集的更多信息,请参阅使用功能门启用 OpenShift Container Platform 功能

1.3.2.9. OpenShift Container Platform on ARM

OpenShift Container Platform 4.12 现在支持基于 ARM 架构的 Azure 安装程序置备的基础架构。AWS Graviton 3 处理器现在可用于集群部署,在 OpenShift Container Platform 4.11 中也支持。有关实例可用性和安装文档的更多信息,请参阅支持的安装方法

1.3.2.10. 使用 oc-mirror CLI 插件,以 OCI 格式镜像基于文件的目录 Operator 镜像(技术预览)

使用 oc-mirror CLI 插件以 OCI 格式而不是 Docker v2 格式镜像基于文件的目录 Operator 镜像,现在作为技术预览提供。

如需更多信息,请参阅 以 OCI 格式镜像基于文件的目录 Operator 镜像

1.3.2.11. 在 GCP 上安装 OpenShift Container Platform 集群到共享 VPC 中(技术预览)

在 OpenShift Container Platform 4.12 中,您可以在 GCP 上将集群安装到共享 VPC 中作为技术预览。在这个安装方法中,集群被配置为使用来自不同 GCP 项目的 VPC。共享 VPC 可让组织将资源从多个项目连接到一个通用 VPC 网络。您可以使用来自该网络的内部 IP 地址,在组织内安全、高效地通信。

如需更多信息,请参阅在 GCP 上安装集群到共享 VPC 中。

1.3.2.12. 在没有置备(provisioning)网络的情况下,裸机安装中 Ironic API 的一致性 IP 地址

在这个版本中,在没有 provisioning 网络的裸机安装中,Ironic API 服务可以通过代理服务器访问。此代理服务器为 Ironic API 服务提供一致的 IP 地址。如果包含 metal3-ironic 的 Metal3 pod 被重新定位到另一个 pod,一致的代理地址可确保与 Ironic API 服务持续通信。

1.3.2.13. 使用服务帐户身份验证在 GCP 上安装 OpenShift Container Platform

在 OpenShift Container Platform 4.12 中,您可以使用附加了服务帐户的虚拟机在 GCP 上安装集群。这可让您执行安装,而无需使用服务帐户 JSON 文件。

如需更多信息,请参阅创建 GCP 服务帐户

1.3.2.14. OpenShift Container Platform 集群置备的 AWS 资源的 propagateUserTags 参数

在 OpenShift Container Platform 4.12 中,propagateUserTags 参数是一个标记,它指示 in-cluster Operator 在 Operator 创建的 AWS 资源标签中包含指定的用户标签。

如需更多信息,请参阅可选配置参数

1.3.2.15. Ironic 容器镜像使用 RHEL 9 基础镜像

在早期版本的 OpenShift Container Platform 中,Ironic 容器镜像使用 Red Hat Enterprise Linux (RHEL) 8 作为基础镜像。在 OpenShift Container Platform 4.12 中,Ironic 容器镜像使用 RHEL 9 作为基础镜像。RHEL 9 基础镜像添加了对 CentOS Stream 9、Python 3.8 和 Python 3.9 的支持。

有关 Ironic 置备服务的更多信息,请参阅在裸机上部署安装程序置备的集群

1.3.2.16. 在 RHOSP 上运行的集群的云供应商配置更新

在 OpenShift Container Platform 4.12 中,在 Red Hat OpenStack Platform (RHOSP) 上运行的集群从旧的 OpenStack 云供应商切换到外部 Cloud Controller Manager (CCM)。此更改遵循 Kubernetes 的变化,它从 in-tree(传统的云供应商)变为使用 Cloud Controller Manager 实施的外部云供应商。

如需更多信息,请参阅 OpenStack Cloud Controller Manager

1.3.2.17. 支持 RHOSP 分布式计算节点上的工作负载

在 OpenShift Container Platform 4.12 中,验证到有分布式计算节点 (DCN) 架构的 Red Hat OpenStack Platform (RHOSP) 云的集群部署。这些部署的参考架构是即将推出的。

有关这类部署的简要概述,请参阅使用 OpenStack 部署集群的博客文章。

1.3.2.18. AWS Outposts 上的 OpenShift Container Platform (技术预览)

OpenShift Container Platform 4.12 现在作为技术预览在 AWS Outposts 平台上被支持。使用 AWS Outposts,您可以部署基于边缘的 worker 节点,同时将 AWS 区域用于 control plane 节点。如需更多信息,请参阅在 AWS Outposts 上使用远程 worker 在 AWS 上安装集群

1.3.2.19. 基于代理的安装支持两种输入模式

基于代理的安装支持两种输入模式:

  • install-config.yaml 文件
  • agent-config.yaml 文件

选填

  • Zero Touch Provisioning (ZTP) 清单

使用首选模式,您可以配置 install-config.yaml 文件,并在 agent-config.yaml 文件中指定基于 Agent 的特定设置。如需更多信息,请参阅关于基于代理的 OpenShift Container Platform 安装程序

1.3.2.20. 基于代理的安装支持以 FIPS 兼容模式安装 OpenShift Container Platform 集群

基于代理的 OpenShift Container Platform 安装程序支持联邦信息处理标准 (FIPS) 兼容模式的 OpenShift Container Platform 集群。您必须在 install-config.yaml 文件中将 fips 字段的值设置为 True。如需更多信息,请参阅关于 FIPS 合规性

1.3.2.21. 在断开连接的环境中部署基于代理的 OpenShift Container Platform 集群

您可以在断开连接的环境中执行基于代理的安装。要创建在断开连接的环境中使用的镜像,install-config.yaml 文件中的 imageContentSources 部分必须包含镜像信息或 registry.conf 文件(如果使用 ZTP 清单)。这些文件中使用的实际配置设置由 oc adm release mirroroc mirror 命令提供。如需更多信息,请参阅了解断开连接的安装镜像

1.3.2.22. 构建和推送 graph-data 的字段的说明

在创建镜像设置配置时,您可以添加 graph: true 字段来构建 graph-data 镜像,并将其推送到 mirror registry。创建 OpenShift Update Service (OSUS) 需要 graph-data 镜像。graph: true 字段还会生成 UpdateService 自定义资源清单。oc 命令行界面 (CLI) 可以使用 UpdateService 自定义资源清单来创建 OSUS。

1.3.2.23. 基于代理的安装支持单堆栈和双栈网络

您可以使用以下 IP 地址配置创建代理 ISO 镜像:

  • IPv4
  • IPv6
  • IPv4 和 IPv6 并行 (dual-stack)
注意

IPv6 仅在裸机平台上被支持。

如需更多信息,请参阅 双和单 IP 堆栈集群

1.3.2.24. 部署的 OpenShift Container Platform 集群的代理可用作 hub 集群

您可以为 Kubernetes Operator 安装多集群引擎,并使用基于 Agent 的 OpenShift Container Platform 安装程序部署 hub 集群。如需更多信息,请参阅为 Kubernetes Operator 的多集群引擎准备基于 Agent 的集群

1.3.2.25. 基于代理的安装执行安装验证

基于代理的 OpenShift Container Platform 安装程序在其上执行验证:

  • 安装镜像生成 :检查用户提供的清单以获取有效性和兼容性。
  • 安装:安装服务检查可用于安装的硬件,并发出可通过 openshift-install agent wait-for 子命令检索的验证事件。

如需更多信息,请参阅安装验证

1.3.2.26. 在基于代理的安装中配置静态网络

使用基于代理的 OpenShift Container Platform 安装程序,您可以在创建代理 ISO 镜像之前为 IPv4、IPv6 或双栈 (IPv4 和 IPv6) 配置静态 IP 地址。如果您使用 ZTP 清单,您可以将静态地址添加到 agent-config.yaml 文件的 hosts 部分,或者在 NMStateConfig.yaml 文件中。请注意,地址的配置必须遵循 NMState 的语法规则,如 NMState 状态示例中所述。

注意

IPv6 仅在裸机平台上被支持。

如需更多信息,请参阅使用基于代理的 OpenShift Container Platform 安装程序安装 OpenShift Container Platform 集群

1.3.2.27. 基于代理的安装中的基于 CLI 的自动化部署

通过基于代理的 OpenShift Container Platform 安装程序,您可以定义安装配置,为所有节点生成 ISO,然后通过使用生成的 ISO 引导目标系统来进行无人值守安装。如需更多信息,请参阅使用基于代理的 OpenShift Container Platform 安装程序安装 OpenShift Container Platform 集群

1.3.2.28. 基于代理的安装支持在 instalation 时进行特定于主机的配置

您可以在基于 Agent 的安装中以 NMState 格式、根设备提示和角色配置主机名、网络配置。

如需更多信息,请参阅关于 root 设备提示

1.3.2.29. 基于代理的安装支持 DHCP

使用基于代理的 OpenShift Container Platform 安装程序,您可以部署到依赖 DHCP 的环境,以便为所有节点配置网络,只要您知道至少一个系统将收到的 IP。这个 IP 是必需的,以便所有节点都将其作为一个交互的点。如需更多信息,请参阅 DHCP

1.3.2.30. 在只有有限互联网访问的 Nutanix 上安装集群

现在,当环境有有限的互联网访问时,您可以在 Nutanix 上安装集群,如断开连接或受限网络集群时。使用这种类型的安装,您可以创建一个 registry 来镜像 OpenShift Container Platform 镜像 registry 的内容并包含安装介质。您可以在镜像主机上创建此 registry,该主机可同时访问互联网和您的关闭网络。

如需更多信息,请参阅关于断开连接的安装镜像,以及在受限网络中在 Nutanix 上安装集群

1.3.3. 安装后配置

1.3.3.1. vSphere 集群上的 CSI 驱动程序安装

要在 vSphere 上运行的集群中安装 CSI 驱动程序,必须满足以下要求:

  • 硬件版本 15 或更高版本的虚拟机
  • VMware vSphere 版本 7.0 更新 2 或更高版本,其中包括版本 8.0。
  • vCenter 7.0 更新 2 或更高版本,其中包括版本 8.0。
  • 集群中还没有安装第三方 CSI 驱动程序

    如果集群中存在第三方 CSI 驱动程序,OpenShift Container Platform 不会覆盖它。

虽然低于上述版本的组件仍被支持,但已被弃用。这些版本仍被完全支持,但 OpenShift Container Platform 版本 4.12 需要 vSphere 虚拟硬件版本 15 或更高版本。如需更多信息,请参阅已弃用和删除的功能

如果无法满足上述要求,则会阻止 OpenShift Container Platform 升级到 OpenShift Container Platform 4.13 或更高版本。

1.3.3.2. 集群功能

添加了以下新集群功能:

  • 控制台(Console)
  • Insights
  • Storage
  • CSISnapshot

添加了一组新的预定义集群功能 v4.12。这包括 v4.11 的所有功能,以及当前发行版本中添加的新功能。

如需更多信息,请参阅链接 : 启用集群功能

1.3.3.3. 带有多架构计算机器的 OpenShift Container Platform (技术预览)

带有多架构计算机器的 OpenShift Container Platform 4.12 现在支持镜像流中列出的清单镜像。如需有关清单列表镜像的更多信息,请参阅在 OpenShift Container Platform 集群上配置多架构计算机器

在带有多架构计算机器的集群中,您现在可以覆盖 Operator 的 Subscription 对象中的节点关联性,以将 pod 调度到 Operator 支持的架构的节点上。如需更多信息,请参阅使用节点关联性来控制安装 Operator 的位置

1.3.4. Web 控制台

1.3.4.1. 管理员视角

在这个版本中,web 控制台的 Administrator 视角有几个更新。

  • 如果集群正在升级,OpenShift Container Platform Web 控制台会显示一个 ConsoleNotification。升级完成后,会删除通知。
  • ActionKebab 菜单中提供了 Deployment 资源的 restart rollout 选项,以及 DeploymentConfig 资源的 retry rollouts 选项。
1.3.4.1.1. OpenShift Container Platform web 控制台中的多架构计算机器

console-operator 现在扫描所有节点并构建一组集群节点运行的所有架构类型,并将其传递给 console-config.yamlconsole-operator 可以在带有值 amd64arm64ppc64les390x 的架构中安装。

如需有关多架构计算机器的更多信息,请参阅在 OpenShift 集群上配置多架构计算机器

1.3.4.1.2. 动态插件正式发布

此功能以前作为技术预览功能在 OpenShift Container Platform 4.10 中引入,现在在 OpenShift Container Platform 4.12 中正式发布。使用动态插件,您可以在 web 控制台中原生构建高质量和唯一的用户体验。您可以:

  • 添加自定义页面。
  • 增加了除管理员和开发人员之外的其他视角。
  • 添加导航项。
  • 在资源页面中添加制表符和操作。
  • 扩展现有页面。

如需更多信息,请参阅动态插件概述

1.3.4.2. Developer Perspective (开发者视角)

在这个版本中,web 控制台的 Developer 视角有几个更新。您可以执行以下操作:

  • 使用 +Add 页面中的 Export application 选项,以 ZIP 文件格式将应用程序导出到另一个项目或集群。
  • 创建 Kafka 事件 sink 从特定源接收事件并将其发送到 Kafka 主题。
  • User Preferences Applications 页面中设置默认资源首选项。另外,您可以选择另一个资源类型作为默认值。

    • 另外,还可点 Add 页面中的 Import from Git Advanced options Resource type 并从下拉列表中选择资源。
  • Pod 页面的 Details 选项卡中,设置 pod 的 status.HostIP 节点 IP 地址。
  • 当任何资源达到配额时,请参阅 TopologyAdd 页面中的资源配额警报标签。警报标签链接将您带到 ResourceQuotas 列表页面。如果警报标签链接用于单个资源配额,它会进入 ResourceQuota 详情页面。

    • 对于部署,如果有与资源配额相关的任何错误,则拓扑节点侧面板中会显示一个警报。另外,超过资源配额时,部署节点会显示一个黄色边框。
  • 使用表单或 YAML 视图自定义以下 UI 项:

    • 用户可见的视角
    • 快速开始对用户可见
    • 项目可以访问的集群角色
    • +Add 页面中可见的操作
    • Developer Catalog中的项目类型
  • 通过执行以下操作来查看 Pipeline detailsPipelineRun details 页可间性的通用更新:

    • 使用鼠标轮设置缩放。
    • 将鼠标悬停在任务上,以查看任务详情。
    • 使用标准图标来放大,缩小,适用于屏幕,然后重置视图。
    • 仅限 PipelineRun 详情页面 : 在特定的缩放条件中,任务更改的背景颜色表示错误或警告状态。您可以将鼠标悬停在图标上,以查看总任务数量和完成的任务数量。
1.3.4.2.1. Helm 页的改进

在 OpenShift Container Platform 4.12 中,您可以在 Helm 页面中进行以下内容:

  • 使用 Create 按钮创建 Helm 发行版本和仓库。
  • 创建、更新或删除集群范围的 Helm 仓库或命名空间范围 Helm Chart 仓库。
  • Repositories 页面中,查看现有 Helm Chart 仓库列表及其范围。
  • Helm Releases 页面中查看新创建的 Helm 发行版本。
1.3.4.2.2. Alertmanager 中的负匹配器

在这个版本中,Alertmanager 支持 Negative matcher 选项。使用 Negative matcher,您可以将 Label 值更新为 Not Equals matcher。负匹配复选框将 = (值等于)改为 != (值不等于),将 =~ (值匹配正则表达式)变为 !~(值不匹配正则表达式)。另外,Use RegEx 复选框标签被重命名为 RegEx

1.3.5. OpenShift CLI (oc)

1.3.5.1. 使用 Krew 管理 OpenShift CLI 的插件(技术预览)

使用 Krew 为 OpenShift CLI (oc) 安装和管理插件现在作为技术预览提供。

如需更多信息,请参阅使用 Krew 管理 CLI 插件

1.3.6. IBM Z 和 LinuxONE

在这个版本中,IBM Z 和 LinuxONE 与 OpenShift Container Platform 4.12 兼容。可以使用 z/VM 或 RHEL KVM 进行安装。有关安装说明,请参阅以下文档:

主要改进

IBM Z 和 LinuxONE 中的 OpenShift Container Platform 4.12 支持以下新功能:

  • Cron 作业
  • Descheduler
  • FIPS 加密
  • IPv6
  • PodDisruptionBudget
  • Scheduler 配置集
  • 流控制传输协议 (SCTP)
IBM 安全执行(技术预览)

OpenShift Container Platform 现在支持为 IBM Z 和 LinuxONE (s390x 架构)上的 IBM Secure Execution 配置 Red Hat Enterprise Linux CoreOS (RHCOS) 节点作为技术预览功能。

有关安装说明,请参阅以下文档:

支持的功能

IBM Z 和 LinuxONE 也支持以下功能:

  • 目前,支持以下 Operator:

    • Cluster Logging Operator
    • Compliance Operator
    • File Integrity Operator
    • Local Storage Operator
    • NFD Operator
    • NMState Operator
    • OpenShift Elasticsearch Operator
    • Service Binding Operator
    • Vertical Pod Autoscaler Operator
  • 支持以下 Multus CNI 插件:

    • Bridge
    • Host-device
    • IPAM
    • IPVLAN
  • 备用身份验证供应商
  • 使用 Local Storage Operator 自动设备发现
  • CSI 卷

    • 克隆
    • 扩展
    • Snapshot
  • 加密数据存储在 etcd 中
  • Helm
  • Pod 横向自动扩展
  • 用户定义项目的监控
  • 多路径(Multipathing)
  • Operator API
  • OC CLI 插件
  • 使用 iSCSI 的持久性存储
  • 使用本地卷的持久性存储(本地存储 Operator)
  • 使用 hostPath 的持久性存储
  • 使用 Fibre Channel 持久性存储
  • 使用 Raw Block 的持久性存储
  • OVN-Kubernetes,包括 IPsec 加密
  • 支持多个网络接口
  • 三节点集群支持
  • SCSI 磁盘中的 z/VM 模拟 FBA 设备
  • 4K FCP 块设备

以下功能仅适用于 IBM Z 和 4.12 上的 OpenShift Container Platform:

  • IBM Z 和 LinuxONE 为附加的 ECKD 存储的虚拟机启用了 HyperPAV
限制

以下限制会影响 OpenShift Container Platform 对 IBM Z 和 LinuxONE 的影响:

  • 使用机器健康检查功能自动修复损坏的机器
  • Red Hat OpenShift Local
  • 在节点上控制过量使用和管理容器密度
  • NVMe
  • OpenShift Metering
  • OpenShift Virtualization
  • 精度时间协议 (PTP) 硬件
  • 在 OpenShift Container Platform 部署过程中启用 Tang 模式磁盘加密
  • Compute 节点必须运行 Red Hat Enterprise Linux CoreOS(RHCOS)
  • 必须使用 Red Hat OpenShift Data Foundation 或其他支持的存储协议来置备持久性共享存储
  • 必须使用本地存储(如 iSCSI、FC 或者带有 DASD、FCP 或 EDEV/FBA 的 LSO)置备持久性非共享存储

1.3.7. IBM Power

在这个版本中,IBM Power 与 OpenShift Container Platform 4.12 兼容。有关安装说明,请参阅以下文档:

主要改进

OpenShift Container Platform 4.12 的 IBM Power 支持以下新功能:

  • IBM Cloud 的云控制器管理器
  • Cron 作业
  • Descheduler
  • FIPS 加密
  • PodDisruptionBudget
  • Scheduler 配置集
  • 流控制传输协议 (SCTP)
  • 拓扑管理器
支持的功能

IBM Power 还支持以下功能:

  • 目前,支持以下 Operator:

    • Cluster Logging Operator
    • Compliance Operator
    • File Integrity Operator
    • Local Storage Operator
    • NFD Operator
    • NMState Operator
    • OpenShift Elasticsearch Operator
    • Cluster Network Operator
    • Service Binding Operator
    • Vertical Pod Autoscaler Operator
  • 支持以下 Multus CNI 插件:

    • Bridge
    • Host-device
    • IPAM
    • IPVLAN
  • 备用身份验证供应商
  • CSI 卷

    • 克隆
    • 扩展
    • Snapshot
  • 加密数据存储在 etcd 中
  • Helm
  • Pod 横向自动扩展
  • IPv6
  • 用户定义项目的监控
  • 多路径(Multipathing)
  • Multus SR-IOV
  • Operator API
  • OC CLI 插件
  • OVN-Kubernetes,包括 IPsec 加密
  • 使用 iSCSI 的持久性存储
  • 使用本地卷的持久性存储(本地存储 Operator)
  • 使用 hostPath 的持久性存储
  • 使用 Fibre Channel 持久性存储
  • 使用 Raw Block 的持久性存储
  • 支持多个网络接口
  • 支持 Power10
  • 三节点集群支持
  • 4K 磁盘支持
限制

OpenShift Container Platform 对 IBM Power 的影响如下:

  • 使用机器健康检查功能自动修复损坏的机器
  • Red Hat OpenShift Local
  • 在节点上控制过量使用和管理容器密度
  • OpenShift Metering
  • OpenShift Virtualization
  • 精度时间协议 (PTP) 硬件
  • 在 OpenShift Container Platform 部署过程中启用 Tang 模式磁盘加密
  • Compute 节点必须运行 Red Hat Enterprise Linux CoreOS(RHCOS)
  • 持久性存储必须是使用本地卷、Red Hat OpenShift Data Foundation、网络文件系统(NFS)或 Container Storage Interface(CSI)的 Filesystem 类型

1.3.8. 镜像

新的导入值 importMode 已添加到镜像流的 importPolicy 参数中。以下字段可用于这个值:

  • Legacy: LegacyimportMode 的默认值。活跃时,清单列表将被丢弃,并导入单个子清单。平台会按照优先级顺序进行选择:

    1. 标签注解
    2. control plane 架构
    3. Linux/AMD64
    4. 列表中的第一个清单
  • PreserveOriginal :当激活时,原始清单将被保留。对于清单列表,将导入清单列表及其所有子清单。

1.3.9. 安全性与合规性

1.3.9.1. Security Profiles Operator

现在,OpenShift Container Platform 4.12 及更新的版本提供了 Security Profiles Operator (SPO)。

SPO 提供了一种将安全计算 (seccomp) 配置集和 SELinux 配置集定义为自定义资源,将配置集同步到给定命名空间中的每个节点。

如需更多信息,请参阅安全配置集 Operator 概述

1.3.10. 网络

1.3.10.1. 支持 API VIP 和 Ingress VIP 的双栈寻址

支持的安装程序支持在裸机上安装带有双堆栈网络的 OpenShift Container Platform 4.12 及更新的版本,用于裸机上的 API VIP 和 Ingress VIP。此支持引入了两个新配置设置:api_vipsingress_vips,它可以获取 IP 地址列表。旧的设置 api_vipingress_vip 还必须在 OpenShift Container Platform 4.12 中设置;但是,它们只需要使用一个 IP 地址,因此在为 API VIP 配置双堆栈网络时使用旧的 api_vipingress_vip 配置设置时,您必须设置 IPv4 地址。

使用双栈网络时,API VIP 地址和 Ingress VIP 地址必须是主 IP 地址系列。目前,红帽不支持将 IPv6 作为主要 IP 地址系列的双栈 VIP 或双栈网络。但是,红帽确实支持将 IPv4 作为主要 IP 地址系列的双栈网络。因此,您必须在 IPv6 条目前放置 IPv4 条目。详情请查看 Assisted Installer 文档。

1.3.10.2. Red Hat OpenShift Networking

Red Hat OpenShift 网络是一个功能、插件和高级网络功能生态系统,其使用 Kubernetes CNI 插件除 Kubernetes CNI 插件之外扩展 Kubernetes 网络,集群需要管理一个或多个混合集群的网络流量。这个网络功能生态系统集成了入口、出口、负载均衡、高性能吞吐量、安全性和集群内部流量管理,并提供基于角色的可观察工具来减少其自然复杂性。

如需更多信息,请参阅关于网络

1.3.10.3. OVN-Kubernetes 现在是默认的网络插件

安装新集群时,OVN-Kubernetes 网络插件是默认的网络插件。对于所有以前的 OpenShift Container Platform 版本,OpenShift SDN 会保留默认的网络插件。

OVN-Kubernetes 网络插件包含比 OpenShift SDN 更广泛的功能,包括:

与之前的版本相比,OpenShift Container Platform 4.12 在扩展、性能和稳定性方面有大的改进。

如果使用 OpenShift SDN 网络插件,请注意:

  • 使用 OpenShift SDN 的现有和将来的部署仍被支持。
  • OpenShift SDN 在比 OpenShift Container Platform 4.12 早的版本中保留为默认设置。
  • 从 OpenShift Container Platform 4.12 开始,OpenShift SDN 是一个受支持的安装时选项。
  • OpenShift SDN 保留功能冻结。

有关 OVN-Kubernetes 的更多信息,包括与 OpenShift SDN 的功能比较列表,请参阅关于 OVN-Kubernetes 网络插件

有关从 OpenShift SDN 迁移到 OVN-Kubernetes 的详情,请参考从 OpenShift SDN 网络插件迁移

1.3.10.4. Ingress Node Firewall Operator

在这个版本中,引入了一个新的无状态 Ingress Node Firewall Operator。现在,您可以在节点级别配置防火墙规则。如需更多信息,请参阅 Ingress Node Firewall Operator

1.3.10.5. 网络指标的改进

以下指标现在可用于 OVN-Kubernetes 网络插件:

  • ovn_controller_southbound_database_connected
  • ovnkube_master_libovsdb_monitors
  • ovnkube_master_network_programming_duration_seconds
  • ovnkube_master_network_programming_ovn_duration_seconds
  • ovnkube_master_egress_routing_via_host
  • ovs_vswitchd_interface_resets_total
  • ovs_vswitchd_interface_rx_dropped_total
  • ovs_vswitchd_interface_tx_dropped_total
  • ovs_vswitchd_interface_rx_errors_total
  • ovs_vswitchd_interface_tx_errors_total
  • ovs_vswitchd_interface_collisions_total

删除了以下指标:

  • ovnkube_master_skipped_nbctl_daemon_total

1.3.10.6. 多区安装程序置备基础架构 VMware vSphere 安装(技术预览)

从 OpenShift Container Platform 4.12 开始,使用安装程序置备的基础架构在单个 vCenter 安装中配置多个 vCenter 数据中心和多个 vCenter 集群的功能现在作为技术预览提供。使用 vCenter 标签,您可以使用此功能将 vCenter 数据中心和计算集群与 openshift-regions 和 openshift-zones 关联。这些关联定义故障域,使应用程序工作负载与特定位置和故障域相关联。

1.3.10.7. 现在支持 VMware vSphere 中的 Kubernetes NMState

从 OpenShift Container Platform 4.12 开始,您可以使用 VMware vSphere 上的 Kubernetes NMState Operator 配置网络设置,如 DNS 服务器或搜索域、VLAN、桥接和接口绑定。

如需更多信息,请参阅关于 Kubernetes NMState Operator

1.3.10.8. 现在支持 OpenStack 中的 Kubernetes NMState

从 OpenShift Container Platform 4.12 开始,您可以使用 OpenStack 实例上的 Kubernetes NMState Operator 配置网络设置,如 DNS 服务器或搜索域、VLAN、桥接和接口绑定。

如需更多信息,请参阅关于 Kubernetes NMState Operator

1.3.10.9. 外部 DNS Operator

在 OpenShift Container Platform 4.12 中,External DNS Operator 修改了 AzureDNS 上 ExternalDNS 通配符 TXT 记录的格式。External DNS Operator 使用 ExternalDNS 通配符 TXT 记录中的 any 替换了星号。您必须避免 ExternalDNS 通配符 A 和 CNAME 记录具有 any 最左边的子域,因为这可能导致冲突。

OpenShift Container Platform 4.12 的 ExternalDNS 上游版本为 v0.13.1。

1.3.10.10. 捕获与使用路由和分片关联的指标和遥测

在 OpenShift Container Platform 4.12 中,Cluster Ingress Operator 会导出一个名为 route_metrics_controller_routes_per_shard 的新指标。指标的 shard_name 标签指定分片的名称。此指标提供每个分片接受的路由总数。

以下指标通过遥测发送。

表 1.1. 通过遥测发送的指标
Name记录规则表达式描述

cluster:route_metrics_controller_routes_per_shard:min

min(route_metrics_controller_routes_per_shard)

跟踪被任何分片接受的最少路由数量

cluster:route_metrics_controller_routes_per_shard:max

max(route_metrics_controller_routes_per_shard)

跟踪被任何分片接受的最大路由数

cluster:route_metrics_controller_routes_per_shard:avg

avg(route_metrics_controller_routes_per_shard)

跟踪 route_metrics_controller_routes_per_shard 指标的平均值

cluster:route_metrics_controller_routes_per_shard:median

quantile(0.5, route_metrics_controller_routes_per_shard)

跟踪 route_metrics_controller_routes_per_shard 指标的中位值

cluster:openshift_route_info:tls_termination:sum

sum (openshift_route_info) (tls_termination)

跟踪每个 tls_termination 值的路由数量。tls_termination 的可能值为 edgepassthroughreencrypt

1.3.10.11. AWS Load Balancer Operator

在 OpenShift Container Platform 4.12 中,AWS Load Balancer 控制器现在为多个匹配项实现 Kubernetes Ingress 规格。如果 Ingress 中的多个路径与一个请求匹配,则最长匹配的路径优先。如果有两个路径仍然匹配,具有准确路径类型的路径优先于前缀路径类型。

AWS Load Balancer Operator 将 EnableIPTargetType 功能门设置为 false。AWS Load Balancer 控制器禁用对 target-type ip 的服务和入口资源的支持。

OpenShift Container Platform 4.12 的 aws-load-balancer-controller 的上游版本是 v2.4.4。

1.3.10.12. Ingress Controller 自动扩展(技术预览)

现在,您可以使用 OpenShift Container Platform Custom Metrics Autoscaler Operator 在部署的集群中根据指标(如可用的 worker 节点数量)来动态地扩展默认的入口控制器。自定义 Metrics Autoscaler 作为技术预览提供。

如需更多信息,请参阅自动扩展 Ingress Controller

1.3.10.13. HAProxy maxConnections 现在默认为 50,000

在 OpenShift Container Platform 4.12 中,maxConnections 设置的默认值现在是 50000。以前,从 OpenShift Container Platform 4.11 开始,maxConnections 设置的默认值为 20000。

如需更多信息,请参阅 Ingress Controller 配置参数

1.3.10.14. 配置 Ingress Controller 以进行手动 DNS 管理

现在,您可以将 Ingress Controller 配置为停止自动 DNS 管理并启动手动 DNS 管理。设置 dnsManagementPolicy 参数来指定自动或手动 DNS 管理。

如需更多信息,请参阅配置 Ingress Controller 以手动管理 DNS

1.3.10.15. SR-IOV 支持的硬件(单根 I/O 虚拟化)

OpenShift Container Platform 4.12 添加了对以下 SR-IOV 设备的支持:

  • Intel X710 Base T
  • MT2892 Family [ConnectX‑6 Dx]
  • MT2894 系列 [ConnectX-6 Lx]
  • ConnectX-6 NIC 模式中的 MT42822 BlueField-2
  • Silicom STS 系列

如需更多信息,请参阅支持的设备

1.3.10.16. OvS (Open vSwitch) Hardware Offload 支持的硬件

OpenShift Container Platform 4.12 添加了对以下设备的 OvS Hardware Offload 支持:

  • MT2892 系列 [ConnectX-6 Dx]
  • MT2894 系列 [ConnectX-6 Lx]
  • ConnectX-6 NIC 模式中的 MT42822 BlueField-2

如需更多信息,请参阅支持的设备

1.3.10.17. SR-IOV 支持的多网络策略(技术预览)

OpenShift Container Platform 4.12 添加了对为 SR-IOV 设备配置多网络策略的支持。

现在,您可以为 SR-IOV 额外网络配置多网络。配置 SR-IOV 额外网络是一个技术预览功能,仅支持内核网络接口卡 (NIC)。

如需更多信息,请参阅配置多网络策略

1.3.10.18. 在 AWS 负载均衡器类型间切换,而不删除 Ingress Controller

您可以更新 Ingress Controller,以便在 AWS Classic Load Balancer (CLB) 和 AWS Network Load Balancer (NLB) 间切换,而无需删除 Ingress Controller。

如需更多信息,请参阅在 AWS 上配置集群入口流量

1.3.10.19. IPv6 unsolicited neighbor 公告和 IPv4 gratuitous 地址解析协议现在默认在 SR-IOV CNI 插件中

使用单一根 I/O 虚拟化 (SR-IOV) CNI 插件创建的 Pod,其中 IP 地址管理 CNI 插件已经分配 IP,现在发送 IPv6 unsolicited 邻居公告和/或 IPv4 gratuitous 地址解析协议(在网络中)。此功能增强会通知特定 IP 的新 pod MAC 地址的主机,以使用正确的信息刷新 ARP/NDP 缓存。

如需更多信息,请参阅支持的设备

1.3.10.20. 支持 CoreDNS 缓存调整

现在,您可以在 CoreDNS 缓存成功和成功 DNS 查询时配置 time-to-live (TTL) 持续时间。

如需更多信息,请参阅调整 CoreDNS 缓存

1.3.10.21. OVN-Kubernetes 支持配置内部子网

在以前的版本中,OVN-Kubernetes 在内部使用的子网为 100.64.0.0/16(IPv4)和 fd98::/48(IPv6)无法修改。要在这些子网与基础架构中现有子网重叠时支持实例,现在可以更改这些内部子网以避免重叠。

如需更多信息,请参阅 Cluster Network Operator 配置对象

1.3.10.22. Red Hat OpenStack Platform (RHOSP) 上的出口 IP 支持

RHOSP 与 OpenShift Container Platform 搭配,现在支持自动附加和分离 Egress IP 地址。来自任意数量的命名空间中的一个或多个 pod 的流量,对于集群外的服务具有一个一致的源 IP 地址。此支持适用于 OpenShift SDN 和 OVN-Kubernetes 作为默认网络提供程序。

1.3.10.23. OpenShift SDN 到 OVN-Kubernetes 功能迁移支持

如果您计划从 OpenShift SDN 网络插件迁移到 OVN-Kubernetes 网络插件,则以下功能的配置将自动转换为使用 OVN-Kubernetes:

  • 出口 IP 地址
  • 出口防火墙
  • 多播

如需有关如何迁移到 OVN-Kubernetes 的更多信息,请参阅从 OpenShift SDN 集群网络供应商迁移

1.3.10.24. Egress 防火墙审计日志记录

对于 OVN-Kubernetes 网络插件,出口防火墙支持使用与网络策略审计日志记录使用的相同机制进行审计日志记录。如需更多信息,请参阅出口防火墙和网络策略规则的日志记录

1.3.10.25. 从给定地址池中公告 MetalLB

在这个版本中,在 BGP 模式中,您可以使用节点选择器使用特定的 IP 地址池从节点的子集公告 MetalLB 服务。此功能在 OpenShift Container Platform 4.11 中作为技术预览功能引进,现在在 OpenShift Container Platform 4.12 for BGP 模式中正式发布。L2 模式仍是一个技术预览功能。

如需更多信息,请参阅从节点的子集提升 IP 地址池

1.3.10.26. MetalLB 的额外部署规格

这个版本为 MetalLB 提供了额外的部署规格。当使用自定义资源来部署 MetalLB 时,您可以使用这些额外部署规格来管理在集群中部署和运行 MetalLB speakercontroller pod。例如,您可以使用 MetalLB 部署规格来管理部署 MetalLB pod 的位置,为 MetalLB pod 定义 CPU 限值,并为 MetalLB pod 分配运行时类。

有关 MetalLB 部署规格的更多信息,请参阅 MetalLB 的部署规格

1.3.10.27. 节点 IP 选择改进

在以前的版本中,集群主机上的 nodeip-configuration 服务从默认路由使用的接口选择 IP 地址。如果存在多个路由,该服务将选择具有最低指标值的路由。因此,网络流量可以从不正确的接口分发。

在 OpenShift Container Platform 4.12 中,在 nodeip-configuration 服务中添加了一个新的接口,该服务允许用户创建 hint 文件。hint 文件包含变量 NODEIP_HINT,可覆盖默认 IP 选择逻辑并从子网 NODEIP_HINT 变量中选择特定的节点 IP 地址。使用 NODEIP_HINT 变量允许用户指定使用哪些 IP 地址,确保网络流量从正确的接口分发。

如需更多信息,请参阅 可选:覆盖默认节点 IP 选择逻辑

1.3.10.28. CoreDNS 更新至 1.10.0 版本

在 OpenShift Container Platform 4.12 中,CoreDNS 使用 1.10.0 版本,它包括以下更改:

  • 如果 CoreDNS 之前设置为较小的值,CoreDNS 不会扩展查询 UDP 缓冲区的大小。
  • CoreDNS 现在始终在 Kubernetes 客户端日志中为每个日志行添加相关日志级别。
  • CoreDNS 现在以大约 20ms 的速度重新加载。

1.3.10.29. 支持 HAProxy 中可配置的重新加载间隔

在这个版本中,集群管理员可以配置重新加载间隔,以强制 HAProxy 在响应路由和端点更新时更频繁地重新载入其配置。默认最小 HAProxy 重新加载间隔为 5 秒。

如需更多信息,请参阅配置 HAProxy 重新加载间隔

1.3.10.30. Network Observability Operator 更新

Network Observability Operator 发行版本独立于 OpenShift Container Platform 次版本流的更新。更新可以通过单一的滚动流提供,该流在所有当前支持的 OpenShift Container Platform 4 版本中被支持。有关 Network Observability Operator 的新功能、功能增强和程序错误修复的信息,请参阅 Network Observability 发行注记

1.3.10.31. RHOSP 上二级网络接口的 IPv6

现在,在 RHOSP 上运行的集群中支持用于二级网络接口的 IPv6。

如需更多信息,请参阅启用 RHOSP 上 pod 的 IPv6 连接

1.3.10.32. RHOSP 上负载均衡器的 UDP 支持

因为切换到使用外部 OpenStack 云供应商,UDP 现在对于在该平台上运行的集群提供对 LoadBalancer 服务的支持。

1.3.10.33. 为托管的 control plane 部署 SR-IOV Operator (技术预览)

如果配置并部署了托管服务集群,您现在可以为托管集群部署 SR-IOV Operator。如需更多信息,请参阅为托管 control plane 部署 SR-IOV Operator

1.3.10.34. 支持裸机上 Ingress VIP 和 API VIP 服务的 IPv6 虚拟 IP (VIP)地址

在这个版本中,在安装程序置备的基础架构集群中,install-config.yaml 文件中的 ingressVIPapiVIP 配置设置已弃用。反之,使用 ingressVIPsapiVIPs 配置设置。这些设置支持使用 Ingress VIP 和 API VIP 服务的裸机上的应用程序双栈网络,它们需要 IPv4 和 IPv6 访问集群。ingressVIPsapiVIPs 配置设置使用列表格式来指定 IPv4 地址、IPv6 地址或两个 IP 地址格式。列表的顺序决定了每个服务的主 VIP 地址和次 VIP 地址。在使用双栈网络时,主 IP 地址必须来自 IPv4 网络。

1.3.10.35. 支持将 Bluefield-2 网络设备从数据处理单元 (DPU) 模式切换到网络接口控制器 (NIC) 模式(技术预览)

在这个版本中,您可以将 BlueField-2 网络设备从数据处理单元 (DPU) 模式切换到网络接口控制器 (NIC) 模式。

如需更多信息,请参阅将 Bluefield-2 从 DPU 切换到 NIC

1.3.10.36. 支持在集群安装后启用混合网络

在以前的版本中,对于使用 OVN-Kubernetes 网络插件的集群,您可以在集群安装过程中启用混合网络,以便集群支持 Windows 节点。现在,您可以在安装后启用混合网络。如需更多信息,请参阅配置混合网络

1.3.10.37. 支持 Network API 服务对象中的 allocateLoadBalancerNodePorts

Service 对象下的 Network API 中的 ServiceSpec 组件描述了用户在服务上创建的属性。现在,OpenShift Container Platform 4.12.28 发行版本支持 ServiceSpec 组件中的 allocateLoadBalancerNodePorts 属性。allocateLoadBalancerNodePorts 属性定义是否为 LoadBalancer 类型的服务自动分配 NodePort

如需更多信息,请参阅 Network API ServiceSpec 对象

1.3.11. Storage

1.3.11.1. 使用 GCP Filestore Driver Operator 的持久性存储(技术预览)

OpenShift Container Platform 可以使用 Google Compute Platform (GCP) 文件存储的 Container Storage Interface (CSI) 驱动程序置备持久性卷 (PV)。管理此驱动程序的 GCP Filestore CSI Driver Operator 只是一个技术预览。

如需更多信息,请参阅 GCP Filestore CSI Driver Operator

1.3.11.2. AWS Elastic Block Storage auto 迁移的自动 CSI 迁移已正式发布

从 OpenShift Container Platform 4.8 开始,在树内卷插件自动迁移到对应的 Container Storage Interface(CSI)驱动程序作为技术预览。OpenShift Container Platform 4.8 中提供了对 Amazon Web Services (AWS) Elastic Block Storage (EBS) 的支持,OpenShift Container Platform 4.12 现在支持对 AWS EBS 的自动迁移 (GA)。现在,AWS EBS 的 CSI 迁移会被默认启用,且管理员不需要操作。

这个功能会自动将树内对象转换为对应的 CSI 表示,并对用户完全透明。翻译的对象不存储在磁盘上,用户数据不会迁移。

虽然引用 in-tree 存储插件的存储类将继续工作,但我们建议将默认存储类切换到 CSI 存储类。

如需更多信息,请参阅 CSI 自动迁移

1.3.11.3. GCP PD 自动迁移的自动 CSI 迁移已正式发布

从 OpenShift Container Platform 4.8 开始,在树内卷插件自动迁移到对应的 Container Storage Interface(CSI)驱动程序作为技术预览。OpenShift Container Platform 4.9 提供了对 Google Compute Engine Persistent Disk (GCP PD) 的支持,OpenShift Container Platform 4.12 现在支持对 GCP PD 进行自动迁移 (GA)。现在,GCP PD 的 CSI 迁移是默认启用的,且管理员不需要操作。

这个功能会自动将树内对象转换为对应的 CSI 表示,并对用户完全透明。翻译的对象不存储在磁盘上,用户数据不会迁移。

虽然引用 in-tree 存储插件的存储类将继续工作,但我们建议将默认存储类切换到 CSI 存储类。

如需更多信息,请参阅 CSI 自动迁移

1.3.11.4. 从 OpenShift Container Platform 4.12 更新至 4.13,并使用 vSphere in-tree PV

如果以下所有条件都为 true,则从 OpenShift Container Platform 4.12 更新至 4.13 和从 4.13 升级到 4.14 会被阻止:

  • CSI 迁移还没有启用
  • OpenShift Container Platform 没有在 vSphere 7.0u3L+ 或 8.0u2+ 上运行
  • 存在 vSphere in-tree 持久性卷(PV)

如需更多信息,请参阅 CSI 自动迁移

1.3.11.5. pod 调度的存储容量跟踪已正式发布

这个新功能使用 CSIStorageCapacity 对象公开当前可用的存储容量,并增强了对使用 Container Storage Interface (CSI) 卷的 pod 调度与后绑定的调度。目前,唯一支持此功能的 OpenShift Container Platform 存储类型是 OpenShift Data Foundation。

1.3.11.6. VMware vSphere CSI 拓扑已正式发布

OpenShift Container Platform 提供了将 OpenShift Container Platform for vSphere 部署到不同的区域和区域,允许您在多个计算集群中部署,这有助于避免单点故障。

如需更多信息,请参阅 vSphere CSI 拓扑

1.3.11.7. 本地临时存储资源管理已正式发布

本地临时存储资源管理功能现已正式发布。借助此功能,您可以通过指定请求和限制来管理本地临时存储。

如需更多信息,请参阅临时存储管理

1.3.11.8. 卷填充器(技术预览)

卷填充器使用 数据源 来创建预先填充的卷。

目前启用了卷填充,并作为技术预览功能支持。但是,OpenShift Container Platform 不附带任何卷填充器。

如需更多信息,请参阅卷填充器

1.3.11.9. VMware vSphere CSI Driver Operator 要求

对于 OpenShift Container Platform 4.12,VMWare vSphere Container Storage Interface (CSI) Driver Operator 需要安装以下最小组件:

  • VMware vSphere 版本 7.0 更新 2 或更高版本,其中包括版本 8.0。
  • vCenter 7.0 更新 2 或更高版本,其中包括版本 8.0。
  • 硬件版本 15 或更高版本的虚拟机
  • 集群中还没有安装第三方 CSI 驱动程序

如果集群中存在第三方 CSI 驱动程序,OpenShift Container Platform 不会覆盖它。存在第三方 CSI 驱动程序可防止 OpenShift Container Platform 升级到 OpenShift Container Platform 4.13 或更高版本。

如需更多信息,请参阅 VMware vSphere CSI Driver Operator 要求

1.3.11.10. 支持 NFS 的 Azure File 已正式发布

OpenShift Container Platform 4.12 支持 Azure File Container Storage Interface (CSI) Driver Operator,并正式发布 Network File System (NFS)。

如需更多信息,请参阅 NFS 支持

1.3.12. Operator 生命周期

1.3.12.1. 平台 Operator (技术预览)

从 OpenShift Container Platform 4.12 开始,Operator Lifecycle Manager (OLM)引入了 平台 Operator 类型作为技术预览功能。平台 Operator 机制依赖于 RukPak 组件(也称为 OpenShift Container Platform 4.12)中的资源来源和管理内容。

平台 Operator 是一个基于 OLM 的 Operator,可在 OpenShift Container Platform 集群的第 0 天操作期间或之后安装,并参与集群的生命周期。作为集群管理员,您可以使用平台 Operator 来进一步自定义 OpenShift Container Platform 安装,以满足您的要求和用例。

如需有关平台 Operator 的更多信息,请参阅 管理平台 Operator。有关 RukPak 及其资源的更多信息,请参阅 Operator Framework 打包格式

1.3.12.2. 控制安装 Operator 的位置

默认情况下,当安装 Operator 时,OpenShift Container Platform 会随机将 Operator pod 安装到其中一个 worker 节点。

在 OpenShift Container Platform 4.12 中,您可以通过向 Operator 的 Subscription 对象添加关联性限制来控制 Operator pod 的安装位置。

如需更多信息,请参阅控制安装 Operator 的位置

1.3.12.3. 为用户创建的 openshift-* 命名空间进行 Pod 安全准入同步

在 OpenShift Container Platform 4.12 中,如果在具有 openshift- 前缀的用户创建命名空间中安装 Operator,则默认启用 pod 安全准入同步。在命名空间中创建集群服务版本 (CSV) 后,同步会被启用。同步标签继承命名空间中服务帐户的权限。

如需更多信息,请参阅安全性上下文约束与 pod 安全标准同步

1.3.13. Operator 开发

1.3.13.1. 配置目录 pod 的安全上下文

您可以使用 run bundlebundle-upgrade 子命令中的 --security-context-config 标志来配置目录 pod 的安全上下文。标志可让 seccomp 配置集符合 pod 安全准入。标志接受 restrictedlegacy 值。如果没有指定值,seccomp 配置集默认为 restricted。如果您的目录 pod 无法使用受限权限运行,请将标记设置为 legacy,如下例所示:

$ operator-sdk run bundle \
  --security-context-config=legacy

1.3.13.2. 验证从 Kubernetes 1.25 中删除的 API 的捆绑包清单

现在,您可以使用 bundle validate 子命令的 Operator Framework 套件检查从 Kubernetes 1.25 中删除的已弃用 API 的捆绑包清单。

例如:

$ operator-sdk bundle validate .<bundle_dir_or_image> \
  --select-optional suite=operatorframework \
  --optional-values=k8s-version=1.25

如果您的 Operator 请求权限使用从 Kubernetes 1.25 中删除的任何 API,命令会显示警告信息。

如果 Operator 的集群服务版本 (CSV) 中包含了从 Kubernetes 1.25 中删除的任何 API 版本,命令会显示错误消息。

如需更多信息,请参阅从 Kubernetes 1.25 中删除的 Beta APIOperator SDK CLI 参考

1.3.14. 机器 API

1.3.14.1. 控制平面(control plane)机器集

OpenShift Container Platform 4.12 引入了 control plane 机器集。control plane 机器集为 control plane 机器提供管理功能,与为计算机器提供的计算机器集类似。如需更多信息,请参阅管理 control plane 机器

1.3.14.2. 指定集群自动扩展日志级别详细程度

OpenShift Container Platform 现在支持通过在 ClusterAutoscaler 自定义资源中设置 logVerbosity 参数来设置集群自动扩展的日志级别详细程度。如需更多信息,请参阅 ClusterAutoscaler 资源定义

1.3.14.3. 启用 Azure 引导诊断

OpenShift Container Platform 现在支持在机器集创建的 Azure 机器上启用引导诊断。如需更多信息,请参阅为计算机器control plane 机器 启用 Azure 引导诊断。

1.3.15. Machine Config Operator

1.3.15.1. RHCOS 镜像分层

Red Hat Enterprise Linux CoreOS (RHCOS) 镜像分层允许您在基本 RHCOS 镜像之上添加新镜像。此分层不会修改基本 RHCOS 镜像。相反,它会创建一个自定义层次镜像,其中包含所有 RHCOS 功能,并为集群中的特定节点添加额外的功能。

目前,RHCOS 镜像分层允许您根据 红帽 Hotfix 策略与客户体验和参与(CEE)在 RHCOS 镜像上获取并应用 Hotfix 软件包。计划在以后的发行版本,您可以使用 RHCOS 镜像分层来融合第三方软件包,如 Libreswan 或 numactl。

如需更多信息,请参阅 RHCOS 镜像分层

1.3.16. 节点

1.3.16.1. 更新特定于接口的安全列表(技术预览)

OpenShift Container Platform 现在支持更新默认特定于接口的安全 sysctl

您可以从预定义的列表中添加或删除 sysctl。添加 sysctl 时,可以在所有节点上设置它们。更新接口特定安全 sysctl 列表只是一个技术预览功能。

如需更多信息,请参阅更新特定于接口的安全 sysctl 列表

1.3.16.2. Cron Job 时区(技术预览)

现在,为 cron 作业调度设置时区是一个技术预览功能。如果没有指定时区,Kubernetes 控制器管理器会解释相对于其本地时区的调度。

如需更多信息,请参阅创建 cron 作业

1.3.16.3. Linux Control Group 版本 2 提升到技术预览

OpenShift Container Platform 对 Linux Control Group 版本 2 (cgroup v2)的支持被提升到技术预览。cgroup v2 是内核 控制组 的下一个版本。cgroups v2 提供了多个改进,包括统一的层次结构、安全子树委托、像 压力失速信息 这样的新功能,以及增强的资源管理和隔离。如需更多信息,请参阅启用 Linux Control Group 版本 2 (cgroup v2)。

1.3.16.4. crun 容器运行时(技术预览)

OpenShift Container Platform 现在在技术预览中支持 crun 容器运行时。您可以使用 ContainerRuntimeConfig 自定义资源(CR)在 crun 容器运行时和默认的容器运行时之间切换。如需更多信息,请参阅关于容器引擎和容器运行时

1.3.16.5. Self Node Remediation Operator 的改进

OpenShift Container Platform 现在支持 Self Node Remediation Operator 的 control plane 隔离。如果节点出现故障,您可以在 worker 节点和 control plane 节点上遵循补救策略。如需更多信息,请参阅 Red Hat OpenShift 的工作负载可用性

1.3.16.6. Node Health Check Operator 的改进

OpenShift Container Platform 现在支持 Node Health Check Operator 上的 control plane 隔离。如果节点出现故障,您可以在 worker 节点和 control plane 节点上遵循补救策略。如需更多信息,请参阅 Red Hat OpenShift 的工作负载可用性

Node Health Check Operator 现在还包含用于管理 Node Health Checks 的 Web 控制台插件。如需更多信息,请参阅 Red Hat OpenShift 的工作负载可用性

要安装或升级到 Node Health Check Operator 的最新版本,请使用 stable 订阅频道。如需更多信息,请参阅 Red Hat OpenShift 的工作负载可用性

1.3.17. 监控

此版本的监控堆栈包括以下新功能和修改后的功能。

1.3.17.1. 监控堆栈组件和依赖项更新

此发行版本包括监控堆栈组件和依赖项的以下版本更新:

  • kube-state-metrics 2.6.0
  • node-exporter 1.4.0
  • prom-label-proxy 0.5.0
  • Prometheus 2.39.1
  • prometheus-adapter 0.10.0
  • prometheus-operator 0.60.1
  • Thanos 0.28.1

1.3.17.2. 对警报规则的更改

注意

红帽不保证记录规则或警报规则的向后兼容性。

  • New

    • 添加了 TelemeterClientFailures 警报,它会在集群尝试和失败时以特定时间段内提交 Telemetry 数据触发。当请求失败率达到 15 分钟窗口中请求总速率的 20% 时,警报将触发。
  • 已更改

    • KubeAggregatedAPIDown 警报现在会在发送通知前等待 900 秒而不是 300 秒。
    • NodeClockNotSynchronisingNodeClockSkewDetected 警报现在只评估 node-exporter 作业的指标。
    • NodeRAIDDegradedNodeRAIDDiskFailure 警报现在包含一个设备标签过滤器,仅匹配 mmcblk.p.|nvme.|sd.|xvd.|xvd.|dm-.|dasd.+
    • 现在,当查询层存在高查询负载时,PrometheusHighQueryLoadThanosQueryOverload 警报也会触发。

1.3.17.3. 为监控组件指定 pod 拓扑分布限制的新选项

现在,当 OpenShift Container Platform pod 部署到多个可用区时,您可以使用 pod 拓扑分布约束来控制 Prometheus、Thanos Ruler 和 Alertmanager pod 如何分散到网络拓扑中。

1.3.17.4. 新的选项用于提高 Prometheus Adapter 的数据一致性

现在,您可以为 Prometheus Adapter (PA) 配置可选的 kubelet 服务,以提高多个自动扩展请求之间的数据一致性。启用这个服务监控器可以避免同时向 PA 发送的两个查询可能会产生不同的结果,因为 PA 执行的底层 PromQL 查询可能位于不同的 Prometheus 服务器上。

1.3.17.5. 更新至 Alertmanager 配置以提供额外的 secret 密钥

在这个版本中,如果您将 Alertmanager secret 配置为保存额外的密钥,如果 Alertmanager 配置引用这些密钥的文件(如模板、TLS 证书或令牌),您的配置设置必须使用绝对路径而不是相对路径指向这些密钥。这些键位于 /etc/alertmanager/config 目录下。在早期版本的 OpenShift Container Platform 中,您可以使用配置中的相对路径指向这些密钥,因为 Alertmanager 配置文件与密钥位于同一个目录中。

重要

如果要升级到 OpenShift Container Platform 4.12,并为引用为文件的额外 Alertmanager secret 密钥指定相对路径,您必须将这些相对路径改为 Alertmanager 配置中的绝对路径。否则,使用文件的警报接收器将无法发送通知。

1.3.18. 新的 Network Observability Operator

现在,您可以安装 Network Observability Operator 来在控制台中观察 OpenShift Container Platform 集群的网络流量。您可以使用不同的图形表示来查看和监控网络流量数据。Network Observability Operator 使用 eBPF 技术来创建网络流。网络流包括了 OpenShift Container Platform 的信息并存储在 Loki 中。您可以使用网络流量信息来详细地进行故障排除和分析。

如需更多信息,请参阅 Network Observability

1.3.19. 可伸缩性和性能

1.3.19.1. 使用工作负载提示禁用实时程序会从集群中删除 Receive Packet Steering

在默认情况下,systemd 服务为虚拟网络接口设置 Receive Packet Steering (RPS) 掩码。RPS 掩码根据性能配置集中定义的保留 CPU 列表,路由来自虚拟网络接口的请求。在容器级别,CRI-O hook 脚本还会为所有虚拟网络设备设置 RPS 掩码。

在这个版本中,如果您将性能配置集中的 spec.workloadHints.realTime 设置为 False,则系统还会禁用 systemd 服务和设置 RPS 掩码的 CRI-O hook 脚本。系统禁用这些 RPS 功能,因为 RPS 通常与需要低延迟、实时工作负载的用例相关。

要保留 RPS 功能,即使您将 spec.workloadHints.realTime 设置为 False,请参阅红帽知识库解决方案 Performance addons operator 高级配置 中的 RPS Settings 部分。

有关配置工作负载提示的更多信息,请参阅了解工作负载提示

1.3.19.2. tuned 配置集

tuned 配置集现在默认定义了 fs.aio-max-nr sysctl 值,改进了默认节点配置集的异步 I/O 性能。

1.3.19.3. 支持新内核功能和选项

低延迟调整已更新,以使用最新的内核功能和选项。2117780 的修复引入了一个新的针对每个 CPU 的 kthread,ktimers。这个线程必须固定到正确的 CPU 内核。在这个版本中,没有功能更改,工作负载的隔离是相同的。如需更多信息,请参阅 2102450

1.3.19.4. 节能配置

在 OpenShift Container Platform 4.12 中,通过启用 C-states 和 OS 控制的 P-states,您可以为关键和非关键工作负载使用不同的节能配置。您可以通过新的 perPodPowerManagement 工作负载提示和 cpu-c-states.crio.iocpu-freq-governor.crio.io CRI-O 注解来应用配置。有关该功能的更多信息,请参阅 节能配置

1.3.19.5. 使用 GitOps ZTP 使用 worker 节点扩展单节点 OpenShift 集群(技术预览)

在 OpenShift Container Platform 4.11 中,引入了一个新的 worker 节点到单节点 OpenShift 集群。此功能现在包括在 GitOps ZTP 中。

如需更多信息,请参阅使用 GitOps ZTP 将 worker 节点添加到单节点 OpenShift 集群

1.3.19.6. factory-precaching-cli 工具可以减少 OpenShift Container Platform 和 Operator 的部署时间(技术预览)

在 OpenShift Container Platform 4.12 中,您可以使用 factory-precaching-cli 工具预缓存 OpenShift Container Platform 和 Operator 镜像。然后,您可以将预缓存服务器包含在部署的站点。如需有关 factory-precaching-cli 工具的更多信息,请参阅单节点 OpenShift 部署的预缓存镜像

1.3.19.7. factory-precaching-cli 工具的 ZTP 集成(技术预览)

在 OpenShift Container Platform 4.12 中,您可以使用 GitOps ZTP 工作流中的 factory-precaching-cli 工具。如需更多信息,请参阅单节点 OpenShift 部署的预缓存镜像

1.3.19.8. 托管集群中的节点性能优化(技术预览)

现在,您可以使用 Node Tuning Operator 为托管集群中的节点配置 OS 级别性能优化。要配置节点性能优化,您可以在包含 Tuned 对象的管理集群中创建配置映射,并在节点池中引用这些配置映射。Tuned 对象中防御的调优配置应用到节点池中的节点。如需更多信息,请参阅在托管集群中配置节点调整

1.3.19.9. 内核模块管理 Operator

内核模块管理 (KMM) Operator 替换了特殊资源 Operator (SRO)。KMM 仅对连接的环境提供以下功能:

  • 对于边缘部署支持 hub 和 spoke
  • 支持升级的 pre-flight 检查
  • 安全引导内核模块签名
  • 必须收集日志以帮助进行故障排除
  • 二进制固件部署

1.3.19.10. hub 和 spoke 集群支持(技术预览)

对于一个可以访问互联网的环境中的 hub 和 spoke 部署,您可以使用 hub 集群中部署的内核模块管理 (KMM) Operator 来管理将所需的内核模块部署到一个或多个受管集群。

1.3.19.11. Topology Aware Lifecycle Manager (TALM)

Topology Aware Lifecycle Manager (TALM) 现在提供更详细的状态信息和信息,以及重新设计的条件。您可以使用 ClusterLabelSelector 字段在选择集群进行更新时具有更大的灵活性。您可以使用超时设置来确定集群是否有更新失败,例如跳过失败的集群并继续升级其他集群,或停止所有集群的策略补救。如需更多信息,请参阅集群更新的 Topology Aware Lifecycle Manager

1.3.19.12. 挂载命名空间封装(技术预览)

封装是将所有特定于 Kubernetes 的挂载点的过程移到备用命名空间,以减少 default 命名空间中大量挂载点的可见性和性能影响。在以前的版本中,OpenShift Container Platform 中已透明地部署命名空间封装,专门用于使用 GitOps ZTP 安装的分布式单元 (DU)。在 OpenShift Container Platform v4.12 中,这个功能现在作为一个可配置的选项提供。

标准的主机操作系统使用 systemd 持续扫描所有挂载命名空间:标准 Linux 挂载和 Kubernetes 用来操作的大量挂载。Kubelet 和 CRI-O 的当前实现都使用所有容器和 Kubelet 挂载点的顶级命名空间。在私有命名空间中封装这些特定于容器的挂载点可减少 systemd 开销并提高了 CPU 性能。封装也可以通过将 Kubernetes 特定挂载点存储在非特权用户安全检查的位置来提高安全性。

如需更多信息,请参阅使用挂载命名空间封装优化 CPU 使用量

1.3.19.13. 更改使用 GitOps ZTP 部署的单节点 OpenShift 集群中设置的工作负载分区 CPU

您可以使用 GitOps ZTP 在单节点 OpenShift 集群中配置工作负载分区 CPU。要做到这一点,您可以使用 SiteConfig 自定义资源 (CR) 的 cpuset 字段指定集群管理 CPU 资源,以及组 PolicyGenTemplate CR 的 reserved 字段。为 cpuset 设置的值应与工作负载分区的集群 PerformanceProfile CR .spec.cpu.reserved 字段中设置的值匹配。

如需更多信息,请参阅工作负载分区

1.3.19.14. RHACM hub 模板功能现在可用于 GitOps ZTP

hub 模板功能现在可用于使用 Red Hat Advanced Cluster Management (RHACM) 和 Topology Aware Lifecycle Manager (TALM) 的 GitOps ZTP。hub-side 集群模板减少了对带有辅助配置但具有不同值的很多集群创建单独的策略的需求。如需更多信息,请参阅在 PolicyGenTemplate CR 中使用 hub 模板

1.3.19.15. ArgoCD 受管集群限制

RHACM 使用 SiteConfig CR 为 ArgoCD 生成第 1 天受管集群安装 CR。每个 ArgoCD 应用程序都可以管理最多 300 个 SiteConfig CR。如需更多信息,请参阅使用 ArgoCD 配置 hub 集群

1.3.19.16. GitOps ZTP 支持在 PolicyGenTemplate CR 中配置策略合规评估超时

在 GitOps ZTP v4.11+ 中,默认的策略合规评估超时值可用于 PolicyGenTemplate 自定义资源(CR)。这个值指定相关的 ConfigurationPolicy CR 在 RHACM 重新评估集群策略前处于策略合规或不合规状态的时长。

现在,您可以为 PolicyGenTemplate CR 中的所有策略覆盖默认评估间隔。

如需更多信息,请参阅为 PolicyGenTemplate CR 配置策略合规性评估超时

1.3.19.17. 为受管集群指定平台类型

Assisted Installer 目前支持以下 OpenShift Container Platform 平台:

  • 裸机
  • vSphere
  • None

单节点 OpenShift 不支持 VSphere

1.3.19.18. 将 hub 集群配置为使用未经身份验证的 registry

此发行版本支持在配置 hub 集群时使用未经身份验证的 registry。不需要身份验证的 registry 列在 AgentServiceConfig 资源的 spec.unauthenticatedRegistries 下。任何此列表中的 registry 都不需要在用于 spoke 集群安装的 pull secret 中有一个条目。assisted-service 通过确保包含用于安装的每个镜像 registry 的身份验证信息来验证 pull secret。

如需更多信息,请参阅配置 hub 集群以使用未经身份验证的 registry

1.3.19.19. 断开连接的 GitOps ZTP 安装中的 ironic 代理镜像

对于使用 GitOps ZTP 的断开连接的安装,如果您要将 OpenShift Container Platform 版本 4.11 或更早版本部署到启用了聚合流的 spoke 集群,您必须将默认 Ironic 代理镜像(mirror) 到本地镜像仓库。默认 Ironic 代理镜像如下:

  • AMD64 Ironic 代理镜像:quay.io/openshift-release-dev/ocp-v4.0-art-dev@sha256:d3f1d4d3cd5fbcf1b9249dd71d01be4b901d337fdc5f8f66569eb71df4d9d446
  • AArch64 Ironic 代理镜像:quay.io/openshift-release-dev/ocp-v4.0-art-dev@sha256:cb0edf19fffc17f542a7efae76939b1e9757dc75782d4727fb0aa77ed5809b43

如需有关镜像镜像的更多信息,请参阅镜像 OpenShift Container Platform 镜像存储库

1.3.19.20. 使用 GitOps ZTP 为发现 ISO 配置内核参数

OpenShift Container Platform 现在支持在 GitOps ZTP 部署中为 Discovery ISO 指定内核参数。在手动和自动化 GitOps ZTP 部署中,发现 ISO 是受管裸机主机上的 OpenShift Container Platform 安装过程的一部分。您现在可以编辑 InfraEnv 资源来为 Discovery ISO 指定内核参数。这对具有特定环境要求的集群安装非常有用。例如,您可以定义 rd.net.timeout.carrier 内核参数,以帮助为静态网络配置集群。

有关如何指定内核参数的更多信息,请参阅使用 GitOps ZTP 为 Discovery ISO 配置内核参数,以及使用 GitOps ZTP 为手动安装配置内核参数

1.3.19.21. 从 hub 集群部署异构 spoke 集群

在这个版本中,您可以创建 OpenShift Container Platform 混合架构集群,也称为异构集群,该功能主机具有 AMD64 和 AArch64 CPU 架构。您可以从由 Red Hat Advanced Cluster Management (RHACM) 管理的 hub 集群部署异构 spoke 集群。要创建异构 spoke 集群,将 AArch64 worker 节点添加到部署的 AMD64 集群中。

要将 AArch64 worker 节点添加到部署的 AMD64 集群,您可以使用 InfraEnv 自定义资源 (CR) 指定 AArch64 架构、多架构发行镜像和节点所需的操作系统。然后,您可以使用 Assisted Installer API 和 InfraEnv CR 将 AArch64 worker 节点置备到 AMD64 集群。

1.3.19.22. HTTP 传输替换了 PTP 和裸机事件的 AMQP (技术预览)

HTTP 现在是 PTP 和裸机事件基础架构的默认传输。AMQ Interconnect 于 2024 年 6 月 30 日结束生命周期(EOL)。

如需更多信息,请参阅关于 PTP 快速事件通知框架

1.3.20. Insights Operator

1.3.20.1. Insights 警报

在 OpenShift Container Platform 4.12 中,现在以警报的形式向用户提供有效的 Insights 建议。您可以使用 Alertmanager 查看并配置这些警报。

1.3.20.2. 深入了解 Operator 数据收集功能的增强

在 OpenShift Container Platform 4.12 中,Insights Operator 现在收集以下指标:

  • console_helm_uninstalls_total
  • console_helm_upgrades_total

1.3.21. 认证和授权

1.3.21.1. RHOSP 上的应用程序凭证

现在,您可以在 Red Hat OpenStack Platform (RHOSP) 上运行的集群的 clouds.yaml 文件中指定应用程序凭证。应用凭据是在配置文件中嵌入用户帐户详细信息的替代选择。例如,请参阅 clouds.yaml 文件的以下部分,其中包含用户帐户详情:

clouds:
    openstack:
        auth:
            auth_url: https://127.0.0.1:13000
            password: thepassword
            project_domain_name: Default
            project_name: theprojectname
            user_domain_name: Default
            username: theusername
        region_name: regionOne

将该部分与使用应用程序凭证的比较:

clouds:
    openstack:
        auth:
            auth_url: https://127.0.0.1:13000
            application_credential_id: '5dc185489adc4b0f854532e1af81ffe0'
            application_credential_secret: 'PDCTKans2bPBbaEqBLiT_IajG8e5J_nJB4kvQHjaAy6ufhod0Zl0NkNoBzjn_bWSYzk587ieIGSlT11c4pVehA'
        auth_type: "v3applicationcredential"
        region_name: regionOne

要将应用程序凭证作为 RHOSP 管理员与集群一起使用,请创建凭证。然后,当您安装集群时,在 clouds.yaml 文件中使用它们。另外,您可以创建 clouds.yaml 文件,并将其轮转到现有集群中。

1.3.22. 托管 control plane(技术预览)

1.3.22.1. HyperShift API beta 版本现在可用

hypershift.openshift.io API 的默认版本是 OpenShift Container Platform 上托管 control plane 的 API,现在是 v1beta1。目前,对于一个现有的集群,不支持从 alpha 更新到 beta。

1.3.22.2. 托管 control plane 的版本控制

OpenShift Container Platform 的每个主版本、次版本或补丁版本都会发布 HyperShift Operator。HyperShift 命令行界面 (CLI) 作为每个 HyperShift Operator 发行版本的一部分发布。

HostedClusterNodePool API 资源在 API 的 beta 版本中提供,并遵循与 OpenShift Container PlatformKubernetes 类似的策略。

1.3.22.3. 在托管集群中备份和恢复 etcd

如果您在 OpenShift Container Platform 上使用托管的 control plane,可以通过生成 etcd 快照来备份和恢复 etcd,并将其上传到稍后可以检索它的位置,如 S3 存储桶。之后,您可以恢复快照。如需更多信息,请参阅在托管集群中备份和恢复 etcd

1.3.22.4. AWS 区域托管的集群的灾难恢复

对于托管集群需要灾难恢复的情况,您可以将托管集群恢复到 AWS 中的同一区域。如需更多信息,请参阅 AWS 区域中的托管集群的灾难恢复

1.3.23. Red Hat Virtualization(RHV)

此发行版本为 Red Hat Virtualization (RHV) 提供了几个更新。在这个版本中:

  • oVirt CSI 驱动程序日志记录被修改并带有新的错误消息,以提高日志的清晰性和可读性。
  • 在 OpenShift Container Platform 中更改时,集群 API 供应商会自动更新 oVirt 和 Red Hat Virtualization (RHV) 凭证。
Red Hat logoGithubRedditYoutubeTwitter

学习

尝试、购买和销售

社区

关于红帽文档

通过我们的产品和服务,以及可以信赖的内容,帮助红帽用户创新并实现他们的目标。

让开源更具包容性

红帽致力于替换我们的代码、文档和 Web 属性中存在问题的语言。欲了解更多详情,请参阅红帽博客.

關於紅帽

我们提供强化的解决方案,使企业能够更轻松地跨平台和环境(从核心数据中心到网络边缘)工作。

© 2024 Red Hat, Inc.