发行注记


Red Hat Advanced Cluster Management for Kubernetes 2.15

了解新功能,访问 Red Hat Advanced Cluster Management 支持列表,并查看勘误更新。查找已知问题和限制、弃用和删除以及 GDPR 和 FIPS 就绪的信息。

摘要

了解有关新的、勘误更新、已知问题、弃用和删除以及 GDPR 和 FIPS 就绪的产品注意事项的更多信息。

了解 Red Hat Advanced Cluster Management 2.15 的新功能、支持、弃用、删除以及勘误发行版本的问题。

重要: 集群生命周期组件和功能位于多集群引擎 operator 中,它是增强集群管理的软件操作器。多集群引擎 operator 的 Cluster 生命周期的发行注记 包括在发行注记中。

访问 Red Hat Advanced Cluster Management Support Matrix,了解 hub 集群和受管集群的要求以及每个组件的支持。如需生命周期信息,请参阅 Red Hat OpenShift Container Platform 生命周期政策

重要: OpenShift Container Platform 发行注记没有包括在此文档中。对于 OpenShift Container Platform 集群,请参阅 OpenShift Container Platform 发行注记

弃用: Red Hat Advanced Cluster Management 2.9 及更早的版本不再被支持。文档可能仍然可用,但没有任何勘误版本用于固定问题或其他更新。

最佳实践: 升级到最新版本。

Red Hat Advanced Cluster Management for Kubernetes 2.15 为您提供了整个 Kubernetes 域的可见性,以及内置的监管、集群生命周期管理和应用程序生命周期管理,以及可观察性。

Red Hat Advanced Cluster Management 版本 2.15 带有 multicluster engine operator 版本 2.10 for Cluster 生命周期管理发布。要了解集群管理,请参阅 multicluster engine operator 的集群生命周期的发行注记

访问 Red Hat Advanced Cluster Management Support Matrix,了解 hub 集群和受管集群的要求以及每个组件的支持。如需生命周期信息,请参阅 Red Hat OpenShift Container Platform 生命周期政策

重要:

  • Red Hat Advanced Cluster Management 支持通过云原生计算基础(CNCF) Kubernetes 一致性计划认证的所有供应商。为混合云多集群管理选择 CNCF 可识别的供应商。请参阅以下有关使用 CNCF 供应商的信息:
  • 了解 CNCF 供应商如何通过认证的 Kubernetes 一致性进行认证
  • 有关 CNCF 第三方供应商的信息,请参阅红帽 与第三方组件的支持,或 联系红帽支持
  • 如果您具有自己的 CNCF 一致性认证集群,您需要将 OpenShift Container Platform CLI oc 命令改为 Kubernetes CLI 命令 kubectl

1.1.1. 这个版本的一般公告

Red Hat Advanced Cluster Management 现在可通过按需或年度定价和简化的账单选项在 AWS Marketplace 上提供,以便在 Red Hat OpenShift Service on AWS 集群上运行 Red Hat Advanced Cluster Management。AWS Marketplace 上的 Red Hat Advanced Cluster Management 提供账单一致性、灵活的资源消耗和成本效率。

  • 从 AWS Marketplace 购买,您可以安装 MultiClusterHub 资源并管理集群。要查看总体消耗,请转至 console.redhat.com。点 Subscriptions Usage > OpenShift。从下拉菜单中选择 Variant: Red Hat Advanced Cluster Management
  • 将 Attach 功能与 Red Hat OpenShift Lightspeed 一起使用,它是一个由 Red Hat OpenShift Container Platform 的 generative AI 支持的虚拟助手,添加受管集群资源详情作为问题的上下文。请参阅 Red Hat OpenShift Lightspeed 安装文档以了解如何安装 Lightspeed。安装后,点任何受管集群页面中的 Infrastructure > Clusters > Cluster details 访问这个助手。Attach 功能会自动将 ManagedClusterManagedClusterInfo 资源的相关集群 YAML 文件详情添加到代理对话中。

1.1.2. 每个组件的新功能和增强

了解 Red Hat Advanced Cluster Management 中组件的详情:

一些功能和组件作为技术预览发布。

1.1.3. 安装

了解 Red Hat Advanced Cluster Management 安装的功能和增强。

重要: multicluster engine operator 安装发行注记包括在 Cluster lifecycle with multicluster engine operator 文档中,本文档已在本主题前面链接。

  • Red Hat OpenShift Software Catalog 替换了之前的 OperatorHub 控制台。安装 Red Hat Advanced Cluster Management Operator 或 multicluster engine operator Operator 时,您可以从新的 Red Hat OpenShift Software Catalog 中选择这些 Operator。
  • Red Hat Advanced Cluster Management 升级过程进行了改进,以便以所需支持级别在 hub 集群上升级 OpenShift Container Platform 版本的更准确性和依赖。有关升级过程的更多信息 ,请参阅从控制台升级 hub 集群

MultiClusterHub 高级配置 中了解 Red Hat Advanced Cluster Management 高级配置选项。

1.1.4. 控制台(Console)

了解 Red Hat Advanced Cluster Management 集成控制台中的新功能,其中包括搜索功能。

  • 对于 Argo CD ApplicationSet 资源,您可以手动选择 Sync 来协调部署的应用程序和源。
  • 从视角选择器,选择 Fleet Management 来访问 OpenShift Container Platform 控制台中的 Red Hat Advanced Cluster Management。如需更多信息,请参阅 访问控制台

有关 控制台的更多信息,请参阅 Web 控制台。

1.1.5. Clusters

有关 multicluster engine operator 的新功能,请参阅文档中的集群部分使用 multicluster engine operator 的集群 生命周期的新功能和增强

有关使用 Red Hat Advanced Cluster Management 进行集群管理,请参阅以下新功能和增强:

查看其他集群管理任务并支持 带有多集群引擎 operator 的集群生命周期的信息

1.1.6. 多集群全局 hub

了解 multicluster global hub 的新内容。

1.1.7. 应用程序

了解应用程序管理的新功能。

1.1.8. Observability(可观察性)

  • 使用 RightSizingRecommendation 来优化工作负载并了解跨虚拟机的资源使用情况。如需更多信息,请参阅 RightSizingRecommendation Guide (技术预览)。
  • 启用多集群观察附加组件,作为从受管集群收集平台指标和用户工作负载的替代方法。如需更多信息,请参阅 多集群观察附加组件
  • Observability 服务与特定版本的技术兼容。了解 Observability 服务当前版本支持哪些版本。请参阅 Observability 架构 主题中的组件版本表列表。

请参阅 Observability 服务 以了解更多信息。

1.1.9. 监管

  • 使用 Gatekeeper operator,您有新的 Operator 配置,包括更改 Webhook 的独立选项。如需更多信息 ,请参阅配置 Gatekeeper operator
  • 您可以使用 lookupClusterClaim 功能检测空字符串,您可以在首选模板功能中添加它来完成。如需更多信息,请参阅 lookupClusterClaim
  • 技术预览: 当您解析模板时,请使用-- lint 参数来显示策略工具中找到的策略工具的问题。
  • 启用 --from-cluster 标志,以针对实际集群状态测试策略,而无需手动导出和支持资源文件。如需更多信息,请参阅 策略命令行工具
  • 现在,您可以在受管集群中查看策略状态的最后 10 个事件。如需有关策略事件历史记录的更多详细信息,请参阅 策略部署
  • 如需了解更多有关仪表板和策略框架的信息,请参阅监管

1.1.10. 业务连续性

了解 备份和恢复和 VolSync 组件的新功能。

要了解 VolSync,它启用了集群中持久性卷的异步复制,请参阅 VolSync 持久性卷复制服务

要了解备份和恢复,请参阅 备份和恢复

1.1.11. 网络

  • 现在,您可以在没有 Globalnet 的情况下在 Submariner 上部署带有 OVN-Kubernetes Container Network Interface 的双栈集群。如需了解更多详细信息,请参阅配置 Submariner

请参阅 网络

1.1.12. 虚拟化

  • 技术预览: 您可以为受管集群迁移虚拟机,以帮助您在升级和配置更改过程中移动集群资源。如需更多信息,请参阅 在集群间迁移虚拟机(技术预览)。
  • 重要: 要在 Red Hat Advanced Cluster Management 中使用虚拟化功能,请确保在您要管理的集群上安装了受支持的 OpenShift Container Platform 版本和 Red Hat OpenShift Virtualization Operator。对于 Red Hat Advanced Cluster Management 2.15,您需要使用 Red Hat OpenShift Virtualization 4.20.1 或更高版本。

请参阅 虚拟化

1.1.13. 了解有关此发行版本的更多信息

查看有关发行版本以及产品支持信息的更多信息。

默认情况下,勘误 版本的固定问题会在发布时自动应用。当发行版本可用时,会在此处发布详情。如果没有列出发行注记,则该产品目前没有勘误版本。

重要: 为了便于参考,JIRA 链接和 JIRA 号可能会添加到内容中并在内部使用。用户可能不能使用访问的链接。了解红帽 的勘误类型

有关升级的更多信息,请参阅使用 operator 升级

重要: 集群生命周期组件和功能位于多集群引擎 operator 中,它是增强集群管理的软件操作器。多集群引擎 operator 的 Cluster 生命周期的发行注记 包括在发行注记中。

1.3. 已知问题 Red Hat Advanced Cluster Management

检查应用程序管理的已知问题。以下列表包含本发行版本的已知问题,或从上一版本中继承的问题。

重要: 集群生命周期组件和功能位于多集群引擎 operator 中,它是增强集群管理的软件操作器。多集群引擎 operator 的 Cluster 生命周期的发行注记 包括在发行注记中。

重要: OpenShift Container Platform 发行注记没有包括在此文档中。对于 OpenShift Container Platform 集群,请参阅 OpenShift Container Platform 发行注记

有关弃用和删除的更多信息,请参阅为 Red Hat Advanced Cluster Management 弃用和删除

1.3.1. 已知的与安装相关的问题

查看安装和升级的已知问题。以下列表包含本发行版本的已知问题,或从上一版本中继承的问题。

对于 Red Hat OpenShift Container Platform 集群,请参阅 OpenShift Container Platform 已知问题

有关弃用和删除的更多信息,请参阅为 Red Hat Advanced Cluster Management 弃用和删除

如果您从 OpenShift Container Platform 卸载 Red Hat Advanced Cluster Management,如果您稍后想要安装早期版本,则会导致问题。例如,当卸载 Red Hat Advanced Cluster Management 时,安装早期版本的 Red Hat Advanced Cluster Management 和升级该版本,升级可能会失败。如果没有删除自定义资源,升级会失败。

重新安装步骤前,按照清理工件 以防止出现这个问题。

ACM-14343

如果您在使用 Image -Based Break/Fix 重新安装集群时更改 spec.nodes.<node-id>.bmcAddress 字段,则 SiteConfig operator 无法联系原始机器 nd 无法从原始集群中删除数据镜像资源。要临时解决这个问题,请在使用基于镜像的 Break/Fix 重新安装集群前从数据镜像资源中删除终结器。

  • 要从数据镜像资源中删除终结器,请运行以下命令:

    $ oc patch dataimages.metal3.io -n target-0 target-0-0 --patch '{"metadata":{"finalizers":[]}}' --type merge
    dataimage.metal3.io/target-0-0 patched
    Copy to Clipboard Toggle word wrap

ACM-21889

1.3.2. 已知的业务连续问题

查看 Red Hat Advanced Cluster Management for Kubernetes 中的已知问题。以下列表包含本发行版本的已知问题,或从上一版本中继承的问题。

对于 Red Hat OpenShift Container Platform 集群,请参阅 OpenShift Container Platform 已知问题

有关弃用和删除的更多信息,请参阅为 Red Hat Advanced Cluster Management 弃用和删除

1.3.2.1. 备份和恢复已知问题

此处列出了备份和恢复已知问题和限制,以及临时解决方案(如果可用)。

1.3.2.2. 默认不会备份 BareMetalHost 资源

您可以使用 BareMetalHosts 自动将主机添加到主机清单中。默认情况下,您的 BareMetalHost 不包含在您的备份中。

要将 BareMetalHosts 包含在您的备份中,请将 cluster.open-cluster-management.io/backup: cluster-activation 标签添加到 BareMetalHosts 中。如需更多信息,请参阅 受管集群激活时间 恢复的资源。

ACM-26582

1.3.2.2.1. Velero 恢复限制

如果在其中恢复数据的新 hub 集群有用户创建的资源,则这个新的 hub 集群可能会有与活跃的 hub 集群不同的配置。例如,在将备份的数据恢复到新的 hub 集群中之前,在这个新的 hub 集群上可能已包括了一个现存的策略。

如果不是恢复的备份的一部分,Velero 会跳过现存的资源,因此新 hub 集群上的策略不会改变,这会导致新 hub 集群和活跃 hub 集群之间的不同配置。

为解决这个问题,集群备份和恢复 Operator 可以运行一个恢复后的操作以清理由用户创建的资源,或在 restore.cluster.open-cluster-management.io 资源时执行不同的恢复操作。

如需更多信息,请参阅恢复主题 后清理 hub 集群

ACM-21861

1.3.2.2.2. 被动配置不显示受管集群

只有在被动 hub 集群上恢复激活数据时,才会显示受管集群。

ACM-22098

1.3.2.2.3. 未恢复受管集群资源

当您恢复 local-cluster 受管集群资源的设置并覆盖新 hub 集群中的 local-cluster 数据时,设置会被错误配置。上一个 hub 集群 local-cluster 的内容没有备份,因为资源包含 local-cluster 特定信息,如集群 URL 详情。

您必须在恢复集群中手动应用与 local-cluster 资源相关的配置更改。请参阅 安装备份和恢复 Operator 主题 中的 准备新 hub 集群

ACM-21054

当您为 Hive 受管集群恢复更改或轮转颁发机构 (CA) 的备份时,受管集群将无法连接到新的 hub 集群。连接会失败,因为此受管集群的 admin kubeconfig secret 通过备份提供,所以不再有效。

您必须在新 hub 集群中手动更新受管集群的恢复的 admin kubeconfig secret。

ACM-25461

在主 hub 集群上手动导入的受管集群会在被动 hub 集群上恢复激活数据时显示一个 Pending Import 状态。如需更多信息,请参阅使用受管服务帐户连接集群

ACM-1890

当在新 hub 集群上恢复 hub 集群数据时,appliedmanifestwork 不会从没有固定集群集的应用程序订阅的放置规则的受管集群中删除。

有关不是固定集群集的应用程序订阅,请参阅以下放置规则示例:

spec:
  clusterReplicas: 1
  clusterSelector:
    matchLabels:
      environment: dev
Copy to Clipboard Toggle word wrap

因此,当受管集群从恢复的 hub 集群分离时,应用程序会被孤立。

要避免这个问题,请在放置规则中指定固定的集群集。请参见以下示例:

spec:
  clusterSelector:
    matchLabels:
      environment: dev
Copy to Clipboard Toggle word wrap

您还可以通过运行以下命令来手动删除剩余的 appliedmanifestwork

oc delete appliedmanifestwork <the-left-appliedmanifestwork-name>
Copy to Clipboard Toggle word wrap

ACM-27129

1.3.2.3. VolSync 已知问题

恢复管理使用自定义 CA 证书的 hub 集群的备份后,受管集群和 hub 集群之间的连接可能会失败。这是因为在恢复的 hub 集群上没有备份 CA 证书。要恢复连接,将受管集群的命名空间中自定义 CA 证书信息复制到恢复的 hub 集群上的 <managed_cluster>-admin-kubeconfig secret。

注: 如果您在创建备份副本前将此 CA 证书复制到 hub 集群,备份副本会包括 secret 信息。当您使用备份副本来恢复时,hub 集群和受管集群之间的连接会自动完成。

ACM-19481

1.3.3. 已知的控制台问题

查看控制台的已知问题。以下列表包含本发行版本的已知问题,或从上一版本中继承的问题。

对于 Red Hat OpenShift Container Platform 集群,请参阅 OpenShift Container Platform 已知问题

有关弃用和删除的更多信息,请参阅为 Red Hat Advanced Cluster Management 弃用和删除

1.3.3.1. klusterlet-addon-search pod 失败

klusterlet-addon-search pod 失败,因为达到内存限制。您必须通过自定义受管集群中的 klusterlet-addon-search 部署来更新内存请求和限制。在 hub 集群中编辑名为 search-collectorManagedclusterAddon 自定义资源。在 search-collector 中添加以下注解并更新 memory, addon.open-cluster-management.io/search_memory_request=512Miaddon.open-cluster-management.io/ search_memory_limit=1024Mi

例如,如果您有一个名为 foobar 的受管集群,请运行以下命令将内存请求更改为 512Mi,内存限值为 1024Mi

oc annotate managedclusteraddon search-collector -n foobar \
addon.open-cluster-management.io/search_memory_request=512Mi \
addon.open-cluster-management.io/search_memory_limit=1024Mi
Copy to Clipboard Toggle word wrap

ACM-27173

1.3.3.2. 搜索不显示受管集群的节点信息

搜索 hub 集群中资源的 RBAC 映射。根据 RBAC 设置,用户可能无法看到来自受管集群的节点数据。搜索的结果可能与集群的 Nodes 页面中显示的结果不同。

ACM-4598

1.3.3.3. 无法在控制台中升级 OpenShift Dedicated

在控制台中,您可以为 OpenShift Dedicated 集群请求升级,但升级会失败,并显示 Cannot upgrade non openshift cluster 错误消息。目前没有临时解决方案。

ACM-10143

search-postgres pod 处于 CrashLoopBackoff 状态。如果 Red Hat Advanced Cluster Management 部署到启用了 hugepages 参数的节点,并且 search-postgres pod 调度到这些节点中,则 pod 不会启动。

完成以下步骤以增加 search-postgres pod 的内存:

  1. 使用以下命令暂停 search-operator pod:

    oc annotate search search-v2-operator search-pause=true
    Copy to Clipboard Toggle word wrap
  2. 使用 hugepages 参数的限制来更新 search-postgres 部署。运行以下命令,将 hugepages 参数设置为 512Mi

    oc patch deployment search-postgres --type json -p '[{"op": "add", "path": "/spec/template/spec/containers/0/resources/limits/hugepages-2Mi", "value":"512Mi"}]'
    Copy to Clipboard Toggle word wrap
  3. 在验证 pod 的内存用量前,请确保您的 search-postgres pod 处于 Running 状态。运行以下命令:

    oc get pod <your-postgres-pod-name>  -o jsonpath="Status: {.status.phase}"
    Copy to Clipboard Toggle word wrap
  4. 运行以下命令,以验证 search-postgres pod 的内存用量:

    oc get pod <your-postgres-pod-name> -o jsonpath='{.spec.containers[0].resources.limits.hugepages-2Mi}'
    Copy to Clipboard Toggle word wrap

此时会出现以下值: 512Mi

ACM-7467

1.3.3.5. 无法编辑集群集的命名空间绑定

当使用 admin 角色或 bind 角色编辑集群集的命名空间绑定时,您可能会遇到类似以下消息的错误:

ResourceError: managedclustersetbindings.cluster.open-cluster-management.io "<cluster-set>" is forbidden: User "<user>" cannot create/delete resource "managedclustersetbindings" in API group "cluster.open-cluster-management.io" in the namespace "<namespace>".

要解决这个问题,请确保还有权在您要绑定的命名空间中创建或删除 ManagedClusterSetBinding 资源。角色绑定只允许将集群集绑定到命名空间。

ACM-25389

置备托管的 control plane 集群后,如果 ClusterVersionUpgradeable 参数太长,您可能无法在 Red Hat Advanced Cluster Management 控制台的集群概述中水平滚动。因此,您无法查看隐藏的数据。

要临时解决这个问题,请使用浏览器缩放控制来缩放,增加 Red Hat Advanced Cluster Management 控制台窗口大小,或者复制文本并将其粘贴到不同的位置。

ACM-27107

如果您没有在 OpenShift Cloud Manager 控制台中访问 cluster-ID,您仍然可以从终端获取 Red Hat OpenShift Service on AWS cluster-ID 的描述。您需要 Red Hat OpenShift Service on AWS 命令行界面。请参阅 Red Hat OpenShift Service on AWS CLI 文档。

要获取 cluster-ID,请从 Red Hat OpenShift Service on AWS 命令行界面运行以下命令:

rosa describe cluster --cluster=<cluster-name> | grep -o ’^ID:.*
Copy to Clipboard Toggle word wrap

ACM-10651

1.3.4. 已知的与集群管理相关的问题和限制

查看 Red Hat Advanced Cluster Management 的 Cluster Management 的已知问题。以下列表包含此版本的已知问题,或从上一版本中继续存在的已知问题。

有关使用独立多集群引擎 Operator 的集群管理,请参阅 multicluster engine operator 文档中的 集群生命周期已知问题和限制

1.3.4.1. hub 集群通信限制

如果 hub 集群无法访问或与受管集群通信,则会出现以下限制:

  • 您不能使用控制台创建新的受管集群。您仍然可以使用命令行界面或使用控制台中的 手动运行 import 命令 导入受管集群。
  • 如果您使用控制台部署 Application 或 ApplicationSet,或者您将受管集群导入到 ArgoCD 中,hub 集群 ArgoCD 控制器会调用受管集群 API 服务器。您可以使用 AppSub 或 ArgoCD pull 模型来解决这个问题。

ACM-6292

1.3.4.2. local-cluster 可能无法自动重新创建

如果在 disableHubSelfManagement 被设置为 false 时删除 local-cluster,则 MulticlusterHub operator 会重新创建 local-cluster。分离 local-cluster 后,可能不会自动重新创建 local-cluster。

  • 要解决这个问题,修改由 MulticlusterHub operator 监控的资源。请参见以下示例:

    oc delete deployment multiclusterhub-repo -n <namespace>
    Copy to Clipboard Toggle word wrap
  • 要正确分离 local-cluster,在 MultiClusterHub 中将 disableHubSelfManagement 设置为 true。

ACM-17790

当您意外尝试以不同名称的集群形式重新导入名为 local-cluster 的集群时,local-cluster 和重新导入的集群的状态将 离线

要从这个问题单中恢复,请完成以下步骤:

  1. 在 hub 集群中运行以下命令,以临时编辑 hub 集群的自助管理设置:

    oc edit mch -n open-cluster-management multiclusterhub
    Copy to Clipboard Toggle word wrap
  2. 添加 spec.disableSelfManagement=true 设置。
  3. 在 hub 集群中运行以下命令以删除并重新部署 local-cluster:

    oc delete managedcluster local-cluster
    Copy to Clipboard Toggle word wrap
  4. 输入以下命令删除 local-cluster 管理设置:

    oc edit mch -n open-cluster-management multiclusterhub
    Copy to Clipboard Toggle word wrap
  5. 删除之前添加的 spec.disableSelfManagement=true

ACM-16977

1.3.4.4. hub 集群和受管集群的时钟未同步

hub 集群和管理集群的时间可能会不同步,在控制台中显示 unknown,当在几分钟内会变为 available。确保正确配置了 OpenShift Container Platform hub 集群时间。请参阅 自定义节点

ACM-5636

1.3.5. 已知的虚拟化问题

查看 Red Hat Advanced Cluster Management Virtualization 功能的已知问题。以下列表包含本发行版本的已知问题,或从上一版本中继承的问题。

对于 Red Hat OpenShift Container Platform 集群,请参阅 OpenShift Container Platform 已知问题

有关弃用和删除的更多信息,请参阅为 Red Hat Advanced Cluster Management 弃用和删除

请参阅以下在 Red Hat Advanced Cluster Management 中使用 Red Hat OpenShift Virtualization 时可能会出现的已知问题和限制:

不支持带有 Red Hat OpenShift Virtualization 4.20 的 Red Hat Advanced Cluster Management 2.15 Virtualization。您需要在 Red Hat Advanced Cluster Management 2.15 中使用 Red Hat OpenShift Virtualization 4.20.1 或更高版本。

1.3.6. 已知的与应用程序相关的问题和限制

检查应用程序管理的已知问题。以下列表包含本发行版本的已知问题,或从上一版本中继承的问题。

对于 Red Hat OpenShift Container Platform 集群,请参阅 OpenShift Container Platform 已知问题

有关弃用和删除的更多信息,请参阅为 Red Hat Advanced Cluster Management 弃用和删除

请参阅以下对应用程序生命周期组件的已知问题。

当您将 OpenShift GitOps operator 升级到 1.17 版本时,您可以在 ApplicationSet 资源状态中获得权限错误。

要解决这个问题,请完成以下步骤:

  1. 进入 openshift-gitops 命名空间,再删除名为 openshift-gitops-applicationset-controller-placementRoleBinding 资源。
  2. 重启 open-cluster-management 命名空间中的 multicluster-operators-application-\*\ pod。

ACM-23907

1.3.6.2. 订阅应用程序显示不正确的警告信息

当您部署 Subscription 应用程序(已弃用)时,它会在 Application Topology 页面中为 Subscription 节点显示警告信息。如果您检查订阅节点详情,它会错误地显示 local-cluster 离线。

从 Console 导航中点 Infrastructure > Clusters 来检查 local-cluster 的实际状态。

ACM-18544

当应用程序资源在 hub 集群中更新时,Application page 表也会被更新。如果您打开了 Application 表的菜单,则在每次更新到 Application 页表时都会关闭它。由于菜单可以经常关闭,因此您可能很难单击菜单。

要解决这个问题,点 Application name 进入 Application details 页面,您可以在其中点击相同的操作菜单,而无需在每次更新的情况下。

ACM-18543

1.3.6.4. 应用程序拓扑显示无效的表达式

当您在 放置资源 中使用 ExistDoesNotExist 运算符时,应用程序拓扑节点详情会将表达式显示为 \" invalidExpr。此显示错误,表达式仍然有效,且在 放置资源 中工作。要解决这个问题,请编辑 放置资源 YAML 中的表达式。

ACM-15077

创建引用 PlacementRule 资源的订阅应用程序后,控制台中的 YAML 编辑器不会显示订阅 YAML。使用您的终端编辑订阅 YAML 文件。

ACM-8889

使用 Helm Chart,您可以在 Kubernetes secret 中定义隐私数据,并在 Helm Chart 的 value.yaml 文件中定义此 secret。

用户名和密码由引用的 Kubernetes secret 资源 dbsecret 提供。例如,请参阅以下示例 value.yaml 文件:

credentials:
  secretName: dbsecret
  usernameSecretKey: username
  passwordSecretKey: password
Copy to Clipboard Toggle word wrap

只有在 Helm 二进制 CLI 中才支持带有 secret 依赖项的 Helm Chart。Operator SDK Helm 库不支持它。Red Hat Advanced Cluster Management 订阅控制器应用 operator SDK Helm 库来安装和升级 Helm Chart。因此,Red Hat Advanced Cluster Management 订阅无法使用 secret 依赖项部署 Helm Chart。

ACM-8727

当您使用 Argo CD pull 模型来部署 ApplicationSet 应用程序,且应用程序资源名称会被自定义时,每个集群的资源名称可能会有所不同。当发生这种情况时,拓扑无法正确显示您的应用程序。

ACM-6954

hub 集群应用程序集部署到目标受管集群,但本地集群(一个受管 hub 集群)作为目标受管集群排除。

因此,如果 Argo CD pull 模型将 Argo CD 应用程序传播到本地集群,则不会清理本地集群 Argo CD 应用程序,即使本地集群已从 Argo CD ApplicationSet 资源的放置决定中删除。

要临时解决这个问题并清理本地集群 Argo CD 应用程序,请从本地集群 Argo CD 应用程序中删除 skip-reconcile 注解。请参阅以下注解:

annotations:
    argocd.argoproj.io/skip-reconcile: "true"
Copy to Clipboard Toggle word wrap

另外,如果您在 Argo CD 控制台的 Applications 部分手动刷新 pull model Argo CD 应用程序,则不会处理刷新,并且 Argo CD 控制台中的 REFRESH 按钮被禁用。

要临时解决这个问题,请从 Argo CD 应用程序中删除 refresh 注解。请参阅以下注解:

annotations:
    argocd.argoproj.io/refresh: normal
Copy to Clipboard Toggle word wrap

ACM-7843

Argo CD 控制器和传播控制器可能会在同一应用程序资源上协调,并导致受管集群中应用程序部署的重复实例,但来自不同部署模型。

对于使用 pull 模型部署应用程序,当 Argo CD argocd.argoproj.io/skip-reconcile 注解添加到 ApplicationSet 的 template 部分时,Argo CD 控制器会忽略这些应用程序资源。

argocd.argoproj.io/skip-reconcile 注解仅适用于 GitOps operator 版本 1.9.0 或更高版本。为防止冲突,请等待 hub 集群和所有受管集群都升级到 GitOps operator 版本 1.9.0,然后再实施 pull 模型。

1.3.6.10. 资源无法部署

MulticlusterApplicationSetReport 中列出的所有资源实际上都部署到受管集群中。如果资源无法部署,则资源不包含在资源列表中,但原因会在错误消息中列出。

1.3.6.11. 资源分配可能需要几分钟时间

对于超过 1000 个受管集群和 Argo CD 应用程序集的大型环境,部署到数百个受管集群,hub 集群上的 Argo CD 应用程序创建可能需要几分钟时间。您可以在应用程序集的 clusterDecisionResource 生成器中将 requeueAfterSeconds 设置为 zero,如下例所示:

apiVersion: argoproj.io/v1alpha1
kind: ApplicationSet
metadata:
  name: cm-allclusters-app-set
  namespace: openshift-gitops
spec:
  generators:
  - clusterDecisionResource:
      configMapRef: ocm-placement-generator
      labelSelector:
        matchLabels:
          cluster.open-cluster-management.io/placement: app-placement
      requeueAfterSeconds: 0
Copy to Clipboard Toggle word wrap

您不能在 subscription-admin 角色中使用 ObjectBucket 频道类型指定 allow 和 deny 列表。在其他频道类型中,订阅中的 allow 和 deny 列表表示可以部署哪些 Kubernetes 资源,以及不应部署哪些 Kubernetes 资源。

ACM-22763

在受管集群中运行的 application-manager 附加组件现在由 subscription operator 处理,后者之前由 klusterlet operator 处理。订阅 operator 没有管理 multicluster-hub,因此对 multicluster-hub 镜像清单 ConfigMap 中的 multicluster_operators_subscription 镜像的更改不会自动生效。

如果订阅 operator 使用的镜像通过更改 multicluster-hub 镜像清单 ConfigMap 中的 multicluster_operators_subscription 镜像覆盖,则受管集群中的 application-manager add-on 不会使用新镜像,直到订阅 operator pod 重启为止。您需要重启 pod。

1.3.6.14. 除非根据订阅管理员部署策略资源

对于 Red Hat Advanced Cluster Management 版本 2.4,默认情况下,policy.open-cluster-management.io/v1 资源不再被应用程序订阅部署。

订阅管理员需要部署应用程序订阅以更改此默认行为。

如需更多信息,请参阅以订阅管理员身份创建允许和拒绝列表。在之前的 Red Hat Advanced Cluster Management 版本中,由现有应用程序订阅部署的 policy.open-cluster-management.io/v1 资源仍然保留,除非应用程序订阅由订阅管理员部署。

ACM-893

1.3.6.15. 应用程序 Ansible hook 独立模式

不支持 Ansible hook 独立模式。要使用订阅在 hub 集群上部署 Ansible hook,您可以使用以下订阅 YAML:

apiVersion: apps.open-cluster-management.io/v1
kind: Subscription
metadata:
  name: sub-rhacm-gitops-demo
  namespace: hello-openshift
annotations:
  apps.open-cluster-management.io/github-path: myapp
  apps.open-cluster-management.io/github-branch: master
spec:
  hooksecretref:
      name: toweraccess
  channel: rhacm-gitops-demo/ch-rhacm-gitops-demo
  placement:
     local: true
Copy to Clipboard Toggle word wrap

但是,此配置可能永远不会创建 Ansible 实例,因为 spec.placement.local:true 有以 standalone 模式运行的订阅。您需要在 hub 模式中创建订阅。

  1. 创建部署到 local-cluster 的放置规则。请参阅以下示例,其中 local-cluster: "true" 代表 hub 集群:

    apiVersion: apps.open-cluster-management.io/v1
    kind: PlacementRule
    metadata:
      name: <towhichcluster>
      namespace: hello-openshift
    spec:
      clusterSelector:
        matchLabels:
          local-cluster: "true"
    Copy to Clipboard Toggle word wrap
  2. 在您的订阅中引用该放置规则。请参见以下示例:

    apiVersion: apps.open-cluster-management.io/v1
    kind: Subscription
    metadata:
      name: sub-rhacm-gitops-demo
      namespace: hello-openshift
    annotations:
      apps.open-cluster-management.io/github-path: myapp
      apps.open-cluster-management.io/github-branch: master
    spec:
      hooksecretref:
          name: toweraccess
      channel: rhacm-gitops-demo/ch-rhacm-gitops-demo
      placement:
         placementRef:
            name: <towhichcluster>
            kind: PlacementRule
    Copy to Clipboard Toggle word wrap

应用两者后,您应该看到 hub 集群中创建的 Ansible 实例。

ACM-8036

如果应用程序在更新放置规则后没有部署,请验证 application-manager pod 是否正在运行。application-manager 是需要在受管集群上运行的订阅容器。

您可以运行 oc get pods -n open-cluster-management-agent-addon |grep application-manager 来验证。

您还可以在控制台中搜索 kind:pod cluster:yourcluster 来查看 application-manager 是否在运行。

如果无法验证,请尝试再次导入集群并重新验证。

1.3.6.17. Subscription operator 不会创建一个 SCC

了解 Red Hat OpenShift Container Platform SCC,请参阅 管理安全性上下文约束,这是受管集群所需的额外配置。

不同的部署有不同的安全性上下文和不同的服务帐户。订阅 operator 无法自动创建 SCC CR。pod 的管理员控制权限。需要一个安全性上下文约束(SCC)CR,以便为相关服务帐户启用适当的权限,以便在非默认命名空间中创建 pod。要手动在命名空间中创建 SCC CR,完成以下操作:

  1. 找到在部署中定义的服务帐户。例如,查看以下 nginx 部署:

    nginx-ingress-52edb
    nginx-ingress-52edb-backend
    Copy to Clipboard Toggle word wrap
  2. 在命名空间中创建 SCC CR 为服务帐户或帐户分配所需的权限。请参见以下示例,其中添加了 kind: SecurityContextConstraints

    apiVersion: security.openshift.io/v1
     defaultAddCapabilities:
     kind: SecurityContextConstraints
     metadata:
       name: ingress-nginx
       namespace: ns-sub-1
     priority: null
     readOnlyRootFilesystem: false
     requiredDropCapabilities:
     fsGroup:
       type: RunAsAny
     runAsUser:
       type: RunAsAny
     seLinuxContext:
       type: RunAsAny
     users:
     - system:serviceaccount:my-operator:nginx-ingress-52edb
     - system:serviceaccount:my-operator:nginx-ingress-52edb-backend
    Copy to Clipboard Toggle word wrap

ACM-24248

1.3.6.18. 应用程序频道需要唯一的命名空间

在同一命名空间中创建多个频道可能会导致 hub 集群出现错误。

例如,安装程序将命名空间 charts-v1 作为 Helm 类型频道使用,因此不要在 charts-v1 中创建任何其他频道。确保您在唯一命名空间中创建频道。所有频道需要单独的命名空间,但 GitHub 频道除外,它们可与另一个 GitHub 频道共享命名空间。

1.3.6.19. Ansible Automation Platform 作业失败

当您选择不兼容的选项时,Ansible 作业无法运行。只有选择了 -cluster 范围内的频道选项时,Ansible Automation Platform 才起作用。这会影响需要执行 Ansible 作业的所有组件。

ACM-14469

Red Hat Ansible Automation Platform Operator 无法访问启用了代理的 OpenShift Container Platform 集群之外的 Ansible Automation Platform。要解决这个问题,您可以在代理中安装 Ansible Automation Platform。请参阅 Ansible Automation Platform 提供的安装步骤。

ACM-16821

1.3.6.21. 应用程序名称要求

应用程序名称不能超过 37 个字符。如果字符超过这个数量,应用部署将显示以下错误。

status:
  phase: PropagationFailed
  reason: 'Deployable.apps.open-cluster-management.io "_long_lengthy_name_" is invalid: metadata.labels: Invalid value: "_long_lengthy_name_": must be no more than 63 characters/n'
Copy to Clipboard Toggle word wrap

ACM-14310

1.3.6.22. 应用程序控制台表限制

参阅控制台中不同 Application 表的限制:

  • Overview 页面的 Applications 表和 Advanced 配置页面上的 Subscriptions 表中,Clusters 列会显示部署应用程序资源的集群计数。因为应用程序是由本地集群上的资源定义的,所以本地集群会包含在搜索结果中,无论实际的应用程序资源是否在本地集群中部署。
  • SubscriptionsAdvanced configuration 列表中,Applications 栏显示使用该订阅的应用程序总数,如果订阅部署了子应用程序,它们也会包含在搜索结果中。
  • ChannelsAdvanced configuration 列表中,Subscriptions 栏显示使用该频道的本地集群中的订阅总数,但这不包括由其他订阅部署的订阅,这些订阅包含在搜索结果中。

ACM-12410

1.3.6.23. 没有应用程序控制台拓扑过滤

2.15 的应用程序的 ConsoleTopology 已更改。控制台 Topology 页面中没有过滤功能。

ACM-20831

如果您创建一个 ClusterPermission 资源,其中包含同一命名空间中的多个角色绑定,且没有设置可选 name 字段,则会失败。发生此错误的原因是,与命名空间中的角色绑定使用相同的名称。

要解决这个问题,请为每个角色绑定设置可选 name 字段。

ACM-21342

1.3.7. 已知的可观察性问题

查看 Red Hat Advanced Cluster Management for Kubernetes 中的已知问题。以下列表包含本发行版本的已知问题,或从上一版本中继承的问题。

对于 Red Hat OpenShift Container Platform 集群,请参阅 link:https://docs.redhat.com/en/documentation/openshift_container_platform/4.18/html/release_notes#ocp-4-15-known-issues [OpenShift Container Platform known issues]。

有关弃用和删除的更多信息,请参阅为 Red Hat Advanced Cluster Management 弃用和删除

multicluster-observability-addon-manager pod 处于 OOMKilled 状态,因为 pod 会监视 hub 集群中的所有配置映射和 secret,从而导致它使用太多资源。当您启用多集群观察附加组件时,指标集合会失败。

要避免这个问题,请不要启用多集群观察附加组件。multicluster observability 附加组件默认是禁用的。如果启用了多集群可观察性附加组件,请在 MulticlusterObservability 自定义资源中将 enabled 设置为 false 来禁用附加组件。请参阅以下 MultiClusterObservability 自定义资源示例:

+

apiVersion: observability.open-cluster-management.io/v1beta2
kind: MultiClusterObservability
metadata:
  name: observability
spec:
  capabilities:
    platform:
      metrics:
        default:
          enabled: false
    userWorkloads:
      metrics:
        default:
          enabled: false
Copy to Clipboard Toggle word wrap
1.3.7.2. 手动配置的警报转发失败

当您通过在 MultiClusterObservability 自定义资源中设置 mco-disable-alerting: true 来禁用 Red Hat Advanced Cluster Management 2.15 警报转发,且您手动配置警报转发,则会失败。升级后会失败,因为 observability-alertmanager-accessorhub-alertmanager-router-ca secret 的名称被修改为包含 hub 集群名称的 postfix。

要解决这个问题,请更新您手动配置为使用 secret 的新名称的警报转发配置。

对于平台警报,更新 openshift-monitoring 命名空间中的 cluster-monitoring-config 配置映射中的 secret 名称。对于用户工作负载警报,更新 openshift-user-workload-monitoring 命名空间中的 user-workload-monitoring-config 配置映射中的 secret 名称。在 openshift-monitoringopenshift-user-workload-monitoring 命名空间中查找新 secret 名称。

ACM-26604

1.3.7.3. 保留更改会导致数据丢失

保留所有分辨率级别的默认保留(如 retentionResolutionRawretentionResolution5mretentionResolution1h )是 365 天(365d)。此 365d 默认保留意味着 1 小时分辨率的默认保留已从 0d 缩短为 365d。此保留更改可能会导致您丢失数据。如果您没有在 MultiClusterObservability spec.advanced.retentionConfig 参数中为解析保留设置显式值,则可能会丢失数据。

如需更多信息,请参阅为保留添加高级配置

ACM-11048

恢复 hub 集群中的 Observatorium API 网关 pod 可能会在备份和恢复过程后包含过时的租户数据,因为 Kubernetes 的限制。有关限制的更多信息,请参阅自动挂载的 ConfigMap。

因此,Observatorium API 和 Thanos 网关拒绝来自收集器的指标,Red Hat Advanced Cluster Management Grafana 仪表板不会显示数据。

请参阅 Observatorium API 网关 pod 日志中的以下错误:

level=error name=observatorium caller=logchannel.go:129 msg="failed to forward metrics" returncode="500 Internal Server Error" response="no matching hashring to handle tenant\n"
Copy to Clipboard Toggle word wrap

Thanos 接收带有以下错误的 pod 日志:

caller=handler.go:551 level=error component=receive component=receive-handler tenant=xxxx err="no matching hashring to handle tenant" msg="internal server error"
Copy to Clipboard Toggle word wrap

请参阅以下流程来解决这个问题:

  1. observability-observatorium-api 部署实例从 N 缩减为 0。
  2. observability-observatorium-api 部署实例从 0 扩展到 N

注意: 默认情况下 N = 2,但在某些自定义配置环境中可能会大于 2

这会使用正确的租户信息重启所有 Observatorium API 网关 pod,在 5 到 10 分钟后,来自收集器的数据也会在 Grafana 中显示。

ACM-9681

您必须在定义的 Red Hat Advanced Cluster Management hub 集群命名空间中使用标签。标签 openshift.io/cluster-monitoring: "true" 会导致 Cluster Monitoring Operator 提取指标的命名空间。

当部署或升级 Red Hat Advanced Cluster Management 时,Red Hat Advanced Cluster Management Observability ServiceMonitorPrometheusRule 资源不再存在于 openshift-monitoring 命名空间中。

ACM-8499

1.3.7.6. 缺少对代理设置的支持

observability 附加组件的 Prometheus AdditionalAlertManagerConfig 资源不支持代理设置。您必须禁用 observability 警报转发功能。

完成以下步骤以禁用警报转发:

  1. 进入 MultiClusterObservability 资源。
  2. mco-disabling-alerting 参数值更新为 true

不支持带有自签名 CA 证书的 HTTPS 代理。

ACM-7118

1.3.7.6.1. Grafana downsampled 数据不匹配

当您试图查询历史数据时,计算的步骤值和 downsampled 数据之间存在差异,则结果为空。例如,如果计算的步骤值为 5m,而 downsampled 数据处于一小时的时间间隔,则数据不会出现在 Grafana 中。

这是因为 URL 查询参数必须通过 Thanos Query 前端数据源传递。之后,URL 查询可以在缺少数据时对其他降级级别执行额外的查询。

您必须手动更新 Thanos Query 前端数据源配置。完成以下步骤:

  1. 进入 Query 前端数据源。
  2. 要更新您的查询参数,请点击 Misc 部分。
  3. Custom query parameters 字段中,选择 max_source_resolution=auto
  4. 要验证是否显示数据,请刷新 Grafana 页面。

您的查询数据会出现在 Grafana 仪表板中。

ACM-3748

自定义 Observatorium API 和 Alertmanager URL 仅支持带有 TLS 透传的中间组件。如果两个自定义 URL 都指向同一中间组件,则必须使用单独的子域,因为 OpenShift Container Platform 路由器不支持具有相同主机的两个单独的路由对象。

ACM-11407

1.3.8. 已知的监管问题

查看监管的已知问题。以下列表包含本发行版本的已知问题,或从上一版本中继承的问题。

对于 Red Hat OpenShift Container Platform 集群,请参阅 OpenShift Container Platform 已知问题

有关弃用和删除的更多信息,请参阅为 Red Hat Advanced Cluster Management 弃用和删除

当您有一个为 complianceType 参数配置的配置策略,并为 remediationAction 参数配置 enforce 时,当向 Kubernetes API 发出删除请求时,策略会列为合规。因此,在策略列为合规时,Kubernetes 对象可能会一直处于 Terminating 状态。

ACM-20715

当您通过在 KlusterletAddonConfig 或分离集群中禁用策略控制器或从受管集群中删除 config-policy-controller 附加组件时,ConfigurationPolicy 自定义资源定义可能会处于终止状态。如果 ConfigurationPolicy 自定义资源定义一直处于终止状态,则在稍后重新安装附加组件时可能不会添加新策略。您还可以收到以下错误:

template-error; Failed to create policy template: create not allowed while custom resource definition is terminating
Copy to Clipboard Toggle word wrap

使用以下命令检查自定义资源定义是否卡住:

oc get crd configurationpolicies.policy.open-cluster-management.io -o=jsonpath='{.metadata.deletionTimestamp}'
Copy to Clipboard Toggle word wrap

如果删除时间戳位于资源上,则自定义资源定义会卡住。要解决这个问题,从集群中保留的配置策略中删除所有终结器。在受管集群中使用以下命令,将 <cluster-namespace> 替换为受管集群命名空间:

oc get configurationpolicy -n <cluster-namespace> -o name | xargs oc patch -n <cluster-namespace> --type=merge -p '{"metadata":{"finalizers": []}}'
Copy to Clipboard Toggle word wrap

配置策略资源会自动从集群中移除,自定义资源定义会退出其终止状态。如果已经重新安装了附加组件,则会在没有删除时间戳的情况下自动重新创建自定义资源定义。

ACM-25139

1.3.8.3. 强制时策略状态显示重复的更新

如果策略被设置为 remediationAction: enforce 并重复更新,Red Hat Advanced Cluster Management 控制台会显示重复违反情况,并成功更新。重复更新生成多个策略事件,这可能会导致 governance-policy-framework-addon pod 耗尽内存和崩溃。请参阅以下可能的原因和错误解决方案:

  • 另一个控制器或进程也使用不同的值更新对象。

    要解决这个问题,请禁用策略并比较策略和受管集群上的 objectDefinition 之间的不同。如果值不同,则可能会更新另一个控制器或进程。检查对象的元数据,以帮助识别值的不同原因。

  • ConfigurationPolicy 中的 objectDefinition 不匹配,因为 Kubernetes 在应用策略时处理对象。

    要解决这个问题,请禁用策略并比较策略和受管集群上的 objectDefinition 之间的不同。如果键不同或缺失,Kubernetes 可能会在将密钥应用到对象之前处理密钥,如删除包含默认值或空值的键。

ACM-3109

1.3.8.4. Kyverno 策略不再报告最新版本的状态

Kyverno 策略由 Policy Generator 生成的策略报告 Red Hat Advanced Cluster Management 集群中的以下信息:

violation - couldn't find mapping resource with kind ClusterPolicyReport, please check if you have CRD deployed;
violation - couldn't find mapping resource with kind PolicyReport, please check if you have CRD deployed
Copy to Clipboard Toggle word wrap

原因是 PolicyReport API 版本在生成器中不正确,与部署的 Kyverno 不匹配。

ACM-12743

1.3.9. 已知的已知问题

查看 Submariner 的已知问题。以下列表包含本发行版本的已知问题,或从上一版本中继承的问题。

对于 Red Hat OpenShift Container Platform 集群,请参阅 OpenShift Container Platform 已知问题

有关弃用和删除的更多信息,请参阅为 Red Hat Advanced Cluster Management 弃用和删除

1.3.9.1. Submariner 已知问题

请参阅以下在使用网络功能时可能出现的已知问题和限制。

1.3.9.1.1. IBM Power 系统上的 Submariner 安装失败

如果您使用 Red Hat Advanced Cluster Management 2.15,则无法在 IBM 系统上安装 Submariner,因为它目前还不支持这些版本。

ACM-27270

如果您在 4.18 和早于 4.19.5 的 4.19.5 版本之间使用 OpenShift Container Platform 版本,则当数据包到达目标 pod 时,不会保留源 IP。因此,依赖源 IP (如 NetworkPolicy )的应用程序可能无法正常工作。

ACM-18680

对于 2.8 及更早版本,当安装 Red Hat Advanced Cluster Management 时,您也可以使用 Operator Lifecycle Manager 部署 submariner-addon 组件。如果您没有创建 MultiClusterHub 自定义资源,submariner-addon pod 会发送错误并阻止 Operator 安装。

发生以下通知的原因是 ClusterManagementAddon 自定义资源定义缺失:

graceful termination failed, controllers failed with error: the server could not find the requested resource (post clustermanagementaddons.addon.open-cluster-management.io)
Copy to Clipboard Toggle word wrap

ClusterManagementAddon 资源由 cluster-manager 部署创建,但在集群中安装 MultiClusterEngine 组件时,此部署将可用。

如果在创建 MultiClusterHub 自定义资源时没有集群中可用的 MultiClusterEngine 资源,MultiClusterHub operator 会部署 MultiClusterEngine 实例,以及所需的 Operator,用于解析上一个错误。

ACM-24159

如果在 MultiClusterHub (MCH) operator 中将 submariner-addon 组件设置为 false,则不会为受管集群资源正确清理 submariner-addon 终结器。因为没有被正确清理终结器,这会阻止 submariner-addon 组件在 hub 集群中被禁用。

ACM-8549

1.3.9.1.5. Submariner 安装计划限制

Submariner 安装计划不遵循整个安装计划设置。因此,Operator 管理屏幕无法控制 Submariner 安装计划。默认情况下,Submariner 安装计划会被自动应用,Submariner 附加组件始终更新至与已安装的 Red Hat Advanced Cluster Management 版本对应的最新可用版本。要更改此行为,您必须使用自定义 Submariner 订阅。

ACM-8260

1.3.9.1.6. 有限的无头服务支持

在使用 Globalnet 时,在没有选择器的情况下的无头服务不支持服务发现。

ACM-24159

1.3.9.1.7. 不支持在启用 NAT 时使用 VXLAN 的部署

只有非 NAT 部署支持使用 VXLAN 电缆驱动程序的 Submariner 部署。

ACM-24258

1.3.9.1.8. 自签名证书可能会阻止到代理的连接

代理上的自签名证书可能会阻止加入集群连接到代理。连接失败并显示证书验证错误。您可以通过在相关 SubmarinerConfig 对象中将 InsecureBrokerConnection 设置为 true 来禁用代理证书验证。请参见以下示例:

apiVersion: submarineraddon.open-cluster-management.io/v1alpha1
kind: SubmarinerConfig
metadata:
   name: submariner
   namespace: <managed-cluster-namespace>
spec:
   insecureBrokerConnection: true
Copy to Clipboard Toggle word wrap

ACM-27008

Submariner 只支持使用 OpenShift SDN 或 OVN-Kubernetes Container Network Interface (CNI) 网络供应商的 Red Hat OpenShift Container Platform 集群。

ACM-5306

1.3.9.1.10. Microsoft Azure 集群的命令限制

subctl diagnose firewall inter-cluster 命令无法在 Microsoft Azure 集群中工作。

ACM-5327

当 Red Hat Advanced Cluster Management for Kubernetes 升级时,Submariner 会被自动升级。如果您使用自定义 CatalogSourceSubscription,则自动升级可能会失败。

为确保在受管集群上安装 Submariner 时自动升级可以正常工作,您必须在每个受管集群的 SubmarinerConfig 自定义资源中将 spec.subscriptionConfig.channel 字段设置为 stable-0.15

ACM-6068

如果您从 ClusterSet 中删除集群,或将集群移到不同的 ClusterSet 中,Submariner 安装将不再有效。

在从 ManageClusterSet 移动或删除 ManagedCluster 前,您必须卸载 Submariner。如果没有卸载 Submariner,则无法再卸载或重新安装 Submariner,Submariner 会停止在 ManagedCluster 上工作。

ACM-8847

1.3.10. 多集群全局 hub Operator 已知问题

查看 multicluster global hub Operator 的已知问题。以下列表包含本发行版本的已知问题,或从上一版本中继承的问题。对于 OpenShift Container Platform 集群,请参阅 OpenShift Container Platform 已知问题

1.3.10.1. ManagedClusterMigration 资源错误

当您升级 multicluster global hub 且在 multicluster global hub 集群中有一些 ManagedClusterMigration 资源时,您可能会遇到以下错误:

error validating existing CRs against new CRD''s schema for "managedclustermigrations.global-hub.open-cluster-management.io":
      error validating global-hub.open-cluster-management.io/v1alpha1, Kind=ManagedClusterMigration
      "multicluster-global-hub/xxx": updated validation is
      too restrictive: [].spec.from: Required value'
Copy to Clipboard Toggle word wrap

要解决这个问题,请在升级多集群全局 hub 前删除所有 ManagedClusterMigration 资源。运行以下命令:

oc delete mcm --all
Copy to Clipboard Toggle word wrap

ACM-25679

如果您以托管模式导入受管 hub 集群并分离此受管 hub 集群,则会删除并重新创建 open-cluster-management-agent-addon 命名空间。分离的受管 hub 集群也会删除并重新创建此命名空间中的所有附加组件资源。

当前没有解决此问题的方法。

ACM-15014

1.3.10.3. Kafka operator 保留重启

在联邦信息处理标准(FIPS)环境中,Kafka operator 会因为内存不足(OOM)状态而保持重启。要解决这个问题,请将资源限值设置为至少 512M。有关如何设置此限制的详细步骤,请参阅 amq stream doc

ACM-12592

1.3.10.4. 标准组过滤器无法传递给新页面

Global Hub Policy Group Compliancy Overview hub 仪表板中,您可以通过单击 标准组的 View Offending Policies 来检查一个数据点,但在点击此链接后,标准组过滤器无法传递给新页面。

这也是 Cluster Group Compliancy 概述 的问题。

ACM-7461

了解产品将在什么时候被弃用,或从 Red Hat Advanced Cluster Management for Kubernetes 中删除。考虑推荐操作中的备选操作和详细信息,它们显示在当前版本的表中和之前两个版本。

弃用: Red Hat Advanced Cluster Management 2.10 及更早的版本不再被支持。文档可能仍然可用,但没有任何勘误版本用于固定问题或其他更新。

最佳实践: 升级到最新版本。

重要: 集群生命周期组件和功能位于多集群引擎 operator 中,它是增强集群管理的软件操作器。多集群引擎 operator 的 Cluster 生命周期的发行注记 包括在发行注记中。

1.4.1. 产品弃用和删除

弃用(deprecated)组件、功能或服务会被支持,但不推荐使用,并可能在以后的版本中被删除。考虑使用推荐操作中的相应的替代操作,详情在下表中提供:

Expand
表 1.1. Red Hat Advanced Cluster Management 弃用的 项目列表
产品或类别受影响的项Version推荐的操作详情和链接

API 文档

Red Hat Advanced Cluster Management API 文档

Red Hat Advanced Cluster Management 2.13

从控制台或终端查看当前支持的 API,而不是文档。

None

应用程序管理

订阅

Red Hat Advanced Cluster Management 2.13

将 Red Hat Advanced Cluster Management 与 OpenShift GitOps 搭配使用。

弃用会在删除前扩展 5 个版本。有关更新的功能,请参阅 GitOps 概述

应用程序和管理

PlacementRule

2.8

在使用 PlacementRule 的位置使用 Placement

虽然 PlacementRule 仍然可用,但它不被支持,控制台默认会显示 Placement

多集群全局 hub

PostgreSQL 手动升级过程

Red Hat Advanced Cluster Management 2.14

None

多集群全局 hub 版本 1.5 及更新的版本支持自动数据库升级。

一个删除(removed) 的项通常是在之前的版本中被弃用的功能,在该产品中不再可用。您必须将 alternatives 用于删除的功能。考虑使用推荐操作中的相应的替代操作,详情在下表中提供:

Expand
表 1.2. Red Hat Advanced Cluster Management 删除 的项目列表
产品或类别受影响的项Version推荐的操作详情和链接

多集群全局 hub

在迁移受管集群时,您不需要迁移 资源、ConfigMapSecret

2.15

迁移受管集群。

请参阅 迁移受管集群

Red Hat Advanced Cluster Management for Kubernetes Search 服务

启用虚拟机操作(技术预览)

2.14

改为使用细粒度角色的访问控制。

请参阅基于角色的访问控制

Red Hat Advanced Cluster Management for Kubernetes 控制台

从控制台导入 OpenShift Container Platform 3.11 集群

2.14

升级到受支持的 OpenShift Container Platform 版本。请参阅 OpenShift Container Platform 文档

删除了对已弃用的自定义资源定义 v1beta1 API 的支持。OpenShift Container Platform 3.11 只需要 v1beta1 API。

原始 Overview

Red Hat Advanced Cluster Management for Kubernetes 搜索控制台

2.13

启用 Fleet 视图 开关来查看新的默认 Overview 页面。

Red Hat Advanced Cluster Management Overview 页的以前的布局已被重新设计。

1.5.1. 备注

本文档旨在帮助您准备 General Data Protection Regulation(GDPR)就绪。它提供有关您可以配置的 Red Hat Advanced Cluster Management for Kubernetes 平台的功能信息,以及产品的使用情况,以满足 GDPR 就绪的要求。

因为用户可以选择不同的方式来配置功能,并且产品的使用方式及第三方集群和系统都会有所不同,所以这里介绍的信息可能并没有覆盖所有情况。

客户负责确保自己遵守各种法律法规,包括欧盟通用数据保护条例。

客户全权负责获取法律法律顾问的建议,以便识别和解释可能影响客户业务的相关法律及法规,以及客户可能需要采取的任何行动来遵守此类法律和法规。

这里描述的产品、服务和其他功能不适用于所有客户情况,且适用性可能有限制。红帽不提供法律、会计、审计方面的建议,也不代表或者认为其服务或产品会确保客户遵守任何法律和规范。

1.5.2. 内容表

1.5.3. GDPR

欧盟(EU)已采用常规数据保护条例(GDPR),并于 2018 年 5 月 25 日起生效。

1.5.3.1. 为什么 GDPR 很重要?

GDPR 为处理个人数据建立了更强大的数据保护框架。GDPR 可以带来:

  • 新的和增强的个人权利
  • 扩展了个人数据的定义
  • 数据处理方新的责任
  • 非遵守方可能在经济上会受到大量处罚
  • 强制数据违反通知
1.5.3.2. 更多关于 GDPR 的信息

1.5.4. 针对 GDPR 的产品配置

以下小节描述了 Red Hat Advanced Cluster Management for Kubernetes 平台的数据管理的各个方面,并提供了有关帮助客户端满足 GDPR 要求的能力信息。

1.5.5. 数据生命周期

Red Hat Advanced Cluster Management for Kubernetes 是一个应用程序平台,用于开发并管理内部、容器化的应用程序。它是一个用于管理容器的集成环境,包括容器编配器 Kubernetes、集群生命周期、应用程序生命周期以及安全框架(监管、风险和合规)。

因此,Red Hat Advanced Cluster Management for Kubernetes 平台主要处理与平台的配置和管理相关的技术数据,其中的一些数据可能会涉及到受 GDPR 影响的数据。Red Hat Advanced Cluster Management for Kubernetes 平台还处理管理平台的用户的信息。在这个文档中会介绍这些数据,以使负责满足 GDPR 要求的用户了解这些内容。

这些数据会在本地或者远程文件系统中,以配置文件或数据库的形式存在。在 Red Hat Advanced Cluster Management for Kubernetes 平台上运行的应用程序可能会涉及到其它形式的、受 GDPR 影响的个人数据。用于保护和管理平台数据的机制也可用于平台上运行的应用程序。对于在 Red Hat Advanced Cluster Management for Kubernetes 平台上运行的应用程序所收集个人数据,可能还需要额外的机制来进行管理和保护。

为了更好了解 Red Hat Advanced Cluster Management for Kubernetes 平台及其数据流,您需要对 Kubernetes、Docker 和 Operator 的工作原理有所了解。这些开源组件是 Red Hat Advanced Cluster Management for Kubernetes 平台的基础。您使用 Kubernetes 部署来放置应用程序实例,这些实例会被内置到引用 Docker 镜像的 Operator 中。Operator 包含应用程序的详细信息,Docker 镜像包含应用程序需要运行的所有软件包。

作为一个平台,Red Hat Advanced Cluster Management for Kubernetes 需要不同类别的技术数据,这些数据可能会被视为个人数据,如管理员用户 ID 和密码、服务用户 ID 和密码、IP 地址以及 Kubernetes 节点名称。Red Hat Advanced Cluster Management for Kubernetes 平台还处理管理平台的用户的信息。在平台中运行的应用程序可能会使用与平台无关的其他类别的个人数据。

本文档后续部分将介绍如何收集/创建这些技术数据、存储、访问、安全、日志和删除。

1.5.5.2. 用于在线联系的个人数据

客户可以以各种方式提交在线评论、反馈和请求信息,主要包括:

  • 如果使用 Slack 频道,公共的 Slack 社区
  • 产品文档中的公共注释或问题单
  • 技术社区中的公共对话

通常,只使用客户名称和电子邮件地址,以便可以进行回复,对个人数据的使用符合 红帽在线隐私声明

1.5.6. 数据收集

Red Hat Advanced Cluster Management for Kubernetes 平台不会收集敏感的个人数据。它会创建和管理技术数据,如管理员用户 ID 和密码、服务用户 ID 和密码、IP 地址以及 Kubernetes 节点名称。这些数据可能会被视为个人数据。Red Hat Advanced Cluster Management for Kubernetes 平台还处理管理平台的用户的信息。只有系统管理员才可以通过使用基于角色的访问控制的管理控制台访问此类信息,或者系统管理员登陆到一个 Red Hat Advanced Cluster Management for Kubernetes 平台节点才可以访问。

在 Red Hat Advanced Cluster Management for Kubernetes 平台上运行应用程序可能会收集个人数据。

当您在评估 Red Hat Advanced Cluster Management for Kubernetes 运行容器化应用程序,并需要符合 GDPR 要求时,您必须考虑应用程序收集的个人数据类型以及是如何管理这些数据的,例如:

  • 当数据流向应用程序或从应用程序流出时,数据是如何被保护的?数据是否在传输中加密?
  • 数据是如何被应用程序存储的?数据在不用时是否被加密?
  • 用于访问应用程序的凭证是如何被收集和存储的?
  • 应用程序用于访问数据源所使用的凭证是如何被收集和存储的?
  • 如何根据需要删除应用程序收集的数据?

这不是 Red Hat Advanced Cluster Management for Kubernetes 平台所收集的数据类型的完整列表。它只作为一个示例以供考虑。如果您对数据类型有任何疑问,请联络红帽。

1.5.7. 数据存储

对于与配置和管理平台相关的技术数据,Red Hat Advanced Cluster Management for Kubernetes 平台会把它们以配置文件或数据库的形式保存在本地或远程文件系统中。对于存储的数据,必须考虑它们的安全性。Red Hat Advanced Cluster Management for Kubernetes 平台支持使用 dm-crypt 对存储的数据进行加密。

下面是主要的数据存储形式,您可能需要进行与 GDPR 相关的考虑。

  • 平台配置数据: 通过更新带有常规设置、Kubernetes、日志、网络、Docker 和其他设置属性的配置 YAML 文件,可以自定义 Red Hat Advanced Cluster Management for Kubernetes 平台的配置。这些数据会作为 Red Hat Advanced Cluster Management for Kubernetes 平台的安装程序的输入被使用来部署节点。这些属性还包括用于 bootstrap 的管理员用户 ID 和密码。
  • Kubernetes 配置数据: Kubernetes 集群状态数据保存在分布式“键-值”存储 etcd 中。
  • 用户身份验证数据,包括用户 ID 和密码: 通过客户端企业级 LDAP 目录处理用户 ID 和密码管理。在 LDAP 中定义的用户和组可添加到 Red Hat Advanced Cluster Management for Kubernetes 平台的团队中,并分配访问角色。Red Hat Advanced Cluster Management for Kubernetes 平台会储存来自 LDAP 的电子邮件地址和用户 ID,但不保存密码。Red Hat Advanced Cluster Management for Kubernetes 平台会存储组名称,并在登录时缓存用户所属的可用组。组成员不会以长期形式有效。必须考虑在企业级 LDAP 中保护用户和组数据。Red Hat Advanced Cluster Management for Kubernetes 平台也包括了一个身份认证服务 Open ID Connect(OIDC),它与企业目录服务进行交互并维护访问令牌。此服务使用 ETCD 作为后端存储。
  • 服务身份验证数据,包括用户 ID 和密码: Red Hat Advanced Cluster Management for Kubernetes 平台组件使用的、用于在组件间进行访问的凭证被定义为 Kubernetes Secret。所有 Kubernetes 资源定义都保留在 etcd 键-值形式的数据存储中。初始凭证值在平台配置数据中定义,作为 Kubernetes Secret 配置 YAML 文件。如需更多信息,请参阅 Kubernetes 文档中的 Secret

1.5.8. 数据访问

您可以通过以下定义的产品接口集合访问 Red Hat Advanced Cluster Management for Kubernetes 平台数据。

  • Web 用户界面(控制台)
  • Kubernetes kubectl CLI
  • Red Hat Advanced Cluster Management for Kubernetes CLI
  • oc CLI

这些接口可用于对 Red Hat Advanced Cluster Management for Kubernetes 集群进行管理级别的更改。当发出一个请求时,安全使用 Red Hat Advanced Cluster Management for Kubernetes 的管理访问权限涉及三个逻辑的、有特定顺序的阶段: 身份验证、角色映射和授权。

1.5.8.1. 身份验证

Red Hat Advanced Cluster Management for Kubernetes 平台的身份验证管理程序接受来自控制台的用户凭证,并将凭证转发到后端的 OIDC 供应商,后者根据企业目录验证用户凭证。然后,OIDC 供应商会向身份验证程序返回一个带有 JSON Web Token(JWT)内容的身份验证 cookie(auth-cookie)。JWT 令牌包括了身份验证请求时的组成员信息,以及用户 ID 和电子邮件地址等信息。然后,这个身份验证 cookie 会发送到控制台。在会话存在期间,cookie 会被刷新。在退出控制台或关闭浏览器后,这个 cookie 会在 12 小时内有效。

对于所有来自控制台的验证请求,前端 NGINX 服务器对请求中的可用身份验证 cookie 进行解码,并通过调用验证管理程序来验证请求。

Red Hat Advanced Cluster Management for Kubernetes 平台的 CLI 需要用户在登陆时提供凭证。

kubectloc CLI 也需要凭证来访问集群。这些凭证可以从管理控制台获得,并在 12 小时后过期。支持通过服务帐户访问。

1.5.8.2. 角色映射

Red Hat Advanced Cluster Management for Kubernetes 平台支持的基于角色的控制访问(RBAC)。在角色映射阶段,身份验证阶段提供的用户名映射到用户或组角色。在授权哪些管理操作可由经过身份验证的用户执行时使用角色。

1.5.8.3. 授权

Red Hat Advanced Cluster Management for Kubernetes 平台对集群配置操作的角色控制访问,适用于 catalog 和 Helm 资源,以及 Kubernetes 资源。提供了几个 IAM(Identity and Access Management)角色,包括 Cluster Administrator、Administrator、Operator、Editor、Viewer。在将用户或用户组添加到一个团队时,会为用户或用户组分配一个角色。对资源的团队访问可以由命名空间控制。

1.5.8.4. Pod 安全性

Pod 安全策略用于设置集群级别的控制,控制 pod 可以做什么或可以访问什么。

1.5.9. 数据处理

Red Hat Advanced Cluster Management for Kubernetes 的用户可以通过系统配置,来处理和保护与配置和管理相关的技术数据。

基于角色的访问控制 (RBAC)可控制用户可访问哪些数据和功能。

Data-in-transit 通过使用 TLS 加以保护。HTTPTLS 底层)是用来在用户客户端和后端服务间进行安全的数据传输。用户可以指定在安装过程中要使用的 root 证书。

Data-at-rest 的保护是通过使用 dm-crypt 加密数据来实现的。

那些用来管理和保护 Red Hat Advanced Cluster Management for Kubernetes 平台的技术数据的机制,同样可用于对用户开发的或用户提供的应用程序的个人数据进行管理和保护。客户可以开发自己的功能进行进一步的控制。

1.5.10. 数据删除

Red Hat Advanced Cluster Management for Kubernetes 平台提供了命令、API 和用户界面操作以删除由产品创建或收集的数据。用户可以使用这些功能删除技术数据,如服务用户 ID 和密码、IP 地址、Kubernetes 节点名称或其他平台配置数据,并可以管理平台的用户的信息。

Red Hat Advanced Cluster Management for Kubernetes 平台中可用来进行数据删除的方法:

  • 与平台配置相关的所有技术数据,都可通过管理控制台或 Kubernetes kubectl API 删除。

Red Hat Advanced Cluster Management for Kubernetes 平台中用于删除帐户数据的方法:

  • 与平台配置相关的所有技术数据,都可通过 Red Hat Advanced Cluster Management for Kubernetes 或 Kubernetes kubectl API 删除。

删除通过企业级 LDAP 目录管理的用户 ID 和密码数据的功能,需要由与 Red Hat Advanced Cluster Management for Kubernetes 平台集成的 LDAP 产品提供。

1.5.11. 限制使用个人数据的能力

通过本文档中介绍的工具,Red Hat Advanced Cluster Management for Kubernetes 平台可以对最终用户对个人数据的使用加以限制。

根据 GDPR,用户的访问、修改和处理权限都需要被加以限制。请参考本文档的其它部分来控制以下内容:

  • 访问权限

    • Red Hat Advanced Cluster Management for Kubernetes 平台管理员可以使用 Red Hat Advanced Cluster Management for Kubernetes 平台的功能提供个人对他们的数据的独立访问。
    • Red Hat Advanced Cluster Management for Kubernetes 平台管理员可以使用 Red Hat Advanced Cluster Management for Kubernetes 平台的功能,可以提供 Red Hat Advanced Cluster Management for Kubernetes 平台为某个个人保存的什么个人数据的信息。
  • 修改权限

    • Red Hat Advanced Cluster Management for Kubernetes 平台管理员可以使用 Red Hat Advanced Cluster Management for Kubernetes 平台的功能来允许一个个人修改自己的数据。
    • Red Hat Advanced Cluster Management for Kubernetes 平台管理员可以使用 Red Hat Advanced Cluster Management for Kubernetes 平台的功能为一个个人修改其个人数据。
  • 限制处理的权利

    • Red Hat Advanced Cluster Management for Kubernetes 平台管理员可以使用 Red Hat Advanced Cluster Management for Kubernetes 平台的功能停止处理一个个人的数据。

1.5.12. 附录

作为一个平台,Red Hat Advanced Cluster Management for Kubernetes 需要不同类别的技术数据,这些数据可能会被视为个人数据,如管理员用户 ID 和密码、服务用户 ID 和密码、IP 地址以及 Kubernetes 节点名称。Red Hat Advanced Cluster Management for Kubernetes 平台也会处理管理平台的人员的信息。在平台中运行的应用程序可能会引入其它在平台中未知的个人数据类别。

本附录包含平台服务日志记录的数据详情。

1.6. FIPS 就绪性

Red Hat Advanced Cluster Management for Kubernetes 是为联邦信息处理标准(FIPS)而设计的。当以 FIPS 模式在 Red Hat OpenShift Container Platform 上运行时,OpenShift Container Platform 将使用提交至 NIST 的 Red Hat Enterprise Linux 加密库,以仅在 OpenShift Container Platform 支持的架构上进行 FIPS 验证。

有关 NIST 验证程序的更多信息,请参阅加密模块验证程序

有关为验证提交的 RHEL 加密库的单独版本的最新 NIST 状态,请参阅 Compliance Activities 和 Government Standards

如果您计划管理启用了 FIPS 的集群,您必须在配置为以 FIPS 模式运行的 OpenShift Container Platform 集群上安装 Red Hat Advanced Cluster Management。hub 集群必须处于 FIPS 模式,因为在受管集群中使用在 hub 集群上创建的加密。

要在受管集群中启用 FIPS 模式,在置备 OpenShift Container Platform 受管集群时设置 fips: true。置备集群后您无法启用 FIPS。

如需更多信息 ,请参阅 OpenShift Container Platform 文档中的集群需要额外的安全性?

1.6.1. FIPS 就绪限制

阅读 Red Hat Advanced Cluster Management 组件和功能的以下限制。

  • 在配置提供的存储时,必须对搜索和可观察组件使用的持久性卷声明(PVC)和 S3 存储进行加密。Red Hat Advanced Cluster Management 不提供存储加密,请参阅 OpenShift Container Platform 文档 配置持久性存储
  • 当使用 Red Hat Advanced Cluster Management 控制台置备受管集群时,在受管集群创建的 Cluster details 部分中选中以下复选框以启用 FIPS 标准:

    FIPS with information text: Use the Federal Information Processing Standards (FIPS) modules provided with Red Hat Enterprise Linux CoreOS instead of the default Kubernetes cryptography suite file before you deploy the new managed cluster.
    Copy to Clipboard Toggle word wrap
  • 与 Red Hat Advanced Cluster Management 集成的 Red Hat Edge Manager (Technolgy Preview)组件不会为 FIPS 就绪。

1.7. Observability 支持

  • Red Hat Advanced Cluster Management 使用 Red Hat OpenShift Data Foundation (以前称为 Red Hat OpenShift Container Platform)进行测试并被完全支持。
  • Red Hat Advanced Cluster Management 支持在用户提供的兼容 S3 API 的第三方对象存储中多集群可观察 Operator 的功能。Observability 服务使用 Thanos 支持的、稳定的对象存储。
  • Red Hat Advanced Cluster Management 支持工作包括识别根本原因的合理努力。如果您创建一个支持问题单,则根本原因是您提供的 S3 兼容对象存储,则必须使用客户支持频道打开问题。

法律通告

Copyright © 2025 Red Hat, Inc.
The text of and illustrations in this document are licensed by Red Hat under a Creative Commons Attribution–Share Alike 3.0 Unported license ("CC-BY-SA"). An explanation of CC-BY-SA is available at http://creativecommons.org/licenses/by-sa/3.0/. In accordance with CC-BY-SA, if you distribute this document or an adaptation of it, you must provide the URL for the original version.
Red Hat, as the licensor of this document, waives the right to enforce, and agrees not to assert, Section 4d of CC-BY-SA to the fullest extent permitted by applicable law.
Red Hat, Red Hat Enterprise Linux, the Shadowman logo, the Red Hat logo, JBoss, OpenShift, Fedora, the Infinity logo, and RHCE are trademarks of Red Hat, Inc., registered in the United States and other countries.
Linux® is the registered trademark of Linus Torvalds in the United States and other countries.
Java® is a registered trademark of Oracle and/or its affiliates.
XFS® is a trademark of Silicon Graphics International Corp. or its subsidiaries in the United States and/or other countries.
MySQL® is a registered trademark of MySQL AB in the United States, the European Union and other countries.
Node.js® is an official trademark of Joyent. Red Hat is not formally related to or endorsed by the official Joyent Node.js open source or commercial project.
The OpenStack® Word Mark and OpenStack logo are either registered trademarks/service marks or trademarks/service marks of the OpenStack Foundation, in the United States and other countries and are used with the OpenStack Foundation's permission. We are not affiliated with, endorsed or sponsored by the OpenStack Foundation, or the OpenStack community.
All other trademarks are the property of their respective owners.
返回顶部
Red Hat logoGithubredditYoutubeTwitter

学习

尝试、购买和销售

社区

关于红帽文档

通过我们的产品和服务,以及可以信赖的内容,帮助红帽用户创新并实现他们的目标。 了解我们当前的更新.

让开源更具包容性

红帽致力于替换我们的代码、文档和 Web 属性中存在问题的语言。欲了解更多详情,请参阅红帽博客.

關於紅帽

我们提供强化的解决方案,使企业能够更轻松地跨平台和环境(从核心数据中心到网络边缘)工作。

Theme

© 2026 Red Hat