第 5 章 支持删除


本节论述了对 Red Hat OpenShift AI 中面向用户的功能支持的主要更改。有关 OpenShift AI 支持的软件平台、组件和依赖项的详情,请查看 Red Hat OpenShift AI: 支持的配置 知识库文章。

5.1. Deprecated

5.1.1. 弃用了 Kubeflow Training operator v1

Kubeflow Training Operator (v1)已被弃用,从 OpenShift AI 2.25 开始,计划在以后的发行版本中删除。此弃用是我们向 Kubeflow Trainer v2 过渡的一部分,它提供增强功能并改进功能。

5.1.2. Deprecated TrustyAI service CRD v1alpha1

从 OpenShift AI 2.25 开始,v1apha1 版本已弃用,并计划在以后的发行版本中删除。您必须将 TrustyAI Operator 更新至 v1 版本,以接收将来的 Operator 更新。

5.1.3. 弃用的 KServe Serverless 部署模式

从 OpenShift AI 2.25 开始,KServe Serverless 部署模式已弃用。您可以通过迁移到 KServe RawDeployment 模式来继续部署模型。如果您要升级到 Red Hat OpenShift AI 3.0,则必须在升级前迁移所有使用已弃用 Serverless 或 ModelMesh 模式的工作负载。

5.1.4. deprecated LAB-tuning

从 OpenShift AI 2.25 开始,LAB-tuning 功能已弃用。如果您在大型语言模型自定义中使用 LAB-tuning,请计划在可能的情况下迁移到其他微调或模型自定义方法。

5.1.5. 弃用了嵌入式 Kueue 组件

从 OpenShift AI 2.24 开始,用于管理分布式工作负载的嵌入式 Kueue 组件已弃用。OpenShift AI 现在使用红帽构建的 Kue Operator 在分布式培训、工作台和模型为工作负载提供增强的工作负载调度。弃用的嵌入式 Kueue 组件都不支持任何延长更新支持(EUS)版本。为确保工作负载继续使用队列管理,您必须从嵌入式 Kueue 组件迁移到红帽构建 Kueue Operator,这需要 OpenShift Container Platform 4.18 或更高版本。要迁移,请完成以下步骤:

  1. 从 OperatorHub 安装 Red Hat Build of Kueue Operator。
  2. 编辑 DataScienceCluster 自定义资源,将 spec.components.kue.managementState 字段设置为 Unmanaged
  3. 验证迁移后是否保留现有的 Kueue 配置(ClusterQueueLocalQueue)。

具体步骤请参阅 迁移到 Red Hat build of Kueue Operator

5.1.6. Deprecated CodeFlare Operator

从 OpenShift AI 2.24 开始,CodeFlare Operator 已被弃用,并将在以后的 OpenShift AI 发行版本中删除。

注意

此弃用不会影响 Red Hat OpenShift AI API 层

5.1.7. 弃用的模型 registry API v1alpha1

从 OpenShift AI 2.24 开始,模型 registry API 版本 v1alpha1 已被弃用,并将在以后的 OpenShift AI 发行版本中删除。最新的模型 registry API 版本为 v1beta1

5.1.8. 多型号服务平台(ModelMesh)

从 OpenShift AI 版本 2.19 开始,基于 ModelMesh 的多模式服务平台已弃用。您可以继续在多模式服务平台上部署模型,但建议您迁移到单一模式服务平台。

如需了解更多相关信息,或有关使用单一模式服务平台的帮助,请联系您的客户经理。

5.1.9. 弃用的文本 Generation Inference Server (TGIS)

从 OpenShift AI 版本 2.19 开始,文本 Generation Inference Server (TGIS)已被弃用。TGIS 将继续通过 OpenShift AI 2.16 EUS 生命周期支持。Caikit-TGIS 和 Caikit 不受影响,并将继续支持。开箱即用的服务运行时模板将不再被部署。建议使用 vLLM 作为 TGIS 的替换运行时。

5.1.10. 弃用的加速器配置集

加速器配置集现已弃用。要针对工作台或模型服务工作负载的特定 worker 节点,请使用硬件配置集。

5.1.11. 弃用的 OpenVINO Model Server (OVMS)插件

OpenVINO Model Server (OVMS)的 CUDA 插件现已弃用,并将在以后的 OpenShift AI 版本中可用。

在以前的版本中,集群管理员使用 OdhDashboardConfig 资源中的 groupsConfig 选项来管理可以访问 OpenShift AI 仪表板的 OpenShift 组(管理员和非管理员用户)。从 OpenShift AI 2.17 开始,此功能已移至 Auth 资源。如果您有与 OdhDashboardConfig 交互的工作流(如 GitOps 工作流),您必须更新它们以引用 Auth 资源。

Expand
表 5.1. 更新的配置
资源2.16 及更早版本2.17 及更新的版本

apiVersion

opendatahub.io/v1alpha

services.platform.opendatahub.io/v1alpha1

kind

OdhDashboardConfig

Auth

name

odh-dashboard-config

auth

管理员组

spec.groupsConfig.adminGroups

spec.adminGroups

用户组

spec.groupsConfig.allowedGroups

spec.allowedGroups

5.1.13. 弃用的集群配置参数

当使用 CodeFlare SDK 在 Red Hat OpenShift AI 中运行分布式工作负载时,Ray 集群配置中的以下参数现已弃用,并应替换为所示的新参数。

Expand
弃用的参数被替换

head_cpus

head_cpu_requests, head_cpu_limits

head_memory

head_memory_requests, head_memory_limits

min_cpus

worker_cpu_requests

max_cpus

worker_cpu_limits

min_memory

worker_memory_requests

max_memory

worker_memory_limits

head_gpus

head_extended_resource_requests

num_gpus

worker_extended_resource_requests

根据情况,您还可以使用新的 extended_resource_mappingoverwrite_default_resource_mapping 参数。有关这些新参数的更多信息,请参阅 CodeFlare SDK 文档 (外部)。

Red Hat logoGithubredditYoutubeTwitter

学习

尝试、购买和销售

社区

关于红帽文档

通过我们的产品和服务,以及可以信赖的内容,帮助红帽用户创新并实现他们的目标。 了解我们当前的更新.

让开源更具包容性

红帽致力于替换我们的代码、文档和 Web 属性中存在问题的语言。欲了解更多详情,请参阅红帽博客.

關於紅帽

我们提供强化的解决方案,使企业能够更轻松地跨平台和环境(从核心数据中心到网络边缘)工作。

Theme

© 2026 Red Hat
返回顶部