第 5 章 支持删除


本节论述了对 Red Hat OpenShift AI 中面向用户的功能支持的主要更改。有关 OpenShift AI 支持的软件平台、组件和依赖项的详情,请查看 Red Hat OpenShift AI: 支持的配置 知识库文章。

5.1. 过时的功能

5.1.1. 多型号服务平台(ModelMesh)

从 OpenShift AI 版本 2.19 开始,基于 ModelMesh 的多模式服务平台已弃用。您可以继续在多模式服务平台上部署模型,但建议您迁移到单一模式服务平台。

如需了解更多相关信息,或有关使用单一模式服务平台的帮助,请联系您的客户经理。

5.1.2. 弃用的文本 Generation Inference Server (TGIS)

从 OpenShift AI 版本 2.19 开始,文本 Generation Inference Server (TGIS)已被弃用。TGIS 将继续通过 OpenShift AI 2.16 EUS 生命周期支持。Caikit-TGIS 和 Caikit 不受影响,并将继续支持。开箱即用的服务运行时模板将不再被部署。建议使用 vLLM 作为 TGIS 的替换运行时。

5.1.3. 弃用的加速器配置集

加速器配置集现已弃用。要针对工作台或模型服务工作负载的特定 worker 节点,请使用硬件配置集。

5.1.4. 弃用的 OpenVINO Model Server (OVMS)插件

OpenVINO Model Server (OVMS)的 CUDA 插件现已弃用,并将在以后的 OpenShift AI 版本中可用。

在以前的版本中,集群管理员使用 OdhDashboardConfig 资源中的 groupsConfig 选项来管理可以访问 OpenShift AI 仪表板的 OpenShift 组(管理员和非管理员用户)。从 OpenShift AI 2.17 开始,此功能已移至 Auth 资源。如果您有与 OdhDashboardConfig 交互的工作流(如 GitOps 工作流),您必须更新它们以引用 Auth 资源。

Expand
表 5.1. 更新的配置
资源2.16 及更早版本2.17 及更新的版本

apiVersion

opendatahub.io/v1alpha

services.platform.opendatahub.io/v1alpha1

kind

OdhDashboardConfig

Auth

name

odh-dashboard-config

auth

管理员组

spec.groupsConfig.adminGroups

spec.adminGroups

用户组

spec.groupsConfig.allowedGroups

spec.allowedGroups

5.1.6. 弃用的集群配置参数

当使用 CodeFlare SDK 在 Red Hat OpenShift AI 中运行分布式工作负载时,Ray 集群配置中的以下参数现已弃用,并应替换为所示的新参数。

Expand
弃用的参数被替换

head_cpus

head_cpu_requests, head_cpu_limits

head_memory

head_memory_requests,head_memory_limits

min_cpus

worker_cpu_requests

max_cpus

worker_cpu_limits

min_memory

worker_memory_requests

max_memory

worker_memory_limits

head_gpus

head_extended_resource_requests

num_gpus

worker_extended_resource_requests

根据情况,您还可以使用新的 extended_resource_mappingoverwrite_default_resource_mapping 参数。有关这些新参数的更多信息,请参阅 CodeFlare SDK 文档 (外部)。

返回顶部
Red Hat logoGithubredditYoutubeTwitter

学习

尝试、购买和销售

社区

关于红帽文档

通过我们的产品和服务,以及可以信赖的内容,帮助红帽用户创新并实现他们的目标。 了解我们当前的更新.

让开源更具包容性

红帽致力于替换我们的代码、文档和 Web 属性中存在问题的语言。欲了解更多详情,请参阅红帽博客.

關於紅帽

我们提供强化的解决方案,使企业能够更轻松地跨平台和环境(从核心数据中心到网络边缘)工作。

Theme

© 2025 Red Hat