第 2 章 新功能及功能增强


本节介绍 Red Hat OpenShift AI 2.16.2 中的新功能和增强。

2.1. 新功能

这个版本没有新功能。

支持 AMD GPU

AMD ROCm workbench 镜像添加了对 AMD 图形处理单元(GPU) Operator 的支持,显著提高了计算密集型活动的处理性能。此功能可让您访问支持 AI 工作负载和各种模型的驱动程序、开发工具和 API。另外,AMD ROCm workbench 镜像包含机器学习库,以支持 AI 框架,如 TensorFlow 和 PyTorch。该功能还提供镜像的访问,可用于探索使用 AMD GPU 的服务、培训或调优用例。

注意

此 OpenShift AI 发行版本不支持在断开连接的环境中的 AMD GPU 和 AMD ROCm workbench 镜像。

支持 NVIDIA NIM 模型服务平台

NVIDIA NIM 模型服务平台添加了对使用 OpenShift AI 中的 NVIDIA NIM inference 服务部署 NVIDIA 优化模型的支持。NVIDIA NIM 是 NVIDIA AI Enterprise 的一部分,是一组易用的微服务,设计用于跨云、数据中心和工作站安全、可靠的部署高性能 AI 模型。NVIDIA NIM 支持各种 AI 模型,包括开源社区和 NVIDIA AI Foundation 模型,确保无缝、可扩展的 AI 推断、内部或云中使用行业标准 API。

如需更多信息,请参阅关于 NVIDIA NIM 模型服务平台

支持 Intel Gaudi 3 加速器

现在提供了对 Intel Gaudi 3 加速器的支持。支持 KServe 运行时的 vLLM ServingRuntimes 支持 KServe 运行时是一个高吞吐量和内存效率,以及支持 Intel Gaudi Accelerators 的服务运行时。

如需更多信息,请参阅 Intel Gaudi Accelerators

语言模型评估作为服务

新的编配器支持将安全、可扩展的语言模型评估部署为服务(LM-Eval-aaS)。利用开源工具,该服务将 lm-evaluation-harness 与 Unitxt 任务卡集成,以便使用行业标准和专有基准测试高效和安全模型评估。

LM-Eval-aaS 包括以下主要功能:

  • 编配器部署资产:部署和管理 LM-Eval-aaS 编配器的初始资产.
  • 任务卡集成:支持 Unitxt 任务卡以定义自定义预处理和评估工作流。
  • 基准测试支持:兼容标准和专有评估基准.

如需更多信息,请参阅 评估大型语言模型

可自定义的服务运行时参数
现在,您可以在提供模型时将参数值和环境变量传递给运行时。在涉及 vLLM 的 GenAI 用例中,自定义运行时参数特别有用。
支持部署量化模型

您可以使用 vLLM ServingRuntime for KServe runtime 部署为 Marlin 内核量化的模型。如果您的模型被量化为 Marlin,vLLM 会自动根据底层硬件使用 Marlin 内核。对于其他量化模型,您可以使用-- quantization=marlin 自定义参数。

有关支持的硬件的详情,请查看 vLLM 网站上的 Quantization Kernels 支持的硬件。

code-server workbench 镜像

以前,Red Hat OpenShift AI 中包含的 code-server workbench 镜像现在作为技术预览提供。如需更多信息,请参阅 code-server 中的操作

使用 code-server workbench 镜像,您可以使用各种扩展来自定义工作台环境,来添加新的语言、主题、调试器并连接到其他服务。您还可以通过语法高亮显示、自动缩进和括号匹配来提高数据科学效率。

注意

基于 Elyra 的管道不适用于 code-server workbench 镜像。

返回顶部
Red Hat logoGithubredditYoutubeTwitter

学习

尝试、购买和销售

社区

关于红帽文档

通过我们的产品和服务,以及可以信赖的内容,帮助红帽用户创新并实现他们的目标。 了解我们当前的更新.

让开源更具包容性

红帽致力于替换我们的代码、文档和 Web 属性中存在问题的语言。欲了解更多详情,请参阅红帽博客.

關於紅帽

我们提供强化的解决方案,使企业能够更轻松地跨平台和环境(从核心数据中心到网络边缘)工作。

Theme

© 2025 Red Hat