2.2. 功能增强


2.2.1. 2.19.1 中的增强功能

支持带有 Intel Gaudi 1.21 的 vLLM Inference Server
现在,支持带有 Intel Gaudi 1.21 加速器的 vLLM Inference Server。

2.2.2. 2.19.0 中的增强功能

在标准部署模式中部署模型

您可以在 高级 或标准 部署模式中部署模型。标准部署模式使用 KServe RawDeployment 模式,不需要 Red Hat OpenShift Serverless Operator、Red Hat OpenShift Service Mesh 或 Authorino。

标准部署模式的好处包括:

  • 使用 Kubernetes 资源启用部署,如 DeploymentServiceRouteHorizontal Pod Autoscaler。与高级模式相比,生成的模型部署的资源占用较小。
  • 启用传统的 Deployment/Pod 配置,如挂载多个无法使用 Knative 的卷。这对于需要复杂配置或多个存储挂载的应用程序很有用。

    如需更多信息,请参阅关于 KServe 部署模式

更新了 vLLM 服务运行时模板的命名

模板命名已更新,以更好地区分基于支持的加速器的 vLLM 模板。所有 vLLM 模板现在反映模板的标题和描述中的加速器名称:

  • NVIDIA GPU
  • AMD GPU
  • Gaudi Accelerators
  • (仅限技术预览):CPU (IBM Power 和 IBM Z)
支持带有 Intel Gaudi 1.20 的 vLLM Inference Server
现在,支持带有 Intel Gaudi 1.20 加速器的 vLLM Inference Server。
升级的 OpenVINO Model Server
OpenVINO Model Server 已升级到版本 2025.0。有关更改和增强的详情,请参考 OpenVINO™ Model Server 2025.0
更新了工作台镜像
现在提供了一组新的工作台镜像(2025.1)。这个版本包括大多数预构建 Python 软件包的主要版本升级,并为 RStudio 和 Code-server 更新 IDE。
在数据科学管道中支持 Kubeflow Pipelines 2.4.0
为了保持 Red Hat OpenShift AI 最新功能更新,数据科学管道已升级到 Kubeflow Pipelines (KFP)版本 2.4.0。如需更多信息,请参阅 Kubeflow Pipelines 文档
返回顶部
Red Hat logoGithubredditYoutubeTwitter

学习

尝试、购买和销售

社区

关于红帽文档

通过我们的产品和服务,以及可以信赖的内容,帮助红帽用户创新并实现他们的目标。 了解我们当前的更新.

让开源更具包容性

红帽致力于替换我们的代码、文档和 Web 属性中存在问题的语言。欲了解更多详情,请参阅红帽博客.

關於紅帽

我们提供强化的解决方案,使企业能够更轻松地跨平台和环境(从核心数据中心到网络边缘)工作。

Theme

© 2025 Red Hat