2.2. 功能增强
2.2.1. 2.19.1 中的增强功能 复制链接链接已复制到粘贴板!
复制链接链接已复制到粘贴板!
- 支持带有 Intel Gaudi 1.21 的 vLLM Inference Server
- 现在,支持带有 Intel Gaudi 1.21 加速器的 vLLM Inference Server。
2.2.2. 2.19.0 中的增强功能 复制链接链接已复制到粘贴板!
复制链接链接已复制到粘贴板!
- 在标准部署模式中部署模型
您可以在 高级 或标准 部署模式中部署模型。标准部署模式使用 KServe RawDeployment 模式,不需要 Red Hat OpenShift Serverless Operator、Red Hat OpenShift Service Mesh 或 Authorino。
标准部署模式的好处包括:
-
使用 Kubernetes 资源启用部署,如
Deployment
、Service
、Route
和Horizontal Pod Autoscaler
。与高级模式相比,生成的模型部署的资源占用较小。 启用传统的 Deployment/Pod 配置,如挂载多个无法使用 Knative 的卷。这对于需要复杂配置或多个存储挂载的应用程序很有用。
如需更多信息,请参阅关于 KServe 部署模式。
-
使用 Kubernetes 资源启用部署,如
- 更新了 vLLM 服务运行时模板的命名
模板命名已更新,以更好地区分基于支持的加速器的 vLLM 模板。所有 vLLM 模板现在反映模板的标题和描述中的加速器名称:
- NVIDIA GPU
- AMD GPU
- Gaudi Accelerators
- (仅限技术预览):CPU (IBM Power 和 IBM Z)
- 支持带有 Intel Gaudi 1.20 的 vLLM Inference Server
- 现在,支持带有 Intel Gaudi 1.20 加速器的 vLLM Inference Server。
- 升级的 OpenVINO Model Server
- OpenVINO Model Server 已升级到版本 2025.0。有关更改和增强的详情,请参考 OpenVINO™ Model Server 2025.0。
- 更新了工作台镜像
- 现在提供了一组新的工作台镜像(2025.1)。这个版本包括大多数预构建 Python 软件包的主要版本升级,并为 RStudio 和 Code-server 更新 IDE。
- 在数据科学管道中支持 Kubeflow Pipelines 2.4.0
- 为了保持 Red Hat OpenShift AI 最新功能更新,数据科学管道已升级到 Kubeflow Pipelines (KFP)版本 2.4.0。如需更多信息,请参阅 Kubeflow Pipelines 文档。