2.2. 功能增强
- 更新了 vLLM 组件版本
OpenShift AI 支持每个列出的组件的以下 vLLM 版本:
- vLLM CUDA v0.9.0.1 (为 FIPS 指定)
- vLLM ROCm v0.8.4.3 (为 FIPS 指定)
- vLLM Power v0.9.1
- vLLM Z v0.9.1 (为 FIPS 指定)
vLLM Gaudi v0.7.2.post1
如需更多信息,请参阅 GitHub 中的
vllm
。
- 添加了对 LLM-as-a-Judge 指标的支持
现在,您可以在 TrustyAI 中使用 LLM-as-a-Judge 指标和 LM-Eval。大型语言模型(LLM)可用作类类的评估者,以评估另一个 LLM (不能轻松量化)中的输出质量,如评级一个 creative writing。这称为 LLM-as-a-Judge (LLMaaJ)。
有关示例评估,请参阅 LM-Eval 场景。
- 分布式工作负载:经过测试和验证的额外培训镜像
以下额外培训镜像经过测试并验证:
与 CUDA 兼容的 Ray 集群镜像
一个新的基于 Ray 的培训镜像
quay.io/modh/ray:2.46.0-py311-cu121
已被测试并验证。此镜像与 CUDA 12.1 支持的 AMD 加速器兼容。兼容 ROCm 集群镜像
与 ROCm 兼容的 Ray 集群镜像
quay.io/modh/ray:2.46.0-py311-rocm62
被测试并验证。此镜像与 ROCm 6.2 支持的 AMD 加速器兼容。
这些镜像是 AMD64 镜像,可能不适用于其他架构。有关 Red Hat OpenShift AI 中最新可用培训镜像的更多信息,请参阅 Red Hat OpenShift AI 支持的配置。
- 提高了 OpenShift AI Operator 的可靠性
- OpenShift AI Operator 现在使用三个副本而不是单个实例运行,这提高了生产工作负载的弹性和可靠性。此功能增强减少了 OpenShift AI 服务中断,并在多个实例之间分发 Webhook 操作。
- 在数据科学管道中支持 Kubeflow Pipelines 2.5.0
- 数据科学项目已升级到 Kubeflow Pipelines (KFP)版本 2.5.0。如需更多信息,请参阅 Kubeflow Pipelines 发行注记。
- 由笔记本控制器自动创建 Elyra 资源
在以前的版本中,
elyra-pipelines-<notebook-name> RoleBinding
和ds-pipeline-config Secret
资源由仪表板组件置备,它不与控制器的生命周期管理集成。此依赖项还需要部署 OpenShift AI 仪表板,即使您只需要管道功能。在这个版本中,笔记本控制器会自动创建这些资源,允许您独立于仪表板组件使用工作台和管道。这个更改简化了设置并确保更一致的生命周期管理。
- Seldon MLServer 版本 1.6.1 运行时现在经过测试和验证
红帽已测试并验证 Seldon MLServer 版本 1.6.1 运行时,改进了与常见预测 AI 模型的兼容性。以下模型经过测试了 KServe (REST 和 gRPC):
- scikit-learn
- XGBoost
- LightGBM
- CatBoost
- MLflow
- Hugging Face
- 已删除模型 registry 的 Operator 依赖项
Red Hat Authorino、Red Hat OpenShift Serverless 和 Red Hat OpenShift Service Mesh Operator 不再需要在 OpenShift AI 中使用模型 registry 组件。
现有模型 registry 实例将自动迁移为使用 OpenShift OAuth 代理身份验证。从 OpenShift AI 仪表板创建的新模型 registry 实例将默认使用 OAuth 代理。使用旧的
v1alpha1
API 和 Istio 配置创建的新实例将自动更新为使用 OAuth 代理。Kubernetes RBAC 资源等较旧模型 registry 实例的现有授权配置将继续按预期工作。