第 2 章 新功能及功能增强
本节介绍了 Red Hat OpenShift AI 2.25 中的新功能和增强。
2.1. 新功能 复制链接链接已复制到粘贴板!
- 对 registry 和模型目录正式发行(GA)进行模型
OpenShift AI 模型 registry 和模型目录现在作为正式发行(GA)功能提供。
模型 registry 作为管理员和数据科学家的中央存储库,用于在配置 AI 模型以进行部署前管理 AI 模型的生命周期。模型 registry 是 AI 模型管理的关键组件。
模型目录提供了一个策展的库,其中数据科学家和 AI 工程师可以发现和评估可用的 AI 模型,以查找最适合其用例。
- LLM Compressor 库添加到 OpenShift AI workbench 镜像和管道中
LLM Compressor 库现已正式发布,并完全集成到标准的 OpenShift AI workbench 镜像和管道中。
此库提供了一种受支持的、集成的方法来优化大型语言模型以改进推测,特别是在 vLLM 上部署,而无需离开 OpenShift AI 环境。您可以将模型压缩作为交互式笔记本任务或管道中的批处理作业运行,这可显著降低硬件成本并提高了其通用 AI 工作负载的速度。
- 使用带有管道的现有 Argo 工作流实例
现在,您可以将 OpenShift AI 配置为使用现有的 Argo Workflows 实例,而不是 Data Science Pipelines 中包含的实例。此功能支持维护自己的 Argo 工作流环境的用户,并简化了已部署 Argo 工作流的集群中使用管道。
新的全局配置选项禁用嵌入的 Argo WorkflowController 的部署,允许已经使用 Argo 工作流的集群在不冲突的情况下与管道集成。集群管理员可以选择是部署嵌入式控制器,还是使用自己的 Argo 实例,并独立管理这两个生命周期。如需更多信息,请参阅 使用您自己的 Argo 工作流实例配置管道。
- 添加了对工作台镜像的支持
- 现在,您可以在 OpenShift AI for JupyterLab 和 code-server IDEs 中安装和升级 Python 3.12 workbench 镜像。