第 3 章 技术预览功能
本节论述了 Red Hat OpenShift AI 中的技术预览功能。技术预览功能不受红帽产品服务等级协议(SLA)支持,且功能可能并不完整。红帽不推荐在生产环境中使用它们。这些技术预览功能可以使用户提早试用新的功能,并有机会在开发阶段提供反馈意见。
有关红帽技术预览功能支持范围的更多信息,请参阅技术预览功能支持范围。
- 为 Ray 集群创建强制本地队列标记策略
集群管理员可以使用 Validating Admission Policy 功能,使用 Kue local-queue 标识符强制标记 Ray 集群资源。该标签可确保根据队列管理策略正确分类和路由工作负载,从而防止资源争用并提高操作效率。
当强制 local-queue 标签策略时,只有在集群被配置为使用本地队列时,才会创建 Ray 集群,然后由 Kueue 管理 Ray 集群资源。默认情况下,为所有项目强制执行 local-queue 标签策略,但可为某些或所有项目禁用。有关 local-queue 标签策略的更多信息,请参阅 强制使用本地队列。
注意对于之前没有使用本地队列管理其 Ray 集群资源的用户,这个功能可能会造成破坏的变化。
- RStudio 服务器笔记本镜像
使用 RStudio 服务器笔记本电脑图像,您可以访问 RStudio IDE,这是 RStudio 的集成开发环境。R 编程语言用于统计计算和图形来支持数据分析和预测。
要使用 RStudio 服务器笔记本镜像,您必须首先通过创建 secret 并触发
BuildConfig
来构建它,然后通过编辑r Studio-rhel9
镜像流在 OpenShift AI UI 中启用它。如需更多信息,请参阅 构建 RStudio 服务器工作台镜像。重要免责声明: 红帽支持在 OpenShift AI 中管理工作台。但是,红帽不提供对 RStudio 软件的支持。RStudio 服务器通过 rstudio.org 提供,并遵循其许可条款。在使用此示例工作台前,您应该查看其许可条款。
- CUDA - RStudio 服务器笔记本镜像
使用 CUDA - RStudio 服务器笔记本镜像,您可以访问 RStudio IDE 和 NVIDIA CUDA Toolkit。RStudio IDE 是 R 编程语言用于统计计算和图形的集成开发环境。使用 NVIDIA CUDA 工具包,您可以使用 GPU 加速的库和优化工具提高工作。
要使用 CUDA - RStudio Server notebook 镜像,您必须首先通过创建 secret 并触发
BuildConfig
来构建它,然后通过编辑r Studio-rhel9
镜像流在 OpenShift AI UI 中启用它。如需更多信息,请参阅 构建 RStudio 服务器工作台镜像。重要免责声明: 红帽支持在 OpenShift AI 中管理工作台。但是,红帽不提供对 RStudio 软件的支持。RStudio 服务器通过 rstudio.org 提供,并遵循其许可条款。在使用此示例工作台前,您应该查看其许可条款。
CUDA - RStudio Server notebook 镜像包含 NVIDIA CUDA 技术。CUDA Toolkit 文档中提供了 CUDA 许可信息。在使用此示例工作台前,您应该查看其许可条款。
- Model Registry
- OpenShift AI 现在支持 Model Registry Operator。默认情况下,Model Registry Operator 不会在技术预览模式下安装。模型 registry 是一个中央存储库,包含与机器学习模型相关的元数据,从最初到部署。
- 用于模型存储的 OCI 容器
您可以使用 OCI 存储作为模型服务的替代云存储服务。首先,您要创建一个 OCI 容器镜像来包含模型。该镜像上传到兼容 OCI 的 registry 中,如 Quay。之后,在部署模型时,模型服务平台会引用容器化模型的存储库。
使用 OCI 容器可以提供以下优点:
- 减少了启动时间,因为集群保留了下载的镜像的缓存。重启模型 pod 不会再次下载模型。
- 磁盘空间使用率较低,因为每个 pod 副本上没有下载模型,假设 pod 调度到同一节点上。
- 增强在预抓取镜像或异步加载时的性能。
- 兼容性和集成,因为它可与 KServe 轻松集成。不需要额外的依赖项,且基础架构可能已经可用。
- 支持非常大型模型的多节点部署
- 当使用单模式服务运行时,在多个图形处理单元(GPU)节点上提供模型现在作为技术预览提供。在多个 GPU 节点间部署模型,以便在部署大型语言模型(LLM)时提高效率。如需更多信息,请参阅 在多个 GPU 节点间部署模型。