第 3 章 技术预览功能


重要

本节论述了 Red Hat OpenShift AI 中的技术预览功能。技术预览功能不受红帽产品服务等级协议(SLA)支持,且功能可能并不完整。红帽不推荐在生产环境中使用它们。这些技术预览功能可以使用户提早试用新的功能,并有机会在开发阶段提供反馈意见。

有关红帽技术预览功能支持范围的更多信息,请参阅技术预览功能支持范围

在 OpenShift AI 上生成带有 Llama Stack 的生成 AI 应用程序

在这个版本中,OpenShift AI 上的 Llama Stack 技术预览功能启用 Retrieval-Augmented Generation (RAG)和用于构建下一代 generative AI 应用程序的代理工作流。它支持远程推测、内置嵌入和向量数据库操作。它还与 TrustyAI's 供应商(安全)和 Trusty AI 的 LM-Eval 供应商集成以进行评估。

此预览包括启用 Llama Stack Operator 的工具、组件和指导,与 RAG 工具交互,以及自动化 PDF ingestion 和关键字搜索功能来增强文档发现。

集中平台指标和追踪
集中式平台指标和追踪现在作为 OpenShift AI 中的技术预览功能提供。此功能启用了与 Cluster Observability Operator (COO)、红帽构建的 OpenTelemetry 和 Tempo Operator 集成,并为 OpenShift AI 提供可选的开箱即用的可观察性配置。它还引入了一个专用的可观察性堆栈。将来的版本将在专用的可观察性堆栈中收集基础架构和客户工作负载信号。
支持 Llama Stack 分发版本 0.2.17

Llama Stack 分发现在包括 Llama-stack 版本 0.2.17 作为技术预览。这个功能带来了很多功能,包括:

  • Model provider :现在自动注册(如 vLLM)的自托管供应商,因此不再需要手动设置 INFERENCE_MODEL 变量。
  • 基础架构和后端:改进了 OpenAI 推测并添加了对 Vector Store API 的支持。
  • 错误处理:错误现已标准化,并且改进了库客户端初始化。
  • 访问控制:Vector Store 和 File API 现在强制执行访问控制,遥测读取 API 由用户角色授权。
  • 错误修复。
支持 IBM Power 加速 Triton Inference Server

现在,您可以使用 Python 和 ONNX 后端为 Triton inference 服务器(仅限 CPU)启用 Power 架构支持。您可以将 Triton inference 服务器部署为 IBM Power 架构上的自定义模型服务运行时,作为 Red Hat OpenShift AI 中的技术预览。

详情请参阅 Triton Inference Server image

支持 Kubernetes 事件驱动的自动扩展(KEDA)

OpenShift AI 现在在其标准部署模式中支持 Kubernetes 事件驱动的自动扩展(KEDA)。此技术预览功能为 inference 服务启用了基于指标的自动扩展功能,可以更有效地管理加速器资源、降低操作成本并提高了您的推论服务的性能。

要在标准部署中为您的 inference 服务设置自动扩展,您需要安装和配置基于 KEDA 的 OpenShift 自定义 Metrics Autoscaler (CMA)。

有关此功能的更多信息,请参阅配置 基于指标的自动扩展

LM-Eval 模型评估 UI 功能
TrustyAI 现在为 LM-Eval 模型评估提供了一个用户友好的 UI,作为技术预览。此功能允许您为给定模型输入评估参数,并从 UI 返回 evaluation-results 页面。
使用带有 LlamaStack 的 Guardrails Orchestrator

现在,您可以使用 TrustyAI 和 Llama Stack 作为技术预览功能中的 Guardrails Orchestrator 工具运行检测,使用内置的检测组件。要使用这个功能,请确保启用了 TrustyAI,并设置了 FMS Orchestrator 和 detectors,并在需要时使用 KServe RawDeployment 模式实现完全兼容性。不需要手动设置。

然后,在 Red Hat OpenShift AI Operator 的 DataScienceCluster 自定义资源中,将 spec.llamastackoperator.managementState 字段设置为 Managed

如需更多信息,请参阅 GitHub 上的以下资源:

使用 Kubernetes API 定义和管理管道

现在,您可以使用 Kubernetes API 定义和管理数据科学管道和管道版本,它将其作为自定义资源存储在集群中而不是内部数据库。此技术预览功能可让您更轻松地使用 OpenShift GitOps (Argo CD)或类似的工具来管理管道,同时仍然允许您通过 OpenShift AI 用户界面、API 和 kfp SDK 来管理它们。

在创建或编辑 管道服务器时,此选项默认可通过 Kubernetes 复选框中的 Store 管道定义进行配置。集群管理员还可以通过将 DataSciencePipelinesApplication (DSPA)自定义资源中的 spec.apiServer.pipelineStore 字段设置为 kubernetesdatabase 来配置这个选项。如需更多信息 ,请参阅使用 Kubernetes API 定义管道

使用 LAB-tuning 进行模型自定义

LAB-tuning 现在作为技术预览提供,使数据科学家能够运行端到端工作流以自定义大型语言模型(LLM)。LAB (用于 chatBots) 方法通过利用 taxonomy-guided syntic data generation (SDG)和多阶段培训方法提供更有效的传统微调替代方案。

数据科学家可以使用新的预配置的 InstructLab 管道直接从 OpenShift AI 仪表板运行 LAB-tuning 工作流,这简化了调优过程。有关启用和使用 LAB-tuning 的详细信息,请参阅启用 LAB-tuning通过 LAB-tuning 自定义模型

重要

目前,断开连接的环境不支持 LAB-tuning 功能。

Red Hat OpenShift AI Model Catalog

Red Hat OpenShift AI Model Catalog 现在作为技术预览提供。此功能从使用 Granite 系列模型连接用户开始,以及 LAB-tuning 中使用的教师和 judge 模型。

注意

目前在断开连接的环境中不支持模型目录功能。

新功能存储组件

现在,您可以在 Red Hat OpenShift AI Operator 中安装和管理 Feature Store 作为可配置的组件。基于开源 Feast 项目,Feature Store 充当 ML 模型和数据之间的桥接,从而在 ML 生命周期之间实现一致且可扩展的功能管理。

这个技术预览版本引进了以下功能:

  • 集中功能存储库,实现一致性功能重复使用
  • Python SDK 和 CLI,用于编程和命令行交互,以定义、管理和检索 ML 模型的功能
  • 功能定义和管理
  • 支持各种数据源
  • 通过功能材料化数据
  • 对在线模型推测和离线模型培训的功能检索
  • 基于角色的访问控制(RBAC)来保护敏感功能
  • 可扩展性并与第三方数据和计算提供程序集成
  • 可扩展性以满足企业 ML 的需求
  • 可搜索功能目录
  • 用于增强可观察性的数据线跟踪

    详情请参阅 配置功能存储

使用节点选择器,启用将工作台部署到 Red Hat OpenShift AI Dashboard 中的特定 worker 节点

硬件配置集现在作为技术预览提供。硬件配置集功能允许用户为工作台或模型保留工作负载为目标特定的 worker 节点。它允许用户以特定加速器类型或仅 CPU 的节点为目标。

此功能替换了当前的加速器配置集功能和容器大小选择器字段,为针对不同的硬件配置提供更广泛的功能。虽然加速器配置集、污点和容限为硬件提供一些匹配工作负载的功能,但它们不能确保工作负载在特定节点上,特别是某些节点缺少适当的污点。

硬件配置集功能支持加速器和 CPU 配置以及节点选择器,以增强特定 worker 节点的目标功能。管理员可以在设置菜单中配置硬件配置文件。用户可以在适用的情况下使用 UI 为工作台、模型服务和 Data Science Pipelines 选择启用的配置集。

RStudio Server workbench 镜像

使用 RStudio 服务器工作台镜像,您可以访问 RStudio IDE,这是 RStudio 的集成开发环境。R 编程语言用于统计计算和图形来支持数据分析和预测。

要使用 RStudio Server workbench 镜像,您必须首先通过创建 secret 并触发 BuildConfig 来构建它,然后通过编辑 r Studio-rhel9 镜像流在 OpenShift AI UI 中启用它。如需更多信息,请参阅 构建 RStudio 服务器工作台镜像

重要

免责声明: 红帽支持在 OpenShift AI 中管理工作台。但是,红帽不提供对 RStudio 软件的支持。RStudio 服务器通过 rstudio.org 提供,并遵循其许可条款。在使用此示例工作台前,您应该查看其许可条款。

CUDA - RStudio Server workbench 镜像

使用 CUDA - RStudio Server workbench 镜像,您可以访问 RStudio IDE 和 NVIDIA CUDA Toolkit。RStudio IDE 是 R 编程语言用于统计计算和图形的集成开发环境。使用 NVIDIA CUDA 工具包,您可以使用 GPU 加速的库和优化工具提高工作。

要使用 CUDA - RStudio Server workbench 镜像,您必须首先通过创建 secret 并触发 BuildConfig 来构建它,然后通过编辑 r Studio-rhel9 镜像流在 OpenShift AI UI 中启用它。如需更多信息,请参阅 构建 RStudio 服务器工作台镜像

重要

免责声明: 红帽支持在 OpenShift AI 中管理工作台。但是,红帽不提供对 RStudio 软件的支持。RStudio 服务器通过 rstudio.org 提供,并遵循其许可条款。在使用此示例工作台前,您应该查看其许可条款。

CUDA - RStudio Server workbench 镜像包含 NVIDIA CUDA 技术。CUDA Toolkit 文档中提供了 CUDA 许可信息。在使用此示例工作台前,您应该查看其许可条款。

Model Registry
OpenShift AI 现在支持 Model Registry Operator。默认情况下,Model Registry Operator 不会在技术预览模式下安装。模型 registry 是一个中央存储库,包含与机器学习模型相关的元数据,从最初到部署。
支持非常大型模型的多节点部署
当使用单模式服务运行时,在多个图形处理单元(GPU)节点上提供模型现在作为技术预览提供。在多个 GPU 节点间部署模型,以便在部署大型语言模型(LLM)时提高效率。如需更多信息,请参阅 在多个 GPU 节点间部署模型
返回顶部
Red Hat logoGithubredditYoutubeTwitter

学习

尝试、购买和销售

社区

关于红帽文档

通过我们的产品和服务,以及可以信赖的内容,帮助红帽用户创新并实现他们的目标。 了解我们当前的更新.

让开源更具包容性

红帽致力于替换我们的代码、文档和 Web 属性中存在问题的语言。欲了解更多详情,请参阅红帽博客.

關於紅帽

我们提供强化的解决方案,使企业能够更轻松地跨平台和环境(从核心数据中心到网络边缘)工作。

Theme

© 2025 Red Hat