第 4 章 技术预览功能


重要

本节介绍 Red Hat OpenShift AI 3.0 中的技术预览功能。技术预览功能不受红帽产品服务等级协议(SLA)支持,且功能可能并不完整。红帽不推荐在生产环境中使用它们。这些技术预览功能可以使用户提早试用新的功能,并有机会在开发阶段提供反馈意见。

有关红帽技术预览功能支持范围的更多信息,请参阅技术预览功能支持范围

TrustyAI-Llama Stack 集成用于安全、保护rails 和评估

现在,您可以使用 TrustyAI 和 Llama Stack 中的 Guardrails Orchestrator 作为技术预览。

此集成支持内置的检测和评估工作流来支持 AI 安全和内容模式。启用 TrustyAI 并且配置了 FMS Orchestrator 和 detectors 时,不需要手动设置。

要激活此功能,请在 OpenShift AI Operator 的 DataScienceCluster 自定义资源中设置以下字段: spec.llamastackoperator.managementState: Managed

如需更多信息,请参阅 GitHub: TrustyAI FMS Provider 上的 TrustyAI FMS Provider

AI Available Assets 页面用于部署的模型和 MCP 服务器

新的 AI Available Assets 页面可让 AI 工程师和应用程序开发人员查看和使用其项目中部署的 AI 资源。

此功能增强引入了一个可过滤的 UI,它列出了所选项目中的可用模型和模型上下文协议(MCP)服务器,允许具有适当权限的用户识别可访问的端点并将其直接集成到 AI Playground 或其他应用程序中。

为模型测试和评估生成 AI Playground

generateive AI (GenAI) Playground 在 OpenShift AI 仪表板中引入了统一的互动体验,用于试验基础和自定义模型。

用户可以通过上传文档并与其内容进行聊天,测试 Retrieval-Augmented Generation (RAG)工作流的提示、比较模型并评估 Retrieval-Augmented Generation (RAG)工作流。GenAI Playground 还支持与批准的模型上下文协议(MCP)服务器集成,并启用导出提示和代理配置作为在本地 IDE 中持续迭代的可运行代码。

每个会话中都会保留 chat 上下文,从而为提示工程和模型试验提供合适的环境。

支持 air-gapped Llama Stack 部署

现在,您可以在完全断开连接的(air-gapped) OpenShift AI 环境中安装并运行 Llama Stack 和 RAG/Agentic 组件。

此功能增强支持在没有互联网访问的情况下安全部署 Llama Stack 功能,允许机构使用 AI 功能,同时遵守严格的网络安全策略。

功能存储与 Workbenches 和新用户访问功能集成

此功能作为技术预览提供。

Feature Store 现在与 OpenShift AI、数据科学项目和工作台集成。此集成还引入了集中管理的、基于角色的访问控制(RBAC)功能,以改进监管。

这些改进提供两个关键功能:

  • 工作台环境中的功能开发。
  • 管理员控制的用户访问。

    在这个版本中,简化了并加快数据科学家的功能发现和消耗,同时允许平台团队完全控制基础架构和功能访问。

功能存储用户界面

Feature Store 组件现在包含一个基于 Web 的用户界面(UI)。

您可以使用 UI 查看注册的功能存储对象及其关系,如功能、数据源、实体和功能服务。

要启用 UI,请编辑 FeatureStore 自定义资源(CR)实例。保存更改时,Feature Store Operator 将启动 UI 容器,并创建用于访问 OpenShift 路由。

如需更多信息,请参阅为初始使用 设置功能存储用户界面

IBM Spyre AI 加速器模型在 x86 平台上支持
使用 IBM Spyre AI Accelerator 提供的模型现在作为 x86 平台的技术预览功能提供。IBM Spyre Operator 会自动安装并集成设备插件、二级调度程序和监控。如需更多信息,请参阅 IBM Spyre Operator 目录条目
在 OpenShift AI 上生成带有 Llama Stack 的生成 AI 应用程序

在这个版本中,Llama Stack 技术预览功能启用 Retrieval-Augmented Generation (RAG)和代理工作流用于构建下一代 generative AI 应用程序。它支持远程推测、内置嵌入和向量数据库操作。它还与 TrustyAI's 供应商(安全)和 Trusty AI 的 LM-Eval 供应商集成以进行评估。

此预览包括启用 Llama Stack Operator 的工具、组件和指导,与 RAG 工具交互,以及自动化 PDF ingestion 和关键字搜索功能来增强文档发现。

集中平台可观察性

集中平台可观察性(包括指标、跟踪和内置警报)作为技术预览功能提供。此解决方案为 OpenShift AI 引入了一个专用的、预先配置的可观察性堆栈,它允许集群管理员执行以下操作:

  • 查看 OpenShift AI 组件和工作负载的平台指标(Prometheus)和分布式追踪(Tempo)。
  • 管理一组涵盖关键组件健康和性能问题的内置警报(alertmanager)。
  • 通过编辑 DataScienceClusterInitialization (DSCI)自定义资源,将平台和工作负载指标导出到外部第三方可观察性工具。

    您可以通过与 Cluster Observability Operator、Red Hat build of OpenTelemetry 和 Tempo Operator 集成来启用此功能。如需更多信息,请参阅监控和可观察性。如需更多信息,请参阅管理可观察性

支持 Llama Stack 分发版本 0.3.0

Llama Stack 分发现在包含版本 0.3.0 作为技术预览功能。

这个版本引入了几个改进,包括对检索生成(RAG)管道的扩展支持,改进了评估供应商集成,以及代理和向量存储管理的更新 API。它还提供与最新 OpenAI API 扩展和基础架构优化一致的兼容性更新,以实现分布式推测。

之前支持的版本为 0.2.22。

支持 Kubernetes 事件驱动的自动扩展(KEDA)

OpenShift AI 现在在其 KServe RawDeployment 模式中支持 Kubernetes 事件驱动的自动扩展(KEDA)。此技术预览功能为 inference 服务启用了基于指标的自动扩展功能,可以更有效地管理加速器资源、降低操作成本并提高了您的推论服务的性能。

要在 KServe RawDeployment 模式中为您的 inference 服务设置自动扩展,您需要安装并配置基于 KEDA 的 OpenShift 自定义 Metrics Autoscaler (CMA)。

有关此功能的更多信息,请参阅配置 基于指标的自动扩展

LM-Eval 模型评估 UI 功能
TrustyAI 现在为 LM-Eval 模型评估提供了一个用户友好的 UI,作为技术预览。此功能允许您为给定模型输入评估参数,并从 UI 返回 evaluation-results 页面。
使用带有 LlamaStack 的 Guardrails Orchestrator

现在,您可以使用 TrustyAI 和 Llama Stack 作为技术预览功能中的 Guardrails Orchestrator 工具运行检测,使用内置的检测组件。要使用这个功能,请确保启用了 TrustyAI,并设置了 FMS Orchestrator 和 detectors,并在需要时使用 KServe RawDeployment 模式实现完全兼容性。不需要手动设置。然后,在 Red Hat OpenShift AI Operator 的 DataScienceCluster 自定义资源中,将 spec.llamastackoperator.managementState 字段设置为 Managed

如需更多信息,请参阅 GitHub 上的 Trusty AI FMS Provider

支持使用 CodeFlare SDK 创建和管理 Ray 作业

现在,您可以通过 CodeFlare SDK 直接创建和管理 Ray 集群上的 Ray 作业。

此增强将 CodeFlare SDK 工作流与 KubernetesFlow Training Operator (KFTO)模型(其中自动创建、运行和完成)模型保持一致。此功能增强通过防止 Ray 集群在作业完成后保持活跃,简化了手动集群管理。

支持使用 OIDC 身份提供程序进行直接身份验证

使用 OpenID Connect (OIDC)身份提供程序直接验证现在作为技术预览提供。

此功能增强通过网关 API 集中 OpenShift AI 服务身份验证,提供安全、可扩展且可管理的身份验证模型。您可以使用 GatewayConfig 自定义资源使用外部 OIDC 供应商配置网关 API。

Synthetic Data Generation pipelines 的自定义流估算器

现在,您可以将自定义流估算器用于复合数据生成(SDG)管道。

对于支持的兼容 SDG 教授模型,估算程序可帮助您在运行完整工作负载前,在样本数据集上评估所选手模型、自定义流和支持的硬件。

Llama Stack 支持和优化单节点 OpenShift (SNO)

Llama Stack 内核现在可以在单一节点 OpenShift (SNO)上部署并高效运行。

此功能增强优化了组件启动和资源使用情况,以便 Llama Stack 可以在单节点集群环境中可靠地操作。

FAISS 向量存储集成

现在,您可以使用 FAIS (Facebook AI Similarity Search)库作为 OpenShift AI 中的内联向量存储。

FAISS 是一个开源框架,用于高性能向量搜索和集群,针对与 CPU 和 GPU 支持的密集数字进行了优化。当使用 Llama Stack 分发中的嵌入的 SQLite 后端启用时,FAISS 存储会存储在容器中本地嵌入的,不再需要外部向量数据库服务。

新功能存储组件

现在,您可以在 OpenShift AI 中安装和管理功能存储作为可配置组件。基于开源 Feast 项目,Feature Store 充当 ML 模型和数据之间的桥接,从而在 ML 生命周期之间实现一致且可扩展的功能管理。

这个技术预览版本引进了以下功能:

  • 集中功能存储库,实现一致性功能重复使用
  • Python SDK 和 CLI,用于编程和命令行交互,以定义、管理和检索 ML 模型的功能
  • 功能定义和管理
  • 支持各种数据源
  • 通过功能材料化数据
  • 对在线模型推测和离线模型培训的功能检索
  • 基于角色的访问控制(RBAC)来保护敏感功能
  • 可扩展性并与第三方数据和计算提供程序集成
  • 可扩展性以满足企业 ML 的需求
  • 可搜索功能目录
  • 用于增强可观察性的数据线跟踪

    详情请参阅 配置功能存储

对 Llama Stack 和 RAG 部署的 FIPS 支持

现在,您可以在需要 FIPS 合规的约束环境中部署 Llama Stack 和 RAG 或代理解决方案。

此功能增强提供 FIPS 认证和兼容的部署模式,以帮助机构满足 AI 工作负载的严格规范和认证要求。

为 Red Hat AI Platform 验证的 sdg-hub 笔记本

现在,可以使用经过验证的 sdg_hub 示例笔记本,在 OpenShift AI 3.0 中提供笔记本驱动的用户体验。

这些笔记本支持多个红帽平台,并通过 SDG 管道进行自定义。它们包括以下用例的示例:

  • 知识与技能调节,包括标注了调优模型的示例。
  • 整合数据生成以及原因跟踪以自定义原因模型。
  • 演示了使用默认块并为特殊工作流创建新块的自定义 SDG 管道。
RAGAS 评估供应商 Llama Stack (在线和远程)

现在,您可以使用 Retrieval-Augmented Generation assessment (RAGAS)评估供应商来测量 OpenShift AI 中 RAG 系统的质量和可靠性。

RAGAS 提供检索质量、回答相关性和事实一致性的指标,可帮助您识别问题并优化 RAG 管道配置。

与 Llama Stack 评估 API 集成支持两种部署模式:

  • 内联供应商:直接在 Llama Stack 服务器进程中运行 RAGAS 评估。
  • 远程供应商:使用 OpenShift AI 管道将 RAGAS 评估作为分布式作业运行。

    RAGAS 评估提供程序现在包含在 Llama Stack 分发中。

使用节点选择器,启用将工作台部署到 Red Hat OpenShift AI Dashboard 中的特定 worker 节点

硬件配置集现在作为技术预览提供。硬件配置集功能允许用户为工作台或模型保留工作负载为目标特定的 worker 节点。它允许用户以特定加速器类型或仅 CPU 的节点为目标。

此功能替换了当前的加速器配置集功能和容器大小选择器字段,为针对不同的硬件配置提供更广泛的功能。虽然加速器配置集、污点和容限为硬件提供一些匹配工作负载的功能,但它们不能确保工作负载在特定节点上,特别是某些节点缺少适当的污点。

硬件配置集功能支持加速器和 CPU 配置以及节点选择器,以增强特定 worker 节点的目标功能。管理员可以在设置菜单中配置硬件配置文件。用户可以在适用的情况下使用 UI 为工作台、模型服务和 AI 管道选择启用的配置集。

RStudio Server workbench 镜像

使用 RStudio 服务器工作台镜像,您可以访问 RStudio IDE,这是 RStudio 的集成开发环境。R 编程语言用于统计计算和图形来支持数据分析和预测。

要使用 RStudio Server workbench 镜像,您必须首先通过创建 secret 并触发 BuildConfig 来构建它,然后通过编辑 r Studio-rhel9 镜像流在 OpenShift AI UI 中启用它。如需更多信息,请参阅 构建 RStudio 服务器工作台镜像

重要

免责声明: 红帽支持在 OpenShift AI 中管理工作台。但是,红帽不为 RStudio 软件提供支持。RStudio 服务器可以通过 r Studio.org 提供,并遵循其许可条款。在使用此示例工作台前,您应该查看其许可条款。

CUDA - RStudio Server workbench 镜像

使用 CUDA - RStudio Server workbench 镜像,您可以访问 RStudio IDE 和 NVIDIA CUDA Toolkit。RStudio IDE 是用于统计计算和图形的 R 编程语言的集成开发环境。使用 NVIDIA CUDA 工具包,您可以使用 GPU 加速的库和优化工具来增强您的工作。

要使用 CUDA - RStudio Server workbench 镜像,您必须首先通过创建 secret 并触发 BuildConfig 来构建它,然后通过编辑 r Studio-rhel9 镜像流在 OpenShift AI UI 中启用它。如需更多信息,请参阅 构建 RStudio 服务器工作台镜像

重要

免责声明: 红帽支持在 OpenShift AI 中管理工作台。但是,红帽不为 RStudio 软件提供支持。RStudio 服务器可以通过 r Studio.org 提供,并遵循其许可条款。在使用此示例工作台前,您应该查看其许可条款。

CUDA - RStudio Server workbench 镜像包含 NVIDIA CUDA 技术。CUDA Toolkit 文档中提供了 CUDA 许可信息。在使用此示例工作台前,您应该查看其许可条款。

支持非常大型模型的多节点部署
当使用单模式服务运行时,在多个图形处理单元(GPU)节点上提供模型现在作为技术预览提供。在多个 GPU 节点间部署模型,以便在部署大型语言模型(LLM)时提高效率。如需更多信息,请参阅 使用多个 GPU 节点部署模型
返回顶部
Red Hat logoGithubredditYoutubeTwitter

学习

尝试、购买和销售

社区

关于红帽文档

通过我们的产品和服务,以及可以信赖的内容,帮助红帽用户创新并实现他们的目标。 了解我们当前的更新.

让开源更具包容性

红帽致力于替换我们的代码、文档和 Web 属性中存在问题的语言。欲了解更多详情,请参阅红帽博客.

關於紅帽

我们提供强化的解决方案,使企业能够更轻松地跨平台和环境(从核心数据中心到网络边缘)工作。

Theme

© 2025 Red Hat