第 4 章 开发人员预览功能


重要

本节介绍了 Red Hat OpenShift AI 2.22 中的开发人员预览功能。Developer Preview(开发人员预览)功能不被红帽支持,其功能可能并不完善且不是生产环境就绪。不要将开发人员预览功能用于生产环境或业务关键型工作负载。开发人员预览功能在红帽产品产品中包括早期对功能的访问。客户可以使用这些功能在开发过程中测试并提供反馈。开发人员预览功能可能没有任何文档,可以随时更改或删除,并且已获得有限的测试。红帽可能会提供在没有关联 SLA 的情况下提交对开发人员预览功能的反馈。

有关红帽开发人员预览功能的支持范围的更多信息,请参阅 开发人员预览支持范围

Llama Stack Developer Preview: 使用 OpenShift AI 构建生成 AI 应用程序

在这个版本中,OpenShift AI 上的 Llama Stack 开发者预览功能启用 Retrieval-Augmented Generation (RAG)和用于构建下一代 generative AI 应用程序的代理工作流。它支持远程推测、内置嵌入和向量数据库操作。它还与 TrustyAI's 供应商(安全)和 Trusty AI 的 LM-Eval 供应商集成以进行评估。

此预览包括启用 Llama Stack Operator 的工具、组件和指导,与 RAG 工具交互,以及自动化 PDF ingestion 和关键字搜索功能来增强文档发现。

为 TrustyAI-Llama Stack Security 和 Guardrails 运行评估

现在,您可以使用内置的 LM-Eval 组件和高级内容模式集成工具,在带有 TrustyAI 作为开发者预览功能的 Llama Stack 上运行评估并应用 Guardrails。要使用这个功能,请确保启用了 TrustyAI,并设置了 FMS Orchestrator 和 detectors,并在需要时使用 KServe RawDeployment 模式实现完全兼容性。不需要手动设置。

然后,在 Red Hat OpenShift AI Operator 的 DataScienceCluster 自定义资源中,将 spec.llamastackoperator.managementState 字段设置为 Managed

如需更多信息,请参阅 GitHub 上的以下资源:

LLM Compressor 集成

LLM Compressor 功能现在包括在 Red Hat OpenShift AI 中作为开发者技术预览功能。使用 llm-compressor 库以及相应的数据科学管道运行时镜像的新工作台镜像,可以更轻松地压缩和优化您的大型语言模型(LLM),以便有效地使用 vLLM 部署。如需更多信息,请参阅 GitHub 中的 llm-compressor

您可以通过两种方式使用 LLM Compressor 功能:

支持 Kueue 中的 AppWrapper
Kue 中的 AppWrapper 支持作为开发者技术预览功能提供。实验性 API 支持使用带有分布式工作负载功能的基于 AppWrapper 的工作负载。
返回顶部
Red Hat logoGithubredditYoutubeTwitter

学习

尝试、购买和销售

社区

关于红帽文档

通过我们的产品和服务,以及可以信赖的内容,帮助红帽用户创新并实现他们的目标。 了解我们当前的更新.

让开源更具包容性

红帽致力于替换我们的代码、文档和 Web 属性中存在问题的语言。欲了解更多详情,请参阅红帽博客.

關於紅帽

我们提供强化的解决方案,使企业能够更轻松地跨平台和环境(从核心数据中心到网络边缘)工作。

Theme

© 2025 Red Hat