第 1 章 LAB-tuning 概述


重要

LAB-tuning 目前在 Red Hat OpenShift AI 中作为技术预览功能提供。技术预览功能不受红帽产品服务等级协议(SLA)支持,且功能可能并不完整。红帽不推荐在生产环境中使用它们。这些技术预览功能可以使用户提早试用新的功能,并有机会在开发阶段提供反馈意见。

有关红帽技术预览功能支持范围的更多信息,请参阅技术预览功能支持范围

您可以在 OpenShift AI 中使用 LAB-tuning 来运行用于自定义大型语言模型(LLM)的端到端工作流。LAB (用于 chatBots) 方法提供了更有效的替代传统微调方案,方法是将 taxonomy-guided synthetic 数据生成(SDG)与多阶段培训流程相结合。您可以使用预配置的 InstructLab 管道直接从 OpenShift AI 仪表板运行 LAB-tuning 工作流,该管道简化了调优过程。

LAB-tuning 提供以下优点:

  • 创建反映您域特定知识的 LLM。
  • 从结构化税务处自动生成高质量培训数据。
  • 通过精简的多阶段培训流程更快地微调模型。
  • 通过将培训作为跨集群的分布式工作负载运行培训来提高性能和可扩展性。
  • 在 OpenShift AI 中安全地运行整个工作流。

1.1. LAB-tuning 工作流

LAB-tuning 通过预配置的 InstructLab 管道简化模型自定义,该管道遵循此工作流:

  1. 您的结构化税务定义了该模式应了解的知识与技能。
  2. 教导模式使用税务培训数据。
  3. 一个 judge 模型检查,并对合成数据进行评分,以确保质量。
  4. 复合数据用于通过多阶段培训管道微调基础模型。

结果是一个微调的模型,您可以从模型 registry 进行版本、审核和部署。

返回顶部
Red Hat logoGithubredditYoutubeTwitter

学习

尝试、购买和销售

社区

关于红帽文档

通过我们的产品和服务,以及可以信赖的内容,帮助红帽用户创新并实现他们的目标。 了解我们当前的更新.

让开源更具包容性

红帽致力于替换我们的代码、文档和 Web 属性中存在问题的语言。欲了解更多详情,请参阅红帽博客.

關於紅帽

我们提供强化的解决方案,使企业能够更轻松地跨平台和环境(从核心数据中心到网络边缘)工作。

Theme

© 2025 Red Hat