第 1 章 LAB-tuning 概述
重要
LAB-tuning 目前在 Red Hat OpenShift AI 中作为技术预览功能提供。技术预览功能不受红帽产品服务等级协议(SLA)支持,且功能可能并不完整。红帽不推荐在生产环境中使用它们。这些技术预览功能可以使用户提早试用新的功能,并有机会在开发阶段提供反馈意见。
有关红帽技术预览功能支持范围的更多信息,请参阅技术预览功能支持范围。
您可以在 OpenShift AI 中使用 LAB-tuning 来运行用于自定义大型语言模型(LLM)的端到端工作流。LAB (用于 chatBots) 方法提供了更有效的替代传统微调方案,方法是将 taxonomy-guided synthetic 数据生成(SDG)与多阶段培训流程相结合。您可以使用预配置的 InstructLab 管道直接从 OpenShift AI 仪表板运行 LAB-tuning 工作流,该管道简化了调优过程。
LAB-tuning 提供以下优点:
- 创建反映您域特定知识的 LLM。
- 从结构化税务处自动生成高质量培训数据。
- 通过精简的多阶段培训流程更快地微调模型。
- 通过将培训作为跨集群的分布式工作负载运行培训来提高性能和可扩展性。
- 在 OpenShift AI 中安全地运行整个工作流。
1.1. LAB-tuning 工作流 复制链接链接已复制到粘贴板!
复制链接链接已复制到粘贴板!
LAB-tuning 通过预配置的 InstructLab 管道简化模型自定义,该管道遵循此工作流:
- 您的结构化税务定义了该模式应了解的知识与技能。
- 教导模式使用税务培训数据。
- 一个 judge 模型检查,并对合成数据进行评分,以确保质量。
- 复合数据用于通过多阶段培训管道微调基础模型。
结果是一个微调的模型,您可以从模型 registry 进行版本、审核和部署。