第 1 章 启用 LAB-tuning 概述


重要

LAB-tuning 目前在 Red Hat OpenShift AI 中作为技术预览功能提供。技术预览功能不受红帽产品服务等级协议(SLA)支持,且功能可能并不完整。红帽不推荐在生产环境中使用它们。这些技术预览功能可以使用户提早试用新的功能,并有机会在开发阶段提供反馈意见。

有关红帽技术预览功能支持范围的更多信息,请参阅技术预览功能支持范围

数据科学家可以在 OpenShift AI 中使用 LAB-tuning 来运行用于自定义大型语言模型(LLM)的端到端工作流。LAB (用于 chatBots) 方法提供了更有效的替代传统微调方法,方法是结合使用 taxonomy-guided syntic data generation (SDG)和多阶段培训流程。可以使用预配置的 InstructLab 管道直接从 OpenShift AI 仪表板启动 LAB-tuning 工作流,简化了调优过程。

LAB-tuning 依赖于几个 OpenShift AI 组件协同工作来支持模型自定义。它使用数据科学管道来运行调优工作流,KServe 部署和提供教员和判断模型,以及 training Operator 在启用了 GPU 的节点上运行分布式模型培训。LAB-tuning 还依赖于模型 registry 管理模型版本、存储连接(如 S3 或 OCI)来存储管道工件和模型输出,以及 GPU 硬件配置集来调度培训工作负载。

要启用 LAB-tuning,OpenShift 集群管理员必须通过完成以下任务来配置所需的基础架构和平台组件:

  • 安装所需的 Operator
  • 安装所需组件
  • 配置支持动态置备的存储类

集群管理员或 OpenShift AI 管理员必须在 OpenShift AI 仪表板中执行其他设置:

  • 在仪表板中使 LAB-tuning 功能可见
  • 创建模型 registry
  • 创建 GPU 硬件配置集

1.1. LAB-tuning 的要求

  • 您有一个具有集群管理员访问权限的 OpenShift 集群。
  • 您的 OpenShift 集群至少有一个节点,带有 1 个 NVIDIA GPU (如 NVIDIA L40S 48 GB)用于 LAB-tuning 过程。运行 distributed LAB-tuning 工作负载需要同一或不同节点上的多个 GPU。
  • 要部署教授模型(rhelai1/modelcar-mixtral-8x7b-instruct-v0-1:1.4),OpenShift 集群有一个能够运行模型或多个 GPU 的 worker 节点(例如,a2-ultragpu-4g,其中包含 4 x NVIDIA A100 with 80GBRAM),并且至少有 100 GiB 可用磁盘存储存储。
  • 要部署 judge 模型(rhelai1/modelcar-prometheus-8x7b-v2-0:1.4),OpenShift 集群有一个可以运行此模型的一个或多个 GPU 的 worker 节点(例如,a2-ultragpu-2g,其中包含 2 个 x NVIDIA A100 带有 80GBRAM),并且至少有 100 GiB 可用磁盘存储来存储模型。
  • 您的环境满足安装所需 Operator 的先决条件,并使用所需的组件、存储、型号 registry 和 GPU 硬件配置集。
返回顶部
Red Hat logoGithubredditYoutubeTwitter

学习

尝试、购买和销售

社区

关于红帽文档

通过我们的产品和服务,以及可以信赖的内容,帮助红帽用户创新并实现他们的目标。 了解我们当前的更新.

让开源更具包容性

红帽致力于替换我们的代码、文档和 Web 属性中存在问题的语言。欲了解更多详情,请参阅红帽博客.

關於紅帽

我们提供强化的解决方案,使企业能够更轻松地跨平台和环境(从核心数据中心到网络边缘)工作。

Theme

© 2025 Red Hat