第 1 章 Red Hat Enterprise Linux AI 概述
Red Hat Enterprise Linux AI 是一个允许您在开源大语言模型(LLM)上开发企业应用程序的平台。RHEL AI 从 Red Hat InstructLab 开源项目构建。有关 InstructLab 的详情,请查看"InstructLab 和 RHEL AI"部分。
Red Hat Enterprise Linux AI 允许您执行以下操作:
- 托管 LLM,并与 Large Language Models (LLMs)的开源 Granite 系列交互。
- 使用 LAB 方法,在 Git 存储库中创建并添加您自己的知识或技能数据。然后,通过最少的机器学习背景对数据微调模型。
- 与与您的数据进行微调的模型交互。
Red Hat Enterprise Linux AI 允许您直接贡献大语言模型(LLM)。这可让您轻松有效地构建基于 AI 的应用程序,包括 chatbots。
1.1. Red Hat Enterprise Linux AI 的常见术语 复制链接链接已复制到粘贴板!
复制链接链接已复制到粘贴板!
该术语表定义了 Red Hat Enterprise Linux AI 的常见术语:
- InstructLab
-
InstructLab 是一个开源项目,提供使用
ilab命令行界面(CLI)工具轻松参与 AI Large Language Models (LLM)的平台。 - 大型语言模型
- 称为 LLMs,是一种人工智能,能够处理语言生成或任务。
- 合成数据生成(SDG)
- 使用大型语言模型(大型语言模型)和人工生成的样本一起使用大型 LLMs 的流程来生成人工数据,然后可用于培训其他 LLM。
- 微调
- 培训 LLM 以满足特定目标的技术:了解特定信息或执行特定任务。
- LAB
- "arge-Scale Alignment for ChatBot 的缩写"。由 IBM Research 发明,Plabs 是一家基于数据的技术能力和多阶段培训微调方法,用于 LLM。InstructLab 在复合生成和培训过程中实施 LAB 方法。
- 多阶段培训
- LAB 方法实施的微调策略。在此过程中,模型会在独立阶段对多个数据集进行微调。模型以多个阶段培训,称为 epoch,它保存为检查点。然后,在以下阶段中使用最佳执行检查点用于培训。完全调优的模型是最终阶段最佳执行检查点。
- Serving
- 通常被称为"保留模型",是对服务器部署 LLM 或受培训模型。这个过程可让您以 chatbot 与模型交互。
- inference
- 使用模型提供和聊天时,推断是模型可以处理、重复数据删除并根据输入数据生成输出。
- taxonomy
- LAB 方法由 Information classification 方法(一个信息分类方法)驱动。在 RHEL AI 上,您可以自定义一个税务树,它可让您使用您自己的数据创建模型微调。
- Granite
- IBM 培训的开源(Apache 2.0)大型语言模型。在 RHEL AI 上,您可以下载 Granite 系列模型作为基础 LLM 进行自定义。
- PyTorch
- 经过优化的十个库,用于深入学习 GPU 和 CPU。
- vLLM
- 用于 LLMs 的内存效率推测和服务引擎库。
- FSDP
- Fully Shared Data Parallels 的缩写。Pytorch 工具 FSDP 可以在硬件上的多个设备之间分配计算能力。这会优化培训流程,提高内存的调优速度和效率。此工具共享 DeepSpeed 的功能。
- DeepSpeed
- Python 库可通过在多个设备上分发计算资源来优化 LLM 培训和调优。此工具共享 FSDP 的功能。目前,为 NVIDIA 机器推荐的硬件退出加载程序是 Deepspeed。