第 1 章 Red Hat Enterprise Linux AI 概述


Red Hat Enterprise Linux AI 是一个允许您在开源大语言模型(LLM)上开发企业应用程序的平台。RHEL AI 从 Red Hat InstructLab 开源项目构建。有关 InstructLab 的详情,请查看"InstructLab 和 RHEL AI"部分。

Red Hat Enterprise Linux AI 允许您执行以下操作:

  • 托管 LLM,并与 Large Language Models (LLMs)的开源 Granite 系列交互。
  • 使用 LAB 方法,在 Git 存储库中创建并添加您自己的知识或技能数据。然后,通过最少的机器学习背景对数据微调模型。
  • 与与您的数据进行微调的模型交互。

Red Hat Enterprise Linux AI 允许您直接贡献大语言模型(LLM)。这可让您轻松有效地构建基于 AI 的应用程序,包括 chatbots。

1.1. Red Hat Enterprise Linux AI 的常见术语

该术语表定义了 Red Hat Enterprise Linux AI 的常见术语:

InstructLab
InstructLab 是一个开源项目,提供使用 ilab 命令行界面(CLI)工具轻松参与 AI Large Language Models (LLM)的平台。
大型语言模型
称为 LLMs,是一种人工智能,能够处理语言生成或任务。
合成数据生成(SDG)
使用大型语言模型(大型语言模型)和人工生成的样本一起使用大型 LLMs 的流程来生成人工数据,然后可用于培训其他 LLM。
微调
培训 LLM 以满足特定目标的技术:了解特定信息或执行特定任务。
LAB
"arge-Scale Alignment for ChatBot 的缩写"。由 IBM Research 发明,Plabs 是一家基于数据的技术能力和多阶段培训微调方法,用于 LLM。InstructLab 在复合生成和培训过程中实施 LAB 方法。
多阶段培训
LAB 方法实施的微调策略。在此过程中,模型会在独立阶段对多个数据集进行微调。模型以多个阶段培训,称为 epoch,它保存为检查点。然后,在以下阶段中使用最佳执行检查点用于培训。完全调优的模型是最终阶段最佳执行检查点。
Serving
通常被称为"保留模型",是对服务器部署 LLM 或受培训模型。这个过程可让您以 chatbot 与模型交互。
inference
使用模型提供和聊天时,推断是模型可以处理、重复数据删除并根据输入数据生成输出。
taxonomy
LAB 方法由 Information classification 方法(一个信息分类方法)驱动。在 RHEL AI 上,您可以自定义一个税务树,它可让您使用您自己的数据创建模型微调。
Granite
IBM 培训的开源(Apache 2.0)大型语言模型。在 RHEL AI 上,您可以下载 Granite 系列模型作为基础 LLM 进行自定义。
PyTorch
经过优化的十个库,用于深入学习 GPU 和 CPU。
vLLM
用于 LLMs 的内存效率推测和服务引擎库。
FSDP
Fully Shared Data Parallels 的缩写。Pytorch 工具 FSDP 可以在硬件上的多个设备之间分配计算能力。这会优化培训流程,提高内存的调优速度和效率。此工具共享 DeepSpeed 的功能。
DeepSpeed
Python 库可通过在多个设备上分发计算资源来优化 LLM 培训和调优。此工具共享 FSDP 的功能。目前,为 NVIDIA 机器推荐的硬件退出加载程序是 Deepspeed。
返回顶部
Red Hat logoGithubredditYoutubeTwitter

学习

尝试、购买和销售

社区

关于红帽文档

通过我们的产品和服务,以及可以信赖的内容,帮助红帽用户创新并实现他们的目标。 了解我们当前的更新.

让开源更具包容性

红帽致力于替换我们的代码、文档和 Web 属性中存在问题的语言。欲了解更多详情,请参阅红帽博客.

關於紅帽

我们提供强化的解决方案,使企业能够更轻松地跨平台和环境(从核心数据中心到网络边缘)工作。

Theme

© 2025 Red Hat