1.2. 功能和增强功能


Red Hat Enterprise Linux AI 版本 1.5 包括大型语言模型(LLM)微调的各种功能。

1.2.1. Suppored 加速器

1.2.1.1. NVIDIA H200 加速器

现在,您可以在 RHEL AI 版本 1.5 上使用 NVIDIA H200 加速器来推测服务并运行完整的端到端工作流。在初始化 RHEL AI 环境时,请选择与机器中加速器数匹配的 H200 配置集。有关 RHEL AI 支持的硬件的更多信息,请参阅 Red Hat Enterprise Linux AI 硬件要求

现在,您可以在 RHEL AI 版本 1.5 上使用 NVIDIA H200 加速器作为技术预览。RHEL AI 默认不包含 Grace Hopper 加速器的系统配置文件。要使用 GH200 加速器,请使用 h200_x1 配置集初始化 RHEL AI 环境,并将 max_startup_attempts: 1200 参数添加到 config.yaml 文件中。

$ ilab config edit
Copy to Clipboard Toggle word wrap
serve:
vllm:
    gpus: 1
    llm_family: ''
    max_startup_attempts: 1200
    vllm_args: ["--tensor-parallel-size", "1"]
Copy to Clipboard Toggle word wrap

1.2.1.3. AMD MI300X 加速器

AMD MI300X 加速器现在可用于推测服务并运行完整的端到端工作流。有关 RHEL AI 支持的硬件的更多信息,请参阅 Red Hat Enterprise Linux AI 硬件要求

1.2.2. 安装

Red Hat Enterprise Linux AI 可作为可引导镜像安装。此镜像包含各种与 RHEL AI 交互的工具。该镜像包括:用于建模微调的 Red Hat Enterprise Linux 9.4、Python 版本 3.11 和 InstructLab 工具。有关安装 Red Hat Enterprise Linux AI 的更多信息,请参阅安装概述 和"安装功能跟踪器"

1.2.3. 构建 RHEL AI 环境

安装 Red Hat Enterprise Linux AI 后,您可以使用 InstructLab 工具设置 RHEL AI 环境。

1.2.3.1. 初始化 InstructLab

您可以通过运行 ilab config init 命令初始化和设置 RHEL AI 环境。这个命令创建与 RHEL AI 和微调模型交互所需的配置。它还为您的数据文件创建正确的目录。有关初始化 InstructLab 的更多信息,请参阅 Initialize InstructLab 文档。

1.2.3.2. 下载大型语言模型

您可以将红帽提供的各种大型语言模型(LLM)下载到 RHEL AI 机器或实例。您可以在创建并登录到红帽 registry 帐户后,从红帽注册中心下载这些模型。有关支持的 RHEL AI LLMs 的更多信息,请参阅 下载模型文档和 "大语言模型(LLMs)技术预览状态"。

1.2.3.2.1. 3.1 Granite 模型的版本 2

RHEL AI 版本 1.5 现在支持 granite-3.1-8b-starter-v2 student 模型和 granite-3.1-8b-lab-v2 inference 模型。有关模型的更多信息,请参阅 下载大型模型 文档。

1.2.3.3. 使用模型提供和聊天

Red Hat Enterprise Linux AI 版本 1.5 允许您在各种 LLM 上运行 vLLM inference 服务器。vLLM 工具是 RHEL AI 镜像中包含的 LLM 的内存效率推测和服务引擎库。有关使用模型提供服务和聊天的更多信息,请参阅 使用 模型文档 的 Serving 和聊天

1.2.4. 创建技能和知识 YAML 文件

在 Red Hat Enterprise Linux AI 上,您可以使用自定义 YAML 文件自定义税务树,以便模型可以了解特定域的信息。您在 Git 存储库中托管您的知识数据,并使用这些数据微调模型。有关如何创建知识标记和 YAML 文件的详细信息,请参阅自定义税务树

1.2.5. 使用 RHEL AI 生成自定义 LLM

您可以使用 Red Hat Enterprise Linux AI 来根据您的域特定知识和知识自定义大量入门 LLM。RHEL AI 包括 Synthetic Data Generation (SDG)和多阶段培训的增强方法。

1.2.5.1. 合成数据生成(SDG)

Red Hat Enterprise Linux AI 包括同分析数据生成(SDG)的 LAB 增强方法。您可以将 qna.yaml 文件与自己的知识数据一起使用,在 SDG 进程中创建数百个人工数据集。有关运行 SDG 进程的更多信息,请参阅使用 Synthetic data generation (SDG)生成新数据集

现在,当运行 Synthetic Data Generation (SDG)作为技术预览时,RHEL AI 版本 1.5 支持将 llama-3.3-70b-Instruct 用作老板模型。如需更多信息,请参阅使用 llama-3.3-70B-Instruct 模型作为手模型(技术预览) 文档。

1.2.5.2. 使用您的数据培训模型

Red Hat Enterprise Linux AI 包括多阶段培训的 LAB 增强方法:一个微调策略,其中在多个阶段被接受并评估,以创建最佳模型。有关多阶段培训的详情,请参阅 培训模型上的数据

1.2.5.3. 基准评估

Red Hat Enterprise Linux AI 包括对新受培训模型运行基准评估的能力。在受培训的模式中,您可以评估模型知道通过 MMLU_BRANCHMT_BENCH_BRANCH 基准添加的知识或技能的程度。有关基准评估的详情,请参阅 评估您的新模型

1.2.6. 红帽跨产品功能

现在,您可以使用 Ansible Automation Platform hub 在 playbook 中运行 RHEL AI 工作负载。这包括两个 Ansible 集合:

infra.ai
可以在各种云供应商基础架构上置备 RHEL AI 环境的内容集合,包括 AWS、GCP 和 Azure。这个集合简化了不同云供应商中的 AI 工作负载部署。
redhat.ai
用于在 RHEL AI 中管理工作负载的内容集合。您可以使用 Ansible playbook 选项快速创建 RHEL AI 中的部署,这可以更有效地进行模型培训和认证。

如果您是现有的 Ansible Automation Platform 客户,则这些集合会包含在您当前的订阅中。

返回顶部
Red Hat logoGithubredditYoutubeTwitter

学习

尝试、购买和销售

社区

关于红帽文档

通过我们的产品和服务,以及可以信赖的内容,帮助红帽用户创新并实现他们的目标。 了解我们当前的更新.

让开源更具包容性

红帽致力于替换我们的代码、文档和 Web 属性中存在问题的语言。欲了解更多详情,请参阅红帽博客.

關於紅帽

我们提供强化的解决方案,使企业能够更轻松地跨平台和环境(从核心数据中心到网络边缘)工作。

Theme

© 2025 Red Hat