リリースノート


Red Hat Enterprise Linux AI 1.5

Red Hat Enterprise Linux AI リリースノート

Red Hat RHEL AI Documentation Team

概要

このドキュメントは、Red Hat Enterprise Linux AI バージョン 1.5 のリリースノートを提供します。

第1章 Red Hat Enterprise Linux AI 1.5 リリースノート

RHEL AI は、オープンソースの大規模言語モデル (LLM) 上でエンタープライズアプリケーションを開発するプロセスを組織に提供します。

1.1. このリリースについて

Red Hat Enterprise Linux AI バージョン 1.5 には、Red Hat および IBM が作成した Granite モデルで大規模言語モデル (LLM) をファインチューニングするためのさまざまな機能が含まれています。RHEL AI ワークフローを使用したカスタマイズされたモデルは、以下の内容で構成されます。

  • InstructLab ツールを使用して RHEL 9.4 インスタンスをインストールして起動します。
  • 情報を Git リポジトリーにホストし、モデルに学習させるナレッジの Git ベースのタクソノミーと対話します。
  • 合成データ生成 (SDG)、マルチフェーズトレーニング、ベンチマーク評価のエンドツーエンドのワークフローを実行します。
  • 新しくファインチューニングした LLM をサービングし、その LLM とチャットします。

1.2. 新機能および機能拡張

Red Hat Enterprise Linux AI バージョン 1.5 には、大規模言語モデル (LLM) をファインチューニングするためのさまざまな機能が含まれています。

1.2.1. サポートされているアクセラレーター

1.2.1.1. NVIDIA H200 アクセラレーター

RHEL AI バージョン 1.5 では、NVIDIA H200 アクセラレーターを推論サービングに使用し、完全なエンドツーエンドのワークフローを実行できるようになりました。RHEL AI 環境を初期化するときに、マシンのアクセラレーターの数に一致する H200 プロファイルを選択してください。RHEL AI でサポートされているハードウェアの詳細は、Red Hat Enterprise Linux AI のハードウェア要件 を参照してください。

1.2.1.2. NVIDIA Grace Hopper GH200 アクセラレーター (テクノロジープレビュー)

RHEL AI バージョン 1.5 では、テクノロジープレビューとして、NVIDIA H200 アクセラレーターを推論サービングに使用できるようになりました。RHEL AI には、デフォルトで Grace Hopper アクセラレーターのシステムプロファイルが含まれていません。GH200 アクセラレーターを使用するには、h200_x1 プロファイルを使用して RHEL AI 環境を初期化し、config.yaml ファイルに max_startup_attempts: 1200 パラメーターを追加します。

$ ilab config edit
Copy to Clipboard Toggle word wrap
serve:
vllm:
    gpus: 1
    llm_family: ''
    max_startup_attempts: 1200
    vllm_args: ["--tensor-parallel-size", "1"]
Copy to Clipboard Toggle word wrap
1.2.1.3. AMD MI300X アクセラレーター

AMD MI300X アクセラレーターが一般提供になり、推論サービングと完全なエンドツーエンドのワークフローの実行に使用できるようになりました。RHEL AI でサポートされているハードウェアの詳細は、Red Hat Enterprise Linux AI のハードウェア要件 を参照してください。

1.2.2. インストール

Red Hat Enterprise Linux AI は起動可能なイメージとしてインストールできます。このイメージには、RHEL AI と対話するためのさまざまなツールが含まれています。イメージには、Red Hat Enterprise Linux 9.4、Python バージョン 3.11、およびモデルのファインチューニング用の InstructLab ツールも含まれています。Red Hat Enterprise Linux AI のインストールの詳細は、インストールの概要 および「インストール機能トラッカー」を参照してください。

1.2.3. RHEL AI 環境の構築

Red Hat Enterprise Linux AI をインストールしたら、InstructLab ツールを使用して RHEL AI 環境をセットアップできます。

1.2.3.1. InstructLab の初期化

ilab config init コマンドを実行して、RHEL AI 環境を初期化して設定できます。このコマンドは、RHEL AI の操作とモデルのファインチューニングに必要な設定を作成します。また、データファイル用の適切なディレクトリーも作成します。InstructLab の初期化の詳細は、InstructLab の初期化 ドキュメントを参照してください。

1.2.3.2. 大規模言語モデルのダウンロード

Red Hat が提供するさまざまな大規模言語モデル (LLM) を RHEL AI マシンまたはインスタンスにダウンロードできます。Red Hat レジストリーアカウントを作成してログインすると、Red Hat レジストリーからこれらのモデルをダウンロードできます。サポートされている RHEL AI の LLM の詳細は、モデルのダウンロード のドキュメントと「大規模言語モデル (LLM) のテクノロジープレビューステータス」を参照してください。

1.2.3.2.1. バージョン 2 の 3.1 Granite モデル

RHEL AI バージョン 1.5 では、granite-3.1-8b-starter-v2 学生モデルと granite-3.1-8b-lab-v2 推論モデルがサポートされるようになりました。モデルの詳細は、大規模言語モデルのダウンロード ドキュメントを参照してください。

1.2.3.3. モデルのサービング (提供) およびモデルとのチャット

Red Hat Enterprise Linux AI バージョン 1.5 では、さまざまな LLM 上で vLLM 推論サーバーを実行できます。vLLM ツールは、LLM 用のメモリー効率の高い推論およびサービスエンジンライブラリーで、RHEL AI イメージに含まれています。モデルのサービングとモデルとのチャットの詳細は、モデルのサービング (提供) およびモデルとのチャット ドキュメントを参照してください。

1.2.4. スキルとナレッジの YAML ファイルの作成

Red Hat Enterprise Linux AI では、モデルがドメイン固有の情報を学習できるように、カスタム YAML ファイルを使用してタクソノミーツリーをカスタマイズできます。ナレッジデータを Git リポジトリーにホストし、そのデータを使用してモデルをファインチューニングします。ナレッジマークダウンと YAML ファイルを作成する方法の詳細なドキュメントは、タクソノミーツリーのカスタマイズ を参照してください。

1.2.5. RHEL AI を使用したカスタム LLM の生成

Red Hat Enterprise Linux AI を使用すると、ドメイン固有のスキルとナレッジに基づいて Granite Starter LLM をカスタマイズできます。RHEL AI には、合成データ生成 (SDG) とマルチフェーズトレーニングの LAB で強化されたメソッドが含まれています。

1.2.5.1. 合成データ生成 (SDG)

Red Hat Enterprise Linux AI には、LAB で強化された合成データ生成 (SDG) メソッドが含まれています。独自のナレッジデータを含む qna.yaml ファイルを使用して、SDG プロセスで何百もの人工データセットを作成できます。SDG プロセスの実行の詳細は、合成データ生成 (SDG) による新しいデータセットの生成 を参照してください。

RHEL AI バージョン 1.5 では、テクノロジープレビューとして、合成データ生成 (SDG) を実行するときに、llama-3.3-70b-Instruct を教師モデルとして使用できるようになりました。詳細は、llama-3.3-70B-Instruct モデルを教師モデルとして使用する (テクノロジープレビュー) ドキュメントを参照してください。

1.2.5.2. データを使用したモデルのトレーニング

Red Hat Enterprise Linux AI には、LAB で強化されたマルチフェーズトレーニングメソッドが含まれています。これは、データセットを複数のフェーズでトレーニングおよび評価して、可能な限り最適なモデルを作成するファインチューニングストラテジーです。複数フェーズトレーニングの詳細は、モデルでのデータのトレーニング を参照してください。

1.2.5.3. ベンチマーク評価

Red Hat Enterprise Linux AI には、新しくトレーニングされたモデルに対してベンチマーク評価を実行する機能が含まれています。トレーニング済みのモデルでは、MMLU_BRANCH または MT_BENCH_BRANCH ベンチマークを使用して、追加したナレッジやスキルをモデルがどの程度理解しているかを評価できます。ベンチマーク評価の詳細は、新しいモデルの評価 を参照してください。

1.2.6. Red Hat の別製品を利用した機能

1.2.6.1. Ansible Automation Platform による RHEL AI の自動化

Ansible Automation Platform ハブ を使用して、Playbook で RHEL AI ワークロードを実行できるようになりました。これには、次の 2 つの Ansible コレクションが含まれます。

infra.ai
AWS、GCP、Azure などのさまざまなクラウドプロバイダーインフラストラクチャー上で RHEL AI 環境をプロビジョニングできるコンテンツコレクション。このコレクションにより、さまざまなクラウドプロバイダーにわたる AI ワークロードのデプロイメントが簡素化されます。
redhat.ai
RHEL AI でワークロードを管理するために設計されたコンテンツコレクション。Ansible Playbook 方式を使用すると、RHEL AI でデプロイメントを迅速に作成できます。これにより、モデルのトレーニングとサービングのプロセスをより効率的に行うことができます。

既存の Ansible Automation Platform のお客様の場合、これらのコレクションは現在のサブスクリプションに含まれています。

1.3. Red Hat Enterprise Linux AI 機能トラッカー

現在、このリリースに含まれる機能にはテクノロジープレビューのものがあります。これらの実験的機能は、実稼働環境での使用を目的としていません。Red Hat のテクノロジープレビュー機能のサポート範囲に関する詳細は、テクノロジープレビュー機能のサポート範囲 を参照してください。

次の表では、機能は次のステータスでマークされています。

  • 利用不可
  • テクノロジープレビュー
  • 一般提供
  • 非推奨
  • 削除済み

1.3.1. インストール機能トラッカー

Expand
表1.1 インストール機能
機能1.11.21.31.41.5

ベアメタルへのインストール

一般提供

一般提供

一般提供

一般提供

一般提供

AWS へのインストール

一般提供

一般提供

一般提供

一般提供

一般提供

IBM Cloud へのインストール

一般提供

一般提供

一般提供

一般提供

一般提供

GCP へのインストール

利用不可

テクノロジープレビュー

一般提供

一般提供

一般提供

Azure へのインストール

利用不可

一般提供

一般提供

一般提供

一般提供

1.3.2. プラットフォームサポート機能トラッカー

Expand
表1.2 エンドツーエンドの InstructLab ワークフロー
機能1.11.21.31.41.5

ベアメタル

一般提供

一般提供

一般提供

一般提供

一般提供

AWS

一般提供

一般提供

一般提供

一般提供

一般提供

IBM Cloud

利用不可

一般提供

一般提供

一般提供

一般提供

Google Cloud Platform

利用不可

テクノロジープレビュー

一般提供

一般提供

一般提供

Azure

利用不可

一般提供

一般提供

一般提供

一般提供

Expand
表1.3 推論サービング LLM
機能1.11.21.31.41.5

ベアメタル

一般提供

一般提供

一般提供

一般提供

一般提供

AWS

一般提供

一般提供

一般提供

一般提供

一般提供

IBM Cloud

一般提供

一般提供

一般提供

一般提供

一般提供

Google Cloud Platform (GCP)

利用不可

テクノロジープレビュー

一般提供

一般提供

一般提供

Azure

利用不可

一般提供

一般提供

一般提供

一般提供

Expand
表1.4 Cloud Marketplace のサポート
機能1.11.21.31.41.5

AWS

利用不可

利用不可

一般提供

一般提供

一般提供

Azure

利用不可

利用不可

一般提供

一般提供

一般提供

1.4. 大規模言語モデルトラッカー

1.4.1. RHEL AI バージョン 1.5 ハードウェアベンダー LLM サポート

Expand
表1.5 ハードウェアベンダーにおける LLM サポート

機能

NVIDIA

AMD

Intel

granite-3.1-8b-starter-v2.1

一般提供

一般提供

利用不可

granite-3.1-8b-lab-v2.1

一般提供

一般提供

利用不可

granite-3.1-8b-starter-v2

利用不可

利用不可

テクノロジープレビュー

granite-3.1-8b-lab-v2

利用不可

利用不可

テクノロジープレビュー

granite-8b-code-instruct

テクノロジープレビュー

テクノロジープレビュー

テクノロジープレビュー

granite-8b-code-base

テクノロジープレビュー

テクノロジープレビュー

テクノロジープレビュー

mixtral-8x7B-instruct-v0-1

一般提供

一般提供

テクノロジープレビュー

llama-3.3-70b-Instruct

テクノロジープレビュー

テクノロジープレビュー

利用不可

prometheus-8x7b-v2.0

一般提供

一般提供

利用不可

1.5. 既知の問題

MMLU 評価の実行

RHEL AI バージョン 1.5 では、MMLU を実行するときに --skip-server フラグを使用する必要があります。

一部の NVIDIA A100 システムでの自動検出が間違っている

RHEL AI は、A100 アクセラレーターを搭載したマシンで誤ったシステムプロファイルを自動検出する場合があります。

正しいシステムプロファイルを再初期化して渡すことで、正しいプロファイルを選択できます。

$ ilab config init --profile <path-to-system-profile>
Copy to Clipboard Toggle word wrap

Fabric マネージャーは必ずしも NVIDIA アクセラレーターで起動するわけではない

NVIDIA システムに Red Hat Enterprise Linux AI をインストールした後、モデルを提供またはトレーニングするときに次のエラーが表示される場合があります。

INFO 2024-11-26 22:18:04,244 instructlab.model.serve_backend:56: Using model '/var/home/cloud-user/.local/share/instructlab/phased/phase2/checkpoints/hf_format/samples_29117' with -1 gpu-lay
ers and 4096 max context size.
INFO 2024-11-26 22:18:04,244 instructlab.model.serve_backend:88: '--gpus' flag used alongside '--tensor-parallel-size' in the vllm_args section of the config file. Using value of the --gpus

File "/opt/app-root/lib64/python3.11/site-packages/vllm/entrypoints/openai/api_server.py", line 105, in build_async_engine_client
    async with build_async_engine_client_from_engine_args(
  File "/usr/lib64/python3.11/contextlib.py", line 210, in __aenter__
    return await anext(self.gen)
           ^^^^^^^^^^^^^^^^^^^^^
  File "/opt/app-root/lib64/python3.11/site-packages/vllm/entrypoints/openai/api_server.py", line 192, in build_async_engine_client_from_engine_args
    raise RuntimeError(
RuntimeError: Engine process failed to start
Copy to Clipboard Toggle word wrap

この問題を解決するには、次のコマンドを実行する必要があります。

$ sudo systemctl stop nvidia-persistenced.service
$ sudo systemctl start nvidia-fabricmanager.service
$ sudo systemctl start nvidia-persistenced.service
Copy to Clipboard Toggle word wrap

UI AMD テクノロジープレビューのインストール

Red Hat Enterprise Linux AI バージョン 1.5 は、現在、テクノロジープレビューである AMD ISO を使用したグラフィカルベースのインストールをサポートしていません。kickstart ファイル内の text パラメーターが非対話型インストール用に設定されていることを確認します。インストール時のクラッシュを回避するために、対話型インストール中にシェルで inst.text を渡すこともできます。

SDG が 4xL40 で失敗する場合がある

SDG を 4xL40s で実行するには、--num-cpus フラグを付けて値を 4 に設定して SDG を実行する必要があります。

$ ilab data generate --num-cpus 4
Copy to Clipboard Toggle word wrap

granite-8b-starter-v1 モデルの MMLU と MMLU_BRANCH

granite-8b-starter-v1 LLM から構築されたモデルを評価する場合は、MMLU および MMLU_BRANCH ベンチマークの実行時に vLLM が起動しないというエラーが発生する可能性があります。

vLLM が起動しない場合は、config.yaml ファイルの serve セクションに次のパラメーターを追加します。

serve:
  vllm:
    vllm_args: [--dtype bfloat16]
Copy to Clipboard Toggle word wrap

nfs 経由の kdump

Red Hat Enterprise Linux AI バージョン 1.5 は、設定なしでは nfs 経由の kdump をサポートしません。この機能を使用するには、次のコマンドを実行します。

mkdir -p /var/lib/kdump/dracut.conf.d
echo "dracutmodules=''" > /var/lib/kdump/dracut.conf.d/99-kdump.conf
echo "omit_dracutmodules=''" >> /var/lib/kdump/dracut.conf.d/99-kdump.conf
echo "dracut_args --confdir /var/lib/kdump/dracut.conf.d --install /usr/lib/passwd --install /usr/lib/group" >> /etc/kdump.conf
systemctl restart kdump
Copy to Clipboard Toggle word wrap

1.6. 非同期 Z-stream 更新

RHEL AI 1.5 のセキュリティー、バグ修正、および機能拡張の更新は、非同期の z-stream 更新としてリリースされます。

このセクションは、RHEL AI 1.5 の今後の非同期 z-stream リリースの機能拡張とバグ修正に関する記録を提供するために、今後も更新され続けます。たとえば、フォーム RHEL AI 1.5.z を使用したバージョン管理された非同期リリースは、サブセクションで説明します。

1.6.1. Red Hat Enterprise Linux AI 1.5.1 機能とバグ修正

発行日: 2025 年 6 月 11 日

Red Hat Enterprise Linux AI リリース 1.5.1 が利用可能になりました。このリリースにはバグ修正と製品の機能強化が含まれています。

1.6.1.1. 機能

RHEL AI 1.5.1 以降の 1.5.z リリースでは、推論サービスモデル用の Intel Gaudi 3 アクセラレーターがサポートされています。Download Red Hat Enterprise Linux AI ページで Red Hat Enterprise Linux AI イメージをダウンロードし、Gaudi3 アクセラレーターを搭載したマシンに RHEL AI をデプロイします。

1.6.1.2. アップグレード

RHEL AI システムを最新の z-stream バージョンに更新するには、Red Hat レジストリーにログインして次のコマンドを実行する必要があります。

$ sudo bootc upgrade --apply
Copy to Clipboard Toggle word wrap

1.6.2. Red Hat Enterprise Linux AI 1.5.2 機能とバグ修正

発行日: 2025 年 6 月 24 日

Red Hat Enterprise Linux AI リリース 1.5.2 が利用可能になりました。このリリースにはバグ修正と製品の機能強化が含まれています。

1.6.2.1. Upgrade

RHEL AI システムを最新の z-stream バージョンに更新するには、Red Hat レジストリーにログインして次のコマンドを実行する必要があります。

$ sudo bootc upgrade --apply
Copy to Clipboard Toggle word wrap

法律上の通知

Copyright © 2025 Red Hat, Inc.
The text of and illustrations in this document are licensed by Red Hat under a Creative Commons Attribution–Share Alike 3.0 Unported license ("CC-BY-SA"). An explanation of CC-BY-SA is available at http://creativecommons.org/licenses/by-sa/3.0/. In accordance with CC-BY-SA, if you distribute this document or an adaptation of it, you must provide the URL for the original version.
Red Hat, as the licensor of this document, waives the right to enforce, and agrees not to assert, Section 4d of CC-BY-SA to the fullest extent permitted by applicable law.
Red Hat, Red Hat Enterprise Linux, the Shadowman logo, the Red Hat logo, JBoss, OpenShift, Fedora, the Infinity logo, and RHCE are trademarks of Red Hat, Inc., registered in the United States and other countries.
Linux® is the registered trademark of Linus Torvalds in the United States and other countries.
Java® is a registered trademark of Oracle and/or its affiliates.
XFS® is a trademark of Silicon Graphics International Corp. or its subsidiaries in the United States and/or other countries.
MySQL® is a registered trademark of MySQL AB in the United States, the European Union and other countries.
Node.js® is an official trademark of Joyent. Red Hat is not formally related to or endorsed by the official Joyent Node.js open source or commercial project.
The OpenStack® Word Mark and OpenStack logo are either registered trademarks/service marks or trademarks/service marks of the OpenStack Foundation, in the United States and other countries and are used with the OpenStack Foundation's permission. We are not affiliated with, endorsed or sponsored by the OpenStack Foundation, or the OpenStack community.
All other trademarks are the property of their respective owners.
Red Hat logoGithubredditYoutubeTwitter

詳細情報

試用、購入および販売

コミュニティー

Red Hat ドキュメントについて

Red Hat をお使いのお客様が、信頼できるコンテンツが含まれている製品やサービスを活用することで、イノベーションを行い、目標を達成できるようにします。 最新の更新を見る.

多様性を受け入れるオープンソースの強化

Red Hat では、コード、ドキュメント、Web プロパティーにおける配慮に欠ける用語の置き換えに取り組んでいます。このような変更は、段階的に実施される予定です。詳細情報: Red Hat ブログ.

会社概要

Red Hat は、企業がコアとなるデータセンターからネットワークエッジに至るまで、各種プラットフォームや環境全体で作業を簡素化できるように、強化されたソリューションを提供しています。

Theme

© 2026 Red Hat
トップに戻る