1.2. 新機能および機能拡張
Red Hat Enterprise Linux AI バージョン 1.5 には、大規模言語モデル (LLM) をファインチューニングするためのさまざまな機能が含まれています。
1.2.1. サポートされているアクセラレーター リンクのコピーリンクがクリップボードにコピーされました!
1.2.1.1. NVIDIA H200 アクセラレーター リンクのコピーリンクがクリップボードにコピーされました!
RHEL AI バージョン 1.5 では、NVIDIA H200 アクセラレーターを推論サービングに使用し、完全なエンドツーエンドのワークフローを実行できるようになりました。RHEL AI 環境を初期化するときに、マシンのアクセラレーターの数に一致する H200 プロファイルを選択してください。RHEL AI でサポートされているハードウェアの詳細は、Red Hat Enterprise Linux AI のハードウェア要件 を参照してください。
1.2.1.2. NVIDIA Grace Hopper GH200 アクセラレーター (テクノロジープレビュー) リンクのコピーリンクがクリップボードにコピーされました!
RHEL AI バージョン 1.5 では、テクノロジープレビューとして、NVIDIA H200 アクセラレーターを推論サービングに使用できるようになりました。RHEL AI には、デフォルトで Grace Hopper アクセラレーターのシステムプロファイルが含まれていません。GH200 アクセラレーターを使用するには、h200_x1
プロファイルを使用して RHEL AI 環境を初期化し、config.yaml
ファイルに max_startup_attempts: 1200
パラメーターを追加します。
ilab config edit
$ ilab config edit
1.2.1.3. AMD MI300X アクセラレーター リンクのコピーリンクがクリップボードにコピーされました!
AMD MI300X アクセラレーターが一般提供になり、推論サービングと完全なエンドツーエンドのワークフローの実行に使用できるようになりました。RHEL AI でサポートされているハードウェアの詳細は、Red Hat Enterprise Linux AI のハードウェア要件 を参照してください。
1.2.2. インストール リンクのコピーリンクがクリップボードにコピーされました!
Red Hat Enterprise Linux AI は起動可能なイメージとしてインストールできます。このイメージには、RHEL AI と対話するためのさまざまなツールが含まれています。イメージには、Red Hat Enterprise Linux 9.4、Python バージョン 3.11、およびモデルのファインチューニング用の InstructLab ツールも含まれています。Red Hat Enterprise Linux AI のインストールの詳細は、インストールの概要 および「インストール機能トラッカー」を参照してください。
1.2.3. RHEL AI 環境の構築 リンクのコピーリンクがクリップボードにコピーされました!
Red Hat Enterprise Linux AI をインストールしたら、InstructLab ツールを使用して RHEL AI 環境をセットアップできます。
1.2.3.1. InstructLab の初期化 リンクのコピーリンクがクリップボードにコピーされました!
ilab config init
コマンドを実行して、RHEL AI 環境を初期化して設定できます。このコマンドは、RHEL AI の操作とモデルのファインチューニングに必要な設定を作成します。また、データファイル用の適切なディレクトリーも作成します。InstructLab の初期化の詳細は、InstructLab の初期化 ドキュメントを参照してください。
1.2.3.2. 大規模言語モデルのダウンロード リンクのコピーリンクがクリップボードにコピーされました!
Red Hat が提供するさまざまな大規模言語モデル (LLM) を RHEL AI マシンまたはインスタンスにダウンロードできます。Red Hat レジストリーアカウントを作成してログインすると、Red Hat レジストリーからこれらのモデルをダウンロードできます。サポートされている RHEL AI の LLM の詳細は、モデルのダウンロード のドキュメントと「大規模言語モデル (LLM) のテクノロジープレビューステータス」を参照してください。
1.2.3.2.1. バージョン 2 の 3.1 Granite モデル リンクのコピーリンクがクリップボードにコピーされました!
RHEL AI バージョン 1.5 では、granite-3.1-8b-starter-v2
学生モデルと granite-3.1-8b-lab-v2
推論モデルがサポートされるようになりました。モデルの詳細は、大規模言語モデルのダウンロード ドキュメントを参照してください。
1.2.3.3. モデルのサービング (提供) およびモデルとのチャット リンクのコピーリンクがクリップボードにコピーされました!
Red Hat Enterprise Linux AI バージョン 1.5 では、さまざまな LLM 上で vLLM 推論サーバーを実行できます。vLLM ツールは、LLM 用のメモリー効率の高い推論およびサービスエンジンライブラリーで、RHEL AI イメージに含まれています。モデルのサービングとモデルとのチャットの詳細は、モデルのサービング (提供) およびモデルとのチャット ドキュメントを参照してください。
1.2.4. スキルとナレッジの YAML ファイルの作成 リンクのコピーリンクがクリップボードにコピーされました!
Red Hat Enterprise Linux AI では、モデルがドメイン固有の情報を学習できるように、カスタム YAML ファイルを使用してタクソノミーツリーをカスタマイズできます。ナレッジデータを Git リポジトリーにホストし、そのデータを使用してモデルをファインチューニングします。ナレッジマークダウンと YAML ファイルを作成する方法の詳細なドキュメントは、タクソノミーツリーのカスタマイズ を参照してください。
1.2.5. RHEL AI を使用したカスタム LLM の生成 リンクのコピーリンクがクリップボードにコピーされました!
Red Hat Enterprise Linux AI を使用すると、ドメイン固有のスキルとナレッジに基づいて Granite Starter LLM をカスタマイズできます。RHEL AI には、合成データ生成 (SDG) とマルチフェーズトレーニングの LAB で強化されたメソッドが含まれています。
1.2.5.1. 合成データ生成 (SDG) リンクのコピーリンクがクリップボードにコピーされました!
Red Hat Enterprise Linux AI には、LAB で強化された合成データ生成 (SDG) メソッドが含まれています。独自のナレッジデータを含む qna.yaml
ファイルを使用して、SDG プロセスで何百もの人工データセットを作成できます。SDG プロセスの実行の詳細は、合成データ生成 (SDG) による新しいデータセットの生成 を参照してください。
1.2.5.1.1. llama-3.3-70B-Instruct モデルを教師モデルとして SDG を実行する (テクノロジープレビュー) リンクのコピーリンクがクリップボードにコピーされました!
RHEL AI バージョン 1.5 では、テクノロジープレビューとして、合成データ生成 (SDG) を実行するときに、llama-3.3-70b-Instruct
を教師モデルとして使用できるようになりました。詳細は、llama-3.3-70B-Instruct モデルを教師モデルとして使用する (テクノロジープレビュー) ドキュメントを参照してください。
1.2.5.2. データを使用したモデルのトレーニング リンクのコピーリンクがクリップボードにコピーされました!
Red Hat Enterprise Linux AI には、LAB で強化されたマルチフェーズトレーニングメソッドが含まれています。これは、データセットを複数のフェーズでトレーニングおよび評価して、可能な限り最適なモデルを作成するファインチューニングストラテジーです。複数フェーズトレーニングの詳細は、モデルでのデータのトレーニング を参照してください。
1.2.5.3. ベンチマーク評価 リンクのコピーリンクがクリップボードにコピーされました!
Red Hat Enterprise Linux AI には、新しくトレーニングされたモデルに対してベンチマーク評価を実行する機能が含まれています。トレーニング済みのモデルでは、MMLU_BRANCH
または MT_BENCH_BRANCH
ベンチマークを使用して、追加したナレッジやスキルをモデルがどの程度理解しているかを評価できます。ベンチマーク評価の詳細は、新しいモデルの評価 を参照してください。
1.2.6. Red Hat の別製品を利用した機能 リンクのコピーリンクがクリップボードにコピーされました!
1.2.6.1. Ansible Automation Platform による RHEL AI の自動化 リンクのコピーリンクがクリップボードにコピーされました!
Ansible Automation Platform ハブ を使用して、Playbook で RHEL AI ワークロードを実行できるようになりました。これには、次の 2 つの Ansible コレクションが含まれます。
- infra.ai
- AWS、GCP、Azure などのさまざまなクラウドプロバイダーインフラストラクチャー上で RHEL AI 環境をプロビジョニングできるコンテンツコレクション。このコレクションにより、さまざまなクラウドプロバイダーにわたる AI ワークロードのデプロイメントが簡素化されます。
- redhat.ai
- RHEL AI でワークロードを管理するために設計されたコンテンツコレクション。Ansible Playbook 方式を使用すると、RHEL AI でデプロイメントを迅速に作成できます。これにより、モデルのトレーニングとサービングのプロセスをより効率的に行うことができます。
既存の Ansible Automation Platform のお客様の場合、これらのコレクションは現在のサブスクリプションに含まれています。