第1章 Red Hat Enterprise Linux AI の概要


Red Hat Enterprise Linux AI は、オープンソースの Large Language Models (LLM) 上でエンタープライズアプリケーションを開発できるプラットフォームです。RHEL AI は、Red Hat InstructLab オープンソースプロジェクトから構築されています。InstructLab の詳細は、「InstructLab および RHEL AI」セクションを参照してください。

Red Hat Enterprise Linux AI を使用すると、次のことが可能になります。

  • LLM をホストし、オープンソースの Granite ファミリーの大規模言語モデル (LLM) と対話します。
  • LAB メソッドを使用して、独自のナレッジまたはスキルデータを作成し、Git リポジトリーに追加します。その後、機械学習に関する最小限の予備知識があれば、そのデータに基づいてモデルをファインチューニングできます。
  • 独自のデータを使用してファインチューニングされたモデルを操作します。

Red Hat Enterprise Linux AI を使用すると、大規模言語モデル (LLM) に直接貢献できるようになります。そのため、チャットボットなどの AI ベースのアプリケーションを簡単かつ効率的に構築できます。

1.1. Red Hat Enterprise Linux AI の一般的な用語

この用語集では、Red Hat Enterprise Linux AI の一般的な用語を定義します。

InstructLab
InstructLab とは、ilab コマンドラインインターフェイス (CLI) ツールを使用して AI 大規模言語モデル (LLM) を簡単に利用できるプラットフォームを提供するオープンソースプロジェクトです。
大規模言語モデル
LLM として知られる、言語生成やタスク処理が可能な人工知能の一種です。
合成データ生成 (SDG)
大規模な LLM (大規模言語モデル) と人間が生成したサンプルを使用して人工データを作成し、それを他の LLM のトレーニングに使用できるプロセス。
ファインチューニング
特定の情報を知ることや特定のタスクを実行することなど、特定の目的を達成するために LLM をトレーニングする手法。
LAB
"Large-Scale Alignment for ChatBots" の頭字語です。IBM Research によって発明された LAB は、合成データに基づく LLM 向けの新しい多段階トレーニングおよびファインチューニング方法です。InstructLab は、合成生成およびトレーニング中に LAB メソッドを実装します。
複数フェーズトレーニング
LAB メソッドが実装するファインチューニングストラテジー。このプロセスでは、モデルが別々のフェーズで複数のデータセットを使用してファインチューニングされます。モデルは、チェックポイントとして保存されるエポックと呼ばれる複数のフェーズでトレーニングされます。最もパフォーマンスの優れたチェックポイントが、次のフェーズでのトレーニングに使用されます。完全にファインチューニングが行われたモデルは、最終フェーズで最もパフォーマンスの高いチェックポイントとなります。
サービング (提供)
多くの場合、「モデルのサービング」とも呼ばれる、LLM またはトレーニング済みモデルをサーバーにデプロイメントすることです。このプロセスにより、チャットボットとしてモデルと対話できるようになります。
推論
モデルにサービスを提供したり、モデルとチャットしたりする場合、推論とは、モデルが入力データに基づいて出力を処理、推論、および生成することです。
タクソノミー
LAB メソッドは、情報分類方法であるタクソノミーをもとに機能します。RHEL AI では、タクソノミーツリーをカスタマイズして、独自のデータでファインチューニングされたモデルを作成できます。
Granite
IBM によってトレーニングされたオープンソース (Apache 2.0) の大規模言語モデルです。RHEL AI では、カスタマイズ用の基本 LLM として Granite ファミリーモデルをダウンロードできます。
PyTorch
GPU および CPU でのディープラーニング向けに最適化された Tensor ライブラリーです。
vLLM
LLM 用のメモリー効率の高い推論およびサービングエンジンライブラリーです。
FSDP
Fully Shared Data Parallels の頭字語。Pytorch ツール FSDP は、ハードウェア上の複数のデバイスにコンピューティング能力を分散できます。これにより、トレーニングプロセスが最適化され、ファインチューニングがより高速になり、メモリー効率が向上します。このツールは DeepSpeed の機能を共有しています。
DeepSpeed
複数のデバイスにコンピューティングリソースを分散することで、LLM のトレーニングとファインチューニングを最適化する Python ライブラリー。このツールは FSDP の機能を共有します。Deepspeed は現在、NVIDIA マシンに推奨されるハードウェアオフローダーです。
トップに戻る
Red Hat logoGithubredditYoutubeTwitter

詳細情報

試用、購入および販売

コミュニティー

Red Hat ドキュメントについて

Red Hat をお使いのお客様が、信頼できるコンテンツが含まれている製品やサービスを活用することで、イノベーションを行い、目標を達成できるようにします。 最新の更新を見る.

多様性を受け入れるオープンソースの強化

Red Hat では、コード、ドキュメント、Web プロパティーにおける配慮に欠ける用語の置き換えに取り組んでいます。このような変更は、段階的に実施される予定です。詳細情報: Red Hat ブログ.

会社概要

Red Hat は、企業がコアとなるデータセンターからネットワークエッジに至るまで、各種プラットフォームや環境全体で作業を簡素化できるように、強化されたソリューションを提供しています。

Theme

© 2025 Red Hat