第1章 Red Hat Enterprise Linux AI の概要
Red Hat Enterprise Linux AI は、オープンソースの Large Language Models (LLM) 上でエンタープライズアプリケーションを開発できるプラットフォームです。RHEL AI は、Red Hat InstructLab オープンソースプロジェクトから構築されています。InstructLab の詳細は、「InstructLab および RHEL AI」セクションを参照してください。
Red Hat Enterprise Linux AI を使用すると、次のことが可能になります。
- LLM をホストし、オープンソースの Granite ファミリーの大規模言語モデル (LLM) と対話します。
- LAB メソッドを使用して、独自のナレッジまたはスキルデータを作成し、Git リポジトリーに追加します。その後、機械学習に関する最小限の予備知識があれば、そのデータに基づいてモデルをファインチューニングできます。
- 独自のデータを使用してファインチューニングされたモデルを操作します。
Red Hat Enterprise Linux AI を使用すると、大規模言語モデル (LLM) に直接貢献できるようになります。そのため、チャットボットなどの AI ベースのアプリケーションを簡単かつ効率的に構築できます。
1.1. Red Hat Enterprise Linux AI の一般的な用語 リンクのコピーリンクがクリップボードにコピーされました!
リンクのコピーリンクがクリップボードにコピーされました!
この用語集では、Red Hat Enterprise Linux AI の一般的な用語を定義します。
- InstructLab
-
InstructLab とは、
ilab
コマンドラインインターフェイス (CLI) ツールを使用して AI 大規模言語モデル (LLM) を簡単に利用できるプラットフォームを提供するオープンソースプロジェクトです。 - 大規模言語モデル
- LLM として知られる、言語生成やタスク処理が可能な人工知能の一種です。
- 合成データ生成 (SDG)
- 大規模な LLM (大規模言語モデル) と人間が生成したサンプルを使用して人工データを作成し、それを他の LLM のトレーニングに使用できるプロセス。
- ファインチューニング
- 特定の情報を知ることや特定のタスクを実行することなど、特定の目的を達成するために LLM をトレーニングする手法。
- LAB
- "Large-Scale Alignment for ChatBots" の頭字語です。IBM Research によって発明された LAB は、合成データに基づく LLM 向けの新しい多段階トレーニングおよびファインチューニング方法です。InstructLab は、合成生成およびトレーニング中に LAB メソッドを実装します。
- 複数フェーズトレーニング
- LAB メソッドが実装するファインチューニングストラテジー。このプロセスでは、モデルが別々のフェーズで複数のデータセットを使用してファインチューニングされます。モデルは、チェックポイントとして保存されるエポックと呼ばれる複数のフェーズでトレーニングされます。最もパフォーマンスの優れたチェックポイントが、次のフェーズでのトレーニングに使用されます。完全にファインチューニングが行われたモデルは、最終フェーズで最もパフォーマンスの高いチェックポイントとなります。
- サービング (提供)
- 多くの場合、「モデルのサービング」とも呼ばれる、LLM またはトレーニング済みモデルをサーバーにデプロイメントすることです。このプロセスにより、チャットボットとしてモデルと対話できるようになります。
- 推論
- モデルにサービスを提供したり、モデルとチャットしたりする場合、推論とは、モデルが入力データに基づいて出力を処理、推論、および生成することです。
- タクソノミー
- LAB メソッドは、情報分類方法であるタクソノミーをもとに機能します。RHEL AI では、タクソノミーツリーをカスタマイズして、独自のデータでファインチューニングされたモデルを作成できます。
- Granite
- IBM によってトレーニングされたオープンソース (Apache 2.0) の大規模言語モデルです。RHEL AI では、カスタマイズ用の基本 LLM として Granite ファミリーモデルをダウンロードできます。
- PyTorch
- GPU および CPU でのディープラーニング向けに最適化された Tensor ライブラリーです。
- vLLM
- LLM 用のメモリー効率の高い推論およびサービングエンジンライブラリーです。
- FSDP
- Fully Shared Data Parallels の頭字語。Pytorch ツール FSDP は、ハードウェア上の複数のデバイスにコンピューティング能力を分散できます。これにより、トレーニングプロセスが最適化され、ファインチューニングがより高速になり、メモリー効率が向上します。このツールは DeepSpeed の機能を共有しています。
- DeepSpeed
- 複数のデバイスにコンピューティングリソースを分散することで、LLM のトレーニングとファインチューニングを最適化する Python ライブラリー。このツールは FSDP の機能を共有します。Deepspeed は現在、NVIDIA マシンに推奨されるハードウェアオフローダーです。