第1章 LAB-tuning の有効化の概要
LAB-tuning は現在、Red Hat OpenShift AI 2.22 でテクノロジープレビュー機能として提供されています。テクノロジープレビュー機能は、Red Hat 製品のサービスレベルアグリーメント (SLA) の対象外であり、機能的に完全ではないことがあります。Red Hat では、実稼働環境での使用を推奨していません。テクノロジープレビュー機能は、最新の製品機能をいち早く提供して、開発段階で機能のテストを行い、フィードバックを提供していただくことを目的としています。
Red Hat のテクノロジープレビュー機能のサポート範囲に関する詳細は、テクノロジープレビュー機能のサポート範囲 を参照してください。
データサイエンティストは、OpenShift AI の LAB-tuning を使用して、大規模言語モデル (LLM) をカスタマイズするためのエンドツーエンドのワークフローを実行できます。LAB (Large-scale Alignment for chatBots) メソッドは、タクソノミーガイドによる合成データ生成 (SDG) と多段階のトレーニングプロセスを組み合わせて使用することで、従来のファインチューニングに代わるより効率的な方法を提供します。事前設定された InstructLab パイプラインを使用して、OpenShift AI ダッシュボードから LAB-tuning ワークフローを直接起動できるため、チューニングプロセスが簡素化されます。
LAB-tuning は、モデルのカスタマイズをサポートするために連携して動作する複数の OpenShift AI コンポーネントに依存します。データサイエンスパイプラインを使用してチューニングワークフローを実行し、KServe を使用して教師モデルとジャッジモデルをデプロイおよび提供し、Training Operator を使用して GPU 対応ノード間で分散モデルトレーニングを実行します。LAB-tuning では、モデルバージョンの管理にモデルレジストリー、パイプラインアーティファクトとモデル出力を保存するストレージ接続 (S3 や OCI など)、トレーニングワークロードをスケジュールする GPU ハードウェアプロファイルも利用します。
LAB-tuning を有効にするには、OpenShift クラスター管理者が次のタスクを完了して、必要なインフラストラクチャーとプラットフォームコンポーネントを設定する必要があります。
- 必要な Operator をインストールします。
- 必要なコンポーネントをインストールします。
- 動的プロビジョニングをサポートするストレージクラスを設定します。
クラスター管理者または OpenShift AI 管理者は、OpenShift AI ダッシュボード内で追加の設定を実行する必要があります。
- LAB-tuning 機能をダッシュボードに表示します。
- モデルレジストリーを作成します。
- GPU ハードウェアプロファイルを作成します。
1.1. LAB-tuning の要件 リンクのコピーリンクがクリップボードにコピーされました!
- クラスター管理者として OpenShift クラスターにアクセスできる。
- OpenShift クラスターには、LAB-tuning プロセス用に 1 つの NVIDIA GPU (例: NVIDIA L40S 48 GB) を備えたノードが少なくとも 1 つある。分散 LAB-tuning ワークロードを実行するには、同じまたは異なるノード上に GPU が複数必要である。
- 教師モデル (rhelai1/modelcar-mixtral-8x7b-instruct-v0-1:1.4) をデプロイするために、OpenShift クラスターには、モデルを実行できる 1 つまたは複数の GPU (たとえば、80 GB vRAM を備えた 4 x NVIDIA A100 を含む a2-ultragpu-4g) を備えたワーカーノードがあり、モデルを保存するために少なくとも空き容量が 100 GiB のディスクストレージがある。
- ジャッジモデル (rhelai1/modelcar-prometheus-8x7b-v2-0:1.4) をデプロイするために、OpenShift クラスターには、このモデルを実行できる 1 つまたは複数の GPU (たとえば、80 GB vRAM を備えた 2 x NVIDIA A100 を含む a2-ultragpu-2g) を備えたワーカーノードがあり、モデルを保存するために少なくとも空き容量が 100 GiB のディスクストレージがある。
- ご使用の環境において、必要な Operator をインストールし、必要なコンポーネント、ストレージ、モデルレジストリー、および GPU ハードウェアプロファイルを使用するための前提条件を満たしている。