第1章 ハードウェアアクセラレーターについて
専用ハードウェアアクセラレーターは、新しい生成人工知能および機械学習 (AI/ML) 業界で重要な役割を果たします。具体的には、ハードウェアアクセラレーターは、この新しいテクノロジーを支える大規模言語モデルやその他の基礎モデルのトレーニングと提供に不可欠です。データサイエンティスト、データエンジニア、ML エンジニア、開発者は、データ量の多い変換やモデルの開発と提供に特化したハードウェアアクセラレーションを活用できます。そのエコシステムの多くはオープンソースであり、多数の貢献パートナーとオープンソース財団が存在します。
Red Hat OpenShift Container Platform は、ハードウェアアクセラレーターの構成要素である次の処理ユニットを追加するカードと周辺ハードウェアをサポートしています。
- グラフィックスプロセッシングユニット (GPU)
- ニューラルプロセッシングユニット (NPU)
- 特定用途向け集積回路 (ASIC)
- データプロセッシングユニット (DPU)
専用ハードウェアアクセラレーターは、AI/ML 開発にさまざまな利点をもたらします。
- 1 つのプラットフォームであらゆる用途に対応
- 開発者、データエンジニア、データサイエンティスト、DevOps のためのコラボレーション環境
- Operator による機能拡張
- Operator により OpenShift Container Platform に AI/ML 機能を導入可能
- ハイブリッドクラウドのサポート
- モデルの開発、提供、デプロイのためのオンプレミスサポート
- AI/ML ワークロードのサポート
- モデルのテスト、イテレーション、統合、プロモートを行い、サービスとして運用環境に提供
Red Hat は、Red Hat Enterprise Linux (RHEL) および OpenShift Container Platform プラットフォームの Linux (カーネルとユーザー空間) および Kubernetes レイヤーで、このような専用ハードウェアアクセラレーターを有効にするために最適化されたプラットフォームを提供しています。これを実現するために、Red Hat は、Red Hat OpenShift AI と Red Hat OpenShift Container Platform の実証済みの機能を、単一のエンタープライズ対応 AI アプリケーションプラットフォームに統合しました。
ハードウェア Operator は、Kubernetes クラスターのオペレーティングフレームワークを使用して、必要なアクセラレーターリソースを有効にします。提供されているデバイスプラグインを手動で、またはデーモンセットとしてデプロイすることもできます。このプラグインにより、クラスターに GPU が登録されます。
専用ハードウェアアクセラレーターの中には、開発とテストのためのセキュリティーを確保する必要がある非接続環境内で動作するように設計されているものもあります。
1.1. ハードウェアアクセラレーター
Red Hat OpenShift Container Platform では、次のハードウェアアクセラレーターが有効になります。
- NVIDIA GPU
- AMD Instinct® GPU
- Intel® Gaudi®