3.3. アクセラレーターの概要
大規模なデータセットを扱う場合は、アクセラレーターを使用して OpenShift AI のデータサイエンスモデルのパフォーマンスを最適化できます。アクセラレーターを使用すると、作業を拡張し、待ち時間を短縮し、生産性を向上させることができます。OpenShift AI のアクセラレーターを使用して、データサイエンティストによる次のタスクを支援できます。
- 自然言語処理 (NLP)
- 推論
- ディープニュラルネットワークのトレーニング
- データクレンジングとデータ処理
OpenShift AI は次のアクセラレーターをサポートしています。
NVIDIA グラフィックスプロセッシングユニット (GPU)
- モデルで計算負荷の高いワークロードを使用するには、OpenShift AI で NVIDIA グラフィックスプロセッシングユニット (GPU) を有効にしてください。
- OpenShift で GPU を有効にするには、NVIDIA GPU Operator をインストールする必要があります。
Intel Gaudi AI アクセラレーター
- Intel は、ディープラーニングワークロード向けのハードウェアアクセラレーターを提供しています。ノートブックから利用可能な Intel Gaudi AI アクセラレーターに関連付けられた Habana ライブラリーとソフトウェアを使用できます。
- OpenShift AI で Intel Gaudi AI アクセラレーターを有効にする前に、デプロイメント内の HabanaAI ワークベンチイメージの Habana バージョンと一致する、必要な依存関係と HabanaAI Operator のバージョンをインストールする必要があります。OpenShift 環境で Intel Gaudi AI アクセラレーターを有効にする方法の詳細は、HabanaAI Operator v1.10 for OpenShift および HabanaAI Operator v1.13 for OpenShift を参照してください。
- Intel Gaudi AI アクセラレーターは、オンプレミスで、または AWS インスタンス上の AWS DL1 コンピュートノードで有効にできます。
OpenShift AI でアクセラレーターを使用するには、OpenShift インスタンスに関連するアクセラレータープロファイルが含まれている必要があります。これまでデプロイメントしたことのないアクセラレーターの場合は、コンテキスト内でアクセラレーターのアクセラレータープロファイルを設定する必要があります。OpenShift AI ダッシュボードの Settings
関連情報
3.3.1. NVIDIA GPU を有効にする
OpenShift AI で NVIDIA GPU を使用する前に、NVIDIA GPU Operator をインストールする必要があります。
非接続のセルフマネージドで OpenShift AI を使用している場合は、代わりに NVIDIA GPU の有効化 を参照してください。
前提条件
- OpenShift クラスターにログインしている。
-
OpenShift クラスターの
cluster-admin
ロールを持っている。
手順
- OpenShift クラスターで GPU サポートを有効にするには、NVIDIA ドキュメントの Red Hat OpenShift Container Platform 上の NVIDIA GPU Operator の手順に従ってください。
migration-gpu-status ConfigMap を削除します。
- OpenShift Web コンソールで、Administrator パースペクティブに切り替えます。
- Project を All Projects または redhat-ods-applications に設定して、適切な ConfigMap が表示されるようにします。
- migration-gpu-status ConfigMap を検索します。
アクションメニュー (⋮) をクリックし、リストから Delete ConfigMap を選択します。
Delete ConfigMap ダイアログが表示されます。
- ダイアログで、正しい ConfigMap が削除されていることを確認します。
- Delete をクリックします。
ダッシュボードの replicaset を再起動します。
- OpenShift Web コンソールで、Administrator パースペクティブに切り替えます。
-
Workloads
Deployments をクリックします。 - Project を All Projects または redhat-ods-applications に設定して、適切なデプロイメントを確認できるようにします。
- rhods-dashboard デプロイメントを検索します。
- アクションメニュー (⋮) をクリックし、リストから Restart Rollout を選択します。
- ロールアウト内のすべての Pod が完全に再起動したことが Status 列に示されるまで待ちます。
検証
-
NVIDIA GPU Operator は、OpenShift Web コンソールの Operators
Installed Operators ページに表示されます。 -
リセットされた migration-gpu-status インスタンスは、
AcceleratorProfile
カスタムリソース定義 (CRD) 詳細ページの Instances タブにあります。
OpenShift AI 2.13 では、Red Hat は同じクラスター内でのみアクセラレーターの使用をサポートしています。Red Hat は、アクセラレーター間の Remote Direct Memory Access (RDMA) や、NVIDIA GPUDirect や NVLink などのテクノロジーを使用したネットワーク経由のアクセラレーターの使用をサポートしていません。
NVIDIA GPU Operator をインストールしたら、アクセラレータプロファイルの操作 の説明に従って、アクセラレータープロファイルを作成します。
3.3.2. Intel Gaudi AI アクセラレーターの有効化
OpenShift AI で Intel Gaudi AI アクセラレーターを使用する前に、必要な依存関係をインストールし、HabanaAI Operator をデプロイする必要があります。
前提条件
- OpenShift にログインしている。
-
OpenShift の
cluster-admin
ロールを持っている。
手順
- OpenShift AI で Intel Gaudi AI アクセラレーターを有効にするには、OpenShift の HabanaAI Operator の手順 に従います。
検証
Administrator パースペクティブから、次の Operator が Operators
Installed Operators ページに表示されます。 - HabanaAI
- Node Feature Discovery (NFD)
- カーネルモジュール管理 (KMM)
HabanaAI Operator をインストールした後、アクセラレータープロファイルの操作 の説明に従ってアクセラレータープロファイルを作成します。