3.3. アクセラレーターの概要


大規模なデータセットを扱う場合は、アクセラレーターを使用して OpenShift AI のデータサイエンスモデルのパフォーマンスを最適化できます。アクセラレーターを使用すると、作業を拡張し、待ち時間を短縮し、生産性を向上させることができます。OpenShift AI のアクセラレーターを使用して、データサイエンティストによる次のタスクを支援できます。

  • 自然言語処理 (NLP)
  • 推論
  • ディープニュラルネットワークのトレーニング
  • データクレンジングとデータ処理

OpenShift AI は次のアクセラレーターをサポートしています。

  • NVIDIA グラフィックスプロセッシングユニット (GPU)

    • モデルで計算負荷の高いワークロードを使用するには、OpenShift AI で NVIDIA グラフィックスプロセッシングユニット (GPU) を有効にしてください。
    • OpenShift で GPU を有効にするには、NVIDIA GPU Operator をインストールする必要があります。
  • Intel Gaudi AI アクセラレーター

    • Intel は、ディープラーニングワークロード向けのハードウェアアクセラレーターを提供しています。ノートブックから利用可能な Intel Gaudi AI アクセラレーターに関連付けられた Habana ライブラリーとソフトウェアを使用できます。
    • OpenShift AI で Intel Gaudi AI アクセラレーターを有効にする前に、デプロイメント内の HabanaAI ワークベンチイメージの Habana バージョンと一致する、必要な依存関係と HabanaAI Operator のバージョンをインストールする必要があります。OpenShift 環境で Intel Gaudi AI アクセラレーターを有効にする方法の詳細は、HabanaAI Operator v1.10 for OpenShift および HabanaAI Operator v1.13 for OpenShift を参照してください。
    • Intel Gaudi AI アクセラレーターは、オンプレミスで、または AWS インスタンス上の AWS DL1 コンピュートノードで有効にできます。

OpenShift AI でアクセラレーターを使用するには、OpenShift インスタンスに関連するアクセラレータープロファイルが含まれている必要があります。これまでデプロイメントしたことのないアクセラレーターの場合は、コンテキスト内でアクセラレーターのアクセラレータープロファイルを設定する必要があります。OpenShift AI ダッシュボードの Settings Accelerator profiles ページから、アクセラレータープロファイルを作成できます。デプロイメントに、関連付けられたアクセラレータープロファイルがすでに設定されている既存のアクセラレーターが含まれている場合、OpenShift AI の最新バージョンにアップグレードした後、アクセラレータープロファイルが自動的に作成されます。

3.3.1. NVIDIA GPU を有効にする

OpenShift AI で NVIDIA GPU を使用する前に、NVIDIA GPU Operator をインストールする必要があります。

重要

非接続のセルフマネージドで OpenShift AI を使用している場合は、代わりに NVIDIA GPU の有効化 を参照してください。

前提条件

  • OpenShift クラスターにログインしている。
  • OpenShift クラスターの cluster-admin ロールを持っている。

手順

  1. OpenShift クラスターで GPU サポートを有効にするには、NVIDIA ドキュメントの Red Hat OpenShift Container Platform 上の NVIDIA GPU Operator の手順に従ってください。
  2. migration-gpu-status ConfigMap を削除します。

    1. OpenShift Web コンソールで、Administrator パースペクティブに切り替えます。
    2. ProjectAll Projects または redhat-ods-applications に設定して、適切な ConfigMap が表示されるようにします。
    3. migration-gpu-status ConfigMap を検索します。
    4. アクションメニュー (⋮) をクリックし、リストから Delete ConfigMap を選択します。

      Delete ConfigMap ダイアログが表示されます。

    5. ダイアログで、正しい ConfigMap が削除されていることを確認します。
    6. Delete をクリックします。
  3. ダッシュボードの replicaset を再起動します。

    1. OpenShift Web コンソールで、Administrator パースペクティブに切り替えます。
    2. Workloads Deployments をクリックします。
    3. ProjectAll Projects または redhat-ods-applications に設定して、適切なデプロイメントを確認できるようにします。
    4. rhods-dashboard デプロイメントを検索します。
    5. アクションメニュー (⋮) をクリックし、リストから Restart Rollout を選択します。
    6. ロールアウト内のすべての Pod が完全に再起動したことが Status 列に示されるまで待ちます。

検証

  • NVIDIA GPU Operator は、OpenShift Web コンソールの Operators Installed Operators ページに表示されます。
  • リセットされた migration-gpu-status インスタンスは、AcceleratorProfile カスタムリソース定義 (CRD) 詳細ページの Instances タブにあります。
注記

OpenShift AI 2.13 では、Red Hat は同じクラスター内でのみアクセラレーターの使用をサポートしています。Red Hat は、アクセラレーター間の Remote Direct Memory Access (RDMA) や、NVIDIA GPUDirect や NVLink などのテクノロジーを使用したネットワーク経由のアクセラレーターの使用をサポートしていません。

NVIDIA GPU Operator をインストールしたら、アクセラレータプロファイルの操作 の説明に従って、アクセラレータープロファイルを作成します。

3.3.2. Intel Gaudi AI アクセラレーターの有効化

OpenShift AI で Intel Gaudi AI アクセラレーターを使用する前に、必要な依存関係をインストールし、HabanaAI Operator をデプロイする必要があります。

前提条件

  • OpenShift にログインしている。
  • OpenShift の cluster-admin ロールを持っている。

手順

  1. OpenShift AI で Intel Gaudi AI アクセラレーターを有効にするには、OpenShift の HabanaAI Operator の手順 に従います。

検証

  • Administrator パースペクティブから、次の Operator が Operators Installed Operators ページに表示されます。

    • HabanaAI
    • Node Feature Discovery (NFD)
    • カーネルモジュール管理 (KMM)

HabanaAI Operator をインストールした後、アクセラレータープロファイルの操作 の説明に従ってアクセラレータープロファイルを作成します。

Red Hat logoGithubRedditYoutubeTwitter

詳細情報

試用、購入および販売

コミュニティー

Red Hat ドキュメントについて

Red Hat をお使いのお客様が、信頼できるコンテンツが含まれている製品やサービスを活用することで、イノベーションを行い、目標を達成できるようにします。

多様性を受け入れるオープンソースの強化

Red Hat では、コード、ドキュメント、Web プロパティーにおける配慮に欠ける用語の置き換えに取り組んでいます。このような変更は、段階的に実施される予定です。詳細情報: Red Hat ブログ.

会社概要

Red Hat は、企業がコアとなるデータセンターからネットワークエッジに至るまで、各種プラットフォームや環境全体で作業を簡素化できるように、強化されたソリューションを提供しています。

© 2024 Red Hat, Inc.