3.20. NVIDIA NIM モデルサービングプラットフォームについて


NVIDIA NIM モデルサービングプラットフォーム で NVIDIA NIM 推論サービスを使用してモデルを展開できます。

NVIDIA AI Enterprise の一部である NVIDIA NIM は、クラウド、データセンター、ワークステーションをまたいで推論を実行する高性能 AI モデルの、セキュアで信頼性の高いデプロイメントのために設計されたマイクロサービスのセットです。

3.20.1. NVIDIA NIM モデルサービングプラットフォームの有効化

管理者は、Red Hat OpenShift AI ダッシュボードを使用して、NVIDIA NIM モデルサービングプラットフォームを有効にできます。

注記

以前に OpenShift AI 2.14 または 2.15 で NVIDIA NIM モデルサービングプラットフォーム を有効にし、その後新しいバージョンにアップグレードした場合は、NVIDIA NGC API キーを再入力して、NVIDIA NIM モデルサービングプラットフォームを再度有効にしてください。

前提条件

  • Red Hat OpenShift AI に管理者としてログインしている。
  • シングルモデルサービングプラットフォームを有効にしている。プリインストールされているランタイムを有効にする必要はありません。シングルモデルサービングプラットフォームを有効にする方法の詳細は、シングルモデルサービングプラットフォームの有効化 を参照してください。
  • 次の OpenShift AI ダッシュボード設定が有効になっている。

    disableNIMModelServing: false
    Copy to Clipboard Toggle word wrap

    詳細は、ダッシュボード設定オプション を参照してください。

  • OpenShift AI で GPU サポートを有効にした。詳細は、NVIDIA GPU の有効化 を参照してください。
  • NVIDIA Cloud Account (NCA) をお持ちで、NVIDIA GPU Cloud (NGC) ポータルにアクセスできる。詳細は、NVIDIA GPU Cloud user guide を参照してください。
  • お使いの NCA アカウントが NVIDIA AI Enterprise Viewer ロールに関連付けられている。
  • NGC ポータルで NGC API キーを生成した。詳細は、NGC API keys を参照してください。

手順

  1. OpenShift AI にログインします。
  2. OpenShift AI ダッシュボードの左側のメニューで、Applications Explore をクリックします。
  3. Explore ページで、NVIDIA NIM タイルを見つけます。
  4. アプリケーションタイルで Enable をクリックします。
  5. NGC API キーを入力し、Submit をクリックします。

検証

  • 有効にした NVIDIA NIM アプリケーションが Enabled ページに表示されます。

3.20.2. NVIDIA NIM モデルサービングプラットフォームにモデルをデプロイする

NVIDIA NIM モデルサービングプラットフォーム を有効にすると、プラットフォーム上で NVIDIA 向けに最適化されたモデルのデプロイを開始できます。

前提条件

  • Red Hat OpenShift AI にログインしている。
  • OpenShift AI グループを使用している場合は、OpenShift のユーザーグループまたは管理者グループ (rhoai-usersrhoai-admins など) に属している。
  • NVIDIA NIM モデルサービングプラットフォーム を有効にした。
  • データサイエンスプロジェクトを作成した。
  • OpenShift AI でグラフィックプロセッシングユニット (GPU) のサポートを有効にした。これには、Node Feature Discovery Operator と NVIDIA GPU Operator のインストールが含まれます。詳細は、Node Feature Discovery Operator のインストールNVIDIA GPU の有効化 を参照してください。

手順

  1. 左側のメニューで、Data Science Projects をクリックします。

    Data Science Projects ページが開きます。

  2. モデルをデプロイするプロジェクトの名前をクリックします。

    プロジェクトの詳細ページが開きます。

  3. Models タブをクリックします。
  4. Models セクションで、次のいずれかの操作クションを実行します。

    • NVIDIA NIM model serving platform タイルで、タイル上の Select NVIDIA NIM をクリックし、Deploy model をクリックします。
    • 以前に NVIDIA NIM モデルサービングタイプを選択した場合は、Models ページの右上隅に NVIDIA model serving enabled が表示され、Deploy model ボタンも表示されます。続行するには、Deploy model をクリックします。

    Deploy model ダイアログが開きます。

  5. モデルをデプロイするためのプロパティーを次のように設定します。

    1. Model deployment name フィールドに、デプロイメントの一意の名前を入力します。
    2. NVIDIA NIM リストから、デプロイする NVIDIA NIM モデルを選択します。詳細は、Supported Models を参照してください。
    3. NVIDIA NIM storage size フィールドで、NVIDIA NIM モデルを保存するために作成されるクラスターストレージインスタンスのサイズを指定します。
    4. Number of model server replicas to deploy フィールドに値を指定します。
    5. Model server size リストから値を選択します。
    6. Accelerator リストからアクセラレーターを選択します。

      Number of accelerators フィールドが表示されます。

    7. Number of accelerators フィールドで、使用するアクセラレーターの数を指定します。デフォルト値は 1 です。
  6. Deploy をクリックします。

検証

  • デプロイされたモデルがプロジェクトの Models タブに表示され、ダッシュボードの Model Serving ページで Status 列にチェックマークが付いて表示されていることを確認します。
トップに戻る
Red Hat logoGithubredditYoutubeTwitter

詳細情報

試用、購入および販売

コミュニティー

Red Hat ドキュメントについて

Red Hat をお使いのお客様が、信頼できるコンテンツが含まれている製品やサービスを活用することで、イノベーションを行い、目標を達成できるようにします。 最新の更新を見る.

多様性を受け入れるオープンソースの強化

Red Hat では、コード、ドキュメント、Web プロパティーにおける配慮に欠ける用語の置き換えに取り組んでいます。このような変更は、段階的に実施される予定です。詳細情報: Red Hat ブログ.

会社概要

Red Hat は、企業がコアとなるデータセンターからネットワークエッジに至るまで、各種プラットフォームや環境全体で作業を簡素化できるように、強化されたソリューションを提供しています。

Theme

© 2025 Red Hat