第7章 LAB-tuning 用のハードウェアプロファイルの作成


LAB-tuning 実行の起動時にユーザーが選択できる OpenShift AI で GPU ハードウェアプロファイルを設定します。

OpenShift AI で LAB-tuning ワークロードを実行するには、GPU ハードウェアプロファイルが必要です。LAB-tuning では、GPU リソースを持つノードでスケジュールする必要がある分散トレーニングを使用します。GPU ハードウェアプロファイルを使用すると、ユーザーはパイプラインを起動するときに特定の GPU 対応ワーカーノードをターゲットにすることができ、トレーニングワークロードが互換性のあるハードウェア上で実行されるようになります。

前提条件

  • 管理者権限を持つユーザーとして OpenShift AI にログインしている。
  • 関連するハードウェアがインストールされており、それが環境で検出されていることを確認した。

手順

  1. ハードウェアプロファイルの作成 で説明されている手順に従って LAB-tuning ハードウェアプロファイルを作成します。その際に、ご自身のクラスター環境に合わせて次の設定を調整してください。

    Expand
    設定

    CPU: Default

    4 コア

    CPU: Minimum allowed

    2 コア

    CPU: Maximum allowed

    4 コア

    Memory: Maximum allowed

    250 GiB 以上

    Resource label

    nvidia.com/gpu

    Resource identifier

    nvidia.com/gpu

    Resource type

    Accelerator

    Node selector key (オプション)

    node.kubernetes.io/instance-type

    Node selector value

    a2-ultragpu-2g

    Toleration operator (オプション)

    Exists

    Toleration key

    nvidia.com/gpu

    Toleration effect

    NoSchedule

  2. Enable 列にチェックマークを付けて、新しいハードウェアプロファイルが使用可能であることを確認します。
トップに戻る
Red Hat logoGithubredditYoutubeTwitter

詳細情報

試用、購入および販売

コミュニティー

Red Hat ドキュメントについて

Red Hat をお使いのお客様が、信頼できるコンテンツが含まれている製品やサービスを活用することで、イノベーションを行い、目標を達成できるようにします。 最新の更新を見る.

多様性を受け入れるオープンソースの強化

Red Hat では、コード、ドキュメント、Web プロパティーにおける配慮に欠ける用語の置き換えに取り組んでいます。このような変更は、段階的に実施される予定です。詳細情報: Red Hat ブログ.

会社概要

Red Hat は、企業がコアとなるデータセンターからネットワークエッジに至るまで、各種プラットフォームや環境全体で作業を簡素化できるように、強化されたソリューションを提供しています。

Theme

© 2025 Red Hat