第3章 テクノロジープレビュー機能


重要

このセクションでは、Red Hat OpenShift AI 2.17 のテクノロジープレビュー機能を説明します。テクノロジープレビュー機能は、Red Hat 製品のサービスレベルアグリーメント (SLA) の対象外であり、機能的に完全ではないことがあります。Red Hat では、実稼働環境での使用を推奨していません。テクノロジープレビュー機能は、最新の製品機能をいち早く提供して、開発段階で機能のテストを行い、フィードバックを提供していただくことを目的としています。

Red Hat のテクノロジープレビュー機能のサポート範囲に関する詳細は、テクノロジープレビュー機能のサポート範囲 を参照してください。

Ray クラスターを作成するには Kueue ローカルキューラベル付けポリシーが必須になりました。

クラスター管理者は、Validating Admission Policy 機能を使用して、Ray クラスターリソースに Kueue local-queue 識別子を強制的にラベル付けできます。このラベル付けにより、キュー管理ポリシーに基づいてワークロードが適切に分類およびルーティングされるようになり、リソースの競合が防止され、運用効率が向上します。

local-queue のラベル付けポリシーが適用されると、Ray クラスターはローカルキューを使用するように設定されている場合にのみ作成され、Ray クラスターリソースは Kueue で管理されます。ローカルキューのラベル付けポリシーは、デフォルトではすべてのプロジェクトに適用されますが、一部またはすべてのプロジェクトに対して無効にできます。ローカルキューのラベル付けポリシーの詳細は、ローカルキューの強制使用 を参照してください。

注記

これまで Kueue ローカルキューを使用して Ray クラスターリソースを管理していなかった場合は、この機能により、重大な変更が生じる可能性があります。

RStudio Server ノートブックイメージ

RStudio Server ノートブックイメージを使用すると、R の統合開発環境である RStudio IDE にアクセスできます。R プログラミング言語は、データ分析と予測をサポートする統計コンピューティングとグラフィックスに使用されます。

RStudio Server ノートブックイメージを使用するには、まずシークレットを作成し、BuildConfig をトリガーしてイメージをビルドします。次に、rstudio-rhel9 イメージストリームを編集して OpenShift AI UI でイメージを有効にする必要があります。詳細は、RStudio Server ワークベンチイメージのビルド を参照してください。

重要

免責事項: Red Hat は、OpenShift AI のワークベンチの管理をサポートしています。ただし、Red Hat は RStudio ソフトウェアのサポートを提供していません。RStudio Server は rstudio.org から入手できます。RStudio Server には RStudio のライセンス条項が適用されます。このサンプルワークベンチを使用する前に、ライセンス条項を確認してください。

CUDA - RStudio Server ノートブックイメージ

CUDA - RStudio Server ノートブックイメージを使用すると、RStudio IDE および NVIDIA CUDA Toolkit にアクセスできます。RStudio IDE は、統計コンピューティングおよびグラフィックス用の R プログラミング言語の統合開発環境です。NVIDIA CUDA Toolkit を使用すると、GPU により高速化されたライブラリーと最適化ツールを使用して作業を強化できます。

CUDA - RStudio Server ノートブックイメージを使用するには、まずシークレットを作成し、BuildConfig をトリガーしてイメージをビルドします。次に、rstudio-rhel9 イメージストリームを編集して OpenShift AI UI でイメージを有効にする必要があります。詳細は、RStudio Server ワークベンチイメージのビルド を参照してください。

重要

免責事項: Red Hat は、OpenShift AI のワークベンチの管理をサポートしています。ただし、Red Hat は RStudio ソフトウェアのサポートを提供していません。RStudio Server は rstudio.org から入手できます。RStudio Server には RStudio のライセンス条項が適用されます。このサンプルワークベンチを使用する前に、ライセンス条項を確認してください。

CUDA - RStudio Server ノートブックイメージには、NVIDIA CUDA テクノロジーが含まれています。CUDA のライセンス情報は、CUDA Toolkit のドキュメントで入手できます。このサンプルワークベンチを使用する前に、ライセンス条項を確認してください。

モデルレジストリー
OpenShift AI が Model Registry Operator をサポートするようになりました。Model Registry Operator は、テクノロジープレビューモードではデフォルトではインストールされていません。モデルレジストリーは、機械学習モデルの開始からデプロイメントまでに関するメタデータを格納する中央リポジトリーです。
モデル保存用の OCI コンテナー

モデルサービングには、クラウドストレージサービスの代替として OCI ストレージを使用できます。まず、モデルを格納する OCI コンテナーイメージを作成します。イメージは、Quay などの OCI 互換レジストリーにアップロードされます。その後、モデルのデプロイ時に、モデルサービングプラットフォームはコンテナー化されたモデルのリポジトリーを参照します。

OCI コンテナーの使用には、次のような利点があります。

  • クラスターがダウンロードしたイメージのキャッシュを保持するため、起動時間が短縮されます。モデル Pod を再起動しても、モデルは再度ダウンロードされません。
  • Pod が同じノードにスケジューリングされている場合、各 Pod レプリカにモデルがダウンロードされないため、ディスク領域の使用量が少なくなります。
  • イメージのプリフェッチや非同期読み込み時のパフォーマンスが向上します。
  • KServe と簡単に統合できるため、互換性と統合性を確保できます。追加の依存関係は必要なく、インフラストラクチャーはすでに利用可能である可能性があります。
非常に大規模なモデルのマルチノードデプロイメントのサポート
シングルモデルサービングランタイムの使用時に、複数のグラフィカルプロセッシングユニット (GPU) ノードを介してモデルを提供することが、テクノロジープレビュー機能として利用できるようになりました。大規模言語モデル (LLM) などの大規模なモデルをデプロイする際の効率を向上させるには、複数の GPU ノードにモデルをデプロイします。詳細は、複数の GPU ノードにわたるモデルのデプロイ を参照してください。
Red Hat logoGithubRedditYoutubeTwitter

詳細情報

試用、購入および販売

コミュニティー

Red Hat ドキュメントについて

Red Hat をお使いのお客様が、信頼できるコンテンツが含まれている製品やサービスを活用することで、イノベーションを行い、目標を達成できるようにします。

多様性を受け入れるオープンソースの強化

Red Hat では、コード、ドキュメント、Web プロパティーにおける配慮に欠ける用語の置き換えに取り組んでいます。このような変更は、段階的に実施される予定です。詳細情報: Red Hat ブログ.

会社概要

Red Hat は、企業がコアとなるデータセンターからネットワークエッジに至るまで、各種プラットフォームや環境全体で作業を簡素化できるように、強化されたソリューションを提供しています。

© 2024 Red Hat, Inc.