第3章 テクノロジープレビュー機能
このセクションでは、Red Hat OpenShift AI 2.17 のテクノロジープレビュー機能を説明します。テクノロジープレビュー機能は、Red Hat 製品のサービスレベルアグリーメント (SLA) の対象外であり、機能的に完全ではないことがあります。Red Hat では、実稼働環境での使用を推奨していません。テクノロジープレビュー機能は、最新の製品機能をいち早く提供して、開発段階で機能のテストを行い、フィードバックを提供していただくことを目的としています。
Red Hat のテクノロジープレビュー機能のサポート範囲に関する詳細は、テクノロジープレビュー機能のサポート範囲 を参照してください。
- Ray クラスターを作成するには Kueue ローカルキューラベル付けポリシーが必須になりました。
クラスター管理者は、Validating Admission Policy 機能を使用して、Ray クラスターリソースに Kueue local-queue 識別子を強制的にラベル付けできます。このラベル付けにより、キュー管理ポリシーに基づいてワークロードが適切に分類およびルーティングされるようになり、リソースの競合が防止され、運用効率が向上します。
local-queue のラベル付けポリシーが適用されると、Ray クラスターはローカルキューを使用するように設定されている場合にのみ作成され、Ray クラスターリソースは Kueue で管理されます。ローカルキューのラベル付けポリシーは、デフォルトではすべてのプロジェクトに適用されますが、一部またはすべてのプロジェクトに対して無効にできます。ローカルキューのラベル付けポリシーの詳細は、ローカルキューの強制使用 を参照してください。
注記これまで Kueue ローカルキューを使用して Ray クラスターリソースを管理していなかった場合は、この機能により、重大な変更が生じる可能性があります。
- RStudio Server ノートブックイメージ
RStudio Server ノートブックイメージを使用すると、R の統合開発環境である RStudio IDE にアクセスできます。R プログラミング言語は、データ分析と予測をサポートする統計コンピューティングとグラフィックスに使用されます。
RStudio Server ノートブックイメージを使用するには、まずシークレットを作成し、
BuildConfig
をトリガーしてイメージをビルドします。次に、rstudio-rhel9
イメージストリームを編集して OpenShift AI UI でイメージを有効にする必要があります。詳細は、RStudio Server ワークベンチイメージのビルド を参照してください。重要免責事項: Red Hat は、OpenShift AI のワークベンチの管理をサポートしています。ただし、Red Hat は RStudio ソフトウェアのサポートを提供していません。RStudio Server は rstudio.org から入手できます。RStudio Server には RStudio のライセンス条項が適用されます。このサンプルワークベンチを使用する前に、ライセンス条項を確認してください。
- CUDA - RStudio Server ノートブックイメージ
CUDA - RStudio Server ノートブックイメージを使用すると、RStudio IDE および NVIDIA CUDA Toolkit にアクセスできます。RStudio IDE は、統計コンピューティングおよびグラフィックス用の R プログラミング言語の統合開発環境です。NVIDIA CUDA Toolkit を使用すると、GPU により高速化されたライブラリーと最適化ツールを使用して作業を強化できます。
CUDA - RStudio Server ノートブックイメージを使用するには、まずシークレットを作成し、
BuildConfig
をトリガーしてイメージをビルドします。次に、rstudio-rhel9
イメージストリームを編集して OpenShift AI UI でイメージを有効にする必要があります。詳細は、RStudio Server ワークベンチイメージのビルド を参照してください。重要免責事項: Red Hat は、OpenShift AI のワークベンチの管理をサポートしています。ただし、Red Hat は RStudio ソフトウェアのサポートを提供していません。RStudio Server は rstudio.org から入手できます。RStudio Server には RStudio のライセンス条項が適用されます。このサンプルワークベンチを使用する前に、ライセンス条項を確認してください。
CUDA - RStudio Server ノートブックイメージには、NVIDIA CUDA テクノロジーが含まれています。CUDA のライセンス情報は、CUDA Toolkit のドキュメントで入手できます。このサンプルワークベンチを使用する前に、ライセンス条項を確認してください。
- モデルレジストリー
- OpenShift AI が Model Registry Operator をサポートするようになりました。Model Registry Operator は、テクノロジープレビューモードではデフォルトではインストールされていません。モデルレジストリーは、機械学習モデルの開始からデプロイメントまでに関するメタデータを格納する中央リポジトリーです。
- モデル保存用の OCI コンテナー
モデルサービングには、クラウドストレージサービスの代替として OCI ストレージを使用できます。まず、モデルを格納する OCI コンテナーイメージを作成します。イメージは、Quay などの OCI 互換レジストリーにアップロードされます。その後、モデルのデプロイ時に、モデルサービングプラットフォームはコンテナー化されたモデルのリポジトリーを参照します。
OCI コンテナーの使用には、次のような利点があります。
- クラスターがダウンロードしたイメージのキャッシュを保持するため、起動時間が短縮されます。モデル Pod を再起動しても、モデルは再度ダウンロードされません。
- Pod が同じノードにスケジューリングされている場合、各 Pod レプリカにモデルがダウンロードされないため、ディスク領域の使用量が少なくなります。
- イメージのプリフェッチや非同期読み込み時のパフォーマンスが向上します。
- KServe と簡単に統合できるため、互換性と統合性を確保できます。追加の依存関係は必要なく、インフラストラクチャーはすでに利用可能である可能性があります。
- 非常に大規模なモデルのマルチノードデプロイメントのサポート
- シングルモデルサービングランタイムの使用時に、複数のグラフィカルプロセッシングユニット (GPU) ノードを介してモデルを提供することが、テクノロジープレビュー機能として利用できるようになりました。大規模言語モデル (LLM) などの大規模なモデルをデプロイする際の効率を向上させるには、複数の GPU ノードにモデルをデプロイします。詳細は、複数の GPU ノードにわたるモデルのデプロイ を参照してください。