第3章 テクノロジープレビュー機能
このセクションでは、Red Hat OpenShift AI のテクノロジープレビュー機能を説明します。テクノロジープレビュー機能は、Red Hat 製品のサービスレベルアグリーメント (SLA) の対象外であり、機能的に完全ではないことがあります。Red Hat では、実稼働環境での使用を推奨していません。テクノロジープレビュー機能は、最新の製品機能をいち早く提供して、開発段階で機能のテストを行い、フィードバックを提供していただくことを目的としています。
Red Hat のテクノロジープレビュー機能のサポート範囲に関する詳細は、テクノロジープレビュー機能のサポート範囲 を参照してください。
- RStudio Server ノートブックイメージ
RStudio Server ノートブックイメージを使用すると、R の統合開発環境である RStudio IDE にアクセスできます。R プログラミング言語は、データ分析と予測をサポートする統計コンピューティングとグラフィックスに使用されます。
RStudio Server ノートブックイメージを使用するには、まずシークレットを作成し、
BuildConfig
をトリガーしてイメージをビルドします。次に、rstudio-rhel9
イメージストリームを編集して OpenShift AI UI でイメージを有効にする必要があります。詳細は、RStudio Server ワークベンチイメージのビルド を参照してください。
免責事項: Red Hat は、OpenShift AI のワークベンチの管理をサポートしています。ただし、Red Hat は RStudio ソフトウェアのサポートを提供していません。RStudio Server は rstudio.org から入手できます。RStudio Server には RStudio のライセンス条項が適用されます。このサンプルワークベンチを使用する前に、ライセンス条項を確認してください。
- CUDA - RStudio Server ノートブックイメージ
CUDA - RStudio Server ノートブックイメージを使用すると、RStudio IDE および NVIDIA CUDA Toolkit にアクセスできます。RStudio IDE は、統計コンピューティングおよびグラフィックス用の R プログラミング言語の統合開発環境です。NVIDIA CUDA Toolkit を使用すると、GPU により高速化されたライブラリーと最適化ツールを使用して作業を強化できます。
CUDA - RStudio Server ノートブックイメージを使用するには、まずシークレットを作成し、
BuildConfig
をトリガーしてイメージをビルドします。次に、rstudio-rhel9
イメージストリームを編集して OpenShift AI UI でイメージを有効にする必要があります。詳細は、RStudio Server ワークベンチイメージのビルド を参照してください。
免責事項: Red Hat は、OpenShift AI のワークベンチの管理をサポートしています。ただし、Red Hat は RStudio ソフトウェアのサポートを提供していません。RStudio Server は rstudio.org から入手できます。RStudio Server には RStudio のライセンス条項が適用されます。このサンプルワークベンチを使用する前に、ライセンス条項を確認してください。
CUDA - RStudio Server ノートブックイメージには、NVIDIA CUDA テクノロジーが含まれています。CUDA のライセンス情報は、CUDA Toolkit のドキュメントで入手できます。このサンプルワークベンチを使用する前に、ライセンス条項を確認してください。
- code-server ワークベンチイメージ
Red Hat OpenShift AI に、
code-server
ワークベンチイメージが追加されました。詳細は、GitHub の code-server を参照してください。code-server
ワークベンチイメージを使用すると、さまざまなエクステンションを使用して新しい言語、テーマ、デバッガーを追加したり、追加サービスに接続したりして、ワークベンチ環境をカスタマイズできます。構文の強調表示、自動インデント、括弧の一致により、データサイエンス作業の効率も向上します。
Elyra ベースのパイプラインは、code-server
ワークベンチイメージでは使用できません。
現在、code-server
ワークブックイメージは Red Hat OpenShift AI でテクノロジープレビュー機能として利用できます。
- AMD GPU のサポート
- AMD ROCm ワークベンチイメージは、AMD グラフィックスプロセッシングユニット (GPU) Operator のサポートを追加し、コンピュートを集中的に使用するアクティビティーの処理パフォーマンスを大幅に向上させます。これにより、AI ワークロードと幅広いモデルをサポートするドライバー、開発ツール、API にアクセスできるようになります。さらに、AMD ROCm ワークベンチイメージには、TensorFlow や PyTorch などの AI フレームワークをサポートする機械学習ライブラリーが含まれています。テクノロジープレビューリリースでは、AMD GPU を使用したサービングおよびトレーニング/チューニングのユースケースを調査するために使用できるイメージにもアクセスできます。
- モデルレジストリー
- OpenShift AI が Model Registry Operator をサポートするようになりました。Model Registry Operator は、テクノロジープレビューモードではデフォルトではインストールされていません。モデルレジストリーは、機械学習モデルの開始からデプロイメントまでに関するメタデータを格納する中央リポジトリーです。
- NVIDIA NIM モデルサービングプラットフォーム
- NVIDIA NIM モデルサービングプラットフォームを使用すると、OpenShift AI で NVIDIA NIM 推論サービスを使用して NVIDIA に最適化されたモデルをデプロイできます。NVIDIA AI Enterprise の一部である NVIDIA NIM は、クラウド、データセンター、ワークステーション全体にわたる高性能 AI モデル推論の安全で信頼性の高いデプロイメントを目的として設計された、使いやすいマイクロサービスのセットです。オープンソースコミュニティーや NVIDIA AI Foundation モデルを含む幅広い AI モデルをサポートし、業界標準の API を活用して、オンプレミスでもクラウドでもシームレスでスケーラブルな AI 推論を実現します。OpenShift AI で NVIDIA NIM モデルサービングプラットフォームを有効にするには、NVIDIA AI Enterprise ライセンスキーが必要です。
詳細は、About the NVIDIA NIM model serving platform を参照してください。
- モデルストレージ用の OCI コンテナー
OCI ストレージは、モデル提供のクラウドストレージサービスの代わりに使用できます。まず、モデルを含む OCI コンテナーイメージを作成します。イメージは、Quay などの OCI 互換レジストリーにアップロードされます。後にモデルをデプロイすると、モデル提供プラットフォームがコンテナー化モデルのリポジトリーを参照します。
OCI コンテナーを使用すると、次の利点があります。
- クラスターがダウンロードしたイメージのキャッシュを保持するため、起動時間が短縮されます。モデル Pod を再起動しても、モデルが再度ダウンロードされません。
- 各 Pod レプリカにモデルがダウンロードされないため、ディスク領域の低下が軽減されます(Pod が同じノードでスケジュールされていることを前提とします)。
- イメージまたは非同期読み込みの事前フェッチ時のパフォーマンスの強化。
- 互換性および統合は、KServe と簡単に統合できるためです。追加の依存関係は不要であり、インフラストラクチャーがすでに利用できる可能性があります。