2.2. 機能拡張
- OAuth プロキシーサイドカーリソース割り当てのカスタマイズのサポート
ワークベンチ Pod 内の OAuth プロキシーサイドカーの CPU およびメモリーの要求と制限をカスタマイズできるようになりました。これを行うには、ノートブックのカスタムリソース (CR) に次のアノテーションを 1 つ以上追加します。
-
notebooks.opendatahub.io/auth-sidecar-cpu-request -
notebooks.opendatahub.io/auth-sidecar-memory-request -
notebooks.opendatahub.io/auth-sidecar-cpu-limit notebooks.opendatahub.io/auth-sidecar-memory-limitこれらのアノテーションを指定しない場合、サイドカーは下位互換性を維持するために、デフォルト値の 100m CPU と 64Mi メモリーを使用します。アノテーションを追加または変更した後、新しいリソース割り当てを有効にするには、ワークベンチを再起動する必要があります。
アノテーションの値は、Kubernetes リソースユニット規則に従う必要があります。詳細は、Resource units in Kubernetes を参照してください。
-
- 強化されたワークベンチ認証
-
OpenShift AI でのワークベンチ認証がよりスムーズになりました。新しいワークベンチを作成すると、リコンサイラーによって必要な
OAuthClientが自動的に生成されるため、oauth-proxyコンテナーに手動で権限を付与する必要がなくなります。
- 柔軟なストレージクラス管理のサポート
- このリリースでは、管理者は、OpenShift AI のプロジェクトまたはワークベンチにクラスターストレージを追加するときに、ストレージクラスに対してサポートされている任意のアクセスモードを選択できるようになりました。この機能拡張により、サポートされていないストレージクラスや誤ったアクセスモードの想定によって発生するデプロイメントの問題が解消されます。
- Grace Hopper Arm プラットフォームへのデプロイメントのサポート
- OpenShift AI を Grace Hopper Arm プラットフォームにデプロイできるようになりました。この機能拡張により、ハードウェアの互換性が x86 アーキテクチャーを超えて拡張され、Arm ベースの NVIDIA Grace Hopper システムでワークロードをデプロイおよび実行できるようになります。これらのシステムは、AI および機械学習のワークロードに対し、スケーラブルで電力効率が高く、かつ高性能な環境を提供します。
次のコンポーネントとイメージバリアントは現在利用できません。
-
pytorchおよびpytorch+llmcompressorのワークベンチとパイプラインランタイムのイメージ - CUDA アクセラレーション対応 Kubeflow トレーニングイメージ
-
fms-hf-tuningイメージ
- Kubernetes API を使用したパイプラインの定義および管理
Kubernetes API を使用してデータサイエンスパイプラインとパイプラインバージョンを定義および管理できるようになりました。この方法では、パイプラインとパイプラインバージョンが、内部データベースではなくクラスター内のカスタムリソースとして保存されます。この機能拡張により、OpenShift GitOps (Argo CD) や同様のツールを使用してパイプラインを管理しやすくなると同時に、OpenShift AI ユーザーインターフェイス、API、
kfpSDK を通じてパイプラインを管理することもできます。このオプションはデフォルトで有効になっており、パイプラインサーバーを作成または編集するときに Store pipeline definitions in Kubernetes チェックボックスで設定できます。OpenShift AI 管理者およびプロジェクト所有者は、
DataSciencePipelinesApplication(DSPA) カスタムリソースでspec.apiServer.pipelineStoreフィールドをkubernetesまたはdatabaseに設定することで、このオプションを設定することもできます。詳細は、Kubernetes API を使用したパイプラインの定義 を参照してください。
- DataScienceCluster (DSC) リソースを使用して TrustyAI グローバル設定を行うためのサポートが追加されました
-
管理者は、DSC インターフェイスを介して LMEval の
allowOnlineやallowCodeExecutionなどの設定を宣言的に管理できるようになり、変更は TrustyAI Operator に自動的に伝播されます。これにより、TrustyAI 設定が他の OpenShift AI コンポーネントと統合され、手動での ConfigMap 編集や Operator の再起動が不要になります。
- 不要なファイルをゴミ箱ディレクトリーに移動するためのサポートが追加されました
- 不要なファイルを Jupyter Notebook のゴミ箱ディレクトリーに移動して完全に削除することで、コンテナーストレージを増やすことができるようになりました。これらのファイルを削除するには、Jupyter Notebook のツールバーにある Move to Trash アイコンをクリックし、ゴミ箱ディレクトリー内を参照します。完全に削除したいファイルを選択し、ノートブックストレージがいっぱいにならないように削除します。
- ワークベンチのイメージを更新しました
- 新しいワークベンチイメージのセットが利用可能になりました。これらの事前に構築されたワークベンチイメージとアップグレードされたパッケージには、データ分析と調査用の Python ライブラリーとフレームワークに加えて、コンピュート集中型タスクを高速化する CUDA および ROCm パッケージも含まれています。さらに、RStudio および code-server 用のランタイムと更新された IDE も備えています。