2.2. 機能拡張


OAuth プロキシーサイドカーリソース割り当てのカスタマイズのサポート

ワークベンチ Pod 内の OAuth プロキシーサイドカーの CPU およびメモリーの要求と制限をカスタマイズできるようになりました。これを行うには、ノートブックのカスタムリソース (CR) に次のアノテーションを 1 つ以上追加します。

  • notebooks.opendatahub.io/auth-sidecar-cpu-request
  • notebooks.opendatahub.io/auth-sidecar-memory-request
  • notebooks.opendatahub.io/auth-sidecar-cpu-limit
  • notebooks.opendatahub.io/auth-sidecar-memory-limit

    これらのアノテーションを指定しない場合、サイドカーは下位互換性を維持するために、デフォルト値の 100m CPU と 64Mi メモリーを使用します。アノテーションを追加または変更した後、新しいリソース割り当てを有効にするには、ワークベンチを再起動する必要があります。

    アノテーションの値は、Kubernetes リソースユニット規則に従う必要があります。詳細は、Resource units in Kubernetes を参照してください。

強化されたワークベンチ認証
OpenShift AI でのワークベンチ認証がよりスムーズになりました。新しいワークベンチを作成すると、リコンサイラーによって必要な OAuthClient が自動的に生成されるため、oauth-proxy コンテナーに手動で権限を付与する必要がなくなります。
柔軟なストレージクラス管理のサポート
このリリースでは、管理者は、OpenShift AI のプロジェクトまたはワークベンチにクラスターストレージを追加するときに、ストレージクラスに対してサポートされている任意のアクセスモードを選択できるようになりました。この機能拡張により、サポートされていないストレージクラスや誤ったアクセスモードの想定によって発生するデプロイメントの問題が解消されます。
Grace Hopper Arm プラットフォームへのデプロイメントのサポート
OpenShift AI を Grace Hopper Arm プラットフォームにデプロイできるようになりました。この機能拡張により、ハードウェアの互換性が x86 アーキテクチャーを超えて拡張され、Arm ベースの NVIDIA Grace Hopper システムでワークロードをデプロイおよび実行できるようになります。これらのシステムは、AI および機械学習のワークロードに対し、スケーラブルで電力効率が高く、かつ高性能な環境を提供します。
注記

次のコンポーネントとイメージバリアントは現在利用できません。

  • pytorch および pytorch+llmcompressor のワークベンチとパイプラインランタイムのイメージ
  • CUDA アクセラレーション対応 Kubeflow トレーニングイメージ
  • fms-hf-tuning イメージ
Kubernetes API を使用したパイプラインの定義および管理

Kubernetes API を使用してデータサイエンスパイプラインとパイプラインバージョンを定義および管理できるようになりました。この方法では、パイプラインとパイプラインバージョンが、内部データベースではなくクラスター内のカスタムリソースとして保存されます。この機能拡張により、OpenShift GitOps (Argo CD) や同様のツールを使用してパイプラインを管理しやすくなると同時に、OpenShift AI ユーザーインターフェイス、API、kfp SDK を通じてパイプラインを管理することもできます。

このオプションはデフォルトで有効になっており、パイプラインサーバーを作成または編集するときに Store pipeline definitions in Kubernetes チェックボックスで設定できます。OpenShift AI 管理者およびプロジェクト所有者は、DataSciencePipelinesApplication (DSPA) カスタムリソースで spec.apiServer.pipelineStore フィールドを kubernetes または database に設定することで、このオプションを設定することもできます。詳細は、Kubernetes API を使用したパイプラインの定義 を参照してください。

DataScienceCluster (DSC) リソースを使用して TrustyAI グローバル設定を行うためのサポートが追加されました
管理者は、DSC インターフェイスを介して LMEval の allowOnlineallowCodeExecution などの設定を宣言的に管理できるようになり、変更は TrustyAI Operator に自動的に伝播されます。これにより、TrustyAI 設定が他の OpenShift AI コンポーネントと統合され、手動での ConfigMap 編集や Operator の再起動が不要になります。
不要なファイルをゴミ箱ディレクトリーに移動するためのサポートが追加されました
不要なファイルを Jupyter Notebook のゴミ箱ディレクトリーに移動して完全に削除することで、コンテナーストレージを増やすことができるようになりました。これらのファイルを削除するには、Jupyter Notebook のツールバーにある Move to Trash アイコンをクリックし、ゴミ箱ディレクトリー内を参照します。完全に削除したいファイルを選択し、ノートブックストレージがいっぱいにならないように削除します。
ワークベンチのイメージを更新しました
新しいワークベンチイメージのセットが利用可能になりました。これらの事前に構築されたワークベンチイメージとアップグレードされたパッケージには、データ分析と調査用の Python ライブラリーとフレームワークに加えて、コンピュート集中型タスクを高速化する CUDA および ROCm パッケージも含まれています。さらに、RStudio および code-server 用のランタイムと更新された IDE も備えています。
トップに戻る
Red Hat logoGithubredditYoutubeTwitter

詳細情報

試用、購入および販売

コミュニティー

Red Hat ドキュメントについて

Red Hat をお使いのお客様が、信頼できるコンテンツが含まれている製品やサービスを活用することで、イノベーションを行い、目標を達成できるようにします。 最新の更新を見る.

多様性を受け入れるオープンソースの強化

Red Hat では、コード、ドキュメント、Web プロパティーにおける配慮に欠ける用語の置き換えに取り組んでいます。このような変更は、段階的に実施される予定です。詳細情報: Red Hat ブログ.

会社概要

Red Hat は、企業がコアとなるデータセンターからネットワークエッジに至るまで、各種プラットフォームや環境全体で作業を簡素化できるように、強化されたソリューションを提供しています。

Theme

© 2025 Red Hat