2.2. 機能拡張
- 永続ボリューム要求 (PVC) からのモデルのサービングをサポートするように
- Red Hat OpenShift AI は、既存のクラスターストレージから直接モデルをサービングできるようになりました。この機能を使用すると、既存の永続ボリューム要求 (PVC) の場所からモデルをサービングし、インターフェイス内でモデルストレージ用の新しい PVC を作成できます。
- プロジェクト内の全パイプラインのキャッシングを無効にする新しいオプション
パイプラインサーバー内のすべてのデータサイエンスパイプラインのキャッシュを無効にできるようになりました。これにより、すべてのパイプラインおよびタスクレベルのキャッシュ設定がオーバーライドされます。このグローバル設定は、デバッグ、開発、確定的な再実行が必要な場合などに役立ちます。
このオプションは、パイプラインサーバーを作成または編集するときに Allow caching to be configured per pipeline and task チェックボックスで設定できます。クラスター管理者は、この
spec.apiServer.cacheEnabledオプションを設定することもできます。デフォルトでは、このフィールドは true に設定されています。クラスター全体でキャッシュを無効にするには、このフィールドを false に設定します。詳細は、データサイエンスパイプラインのキャッシングの概要 を参照してください。
- Quay から Red Hat Registry への実稼働環境イメージの移行
- 現在のサポートモデルである RHOAI 実稼働イメージは、Quay から Red Hat Registry に移行されました。これらのイメージは、リリースチャネルで定義された更新を引き続き受信します。過去にリリースされたイメージは Quay に残ります。
- JupyterLab のバージョンが更新された
- JupyterLab がバージョン 4.2 から 4.4 に更新されました。この更新には、フォルダーを右クリックしたときに表示される Move to Trash ドロップダウンオプションのほか、その他のバグ修正と機能強化が含まれています。
- vLLM コンポーネントのバージョンの更新
OpenShift AI は、記載されている各コンポーネントに対して次の vLLM バージョンをサポートしています。
- vLLM CUDA: v0.10.0.2
- vLLM ROCm: v0.10.0.2
- vLLM Gaudi: v0.10.0.2
- vLLM Power/Z: v0.10.0.2
- Openvino Model Server: v2025.2.1
詳細は、GitHub の vllm を参照してください。