第2章 新機能および機能拡張


このセクションでは、Red Hat OpenShift AI 2.25 の新機能と機能拡張を説明します。

2.1. 新機能

モデルレジストリーとモデルカタログが一般提供されました

OpenShift AI モデルレジストリーとモデルカタログが一般提供 (GA) 機能として利用できるようになりました。

モデルレジストリーは、管理者とデータサイエンティストが AI モデルをデプロイメント用に設定する前に、AI モデルの登録、バージョン管理、ライフサイクル管理を行うための中央リポジトリーとして機能します。モデルレジストリーは、AI モデルガバナンスの重要なコンポーネントです。

モデルカタログは、データサイエンティストや AI エンジニアが、利用可能な生成 AI モデルを検出して評価し、自身のユースケースに最適なものを見つけることができる、キュレートされたライブラリーを提供します。

LLM Compressor ライブラリーが OpenShift AI ワークベンチのイメージとパイプラインに追加されました

LLM Compressor ライブラリーが一般提供され、標準の OpenShift AI ワークベンチのイメージとパイプラインに完全に統合されました。

このライブラリーは、OpenShift AI 環境を離れることなく、大規模言語モデルの推論性能を向上させるための最適化 (特に vLLM へのデプロイメント向け) を、サポートされた統合的な手法で行うことができます。モデル圧縮は、インタラクティブなノートブックタスクとして、またはパイプライン内のバッチジョブとして実行できるため、ハードウェアコストが大幅に削減され、生成 AI ワークロードの推論速度が向上します。

パイプラインで既存の Argo Workflows インスタンスを使用する

Data Science Pipelines に含まれるインスタンスの代わりに、既存の Argo Workflows インスタンスを使用するように OpenShift AI を設定できます。この機能は、独自の Argo Workflows 環境を維持するユーザーをサポートし、Argo Workflows がすでにデプロイされているクラスターでのパイプラインの導入を簡素化します。

新しいグローバル設定オプションにより、組み込み Argo WorkflowControllers のデプロイメントが無効になり、すでに Argo Workflows を使用しているクラスターが競合することなくパイプラインと統合できるようになります。クラスター管理者は、組み込みコントローラーをデプロイするか、独自の Argo インスタンスを使用して両方のライフサイクルを個別に管理するかを選択できます。詳細は、独自の Argo Workflows インスタンスを使用したパイプラインの設定 を参照してください。

ワークベンチイメージのサポートが追加されました
JupyterLab および code-server IDE 用の OpenShift AI で Python 3.12 ワークベンチイメージをインストールおよびアップグレードできるようになりました。
トップに戻る
Red Hat logoGithubredditYoutubeTwitter

詳細情報

試用、購入および販売

コミュニティー

Red Hat ドキュメントについて

Red Hat をお使いのお客様が、信頼できるコンテンツが含まれている製品やサービスを活用することで、イノベーションを行い、目標を達成できるようにします。 最新の更新を見る.

多様性を受け入れるオープンソースの強化

Red Hat では、コード、ドキュメント、Web プロパティーにおける配慮に欠ける用語の置き換えに取り組んでいます。このような変更は、段階的に実施される予定です。詳細情報: Red Hat ブログ.

会社概要

Red Hat は、企業がコアとなるデータセンターからネットワークエッジに至るまで、各種プラットフォームや環境全体で作業を簡素化できるように、強化されたソリューションを提供しています。

Theme

© 2025 Red Hat