第2章 新機能および機能拡張
このセクションでは、Red Hat OpenShift AI 2.25 の新機能と機能拡張を説明します。
2.1. 新機能 リンクのコピーリンクがクリップボードにコピーされました!
- モデルレジストリーとモデルカタログが一般提供されました
OpenShift AI モデルレジストリーとモデルカタログが一般提供 (GA) 機能として利用できるようになりました。
モデルレジストリーは、管理者とデータサイエンティストが AI モデルをデプロイメント用に設定する前に、AI モデルの登録、バージョン管理、ライフサイクル管理を行うための中央リポジトリーとして機能します。モデルレジストリーは、AI モデルガバナンスの重要なコンポーネントです。
モデルカタログは、データサイエンティストや AI エンジニアが、利用可能な生成 AI モデルを検出して評価し、自身のユースケースに最適なものを見つけることができる、キュレートされたライブラリーを提供します。
- LLM Compressor ライブラリーが OpenShift AI ワークベンチのイメージとパイプラインに追加されました
LLM Compressor ライブラリーが一般提供され、標準の OpenShift AI ワークベンチのイメージとパイプラインに完全に統合されました。
このライブラリーは、OpenShift AI 環境を離れることなく、大規模言語モデルの推論性能を向上させるための最適化 (特に vLLM へのデプロイメント向け) を、サポートされた統合的な手法で行うことができます。モデル圧縮は、インタラクティブなノートブックタスクとして、またはパイプライン内のバッチジョブとして実行できるため、ハードウェアコストが大幅に削減され、生成 AI ワークロードの推論速度が向上します。
- パイプラインで既存の Argo Workflows インスタンスを使用する
Data Science Pipelines に含まれるインスタンスの代わりに、既存の Argo Workflows インスタンスを使用するように OpenShift AI を設定できます。この機能は、独自の Argo Workflows 環境を維持するユーザーをサポートし、Argo Workflows がすでにデプロイされているクラスターでのパイプラインの導入を簡素化します。
新しいグローバル設定オプションにより、組み込み Argo WorkflowControllers のデプロイメントが無効になり、すでに Argo Workflows を使用しているクラスターが競合することなくパイプラインと統合できるようになります。クラスター管理者は、組み込みコントローラーをデプロイするか、独自の Argo インスタンスを使用して両方のライフサイクルを個別に管理するかを選択できます。詳細は、独自の Argo Workflows インスタンスを使用したパイプラインの設定 を参照してください。
- ワークベンチイメージのサポートが追加されました
- JupyterLab および code-server IDE 用の OpenShift AI で Python 3.12 ワークベンチイメージをインストールおよびアップグレードできるようになりました。