第3章 新機能および機能拡張
このセクションでは、Red Hat OpenShift AI 3.0 の新機能と機能拡張を説明します。
3.1. 新機能 リンクのコピーリンクがクリップボードにコピーされました!
- PyTorch v2.8.0 KFTO トレーニングイメージが一般提供されました
OpenShift AI で分散ワークロード向けに PyTorch v2.8.0 トレーニングイメージを使用できるようになりました。
以下の新しいイメージが利用可能です。
-
ROCm 互換 KFTO トレーニングイメージ:
quay.io/modh/training:py312-rocm63-torch280ROCm 6.3 でサポートされている AMD アクセラレーターと互換性があります。 -
CUDA 互換 KFTO トレーニングイメージ:
quay.io/modh/training:py312-cuda128-torch280CUDA 12.8 でサポートされている NVIDIA GPU と互換性があります。
-
ROCm 互換 KFTO トレーニングイメージ:
- ハードウェアプロファイル
新しい Hardware Profiles 機能が、以前の Accelerator Profiles とワークベンチの従来の Container Size セレクターを置き換えます。
ハードウェアプロファイルは、AI ワークロードのコンピュート設定を定義するためのより柔軟で一貫性のある方法を提供し、さまざまなハードウェアタイプにわたるリソース管理を簡素化します。
重要Accelerator Profiles と従来の Container Size セレクターは非推奨となり、今後のリリースで削除される予定です。
- Connections API が一般提供されました
Connections API は、OpenShift AI の一般提供 (GA) 機能として利用できるようになりました。
この API を使用すると、OpenShift AI 内で直接、外部データソースおよびサービスへの接続を作成および管理できます。接続は標準化されたアノテーション付きの Kubernetes Secrets として保存され、統合されたコンポーネント間でのプロトコルベースの検証とルーティングが可能になります。
- IBM Power および IBM Z アーキテクチャーのサポート
OpenShift AI は、IBM Power (ppc64le) および IBM Z (s390x) アーキテクチャーをサポートするようになりました。
この拡張されたプラットフォームサポートにより、IBM エンタープライズハードウェア上に AI および機械学習のワークロードをデプロイメントできるようになり、異機種環境全体で柔軟性とスケーラビリティーがさらに向上します。
サポートされているソフトウェアプラットフォーム、コンポーネント、依存関係の詳細は、ナレッジベースの記事 3.x でサポートされる構成 を参照してください。
- TrustyAI 向け IBM Power および IBM Z アーキテクチャーのサポート
TrustyAI は現在、IBM Power (ppc64le) および IBM Z (s390x) アーキテクチャーの一般提供 (GA) 機能として利用できます。
TrustyAI は、責任ある透明性の高い AI ワークフローをサポートするツールスイートを提供するオープンソースの Responsible AI ツールキットです。これは、公平性およびデータドリフトのメトリクス、ローカルおよびグローバルなモデルの説明、テキストの無害化、言語モデルのベンチマーキング、および言語モデルのガードレールといった機能を提供します。
これらの機能は、IBM Power および IBM Z システム上の OpenShift AI 環境内において、AI システムの透明性、説明責任、および倫理的な利用を確保するのに役立ちます。
- Model Registry 向け IBM Power および IBM Z アーキテクチャーのサポート
Model Registry が IBM Power (ppc64le) および IBM Z (s390x) アーキテクチャーで利用できるようになりました。
Model Registry は、AI および機械学習 (AI/ML) モデルのライフサイクルの管理を簡素化および標準化するオープンソースコンポーネントです。これは、モデルの保存、バージョン管理、およびガバナンスのための一元化されたプラットフォームを提供し、データサイエンスチームと MLOps チーム間のシームレスなコラボレーションを可能にします。
Model Registry は、IBM Power および IBM Z システム上で、モデルのバージョン管理とリネージ追跡、メタデータ管理とモデルの検出、モデルの承認とプロモーションのワークフロー、CI/CD およびデプロイメントパイプラインとの統合、ならびにガバナンス、監査可能性、およびコンプライアンスの各機能をサポートします。
- ノートブック向け IBM Power および IBM Z アーキテクチャーのサポート
ノートブックは、IBM Power (ppc64le) および IBM Z (s390x) アーキテクチャーで利用できるようになりました。
ノートブックは、OpenShift AI エコシステム内でのデータサイエンス、機械学習、研究、コーディングのためのコンテナー化されたブラウザーベースの開発環境を提供します。これらの環境は Workbench を通じて起動でき、次のオプションが含まれます。
- Jupyter Minimal ノートブック: 基本的な Python 開発とモデルのプロトタイピングのための軽量な JupyterLab IDE。
- Jupyter Data Science ノートブック: エンドツーエンドのワークフロー向けに、一般的なデータサイエンスライブラリーとツールが事前設定されています。
- Jupyter TrustyAI ノートブック: モデルの説明可能性、公平性、データドリフトの検出、テキストの無害化などの Responsible AI タスクのための環境。
- Code Server: 使い慣れた IDE 機能を使用して共同開発を行うためのブラウザーベースの VS Code 環境。
- Runtime Minimal と Runtime Data Science: 自動化されたワークフローと一貫したパイプライン実行のためのヘッドレス環境。
- Feature Store 向け IBM Power アーキテクチャーのサポート
Feature Store が IBM Power (ppc64le) アーキテクチャーでサポートされるようになりました。
このサポートにより、ユーザーは OpenShift AI と完全に統合され、IBM Power ベースの環境で直接、機械学習モデルの特徴量を構築、登録、および管理することが可能になります。
- AI Pipelines 向け IBM Power アーキテクチャーのサポート
AI Pipelines が IBM Power (ppc64le) アーキテクチャーでサポートされるようになりました。
この機能により、ユーザーは AI ワークロード向けの IBM Power システムのパフォーマンスとスケーラビリティーを活用しながら、OpenShift AI 内で AI パイプラインをネイティブに定義、実行、および監視することが可能になります。
IBM Power システムで実行される AI パイプラインは、x86 デプロイメントと機能的に同等性を維持します。
- IBM Power アクセラレーション Triton Inference Server のサポート
FIL、PyTorch、Python、ONNX バックエンドを使用して、Triton Inference Server (CPU のみ) の Power アーキテクチャーサポートを有効化できるようになりました。Triton Inference Server を、Red Hat OpenShift AI の IBM Power アーキテクチャー上のカスタムモデルサービングランタイムとしてデプロイできます。
詳細は、Triton Inference Server image を参照してください。
- IBM Z アクセラレーション Triton Inference Server のサポート
ONNX-MLIR、Snap ML (C++)、PyTorch などの複数のバックエンドオプションを使用して、Triton Inference Server (Telum I/Telum II) の Z アーキテクチャーサポートを有効にできるようになりました。Triton Inference Server は、Red Hat OpenShift AI のテクノロジープレビュー機能として、IBM Z アーキテクチャー上でカスタムサービングランタイムとしてデプロイできます。
詳細は、IBM Z accelerated Triton Inference Server を参照してください。
- IBM Z プラットフォームにおける IBM Spyre AI Accelerator モデルサービングがサポートされます
IBM Spyre AI Accelerator を使用したモデルサービングが、IBM Z プラットフォームの一般提供 (GA) 機能として利用できるようになりました。
IBM Spyre Operator はインストールを自動化し、デバイスプラグイン、セカンダリースケジューラー、モニタリングなどの主要コンポーネントを統合します。
詳細は、IBM Spyre Operator カタログエントリー IBM Spyre Operator — Red Hat Ecosystem Catalog を参照してください。
注記IBM Z および IBM LinuxONE では、Red Hat OpenShift AI が vLLM と共に大規模言語モデル (LLM) を IBM Spyre 上にデプロイすることをサポートしています。Triton Inference Server は、Telum (CPU) でのみサポートされます。
詳細は、以下のドキュメントを参照してください。
- モデルカスタマイズコンポーネント
OpenShift AI 3.0 では、AI モデルの準備、微調整、およびデプロイのプロセスを合理化および強化する モデルカスタマイズコンポーネント のスイートが導入されています。
以下のコンポーネントが利用可能になりました。
- Red Hat AI Python Index: AI および機械学習ノートブックに役立つパッケージのサポート対象ビルドをホストする、Red Hat が管理する Python パッケージインデックス。Red Hat AI Python Index を使用すると、接続環境と非接続環境の両方でこれらのパッケージへの信頼性が高くセキュアなアクセスが確保されます。
- docling: PDF やイメージなどの非構造化ドキュメントを AI および ML ワークロード向けにクリーンな機械可読形式に変換する、高度なデータ処理用の強力な Python ライブラリー。
- Synthetic Data Generation Hub (sdg-hub): データセットの増強、モデルの堅牢性の向上、およびエッジケースへの対応のために、高品質な合成データを生成するためのツールキット。
- Training Hub: 独自のデータを使用して、基礎モデルの微調整とカスタマイズを簡素化および高速化するフレームワーク。
- Kubeflow Trainer: 基盤となるインフラストラクチャーの複雑さを抽象化しながら、モデルの分散トレーニングと微調整を可能にする Kubernetes ネイティブの機能。
- AI Pipelines: このスイート内の他のすべてのモデルカスタマイズモジュールを含む AI コンポーネント全体で設定可能なワークフローを構築するための Kubeflow ネイティブ機能。