リリースノート


Red Hat OpenShift AI Self-Managed 3.0

このリリースに関連する機能、機能拡張、解決された問題、および既知の問題

概要

このリリースノートでは、Red Hat OpenShift AI バージョン 3.0 の新機能、機能拡張、解決された問題、および既知の問題の概要を説明します。

第1章 OpenShift AI 3.0 へのアップグレードはサポート対象外

OpenShift AI 2.25 以前のバージョンから 3.0 にアップグレードすることはできません。OpenShift AI 3.0 では、重要な技術的およびコンポーネントの変更を導入しており、新規インストールのみを対象としています。OpenShift AI 3.0 を使用するには、OpenShift Container Platform 4.19 以降を実行しているクラスターに Red Hat OpenShift AI Operator をインストールし、fast-3.x チャネルを選択します。

OpenShift AI 2.25 から stable 3.x バージョンへのアップグレードを含むアップグレードのサポートは、今後のリリースで利用可能になります。

詳細は、ナレッジベースの記事 Why upgrades to OpenShift AI 3.0 are not supported を参照してください。

第2章 OpenShift AI の概要

Red Hat OpenShift AI は、人工知能および機械学習 (AI/ML) アプリケーションのデータサイエンティストおよび開発者向けのプラットフォームです。

OpenShift AI は、オンプレミスまたはクラウドで AI/ML モデルとアプリケーションを開発、トレーニング、提供、テスト、監視するための環境を提供します。

OpenShift AI には、データサイエンティスト向けに、Jupyter のほか、モデル開発に必要なツールとライブラリーで最適化されたデフォルトのワークベンチイメージ群、そして TensorFlow および PyTorch フレームワークが含まれています。モデルのデプロイおよびホスト、モデルの外部アプリケーションへの統合、任意のハイブリッドクラウド環境でホストするためのモデルのエクスポートを行います。Docker コンテナーを使用して AI パイプラインを備えたポータブルな機械学習 (ML) ワークフローを構築することで、OpenShift AI 上のプロジェクトを強化できます。グラフィックスプロセッシングユニット (GPU) と Intel Gaudi AI アクセラレーターを使用して、データサイエンスの実験を加速することもできます。

管理者向けに、OpenShift AI は、既存の Red Hat OpenShift または ROSA 環境で、データサイエンスワークロードを有効にします。既存の OpenShift アイデンティティープロバイダーを使用してユーザーを管理し、ワークベンチで利用可能なリソースを管理し、データサイエンティストがモデルの作成、トレーニング、ホストに必要なリソースを確実に入手できるようにします。アクセラレーターを使用するとコストを削減でき、データサイエンティストはグラフィックスプロセッシングユニット (GPU) と Intel Gaudi AI アクセラレーターを使用して、エンドツーエンドのデータサイエンスワークフローのパフォーマンスを向上できます。

OpenShift AI には、次の 2 つのデプロイ方法があります。

  • オンプレミスまたはクラウドにインストールできる セルフマネージド型ソフトウェア。OpenShift AI Self-Managed は、OpenShift Container Platform などのセルフマネージド環境、または Red Hat OpenShift Dedicated (AWS または GCP の Customer Cloud Subscription 付き)、Red Hat OpenShift Service on Amazon Web Services (ROSA classic または ROSA HCP)、Microsoft Azure Red Hat OpenShift などの Red Hat が管理するクラウド環境にインストールできます。
  • Red Hat OpenShift Dedicated (AWS または GCP の Customer Cloud Subscription を使用) または Red Hat OpenShift Service on Amazon Web Services (ROSA classic) にアドオンとしてインストールされる マネージドクラウドサービス

    OpenShift AI Cloud Service の詳細は、Red Hat OpenShift AI の製品ドキュメント を参照してください。

OpenShift AI でサポートされているソフトウェアプラットフォーム、コンポーネント、依存関係の詳細は、3.x でサポートされる構成 に関するナレッジベースの記事を参照してください。

3.0 リリースのライフサイクル (フルサポートフェーズ期間を含む) の詳細は、ナレッジベース記事 Red Hat OpenShift AI Self-Managed のライフサイクル を参照してください。

第3章 新機能および機能拡張

このセクションでは、Red Hat OpenShift AI 3.0 の新機能と機能拡張を説明します。

3.1. 新機能

PyTorch v2.8.0 KFTO トレーニングイメージが一般提供されました

OpenShift AI で分散ワークロード向けに PyTorch v2.8.0 トレーニングイメージを使用できるようになりました。

以下の新しいイメージが利用可能です。

  • ROCm 互換 KFTO トレーニングイメージ: quay.io/modh/training:py312-rocm63-torch280 ROCm 6.3 でサポートされている AMD アクセラレーターと互換性があります。
  • CUDA 互換 KFTO トレーニングイメージ: quay.io/modh/training:py312-cuda128-torch280 CUDA 12.8 でサポートされている NVIDIA GPU と互換性があります。
ハードウェアプロファイル

新しい Hardware Profiles 機能が、以前の Accelerator Profiles とワークベンチの従来の Container Size セレクターを置き換えます。

ハードウェアプロファイルは、AI ワークロードのコンピュート設定を定義するためのより柔軟で一貫性のある方法を提供し、さまざまなハードウェアタイプにわたるリソース管理を簡素化します。

重要

Accelerator Profiles と従来の Container Size セレクターは非推奨となり、今後のリリースで削除される予定です。

Connections API が一般提供されました

Connections API は、OpenShift AI の一般提供 (GA) 機能として利用できるようになりました。

この API を使用すると、OpenShift AI 内で直接、外部データソースおよびサービスへの接続を作成および管理できます。接続は標準化されたアノテーション付きの Kubernetes Secrets として保存され、統合されたコンポーネント間でのプロトコルベースの検証とルーティングが可能になります。

IBM Power および IBM Z アーキテクチャーのサポート

OpenShift AI は、IBM Power (ppc64le) および IBM Z (s390x) アーキテクチャーをサポートするようになりました。

この拡張されたプラットフォームサポートにより、IBM エンタープライズハードウェア上に AI および機械学習のワークロードをデプロイメントできるようになり、異機種環境全体で柔軟性とスケーラビリティーがさらに向上します。

サポートされているソフトウェアプラットフォーム、コンポーネント、依存関係の詳細は、ナレッジベースの記事 3.x でサポートされる構成 を参照してください。

TrustyAI 向け IBM Power および IBM Z アーキテクチャーのサポート

TrustyAI は現在、IBM Power (ppc64le) および IBM Z (s390x) アーキテクチャーの一般提供 (GA) 機能として利用できます。

TrustyAI は、責任ある透明性の高い AI ワークフローをサポートするツールスイートを提供するオープンソースの Responsible AI ツールキットです。これは、公平性およびデータドリフトのメトリクス、ローカルおよびグローバルなモデルの説明、テキストの無害化、言語モデルのベンチマーキング、および言語モデルのガードレールといった機能を提供します。

これらの機能は、IBM Power および IBM Z システム上の OpenShift AI 環境内において、AI システムの透明性、説明責任、および倫理的な利用を確保するのに役立ちます。

Model Registry 向け IBM Power および IBM Z アーキテクチャーのサポート

Model Registry が IBM Power (ppc64le) および IBM Z (s390x) アーキテクチャーで利用できるようになりました。

Model Registry は、AI および機械学習 (AI/ML) モデルのライフサイクルの管理を簡素化および標準化するオープンソースコンポーネントです。これは、モデルの保存、バージョン管理、およびガバナンスのための一元化されたプラットフォームを提供し、データサイエンスチームと MLOps チーム間のシームレスなコラボレーションを可能にします。

Model Registry は、IBM Power および IBM Z システム上で、モデルのバージョン管理とリネージ追跡、メタデータ管理とモデルの検出、モデルの承認とプロモーションのワークフロー、CI/CD およびデプロイメントパイプラインとの統合、ならびにガバナンス、監査可能性、およびコンプライアンスの各機能をサポートします。

ノートブック向け IBM Power および IBM Z アーキテクチャーのサポート

ノートブックは、IBM Power (ppc64le) および IBM Z (s390x) アーキテクチャーで利用できるようになりました。

ノートブックは、OpenShift AI エコシステム内でのデータサイエンス、機械学習、研究、コーディングのためのコンテナー化されたブラウザーベースの開発環境を提供します。これらの環境は Workbench を通じて起動でき、次のオプションが含まれます。

  • Jupyter Minimal ノートブック: 基本的な Python 開発とモデルのプロトタイピングのための軽量な JupyterLab IDE。
  • Jupyter Data Science ノートブック: エンドツーエンドのワークフロー向けに、一般的なデータサイエンスライブラリーとツールが事前設定されています。
  • Jupyter TrustyAI ノートブック: モデルの説明可能性、公平性、データドリフトの検出、テキストの無害化などの Responsible AI タスクのための環境。
  • Code Server: 使い慣れた IDE 機能を使用して共同開発を行うためのブラウザーベースの VS Code 環境。
  • Runtime MinimalRuntime Data Science: 自動化されたワークフローと一貫したパイプライン実行のためのヘッドレス環境。
Feature Store 向け IBM Power アーキテクチャーのサポート

Feature Store が IBM Power (ppc64le) アーキテクチャーでサポートされるようになりました。

このサポートにより、ユーザーは OpenShift AI と完全に統合され、IBM Power ベースの環境で直接、機械学習モデルの特徴量を構築、登録、および管理することが可能になります。

AI Pipelines 向け IBM Power アーキテクチャーのサポート

AI Pipelines が IBM Power (ppc64le) アーキテクチャーでサポートされるようになりました。

この機能により、ユーザーは AI ワークロード向けの IBM Power システムのパフォーマンスとスケーラビリティーを活用しながら、OpenShift AI 内で AI パイプラインをネイティブに定義、実行、および監視することが可能になります。

IBM Power システムで実行される AI パイプラインは、x86 デプロイメントと機能的に同等性を維持します。

IBM Power アクセラレーション Triton Inference Server のサポート

FIL、PyTorch、Python、ONNX バックエンドを使用して、Triton Inference Server (CPU のみ) の Power アーキテクチャーサポートを有効化できるようになりました。Triton Inference Server を、Red Hat OpenShift AI の IBM Power アーキテクチャー上のカスタムモデルサービングランタイムとしてデプロイできます。

詳細は、Triton Inference Server image を参照してください。

IBM Z アクセラレーション Triton Inference Server のサポート

ONNX-MLIR、Snap ML (C++)、PyTorch などの複数のバックエンドオプションを使用して、Triton Inference Server (Telum I/Telum II) の Z アーキテクチャーサポートを有効にできるようになりました。Triton Inference Server は、Red Hat OpenShift AI のテクノロジープレビュー機能として、IBM Z アーキテクチャー上でカスタムサービングランタイムとしてデプロイできます。

詳細は、IBM Z accelerated Triton Inference Server を参照してください。

IBM Z プラットフォームにおける IBM Spyre AI Accelerator モデルサービングがサポートされます

IBM Spyre AI Accelerator を使用したモデルサービングが、IBM Z プラットフォームの一般提供 (GA) 機能として利用できるようになりました。

IBM Spyre Operator はインストールを自動化し、デバイスプラグイン、セカンダリースケジューラー、モニタリングなどの主要コンポーネントを統合します。

詳細は、IBM Spyre Operator カタログエントリー IBM Spyre Operator — Red Hat Ecosystem Catalog を参照してください。

注記

IBM Z および IBM LinuxONE では、Red Hat OpenShift AI が vLLM と共に大規模言語モデル (LLM) を IBM Spyre 上にデプロイすることをサポートしています。Triton Inference Server は、Telum (CPU) でのみサポートされます。

詳細は、以下のドキュメントを参照してください。

モデルカスタマイズコンポーネント

OpenShift AI 3.0 では、AI モデルの準備、微調整、およびデプロイのプロセスを合理化および強化する モデルカスタマイズコンポーネント のスイートが導入されています。

以下のコンポーネントが利用可能になりました。

  • Red Hat AI Python Index: AI および機械学習ノートブックに役立つパッケージのサポート対象ビルドをホストする、Red Hat が管理する Python パッケージインデックス。Red Hat AI Python Index を使用すると、接続環境と非接続環境の両方でこれらのパッケージへの信頼性が高くセキュアなアクセスが確保されます。
  • docling: PDF やイメージなどの非構造化ドキュメントを AI および ML ワークロード向けにクリーンな機械可読形式に変換する、高度なデータ処理用の強力な Python ライブラリー。
  • Synthetic Data Generation Hub (sdg-hub): データセットの増強、モデルの堅牢性の向上、およびエッジケースへの対応のために、高品質な合成データを生成するためのツールキット。
  • Training Hub: 独自のデータを使用して、基礎モデルの微調整とカスタマイズを簡素化および高速化するフレームワーク。
  • Kubeflow Trainer: 基盤となるインフラストラクチャーの複雑さを抽象化しながら、モデルの分散トレーニングと微調整を可能にする Kubernetes ネイティブの機能。
  • AI Pipelines: このスイート内の他のすべてのモデルカスタマイズモジュールを含む AI コンポーネント全体で設定可能なワークフローを構築するための Kubeflow ネイティブ機能。

3.2. 機能拡張

Llama Stack のリモートベクトルデータベースのハイブリッド検索サポート

OpenShift AI の Llama Stack でリモートベクトルデータベースのハイブリッド検索を有効にできるようになりました。

この機能拡張により、企業は、さまざまなデータベースタイプにわたって高い検索パフォーマンスと柔軟性を維持しながら、既存の管理対象ベクトルデータベースインフラストラクチャーを使用できるようになります。

Caikit-TGIS アダプターを使用した IBM Z 向け IBM Spyre サポート

Caikit-TGIS gRPC アダプター を備えた vLLM Spyre s390x ServingRuntime for KServe を使用することで、IBM Z (s390x アーキテクチャー) 上で IBM Spyre AI アクセラレーターを使用してモデルを提供できるようになりました。

この統合により、OpenShift AI 内の IBM Z システム上の生成 AI ワークロードに対する高性能なモデルサービングと推論が可能になります。

Data Science Pipelines の名前が AI Pipelines に変更されました

OpenShift AI では、プラットフォームでサポートされる AI および生成 AI のユースケースのより広範な範囲をより適切に反映するために、"Data Science Pipelines" ではなく "AI Pipelines" という用語を使用するようになりました。

デフォルトの DataScienceCluster (default-dsc) では、この用語の更新に合わせて、datasciencepipelines コンポーネントの名前が aipipelines に変更されました。

これは名前の変更のみです。AI パイプラインの機能は同じままです。

モデル検証データによる Model Catalog の強化

OpenShift AI Model Catalog の Model Details ページには、パフォーマンスベンチマーク、ハードウェア互換性、その他の主要なメトリクスなどの包括的なモデル検証データが含まれるようになりました。

この機能拡張により、Jounce UI モデルの詳細レイアウトと一致する統合された詳細ビューが提供され、ユーザーは単一のインターフェイスからより効果的にモデルを評価できるようになります。

検索とフィルタリング機能を備えた Model Catalog のパフォーマンスデータ

Model Catalog には、ベンチマークやハードウェア互換性メトリクスなど、Red Hat が検証したサードパーティーモデルの詳細なパフォーマンスと検証データが含まれるようになりました。

レイテンシーやハードウェアプロファイルによるフィルタリングなどの強化された検索およびフィルタリング機能により、ユーザーは特定のユースケースや利用可能なリソースに最適化されたモデルを迅速に特定でき、Red Hat AI Hub 内で統合された検出エクスペリエンスが提供されます。

Distributed Inference with llm-d が一般提供 (GA) されました

Distributed Inference with llm-d は、マルチモデルサービング、インテリジェントな推論スケジューリング、分散サービングをサポートし、生成 AI モデルでの GPU 使用率を向上させます。

注記

次の機能は完全にはサポートされていません。

  • Wide Expert-Parallelism マルチノード: 開発者プレビュー。
  • Blackwell B200 上の Wide Expert-Parallelism: 利用できませんが、テクノロジープレビューとして提供できます。
  • GB200 上のマルチノード: サポートされていません。
  • このリリースでは、モデルデプロイメントの際に、UI での Gateway の検出と関連付けはサポートされていません。ユーザーは、API または CLI を通じてリソースマニフェストを直接適用して、モデルを Gateway に関連付ける必要があります。
Distributed Inference with llm-d デプロイメント設定のユーザーインターフェイス

OpenShift AI に、llm-d Serving Runtime で実行される大規模言語モデル (LLM) デプロイメントを設定するためのユーザーインターフェイス (UI) が追加されました。

この合理化されたインターフェイスは、デプロイメントの llm-d ランタイムの明示的な選択を可能にしながら、適切なデフォルトを備えた重要な設定オプションを提供することで、一般的なデプロイメントシナリオを簡素化します。

新しい UI により、セットアップの複雑さが軽減され、ユーザーは分散推論ワークロードをより効率的にデプロイできるようになります。

新しいナビゲーションシステム

OpenShift AI 3.0 では、使いやすさとワークフローの効率性を向上させる、再設計され合理化されたナビゲーションシステムが導入されています。

新しいレイアウトにより、ユーザーは機能間をシームレスに移動できるようになり、主要な機能へのアクセスが簡素化され、よりスムーズなエンドツーエンドのエクスペリエンスがサポートされます。

AI パイプラインの強化された認証

OpenShift AI 3.0 では、プラットフォーム全体の認証移行の一環として、AI パイプラインの oauth-proxykube-rbac-proxy に置き換えられます。

この更新により、特に Red Hat OpenShift Service on AWS などの内部 OAuth サーバーがない環境でのセキュリティーと互換性が向上します。

kube-rbac-proxy に移行すると、SubjectAccessReview (SAR) の要件と RBAC 権限もそれに応じて変更されます。組み込みの ds-pipeline-user-access-<dspa-name> ロールに依存するユーザーは自動的に更新されますが、その他のユーザーは、createupdatepatchdeletegetlist、および watch の動詞を使用して、datasciencepipelinesapplications/api サブリソースへのアクセスがロールに含まれていることを確認する必要があります。

Distributed Inference with llm-d の可観測性と Grafana の統合

OpenShift AI 3.0 では、プラットフォーム管理者は Distributed Inference with llm-d デプロイメントに可観測性コンポーネントを接続し、セルフホスト型 Grafana インスタンスと統合して推論ワークロードを監視できます。

この機能により、チームは Distributed Inference with llm-d から Prometheus メトリクスを収集および視覚化し、パフォーマンス分析やカスタムダッシュボードの作成を行うことができます。

第4章 テクノロジープレビュー機能

重要

このセクションでは、Red Hat OpenShift AI 3.0 のテクノロジープレビュー機能を説明します。テクノロジープレビュー機能は、Red Hat 製品のサービスレベルアグリーメント (SLA) の対象外であり、機能的に完全ではないことがあります。Red Hat では、実稼働環境での使用を推奨していません。テクノロジープレビュー機能は、最新の製品機能をいち早く提供して、開発段階で機能のテストを行い、フィードバックを提供していただくことを目的としています。

Red Hat のテクノロジープレビュー機能のサポート範囲に関する詳細は、テクノロジープレビュー機能のサポート範囲 を参照してください。

安全性、ガードレール、評価のための TrustyAI と Llama Stack の統合

TrustyAI の Guardrails Orchestrator をテクノロジープレビュー機能として Llama Stack と共に使用できるようになりました。

この統合により、埋め込み検出および評価ワークフローが有効になり、AI の安全性とコンテンツのモデレーションをサポートできるようになります。TrustyAI が有効になっていて、FMS Orchestrator とディテクターが設定されている場合、手動セットアップは必要ありません。

この機能を有効にするには、OpenShift AI Operator の DataScienceCluster カスタムリソースで、spec.llamastackoperator.managementState: Managed フィールドを設定します。

詳細は、GitHub の TrustyAI FMS Provider を参照してください。

デプロイされたモデルと MCP サーバーの AI Available Assets ページ

新しい AI Available Assets ページにより、AI エンジニアとアプリケーション開発者は、プロジェクト内にデプロイされた AI リソースを表示および使用できるようになります。

この機能拡張により、選択したプロジェクトで利用可能なモデルと Model Context Protocol (MCP) サーバーをリスト表示するフィルター可能な UI が導入され、適切な権限を持つユーザーがアクセス可能なエンドポイントを識別し、それらを AI Playground またはその他のアプリケーションに直接統合できるようになります。

モデルのテストと評価のための生成 AI プレイグラウンド

Generative AI (GenAI) Playground は、OpenShift AI ダッシュボード内に統合された、基盤モデルおよびカスタムモデルを試すための対話型エクスペリエンスを導入します。

ユーザーは、ドキュメントをアップロードし、そのコンテンツとチャットすることで、プロンプトをテストし、モデルを比較し、検索拡張生成 (RAG) ワークフローを評価できます。GenAI Playground は、承認された Model Context Protocol (MCP) サーバーとの統合もサポートしており、プロンプトとエージェント設定を実行可能なコードとしてエクスポートして、ローカル IDE で継続的にイテレートできます。

チャットのコンテキストは各セッション内で保存され、迅速なエンジニアリングとモデルの実験に適した環境を提供します。

エアギャップ Llama Stack デプロイメントのサポート

完全に切断された (エアギャップ) OpenShift AI 環境で、Llama Stack および RAG/Agentic コンポーネントをインストールして操作できるようになりました。

この機能拡張により、インターネットにアクセスせずに Llama Stack 機能をセキュアにデプロイメントできるようになり、組織は厳格なネットワークセキュリティーポリシーへの準拠を維持しながら AI 機能を使用できるようになります。

Feature Store と Workbench の統合と新しいユーザーアクセス機能

この機能は、テクノロジープレビューとして利用できます。

Feature Store は、OpenShift AI、データサイエンスプロジェクト、ワークベンチと統合されました。この統合により、ガバナンスの向上のために、一元管理されたロールベースのアクセス制御 (RBAC) 機能も導入されます。

これらの機能拡張により、次の 2 つの主要な機能が提供されます。

  • ワークベンチ環境内での特徴量の開発。
  • 管理者が制御するユーザーアクセス。

    この更新により、データサイエンティストにとって特徴量の検出と利用が簡素化かつ加速される一方、プラットフォームチームはインフラストラクチャーと特徴量へのアクセスを完全に制御できるようになります。

Feature Store のユーザーインターフェイス

Feature Store コンポーネントに、Web ベースのユーザーインターフェイス (UI) が含まれるようになりました。

UI を使用して、登録済みの Feature Store オブジェクトとその関係 (機能、データソース、エンティティー、機能サービスなど) を表示できます。

UI を有効にするには、FeatureStore カスタムリソース (CR) インスタンスを編集します。変更を保存すると、Feature Store Operator は UI コンテナーを起動し、アクセス用の OpenShift ルートを作成します。

詳細は、初回使用のための Feature Store ユーザーインターフェイスのセットアップ を参照してください。

x86 プラットフォームにおける IBM Spyre AI Accelerator のモデルサービングがサポートされるようになりました
IBM Spyre AI Accelerator によるモデルサービングが、x86 プラットフォームのテクノロジープレビュー機能として利用できるようになりました。IBM Spyre Operator はインストールを自動化し、デバイスプラグイン、セカンダリースケジューラー、および監視を統合します。詳細は、IBM Spyre Operator カタログエントリー を参照してください。
OpenShift AI 上の Llama Stack を使用して生成 AI アプリケーションをビルドする

このリリースでは、Llama Stack テクノロジープレビュー機能により、次世代の生成 AI アプリケーションを構築するための Retrieval-Augmented Generation (RAG) とエージェントワークフローが可能になります。この機能は、リモート推論、組み込みのエンベディング、ベクトルデータベース操作をサポートしています。また、安全性を担当する TrustyAI のプロバイダーや、評価を担当する Trusty AI の LM-Eval プロバイダーなどのプロバイダーと統合します。

このプレビューには、Llama Stack Operator を有効にし、RAG ツールを操作し、PDF の取り込みとキーワード検索機能を自動化してドキュメントの検出を強化するためのツール、コンポーネント、ガイダンスが含まれています。

集中型プラットフォームの可観測性

メトリクス、トレース、組み込みアラートなどの集中型プラットフォームの可観測性は、テクノロジープレビュー機能として利用できます。このソリューションは、OpenShift AI 専用の事前設定済みの可観測性スタックを導入し、クラスター管理者が次のアクションを実行できるようにします。

  • OpenShift AI コンポーネントとワークロードのプラットフォームメトリクス (Prometheus) と分散トレース (Tempo) を表示します。
  • 重要なコンポーネントの健全性とパフォーマンスの問題をカバーする組み込みアラート (alertmanager) のセットを管理します。
  • DataScienceClusterInitialization (DSCI) カスタムリソースを編集して、プラットフォームとワークロードのメトリクスを外部のサードパーティーの可観測性ツールにエクスポートします。

    この機能は、Cluster Observability Operator、Red Hat build of OpenTelemetry、および Tempo Operator と統合することで有効にできます。詳細は、監視と可観測性を参照してください。詳細は、可観測性の管理 を参照してください。

Llama Stack Distribution バージョン 0.3.0 のサポート

Llama Stack Distribution には、テクノロジープレビュー機能としてバージョン 0.3.0 が含まれるようになりました。

この更新では、検索拡張生成 (RAG) パイプラインのサポート拡張、評価プロバイダー統合の改善、エージェントおよびベクトルストア管理用の API の更新など、いくつかの機能拡張が導入されています。また、最新の OpenAI API 拡張機能と分散推論のインフラストラクチャー最適化に合わせた互換性更新も提供します。

以前サポートされていたバージョンは 0.2.22 でした。

Kubernetes Event-driven Autoscaling (KEDA) のサポート

OpenShift AI は、KServe RawDeployment モードで Kubernetes Event-driven Autoscaling (KEDA) をサポートするようになりました。このテクノロジープレビュー機能により、推論サービスのメトリクススベースの自動スケーリングが可能になり、アクセラレーターリソースの管理の効率化、運用コストの削減、推論サービスのパフォーマンス向上を実現します。

KServe RawDeployment モードで推論サービスの自動スケーリングをセットアップするには、KEDA に基づく OpenShift Custom Metrics Autoscaler (CMA) をインストールして設定する必要があります。

この機能の詳細は、メトリクスベースの自動スケーリングの設定 を参照してください。

LM-Eval モデル評価 UI 機能
TrustyAI は、使いやすい LM-Eval モデル評価の UI を、テクノロジープレビューとして提供するようになりました。この機能を使用すると、特定のモデルの評価パラメーターを入力し、評価結果ページを返すことすべてを UI から行うことができます。
LlamaStack で Guardrails Orchestrator を使用する

組み込みの検出コンポーネントを使用して、テクノロジープレビュー機能として Llama Stack を備えた TrustyAI の Guardrails Orchestrator ツールを使用して検出を実行できるようになりました。この機能を使用するには、TrustyAI が有効になっていること、FMS Orchestrator とディテクターが設定されていること、および必要に応じて完全な互換性を確保するために KServe RawDeployment モードが使用されていることを確認してください。手動でのセットアップは必要ありません。その後、Red Hat OpenShift AI Operator の DataScienceCluster カスタムリソースで、spec.llamastackoperator.managementState フィールドを Managed に設定します。

詳細は、GitHub の Trusty AI FMS Provider を参照してください。

CodeFlare SDK を使用した Ray Job の作成と管理のサポート

CodeFlare SDK を介して Ray クラスター上で Ray Job を直接作成および管理できるようになりました。

この機能拡張により、CodeFlare SDK ワークフローが KubernetesFlow Training Operator (KFTO) モデルと整合され、ジョブが自動的に作成、実行、完了されるようになります。この機能拡張により、ジョブの完了後に Ray Clusters がアクティブなままにならないようにすることで、手動によるクラスター管理が簡素化されます。

OIDC アイデンティティープロバイダーによる直接認証のサポート

OpenID Connect (OIDC) アイデンティティープロバイダーによる直接認証がテクノロジープレビュー機能として利用できるようになりました。

この機能拡張により、OpenShift AI サービスの認証が Gateway API を通じて一元化され、セキュアでスケーラブルかつ管理しやすい認証モデルが提供されます。GatewayConfig カスタムリソースを使用して、外部 OIDC プロバイダーで Gateway API を設定できます。

Synthetic Data Generation パイプラインのカスタムフロー推定器

Synthetic Data Generation (SDG) パイプラインにカスタムフロー推定器を使用できるようになりました。

サポートされ互換性のあるタグ付き SDG 教師モデルの場合、推定器を使用すると、完全なワークロードを実行する前に、選択した教師モデル、カスタムフロー、およびサンプルデータセットでサポートされているハードウェアを評価する際に役立ちます。

シングルノード OpenShift (SNO) 向けの Llama Stack サポートと最適化

Llama Stack コアは、シングルノード OpenShift (SNO) 上で効率的にデプロイおよび実行できるようになりました。

この機能拡張により、コンポーネントの起動とリソースの使用が最適化され、Llama Stack がシングルノードクラスター環境で確実に動作できるようになります。

FAISS ベクトルストレージ統合

OpenShift AI で、FAISS (Facebook AI Similarity Search) ライブラリーをインラインベクトルストアとして使用できるようになりました。

FAISS は、高パフォーマンスなベクトル検索とクラスタリングのためのオープンソースフレームワークです。これは、密な数値埋め込み向けに最適化されており、CPU と GPU の両方をサポートしています。Llama Stack Distribution の埋め込み SQLite バックエンドを有効にすると、FAISS は埋め込みをコンテナー内にローカルに保存するため、外部のベクトルデータベースサービスが不要になります。

新しい Feature Store コンポーネント

OpenShift AI で Feature Store を設定可能なコンポーネントとしてインストールおよび管理できるようになりました。オープンソースの Feast プロジェクトをベースにした Feature Store は、ML モデルとデータ間の橋渡しとして機能し、ML ライフサイクル全体にわたって一貫性のあるスケーラブルな機能管理を可能にします。

このテクノロジープレビューリリースでは、次の機能が導入されています。

  • 機能を一貫して再利用できるようにする集中型機能リポジトリー
  • ML モデルの特徴量を定義、管理、取得するためのプログラムおよびコマンドライン操作用の Python SDK および CLI
  • 機能の定義と管理
  • 幅広いデータソースのサポート
  • 特徴量の具体化によるデータ取り込み
  • オンラインモデル推論とオフラインモデルトレーニングの両方のための特徴量検索
  • ロールベースのアクセス制御 (RBAC) による機密機能の保護
  • サードパーティーのデータおよびコンピュートプロバイダーとの拡張性と統合
  • 企業の ML 要件を満たすスケーラビリティー
  • 検索可能な特徴量カタログ
  • 可観測性を高めるデータ系統追跡

    設定の詳細は、Feature Store の設定 を参照してください。

Llama Stack および RAG デプロイメント向け FIPS サポート

FIPS 準拠を必要とする規制環境に、Llama Stack と RAG またはエージェントソリューションをデプロイできるようになりました。

この機能拡張により、FIPS 認定の互換性のあるデプロイメントパターンが提供され、組織は AI ワークロードの厳格な規制および認定要件を満たすことができます。

Red Hat AI Platform 向けの検証済み sdg-hub ノートブック

検証済みの sdg_hub サンプルノートブックが利用可能になり、OpenShift AI 3.0 においてノートブック駆動型のユーザーエクスペリエンスが提供されます。

これらのノートブックは複数の Red Hat プラットフォームをサポートし、SDG パイプラインを通じてカスタマイズを可能にします。次のユースケースの例が含まれます。

  • モデルを微調整するためのアノテーション付きの例を含む、知識とスキルの調整。
  • 推論トレースを伴う Synthetic Data Generation (SDG) により、推論モデルをカスタマイズします。
  • デフォルトのブロックの使用と特殊なワークフロー用の新しいブロックの作成を示すカスタム SDG パイプライン。
Llama Stack の RAGAS 評価プロバイダー (インラインおよびリモート)

Retrieval-Augmented Generation Assessment (RAGAS) 評価プロバイダーを使用して、OpenShift AI の RAG システムの品質と信頼性を測定できるようになりました。

RAGAS は、検索品質、回答の関連性、事実の一貫性に関するメトリクスを提供し、問題を特定して RAG パイプライン設定を最適化するのに役立ちます。

Llama Stack 評価 API との統合では、次の 2 つのデプロイメントモードがサポートされます。

  • インラインプロバイダー: Llama Stack サーバープロセス内で直接 RAGAS 評価を実行します。
  • リモートプロバイダー: OpenShift AI パイプラインを使用して、RAGAS 評価を分散ジョブとして実行します。

    RAGAS 評価プロバイダーが Llama Stack Distribution に含まれるようになりました。

ノードセレクターを使用して、Red Hat OpenShift AI ダッシュボードの特定ワーカーノードに対するワークベンチのターゲットデプロイメントを有効にします。

ハードウェアプロファイルがテクノロジープレビューとして利用できるようになりました。ハードウェアプロファイル機能を使用すると、ユーザーはワークベンチまたはモデルサービングワークロードの特定のワーカーノードをターゲットにすることができます。これにより、ユーザーは特定のアクセラレータータイプまたは CPU のみのノードをターゲットにすることができます。

この機能は、現在のアクセラレータープロファイル機能とコンテナーサイズセレクターフィールドに代わるもので、さまざまなハードウェア設定を対象とするより幅広い機能セットを提供します。アクセラレータープロファイル、taint、および toleration は、ワークロードをハードウェアにマッチングする機能を提供しますが、特に一部のノードに適切な taint がない場合、ワークロードが特定のノードに配置されるかどうかは保証されません。

ハードウェアプロファイル機能は、アクセラレーターと CPU のみの設定の両方とノードセレクターをサポートします。これにより、特定のワーカーノードのターゲット設定機能が強化されます。管理者は設定メニューでハードウェアプロファイルを設定できます。ユーザーは、該当する場合、ワークベンチ、モデルサービング、AI パイプラインの UI を使用して、有効なプロファイルを選択できます。

RStudio Server ワークベンチイメージ

RStudio Server ワークベンチイメージを使用すると、R の統合開発環境である RStudio IDE にアクセスできます。R プログラミング言語は、データ分析と予測をサポートする統計コンピューティングとグラフィックスに使用されます。

RStudio Server ワークベンチイメージを使用するには、まずシークレットを作成し、BuildConfig をトリガーしてイメージをビルドし、次に rstudio-rhel9 イメージストリームを編集して OpenShift AI UI でイメージを有効にする必要があります。詳細は、RStudio Server ワークベンチイメージのビルド を参照してください。

重要

免責事項: Red Hat は、OpenShift AI のワークベンチの管理をサポートしています。ただし、Red Hat は RStudio ソフトウェアのサポートを提供していません。RStudio Server は rstudio.org から入手できます。RStudio Server には RStudio のライセンス条項が適用されます。このサンプルワークベンチを使用する前に、ライセンス条項を確認してください。

CUDA - RStudio Server ワークベンチイメージ

CUDA - RStudio Server ワークベンチイメージを使用すると、RStudio IDE および NVIDIA CUDA Toolkit にアクセスできます。RStudio IDE は、統計コンピューティングおよびグラフィックス用の R プログラミング言語の統合開発環境です。NVIDIA CUDA Toolkit を使用すると、GPU により高速化されたライブラリーと最適化ツールを使用して作業を強化できます。

CUDA - RStudio Server ワークベンチイメージを使用するには、まずシークレットを作成し、BuildConfig をトリガーしてビルドして、次に rstudio-rhel9 イメージストリームを編集して OpenShift AI UI で有効にする必要があります。詳細は、RStudio Server ワークベンチイメージのビルド を参照してください。

重要

免責事項: Red Hat は、OpenShift AI のワークベンチの管理をサポートしています。ただし、Red Hat は RStudio ソフトウェアのサポートを提供していません。RStudio Server は rstudio.org から入手できます。RStudio Server には RStudio のライセンス条項が適用されます。このサンプルワークベンチを使用する前に、ライセンス条項を確認してください。

CUDA - RStudio Server ワークベンチイメージには、NVIDIA CUDA テクノロジーが含まれています。CUDA のライセンス情報は、CUDA Toolkit のドキュメントで入手できます。このサンプルワークベンチを使用する前に、ライセンス条項を確認してください。

非常に大規模なモデルのマルチノードデプロイメントのサポート
シングルモデルサービングランタイムの使用時に、複数のグラフィカルプロセッシングユニット (GPU) ノードを介してモデルを提供することが、テクノロジープレビュー機能として利用できるようになりました。大規模言語モデル (LLM) などの大規模なモデルをデプロイする際の効率を向上させるには、複数の GPU ノードにモデルをデプロイします。詳細は、複数の GPU ノードを使用したモデルのデプロイ を参照してください。

第5章 開発者プレビュー機能

重要

このセクションでは、Red Hat OpenShift AI 3.0 の開発者プレビュー機能を説明します。開発者プレビュー機能は、Red Hat ではいかなる形でもサポートされていません。また、機能的には完全ではなく、実稼働環境に対応していません。開発者プレビュー機能を実稼働ワークロードまたはビジネスクリティカルなワークロードには使用しないでください。開発者プレビュー機能は、Red Hat 製品に追加される可能性がある機能をいち早く提供することを目的としています。お客様はこの機能を使用してテストし、開発プロセス中にフィードバックを提供できます。開発者プレビュー機能は、ドキュメントが提供されていない場合があり、随時変更または削除される可能性があります。また、限定的なテストしか行われていません。Red Hat は、関連する SLA なしで、開発者プレビュー機能に関するフィードバックを送信する方法を提供する場合があります。

Red Hat 開発者プレビュー機能のサポート範囲の詳細は、開発者プレビューのサポート範囲 を参照してください。

Model-as-a-Service (MaaS) 統合

この機能は開発者プレビューとして利用できます。

OpenShift AI には、大規模言語モデル (LLM) の提供に関連するリソース消費とガバナンスの課題に対処するための Model-as-a-Service (MaaS) が含まれるようになりました。

MaaS は、管理された API エンドポイントを通じてモデルを公開することで、モデルアクセスとリソース使用の集中管理を提供し、管理者がチーム全体に消費ポリシーを適用できるようにします。

この開発者プレビューでは、次の機能が導入されています。

AI Available Assets と Model-as-a-Service (MaaS) の統合

この機能は開発者プレビューとして利用できます。

GenAI Studio の AI Available Assets ページから、Model-as-a-Service (MaaS) モデルに直接アクセスして使用できるようになりました。

管理者は、Model Deployments ページで切り替えを有効にすることで MaaS を設定できます。モデルがサービスとしてマークされると、そのモデルはグローバルになり、クラスター内のすべてのプロジェクトで表示されるようになります。

AI Available Assets との統合向けに、Model Deployments に追加のフィールドが追加されました。

この機能は開発者プレビューとして利用できます。

管理者は、AI Available Assets ページに自動的にリストされるように、デプロイメント中にメタデータをモデルに追加できるようになりました。

次の表は、他のチームがモデルを検出して使用できるようにするプロセスを効率化する新しいメタデータフィールドについて説明しています。

Expand
フィールド名フィールドタイプ説明

ユースケース

自由形式のテキスト

モデルの主な目的を説明します (例: 「顧客離れ予測」または「製品カタログのイメージ分類」)。

説明

自由形式のテキスト

モデルのより詳細なコンテキストと機能に関するメモを提供します。

AI アセットへの追加

チェックボックス

有効にすると、モデルとそのメタデータが AI Available Assets ページに自動的に公開されます。

Llama Stack リモートプロバイダーおよび SDK と、MCP HTTP ストリーミングプロトコルとの互換性

この機能は開発者プレビューとして利用できます。

Llama Stack リモートプロバイダーと SDK は、Model Control Protocol (MCP) HTTP ストリーミングプロトコルと互換性を持つようになりました。

この機能拡張により、開発者は完全にステートレスな MCP サーバーを構築し、標準の Llama Stack インフラストラクチャー (サーバーレス環境を含む) へのデプロイメントを簡素化し、スケーラビリティーを改善できるようになります。また、接続再開などの将来的な機能拡張にも備え、Server-Sent Events (SSE) からのスムーズな移行を実現します。

ITS Hub の依存関係が Red Hat が管理する Python インデックスにパッケージ化されました

この機能は開発者プレビューとして利用できます。

すべての Inference Time Scaling (ITS) ランタイム依存関係が Red Hat が管理する Python インデックスにパッケージ化され、Red Hat AI および OpenShift AI のお客様は、pip を使用して its_hub とその依存関係を直接インストールできるようになりました。

この機能拡張により、ユーザーは、モデルの再トレーニングを必要とせずに、推論時にモデルの精度を向上させることに焦点を当てた ITS アルゴリズムを使用して、次のようなカスタム推論イメージをビルドできるようになります。

  • パーティクルフィルタリング
  • ベストオブ N
  • ビームサーチ
  • 自己無矛盾性
  • verifier または PRM ガイドによる検索

    詳細は、ITS Hub on GitHub を参照してください。

動的ハードウェア対応継続トレーニングストラテジー

静的ハードウェアプロファイルのサポートが利用可能になり、ユーザーは VRAM 要件と参照ベンチマークに基づいて、トレーニング方法、モデル、ハイパーパラメーターを選択できるようになりました。このアプローチにより、動的なハードウェア検出を行わなくても、予測可能で信頼性の高いトレーニングワークフローが確保されます。

以下のコンポーネントが含まれています。

  • API メモリー推定器: モデル、トレーニングメソッド、データセットメタデータ、想定されるハイパーパラメーターを入力として受け入れ、トレーニングジョブの推定 VRAM 要件を返します。Training Hub 内の API として提供されます。
  • 参照プロファイルとベンチマーク: OpenShift AI Innovation (OSFT) および Performance Team (LAB SFT) ベースラインのエンドツーエンドのトレーニング時間ベンチマークを提供し、Training Hub で静的なテーブルとドキュメントとして提供されます。
  • ハイパーパラメーターガイダンス: 学習率、バッチサイズ、エポック、LoRA ランクなどの主要なハイパーパラメーターの安全な開始範囲を公開します。AI Innovation チームによって管理されているサンプルノートブックに統合されています。

    重要

    このリリースにはハードウェア検出は含まれていません。静的な参照テーブルとガイダンスのみが提供されます。自動 GPU または CPU 検出はまだサポートされていません。

Llama Stack エージェントの Human-in-the-Loop (HIL) 機能

Llama Stack エージェントに Human-in-the-Loop (HIL) 機能が追加され、ユーザーは実行前に未読のツール呼び出しを承認できるようになりました。

この機能拡張には次の機能が含まれます。

  • ユーザーは、Responses API を通じて未読のツール呼び出しを承認または拒否できます。
  • 設定オプションは、どのツール呼び出しに HIL 承認が必要かを指定します。
  • HIL 対応ツールに対するユーザーの承認を受信するまで、ツール呼び出しは一時停止されます。
  • HIL を必要としないツール呼び出しは中断されることなく実行され続けます。

第6章 サポートの削除

このセクションでは、Red Hat OpenShift AI のユーザー向け機能のサポートにおける主な変更を説明します。OpenShift AI でサポートされているソフトウェアプラットフォーム、コンポーネント、依存関係の詳細は、3.x でサポートされる構成 に関するナレッジベースの記事を参照してください。

6.1. 非推奨

Connection Secret の非推奨のアノテーション形式

OpenShift AI 3.0 以降、Connection Secret を作成するための opendatahub.io/connection-type-ref アノテーション形式は非推奨になりました。

すべての新しい Connection Secret については、代わりに opendatahub.io/connection-type-protocol アノテーションを使用してください。現在、両方の形式がサポートされていますが、connection-type-protocol が優先されるため、将来の互換性のためにこちらを使用する必要があります。

6.1.1. Kubeflow Training operator v1 の非推奨化

Kubeflow Training Operator (v1) は OpenShift AI 2.25 以降で非推奨となり、今後のリリースで削除される予定です。この非推奨化は、強化されたケイパビリティーと改善された機能を提供する Kubeflow Trainer v2 への移行の一環です。

6.1.2. TrustyAI service CRD v1alpha1 の非推奨化

OpenShift AI 2.25 以降、v1apha1 バージョンは非推奨となり、今後のリリースで削除される予定です。Operator の今後の更新を受信するには、TrustyAI Operator をバージョン v1 に更新する必要があります。

6.1.3. KServe Serverless デプロイメントモードの非推奨化

OpenShift AI 2.25 以降、KServe Serverless デプロイメントモードは非推奨となりました。KServe RawDeployment モードに移行することで、モデルのデプロイを継続できます。Red Hat OpenShift AI 3.0 にアップグレードする場合は、廃止された Serverless モードまたは ModelMesh モードを使用するすべてのワークロードをアップグレード前に移行する必要があります。

6.1.4. モデルレジストリー API v1alpha1 の非推奨化

OpenShift AI 2.24 以降、モデルレジストリー API バージョン v1alpha1 は非推奨となり、OpenShift AI の今後のリリースで削除される予定です。最新のモデルレジストリー API バージョンは v1beta1 です。

6.1.5. マルチモデルサービングプラットフォーム (ModelMesh)

OpenShift AI バージョン 2.19 以降、ModelMesh をベースとしたマルチモデルサービングプラットフォームは非推奨になりました。引き続きモデルをマルチモデルサービングプラットフォームにデプロイできますが、シングルモデルサービングプラットフォームに移行することが推奨されます。

詳細情報やシングルモデルサービングプラットフォームの使用に関するヘルプは、アカウントマネージャーにお問い合わせください。

6.1.6. Accelerator Profiles と従来の Container Size セレクターの非推奨化

OpenShift AI 3.0 以降、Accelerator Profile とワークベンチの Container Size セレクターは非推奨となりました。

+ これらの機能は、より柔軟で統合された Hardware Profiles 機能に置き換えられます。

6.1.7. OpenVINO Model Server (OVMS) プラグインの非推奨化

OpenVINO Model Server (OVMS) の CUDA プラグインは非推奨となり、OpenShift AI の今後のリリースでは使用できなくなります。

6.1.8. OpenShift AI ダッシュボードのユーザー管理が OdhDashboardConfig から Auth リソースへ移動

以前は、クラスター管理者は、OdhDashboardConfig リソースの groupsConfig オプションを使用して、OpenShift AI ダッシュボードにアクセスできる OpenShift グループ (管理者と非管理者の両方) を管理していました。OpenShift AI 2.17 以降、この機能は Auth リソースに移動されました。OdhDashboardConfig と対話するワークフロー (GitOps ワークフローなど) がある場合は、代わりに Auth リソースを参照するように更新する必要があります。

Expand
表6.1 更新された設定
リソース2.16 以前2.17 以降のバージョン

apiVersion

opendatahub.io/v1alpha

services.platform.opendatahub.io/v1alpha1

kind

OdhDashboardConfig

Auth

name

odh-dashboard-config

auth

Admin groups

spec.groupsConfig.adminGroups

spec.adminGroups

User groups

spec.groupsConfig.allowedGroups

spec.allowedGroups

6.1.9. クラスター設定パラメーターの非推奨化

CodeFlare SDK を使用して Red Hat OpenShift AI で分散ワークロードを実行する場合、Ray クラスター設定の次のパラメーターは非推奨となり、示されているように新しいパラメーターに置き換える必要があります。

Expand
非推奨パラメーター後継パラメーター

head_cpus

head_cpu_requestshead_cpu_limits

head_memory

head_memory_requestshead_memory_limits

min_cpus

worker_cpu_requests

max_cpus

worker_cpu_limits

min_memory

worker_memory_requests

max_memory

worker_memory_limits

head_gpus

head_extended_resource_requests

num_gpus

worker_extended_resource_requests

必要に応じて、新しい extended_resource_mapping および overwrite_default_resource_mapping パラメーターを使用することもできます。これらの新しいパラメーターの詳細は、CodeFlare SDK のドキュメント (外部) を参照してください。

6.2. 削除された機能

Caikit-NLP コンポーネントが削除されました

caikit-nlp コンポーネントは正式に非推奨となり、OpenShift AI 3.0 から削除されました。

このランタイムは OpenShift AI に含まれなくなり、サポートもされなくなりました。ユーザーは、依存するワークロードを、サポートされているモデルサービングランタイムに移行する必要があります。

TGIS コンポーネントが削除されました

OpenShift AI 2.19 で非推奨となった TGIS コンポーネントは、OpenShift AI 3.0 で削除されました。

TGIS は、2025 年 6 月に終了した OpenShift AI 2.16 Extended Update Support (EUS) ライフサイクルを通じて引き続きサポートされました。

このリリース以降、TGIS は利用できなくなり、サポートもされなくなりました。ユーザーは、モデルサービングワークロードを Caikit や Caikit-TGIS などのサポートされているランタイムに移行する必要があります。

AppWrapper コントローラーが削除されました

AppWrapper コントローラーは、より広範な CodeFlare Operator 削除プロセスの一環として OpenShift AI から削除されました。

この変更により、冗長な機能が排除され、メンテナンスのオーバーヘッドとアーキテクチャーの複雑さが軽減されます。

6.2.1. CodeFlare Operator の削除

OpenShift AI 3.0 以降では、CodeFlare Operator は削除されました。

+ CodeFlare Operator によって以前提供されていた機能は、mTLS、ネットワーク分離、認証などの同等の機能を提供する KubeRay Operator に含まれるようになりました。

LAB チューニング機能が削除されました

OpenShift AI 3.0 以降では、LAB チューニング機能が削除されました。

これまで大規模言語モデルのカスタマイズに LAB チューニングに依存していたユーザーは、代替の微調整またはモデルのカスタマイズ方法に移行する必要があります。

埋め込み Kueue コンポーネントが削除されました

OpenShift AI 2.24 で非推奨となった埋め込み Kueue コンポーネントは、OpenShift AI 3.0 で削除されました。

OpenShift AI は、Red Hat build of Kueue Operator を使用して、分散トレーニング、ワークベンチ、モデルサービングワークロード全体でワークロードスケジューリング機能が強化されました。

埋め込み Kueue コンポーネントは、どの Extended Update Support (EUS) リリースでもサポートされません。

DataSciencePipelinesApplication v1alpha1 API バージョンの削除

DataSciencePipelinesApplication カスタムリソースの v1alpha1 API バージョン (datasciencepipelinesapplications.opendatahub.io/v1alpha1) が削除されました。

OpenShift AI は現在、stable v1 API バージョン (datasciencepipelinesapplications.opendatahub.io/v1) を使用しています。

OpenShift AI 3.0 以降との互換性を確保するには、既存のマニフェストまたは自動化を更新して、v1 API バージョンを参照する必要があります。

6.2.2. Microsoft SQL Server コマンドラインツールの削除

OpenShift AI 2.24 以降、Microsoft SQL Server コマンドラインツール (sqlcmd、bcp) がワークベンチから削除されました。プリインストールされたコマンドラインクライアントを使用して Microsoft SQL Server を管理できなくなりました。

6.2.3. モデルレジストリー ML Metadata (MLMD) サーバーの削除

OpenShift AI 2.23 以降、ML Metadata (MLMD) サーバーはモデルレジストリーコンポーネントから削除されました。モデルレジストリーは、既存のモデルレジストリー API とデータベーススキーマを使用して、基盤となるデータベースと直接対話するようになりました。この変更により、アーキテクチャー全体が簡素化され、ml-metadata コンポーネントからモデルレジストリーから直接データベースアクセスに移行することで、モデルレジストリーの長期的な保守性と効率性が確保されます。

モデルレジストリーのデプロイメントで次のエラーが表示される場合は、データベーススキーマの移行が失敗しています。

error: error connecting to datastore: Dirty database version {version}. Fix and force version.

この問題を解決するには、トラフィックを Pod にルーティングする前に、データベースを手動でダーティー状態から 0 に変更します。以下の手順を実行します。

  1. 次のようにして、モデルレジストリーデータベース Pod の名前を見つけます。

    kubectl get pods -n <your-namespace> | grep model-registry-db

    <your-namespace> は、モデルレジストリーがデプロイされている namespace に置き換えます。

  2. 次のように、kubectl exec を使用して、モデルレジストリーデータベース Pod でクエリーを実行します。

    kubectl exec -n <your-namespace> <your-db-pod-name> -c mysql -- mysql -u root -p"$MYSQL_ROOT_PASSWORD" -e "USE <your-db-name>; UPDATE schema_migrations SET dirty = 0;"

    <your-namespace> は、モデルレジストリーの namespace に、<your-db-pod-name> は、前の手順で確認した Pod 名に置き換えます。<your-db-name> は、モデルレジストリーデータベース名に置き換えます。

    これにより、データベース内のダーティー状態がリセットされ、モデルレジストリーが正しく起動できるようになります。

6.2.4. Embedded サブスクリプションチャネルは一部のバージョンでは使用されない

OpenShift AI 2.8 から 2.20 および 2.22 から 3.0 の場合、embedded サブスクリプションチャネルは使用されません。これらのバージョンの Operator の新規インストールでは、embedded チャネルを選択できません。サブスクリプションチャネルの詳細は、Red Hat OpenShift AI Operator のインストール を参照してください。

6.2.5. Anaconda の削除

Anaconda は、Python および R プログラミング言語のオープンソースディストリビューションです。OpenShift AI バージョン 2.18 以降、Anaconda は OpenShift AI に含まれなくなり、Anaconda リソースは OpenShift AI でサポートまたは管理されなくなりました。

以前に OpenShift AI から Anaconda をインストールした場合は、クラスター管理者は OpenShift コマンドラインインターフェイスから次の手順を実行して、Anaconda 関連のアーティファクトを削除する必要があります。

  1. Anaconda パスワードを含むシークレットを削除します。

    oc delete secret -n redhat-ods-applications anaconda-ce-access

  2. Anaconda 検証 cronjob の ConfigMap を削除します。

    oc delete configmap -n redhat-ods-applications anaconda-ce-validation-result

  3. Anaconda イメージストリームを削除します。

    oc delete imagestream -n redhat-ods-applications s2i-minimal-notebook-anaconda

  4. イメージのダウンロードを検証した Anaconda ジョブを削除します。

    oc delete job -n redhat-ods-applications anaconda-ce-periodic-validator-job-custom-run

  5. Anaconda cronjob の実行に関連するすべての Pod を削除します。

    oc get pods n redhat-ods-applications --no-headers=true | awk '/anaconda-ce-periodic-validator-job-custom-run*/'

Elyra パイプラインで実行されている Python スクリプトのログは、S3 互換ストレージに保存されなくなりました。OpenShift AI バージョン 2.11 以降では、OpenShift AI ダッシュボードのパイプラインログビューアーでこれらのログを表示できます。

注記

この変更を有効にするには、バージョン 2024.1 以降のワークベンチイメージで提供される Elyra ランタイムイメージを使用する必要があります。

古いバージョンのワークベンチイメージがある場合は、プロジェクトワークベンチの更新 の説明に従って、Version selection フィールドを互換性のあるワークベンチイメージバージョン (例: 2024.1) に更新します。

ワークベンチイメージバージョンを更新すると、パイプラインの既存のランタイムイメージの選択がすべて消去されます。ワークベンチのバージョンを更新したら、ワークベンチ IDE を開き、パイプラインのプロパティーを更新してランタイムイメージを選択します。

6.2.7. beta サブスクリプションチャネルの使用を終了

OpenShift AI 2.5 以降では、beta サブスクリプションチャネルを使用しなくなりました。Operator の新規インストール用の beta チャネルを選択できなくなりました。サブスクリプションチャネルの詳細は、Red Hat OpenShift AI Operator のインストール を参照してください。

6.2.8. HabanaAI ワークベンチイメージの削除

HabanaAI 1.10 ワークベンチイメージのサポートが削除されました。OpenShift AI バージョン 2.14 以降の新規インストールには、HabanaAI ワークベンチイメージは含まれません。ただし、OpenShift AI を以前のバージョンからアップグレードする場合は、HabanaAI ワークベンチイメージは使用可能なままとなるため、既存の HabanaAI ワークベンチイメージは引き続き機能します。

第7章 解決された問題

Red Hat OpenShift AI 3.0 では、次の重要な問題が解決されました。Red Hat OpenShift AI 3.0 のセキュリティー更新、バグ修正、機能拡張は、非同期エラータとしてリリースされます。すべての OpenShift AI エラータアドバイザリーは Red Hat カスタマーポータル で公開されています。

7.1. Red Hat OpenShift AI 3.0 で解決された問題

RHOAIENG-37686 - ランタイム検出ロジックでイメージ名が一致しないため、ダッシュボードにメトリクスが表示されません

以前は、ダイジェストベースのイメージ名がランタイム検出システムによって正しく認識されなかったため、OpenShift AI ダッシュボードにメトリクスが表示されませんでした。この問題は、OpenShift AI 2.25 以降のすべての InferenceService デプロイメントに影響しました。この問題は解決されています。

RHOAIENG-37492 - IBM Power 3.0.0 ではダッシュボードコンソールリンクにアクセスできません

以前は、IBM Power 上で実行されているプライベートクラウドデプロイメントでは、ダッシュボードが DataScienceCluster 設定で有効になっていると、OpenShift AI ダッシュボードリンクが OpenShift コンソールに表示されませんでした。その結果、ユーザーは手動でルートを作成しなければ、コンソールからダッシュボードにアクセスできませんでした。この問題は解決されています。

RHOAIENG-1152 - ダッシュボードにログインしたことがないユーザーの場合、基本ワークベンチの作成プロセスが失敗します

この問題は、OpenShift AI 3.0 以降では解消されています。基本ワークベンチ作成プロセスが更新され、この動作は発生しなくなりました。

第8章 既知の問題

このセクションでは、Red Hat OpenShift AI 3.0 の既知の問題と、これらの問題を回避する既知の方法を説明します。

RHOAIENG-37228 - OpenStack およびプライベートクラウド環境では手動の DNS 設定が必要です

統合外部 DNS のない OpenStack、CodeReady Containers (CRC)、またはその他のプライベートクラウド環境に OpenShift AI 3.0 をデプロイすると、インストール後に、ダッシュボードやワークベンチなどのコンポーネントへの外部アクセスが失敗する可能性があります。これは、動的にプロビジョニングされた LoadBalancer Service が IP アドレスを外部 DNS に自動的に登録しないために発生します。

回避策
アクセスを復元するには、外部 DNS システムに必要な A レコードまたは CNAME レコードを手動で作成します。手順については、ナレッジベースの記事 Configuring External DNS for RHOAI 3.x on OpenStack and Private Clouds を参照してください。

RHOAIENG-38658 - IBM Z (s390x) でのトークン認証によるモデル推論中の TrustyAI サービスで問題が発生します

IBM Z (s390x) アーキテクチャーでは、トークン認証が有効になっている場合、TrustyAI サービスでモデル推論中にエラーが発生します。TrustyAI サービスロガーへのログ記録中に JsonParseException が表示され、バイアス監視プロセスが失敗したり、予期しない動作をしたりします。

回避策
認証なしで TrustyAI サービスを実行します。この問題は、トークン認証が有効になっている場合にのみ発生します。

RHOAIENG-38333 - Generative AI Playground によって生成されたコードが無効であり、必要なパッケージがワークベンチにありません

Generative AI Playground によって自動的に生成されたコードは、OpenShift AI ワークベンチで実行すると構文エラーが発生する可能性があります。さらに、LlamaStackClient パッケージは現在、標準のワークベンチイメージには含まれていません。

RHOAIENG-38263 - IBM Z の Hugging Face ランタイムにおける Guardrails Detector モデルで断続的に障害が発生します

IBM Z プラットフォームでは、Hugging Face ランタイムで実行されている Guardrails Detector モデルが、同一のリクエストを処理できないことが断続的に発生することがあります。場合によっては、以前は有効な結果を返していたリクエストが、次の例のような解析エラーで失敗することがあります。

Invalid numeric literal at line 1, column 20

このエラーにより、サービング Pod が一時的に CrashLoopBackOff 状態になる可能性がありますが、通常は自動的に回復します。

回避策
なし。Pod は自動的に再起動し、通常の動作を再開します。

RHOAIENG-38253 - Distributed Inference Server with llm-d が Serving Runtimes ページにリストされていません

モデルをデプロイするときに、Distributed Inference Server with llm-d は使用可能なオプションとして表示されますが、Settings セクションの Serving Runtimes ページには記載されていません。

これは、Distributed Inference Server with llm-d が、標準のサービスランタイムを超えた追加コンポーネントを含む複合デプロイメントタイプであるために発生します。したがって、管理者に表示されるサービングランタイムのリストには表示されず、現時点ではエンドユーザーから非表示にすることはできません。

回避策
なし。Distributed Inference Server with llm-d オプションは、引き続きモデルのデプロイメントに使用できますが、Serving Runtimes ページから管理または表示することはできません。

RHOAIENG-38252 - Model Registry Operator は、OpenShift 4.20 の BYOIDC モードで動作しません

Bring Your Own Identity Provider (BYOIDC) モードで設定された OpenShift 4.20 クラスターでは、Model Registry Operator のデプロイが失敗します。

ModelRegistry カスタムリソースを作成しても、available: True 状態になりません。代わりに、リソースには次の例のようなステータスが表示されます。

status:
  conditions:
  - lastTransitionTime: "2025-11-06T22:09:04Z"
    message: 'unexpected reconcile error: failed to get API group resources: unable to retrieve the complete list of server APIs: user.openshift.io/v1: the server could not find the requested resource'
    reason: DeploymentUnavailable
    status: "False"
    type: Available
回避策
なし。

OpenShift 4.20 で BYOIDC モードを使用する場合、Model Registry インスタンスを作成またはデプロイすることはできません。

RHOAIENG-38180 - Feature Store サービスへの Workbench リクエストで証明書エラーが発生します

デフォルト設定を使用する場合、Feature Store (Feast) のデプロイメントに必要な証明書とサービスエンドポイントがありません。その結果、ワークベンチは Feast SDK を使用して Feature Store にリクエストを送信できなくなります。

回避策
既存の FeatureStore カスタムリソース (CR) を削除し、次の設定で新しい FeatureStore カスタムリソースを作成します。
registry:
  local:
    server:
      restAPI: false

Feature Store Pod の実行が開始されたら、同じ CR を編集して registry.local.server.restAPI: true を設定し、CR を削除せずに保存します。REST サービスと gRPC サービスの両方が namespace に作成されていることを確認し、Pod が再起動して準備完了になるまで待ちます。

RHOAIENG-37916 - LLM-D でデプロイされたモデルが、Deployments ページで失敗ステータスを表示します

{llm-d} を使用してデプロイされたモデルには、関連付けられている Pod ログにエラーや失敗が報告されていない場合でも、OpenShift AI ダッシュボードの Deployments ページに Failed ステータスが最初に表示されます。

デプロイメントのステータスを確認するには、OpenShift コンソールを使用してプロジェクト内の Pod を監視します。モデルの準備が整うと、OpenShift AI ダッシュボードのステータスが Started に更新されます。

回避策
モデルのステータスが自動的に更新されるまで待つか、OpenShift コンソールで Pod のステータスをチェックして、モデルが正常に起動したことを確認します。

RHOAIENG-37882 - カスタムワークベンチ (AnythingLLM) の読み込みに失敗します

AnythingLLM 1.8.5 などのカスタムワークベンチをデプロイすると、読み込みが完了できない場合があります。OpenShift AI 3.0 以降、すべてのワークベンチは Kubernetes Gateway API のパスをベースにしたルーティングと互換性がある必要があります。この要件をサポートしていないカスタムワークベンチイメージは正しく読み込まれません。

回避策
${NB_PREFIX} パス (例: /notebook/<namespace>/<workbench-name>) からすべてのコンテンツを提供することで、パスベースのルーティングをサポートするようにカスタムワークベンチイメージを更新します。この接頭辞外のパス (/index.html/api/data など) へのリクエストは、ワークベンチコンテナーにルーティングされません。

既存のワークベンチを修正する場合:

  • ${NB_PREFIX}/... パスでリクエストを処理するようにアプリケーションを更新します。
  • フレームワークのベースパスを設定します (例: FastAPI(root_path=os.getenv('NB_PREFIX', '')))。
  • リダイレクト内の接頭辞を保持するように nginx を更新します。
  • ${NB_PREFIX}/api${NB_PREFIX}/api/kernels${NB_PREFIX}/api/terminals に HTTP 200 を返すヘルスエンドポイントを実装します。
  • 相対 URL を使用し、/menu などのハードコードされた絶対パスを削除します。

詳細は、移行ガイド ゲートウェイ API 移行ガイド を参照してください。

RHOAIENG-37855 - Model Catalog からのモデルのデプロイメントは、名前の長さ制限により失敗します

Model Catalog から特定のモデルをデプロイすると、デプロイメントがサイレントに失敗し、Starting 状態のままになる場合があります。この問題は、結果のオブジェクト名が 63 文字の制限を超えた場合に、KServe が InferenceService からデプロイメントを作成できないために発生します。

モデル RedHatAI/Mistral-Small-3.1-24B-Instruct-2503-FP8-dynamic をデプロイしようとすると、KServe は isvc.redhataimistral-small-31-24b-instruct-2503-fp8-dynamic-predictor という名前のデプロイメントを作成しようとしますが、これは 69 文字で、許可されている最大長を超えています。
回避策
生成されるオブジェクト名が 63 文字の制限内に収まるように、モデル名を短くするか、InferenceService の名前を変更します。

RHOAIENG-37842 - ray.init() を必要とする Ray ワークロードは OpenShift AI の外部ではトリガーできません

ray.init() を必要とする Ray ワークロードは、OpenShift AI 環境の外部ではトリガーできません。これらのワークロードは、OpenShift の OpenShift AI で実行されているワークベンチまたはパイプライン内から送信する必要があります。これらのワークロードを外部で実行することはサポートされておらず、初期化に失敗します。

回避策
ray.init() を呼び出す Ray ワークロードは、OpenShift AI ワークベンチまたはパイプラインのコンテキスト内でのみ実行します。

RHOAIENG-37743 - ワークベンチの起動時に進行状況バーが表示されません

ワークベンチを起動する際、Workbench Status 画面の Progress タブにステップごとの進行状況が表示されません。代わりに、“Steps may repeat or occur in a different order.” という一般的なメッセージが表示されます。

回避策
進行状況に関する詳細情報を表示するには、Event Log タブを開くか、OpenShift コンソールを使用して、ワークベンチに関連付けられている Pod の詳細を表示します。

RHOAIENG-37667 - Model-as-a-Service (MaaS) は LLM-D ランタイムでのみ利用可能です

Model-as-a-Service (MaaS) は現在、Distributed Inference Server with llm-d ランタイムを使用してデプロイされたモデルに対してのみサポートされています。vLLM ランタイムでデプロイされたモデルは、現時点では MaaS では提供できません。

回避策
なし。Model-as-a-Service 機能を必要とするデプロイメントには、llm-d ランタイムを使用します。

RHOAIENG-37561 - バージョン 3.0.0 の IBM Z クラスターで、ダッシュボードコンソールリンクから OpenShift AI にアクセスできません

IBM Z クラスターのコンソールリンクを使用して OpenShift AI 3.0.0 ダッシュボードにアクセスしようとすると、接続に失敗します。

回避策
次の YAML ファイルを適用して、Gateway リンクへのルートを作成します。
apiVersion: route.openshift.io/v1
kind: Route
metadata:
  name: data-science-gateway-data-science-gateway-class
  namespace: openshift-ingress
spec:
  host: data-science-gateway.apps.<baseurl>
  port:
    targetPort: https
  tls:
    termination: passthrough
  to:
    kind: Service
    name: data-science-gateway-data-science-gateway-class
    weight: 100
  wildcardPolicy: None

RHOAIENG-37259 - Elyra Pipelines は IBM Z (s390x) ではサポートされていません

Elyra Pipelines は、オーケストレーションと検証用に Data Science Pipelines (DSP) に依存します。DSP は現在 IBM Z では利用できないため、Elyra パイプライン関連の機能とテストはスキップされます。

回避策
なし。DSP サポートが IBM Z で有効化され検証されると、Elyra Pipelines は正常に機能します。

RHOAIENG-37015 - PyTorch 2.8 トレーニングイメージで TensorBoard レポートが失敗します

イメージ registry.redhat.io/rhoai/odh-training-cuda128-torch28-py312-rhel9:rhoai-3.0SFTTrainer を使用するトレーニングジョブに TensorBoard レポートを使用する場合、または report_to パラメーターがトレーニング設定から省略されている場合、トレーニングジョブは JSON シリアライゼーションエラーで失敗します。

回避策
最新バージョンの transformerstrl パッケージをインストールし、トレーニング設定で torch_dtype パラメーターを dtype に更新します。

Training Operator SDK を使用している場合は、create_job 関数の packages_to_install パラメーターを使用して、インストールするパッケージを指定できます。

packages_to_install=[
    "transformers==4.57.1",
    "trl==0.24.0"
]

RHOAIENG-36757 - 接続が存在しない場合、モデルのデプロイメント時に既存のクラスターストレージのオプションが表示されない

データ接続が定義されていないプロジェクトでモデルデプロイメントを作成する場合、プロジェクトに適切な永続ボリューム要求 (PVC) が存在する場合でも、Existing cluster storage オプションは表示されません。これにより、モデルのデプロイメントに既存の PVC を選択できなくなります。

回避策
Existing cluster storage オプションを表示するには、プロジェクトに URI タイプの接続を少なくとも 1 つ作成します。

RHOAIENG-31071 - Parquet データセットは IBM Z (s390x) ではサポートされていません

arc_easyarc_challenge などの一部の埋め込み評価タスクでは、Hugging Face が Parquet 形式で提供するデータセットが使用されます。Parquet は IBM Z ではサポートされていません。

回避策
なし。IBM Z でモデルを評価するには、Parquet ではなく、サポートされている形式のデータセットを使用します。

RHAIENG-1795 - CodeFlare と Ray が Gateway で動作しません

次のコマンドを実行すると、出力には Ray クラスターが作成され実行中であることが示されますが、Gateway ルートが正しく応答しないため、セルは完了しません。

cluster.up()
cluster.wait_ready()

その結果、Ray クラスターの取得やジョブクライアントの取得などの後続の操作が失敗し、クラスターへのジョブの送信ができなくなります。

回避策
なし。CodeFlare を通じて作成された場合、Ray Dashboard Gateway ルートは正しく機能しません。

RHAIENG-1796 - Kubernetes パイプラインストレージを使用する場合、パイプライン名は DNS に準拠している必要があります

パイプラインのストレージバックエンドとして Kubernetes を使用する場合、Elyra はパイプライン名を DNS 準拠の値に自動的に変換しません。Elyra パイプラインの起動時に DNS に準拠していない名前が使用されると、次のようなエラーが表示されます。

[TIP: did you mean to set 'https://ds-pipeline-dspa-robert-tests.apps.test.rhoai.rh-aiservices-bu.com/pipeline' as the endpoint, take care not to include 's' at end]
回避策
Elyra パイプラインを作成または実行する際は、DNS 準拠の名前を使用します。

RHAIENG-1139 - 複数の namespace に同じ名前の LlamaStackDistribution をデプロイできない

異なる namespace に同じ名前の LlamaStackDistribution リソースを 2 つ作成すると、2 番目のリソースの ReplicaSet は Llama Stack Pod の起動に失敗します。Llama Stack Operator は、namespace 全体で重複した名前が使用されている場合、セキュリティー制約を正しく割り当てません。

回避策
各 namespace 内の各 LlamaStackDistribution に一意の名前を使用します。たとえば、プロジェクト名を含めるか、llama-stack-distribution-209342 などの接尾辞を追加します。

RHAIENG-1624 - 非接続クラスターでの Embeddings API タイムアウト

非接続クラスターでは、デフォルトの Llama Stack Distribution イメージに含まれるデフォルトの組み込みモデル (ibm-granite/granite-embedding-125m-english) を使用すると、Embeddings API への呼び出しがタイムアウトになる可能性があります。

回避策

組み込みモデルをオフラインで使用するには、LlamaStackDistribution カスタムリソースに次の環境変数を追加します。

- name: SENTENCE_TRANSFORMERS_HOME
  value: /opt/app-root/src/.cache/huggingface/hub
- name: HF_HUB_OFFLINE
  value: "1"
- name: TRANSFORMERS_OFFLINE
  value: "1"
- name: HF_DATASETS_OFFLINE
  value: "1"

RHOAIENG-34923 - JupyterLab からパイプラインを実行するときにランタイム設定が見つからない

プロジェクトの最初のアクティブなワークベンチからパイプラインを実行すると、ランタイム設定が Elyra パイプラインエディターに表示されないことがあります。これは、ワークベンチの初回セッション時に、設定が正常に入力されないために発生します。

回避策
ワークベンチを再起動します。再起動後、ランタイム設定がパイプライン実行に使用できるようになります。

RHAIENG-35055 - OpenShift AI 2.24 からのアップグレード後にモデルカタログの初期化に失敗する

OpenShift AI 2.24 からアップグレードした後、モデルカタログの初期化とロードに失敗する可能性があります。OpenShift AI ダッシュボードに、Request access to model catalog エラーが表示されます。

回避策

次のコマンドを実行して、既存のモデルカタログ ConfigMap とデプロイメントを削除します。

$ oc delete configmap model-catalog-sources -n rhoai-model-registries --ignore-not-found
$ oc delete deployment model-catalog -n rhoai-model-registries --ignore-not-found

RHAIENG-35529 - 外部 Argo Workflows 使用時の Data Science Pipelines Operator のリコンシリエーション問題

既存の外部 Argo Workflows インストールを削除する前に、組み込み Argo Workflows コントローラー (argoWorkflowsControllers: Managed) を有効にすると、ワークフローコントローラーが起動に失敗し、Data Science Pipelines Operator (DSPO) がカスタムリソースを正しくリコンサイルしない可能性があります。

回避策
組み込み Argo Workflows コントローラーを有効にする前に、クラスターから既存の外部 Argo Workflows インスタンスを削除します。

RHAIENG-36756 - 接続が存在しない場合、モデルのデプロイメント時に既存のクラスターストレージのオプションが表示されない

データ接続が定義されていないプロジェクトでモデルデプロイメントを作成すると、永続ボリューム要求 (PVC) が使用可能な場合でも、既存のクラスターストレージ オプションは表示されません。その結果、モデルの保存に既存の PVC を選択できません。

回避策
プロジェクト内に URI タイプの接続を少なくとも 1 つ作成します。その後、既存のクラスターストレージ オプションが使用可能になります。

RHOAIENG-36817 - Model サーバーのサイズが small に設定されていると推論サーバーが失敗する

ダッシュボード経由で推論サービスを作成する際に、Model サーバーサイズとして small を選択すると、後続の推論要求が失敗します。その結果、推論サービス自体のデプロイメントは成功しますが、推論要求はタイムアウトエラーで失敗します。

回避策
この問題を解決するには、ドロップダウンから Model サーバーのサイズとして large を選択します。

RHOAIENG-33995 - Phi および Mistral モデルの推論サービスのデプロイメントが失敗する

openshift-container-platform 4.19 を搭載した IBM Power クラスターで vLLM ランタイムを使用して Phi および Mistral モデルの推論サービスを作成すると、CPU バックエンドに関連するエラーが原因で失敗します。その結果、これらのモデルのデプロイメントが影響を受け、推論サービスの作成が失敗します。

回避策
この問題を解決するには、CPU および Phi モデルに対して有効になっている場合は、サービスランタイムで sliding_window メカニズムを無効にします。スライディングウィンドウは現在 V1 ではサポートされていません。

RHOAIENG-33795 - IBM Z 上の Triton Inference Server の gRPC エンドポイント検証には手動 Route 作成が必要である

gRPC エンドポイントを使用して Triton Inference Server を検証する場合、Route が自動的に作成されません。これは、Operator が現在、デフォルトで REST のみのエッジ終了ルートを作成するために発生します。

回避策

この問題を解決するには、IBM Z 上の Triton Inference Server の gRPC エンドポイント検証用に手動でルートを作成する必要があります。

  1. モデルデプロイメント Pod が起動して実行されている場合、次の内容を含む YAML ファイルでエッジ終了 Route オブジェクトを定義します。

    apiVersion: route.openshift.io/v1
    kind: Route
    metadata:
      name: <grpc-route-name>                  # e.g. triton-grpc
      namespace: <model-deployment-namespace>  # namespace where your model is deployed
      labels:
        inferenceservice-name: <inference-service-name>
      annotations:
        haproxy.router.openshift.io/timeout: 30s
    spec:
      host: <custom-hostname>                  # e.g. triton-grpc.<apps-domain>
      to:
        kind: Service
        name: <service-name>                   # name of the predictor service (e.g. triton-predictor)
        weight: 100
      port:
        targetPort: grpc                       # must match the gRPC port exposed by the service
      tls:
        termination: edge
      wildcardPolicy: None
  2. Route オブジェクトを作成します。

    oc apply -f <route-file-name>.yaml
  3. 推論要求を送信するには、次のコマンドを入力します。

    grpcurl -cacert <ca_cert_file>\ 
    1
    
      -protoset triton_desc.pb \
      -d '{
        "model_name": "<model_name>",
        "inputs": [
          {
            "name": "<input_tensor_name>",
            "shape": [<shape>],
            "datatype": "<data_type>",
            "contents": {
              "<datatype_specific_contents>": [<input_data_values>]
            }
          }
        ],
        "outputs": [
          {
            "name": "<output_tensor_name>"
          }
        ]
      }' \
      <grpc_route_host>:443 \
      inference.GRPCInferenceService/ModelInfer
    1
    <ca_cert_file> は、クラスタールーターの CA 証明書へのパスです (例: router-ca.crt)。
注記

<triton_protoset_file> は protobuf 記述子ファイルとしてコンパイルされます。protoc -I. --descriptor_set_out=triton_desc.pb --include_imports grpc_service.proto として生成できます。

triton-inference-service GitHub ページから grpc_service.proto および model_config.proto ファイルをダウンロードします。

RHOAIENG-33697 - ステータスが "Started" でない限り、モデルを編集または削除できない

NVIDIA NIM または単一モデルサービングプラットフォームにモデルをデプロイする場合、Starting または Pending 状態のモデルではアクションメニューの Edit および Delete オプションは使用できません。これらのオプションは、モデルが正常にデプロイされた後にのみ使用可能になります。

回避策
モデルを変更したり削除したりするには、モデルが Started 状態になるまで待機します。

RHOAIENG-33645 - LM-Eval Tier1 テストに失敗する

古いバージョンの trustyai-service-operator を使用している場合、ジョブの実行時に confirm_run_unsafe_code が引数として渡されないため、LM-Eval Tier1 テストが失敗する可能性があります。

回避策
最新バージョンの trustyai-service-operator を使用しており、AllowCodeExecution が有効になっていることを確認してください。

RHOAIENG-29729 - アップグレード後の再起動ループでモデルレジストリー Operator が実行される

モデルレジストリーコンポーネントを有効にした状態で OpenShift AI バージョン 2.22 以前からバージョン 2.23 以降にアップグレードすると、モデルレジストリー Operator が再起動ループに入る可能性があります。これは model-registry-operator-controller-manager Pod 内のマネージャーコンテナーのメモリー制限が不十分なために発生します。

回避策

この問題を解決するには、model-registry-operator-controller-manager デプロイメントのリコンシリエーションをトリガーする必要があります。デプロイメントに opendatahub.io/managed='true' アノテーションを追加すると、これが実現され、正しいメモリー制限が適用されます。次のコマンドを実行してアノテーションを追加できます。

oc annotate deployment model-registry-operator-controller-manager -n redhat-ods-applications opendatahub.io/managed='true' --overwrite
注記

このコマンドは model-registry-operator-controller-manager デプロイメント内のカスタム値を上書きします。カスタムデプロイメント値の詳細は、コンポーネントデプロイメントリソースのカスタマイズ を参照してください。

デプロイメントが更新され、メモリー制限が 128Mi から 256Mi に増加すると、コンテナーのメモリー使用量が安定し、再起動ループが停止します。

RHOAIENG-31238 - DSCInitialization の作成時に新しい監視スタックが有効になった

DSCInitialization リソースを削除し、OpenShift AI コンソールフォームビューを使用して新しいリソースを作成すると、テクノロジープレビューの可観測性スタックが有効になります。その結果、DSCInitialization リソースを再作成するときに、不要な可観測性スタックがデプロイメントされることになります。

回避策

この問題を解決するには、フォームビューを使用して DSCInitiliazation リソースを再作成するときに、"metrics" と "traces" フィールドを手動で削除します。

テクノロジープレビューの監視スタックを使用する場合、これは必要ありません。

RHOAIENG-32599 - IBM Z クラスターで推論サービスの作成が失敗する

IBM Z クラスターで vLLM ランタイムを使用して推論サービスを作成しようとすると、ValueError: 'aimv2' is already used by a Transformers config, pick another name エラーが発生して失敗します。

回避策
なし。

RHOAIENG-29731 - OpenShift 4.19 を使用した IBM Power クラスターで推論サービスの作成が失敗する

OpenShift Container Platform バージョン 4.19 上の IBM Power クラスターで vLLM ランタイムを使用して推論サービスを作成しようとすると、Non-Uniform Memory Access (NUMA) に関連するエラーが原因で失敗します。

回避策
推論サービスを作成するときに、環境変数 VLLM_CPU_OMP_THREADS_BINDall に設定します。

RHOAIENG-29292 - IBM Z 上で、使用状況統計ディレクトリーへのアクセスが原因で、vLLM が権限エラーをログに記録する

IBM Z アーキテクチャーで vLLM を実行すると、推論サービスは正常に起動しますが、使用状況統計レポートに関連するバックグラウンドスレッドにエラーが記録されます。これは、サービスがアクセス権限のない制限された場所 (/.config) に使用状況データを書き込もうとするために発生します。

以下のエラーがログに記録されます。

Exception in thread Thread-2 (_report_usage_worker):
Traceback (most recent call last):
 ...
PermissionError: [Error 13] Permission denied: '/.config'
回避策
このエラーを防止し、使用状況統計のロギングを抑制するには、推論サービスのデプロイメントで VLLM_NO_USAGE_STATS=1 環境変数を設定します。これにより、使用状況の自動レポートが無効になり、システムディレクトリーへの書き込み時に権限の問題が発生するのを回避できます。

RHOAIENG-24545 - 初回の起動後にランタイムイメージがワークベンチに存在しない

ランタイムイメージのリストには、namespace で最初に実行されているワークベンチインスタンスが適切に入力されないため、Elyra パイプラインエディターで選択できるイメージが表示されません。

回避策
ワークベンチを再起動します。ワークベンチを再起動すると、ランタイムイメージのリストがワークベンチと Elyra パイプラインエディターの選択ボックスの両方に表示されます。

RHOAIENG-20209 - 要求されたリソースがしきい値を超えても警告メッセージが表示されない

Distributed workloadsProject metrics をクリックし、Requested resources セクションを表示すると、チャートには要求されたリソースの値と各リソースの合計共有クォータ値 (CPU および メモリー) が表示されます。ただし、Requested by all projects の値が、そのリソースの Warning threshold の値を超えると、予想される警告メッセージは表示されません。

回避策
なし。

SRVKS-1301 (以前は RHOAIENG-18590 として文書化されていました) - KServe を無効化にしてから有効化すると、KnativeServing リソースが失敗する

DataScienceCluster で kserve コンポーネントを無効にしてから有効にすると、KnativeServing リソースが失敗する可能性があります。

回避策

Knative に関連するすべての ValidatingWebhookConfiguration および MutatingWebhookConfiguration Webhook を削除します。

  1. Webhook を取得します。

    oc get ValidatingWebhookConfiguration,MutatingWebhookConfiguration | grep -i knative
  2. KServe が無効になっていることを確認します。
  3. Webhook を取得します。

    oc get ValidatingWebhookConfiguration,MutatingWebhookConfiguration | grep -i knative
  4. Webhook を削除します。
  5. KServe を有効にします。
  6. KServe Pod が正常に生成され、knative-serving namespace 内の Pod がアクティブで動作していることを確認します。

RHOAIENG-16247 - OpenShift AI ダッシュボードから実行を開始すると、Elyra パイプラインの実行出力が上書きされる

Elyra からパイプラインを作成して実行すると、パイプラインの実行によって生成された出力が、オブジェクトストレージのフォルダー bucket-name/pipeline-name-timestamp に保存されます。

Elyra からパイプラインを作成し、OpenShift AI ダッシュボードからパイプラインの実行を開始すると、タイムスタンプ値が更新されません。これにより、パイプラインの実行によって、同じパイプラインの以前のパイプライン実行によって作成されたファイルが上書きされる可能性があります。

この問題は、OpenShift AI ダッシュボードを使用してコンパイルおよびインポートされたパイプラインには影響しません。これは、オブジェクトストレージで使用されるフォルダーに runid が常に追加されるためです。AI パイプラインで使用されるストレージの場所の詳細は、パイプラインによるデータの保存 を参照してください。

回避策
Elyra パイプラインにファイルを保存する場合は、パイプライン実行ごとに異なるサブフォルダー名を使用します。

OCPBUGS-49422 - 非接続環境内の AMD GPU および AMD ROCm ワークベンチイメージがサポートされていない

この OpenShift AI リリースでは、非接続環境内の AMD GPU および AMD ROCm ワークベンチイメージはサポートされていません。AMD GPU Operator をインストールするには、GPU ドライバーのコンパイルに必要な依存関係を取得するのにインターネットアクセスが必要であるためです。

回避策
なし。

RHOAIENG-7716 - パイプライン条件グループのステータスが更新されない

ループ (dsl.ParallelFor) または条件グループ (dsl.lf) を含むパイプラインを実行すると、パイプラインの実行が完了した後でも、UI にループとグループの実行ステータスが表示されます。

回避策

アクティブな子タスクがないことを確認することで、パイプラインがまだ実行中かどうかを確認できます。

  1. OpenShift AI ダッシュボードから、Develop & trainPipelinesRuns をクリックします。
  2. Project リストから、データサイエンスプロジェクトをクリックします。
  3. Runs タブから、ステータスを確認する必要があるパイプライン実行をクリックします。
  4. 条件グループを展開し、子タスクをクリックします。

    子タスクに関する情報を含むパネルが表示されます。

  5. パネルで、Task 詳細タブをクリックします。

    Status フィールドに、子タスクの正しいステータスが表示されます。

RHOAIENG-6409 - 実行が成功しても、パイプラインログに Cannot save parameter というエラーが表示される

パイプラインを複数回実行すると、パイプラインの実行が成功した場合、パイプラインログに Cannot save parameter というエラーが表示されます。これらのエラーは無視しても問題ありません。

回避策
なし。

RHOAIENG-3025 - OVMS が要求するディレクトリーレイアウトが KServe StoragePuller レイアウトと競合する

OpenVINO Model Server (OVMS) ランタイムを使用してシングルモデルサービングプラットフォーム (KServe を使用) にモデルをデプロイすると、OVMS が要求するディレクトリーレイアウトと KServe で使用されるモデル取得ロジックのレイアウトの間に不一致が生じます。具体的には、OVMS はモデルファイルを /<mnt>/models/1/ ディレクトリーに配置することを要求しますが、KServe はモデルファイルを /<mnt>/models/ ディレクトリーに配置します。

回避策

次の操作を実行します。

  1. S3 互換ストレージバケットで、モデルファイルを 1/ というディレクトリーに置きます (例: /<s3_storage_bucket>/models/1/<model_files>)。
  2. OVMS ランタイムを使用してシングルモデルサービングプラットフォームにモデルをデプロイするには、次のいずれかの方法を選択して、モデルファイルへのパスを指定します。

    • OpenShift AI ダッシュボードを使用してモデルをデプロイする場合は、データ接続の Path フィールドで、/<s3_storage_bucket>/models/ 形式を使用してモデルファイルへのパスを指定します。パスの一部として 1/ ディレクトリーを指定しないでください。
    • 独自の InferenceService カスタムリソースを作成してモデルをデプロイする場合は、storageURI フィールドの値を /<s3_storage_bucket>/models/ に設定します。パスの一部として 1/ ディレクトリーを指定しないでください。

KServe は、指定したパスのサブディレクトリーからモデルファイルを取得します。この場合、KServe は S3 互換ストレージの /<s3_storage_bucket>/models/1/ ディレクトリーからモデルファイルを正しく取得します。

RHOAIENG-3018 - KServe 上の OVMS がダッシュボードに正しいエンドポイントを公開しない

OpenVINO Model Server (OVMS) ランタイムを使用してシングルモデルサービングプラットフォームにモデルをデプロイした場合、デプロイしたモデルの Inference endpoint フィールドに表示される URL が不完全なものになります。

回避策
モデルにクエリーを送信するには、URL の末尾に /v2/models/_<model-name>_/infer 文字列を追加する必要があります。_<model-name>_ は、デプロイしたモデルの名前に置き換えてください。

RHOAIENG-2228 - 間隔が 15 秒に設定されている場合、パフォーマンスメトリクスグラフが絶えず変化する

モデルメトリクス画面の Endpoint performance タブで、Refresh interval を 15 秒に、Time range を 1 時間に設定すると、グラフの結果は連続的に変化します。

回避策
なし。

RHOAIENG-2183 - エンドポイントのパフォーマンスグラフに間違ったラベルが表示される場合がある

モデルメトリクス画面の Endpoint performance タブで、グラフツールチップに誤ったラベルが表示される場合があります。

回避策
なし。

RHOAIENG-131 - InferenceService が Loaded と報告した後、gRPC エンドポイントが適切に応答しない

多数の InferenceService インスタンスが生成され、リクエストがダイレクトされると、Service Mesh Control Plane (SMCP) が応答しなくなります。InferenceService インスタンスのステータスは Loaded ですが、gRPC エンドポイントへの呼び出しはエラーとともに返されます。

回避策
ServiceMeshControlPlane カスタムリソース (CR) を編集して、Istio Egress Pod と Ingress Pod のメモリー制限を増やします。

RHOAIENG-1619 (以前は DATA-SCIENCE-PIPELINES-165 として記録されていた問題) - S3 バケットが書き込み可能でない場合の不適切なエラーメッセージ

データ接続を設定し、S3 バケットが書き込み可能でない場合にパイプラインをアップロードしようとすると、Failed to store pipelines というエラーメッセージが表示されますが、有用ではありません。

回避策
データ接続の認証情報が正しいこと、および指定したバケットへの書き込みアクセス権があることを確認してください。

RHOAIENG-1207 (以前は ODH-DASHBOARD-1758 として記録されていた問題) - OOTB カスタムサービングランタイムを数回複製するときにエラーが発生する

モデルサービングランタイムを複数回複製すると、複製が失敗し、Serving runtime name "<name>" already exists というエラーメッセージが表示されます。

回避策
metadata.name フィールドを一意の値に変更します。

RHOAIENG-133 - 既存のワークベンチは、ワークベンチの再起動後に Elyra パイプラインを実行できない

Elyra JupyterLab エクステンションを使用して JupyterLab 内でパイプラインを作成および実行し、ワークベンチを作成してワークベンチ内でワークベンチイメージを指定した 後に パイプラインサーバーを設定すると、ワークベンチを再起動した後でもパイプラインを実行できません。

回避策
  1. 実行中のワークベンチを停止します。
  2. ワークベンチを編集して小さな変更を加えます。たとえば、新しいダミー環境変数を追加したり、既存の不要な環境変数を削除したりします。変更を保存します。
  3. ワークベンチを再起動します。
  4. JupyterLab の左側のサイドバーで、Runtimes をクリックします。
  5. デフォルトのランタイムが選択されていることを確認します。

RHODS-12798 - Pod が "unable to init seccomp" エラーで失敗する

seccomp メモリーリークを引き起こす既知のカーネルバグが原因で、Pod は Running のステータスではなく CreateContainerError ステータスまたは Pending ステータスで失敗します。Pod が失敗した namespace でイベントをチェックするか、oc describe pod コマンドを実行すると、以下のエラーが表示されます。

runc create failed: unable to start container process: unable to init seccomp: error loading seccomp filter into kernel: error loading seccomp filter: errno 524
回避策
Red Hat ナレッジベースのソリューション記事 Pods failing with error loading seccomp filter into kernel: errno 524 in OpenShift 4 の説明に従って、net.core.bpf_jit_limit の値を増やします。

KUBEFLOW-177 - OAuth-proxy で転送されないアプリケーションのベアラートークン

アプリケーションの内部認証メカニズムがベアラートークンに基づいている場合、アプリケーションをカスタムワークベンチイメージとして使用できません。OAuth プロキシー設定によりヘッダーからベアラートークンが削除されるため、アプリケーションは適切に動作できなくなります。

回避策
なし。

KUBEFLOW-157: OpenShift AI ダッシュボードからすでにログアウトしている場合、JupyterLab からのログアウトが機能しない

JupyterLab からログアウトする前に OpenShift AI ダッシュボードからログアウトすると、JupyterLab から正常にログアウトされません。たとえば、Jupyter Notebook の URL がわかっている場合は、これをブラウザーで再度開くことができます。

回避策
OpenShift AI ダッシュボードからログアウトする前に、JupyterLab からログアウトします。

RHODS-7718 - ダッシュボード権限のないユーザーが実行中のワークベンチを無期限に使い続けることができる

Red Hat OpenShift AI 管理者がユーザーの権限を取り消しても、引き続きユーザーは実行中のワークベンチを無期限で使用できます。

回避策
OpenShift AI 管理者がユーザーの権限を取り消す場合、管理者はそのユーザーに対して実行中のワークベンチも停止する必要があります。

RHODS-5543: NVIDIA GPU Operator を使用すると、Node Autoscaler によって必要以上のノードが作成される

使用可能なリソースが不十分なために Pod をスケジュールできないと、Node Autoscaler は新しいノードを作成します。新しく作成されたノードが関連する GPU ワークロードを受け取るまで、遅延があります。したがって、Pod をスケジュールすることはできず、Node Autoscaler は、ノードの 1 つが GPU ワークロードを受け取る準備ができるまで、追加の新しいノードを継続的に作成します。この問題の詳細は、Red Hat ナレッジベースのソリューション記事 NVIDIA GPU Operator を使用すると、Node Autoscaler によって必要以上のノードが作成される を参照してください。

回避策
machineset.spec.template.spec.metadatacluster-api/accelerator ラベルを適用します。これにより、オートスケーラーは、GPU ドライバーがデプロイされるまで、これらのノードを準備ができていないと見なします。

RHODS-4799: Tensorboard を表示するには手動の手順が必要

TensorFlow または PyTorch ワークベンチイメージを使用しており、TensorBoard を使用してデータを表示する場合に、ワークベンチ環境に環境変数を追加して、独自のコードで使用する環境変数をインポートするといった手作業の手順が必要です。

回避策

基本ワークベンチを起動するときに、次のコードを使用して TENSORBOARD_PROXY_URL 環境変数の値を設定し、OpenShift AI ユーザー ID を使用します。

import os
os.environ["TENSORBOARD_PROXY_URL"]= os.environ["NB_PREFIX"]+"/proxy/6006/"

RHODS-4718: Intel® oneAPI AI Analytics Toolkits のクイックスタートが、存在しないサンプルノートブックを参照している

ダッシュボードの Resources ページにある Intel® oneAPI AI アナリティクスツールキットクイックスタートでは、手順の一部としてサンプルノートブックをロードする必要がありますが、関連するリポジトリーに存在しないノートブックを参照しています。

回避策
なし。

RHOAING-1147 (以前は RHODS-2881 として記録されていた問題) - ダッシュボード上のアクションが明確に表示されない

無効になったアプリケーションのライセンスを再検証し、無効になったアプリケーションのタイルを削除するダッシュボードアクションは、ユーザーには明確に表示されません。これらのアクションは、ユーザーがアプリケーションタイルの Disabled ラベルをクリックすると表示されます。その結果、意図したワークフローがユーザーにとって明確でない場合があります。

回避策
なし。

RHODS-2096 - IBM Watson Studio は OpenShift AI で利用できない

IBM Watson Studio は、OpenShift AI が OpenShift Dedicated 4.9 以降にインストールされている場合は使用できません。これは、OpenShift Dedicated のこれらのバージョンと互換性がないためです。

回避策
OpenShift Dedicated 4.9 以降で Watson Studio を手動で設定する場合のサポートについては、Red Hat カスタマーポータル にお問い合わせください。

第9章 製品機能

Red Hat OpenShift AI は、データサイエンティストやクラスター管理者向けに豊富な機能を提供します。詳細は、Red Hat OpenShift AI の概要 を参照してください。

法律上の通知

Copyright © 2025 Red Hat, Inc.
The text of and illustrations in this document are licensed by Red Hat under a Creative Commons Attribution–Share Alike 3.0 Unported license ("CC-BY-SA"). An explanation of CC-BY-SA is available at http://creativecommons.org/licenses/by-sa/3.0/. In accordance with CC-BY-SA, if you distribute this document or an adaptation of it, you must provide the URL for the original version.
Red Hat, as the licensor of this document, waives the right to enforce, and agrees not to assert, Section 4d of CC-BY-SA to the fullest extent permitted by applicable law.
Red Hat, Red Hat Enterprise Linux, the Shadowman logo, the Red Hat logo, JBoss, OpenShift, Fedora, the Infinity logo, and RHCE are trademarks of Red Hat, Inc., registered in the United States and other countries.
Linux® is the registered trademark of Linus Torvalds in the United States and other countries.
Java® is a registered trademark of Oracle and/or its affiliates.
XFS® is a trademark of Silicon Graphics International Corp. or its subsidiaries in the United States and/or other countries.
MySQL® is a registered trademark of MySQL AB in the United States, the European Union and other countries.
Node.js® is an official trademark of Joyent. Red Hat is not formally related to or endorsed by the official Joyent Node.js open source or commercial project.
The OpenStack® Word Mark and OpenStack logo are either registered trademarks/service marks or trademarks/service marks of the OpenStack Foundation, in the United States and other countries and are used with the OpenStack Foundation's permission. We are not affiliated with, endorsed or sponsored by the OpenStack Foundation, or the OpenStack community.
All other trademarks are the property of their respective owners.
Red Hat logoGithubredditYoutubeTwitter

詳細情報

試用、購入および販売

コミュニティー

Red Hat ドキュメントについて

Red Hat をお使いのお客様が、信頼できるコンテンツが含まれている製品やサービスを活用することで、イノベーションを行い、目標を達成できるようにします。 最新の更新を見る.

多様性を受け入れるオープンソースの強化

Red Hat では、コード、ドキュメント、Web プロパティーにおける配慮に欠ける用語の置き換えに取り組んでいます。このような変更は、段階的に実施される予定です。詳細情報: Red Hat ブログ.

会社概要

Red Hat は、企業がコアとなるデータセンターからネットワークエッジに至るまで、各種プラットフォームや環境全体で作業を簡素化できるように、強化されたソリューションを提供しています。

Theme

© 2026 Red Hat
トップに戻る