2.2. 機能拡張


vLLM コンポーネントのバージョンの更新

OpenShift AI は、記載されている各コンポーネントに対して次の vLLM バージョンをサポートしています。

  • vLLM CUDA v0.9.0.1 (FIPS 向けに設計)
  • vLLM ROCm v0.8.4.3 (FIPS 向けに設計)
  • vLLM Power v0.9.1
  • vLLM Z v0.9.1 (FIPS 向けに設計)
  • vLLM Gaudi v0.7.2.post1

    詳細は、GitHub の vllm を参照してください。

LLM-as-a-Judge メトリクスのサポートの追加

TrustyAI の LM-Eval で LLM-as-a-Judge メトリクスを使用できるようになりました。大規模言語モデル (LLM) を人間のような評価者として使用し、創造的な文章の評価など、簡単に定量化できない別の LLM の出力品質を評価できます。これは、LLM-as-a-Judge (LLMaaJ) と呼ばれています。

評価例については、LM-Eval の設定例 を参照してください。

分散ワークロード: 追加のトレーニングイメージがテストおよび検証済み

次の追加のトレーニングイメージは、テスト済みおよび検証済みです。

  • CUDA 互換の Ray クラスターイメージ

    新しい Ray ベースのトレーニングイメージ quay.io/modh/ray:2.46.0-py311-cu121 がテストおよび検証されました。このイメージは、CUDA 12.1 でサポートされている AMD アクセラレーターと互換性があります。

  • ROCm 互換の Ray クラスターイメージ

    ROCm 互換の Ray クラスターイメージ quay.io/modh/ray:2.46.0-py311-rocm62 がテストおよび検証されました。このイメージは、ROCm 6.2 でサポートされている AMD アクセラレーターと互換性があります。

注記

これらのイメージは AMD64 イメージであり、他のアーキテクチャーでは動作しない可能性があります。Red Hat OpenShift AI で利用可能な最新のトレーニングイメージの詳細は、Red Hat OpenShift AI でサポートされる構成 を参照してください。

OpenShift AI Operator の信頼性の向上
OpenShift AI Operator が、1 つのインスタンスではなく 3 つのレプリカで実行されるようになり、実稼働ワークロードの回復力と信頼性が向上しました。この機能拡張により、OpenShift AI サービスの中断が低減し、Webhook 操作が複数のインスタンスに分散されます。
データサイエンスパイプラインにおける Kubeflow Pipelines 2.5.0 のサポート
データサイエンスパイプラインが Kubeflow Pipelines (KFP) バージョン 2.5.0 にアップグレードされました。詳細は、Kubeflow Pipelines のリリースドキュメント を参照してください。
ノートブックコントローラーによる Elyra リソースの自動作成

以前は、elyra-pipelines-<notebook-name> RoleBinding および ds-pipeline-config Secret リソースがダッシュボードコンポーネントによってプロビジョニングされていました。しかし、このコンポーネントにはコントローラーのライフサイクル管理との統合が欠けていました。また、このような依存関係により、パイプライン機能のみが必要な場合でも、OpenShift AI ダッシュボードをデプロイする必要がありました。

このリリースでは、ノートブックコントローラーによってこれらのリソースが自動的に作成されます。そのため、ダッシュボードコンポーネントに依存せずにワークベンチとパイプラインを使用できます。この変更により、セットアップが簡素化され、ライフサイクル管理の一貫性が向上します。

Seldon MLServer バージョン 1.6.1 ランタイムがテストおよび検証済み

Red Hat は、Seldon MLServer バージョン 1.6.1 ランタイムをテストおよび検証し、一般的な予測 AI モデルとの互換性を向上させました。KServe (REST および gRPC) で次のモデルをテストしました。

  • Scikit-learn
  • XGBoost
  • LightGBM
  • CatBoost
  • MLflow
  • Hugging Face
モデルレジストリーの Operator 依存関係の削除

OpenShift AI のモデルレジストリーコンポーネントを使用するために、Red Hat Authorino、Red Hat OpenShift Serverless、および Red Hat OpenShift Service Mesh Operator が必要なくなりました。

既存のモデルレジストリーインスタンスは、OpenShift OAuth プロキシー認証を使用するように自動的に移行されます。OpenShift AI ダッシュボードから作成された新しいモデルレジストリーインスタンスは、デフォルトで OAuth プロキシーを使用します。古い v1alpha1 API と Istio 設定を使用して作成された新しいインスタンスは、OAuth プロキシーを使用するように自動的に更新されます。

Kubernetes RBAC リソースなど、古いモデルレジストリーインスタンスの既存の認可設定は、引き続き期待どおりに機能します。

トップに戻る
Red Hat logoGithubredditYoutubeTwitter

詳細情報

試用、購入および販売

コミュニティー

Red Hat ドキュメントについて

Red Hat をお使いのお客様が、信頼できるコンテンツが含まれている製品やサービスを活用することで、イノベーションを行い、目標を達成できるようにします。 最新の更新を見る.

多様性を受け入れるオープンソースの強化

Red Hat では、コード、ドキュメント、Web プロパティーにおける配慮に欠ける用語の置き換えに取り組んでいます。このような変更は、段階的に実施される予定です。詳細情報: Red Hat ブログ.

会社概要

Red Hat は、企業がコアとなるデータセンターからネットワークエッジに至るまで、各種プラットフォームや環境全体で作業を簡素化できるように、強化されたソリューションを提供しています。

Theme

© 2025 Red Hat