2.2. 機能拡張
- vLLM コンポーネントのバージョンの更新
OpenShift AI は、記載されている各コンポーネントに対して次の vLLM バージョンをサポートしています。
- vLLM CUDA v0.9.0.1 (FIPS 向けに設計)
- vLLM ROCm v0.8.4.3 (FIPS 向けに設計)
- vLLM Power v0.9.1
- vLLM Z v0.9.1 (FIPS 向けに設計)
vLLM Gaudi v0.7.2.post1
詳細は、GitHub の
vllm
を参照してください。
- LLM-as-a-Judge メトリクスのサポートの追加
TrustyAI の LM-Eval で LLM-as-a-Judge メトリクスを使用できるようになりました。大規模言語モデル (LLM) を人間のような評価者として使用し、創造的な文章の評価など、簡単に定量化できない別の LLM の出力品質を評価できます。これは、LLM-as-a-Judge (LLMaaJ) と呼ばれています。
評価例については、LM-Eval の設定例 を参照してください。
- 分散ワークロード: 追加のトレーニングイメージがテストおよび検証済み
次の追加のトレーニングイメージは、テスト済みおよび検証済みです。
CUDA 互換の Ray クラスターイメージ
新しい Ray ベースのトレーニングイメージ
quay.io/modh/ray:2.46.0-py311-cu121
がテストおよび検証されました。このイメージは、CUDA 12.1 でサポートされている AMD アクセラレーターと互換性があります。ROCm 互換の Ray クラスターイメージ
ROCm 互換の Ray クラスターイメージ
quay.io/modh/ray:2.46.0-py311-rocm62
がテストおよび検証されました。このイメージは、ROCm 6.2 でサポートされている AMD アクセラレーターと互換性があります。
これらのイメージは AMD64 イメージであり、他のアーキテクチャーでは動作しない可能性があります。Red Hat OpenShift AI で利用可能な最新のトレーニングイメージの詳細は、Red Hat OpenShift AI でサポートされる構成 を参照してください。
- OpenShift AI Operator の信頼性の向上
- OpenShift AI Operator が、1 つのインスタンスではなく 3 つのレプリカで実行されるようになり、実稼働ワークロードの回復力と信頼性が向上しました。この機能拡張により、OpenShift AI サービスの中断が低減し、Webhook 操作が複数のインスタンスに分散されます。
- データサイエンスパイプラインにおける Kubeflow Pipelines 2.5.0 のサポート
- データサイエンスパイプラインが Kubeflow Pipelines (KFP) バージョン 2.5.0 にアップグレードされました。詳細は、Kubeflow Pipelines のリリースドキュメント を参照してください。
- ノートブックコントローラーによる Elyra リソースの自動作成
以前は、
elyra-pipelines-<notebook-name> RoleBinding
およびds-pipeline-config Secret
リソースがダッシュボードコンポーネントによってプロビジョニングされていました。しかし、このコンポーネントにはコントローラーのライフサイクル管理との統合が欠けていました。また、このような依存関係により、パイプライン機能のみが必要な場合でも、OpenShift AI ダッシュボードをデプロイする必要がありました。このリリースでは、ノートブックコントローラーによってこれらのリソースが自動的に作成されます。そのため、ダッシュボードコンポーネントに依存せずにワークベンチとパイプラインを使用できます。この変更により、セットアップが簡素化され、ライフサイクル管理の一貫性が向上します。
- Seldon MLServer バージョン 1.6.1 ランタイムがテストおよび検証済み
Red Hat は、Seldon MLServer バージョン 1.6.1 ランタイムをテストおよび検証し、一般的な予測 AI モデルとの互換性を向上させました。KServe (REST および gRPC) で次のモデルをテストしました。
- Scikit-learn
- XGBoost
- LightGBM
- CatBoost
- MLflow
- Hugging Face
- モデルレジストリーの Operator 依存関係の削除
OpenShift AI のモデルレジストリーコンポーネントを使用するために、Red Hat Authorino、Red Hat OpenShift Serverless、および Red Hat OpenShift Service Mesh Operator が必要なくなりました。
既存のモデルレジストリーインスタンスは、OpenShift OAuth プロキシー認証を使用するように自動的に移行されます。OpenShift AI ダッシュボードから作成された新しいモデルレジストリーインスタンスは、デフォルトで OAuth プロキシーを使用します。古い
v1alpha1
API と Istio 設定を使用して作成された新しいインスタンスは、OAuth プロキシーを使用するように自動的に更新されます。Kubernetes RBAC リソースなど、古いモデルレジストリーインスタンスの既存の認可設定は、引き続き期待どおりに機能します。