2.2. 機能拡張
2.2.1. Red Hat OpenShift AI 2.16.2 の機能拡張(2025) リンクのコピーリンクがクリップボードにコピーされました!
- vLLM Gaudi から 1.20 リリースへのアップグレード
- VLLM は、Intel Gaudi Operator のバージョン 1.20 をサポートするようになりました。その結果、ユーザーは Large Language Models (LLM)の vLLM ランタイムと効率的なデプロイメントを利用できます。
2.2.2. Red Hat OpenShift AI 2.16.1 の機能拡張(2025 年 1 月) リンクのコピーリンクがクリップボードにコピーされました!
本リリースでは機能拡張はありません。
2.2.3. Red Hat OpenShift AI 2.16.0 の機能拡張(2024 年 12 月) リンクのコピーリンクがクリップボードにコピーされました!
- カスタム接続タイプ
- 管理者は強化された接続機能を使用して、データベースなどのデータソースへのカスタム接続を設定できます。そのため、ユーザーはモデル開発のためにデータに簡単にアクセスできます。さらに、ユーザーは、URI ベースのリポジトリー用の組み込み接続タイプにより、モデルサービングのために Hugging Face などのリポジトリーからモデルにアクセスできます。
- NVIDIA Triton Inference Server バージョン 24.10 ランタイム: 追加のモデルでテストおよび検証済み
NVIDIA Triton Inference Server バージョン 24.10 ランタイムは、KServe (REST および gRPC) と ModelMesh (REST) の両方について、次のモデルでテスト済みです。
- Forest Inference Library (FIL)
- Python
- TensorRT
- 分散ワークロード: 追加のトレーニングイメージがテストおよび検証済み
いくつかの追加のトレーニングイメージがテストおよび検証済みです。
ROCm 互換の KFTO クラスターイメージ
新しい ROCm 互換の KFTO クラスターイメージ
quay.io/modh/training:py311-rocm61-torch241
がテストおよび検証済みです。このイメージは、ROCm 6.1 でサポートされている AMD アクセラレーターと互換性があります。ROCm 互換の Ray クラスターイメージ
ROCm 互換の Ray クラスターイメージ
quay.io/modh/ray:2.35.0-py39-rocm61
およびquay.io/modh/ray:2.35.0-py311-rocm61
がテストおよび検証済みです。これらは、以前は開発者プレビュー機能として提供されていました。これらのイメージは、ROCm 6.1 でサポートされている AMD アクセラレーターと互換性があります。CUDA 互換の KFTO イメージ
CUDA 互換の KFTO クラスターイメージがテストおよび検証済みです。このイメージは、以前は開発者プレビュー機能として提供されていました。現在は新しい場所
quay.io/modh/training:py311-cuda121-torch241
で提供されています。このイメージは、CUDA 12.1 でサポートされている NVIDIA GPU と互換性があります。
これらのイメージは AMD64 イメージであり、他のアーキテクチャーでは動作しない可能性があります。Red Hat OpenShift AI で利用可能な最新のトレーニングイメージの詳細は、Red Hat OpenShift AI でサポートされる構成 を参照してください。
- Red Hat OpenShift AI Operator の検索用語の改善
OpenShift コンソールの Administrator パースペクティブの Operator > OperatorHub ページで、Filter by keyword 検索フィールドに次のいずれかの用語を入力すると、Red Hat OpenShift AI Operator が見つかるようになりました。
-
AI
-
RHOAI
-
OAI
-
ML
-
Machine Learning
-
Data Science
-
OD
-
Open Data Hub
-