3.2. 機能拡張
- Llama Stack のリモートベクトルデータベースのハイブリッド検索サポート
OpenShift AI の Llama Stack でリモートベクトルデータベースのハイブリッド検索を有効にできるようになりました。
この機能拡張により、企業は、さまざまなデータベースタイプにわたって高い検索パフォーマンスと柔軟性を維持しながら、既存の管理対象ベクトルデータベースインフラストラクチャーを使用できるようになります。
- Caikit-TGIS アダプターを使用した IBM Z 向け IBM Spyre サポート
Caikit-TGIS gRPC アダプター を備えた vLLM Spyre s390x ServingRuntime for KServe を使用することで、IBM Z (s390x アーキテクチャー) 上で IBM Spyre AI アクセラレーターを使用してモデルを提供できるようになりました。
この統合により、OpenShift AI 内の IBM Z システム上の生成 AI ワークロードに対する高性能なモデルサービングと推論が可能になります。
- Data Science Pipelines の名前が AI Pipelines に変更されました
OpenShift AI では、プラットフォームでサポートされる AI および生成 AI のユースケースのより広範な範囲をより適切に反映するために、"Data Science Pipelines" ではなく "AI Pipelines" という用語を使用するようになりました。
デフォルトの
DataScienceCluster(default-dsc) では、この用語の更新に合わせて、datasciencepipelinesコンポーネントの名前がaipipelinesに変更されました。これは名前の変更のみです。AI パイプラインの機能は同じままです。
- モデル検証データによる Model Catalog の強化
OpenShift AI Model Catalog の Model Details ページには、パフォーマンスベンチマーク、ハードウェア互換性、その他の主要なメトリクスなどの包括的なモデル検証データが含まれるようになりました。
この機能拡張により、Jounce UI モデルの詳細レイアウトと一致する統合された詳細ビューが提供され、ユーザーは単一のインターフェイスからより効果的にモデルを評価できるようになります。
- 検索とフィルタリング機能を備えた Model Catalog のパフォーマンスデータ
Model Catalog には、ベンチマークやハードウェア互換性メトリクスなど、Red Hat が検証したサードパーティーモデルの詳細なパフォーマンスと検証データが含まれるようになりました。
レイテンシーやハードウェアプロファイルによるフィルタリングなどの強化された検索およびフィルタリング機能により、ユーザーは特定のユースケースや利用可能なリソースに最適化されたモデルを迅速に特定でき、Red Hat AI Hub 内で統合された検出エクスペリエンスが提供されます。
- Distributed Inference with llm-d が一般提供 (GA) されました
Distributed Inference with llm-d は、マルチモデルサービング、インテリジェントな推論スケジューリング、分散サービングをサポートし、生成 AI モデルでの GPU 使用率を向上させます。
注記次の機能は完全にはサポートされていません。
- Wide Expert-Parallelism マルチノード: 開発者プレビュー。
- Blackwell B200 上の Wide Expert-Parallelism: 利用できませんが、テクノロジープレビューとして提供できます。
- GB200 上のマルチノード: サポートされていません。
- このリリースでは、モデルデプロイメントの際に、UI での Gateway の検出と関連付けはサポートされていません。ユーザーは、API または CLI を通じてリソースマニフェストを直接適用して、モデルを Gateway に関連付ける必要があります。
- Distributed Inference with llm-d デプロイメント設定のユーザーインターフェイス
OpenShift AI に、
llm-dServing Runtime で実行される大規模言語モデル (LLM) デプロイメントを設定するためのユーザーインターフェイス (UI) が追加されました。この合理化されたインターフェイスは、デプロイメントの
llm-dランタイムの明示的な選択を可能にしながら、適切なデフォルトを備えた重要な設定オプションを提供することで、一般的なデプロイメントシナリオを簡素化します。新しい UI により、セットアップの複雑さが軽減され、ユーザーは分散推論ワークロードをより効率的にデプロイできるようになります。
- 新しいナビゲーションシステム
OpenShift AI 3.0 では、使いやすさとワークフローの効率性を向上させる、再設計され合理化されたナビゲーションシステムが導入されています。
新しいレイアウトにより、ユーザーは機能間をシームレスに移動できるようになり、主要な機能へのアクセスが簡素化され、よりスムーズなエンドツーエンドのエクスペリエンスがサポートされます。
- AI パイプラインの強化された認証
OpenShift AI 3.0 では、プラットフォーム全体の認証移行の一環として、AI パイプラインの oauth-proxy が kube-rbac-proxy に置き換えられます。
この更新により、特に Red Hat OpenShift Service on AWS などの内部 OAuth サーバーがない環境でのセキュリティーと互換性が向上します。
kube-rbac-proxy に移行すると、SubjectAccessReview (SAR) の要件と RBAC 権限もそれに応じて変更されます。組み込みの
ds-pipeline-user-access-<dspa-name>ロールに依存するユーザーは自動的に更新されますが、その他のユーザーは、create、update、patch、delete、get、list、およびwatchの動詞を使用して、datasciencepipelinesapplications/apiサブリソースへのアクセスがロールに含まれていることを確認する必要があります。
- Distributed Inference with llm-d の可観測性と Grafana の統合
OpenShift AI 3.0 では、プラットフォーム管理者は Distributed Inference with llm-d デプロイメントに可観測性コンポーネントを接続し、セルフホスト型 Grafana インスタンスと統合して推論ワークロードを監視できます。
この機能により、チームは Distributed Inference with llm-d から Prometheus メトリクスを収集および視覚化し、パフォーマンス分析やカスタムダッシュボードの作成を行うことができます。