2.8. テストおよび検証済みのモデルサービングランタイム
テストおよび検証済みのランタイムは、OpenShift AI の特定のバージョンに対してテストおよび検証されたモデルサービングランタイムのコミュニティーバージョンです。
Red Hat は、OpenShift AI の新しいバージョンがリリースされるたびに、テストおよび検証済みのランタイムの最新バージョンをテストします。テストおよび検証済みのランタイムの新しいバージョンが OpenShift AI リリースサイクルの途中でリリースされた場合、今後のリリースでテストおよび検証されます。
テストおよび検証済みのランタイムは、Red Hat によって直接サポートされません。お客様が責任を持って追加するテスト済みおよび検証済みのランタイムを使用するライセンスがあることを確認して正しく設定および保守するようにしてください。
詳細は、OpenShift AI でテストおよび検証されたランタイム を参照してください。
| 名前 | 説明 | エクスポートされたモデル形式 |
|---|---|---|
| NVIDIA Triton Inference Server | アプリケーションにおける高速かつスケーラブルな AI を実現するオープンソースの推論サービスソフトウェア。 | TensorRT、TensorFlow、PyTorch、ONNX、OpenVINO、Python、RAPIDS FIL など |
| Seldon MLServer | 機械学習モデルのデプロイを簡素化するように設計されたオープンソースの推論サーバー。 | Scikit-Learn (sklearn)、XGBoost、LightGBM、CatBoost、HuggingFace、および MLflow |
| 名前 | デフォルトプロトコル | 追加プロトコル | モデルメッシュのサポート | シングルノードの OpenShift サポート | デプロイメントモード |
|---|---|---|---|---|---|
| NVIDIA Triton Inference Server | gRPC | REST | はい | はい | raw および serverless |
| Seldon MLServer | gRPC | REST | いいえ | はい | raw および serverless |
Seldon の alibi-detect および alibi-explain ライブラリーは、Business Source License 1.1 (BSL 1.1) に基づいて提供されています。これらのライブラリーは、認定済みの Seldon MLServer ランタイムの一部として、Red Hat によってテスト、検証、またはサポートされているものではありません。これらのライブラリーを、ランタイムを使用した実稼働環境で使用することは推奨しません。