2.8. テストおよび検証済みのモデルサービングランタイム


テストおよび検証済みのランタイムは、OpenShift AI の特定のバージョンに対してテストおよび検証されたモデルサービングランタイムのコミュニティーバージョンです。

Red Hat は、OpenShift AI の新しいバージョンがリリースされるたびに、テストおよび検証済みのランタイムの最新バージョンをテストします。テストおよび検証済みのランタイムの新しいバージョンが OpenShift AI リリースサイクルの途中でリリースされた場合、今後のリリースでテストおよび検証されます。

注記

テストおよび検証済みのランタイムは、Red Hat によって直接サポートされません。お客様が責任を持って追加するテスト済みおよび検証済みのランタイムを使用するライセンスがあることを確認して正しく設定および保守するようにしてください。

詳細は、OpenShift AI でテストおよび検証されたランタイム を参照してください。

Expand
表2.3 モデルサービングランタイム
名前説明エクスポートされたモデル形式

NVIDIA Triton Inference Server

アプリケーションにおける高速かつスケーラブルな AI を実現するオープンソースの推論サービスソフトウェア。

TensorRT、TensorFlow、PyTorch、ONNX、OpenVINO、Python、RAPIDS FIL など

Seldon MLServer

機械学習モデルのデプロイを簡素化するように設計されたオープンソースの推論サーバー。

Scikit-Learn (sklearn)、XGBoost、LightGBM、CatBoost、HuggingFace、および MLflow

Expand
表2.4 デプロイメント要件
名前デフォルトプロトコル追加プロトコルモデルメッシュのサポートシングルノードの OpenShift サポートデプロイメントモード

NVIDIA Triton Inference Server

gRPC

REST

はい

はい

raw および serverless

Seldon MLServer

gRPC

REST

いいえ

はい

raw および serverless

注記

Seldon の alibi-detect および alibi-explain ライブラリーは、Business Source License 1.1 (BSL 1.1) に基づいて提供されています。これらのライブラリーは、認定済みの Seldon MLServer ランタイムの一部として、Red Hat によってテスト、検証、またはサポートされているものではありません。これらのライブラリーを、ランタイムを使用した実稼働環境で使用することは推奨しません。

トップに戻る
Red Hat logoGithubredditYoutubeTwitter

詳細情報

試用、購入および販売

コミュニティー

Red Hat ドキュメントについて

Red Hat をお使いのお客様が、信頼できるコンテンツが含まれている製品やサービスを活用することで、イノベーションを行い、目標を達成できるようにします。 最新の更新を見る.

多様性を受け入れるオープンソースの強化

Red Hat では、コード、ドキュメント、Web プロパティーにおける配慮に欠ける用語の置き換えに取り組んでいます。このような変更は、段階的に実施される予定です。詳細情報: Red Hat ブログ.

会社概要

Red Hat は、企業がコアとなるデータセンターからネットワークエッジに至るまで、各種プラットフォームや環境全体で作業を簡素化できるように、強化されたソリューションを提供しています。

Theme

© 2025 Red Hat