3.7. テスト済みで検証済みのモデル提供ランタイム


テストおよび検証済みのランタイムとは、OpenShift AI の特定のバージョンに対してテストおよび検証されたモデル提供ランタイムのコミュニティーバージョンです。

Red Hat は、新しいバージョンの OpenShift AI が存在するたびに、テスト済みで検証済みのランタイムの現在のバージョンをテストします。OpenShift AI リリースサイクルの途中でテストおよび検証済みの新しいバージョンのランタイムがリリースされると、今後のリリースでテストおよび検証が実行されます。

テスト済みで検証済みのランタイムと互換性のあるバージョンの一覧は、OpenShift AI リリースノート で確認できます。

注記

テストおよび検証済みのランタイムは、Red Hat によって直接サポートされていません。追加するテスト済みで検証済みのランタイムを使用するようにライセンスが付与されていることを確認し、それらのランタイムを正しく設定および維持する必要があります。

詳細は、テスト済みおよび検証済みランタイムを OpenShift AI で 参照してください。

表3.3 モデルサービングランタイム
名前説明エクスポートされたモデル形式

Nvidia Triton Inference Server

アプリケーションで高速でスケーラブルな AI 用のオープンソースの推論ソフトウェア。

TensorRT、TensorFlow、PyTorch、ONNX、OpenVINO、Python、RAPIDS FIL など

表3.4 デプロイメント要件
名前デフォルトプロトコル追加プロトコルモデルメッシュのサポートシングルノードの OpenShift サポートデプロイメントモード

Nvidia Triton Inference Server

gRPC

REST

はい

はい

raw および serverless

Red Hat logoGithubRedditYoutubeTwitter

詳細情報

試用、購入および販売

コミュニティー

Red Hat ドキュメントについて

Red Hat をお使いのお客様が、信頼できるコンテンツが含まれている製品やサービスを活用することで、イノベーションを行い、目標を達成できるようにします。

多様性を受け入れるオープンソースの強化

Red Hat では、コード、ドキュメント、Web プロパティーにおける配慮に欠ける用語の置き換えに取り組んでいます。このような変更は、段階的に実施される予定です。詳細情報: Red Hat ブログ.

会社概要

Red Hat は、企業がコアとなるデータセンターからネットワークエッジに至るまで、各種プラットフォームや環境全体で作業を簡素化できるように、強化されたソリューションを提供しています。

© 2024 Red Hat, Inc.