第3章 サポートされるデプロイメント環境


Red Hat AI Inference Server では次のデプロイメント環境がサポートされています。

Expand
表3.1 Red Hat AI Inference Server がサポートするデプロイメント環境
環境サポート対象バージョンデプロイメントノート

OpenShift Container Platform (セルフマネージド)

4.14 – 4.18

ベアメタルホストまたは仮想マシンにデプロイします。

Red Hat OpenShift Service on AWS (ROSA)

4.14 – 4.18

GPU 対応の P5 または G5 ノードタイプを備えた ROSA STS クラスター が必要です。

Red Hat Enterprise Linux (RHEL)

9.2 – 10.0

ベアメタルホストまたは仮想マシンにデプロイします。

Linux (RHEL ではない)

-

ベアメタルホストまたは仮想マシンにデプロイされたサードパーティーポリシーの下でサポートされます。OpenShift Container Platform Operator は必要ありません。

Kubernetes (OpenShift Container Platform ではない)

-

ベアメタルホストまたは仮想マシンにデプロイされたサードパーティーポリシーの下でサポートされます。

注記

Red Hat AI Inference Server は、コンテナーイメージとしてのみ利用できます。ホストオペレーティングシステムとカーネルは、必要なアクセラレータードライバーをサポートしている必要があります。詳細は、サポート対象の AI アクセラレーター を参照してください。

Red Hat logoGithubredditYoutubeTwitter

詳細情報

試用、購入および販売

コミュニティー

Red Hat ドキュメントについて

Red Hat をお使いのお客様が、信頼できるコンテンツが含まれている製品やサービスを活用することで、イノベーションを行い、目標を達成できるようにします。 最新の更新を見る.

多様性を受け入れるオープンソースの強化

Red Hat では、コード、ドキュメント、Web プロパティーにおける配慮に欠ける用語の置き換えに取り組んでいます。このような変更は、段階的に実施される予定です。詳細情報: Red Hat ブログ.

会社概要

Red Hat は、企業がコアとなるデータセンターからネットワークエッジに至るまで、各種プラットフォームや環境全体で作業を簡素化できるように、強化されたソリューションを提供しています。

Theme

© 2026 Red Hat
トップに戻る