第3章 サポートされるデプロイメント環境
Red Hat AI Inference Server では次のデプロイメント環境がサポートされています。
| 環境 | サポート対象バージョン | デプロイメントノート |
|---|---|---|
| OpenShift Container Platform (セルフマネージド) | 4.14 – 4.18 | ベアメタルホストまたは仮想マシンにデプロイします。 |
| Red Hat OpenShift Service on AWS (ROSA) | 4.14 – 4.18 | GPU 対応の P5 または G5 ノードタイプを備えた ROSA STS クラスター が必要です。 |
| Red Hat Enterprise Linux (RHEL) | 9.2 – 10.0 | ベアメタルホストまたは仮想マシンにデプロイします。 |
| Linux (RHEL ではない) | - | ベアメタルホストまたは仮想マシンにデプロイされたサードパーティーポリシーの下でサポートされます。OpenShift Container Platform Operator は必要ありません。 |
| Kubernetes (OpenShift Container Platform ではない) | - | ベアメタルホストまたは仮想マシンにデプロイされたサードパーティーポリシーの下でサポートされます。 |
Red Hat AI Inference Server は、コンテナーイメージとしてのみ利用できます。ホストオペレーティングシステムとカーネルは、必要なアクセラレータードライバーをサポートしている必要があります。詳細は、サポート対象の AI アクセラレーター を参照してください。