Red Hat AI Inference Server 3.2
Related Products
Red Hat Enterprise Linux AI
Find release notes and product documentation for using the Enterprise Linux AI foundation model platform to consistently develop, test, and run large language models (LLMs) in enterprise applications
Red Hat OpenShift AI
Find release notes and product documentation for using the OpenShift AI platform and its integrated MLOps capabilities to manage predictive and generative AI models at scale
Welcome
リリースノート
Red Hat AI Inference Server リリースの新機能と変更点のハイライト
スタートガイド
Red Hat AI Inference Server のスタートガイド
検証済みモデル
Red Hat AI Inference Server 検証済みモデル
サポート対象の製品とハードウェア設定
Red Hat AI Inference Server のデプロイでサポート対象のハードウェアおよびソフトウェア設定
非接続環境での Red Hat AI Inference Server のインストール
OpenShift Container Platform とオフラインのミラーイメージレジストリーを使用して、非接続環境に Red Hat AI Inference Server をインストールします。
Red Hat AI Inference Server の OpenShift Container Platform へのデプロイ
サポートされている AI アクセラレーターがインストールされている OpenShift Container Platform クラスターに Red Hat AI Inference Server をデプロイする
非接続環境での Red Hat AI Inference Server のデプロイ
OpenShift Container Platform とオフラインのミラーイメージレジストリーを使用して、非接続環境に Red Hat AI Inference Server をデプロイします。
Inference Operations
OCI 準拠のモデルコンテナーの推論サービング言語モデル
Red Hat AI Inference Server における OCI 準拠モデルの推論
vLLM のサーバー引数
Red Hat AI Inference Server を実行するためのサーバー引数
LLM Compressor
LLM Compressor ライブラリーを使用した大規模言語モデルの圧縮
Additional Resources
Product life cycle
Understand the product life cycle to plan deployments and support applications using the product
Red Hat AI learning hub
Explore a curated collection of learning resources designed to help you accomplish key tasks with Red Hat AI products and services