Red Hat AI Inference Server 3.2
Related Products
Red Hat Enterprise Linux AI
Find release notes and product documentation for using the Enterprise Linux AI foundation model platform to consistently develop, test, and run large language models (LLMs) in enterprise applications
Red Hat OpenShift AI
Find release notes and product documentation for using the OpenShift AI platform and its integrated MLOps capabilities to manage predictive and generative AI models at scale
Welcome
发行注记
Red Hat AI Inference Server 发行版的主要新功能及变化信息
开始使用
Red Hat AI Inference Server 入门
验证的模型
Red Hat AI Inference Server Validated model
支持的产品和硬件配置
用于部署 Red Hat AI Inference Server 支持的硬件和软件配置
在断开连接的环境中安装 Red Hat AI Inference Server
使用 OpenShift Container Platform 和断开连接的镜像 registry 在断开连接的环境中安装 Red Hat AI Inference Server。
在 OpenShift Container Platform 中部署 Red Hat AI Inference Server
在已安装支持的 AI Accelerator 的 OpenShift Container Platform 集群中部署 Red Hat AI Inference Server
在断开连接的环境中部署 Red Hat AI Inference Server
使用 OpenShift Container Platform 和断开连接的镜像 registry 在断开连接的环境中部署 Red Hat AI Inference Server
Inference Operations
OCI 兼容模型容器中的 inference 服务语言模型
在 Red Hat AI Inference Server 中推断 OCI 兼容模型
vLLM 服务器参数
运行 Red Hat AI Inference Server 的服务器参数
LLM Compressor
使用 LLM Compressor 库压缩大型语言模型
Additional Resources
Product life cycle
Understand the product life cycle to plan deployments and support applications using the product
Red Hat AI learning hub
Explore a curated collection of learning resources designed to help you accomplish key tasks with Red Hat AI products and services