支持的产品和硬件配置
用于部署 Red Hat AI Inference Server 支持的硬件和软件配置
摘要
前言
本文档描述了可用于在生产环境中运行 Red Hat AI Inference Server 支持的硬件、软件和交付平台。
第 1 章 产品和版本兼容性
下表列出了 Red Hat AI Inference Server 3.0 支持的产品版本。
产品 | 支持的版本 |
---|---|
Red Hat AI Inference Server | 3.0 |
vLLM core | 0.8.4 |
LLM Compressor | 0.5.1 技术预览 |
第 2 章 支持的 AI 加速器
下表列出了 Red Hat AI Inference Server 3.0 支持的 AI 加速器。
容器镜像 | vLLM release | AI 加速器 | 要求 | vLLM 架构支持 | LLM Compressor 支持 |
---|---|---|---|---|---|
| vLLM 0.8.4 |
|
| x86 技术预览 |
容器镜像 | vLLM release | AI 加速器 | 要求 | vLLM 架构支持 | LLM Compressor 支持 |
---|---|---|---|---|---|
| vLLM 0.8.4 |
| x86 | x86 技术预览 |
容器镜像 | vLLM release | AI 加速器 | 要求 | vLLM 架构支持 | LLM Compressor 支持 |
---|---|---|---|---|---|
| vLLM 0.8.5 | Google TPU v6e | x86 开发人员预览 | 不支持 |
第 3 章 支持的部署环境
支持以下 Red Hat AI Inference Server 的部署环境。
环境 | 支持的版本 | 部署备注 |
---|---|---|
OpenShift Container Platform (自助管理的) | 4.14 – 4.18 | 在裸机主机或虚拟机上部署。 |
Red Hat OpenShift Service on AWS (ROSA) | 4.14 – 4.18 | 需要启用了 GPU 的 P5 或 G5 节点类型的 ROSA STS 集群。 |
Red Hat Enterprise Linux (RHEL) | 9.2 – 10.0 | 在裸机主机或虚拟机上部署。 |
Linux (not RHEL) | - | 在裸机主机或虚拟机上部署的第三方策略下支持。OpenShift Container Platform Operator 不需要。 |
Kubernetes (而不是 OpenShift Container Platform) | - | 在裸机主机或虚拟机上部署的第三方策略下支持。 |
Red Hat AI Inference Server 仅作为容器镜像提供。主机操作系统和内核必须支持所需的加速器驱动程序。如需更多信息,请参阅支持的 AI Accelerators。
第 4 章 GPU 部署的 OpenShift Container Platform 软件先决条件
下表列出了 GPU 部署的 OpenShift Container Platform 软件先决条件。
组件 | 最低版本 | Operator |
---|---|---|
NVIDIA GPU Operator | 24.3 | |
AMD GPU Operator | 6.2 | |
节点功能发现 [1] | 4.14 |
[1] 默认包含在 OpenShift Container Platform 中。调度 NUMA 感知工作负载需要 节点功能发现。
第 5 章 生命周期和更新策略
安全及关键程序错误修复以 registry.access.redhat.com/rhaiis
容器 registry 中提供的容器镜像提供,并通过 RHSA 公告进行宣布。如需了解更多详细信息,请参阅 catalog.redhat.com 上的 RHAIIS 容器镜像。