第 1 章 关于此版本
Red Hat AI Inference Server 现已发布。此 Red Hat AI Inference Server 3.0 发行版本提供了容器镜像,用于优化 NVIDIA 和 ROCm 加速器的大型语言模型(LLM)。容器镜像可从 registry.redhat.io 提供:
-
registry.redhat.io/rhaiis/vllm-cuda-rhel9:3.0.0 -
registry.redhat.io/rhaiis/vllm-rocm-rhel9:3.0.0
利用红帽 AI Inference Server,您可以以更高的性能、更低的成本以及企业级稳定性和安全性提供高性能和推测模型。Red Hat AI Inference Server 基于上游开源 vLLM 软件项目构建。