第 1 章 关于此版本


Red Hat AI Inference Server 现已发布。此 Red Hat AI Inference Server 3.1 发行版本为 NVIDIA 和 ROCm 加速器提供优化了大型语言模型(LLM)的容器镜像。容器镜像可从 registry.redhat.io 提供:

  • registry.redhat.io/rhaiis/vllm-cuda-rhel9:3.1.0
  • registry.redhat.io/rhaiis/vllm-rocm-rhel9:3.1.0

利用红帽 AI Inference Server,您可以以更高的性能、更低的成本以及企业级稳定性和安全性提供高性能和推测模型。Red Hat AI Inference Server 基于上游开源 vLLM 软件项目构建。

返回顶部
Red Hat logoGithubredditYoutubeTwitter

学习

尝试、购买和销售

社区

关于红帽文档

通过我们的产品和服务,以及可以信赖的内容,帮助红帽用户创新并实现他们的目标。 了解我们当前的更新.

让开源更具包容性

红帽致力于替换我们的代码、文档和 Web 属性中存在问题的语言。欲了解更多详情,请参阅红帽博客.

關於紅帽

我们提供强化的解决方案,使企业能够更轻松地跨平台和环境(从核心数据中心到网络边缘)工作。

Theme

© 2025 Red Hat