1.3. NVIDIA NIM 模型服务平台


您可以在 NVIDIA NIM 模型服务平台上使用 NVIDIA Inference microservices (NIM)部署模型。

NVIDIA NIM 是 NVIDIA AI Enterprise 的一部分,是设计用于安全可靠的部署高性能 AI 模型影响云、数据中心和工作站的微服务。

NVIDIA NIM inference 服务对用例有用,例如:

  • 使用 GPU 加速的容器推断模型由 NVIDIA 优化
  • 为虚拟屏幕、内容生成和 avatar 创建部署 generative AI

NVIDIA NIM 模型服务平台基于单模式服务平台。要使用 NVIDIA NIM 模型服务平台,您必须首先安装单型号服务平台。如需更多信息 ,请参阅安装单模式服务平台

返回顶部
Red Hat logoGithubredditYoutubeTwitter

学习

尝试、购买和销售

社区

关于红帽文档

通过我们的产品和服务,以及可以信赖的内容,帮助红帽用户创新并实现他们的目标。 了解我们当前的更新.

让开源更具包容性

红帽致力于替换我们的代码、文档和 Web 属性中存在问题的语言。欲了解更多详情,请参阅红帽博客.

關於紅帽

我们提供强化的解决方案,使企业能够更轻松地跨平台和环境(从核心数据中心到网络边缘)工作。

Theme

© 2025 Red Hat