前言


您可以在 Red Hat AI Inference Server 中提供符合 OCI 的模型。在 OCI 兼容模型容器中存储模型(或 建模器)是语言模型基于 S3 或基于 URI 的存储的替代选择。OCI 模型镜像可让您使用相同的版本、缓存、安全性和分发基础架构来通过容器发布模型。

使用 modelcar 容器通过避免重复下载、降低磁盘使用以及通过预先抓取的镜像来提高性能,从而加快启动时间。Modelcar 容器可以和应用程序容器一起存储在标准容器 registry 中,支持统一模型版本控制和分发工作流。

在集群中的 modelcar 容器中部署语言模型前,您需要在 OCI 容器镜像中打包模型,然后在集群中部署容器镜像。

Red Hat logoGithubredditYoutubeTwitter

学习

尝试、购买和销售

社区

关于红帽文档

通过我们的产品和服务,以及可以信赖的内容,帮助红帽用户创新并实现他们的目标。 了解我们当前的更新.

让开源更具包容性

红帽致力于替换我们的代码、文档和 Web 属性中存在问题的语言。欲了解更多详情,请参阅红帽博客.

關於紅帽

我们提供强化的解决方案,使企业能够更轻松地跨平台和环境(从核心数据中心到网络边缘)工作。

Theme

© 2026 Red Hat
返回顶部