2.8. 测试和验证的模型保留运行时


测试和验证的运行时是社区版本,针对特定的 OpenShift AI 版本进行测试和验证。

每次有新版本的 OpenShift AI 时,红帽都会测试经过测试和验证的运行时的当前版本。如果在 OpenShift AI 发行周期中发布经过测试和验证的运行时的新版本,它将在以后的发行版本中进行测试和验证。

OpenShift AI 发行注记 中提供了经过测试和验证的运行时和兼容版本的列表。

注意

红帽不支持经过测试和验证的运行时。您需要确保已授权使用您添加的任何经过测试和验证的运行时,以及正确配置和维护它们。

如需更多信息,请参阅 OpenShift AI 中的测试和验证运行时

表 2.3. model-serving 运行时
Name描述导出模型格式

NVIDIA Triton Inference Server

为应用程序快速、可扩展的 AI 为开源服务软件提供服务。

TensorRT, TensorFlow, PyTorch, ONNX, OpenVINO, Python, RAPIDS FIL 等

表 2.4. 部署要求
Name默认协议附加组件协议模型网格支持单节点 OpenShift 支持部署模式

NVIDIA Triton Inference Server

gRPC

REST

raw 和 serverless

其他资源

Red Hat logoGithubRedditYoutubeTwitter

学习

尝试、购买和销售

社区

关于红帽文档

通过我们的产品和服务,以及可以信赖的内容,帮助红帽用户创新并实现他们的目标。

让开源更具包容性

红帽致力于替换我们的代码、文档和 Web 属性中存在问题的语言。欲了解更多详情,请参阅红帽博客.

關於紅帽

我们提供强化的解决方案,使企业能够更轻松地跨平台和环境(从核心数据中心到网络边缘)工作。

© 2024 Red Hat, Inc.