5.2. 访问已部署模型的 inference 端点


要对部署的模型发出推测请求,您必须了解如何访问可用的 inference 端点。

有关与支持的运行时和示例命令一起使用的路径列表,请参阅 Inference 端点

先决条件

  • 您已登陆到 Red Hat OpenShift AI。
  • 已使用单模式服务平台部署了模型。
  • 如果为部署的模型启用了令牌身份验证,则具有关联的令牌值。

流程

  1. 在 OpenShift AI 仪表板中点 AI hub Deployments

    模型的 inference 端点显示在 Inference endpoint 字段中。

  2. 根据您要使用模型执行的操作(如果模型支持该操作),复制 inference 端点,然后在 URL 的末尾添加一个路径。
  3. 使用端点向部署的模型发出 API 请求。
返回顶部
Red Hat logoGithubredditYoutubeTwitter

学习

尝试、购买和销售

社区

关于红帽文档

通过我们的产品和服务,以及可以信赖的内容,帮助红帽用户创新并实现他们的目标。 了解我们当前的更新.

让开源更具包容性

红帽致力于替换我们的代码、文档和 Web 属性中存在问题的语言。欲了解更多详情,请参阅红帽博客.

關於紅帽

我们提供强化的解决方案,使企业能够更轻松地跨平台和环境(从核心数据中心到网络边缘)工作。

Theme

© 2025 Red Hat