2.14. 对在 single-model 服务平台上部署的模型发出推测请求


当您使用单模式服务平台部署模型时,该模型可作为服务使用 API 请求来访问。这可让您根据数据输入返回预测。要使用 API 请求与部署的模型交互,您必须知道模型的 inference 端点。

另外,如果您通过启用令牌授权保护您的 inference 端点,您必须了解如何访问授权令牌,以便在您的 inference 请求中指定它。

2.14.1. 访问已部署模型的授权令牌

如果您通过启用令牌授权来保护模型 inference 端点,您必须了解如何访问授权令牌,以便在您的推测请求中指定它。

先决条件

  • 您已登陆到 Red Hat OpenShift AI。
  • 如果您使用 OpenShift AI 组,则作为 OpenShift 中的用户组或 admin 组(如 rhoai-usersrhoai-admins)的一部分。
  • 已使用单模式服务平台部署了模型。

流程

  1. 在 OpenShift AI 仪表板中,点 Data Science Projects

    Data Science Projects 页面将打开。

  2. 点包含部署模型的项目名称。

    此时会打开项目详情页面。

  3. Models 选项卡。
  4. Models 和 model servers 列表中,展开您的模型部分。

    您的授权令牌显示在 Token secret 字段中的 Token authorization 部分中。

  5. 可选: 要复制用于 inference 请求的授权令牌,请点击令牌值旁的 Copy 按钮( osd copy )。

2.14.2. 访问已部署模型的 inference 端点

要对部署的模型发出推测请求,您必须了解如何访问可用的 inference 端点。

有关与支持的运行时和示例命令一起使用的路径列表,请参阅 Inference 端点

先决条件

  • 您已登陆到 Red Hat OpenShift AI。
  • 如果您使用 OpenShift AI 组,则作为 OpenShift 中的用户组或 admin 组(如 rhoai-usersrhoai-admins)的一部分。
  • 已使用单模式服务平台部署了模型。
  • 如果为部署的模型启用了令牌授权,则具有关联的令牌值。

流程

  1. 在 OpenShift AI 仪表板中点 Model Serving

    模型的 inference 端点显示在 Inference endpoint 字段中。

  2. 根据您要使用模型执行的操作(如果模型支持该操作),复制 inference 端点,然后在 URL 的末尾添加一个路径。
  3. 使用端点向部署的模型发出 API 请求。
Red Hat logoGithubRedditYoutubeTwitter

学习

尝试、购买和销售

社区

关于红帽文档

通过我们的产品和服务,以及可以信赖的内容,帮助红帽用户创新并实现他们的目标。

让开源更具包容性

红帽致力于替换我们的代码、文档和 Web 属性中存在问题的语言。欲了解更多详情,请参阅红帽博客.

關於紅帽

我们提供强化的解决方案,使企业能够更轻松地跨平台和环境(从核心数据中心到网络边缘)工作。

© 2024 Red Hat, Inc.