4.3. 测试模型 API


现在,您已部署了模型,您可以测试其 API 端点。

流程

  1. 在 OpenShift AI 仪表板中,导航到项目详情页面,再点 Models 选项卡。
  2. 记录模型的 Inference 端点 URL。测试模型 API 时需要此信息。

    如果 Inference endpoint 字段包含 内部端点详情 链接,点链接来打开一个文本框,显示 URL 详情,然后记录 restUrl 值。

    模型 inference 端点
  3. 返回到 JupyterLab 环境,再尝试出您的新端点。

    如果您使用多模式服务平台部署模型,请按照 3_rest_requests_multi_model.ipynb 中的指示来尝试 REST API 调用和 4_grpc_requests_multi_model.ipynb 来尝试 gRPC API 调用。

    如果您使用单一模型服务平台部署模型,请按照 5_rest_requests_single_model.ipynb 中的指示来尝试 REST API 调用。

(可选) 运行从 Python 代码生成的数据科学管道

返回顶部
Red Hat logoGithubredditYoutubeTwitter

学习

尝试、购买和销售

社区

关于红帽文档

通过我们的产品和服务,以及可以信赖的内容,帮助红帽用户创新并实现他们的目标。 了解我们当前的更新.

让开源更具包容性

红帽致力于替换我们的代码、文档和 Web 属性中存在问题的语言。欲了解更多详情,请参阅红帽博客.

關於紅帽

我们提供强化的解决方案,使企业能够更轻松地跨平台和环境(从核心数据中心到网络边缘)工作。

Theme

© 2025 Red Hat, Inc.