搜索

4.3. 测试模型 API

download PDF

现在,您已部署了模型,您可以测试其 API 端点。

流程

  1. 在 OpenShift AI 仪表板中,导航到项目详情页面,再点 Models 选项卡。
  2. 记录模型的 Inference 端点。测试模型 API 时需要此信息。

    模型 inference 端点
  3. 返回到 Jupyter 环境,再尝试您的新端点。

    如果您使用多型号服务部署模型,请按照 3_rest_requests_multi_model.ipynb 中的指示尝试 REST API 调用和 4_grpc_requests_multi_model.ipynb 尝试 gRPC API 调用。

    如果您使用单模式服务部署模型,请按照 5_rest_requests_single_model.ipynb 中的指示操作来尝试 REST API 调用。

运行由 Python 代码生成的数据科学项目

Red Hat logoGithubRedditYoutubeTwitter

学习

尝试、购买和销售

社区

关于红帽文档

通过我们的产品和服务,以及可以信赖的内容,帮助红帽用户创新并实现他们的目标。

让开源更具包容性

红帽致力于替换我们的代码、文档和 Web 属性中存在问题的语言。欲了解更多详情,请参阅红帽博客.

關於紅帽

我们提供强化的解决方案,使企业能够更轻松地跨平台和环境(从核心数据中心到网络边缘)工作。

© 2024 Red Hat, Inc.