4.3. 测试模型 API
现在,您已部署了模型,您可以测试其 API 端点。
流程
- 在 OpenShift AI 仪表板中,导航到项目详情页面,再点 Models 选项卡。
记录模型的 Inference 端点 URL。测试模型 API 时需要此信息。
如果 Inference endpoint 字段包含 内部端点详情 链接,点链接来打开一个文本框,显示 URL 详情,然后记录 restUrl 值。
返回到 JupyterLab 环境,再尝试出您的新端点。
如果您使用多模式服务平台部署模型,请按照
3_rest_requests_multi_model.ipynb
中的指示来尝试 REST API 调用和4_grpc_requests_multi_model.ipynb
来尝试 gRPC API 调用。如果您使用单一模型服务平台部署模型,请按照
5_rest_requests_single_model.ipynb
中的指示来尝试 REST API 调用。
后续步骤
(可选 )使用数据科学管道自动化工作流