4.3. 测试模型 API
现在,您已部署了模型,您可以测试其 API 端点。
流程
- 在 OpenShift AI 仪表板中,进入项目详情页面并点 Models 选项卡。
记录模型的 Inference 端点 URL。测试模型 API 时,您需要此信息。
如果 Inference endpoint 字段包含 内部端点详情 链接,点链接来打开一个文本框,显示 URL 详情,然后记录 restUrl 值。
返回到 Jupyter 环境,再尝试出您的新端点。
如果您使用多模式服务部署模型,请按照
3_rest_requests_multi_model.ipynb中的指示来尝试 REST API 调用和4_grpc_requests_multi_model.ipynb来尝试 gRPC API 调用。如果您使用单一模型服务部署模型,请按照
5_rest_requests_single_model.ipynb中的指示来尝试 REST API 调用。
后续步骤