4.3. モデル API のテスト
モデルをデプロイしたら、API エンドポイントをテストできます。
手順
- OpenShift AI ダッシュボードでプロジェクトの詳細ページに移動し、Models タブをクリックします。
モデルの推論エンドポイント URL をメモします。この情報は、モデル API をテストするときに必要になります。
Inference endpoint フィールドに Internal endpoint details のリンクが含まれる場合は、リンクをクリックして URL の詳細を表示するテキストボックスを開き、restUrl の値を書き留めます。
JupyterLab 環境に戻り、新しいエンドポイントを試してください。
マルチモデルサービングプラットフォームを使用してモデルをデプロイした場合は、
3_rest_requests_multi_model.ipynbの指示に従って REST API 呼び出しを、4_grpc_requests_multi_model.ipynbの指示に従って gRPC API 呼び出しを試行します。シングルモデルサービングプラットフォームを使用してモデルをデプロイした場合は、
5_rest_requests_single_model.ipynbの指示に従って REST API 呼び出しを試行します。
次のステップ
(オプション) データサイエンスパイプラインによるワークフローの自動化