4.3. モデル API のテスト


モデルをデプロイしたら、API エンドポイントをテストできます。

手順

  1. OpenShift AI ダッシュボードでプロジェクトの詳細ページに移動し、Models タブをクリックします。
  2. モデルの推論エンドポイント URL をメモします。この情報は、モデル API をテストするときに必要になります。

    Inference endpoint フィールドに Internal endpoint details のリンクが含まれる場合は、リンクをクリックして URL の詳細を表示するテキストボックスを開き、restUrl の値を書き留めます。

    モデル推論エンドポイント
  3. JupyterLab 環境に戻り、新しいエンドポイントを試してください。

    マルチモデルサービングプラットフォームを使用してモデルをデプロイした場合は、3_rest_requests_multi_model.ipynb の指示に従って REST API 呼び出しを、4_grpc_requests_multi_model.ipynb の指示に従って gRPC API 呼び出しを試行します。

    シングルモデルサービングプラットフォームを使用してモデルをデプロイした場合は、5_rest_requests_single_model.ipynb の指示に従って REST API 呼び出しを試行します。

(オプション) Python コードから生成されたデータサイエンスパイプラインを実行する

Red Hat logoGithubredditYoutubeTwitter

詳細情報

試用、購入および販売

コミュニティー

Red Hat ドキュメントについて

Red Hat をお使いのお客様が、信頼できるコンテンツが含まれている製品やサービスを活用することで、イノベーションを行い、目標を達成できるようにします。 最新の更新を見る.

多様性を受け入れるオープンソースの強化

Red Hat では、コード、ドキュメント、Web プロパティーにおける配慮に欠ける用語の置き換えに取り組んでいます。このような変更は、段階的に実施される予定です。詳細情報: Red Hat ブログ.

会社概要

Red Hat は、企業がコアとなるデータセンターからネットワークエッジに至るまで、各種プラットフォームや環境全体で作業を簡素化できるように、強化されたソリューションを提供しています。

Theme

© 2026 Red Hat
トップに戻る