4.10. デプロイされたモデルの HTTP リクエストメトリクスの表示


マルチモデルサービングプラットフォームにデプロイされている特定のモデルに対し、失敗または成功した HTTP リクエストを示すグラフを表示できます。

前提条件

  • Red Hat OpenShift AI がインストール済みである。
  • OpenShift AI がインストールされている OpenShift クラスターで、ユーザーのワークロードモニタリングが有効化されている。
  • 次のダッシュボード設定オプションは、次のようにデフォルト値に設定されている。

    disablePerformanceMetrics:false
    disableKServeMetrics:false
    Copy to Clipboard Toggle word wrap

    ダッシュボード設定オプションの設定に関する詳細は、ダッシュボードのカスタマイズ を参照してください。

  • Red Hat OpenShift AI にログインしている。
  • マルチモデルサービングプラットフォームにモデルがデプロイされている。

手順

  1. OpenShift AI ダッシュボードで、Models Model deployments をクリックします。
  2. Model deployments ページで、関心のあるモデルを選択します。
  3. オプション: Endpoint performance タブで、次のオプションを設定します。

    • 時間範囲 - メトリクスを追跡する期間を指定します。1 時間、24 時間、7 日、30 日のいずれかの値を選択できます。
    • 更新間隔 - (最新のデータを表示するために) メトリクスページのグラフを更新する頻度を指定します。15 秒、30 秒、1 分、5 分、15 分、30 分、1 時間、2 時間、1 日の値のいずれかを選択できます。

検証

Endpoint performance タブには、モデルの HTTP メトリクスのグラフが表示されます。

トップに戻る
Red Hat logoGithubredditYoutubeTwitter

詳細情報

試用、購入および販売

コミュニティー

Red Hat ドキュメントについて

Red Hat をお使いのお客様が、信頼できるコンテンツが含まれている製品やサービスを活用することで、イノベーションを行い、目標を達成できるようにします。 最新の更新を見る.

多様性を受け入れるオープンソースの強化

Red Hat では、コード、ドキュメント、Web プロパティーにおける配慮に欠ける用語の置き換えに取り組んでいます。このような変更は、段階的に実施される予定です。詳細情報: Red Hat ブログ.

会社概要

Red Hat は、企業がコアとなるデータセンターからネットワークエッジに至るまで、各種プラットフォームや環境全体で作業を簡素化できるように、強化されたソリューションを提供しています。

Theme

© 2025 Red Hat