4.10. デプロイされたモデルの HTTP リクエストメトリクスの表示
マルチモデルサービングプラットフォームにデプロイされている特定のモデルに対し、失敗または成功した HTTP リクエストを示すグラフを表示できます。
前提条件
- Red Hat OpenShift AI がインストール済みである。
- OpenShift AI がインストールされている OpenShift クラスターで、ユーザーのワークロードモニタリングが有効化されている。
次のダッシュボード設定オプションは、次のようにデフォルト値に設定されている。
disablePerformanceMetrics:false disableKServeMetrics:false
disablePerformanceMetrics:false disableKServeMetrics:falseCopy to Clipboard Copied! Toggle word wrap Toggle overflow ダッシュボード設定オプションの設定に関する詳細は、ダッシュボードのカスタマイズ を参照してください。
- Red Hat OpenShift AI にログインしている。
- マルチモデルサービングプラットフォームにモデルがデプロイされている。
手順
-
OpenShift AI ダッシュボードで、Models
Model deployments をクリックします。 - Model deployments ページで、関心のあるモデルを選択します。
オプション: Endpoint performance タブで、次のオプションを設定します。
- 時間範囲 - メトリクスを追跡する期間を指定します。1 時間、24 時間、7 日、30 日のいずれかの値を選択できます。
- 更新間隔 - (最新のデータを表示するために) メトリクスページのグラフを更新する頻度を指定します。15 秒、30 秒、1 分、5 分、15 分、30 分、1 時間、2 時間、1 日の値のいずれかを選択できます。
検証
Endpoint performance タブには、モデルの HTTP メトリクスのグラフが表示されます。