1.9. モデルサービングランタイムの準備ができていることを確認する
ダウンストリームの生成アクティビティーが完了していることを確認し、モデルサービングランタイムが使用できる状態であることを確認します。
前提条件
-
ServingRuntimesCR を設定している。 -
InferenceServiceCR を作成している。 - マシンへの root ユーザーアクセス権がある。
-
OpenShift CLI (
oc) がインストールされている。
手順
次のコマンドを実行して、AI モデルがカスタム namespace にデプロイされていることを確認します。
oc get -n ai-demo deployment
$ oc get -n ai-demo deploymentCopy to Clipboard Copied! Toggle word wrap Toggle overflow 出力例
NAME READY UP-TO-DATE AVAILABLE AGE ovms-resnet50-predictor 1/1 1 1 72s
NAME READY UP-TO-DATE AVAILABLE AGE ovms-resnet50-predictor 1/1 1 1 72sCopy to Clipboard Copied! Toggle word wrap Toggle overflow 次のコマンドを実行して、デプロイメントが進行中であることを確認します。
oc rollout status -n ai-demo deployment ovms-resnet50-predictor
$ oc rollout status -n ai-demo deployment ovms-resnet50-predictorCopy to Clipboard Copied! Toggle word wrap Toggle overflow 出力例
deployment "ovms-resnet50-predictor" successfully rolled out
deployment "ovms-resnet50-predictor" successfully rolled outCopy to Clipboard Copied! Toggle word wrap Toggle overflow 次のコマンドを実行して、AI モデルワークロード Pod がカスタム namespace にデプロイされていることを確認します。
oc get -n ai-demo pod
$ oc get -n ai-demo podCopy to Clipboard Copied! Toggle word wrap Toggle overflow 出力例
NAME READY STATUS RESTARTS AGE ovms-resnet50-predictor-6fdb566b7f-bc9k5 2/2 Running 1 (72s ago) 74s
NAME READY STATUS RESTARTS AGE ovms-resnet50-predictor-6fdb566b7f-bc9k5 2/2 Running 1 (72s ago) 74sCopy to Clipboard Copied! Toggle word wrap Toggle overflow 次のコマンドを実行して、作成されたサービス KServe を確認します。
oc get svc -n ai-demo
$ oc get svc -n ai-demoCopy to Clipboard Copied! Toggle word wrap Toggle overflow 出力例
NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE ovms-resnet50-predictor ClusterIP None <none> 80/TCP 119s
NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE ovms-resnet50-predictor ClusterIP None <none> 80/TCP 119sCopy to Clipboard Copied! Toggle word wrap Toggle overflow
次のステップ
-
アプリケーションが MicroShift ノードに到達できるように
Routeオブジェクトを作成します。
関連情報
- InferenceService (Red Hat OpenShift AI ドキュメント)