第4章 モデルのデプロイとテスト
4.1. デプロイメント用のモデルの準備 リンクのコピーリンクがクリップボードにコピーされました!
リンクのコピーリンクがクリップボードにコピーされました!
モデルをトレーニングした後、OpenShift AI モデルサービング機能を使用してモデルをデプロイできます。
モデルのデプロイメントを準備するには、モデルをワークベンチから S3 互換のオブジェクトストレージに移動する必要があります。接続を使用したデータの保存 セクションで作成した接続を使用し、ノートブックからモデルをアップロードします。
前提条件
My Storage接続を作成し、ワークベンチに追加している。
手順
-
JupyterLab 環境で、
2_save_model.ipynbファイルを開きます。 - ノートブックの指示に従って、ストレージ内のモデルにアクセスできるようにします。
検証
ノートブックの手順を完了すると、models/fraud/1/model.onnx ファイルがオブジェクトストレージに作成され、モデルサーバーで使用できるようになります。
次のステップ