第4章 モデルのデプロイとテスト
4.1. デプロイメント用のモデルの準備
モデルをトレーニングした後、OpenShift AI モデルサービング機能を使用してモデルをデプロイできます。
モデルのデプロイメントを準備するには、モデルをワークベンチから S3 互換のオブジェクトストレージに移動する必要があります。データ接続を使用したデータの保存 セクションで作成したデータ接続を使用し、ノートブックからモデルをアップロードします。また、モデルをポータブル ONNX 形式に変換します。ONNX を使用すると、最小限の準備で、モデルを書き直すことなく、フレームワーク間でモデルを転送できます。
前提条件
データ接続
My Storage
を作成している。My Storage
データ接続をワークベンチに追加している。
手順
-
Jupyter 環境で、
2_save_model.ipynb
ファイルを開きます。 - ノートブックの指示に従って、ストレージ内でモデルにアクセスできるようにし、ポータブルな ONNX 形式で保存します。
検証
ノートブックの手順を完了すると、models/fraud/1/model.onnx
ファイルがオブジェクトストレージに作成され、モデルサーバーで使用できるようになります。
次のステップ