第4章 モデルのデプロイとテスト


4.1. デプロイメント用のモデルの準備

モデルをトレーニングした後、OpenShift AI モデルサービング機能を使用してモデルをデプロイできます。

モデルのデプロイメントを準備するには、モデルをワークベンチから S3 互換のオブジェクトストレージに移動する必要があります。データ接続を使用したデータの保存 セクションで作成したデータ接続を使用し、ノートブックからモデルをアップロードします。また、モデルをポータブル ONNX 形式に変換します。ONNX を使用すると、最小限の準備で、モデルを書き直すことなく、フレームワーク間でモデルを転送できます。

前提条件

  • データ接続 My Storage を作成している。

    ワークベンチデータ接続フォーム
  • My Storage データ接続をワークベンチに追加している。

    ワークベンチ内のデータストレージ

手順

  1. Jupyter 環境で、2_save_model.ipynb ファイルを開きます。
  2. ノートブックの指示に従って、ストレージ内でモデルにアクセスできるようにし、ポータブルな ONNX 形式で保存します。

検証

ノートブックの手順を完了すると、models/fraud/1/model.onnx ファイルがオブジェクトストレージに作成され、モデルサーバーで使用できるようになります。

次のステップ

モデルのデプロイ

Red Hat logoGithubRedditYoutubeTwitter

詳細情報

試用、購入および販売

コミュニティー

Red Hat ドキュメントについて

Red Hat をお使いのお客様が、信頼できるコンテンツが含まれている製品やサービスを活用することで、イノベーションを行い、目標を達成できるようにします。

多様性を受け入れるオープンソースの強化

Red Hat では、コード、ドキュメント、Web プロパティーにおける配慮に欠ける用語の置き換えに取り組んでいます。このような変更は、段階的に実施される予定です。詳細情報: Red Hat ブログ.

会社概要

Red Hat は、企業がコアとなるデータセンターからネットワークエッジに至るまで、各種プラットフォームや環境全体で作業を簡素化できるように、強化されたソリューションを提供しています。

© 2024 Red Hat, Inc.