第1章 概要
Red Hat OpenShift AI は、オンサイト、パブリッククラウド、またはエッジで、機械学習 (ML) モデルを迅速にトレーニング、サービング、監視するためのツールを提供する人工知能 (AI) プラットフォームです。
OpenShift AI は、AI 搭載アプリケーションを構築するための強力な AI/ML プラットフォームを提供します。データサイエンティストと MLOps エンジニアが連携を図ることで、一貫した環境で実験段階から実稼働段階に迅速に移行できます。
OpenShift AI は、オンプレミス、クラウド、非接続環境のいずれの場合でも、サポートされている任意のバージョンの OpenShift にデプロイできます。サポートされているバージョンの詳細は、Red Hat OpenShift AI: サポートされる構成 を参照してください。
1.1. データサイエンスワークフロー リンクのコピーリンクがクリップボードにコピーされました!
OpenShift AI を初めて使用する方向けに、以下の図に簡略化されたデータサイエンスワークフローを示します。ML モデルを開発する実際のプロセスは反復的なものです。
図1.1 簡素化されたデータサイエンスのワークフロー
これは予測 AI のユースケースのデータサイエンスワークフローを簡略化したものです。次のタスクが含まれています。
- ビジネス上の問題を定義し、それを解決するための目標を設定します。
- データの収集、クリーニング、準備を行います。多くの場合、データはさまざまなソースから統合する必要があります。データの探索と理解は、データサイエンスプロジェクトの成功に重要な役割を果たします。
- ビジネスユースケースに合わせて ML モデルを評価して選択します。
- トレーニングデータセットに基づいてモデルパラメーターをチューニングすることにより、ビジネスユースケースに合わせてモデルをトレーニングします。実際には、データサイエンティストはさまざまなモデルをトレーニングし、時間やメモリーの制約などのトレードオフを考慮しながらパフォーマンスを比較します。
- モデルをアプリケーションに統合します。このタスクには、モデルのデプロイとテストも含まれます。モデルのトレーニングの次に来るワークフローのステップは、運用です。データサイエンティストは、多くの場合、モデルを実稼働環境に導入し、アクセス可能にして、開発者がモデルをアプリケーションに統合できるようにする役割を担います。
- デプロイしたモデルを監視および管理します。組織に応じて、データサイエンティスト、データエンジニア、または ML エンジニアが、実稼働環境のモデルのパフォーマンスを監視し、予測とパフォーマンスメトリクスを追跡する必要があります。
- モデルを改良して再トレーニングします。データサイエンティストは、モデルのパフォーマンス結果を評価し、機能を除外または追加したり、トレーニングデータを変更したり、その他の設定パラメーターを変更したりすることで、モデルを改良して結果を改善できます。