第5章 次のステップ
次の製品ドキュメントで、OpenShift AI を使用してデータサイエンスソリューションを開発、テスト、およびデプロイする方法を説明しています。
- エンドツーエンドのチュートリアルを試す
不正検出モデルの例を使用して次のタスクを完了するための詳細なガイダンスです。
- Jupyter ノートブックを使用して、事前トレーニングされた不正検出モデルを確認します。
- OpenShift AI モデルサービングを使用してモデルをデプロイします。
- 自動パイプラインを使用してモデルを改良し、トレーニングします。
- ワークベンチ IDE でモデルを開発してトレーニングする
ワークベンチ IDE (JupyterLab、コードサーバー、または RStudio Server) にアクセスする方法を説明しています。
JupyterLab IDE に関しては、次のタスクを説明しています。
- Jupyter ノートブックの作成とインポート
- Git を使用した Jupyter ノートブックでの共同作業
- Python パッケージの表示とインストール
- よくある問題のトラブルシューティング
- パイプラインを使用して ML ワークフローを自動化する
Docker コンテナーを使用して、データサイエンスパイプラインを備えたポータブル機械学習 (ML) ワークフローを構築することで、OpenShift AI でデータサイエンスプロジェクトを強化できます。パイプラインを使用して、新しく受信したデータに基づいてモデルを継続的に再トレーニングおよび更新します。
- モデルをデプロイしてテストする
ML モデルを OpenShift クラスターにデプロイしてテストし、インテリジェントアプリケーションに統合します。モデルをデプロイすると、API 呼び出しを使用してアクセスできるサービスとして利用できるようになります。API 呼び出しを通じて提供されたデータ入力に基づいて予測を返すことができます。
- モデルを監視および管理する
Red Hat OpenShift AI サービスには、外部アプリケーションに統合するために Red Hat OpenShift Dedicated または Red Hat OpenShift Service on AWS でモデルをホストするためのモデルデプロイメントオプションが含まれています。
- パフォーマンスを最適化するためにアクセラレーターを追加する
大規模なデータセットを扱う場合は、NVIDIA GPU、AMD GPU、Intel Gaudi AI アクセラレーターなどのアクセラレーターを使用して、OpenShift AI のデータサイエンスモデルのパフォーマンスを最適化できます。アクセラレーターを使用すると、作業を拡張し、待ち時間を短縮し、生産性を向上させることができます。
- パフォーマンス向上のために分散ワークロードを実装する
分散ワークロードを実装して複数のクラスターノードを並行して使用し、より高速で効率的なデータ処理とモデルトレーニングを実現します。
- 拡張機能を探す
サードパーティーアプリケーション統合を使用して、中核的な OpenShift AI ソリューションを拡張します。Starburst、Intel AI Tools、IBM などの主要な AI/ML ソフトウェアテクノロジーパートナーを、Red Hat Marketplace を通じて利用することもできます。
5.1. 関連情報 リンクのコピーリンクがクリップボードにコピーされました!
Red Hat は、製品ドキュメントに加えて、OpenShift AI およびサポートされているアプリケーションに関する豊富な学習リソースを提供しています。
OpenShift AI ダッシュボードの Resources ページでは、カテゴリーリンクを使用して、データサイエンスワークフローのさまざまな段階のリソースをフィルターできます。たとえば、Model serving カテゴリーをクリックすると、モデルをデプロイするさまざまな方法を説明するリソースが表示されます。すべてのカテゴリーのリソースを表示するには、All items をクリックします。
選択したカテゴリーに対して、追加のオプションを適用して、利用可能なリソースをフィルタリングできます。たとえば、ハウツー記事、クイックスタート、チュートリアルなどのタイプでフィルタリングできます。これらのリソースから、一般的な疑問に対する答えを得ることができます。
Red Hat OpenShift AI のサポート要件と制限は、Red Hat OpenShift AI: サポートされる構成 を参照してください。