第1章 Red Hat OpenShift AI を MicroShift で使用する
MicroShift エッジデプロイメントで人工知能 (AI) 機能を使用して、人工知能および機械学習 (AI/ML) モデルを提供する方法を説明します。
Red Hat OpenShift AI はテクノロジープレビュー機能です。テクノロジープレビュー機能は、Red Hat 製品のサービスレベルアグリーメント (SLA) の対象外であり、機能的に完全ではないことがあります。Red Hat は、実稼働環境でこれらを使用することを推奨していません。テクノロジープレビュー機能は、最新の製品機能をいち早く提供して、開発段階で機能のテストを行い、フィードバックを提供していただくことを目的としています。
Red Hat のテクノロジープレビュー機能のサポート範囲に関する詳細は、テクノロジープレビュー機能のサポート範囲 を参照してください。
1.1. MicroShift での Red Hat OpenShift AI の仕組み リンクのコピーリンクがクリップボードにコピーされました!
エッジデプロイメントは、データが発生し、意思決定を行う必要がある場所です。Red Hat OpenShift AI (Red Hat OpenShift AI Self-Managed) を使用すると、MicroShift 駆動型エッジデバイスのフリートを人工知能および機械学習 (AI/ML) 運用サイクルに統合できます。MicroShift は、Kubernetes の KServe コンポーネントに基づくシングルモデルサービングプラットフォームと互換性があります。KServe は、モデルサービングをオーケストレーションするプラットフォームです。
Red Hat OpenShift AI Self-Managed は、データサイエンティストおよび AI/ML アプリケーション開発者向けのプラットフォームです。まず、クラウドまたはデータセンターで Red Hat OpenShift AI Self-Managed を使用して、AI モデルを開発、トレーニング、テストします。次に、MicroShift のエッジデプロイメントでモデルを実行します。
AI モデルをデプロイした後、アプリケーションデータをモデルに送信できるようになり、モデルは人間のユーザーなしでデータに基づく意思決定を行うことができます。これは、管理者とのやり取りが自然と制限されるエッジアプリケーションにとって理想的なシナリオです。
- KServe での実装
- KServe コンポーネントには、さまざまな種類のモデルサーバーの読み込みを実装するモデルサービングランタイムが含まれています。これらのランタイムは、カスタムリソース (CR) を使用して設定されます。KServe カスタムリソース定義 (CRD) は、デプロイメントオブジェクト、ストレージアクセス、およびネットワークセットアップのライフサイクルも定義します。
- Red Hat OpenShift AI Self-Managed を MicroShift で使用する場合の詳細
エッジ最適化された Kubernetes デプロイメントである MicroShift では、Red Hat OpenShift AI Self-Managed を使用する場合、次の制限があります。
- MicroShift での AI モデルサービングは、x86_64 アーキテクチャーでのみ利用できます。
- Red Hat OpenShift AI Self-Managed Operator コンポーネントのサブセットが MicroShift でサポートされています。
- MicroShift はシングルノードの Kubernetes ディストリビューションであるため、マルチモデルのデプロイメントをサポートしません。シングルモデルサービングプラットフォームを使用する必要があります。
- クラウドまたはデータセンターの MicroShift モデルサービングプラットフォームで実行する AI モデルを開発する必要があります。MicroShift を AI モデルの開発プラットフォームとして使用することはサポートされていません。
- AI モデルを提供するために必要な追加の RAM、ディスク領域、およびストレージ設定を計画する必要があります。
- すべてのモデルサーバーが IPv6 ネットワークプロトコルをサポートしているわけではありません。各モデルサーバーのドキュメントをチェックして、ネットワーク設定がサポートされていることを確認してください。
- 公開されたモデルサーバーのエンドポイントを、たとえば OAUTH2 を使用して保護する必要があります。
-
ClusterServingRuntimesCRD は Red Hat OpenShift AI Self-Managed ではサポートされていないため、microshift-ai-model-servingRPM に同梱されているServingRuntimeCR をワークロード namespace にコピーする必要があります。 - MicroShift でモデルサービングを管理するには、CLI を使用する必要があります。Red Hat OpenShift AI Self-Managed ダッシュボードはサポートされていません。