1.3. Red Hat OpenShift AI RPM のインストール
MicroShift デプロイメントで AI モデルを使用するには、新しい MicroShift インストールで Red Hat OpenShift AI (Red Hat OpenShift AI Self-Managed) RPM をインストールします。システムを再起動すると、既存の MicroShift インスタンスに RPM をインストールすることもできます。
microshift-ai-model-serving RPM には、raw デプロイメントモードが有効になっている kserve と、redhat-ods-applications namespace 内の ServingRuntimes オブジェクトをデプロイするマニフェストが含まれています。
Red Hat OpenShift AI はテクノロジープレビュー機能です。テクノロジープレビュー機能は、Red Hat 製品のサービスレベルアグリーメント (SLA) の対象外であり、機能的に完全ではないことがあります。Red Hat は、実稼働環境でこれらを使用することを推奨していません。テクノロジープレビュー機能は、最新の製品機能をいち早く提供して、開発段階で機能のテストを行い、フィードバックを提供していただくことを目的としています。
Red Hat のテクノロジープレビュー機能のサポート範囲に関する詳細は、テクノロジープレビュー機能のサポート範囲 を参照してください。
前提条件
- MicroShift をインストールするためのシステム要件が満たされている。
- マシンへの root ユーザーアクセス権がある。
-
OpenShift CLI (
oc) がインストールされている。 - ワークロードの PV に必要な容量を使用して LVM VG を設定している。
- AI モデルに必要な RAM とディスク容量がある。
- モデルに必要なリソースを提供するために、必要なアクセラレーター、ハードウェア、オペレーティングシステム、および MicroShift を設定している。
- AI モデルをいつでも使用できる。
手順
次のコマンドを実行して、MicroShift AI-model-serving RPM パッケージをインストールします。
sudo dnf install microshift-ai-model-serving
$ sudo dnf install microshift-ai-model-servingCopy to Clipboard Copied! Toggle word wrap Toggle overflow root ユーザーとして、次のコマンドを入力して MicroShift サービスを再起動します。
sudo systemctl restart microshift
$ sudo systemctl restart microshiftCopy to Clipboard Copied! Toggle word wrap Toggle overflow オプション: 次のコマンドを実行して、リリース情報パッケージをインストールします。
sudo dnf install microshift-ai-model-serving-release-info
$ sudo dnf install microshift-ai-model-serving-release-infoCopy to Clipboard Copied! Toggle word wrap Toggle overflow 注記microshift-ai-model-serving-release-infoRPM には、ブートイメージのビルド中に、オフライン手順やServingRuntimeカスタムリソースのコピーのデプロイに役立つイメージ参照を持つ JSON ファイルが含まれます。
検証
次のコマンドを入力して、
kservePod がredhat-ods-applicationsnamespace で実行されていることを確認します。oc get pods -n redhat-ods-applications
$ oc get pods -n redhat-ods-applicationsCopy to Clipboard Copied! Toggle word wrap Toggle overflow 出力例
NAME READY STATUS RESTARTS AGE kserve-controller-manager-7fc9fc688-kttmm 1/1 Running 0 1h
NAME READY STATUS RESTARTS AGE kserve-controller-manager-7fc9fc688-kttmm 1/1 Running 0 1hCopy to Clipboard Copied! Toggle word wrap Toggle overflow
次のステップ
- AI モデルの namespace を作成します。
- モデルを OCI イメージにパッケージ化します。
- モデルサービングランタイムを設定します。
- モデルが推論の準備ができていることを確認します。
- モデルサーバーに対してリクエストを実行します。