第1章 Red Hat OpenShift AI を MicroShift で使用する


MicroShift エッジデプロイメントで人工知能 (AI) 機能を使用して、人工知能および機械学習 (AI/ML) モデルを提供する方法を説明します。

重要

Red Hat OpenShift AI はテクノロジープレビュー機能です。テクノロジープレビュー機能は、Red Hat 製品のサービスレベルアグリーメント (SLA) の対象外であり、機能的に完全ではないことがあります。Red Hat は、実稼働環境でこれらを使用することを推奨していません。テクノロジープレビュー機能は、最新の製品機能をいち早く提供して、開発段階で機能のテストを行い、フィードバックを提供していただくことを目的としています。

Red Hat のテクノロジープレビュー機能のサポート範囲に関する詳細は、テクノロジープレビュー機能のサポート範囲 を参照してください。

1.1. MicroShift での Red Hat OpenShift AI の仕組み

エッジデプロイメントは、データが発生し、意思決定を行う必要がある場所です。Red Hat OpenShift AI (Red Hat OpenShift AI Self-Managed) を使用すると、MicroShift 駆動型エッジデバイスのフリートを人工知能および機械学習 (AI/ML) 運用サイクルに統合できます。MicroShift は、Kubernetes の KServe コンポーネントに基づくシングルモデルサービングプラットフォームと互換性があります。KServe は、モデルサービングをオーケストレーションするプラットフォームです。

Red Hat OpenShift AI Self-Managed は、データサイエンティストおよび AI/ML アプリケーション開発者向けのプラットフォームです。まず、クラウドまたはデータセンターで Red Hat OpenShift AI Self-Managed を使用して、AI モデルを開発、トレーニング、テストします。次に、MicroShift のエッジデプロイメントでモデルを実行します。

AI モデルをデプロイした後、アプリケーションデータをモデルに送信できるようになり、モデルは人間のユーザーなしでデータに基づく意思決定を行うことができます。これは、管理者とのやり取りが自然と制限されるエッジアプリケーションにとって理想的なシナリオです。

KServe での実装
KServe コンポーネントには、さまざまな種類のモデルサーバーの読み込みを実装するモデルサービングランタイムが含まれています。これらのランタイムは、カスタムリソース (CR) を使用して設定されます。KServe カスタムリソース定義 (CRD) は、デプロイメントオブジェクト、ストレージアクセス、およびネットワークセットアップのライフサイクルも定義します。
Red Hat OpenShift AI Self-Managed を MicroShift で使用する場合の詳細

エッジ最適化された Kubernetes デプロイメントである MicroShift では、Red Hat OpenShift AI Self-Managed を使用する場合、次の制限があります。

  • MicroShift での AI モデルサービングは、x86_64 アーキテクチャーでのみ利用できます。
  • Red Hat OpenShift AI Self-Managed Operator コンポーネントのサブセットが MicroShift でサポートされています。
  • MicroShift はシングルノードの Kubernetes ディストリビューションであるため、マルチモデルのデプロイメントをサポートしません。シングルモデルサービングプラットフォームを使用する必要があります。
  • クラウドまたはデータセンターの MicroShift モデルサービングプラットフォームで実行する AI モデルを開発する必要があります。MicroShift を AI モデルの開発プラットフォームとして使用することはサポートされていません。
  • AI モデルを提供するために必要な追加の RAM、ディスク領域、およびストレージ設定を計画する必要があります。
  • すべてのモデルサーバーが IPv6 ネットワークプロトコルをサポートしているわけではありません。各モデルサーバーのドキュメントをチェックして、ネットワーク設定がサポートされていることを確認してください。
  • 公開されたモデルサーバーのエンドポイントを、たとえば OAUTH2 を使用して保護する必要があります。
  • ClusterServingRuntimes CRD は Red Hat OpenShift AI Self-Managed ではサポートされていないため、microshift-ai-model-serving RPM に同梱されている ServingRuntime CR をワークロード namespace にコピーする必要があります。
  • MicroShift でモデルサービングを管理するには、CLI を使用する必要があります。Red Hat OpenShift AI Self-Managed ダッシュボードはサポートされていません。
トップに戻る
Red Hat logoGithubredditYoutubeTwitter

詳細情報

試用、購入および販売

コミュニティー

Red Hat ドキュメントについて

Red Hat をお使いのお客様が、信頼できるコンテンツが含まれている製品やサービスを活用することで、イノベーションを行い、目標を達成できるようにします。 最新の更新を見る.

多様性を受け入れるオープンソースの強化

Red Hat では、コード、ドキュメント、Web プロパティーにおける配慮に欠ける用語の置き換えに取り組んでいます。このような変更は、段階的に実施される予定です。詳細情報: Red Hat ブログ.

会社概要

Red Hat は、企業がコアとなるデータセンターからネットワークエッジに至るまで、各種プラットフォームや環境全体で作業を簡素化できるように、強化されたソリューションを提供しています。

Theme

© 2025 Red Hat