第1章 OpenShift AI の概要
Red Hat OpenShift AI は、人工知能および機械学習 (AI/ML) アプリケーションのデータサイエンティストおよび開発者向けのプラットフォームです。
OpenShift AI は、オンプレミスまたはクラウドで AI/ML モデルとアプリケーションを開発、トレーニング、提供、テスト、監視するための環境を提供します。
データサイエンティスト向けに、OpenShift AI には、Jupyter と、モデル開発に必要なツールおよびライブラリーで最適化されたデフォルトのノートブックイメージのコレクション、そして TensorFlow および PyTorch フレームワークが含まれます。モデルのデプロイおよびホスト、モデルの外部アプリケーションへの統合、任意のハイブリッドクラウド環境でホストするためのモデルのエクスポートを行います。Docker コンテナーを使用して、データサイエンスパイプラインを備えたポータブル機械学習 (ML) ワークフローを構築することで、OpenShift AI でデータサイエンスプロジェクトを強化できます。グラフィックスプロセッシングユニット (GPU) と Intel Gaudi AI アクセラレーターを使用して、データサイエンスの実験を加速することもできます。
管理者向けに、OpenShift AI は、既存の Red Hat OpenShift または ROSA 環境で、データサイエンスワークロードを有効にします。既存の OpenShift アイデンティティープロバイダーを使用してユーザーを管理し、ノートブックサーバーで利用可能なリソースを管理し、データサイエンティストがモデルの作成、トレーニング、ホストに必要なリソースを確実に入手できるようにします。アクセラレーターを使用するとコストを削減でき、データサイエンティストはグラフィックスプロセッシングユニット (GPU) と Intel Gaudi AI アクセラレーターを使用して、エンドツーエンドのデータサイエンスワークフローのパフォーマンスを向上できます。
OpenShift AI には、次の 2 つのデプロイ方法があります。
オンプレミスまたはクラウドにインストールできる セルフマネージド型ソフトウェア。OpenShift AI Self-Managed は、OpenShift Container Platform などのセルフマネージド環境、または Red Hat OpenShift Dedicated (AWS または GCP の Customer Cloud Subscription 付き)、Red Hat OpenShift Service on Amazon Web Services (ROSA Classic または ROSA HCP)、Microsoft Azure Red Hat OpenShift などの Red Hat が管理するクラウド環境にインストールできます。
接続環境または非接続環境における OpenShift クラスター上のセルフマネージドソフトウェアとしての OpenShift AI に関する詳細は、Red Hat OpenShift AI Self-Managed の製品ドキュメント を参照してください。
Red Hat OpenShift Dedicated (AWS または GCP の Customer Cloud Subscription を使用) または Red Hat OpenShift Service on Amazon Web Services (ROSA Classic) にアドオンとしてインストールされる マネージドクラウドサービス。
OpenShift AI Cloud Service の詳細は、Red Hat OpenShift AI の製品ドキュメント を参照してください。
OpenShift AI がサポートするソフトウェアプラットフォーム、コンポーネント、および依存関係に関する詳細は、ナレッジベースの記事 Supported configurations を参照してください。
フルサポートフェーズウィンドウを含む 2.16 リリースライフサイクルの詳細なビューについては、Red Hat OpenShift AI Self-Managed Life Cycle のナレッジベースの記事を参照してください。