第2章 OpenShift AI のインストールとデプロイ
Red Hat OpenShift AI は、データサイエンティストおよび人工知能 (AI) アプリケーションの開発者のためのプラットフォームです。オンプレミスやパブリッククラウドで機械学習モデルを迅速に開発、トレーニング、テスト、デプロイできる完全にサポートされた環境を提供します。
OpenShift AI は、Red Hat OpenShift のマネージドクラウドサービスアドオンとして、またはオンプレミスまたは OpenShift 上のパブリッククラウドにインストールできるセルフマネージドソフトウェアとして提供されます。
接続環境または非接続環境の OpenShift クラスターにセルフマネージドソフトウェアとして OpenShift AI をインストールする方法の詳細は、Red Hat OpenShift AI Self-Managed の製品ドキュメント を参照してください。
Data Science Pipelines 2.0 には、Argo Workflows のインストールが含まれています。Red Hat では、Argo Workflows に含まれるこのインスタンスを直接使用することはサポートしていません。Data Science Pipelines 2.0 を搭載した OpenShift AI にインストールする場合は、クラスターに個別の Argo Workflows インスタンスがないことを確認してください。
マネージドクラウドサービスアドオンとしての Red Hat OpenShift AI には 2 つのデプロイメントオプションがあります。
Amazon Web Services または Google Cloud Platform のカスタマークラウドサブスクリプションを備えた OpenShift Dedicated
OpenShift Dedicated は、クラウドサービスとして提供され、高可用性が実現された、1 人のお客様専用の完全な OpenShift Container Platform クラスターです。OpenShift Dedicated は Red Hat によって管理され、Amazon Web Services (AWS) または Google Cloud Platform (GCP) でホストされます。Customer Cloud Subscription (CCS) モデルを使用すると、Red Hat はお客様の AWS または GCP アカウントにクラスターをデプロイおよび管理できます。CCS を介して OpenShift Dedicated を取得するには、Red Hat アカウントマネージャーにお問い合わせください。
Red Hat OpenShift Service on AWS (ROSA classic)
ROSA は、フルマネージドのターンキーアプリケーションプラットフォームであり、アプリケーションを構築してデプロイすることにより、お客様に価値を提供することに集中できます。AWS アカウントから直接サービスをサブスクライブします。
OpenShift AI をマネージドクラウドサービスとしてインストールするには、次の概要タスクを実行します。
- OpenShift クラスターがすべての要件を満たしていることを確認します。
- OpenShift クラスターのアイデンティティープロバイダーを設定します。
- OpenShift クラスターの管理ユーザーを追加します。
Red Hat OpenShift AI アドオンにサブスクライブします。
AWS または GCP 用の CCS を備えた OpenShift Dedicated の場合は、Red Hat 経由でサブスクリプションを取得します。
ROSA classic の場合は、AWS Marketplace 経由でサブスクリプションを取得します。
- Red Hat OpenShift AI アドオンをインストールします。
- OpenShift AI ダッシュボードにアクセスします。
- オプションで、OpenShift AI でアクセラレーターを設定して有効にし、データサイエンティストがモデル内でコンピュート負荷の高いワークロードを使用できるようにします。アクセラレーターの有効化 を参照してください。
2.1. OpenShift AI の要件 リンクのコピーリンクがクリップボードにコピーされました!
Red Hat OpenShift Dedicated クラスターまたは Red Hat OpenShift Service on Amazon Web Services (ROSA classic) クラスターに OpenShift AI をインストールするには、次の要件を満たす必要があります。
Red Hat OpenShift Dedicated のサブスクリプション または ROSA のサブスクリプション
AWS のカスタマークラウド AWS のカスタマークラウドサブスクリプション または GCP のカスタマークラウドサブスクリプション モデルを使用して、Amazon Web Service (AWS) または Google Cloud Platform (GCP) アカウントで Red Hat OpenShift Dedicated をデプロイできます。Red Hat は Red Hat クラウドアカウントに OpenShift Dedicated をインストールするオプションを提供していますが、OpenShift AI をインストールする場合は、自分のクラウドアカウントに OpenShift Dedicated をインストールする必要があることに注意してください。
Red Hat アカウントマネージャーにお問い合わせいただき、新しい Red Hat OpenShift Dedicated サブスクリプションを購入してください。アカウントマネージャーがない場合は https://cloud.redhat.com/products/dedicated/contact/ でフォームに入力して要求してください。
Red Hat OpenShift Service on AWS (ROSA classic) は、AWS アカウントから直接サブスクライブするか、Red Hat アカウントマネージャーに連絡してサブスクライブできます。
Red Hat カスタマーアカウント
OpenShift Cluster Manager (http://console.redhat.com/openshift) に移動し、ログインするか、新しいアカウントに登録します。
OpenShift クラスターへのクラスター管理者アクセス
クラスター管理者として OpenShift クラスターにアクセスできる。既存のクラスターを使用するか、次の関連ドキュメントの手順に従ってクラスターを作成します。
- 次の要件を満たす OpenShift Dedicated または ROSA クラスター設定:
OpenShift AI で使用できるように、アドオンをインストールするときに 2 つの以上のワーカーノードと、少なくとも 8 つの CPU および 32 GiB の RAM が必要です。この要件を満たしていないとインストールプロセスの開始に失敗し、エラーが表示されます。
新しいクラスターを作成するときは、要件を満たすコンピューターノードインスタンスタイプとして m6a.2xlarge を選択します。
既存の ROSA classic クラスターの場合、以下のコマンドを使用してコンピュートノードインスタンスタイプを取得できます。
rosa list machinepools --cluster=cluster-nameクラスターのコンピュートノードインスタンスタイプを変更することはできませんが、最小要件を満たすように追加のマシンプールを追加したり、デフォルトプールを変更したりすることはできます。ただし、最小リソース要件は、クラスター内の単一のマシンプールによって満たされる必要があります。
詳細は、関連するドキュメントを参照してください。
ROSA クラスターの場合は、アクセス管理ストラテジーを選択する
ROSA classic クラスターに OpenShift AI をインストールする場合は、AWS Security Token Service (STS) を使用する ROSA クラスターにインストールするか、AWS Identity and Access Management (IAM) 認証情報を使用する ROSA クラスターにインストールするかを決定します。AWS STS を使用して、または使用せずに ROSA クラスターをデプロイする場合のアドバイスは、ROSA classic クラスターのインストール を参照してください。
KServe の依存関係をインストールする
- シングルモデルサービングプラットフォームが大規模モデルを提供するために使用する KServe コンポーネントをサポートするには、Red Hat OpenShift Serverless および Red Hat OpenShift Service Mesh の Operator もインストールして、追加の設定を行う必要があります。詳細は、シングルモデルサービングプラットフォームについて を参照してください。
-
シングルモデルサービングプラットフォームの認可プロバイダーを追加する場合は、
Red Hat - AuthorinoOperator をインストールする必要があります。詳細は、シングルモデルサービングプラットフォームの認可プロバイダーの追加 を参照してください。
RAG 依存関係をインストールする
Llama Stack を使用して検索拡張生成 (RAG) ワークロードをデプロイする予定の場合は、次の要件を満たす必要があります。
- クラスターで GPU 対応ノードが使用可能であり、Node Feature Discovery Operator と NVIDIA GPU Operator がインストールされている。詳細は、Node Feature Discovery Operator のインストール と NVIDIA GPU の有効化 を参照してください。
- モデルアーティファクトのストレージにアクセスできる。
- KServe インストールの前提条件を満たしている。
オブジェクトストレージへのアクセス
- OpenShift AI のコンポーネントは、AWS S3、MinIO、Ceph、IBM Cloud Storage などの S3 互換オブジェクトストレージを必要とするか、使用できます。オブジェクトストアは、ユーザーがオブジェクトまたはファイルとしてデータにアクセスできるようにするデータストレージメカニズムです。S3 API は、オブジェクトストレージサービスに対する HTTP ベースのアクセスの標準として認められています。
次のコンポーネントにはオブジェクトストレージが必要です。
- 保存されたモデルをデプロイするためのシングルまたはマルチモデルサービングプラットフォーム。シングルモデルサービングプラットフォームへのモデルのデプロイ または マルチモデルサービングプラットフォームを使用したモデルのデプロイ を参照してください。
- アーティファクト、ログ、中間結果を保存するデータサイエンスパイプライン。パイプラインサーバーの設定 および パイプラインログについて を参照してください。
オブジェクトストレージは、次のコンポーネントで使用できます。
- 大規模なデータセットにアクセスするためのワークベンチ。データサイエンスプロジェクトへの接続の追加 を参照してください。
- 入力データをプルし、結果をプッシュするための分散ワークロード。データサイエンスパイプラインから分散データサイエンスワークロードを実行する を参照してください。
- パイプライン内で実行するコード。たとえば、結果のモデルをオブジェクトストレージに保存するためのコードです。Jupyterlab のパイプラインの概要 を参照してください。