Red Hat AI の概要
Red Hat AI は、ハイブリッドクラウド環境全体で AI ソリューションの開発とデプロイメントを促進する製品およびサービスのポートフォリオです。
概要
第1章 Red Hat AI の概要
Red Hat AI は、ハイブリッドクラウド環境全体で人工知能 (AI) ソリューションの提供にかかる時間を短縮し、運用コストを削減する製品およびサービスのポートフォリオです。これにより、企業は用途に適した小規模なモデルをエンタープライズに関連するデータで効率的にチューニングし、データが存在する場所に柔軟にモデルをデプロイできるようになります。
Red Hat AI を使用すると、予測 AI モデルと生成 AI (gen AI) モデルのライフサイクルを、単一サーバーでのデプロイメントから大規模に分散されたプラットフォームまで、スケールに応じて管理および監視できます。ポートフォリオは、オープンソーステクノロジーと、さまざまなインフラストラクチャーのパフォーマンス、安定性、および GPU のサポートに焦点を当てたパートナーエコシステムにより強化されています。
Red Hat AI により、組織は AI ワークロード戦略にとって最も適している予測 AI モデルと生成 AI モデルの両方をデプロイおよび管理するための柔軟性と一貫性を確保できます。ポートフォリオは、初期の単一サーバーデプロイメントから大規模に分散されたプラットフォームアーキテクチャーまで、AI の採用段階の各段階をサポートする機能とサービスを提供します。また、さまざまなハードウェアアクセラレーター、Original Equipment Manufacturer (OEM)、およびクラウドプロバイダーに対するサポートを提供し、さまざまなインフラストラクチャーにわたって安定し、最適化された高性能プラットフォームを提供します。
最新のイノベーションへのアクセスは、Red Hat の AI パートナーエコシステムによって強化されています。このエコシステムは、Red Hat のテクノロジーとの互換性がテストされ、サポートおよび認定された、さまざまなパートナー製品やサービスを提供しており、お客様のビジネスや技術的な課題の解決を支援します。
Red Hat AI には、以下が含まれます。
Red Hat Enterprise Linux AI: オープンソースの大規模言語モデル (LLM) でエンタープライズアプリケーションを開発できるプラットフォーム。
Red Hat Enterprise Linux AI は、AI 戦略の開始時にビジネスユースケースをまだ定義していないお客様を支援できます。AI プラットフォームは、生成 AI (gen AI) 基盤モデルの開発、テスト、および実行のために構築されています。
Red Hat OpenShift AI: 組織がハイブリッドクラウド環境やエッジ環境全体で人工知能と機械学習 (AI/ML) のライフサイクルを管理できる統合型の MLOps プラットフォームで、チームが実験段階から実稼働環境へのモデル移行を迅速に行えるよう支援します。
Red Hat OpenShift AI は、AI アプリケーションをスケーリングする用意のあるお客様向けに構築されています。この AI プラットフォームは、ハイブリッドクラウド環境全体で予測 AI モデルと生成 AI モデルのライフサイクルを管理する際に役立ちます。
1.1. Red Hat Enterprise Linux AI
Red Hat Enterprise Linux AI (RHEL AI) は、組織が大規模言語モデル (LLM) に直接カスタマイズおよび貢献できるようにします。RHEL AI は InstructLab プロジェクトを基に構築されており、このプロジェクトでは LAB (Large-Scale Alignment for Chatbots) と呼ばれる新しい微調整メソッドが採用されています。LAB メソッドでは、Synthetic Data generation (SDG) とマルチフェーズトレーニングフレームワークを使用して、高品質の微調整済み LLM を生成します。
RHEL AI は、起動可能な Red Hat Enterprise Linux (RHEL) コンテナーイメージとしてインストールできます。各イメージは、NVIDIA、AMD、Intel など、特定のハードウェアアクセラレーター向けに設定され、さまざまな推論対象および微調整ツールが含まれています。
独自のデータを使用して、シードファイルを作成し、合成データを生成して、デプロイおよび対話できる Granite スターターモデルをトレーニングできます。
1.1.1. RHEL AI の主な利点
1.1.1.1. インストールおよびデプロイメント
- RHEL ブート可能なコンテナー化されたオペレーティングシステムを使用した効率的なインストール。RHEL AI イメージには、さまざまなオープンソースの微調整ツールが含まれており、Red Hat が提供する Granite スターターモデルを効率的にカスタマイズできます。
- RHEL AI は、ベアメタル、AWS、Azure、IBM Cloud、および GCP にデプロイするためのイメージを提供します。
- AWS および Azure のマーケットプレイスから RHEL AI を購入し、GPU 対応インスタンスのいずれかにデプロイできます。
- Red Hat および IBM が提供するさまざまなモデルをローカルにダウンロードしてデプロイし、対話できます。
1.1.1.2. モデルのカスタマイズ
- 人間が作成したデータをもとに、教師役の LLM が大量の人工データを生成し、それを他の LLM の学習に利用する Synthetic Data Generation (SDG) プロセスを使用できます。
- マルチフェーズトレーニングを利用することができます。これは、モデルをデータセットで学習させ、評価するプロセスをチェックポイントと呼ばれる複数のフェーズに分けて行うファインチューニングのフレームワークです。完全に微調整が行われたモデルは、最終フェーズで最もパフォーマンスの高いチェックポイントとなります。
- MMLU、MT_BENCH、DK_BENCH などのさまざまなモデル評価ベンチマークを使用できます。
1.2. Red Hat OpenShift AI
Red Hat OpenShift AI は、ハイブリッドクラウド環境およびエッジ全体で AI/ML の開発と操作を合理化するために設計された包括的な MLOps プラットフォームです。これにより、データサイエンティストと開発者の連携が促進されると同時に、IT 部門による管理も確保され、予測 AI モデルと生成 AI モデルの構築、学習、チューニング、デプロイを効率的に行うことができます。
OpenShift AI はセルフマネージド版とクラウドサービス版の両方で提供されており、Red Hat OpenShift の堅牢な基盤の上に構築されています。これにより、パブリッククラウド、オンプレミス、エッジ環境にわたって、AI 対応アプリケーションや機械学習モデルを安全かつ大規模にデプロイできる信頼性の高いプラットフォームを提供します。
Red Hat OpenShift AI は、幅広いテクノロジーエコシステムを活用することで、AI/ML のイノベーションを加速し、運用の一貫性を確保し、ハイブリッドクラウドの柔軟性を高め、透明性、選択の自由、責任ある AI の実践を支援します。
1.2.1. OpenShift AI の主な利点
- 簡素化された AI の採用: 正確で信頼性が高く、セキュアな AI モデルやアプリケーションの構築および提供に伴う複雑さを軽減します。
- エンタープライズ対応のオープンソースツール: 完全にサポートされ、セキュアなエンタープライズバージョンのオープンソース AI ツールを提供し、シームレスな統合と相互運用性を実現します。
- イノベーションの高速化: 組織に最新の AI テクノロジーへのアクセスを提供し、急速に進化する市場で競争力を維持できるよう支援します。
- 広範なパートナーエコシステム: 企業は、認定された AI エコシステムから最適なテクノロジーを選択し、柔軟性と選択肢を高めることができます。
1.2.2. データサイエンティスト、開発者、および MLOps エンジニア向けの機能
- 統合開発環境 (IDE):JupyterLab などの IDE へのアクセスを提供します。また、TensorFlow、PyTorch、Scikit-learn などの事前に設定されたライブラリーを使用します。
- データサイエンスパイプライン: コンテナー化されたパイプラインオーケストレーションを使用して、エンドツーエンドの ML ワークフローをサポートします。
- コンピューティングの高速化: モデルの学習および推論を高速化するために、GPU および Intel Gaudi AI アクセラレーターの統合サポートを提供します。
- モデルのデプロイメントと提供: さまざまな環境にモデルをデプロイし、API を使用してそれらをアプリケーションに統合します。
1.2.3. IT オペレーション管理者の機能
- シームレスな OpenShift 統合: OpenShift アイデンティティープロバイダーとリソース割り当てツールを活用して、セキュアで効率的なユーザー管理を実現します。
- アクセラレーター管理: GPU および AI アクセラレーター使用の効率的なリソーススケジューリングを可能にします。
- 柔軟なデプロイメント: セルフマネージドソリューションまたは Red Hat OpenShift Dedicated および Red Hat OpenShift Service on AWS (ROSA) のマネージドサービスとして利用可能です。
- スケーラビリティーとセキュリティー:AI ワークロードのエンタープライズグレードのセキュリティー機能とガバナンス制御を提供します。