Red Hat AI の概要
Red Hat AI は、ハイブリッドクラウド環境全体で AI ソリューションの開発とデプロイメントを促進する製品およびサービスのポートフォリオです。
概要
第1章 Red Hat AI の概要 リンクのコピーリンクがクリップボードにコピーされました!
Red Hat AI は、ハイブリッドクラウド環境全体で人工知能 (AI) ソリューションの提供にかかる時間を短縮し、運用コストを削減する製品およびサービスのポートフォリオです。Red Hat AI では、エンタープライズ関連のデータを使用して用途に適した小規模んモデルを効率的にチューニングし、データの保存先にモデルを柔軟にデプロイできます。
Red Hat AI は、単一サーバーのデプロイから、高度に分散されたプラットフォームまで規模に応じて、予測 AI および生成 AI モデルの両方のライフサイクルを管理および監視するのに役立ちます。ポートフォリオは、オープンソーステクノロジーと、さまざまなインフラストラクチャーのパフォーマンス、安定性、および GPU のサポートに焦点を当てたパートナーエコシステムにより強化されています。
Red Hat AI を使用すると、AI ワークロードストラテジーの予測 AI モデルと生成 AI モデルの両方をデプロイおよび管理できます。ポートフォリオは、初期の単一サーバーデプロイメントから、高度にスケールアウトした分散プラットフォームアーキテクチャーまで、AI の採用過程をサポートします。また、複数のハードウェアアクセラレーター、Original Equipment Manufacturer (OEM)、およびクラウドプロバイダーに対するサポートを提供し、さまざまなインフラストラクチャーにわたって安定し、最適化された高性能プラットフォームを提供します。
Red Hat AI では、最新のイノベーションを利用できるだけでなく、Red Hat の AI パートナーエコシステムによってさらに補完されています。最新のイノベーションを利用できます。Red Hat AI パートナーエコステムでは、テスト済みでサポート対象の認定パートナー製品やサービスを提供しており、Red Hat の技術と連携し、ビジネス面および技術面の課題を解決できるようにします。
Red Hat AI には、以下が含まれます。
- Red Hat Enterprise Linux AI
最適化された推論機能を備えた大規模言語モデル (LLM) の開発、テスト、およびデプロイメントのための基盤モデルプラットフォーム。
ビジネスユースケースをまだ定義していない場合、Red Hat Enterprise Linux AI は AI 導入の初期段階でサポートを提供します。AI プラットフォームは、生成 AI (gen AI) 基盤モデルの開発、テスト、および実行のために構築されています。
- Red Hat OpenShift AI
ハイブリッドクラウドとエッジ環境全体で人工知能と機械学習 (AI/ML) のライフサイクルを管理するのに役立つ統合 MLOps プラットフォームです。これにより、モデルを実験段階から実稼働環境へより迅速に移行できるようになります。
AI アプリケーションのスケーリングの準備ができている場合に、Red Hat OpenShift AI を活用するとスケーリングを支援できます。この AI プラットフォームは、ハイブリッドクラウド環境全体で予測 AI モデルと生成 AI モデルのライフサイクルを管理する際に役立ちます。
- Red Hat AI Inference Server
- LLM でのサービングと推論を最適化するコンテナーイメージ。AI Inference Server を使用すると、コストを削減しながらパフォーマンスを向上させる方法で、モデルのサービングや推論が可能になります。
1.1. Red Hat Enterprise Linux AI について リンクのコピーリンクがクリップボードにコピーされました!
Red Hat Enterprise Linux AI (RHEL AI) を使用すると、大規模言語モデル (LLM) を直接カスタマイズして貢献できるようになります。RHEL AI は、LAB (Large-Scale Alignment for Chatbots) と呼ばれる微調整アプローチを使用する InstructLab プロジェクトをベースに構築されています。LAB メソッドでは、Synthetic Data generation (SDG) とマルチフェーズトレーニングフレームワークを使用して、高品質の微調整済み LLM を生成します。
RHEL AI は、起動可能な Red Hat Enterprise Linux (RHEL) コンテナーイメージとしてインストールできます。各イメージは、NVIDIA、AMD、Intel など、特定のハードウェアアクセラレーター用に設定されており、さまざまな推論サービスおよび微調整ツールが含まれています。
独自のデータを使用してシードファイルを作成し、合成データを生成し、対話およびデプロイできる Granite スターターモデルをトレーニングできます。
1.1.1. RHEL AI の主な利点 リンクのコピーリンクがクリップボードにコピーされました!
1.1.1.1. インストールおよびデプロイメント リンクのコピーリンクがクリップボードにコピーされました!
- RHEL AI は、ブート可能でコンテナー化されたオペレーティングシステム (RHEL) を使用してインストールされます。RHEL AI イメージには、さまざまなオープンソースの微調整ツールが含まれているため、Red Hat が提供する Granite スターターモデルをカスタマイズできます。
- RHEL AI は、ベアメタル、Amazon Web Services (AWS)、Azure、IBM Cloud、Google Cloud Platform (GCP) にデプロイするためのイメージを提供します。
- AWS および Azure のマーケットプレイスから RHEL AI を購入し、GPU 対応インスタンスのいずれかにデプロイできます。
- Red Hat および IBM が提供するさまざまなモデルをローカルにダウンロードしてデプロイし、対話できます。
1.1.1.2. モデルのカスタマイズ リンクのコピーリンクがクリップボードにコピーされました!
- 合成データ生成 (SDG) プロセスを使用できます。このプロセスでは、教師 LLM が人間が生成したデータを使用して、他の LLM のトレーニングに使用できる大量の人工データを生成します。
- マルチフェーズトレーニングを利用できます。これは、モデルをデータセットでトレーニングし、評価するプロセスをチェックポイントと呼ばれる複数のフェーズに分けて行うファインチューニングのフレームワークです。登録の最終段階では、最も効率的で、完全に微調整されたモデルを提供します。
-
MMLU、MT_BENCH、DK_BENCHなどのさまざまなモデル評価ベンチマークを使用できます。
1.2. Red Hat OpenShift AI について リンクのコピーリンクがクリップボードにコピーされました!
Red Hat OpenShift AI は、ハイブリッドクラウド環境とエッジ全体で人工知能と機械学習 (AI/ML) の開発と運用を効率化するように設計された包括的な MLOps プラットフォームです。これにより、データサイエンティストと開発者のコラボレーションが促進されるだけでなく、IT 部門が監督する状態が保たれるため、組織が予測 AI および生成 AI モデルを効率的に構築、トレーニング、微調整、デプロイできるようになります。
OpenShift AI はセルフマネージド版とクラウドサービス版の両方で提供されており、Red Hat OpenShift の堅牢な基盤の上に構築されています。これにより、パブリッククラウド、オンプレミス、エッジ環境にわたって、AI 対応アプリケーションや機械学習モデルを安全かつ大規模にデプロイできる信頼性の高いプラットフォームを提供します。
Red Hat OpenShift AI は、幅広いテクノロジーエコシステムを活用することで、AI/ML のイノベーションを加速し、運用の一貫性を確保し、ハイブリッドクラウドの柔軟性を高め、透明性、選択の自由、責任ある AI の実践を支援します。
1.2.1. OpenShift AI の主な利点 リンクのコピーリンクがクリップボードにコピーされました!
- 簡素化された AI の採用: 正確で信頼性が高く、セキュアな AI モデルやアプリケーションの構築および提供に伴う複雑さを軽減します。
- エンタープライズ対応のオープンソースツール: 完全にサポートされ、セキュアなエンタープライズバージョンのオープンソース AI ツールを提供し、シームレスな統合と相互運用性を実現します。
- イノベーションの高速化: 組織に最新の AI テクノロジーへのアクセスを提供し、急速に進化する市場で競争力を維持できるよう支援します。
- 広範なパートナーエコシステム: 企業は、認定された AI エコシステムから最適なテクノロジーを選択し、柔軟性と選択肢を高めることができます。
1.2.2. データサイエンティスト、開発者、および MLOps エンジニア向けの機能 リンクのコピーリンクがクリップボードにコピーされました!
- 統合開発環境 (IDE):JupyterLab などの IDE へのアクセスを提供します。また、TensorFlow、PyTorch、Scikit-learn などの事前に設定されたライブラリーを使用します。
- データサイエンスパイプライン: コンテナー化されたパイプラインオーケストレーションを使用して、エンドツーエンドの ML ワークフローをサポートします。
- コンピューティングの高速化: モデルの学習および推論を高速化するために、GPU および Intel Gaudi AI アクセラレーターの統合サポートを提供します。
- モデルのデプロイメントとサービング: さまざまな環境にモデルをデプロイし、API を使用してそれらをアプリケーションに統合します。
1.2.3. IT オペレーション管理者の機能 リンクのコピーリンクがクリップボードにコピーされました!
- シームレスな OpenShift 統合: OpenShift アイデンティティープロバイダーとリソース割り当てツールを活用して、セキュアで効率的なユーザー管理を実現します。
- アクセラレーター管理: GPU および AI アクセラレーター使用の効率的なリソーススケジューリングを可能にします。
- 柔軟なデプロイメント: セルフマネージドソリューションまたは Red Hat OpenShift Dedicated および Red Hat OpenShift Service on AWS (ROSA) のマネージドサービスとして利用可能です。
- スケーラビリティーとセキュリティー:AI ワークロードのエンタープライズグレードのセキュリティー機能とガバナンス制御を提供します。
1.3. Red Hat AI Inference Server について リンクのコピーリンクがクリップボードにコピーされました!
Red Hat AI Inference Server は、オープンソースの vLLM プロジェクト を基盤として、エンタープライズグレードの安定性とセキュリティーを備えた高度な推論機能を提供します。
AI 推論サーバーは、継続的なバッチ処理とテンソル並列処理 (Tensor Parallel) を使用して、レイテンシーを短縮し、スループットを向上させます。連続バッチ処理では、バッチ全体が蓄積されるまで待機するのではなく、モデル要求が到着するとすぐに処理されます。テンソル並列処理により、LLM ワークロードが複数の GPU に分散されます。
推論モデルのコストを削減するために、AI Inference Server はページングされたアテンションを使用します。LLM は、ユーザーとの会話を理解するためにアテンションと呼ばれるメカニズムを使用します。通常、アテンションは大量のメモリーが使用され、その多くは無駄になっています。ページングアテンションは、オペレーティングシステムの仮想メモリーの動作と同様に、LLM にメモリーをプロビジョニングすることで、このメモリーの浪費に対処します。このアプローチではメモリーの消費量が少なくなり、コストが削減されます。
Red Hat AI Inference Server には次の機能があります。
- ハイブリッドクラウドの推論ランタイム: アクセラレーター、Kubernetes、Linux 環境全体で、選択したモデルを実行します。
- LLM コンプレッサー: モデルを圧縮して、アクセラレーターとコンピュートの使用を最適化します。高いモデル精度を維持しながらコストを削減します。
- 最適化されたモデルリポジトリー: NVIDIA アクセラレーターと AMD アクセラレーターの両方をサポートし、推論のデプロイメントにすぐに使用できる最適化されたモデルのコレクションにアクセスできます。
- Red Hat 製品での使用認定: RHEL AI および OpenShift AI と統合します。