第1章 Red Hat AI の概要
Red Hat AI は、ハイブリッドクラウド環境全体で人工知能 (AI) ソリューションの提供にかかる時間を短縮し、運用コストを削減する製品およびサービスのポートフォリオです。Red Hat AI では、エンタープライズ関連のデータを使用して用途に適した小規模んモデルを効率的にチューニングし、データの保存先にモデルを柔軟にデプロイできます。
Red Hat AI は、単一サーバーのデプロイから、高度に分散されたプラットフォームまで規模に応じて、予測 AI および生成 AI モデルの両方のライフサイクルを管理および監視するのに役立ちます。ポートフォリオは、オープンソーステクノロジーと、さまざまなインフラストラクチャーのパフォーマンス、安定性、および GPU のサポートに焦点を当てたパートナーエコシステムにより強化されています。
Red Hat AI を使用すると、AI ワークロードストラテジーの予測 AI モデルと生成 AI モデルの両方をデプロイおよび管理できます。ポートフォリオは、初期の単一サーバーデプロイメントから、高度にスケールアウトした分散プラットフォームアーキテクチャーまで、AI の採用過程をサポートします。また、複数のハードウェアアクセラレーター、Original Equipment Manufacturer (OEM)、およびクラウドプロバイダーに対するサポートを提供し、さまざまなインフラストラクチャーにわたって安定し、最適化された高性能プラットフォームを提供します。
Red Hat AI では、最新のイノベーションを利用できるだけでなく、Red Hat の AI パートナーエコシステムによってさらに補完されています。最新のイノベーションを利用できます。Red Hat AI パートナーエコステムでは、テスト済みでサポート対象の認定パートナー製品やサービスを提供しており、Red Hat の技術と連携し、ビジネス面および技術面の課題を解決できるようにします。
Red Hat AI には、以下が含まれます。
- Red Hat Enterprise Linux AI
最適化された推論機能を備えた大規模言語モデル (LLM) の開発、テスト、およびデプロイメントのための基盤モデルプラットフォーム。
ビジネスユースケースをまだ定義していない場合、Red Hat Enterprise Linux AI は AI 導入の初期段階でサポートを提供します。AI プラットフォームは、生成 AI (gen AI) 基盤モデルの開発、テスト、および実行のために構築されています。
- Red Hat OpenShift AI
ハイブリッドクラウドとエッジ環境全体で人工知能と機械学習 (AI/ML) のライフサイクルを管理するのに役立つ統合 MLOps プラットフォームです。これにより、モデルを実験段階から実稼働環境へより迅速に移行できるようになります。
AI アプリケーションのスケーリングの準備ができている場合に、Red Hat OpenShift AI を活用するとスケーリングを支援できます。この AI プラットフォームは、ハイブリッドクラウド環境全体で予測 AI モデルと生成 AI モデルのライフサイクルを管理する際に役立ちます。
- Red Hat AI Inference Server
- LLM でのサービングと推論を最適化するコンテナーイメージ。AI Inference Server を使用すると、コストを削減しながらパフォーマンスを向上させる方法で、モデルのサービングや推論が可能になります。
1.1. Red Hat Enterprise Linux AI について リンクのコピーリンクがクリップボードにコピーされました!
Red Hat Enterprise Linux AI (RHEL AI) を使用すると、大規模言語モデル (LLM) を直接カスタマイズして貢献できるようになります。RHEL AI は、LAB (Large-Scale Alignment for Chatbots) と呼ばれる微調整アプローチを使用する InstructLab プロジェクトをベースに構築されています。LAB メソッドでは、Synthetic Data generation (SDG) とマルチフェーズトレーニングフレームワークを使用して、高品質の微調整済み LLM を生成します。
RHEL AI は、起動可能な Red Hat Enterprise Linux (RHEL) コンテナーイメージとしてインストールできます。各イメージは、NVIDIA、AMD、Intel など、特定のハードウェアアクセラレーター用に設定されており、さまざまな推論サービスおよび微調整ツールが含まれています。
独自のデータを使用してシードファイルを作成し、合成データを生成し、対話およびデプロイできる Granite スターターモデルをトレーニングできます。
1.1.1. RHEL AI の主な利点 リンクのコピーリンクがクリップボードにコピーされました!
1.1.1.1. インストールおよびデプロイメント リンクのコピーリンクがクリップボードにコピーされました!
- RHEL AI は、ブート可能でコンテナー化されたオペレーティングシステム (RHEL) を使用してインストールされます。RHEL AI イメージには、さまざまなオープンソースの微調整ツールが含まれているため、Red Hat が提供する Granite スターターモデルをカスタマイズできます。
- RHEL AI は、ベアメタル、Amazon Web Services (AWS)、Azure、IBM Cloud、Google Cloud Platform (GCP) にデプロイするためのイメージを提供します。
- AWS および Azure のマーケットプレイスから RHEL AI を購入し、GPU 対応インスタンスのいずれかにデプロイできます。
- Red Hat および IBM が提供するさまざまなモデルをローカルにダウンロードしてデプロイし、対話できます。
1.1.1.2. モデルのカスタマイズ リンクのコピーリンクがクリップボードにコピーされました!
- 合成データ生成 (SDG) プロセスを使用できます。このプロセスでは、教師 LLM が人間が生成したデータを使用して、他の LLM のトレーニングに使用できる大量の人工データを生成します。
- マルチフェーズトレーニングを利用できます。これは、モデルをデータセットでトレーニングし、評価するプロセスをチェックポイントと呼ばれる複数のフェーズに分けて行うファインチューニングのフレームワークです。登録の最終段階では、最も効率的で、完全に微調整されたモデルを提供します。
-
MMLU
、MT_BENCH
、DK_BENCH
などのさまざまなモデル評価ベンチマークを使用できます。