Red Hat AI の概要


Red Hat AI 2025

Red Hat AI は、ハイブリッドクラウド環境全体で AI ソリューションの開発とデプロイメントを促進する製品およびサービスのポートフォリオです。

概要

Red Hat AI により、組織は AI ワークロード戦略にとって最も適している予測 AI モデルと生成 AI モデルの両方をデプロイおよび管理するための柔軟性と一貫性を確保できます。

第1章 Red Hat AI の概要

Red Hat AI は、ハイブリッドクラウド環境全体で人工知能 (AI) ソリューションの提供にかかる時間を短縮し、運用コストを削減する製品およびサービスのポートフォリオです。Red Hat AI では、エンタープライズ関連のデータを使用して用途に適した小規模んモデルを効率的にチューニングし、データの保存先にモデルを柔軟にデプロイできます。

Red Hat AI は、単一サーバーのデプロイから、高度に分散されたプラットフォームまで規模に応じて、予測 AI および生成 AI モデルの両方のライフサイクルを管理および監視するのに役立ちます。ポートフォリオは、オープンソーステクノロジーと、さまざまなインフラストラクチャーのパフォーマンス、安定性、および GPU のサポートに焦点を当てたパートナーエコシステムにより強化されています。

Red Hat AI を使用すると、AI ワークロードストラテジーの予測 AI モデルと生成 AI モデルの両方をデプロイおよび管理できます。ポートフォリオは、初期の単一サーバーデプロイメントから、高度にスケールアウトした分散プラットフォームアーキテクチャーまで、AI の採用過程をサポートします。また、複数のハードウェアアクセラレーター、Original Equipment Manufacturer (OEM)、およびクラウドプロバイダーに対するサポートを提供し、さまざまなインフラストラクチャーにわたって安定し、最適化された高性能プラットフォームを提供します。

Red Hat AI では、最新のイノベーションを利用できるだけでなく、Red Hat の AI パートナーエコシステムによってさらに補完されています。最新のイノベーションを利用できます。Red Hat AI パートナーエコステムでは、テスト済みでサポート対象の認定パートナー製品やサービスを提供しており、Red Hat の技術と連携し、ビジネス面および技術面の課題を解決できるようにします。

Red Hat AI には、以下が含まれます。

Red Hat Enterprise Linux AI

最適化された推論機能を備えた大規模言語モデル (LLM) の開発、テスト、およびデプロイメントのための基盤モデルプラットフォーム。

ビジネスユースケースをまだ定義していない場合、Red Hat Enterprise Linux AI は AI 導入の初期段階でサポートを提供します。AI プラットフォームは、生成 AI (gen AI) 基盤モデルの開発、テスト、および実行のために構築されています。

Red Hat OpenShift AI

ハイブリッドクラウドとエッジ環境全体で人工知能と機械学習 (AI/ML) のライフサイクルを管理するのに役立つ統合 MLOps プラットフォームです。これにより、モデルを実験段階から実稼働環境へより迅速に移行できるようになります。

AI アプリケーションのスケーリングの準備ができている場合に、Red Hat OpenShift AI を活用するとスケーリングを支援できます。この AI プラットフォームは、ハイブリッドクラウド環境全体で予測 AI モデルと生成 AI モデルのライフサイクルを管理する際に役立ちます。

Red Hat AI Inference Server
LLM でのサービングと推論を最適化するコンテナーイメージ。AI Inference Server を使用すると、コストを削減しながらパフォーマンスを向上させる方法で、モデルのサービングや推論が可能になります。

1.1. Red Hat Enterprise Linux AI について

Red Hat Enterprise Linux AI (RHEL AI) を使用すると、大規模言語モデル (LLM) を直接カスタマイズして貢献できるようになります。RHEL AI は、LAB (Large-Scale Alignment for Chatbots) と呼ばれる微調整アプローチを使用する InstructLab プロジェクトをベースに構築されています。LAB メソッドでは、Synthetic Data generation (SDG) とマルチフェーズトレーニングフレームワークを使用して、高品質の微調整済み LLM を生成します。

RHEL AI は、起動可能な Red Hat Enterprise Linux (RHEL) コンテナーイメージとしてインストールできます。各イメージは、NVIDIA、AMD、Intel など、特定のハードウェアアクセラレーター用に設定されており、さまざまな推論サービスおよび微調整ツールが含まれています。

独自のデータを使用してシードファイルを作成し、合成データを生成し、対話およびデプロイできる Granite スターターモデルをトレーニングできます。

1.1.1. RHEL AI の主な利点

1.1.1.1. インストールおよびデプロイメント
  • RHEL AI は、ブート可能でコンテナー化されたオペレーティングシステム (RHEL) を使用してインストールされます。RHEL AI イメージには、さまざまなオープンソースの微調整ツールが含まれているため、Red Hat が提供する Granite スターターモデルをカスタマイズできます。
  • RHEL AI は、ベアメタル、Amazon Web Services (AWS)、Azure、IBM Cloud、Google Cloud Platform (GCP) にデプロイするためのイメージを提供します。
  • AWS および Azure のマーケットプレイスから RHEL AI を購入し、GPU 対応インスタンスのいずれかにデプロイできます。
  • Red Hat および IBM が提供するさまざまなモデルをローカルにダウンロードしてデプロイし、対話できます。
1.1.1.2. モデルのカスタマイズ
  • 合成データ生成 (SDG) プロセスを使用できます。このプロセスでは、教師 LLM が人間が生成したデータを使用して、他の LLM のトレーニングに使用できる大量の人工データを生成します。
  • マルチフェーズトレーニングを利用できます。これは、モデルをデータセットでトレーニングし、評価するプロセスをチェックポイントと呼ばれる複数のフェーズに分けて行うファインチューニングのフレームワークです。登録の最終段階では、最も効率的で、完全に微調整されたモデルを提供します。
  • MMLUMT_BENCHDK_BENCH などのさまざまなモデル評価ベンチマークを使用できます。

1.2. Red Hat OpenShift AI について

Red Hat OpenShift AI は、ハイブリッドクラウド環境とエッジ全体で人工知能と機械学習 (AI/ML) の開発と運用を効率化するように設計された包括的な MLOps プラットフォームです。これにより、データサイエンティストと開発者のコラボレーションが促進されるだけでなく、IT 部門が監督する状態が保たれるため、組織が予測 AI および生成 AI モデルを効率的に構築、トレーニング、微調整、デプロイできるようになります。

OpenShift AI はセルフマネージド版とクラウドサービス版の両方で提供されており、Red Hat OpenShift の堅牢な基盤の上に構築されています。これにより、パブリッククラウド、オンプレミス、エッジ環境にわたって、AI 対応アプリケーションや機械学習モデルを安全かつ大規模にデプロイできる信頼性の高いプラットフォームを提供します。

Red Hat OpenShift AI は、幅広いテクノロジーエコシステムを活用することで、AI/ML のイノベーションを加速し、運用の一貫性を確保し、ハイブリッドクラウドの柔軟性を高め、透明性、選択の自由、責任ある AI の実践を支援します。

1.2.1. OpenShift AI の主な利点

  • 簡素化された AI の採用: 正確で信頼性が高く、セキュアな AI モデルやアプリケーションの構築および提供に伴う複雑さを軽減します。
  • エンタープライズ対応のオープンソースツール: 完全にサポートされ、セキュアなエンタープライズバージョンのオープンソース AI ツールを提供し、シームレスな統合と相互運用性を実現します。
  • イノベーションの高速化: 組織に最新の AI テクノロジーへのアクセスを提供し、急速に進化する市場で競争力を維持できるよう支援します。
  • 広範なパートナーエコシステム: 企業は、認定された AI エコシステムから最適なテクノロジーを選択し、柔軟性と選択肢を高めることができます。

1.2.2. データサイエンティスト、開発者、および MLOps エンジニア向けの機能

  • 統合開発環境 (IDE):JupyterLab などの IDE へのアクセスを提供します。また、TensorFlow、PyTorch、Scikit-learn などの事前に設定されたライブラリーを使用します。
  • データサイエンスパイプライン: コンテナー化されたパイプラインオーケストレーションを使用して、エンドツーエンドの ML ワークフローをサポートします。
  • コンピューティングの高速化: モデルの学習および推論を高速化するために、GPU および Intel Gaudi AI アクセラレーターの統合サポートを提供します。
  • モデルのデプロイメントとサービング: さまざまな環境にモデルをデプロイし、API を使用してそれらをアプリケーションに統合します。

1.2.3. IT オペレーション管理者の機能

  • シームレスな OpenShift 統合: OpenShift アイデンティティープロバイダーとリソース割り当てツールを活用して、セキュアで効率的なユーザー管理を実現します。
  • アクセラレーター管理: GPU および AI アクセラレーター使用の効率的なリソーススケジューリングを可能にします。
  • 柔軟なデプロイメント: セルフマネージドソリューションまたは Red Hat OpenShift Dedicated および Red Hat OpenShift Service on AWS (ROSA) のマネージドサービスとして利用可能です。
  • スケーラビリティーとセキュリティー:AI ワークロードのエンタープライズグレードのセキュリティー機能とガバナンス制御を提供します。

1.3. Red Hat AI Inference Server について

Red Hat AI Inference Server は、オープンソースの vLLM プロジェクト を基盤として、エンタープライズグレードの安定性とセキュリティーを備えた高度な推論機能を提供します。

AI 推論サーバーは、継続的なバッチ処理とテンソル並列処理 (Tensor Parallel) を使用して、レイテンシーを短縮し、スループットを向上させます。連続バッチ処理では、バッチ全体が蓄積されるまで待機するのではなく、モデル要求が到着するとすぐに処理されます。テンソル並列処理により、LLM ワークロードが複数の GPU に分散されます。

推論モデルのコストを削減するために、AI Inference Server はページングされたアテンションを使用します。LLM は、ユーザーとの会話を理解するためにアテンションと呼ばれるメカニズムを使用します。通常、アテンションは大量のメモリーが使用され、その多くは無駄になっています。ページングアテンションは、オペレーティングシステムの仮想メモリーの動作と同様に、LLM にメモリーをプロビジョニングすることで、このメモリーの浪費に対処します。このアプローチではメモリーの消費量が少なくなり、コストが削減されます。

Red Hat AI Inference Server には次の機能があります。

  • ハイブリッドクラウドの推論ランタイム: アクセラレーター、Kubernetes、Linux 環境全体で、選択したモデルを実行します。
  • LLM コンプレッサー: モデルを圧縮して、アクセラレーターとコンピュートの使用を最適化します。高いモデル精度を維持しながらコストを削減します。
  • 最適化されたモデルリポジトリー: NVIDIA アクセラレーターと AMD アクセラレーターの両方をサポートし、推論のデプロイメントにすぐに使用できる最適化されたモデルのコレクションにアクセスできます。
  • Red Hat 製品での使用認定: RHEL AI および OpenShift AI と統合します。

法律上の通知

Copyright © 2025 Red Hat, Inc.
The text of and illustrations in this document are licensed by Red Hat under a Creative Commons Attribution–Share Alike 3.0 Unported license ("CC-BY-SA"). An explanation of CC-BY-SA is available at http://creativecommons.org/licenses/by-sa/3.0/. In accordance with CC-BY-SA, if you distribute this document or an adaptation of it, you must provide the URL for the original version.
Red Hat, as the licensor of this document, waives the right to enforce, and agrees not to assert, Section 4d of CC-BY-SA to the fullest extent permitted by applicable law.
Red Hat, Red Hat Enterprise Linux, the Shadowman logo, the Red Hat logo, JBoss, OpenShift, Fedora, the Infinity logo, and RHCE are trademarks of Red Hat, Inc., registered in the United States and other countries.
Linux® is the registered trademark of Linus Torvalds in the United States and other countries.
Java® is a registered trademark of Oracle and/or its affiliates.
XFS® is a trademark of Silicon Graphics International Corp. or its subsidiaries in the United States and/or other countries.
MySQL® is a registered trademark of MySQL AB in the United States, the European Union and other countries.
Node.js® is an official trademark of Joyent. Red Hat is not formally related to or endorsed by the official Joyent Node.js open source or commercial project.
The OpenStack® Word Mark and OpenStack logo are either registered trademarks/service marks or trademarks/service marks of the OpenStack Foundation, in the United States and other countries and are used with the OpenStack Foundation's permission. We are not affiliated with, endorsed or sponsored by the OpenStack Foundation, or the OpenStack community.
All other trademarks are the property of their respective owners.
Red Hat logoGithubredditYoutubeTwitter

詳細情報

試用、購入および販売

コミュニティー

Red Hat ドキュメントについて

Red Hat をお使いのお客様が、信頼できるコンテンツが含まれている製品やサービスを活用することで、イノベーションを行い、目標を達成できるようにします。 最新の更新を見る.

多様性を受け入れるオープンソースの強化

Red Hat では、コード、ドキュメント、Web プロパティーにおける配慮に欠ける用語の置き換えに取り組んでいます。このような変更は、段階的に実施される予定です。詳細情報: Red Hat ブログ.

会社概要

Red Hat は、企業がコアとなるデータセンターからネットワークエッジに至るまで、各種プラットフォームや環境全体で作業を簡素化できるように、強化されたソリューションを提供しています。

Theme

© 2026 Red Hat
トップに戻る