Red Hat AI Inference Server 3.2

Welcome

リリースノート

Red Hat AI Inference Server リリースの新機能と変更点のハイライト

スタートガイド

Red Hat AI Inference Server のスタートガイド

検証済みモデル

Red Hat AI Inference Server 検証済みモデル

サポート対象の製品とハードウェア設定

Red Hat AI Inference Server のデプロイでサポート対象のハードウェアおよびソフトウェア設定

非接続環境での Red Hat AI Inference Server のインストール

OpenShift Container Platform とオフラインのミラーイメージレジストリーを使用して、非接続環境に Red Hat AI Inference Server をインストールします。

Red Hat AI Inference Server の OpenShift Container Platform へのデプロイ

サポートされている AI アクセラレーターがインストールされている OpenShift Container Platform クラスターに Red Hat AI Inference Server をデプロイする

非接続環境での Red Hat AI Inference Server のデプロイ

OpenShift Container Platform とオフラインのミラーイメージレジストリーを使用して、非接続環境に Red Hat AI Inference Server をデプロイします。

Inference Operations

OCI 準拠のモデルコンテナーの推論サービング言語モデル

Red Hat AI Inference Server における OCI 準拠モデルの推論

vLLM のサーバー引数

Red Hat AI Inference Server を実行するためのサーバー引数

LLM Compressor

LLM Compressor ライブラリーを使用した大規模言語モデルの圧縮

Additional Resources

Product life cycle

Understand the product life cycle to plan deployments and support applications using the product

Red Hat AI learning hub

Explore a curated collection of learning resources designed to help you accomplish key tasks with Red Hat AI products and services

トップに戻る
Red Hat logoGithubredditYoutubeTwitter

詳細情報

試用、購入および販売

コミュニティー

Red Hat ドキュメントについて

Red Hat をお使いのお客様が、信頼できるコンテンツが含まれている製品やサービスを活用することで、イノベーションを行い、目標を達成できるようにします。 最新の更新を見る.

多様性を受け入れるオープンソースの強化

Red Hat では、コード、ドキュメント、Web プロパティーにおける配慮に欠ける用語の置き換えに取り組んでいます。このような変更は、段階的に実施される予定です。詳細情報: Red Hat ブログ.

会社概要

Red Hat は、企業がコアとなるデータセンターからネットワークエッジに至るまで、各種プラットフォームや環境全体で作業を簡素化できるように、強化されたソリューションを提供しています。

Theme

© 2025 Red Hat