第1章 バージョン 3.2.1 リリースノート
Red Hat AI Inference Server 3.2.1 リリースは、NVIDIA CUDA、AMD ROCm、および Google TPU AI アクセラレーター向けの大規模言語モデル (LLM) を使用して推論を最適化するコンテナーイメージを提供します。コンテナーイメージは、registry.redhat.io から入手できます。
-
registry.redhat.io/rhaiis/vllm-cuda-rhel9:3.2.1 -
registry.redhat.io/rhaiis/vllm-rocm-rhel9:3.2.1 -
registry.redhat.io/rhaiis/vllm-tpu-rhel9:3.2.1
Red Hat AI Inference Server 3.2.1 には、アップストリーム vLLM v0.10.0 リリースがパッケージ化されています。
更新の完全なリストは、アップストリームの vLLM v0.10.0 リリースノート で確認できます。
Red Hat AI Inference Server 3.2.1 リリースには LLM Compressor がパッケージ化されていません。AI Inference Server で LLM Compressor を使用するには、以前の 3.2.0 コンテナーイメージをプルします。
Red Hat AI Inference Server でサポートされる製品とハードウェア設定が拡張されました。詳細は サポートされている製品およびハードウェア設定 を参照してください。
1.1. 新しいモデルが有効に リンクのコピーリンクがクリップボードにコピーされました!
Red Hat AI Inference Server 3.2.1 は、vLLM v0.10.0 の Red Hat AI Inference Server 3.2.1 で使用できるように、以下の新しく検証されたモデルを有効にすることで機能を拡張します。
- EAGLE サポート付き Llama 4
- EXAONE 4.0
- Microsoft Phi‑4‑mini‑flash‑reasoning
- Hunyuan V1 Dense + A13B (推論およびツール解析機能を含む)
- Ling mixture-of-experts (MoE) モデル
- JinaVL Reranker
- Nemotron‑Nano‑VL‑8B‑V1
- Arcee
- Voxtral