第1章 Red Hat AI 検証済みモデル
Red Hat の AI モデルは、オープンソースツールを使用して検証されています。モデルをデプロイする方法に応じて、使用するモデルタイプが異なります。
RHEL AI デプロイメントの一部として AI Inference Server を使用している場合は、OCI アーティファクトイメージを使用してください。
OpenShift AI デプロイメントの一部として AI Inference Server を使用している場合は、ModelCar イメージを使用してください。
Red Hat は、パフォーマンスベンチマークに GuideLLM を使用し、精度評価に Language Model Evaluation Harness を使用します。
Hugging Face で Red Hat AI 検証済みモデルのコレクションをご覧ください。
AMD GPU は、FP8 (W8A8) および GGUF 量子化バリアントモデルのみをサポートします。詳細は、サポートされているハードウェア を参照してください。
1.1. Red Hat AI 検証済みモデル - 2025 年 10 月コレクション リンクのコピーリンクがクリップボードにコピーされました!
RedHat AI on Hugging Face から入手可能な以下のモデルは、Red Hat AI Inference Server での使用が検証されています。
| Model | 量子化バリアント | Hugging Face モデルカード | 検証環境 |
|---|---|---|---|
| gpt-oss-120b | None |
| |
| gpt-oss-20b | None |
| |
| NVIDIA-Nemotron-Nano-9B-v2 | INT4、FP8 |
| |
| Qwen3-Coder-480B-A35B-Instruct | FP8 |
| |
| Voxtral-Mini-3B-2507 | FP8 |
| |
| whisper-large-v3-turbo | INT4 |
|