第1章 このリリースについて
Red Hat AI Inference Server が利用可能になりました。Red Hat AI Inference Server 3.1 リリースでは、NVIDIA および ROCm アクセラレーター向けの大規模言語モデル (LLM) を使用して推論を最適化するコンテナーイメージを提供します。コンテナーイメージは、registry.redhat.io から入手できます。
-
registry.redhat.io/rhaiis/vllm-cuda-rhel9:3.1.0 -
registry.redhat.io/rhaiis/vllm-rocm-rhel9:3.1.0
Red Hat AI Inference Server を使用すると、パフォーマンスの向上、コストの低減、エンタープライズレベルの安定性とセキュリティーを確保しつつ、モデルのサービングと推論が可能です。Red Hat AI Inference Server は、アップストリームのオープンソース vLLM ソフトウェアプロジェクトをベースに構築されています。