Red Hat AI Inference Server 3.2

Welcome

Release notes

Highlights of what is new and what has changed with this Red Hat AI Inference Server release

Getting started

Getting started with Red Hat AI Inference Server

Validated models

Red Hat AI Inference Server Validated models

Supported product and hardware configurations

Supported hardware and software configurations for deploying Red Hat AI Inference Server

OpenShift Container Platform에 Red Hat AI Inference Server 배포

AI 액셀러레이터가 설치된 OpenShift Container Platform 클러스터에 Red Hat AI Inference Server 배포

Deploying Red Hat AI Inference Server in a disconnected environment

Deploy Red Hat AI Inference Server in a disconnected environment using OpenShift Container Platform and a disconnected mirror image registry

Inference Operations

Inference serving language models in OCI-compliant model containers

Inferencing OCI-compliant models in Red Hat AI Inference Server

vLLM server arguments

Server arguments for running Red Hat AI Inference Server

LLM Compressor

Compressing large language models with the LLM Compressor library

Additional Resources

Product life cycle

Understand the product life cycle to plan deployments and support applications using the product

Red Hat AI learning hub

Explore a curated collection of learning resources designed to help you accomplish key tasks with Red Hat AI products and services

맨 위로 이동
Red Hat logoGithubredditYoutubeTwitter

자세한 정보

평가판, 구매 및 판매

커뮤니티

Red Hat 문서 정보

Red Hat을 사용하는 고객은 신뢰할 수 있는 콘텐츠가 포함된 제품과 서비스를 통해 혁신하고 목표를 달성할 수 있습니다. 최신 업데이트를 확인하세요.

보다 포괄적 수용을 위한 오픈 소스 용어 교체

Red Hat은 코드, 문서, 웹 속성에서 문제가 있는 언어를 교체하기 위해 최선을 다하고 있습니다. 자세한 내용은 다음을 참조하세요.Red Hat 블로그.

Red Hat 소개

Red Hat은 기업이 핵심 데이터 센터에서 네트워크 에지에 이르기까지 플랫폼과 환경 전반에서 더 쉽게 작업할 수 있도록 강화된 솔루션을 제공합니다.

Theme

© 2025 Red Hat