이 콘텐츠는 선택한 언어로 제공되지 않습니다.

Chapter 1. About the AI Inference Server API server


Red Hat AI Inference Server provides an OpenAI-compatible API server for inference serving. You can control the behavior of the server with arguments.

The AI Inference Server command-line interface includes commands for serving models, running chat completions, generating text completions, benchmarking performance, and collecting environment information for troubleshooting. Each command accepts specific arguments that configure resource allocation, model loading behavior, API compatibility options, and performance tuning parameters.

You can also configure AI Inference Server behavior through environment variables, which is useful for containerized deployments where command-line arguments are less practical. Built-in metrics endpoints provide observability into server performance, request latency, token throughput, and resource utilization.

Red Hat logoGithubredditYoutubeTwitter

자세한 정보

평가판, 구매 및 판매

커뮤니티

Red Hat 소개

Red Hat은 기업이 핵심 데이터 센터에서 네트워크 에지에 이르기까지 플랫폼과 환경 전반에서 더 쉽게 작업할 수 있도록 강화된 솔루션을 제공합니다.

보다 포괄적 수용을 위한 오픈 소스 용어 교체

Red Hat은 코드, 문서, 웹 속성에서 문제가 있는 언어를 교체하기 위해 최선을 다하고 있습니다. 자세한 내용은 다음을 참조하세요.Red Hat 블로그.

Red Hat 문서 정보

Legal Notice

Theme

© 2026 Red Hat
맨 위로 이동