이 콘텐츠는 선택한 언어로 제공되지 않습니다.

Chapter 3. Reviewing AI Inference Server Python packages


You can review the Python packages installed in the Red Hat AI Inference Server container image by running the container with Podman and reviewing the pip list package output.

Prerequisites

  • You have installed Podman or Docker.
  • You are logged in as a user with sudo access.
  • You have access to registry.redhat.io and have logged in.

Procedure

  1. Run the Red Hat AI Inference Server container image with the pip list package command to view all installed Python packages. For example:

    $ podman run --rm --entrypoint=/bin/bash \
      registry.redhat.io/rhaiis/vllm-cuda-rhel9:3.2.3 \
      -c "pip list"
    Copy to Clipboard Toggle word wrap
  2. To view detailed information about a specific package, run the Podman command with pip show <package_name>. For example:

    $ podman run --rm --entrypoint=/bin/bash \
      registry.redhat.io/rhaiis/vllm-cuda-rhel9:3.2.3 \
      -c "pip show vllm"
    Copy to Clipboard Toggle word wrap

    Example output

    Name: vllm
    Version: v0.11.0
    Copy to Clipboard Toggle word wrap

맨 위로 이동
Red Hat logoGithubredditYoutubeTwitter

자세한 정보

평가판, 구매 및 판매

커뮤니티

Red Hat 문서 정보

Red Hat을 사용하는 고객은 신뢰할 수 있는 콘텐츠가 포함된 제품과 서비스를 통해 혁신하고 목표를 달성할 수 있습니다. 최신 업데이트를 확인하세요.

보다 포괄적 수용을 위한 오픈 소스 용어 교체

Red Hat은 코드, 문서, 웹 속성에서 문제가 있는 언어를 교체하기 위해 최선을 다하고 있습니다. 자세한 내용은 다음을 참조하세요.Red Hat 블로그.

Red Hat 소개

Red Hat은 기업이 핵심 데이터 센터에서 네트워크 에지에 이르기까지 플랫폼과 환경 전반에서 더 쉽게 작업할 수 있도록 강화된 솔루션을 제공합니다.

Theme

© 2025 Red Hat