Questo contenuto non è disponibile nella lingua selezionata.

Chapter 3. Reviewing AI Inference Server Python packages


You can review the Python packages installed in the Red Hat AI Inference Server container image by running the container with Podman and reviewing the pip list package output.

Prerequisites

  • You have installed Podman or Docker.
  • You are logged in as a user with sudo access.
  • You have access to registry.redhat.io and have logged in.

Procedure

  1. Run the Red Hat AI Inference Server container image with the pip list package command to view all installed Python packages. For example:

    $ podman run --rm --entrypoint=/bin/bash \
      registry.redhat.io/rhaiis/vllm-cuda-rhel9:3.2.3 \
      -c "pip list"
    Copy to Clipboard Toggle word wrap
  2. To view detailed information about a specific package, run the Podman command with pip show <package_name>. For example:

    $ podman run --rm --entrypoint=/bin/bash \
      registry.redhat.io/rhaiis/vllm-cuda-rhel9:3.2.3 \
      -c "pip show vllm"
    Copy to Clipboard Toggle word wrap

    Example output

    Name: vllm
    Version: v0.11.0
    Copy to Clipboard Toggle word wrap

Torna in cima
Red Hat logoGithubredditYoutubeTwitter

Formazione

Prova, acquista e vendi

Community

Informazioni sulla documentazione di Red Hat

Aiutiamo gli utenti Red Hat a innovarsi e raggiungere i propri obiettivi con i nostri prodotti e servizi grazie a contenuti di cui possono fidarsi. Esplora i nostri ultimi aggiornamenti.

Rendiamo l’open source più inclusivo

Red Hat si impegna a sostituire il linguaggio problematico nel codice, nella documentazione e nelle proprietà web. Per maggiori dettagli, visita il Blog di Red Hat.

Informazioni su Red Hat

Forniamo soluzioni consolidate che rendono più semplice per le aziende lavorare su piattaforme e ambienti diversi, dal datacenter centrale all'edge della rete.

Theme

© 2025 Red Hat