第3章 AI Inference Server の Python パッケージのレビュー
Podman を使用してコンテナーを実行し、pip list package の出力を確認することで、Red Hat AI Inference Server コンテナーイメージにインストールされている Python パッケージを確認できます。
前提条件
- Podman または Docker がインストールされている。
- sudo アクセス権を持つユーザーとしてログインしている。
-
registry.redhat.ioにアクセスでき、ログインしている。
手順
インストールされているすべての Python パッケージを表示するには、
pip list packageコマンドを使用して Red Hat AI Inference Server コンテナーイメージを実行します。以下に例を示します。podman run --rm --entrypoint=/bin/bash \ registry.redhat.io/rhaiis/vllm-cuda-rhel9:3.2.5 \ -c "pip list"
$ podman run --rm --entrypoint=/bin/bash \ registry.redhat.io/rhaiis/vllm-cuda-rhel9:3.2.5 \ -c "pip list"Copy to Clipboard Copied! Toggle word wrap Toggle overflow 特定のパッケージの詳細情報を表示するには、
pip show <package_name>で Podman コマンドを実行します。以下に例を示します。podman run --rm --entrypoint=/bin/bash \ registry.redhat.io/rhaiis/vllm-cuda-rhel9:3.2.5 \ -c "pip show vllm"
$ podman run --rm --entrypoint=/bin/bash \ registry.redhat.io/rhaiis/vllm-cuda-rhel9:3.2.5 \ -c "pip show vllm"Copy to Clipboard Copied! Toggle word wrap Toggle overflow 出力例
Name: vllm Version: v0.11.2
Name: vllm Version: v0.11.2Copy to Clipboard Copied! Toggle word wrap Toggle overflow