第14章 統合
14.1. サーバーレスアプリケーションでの NVIDIA GPU リソースの使用
Nvidia は、OpenShift Container Platform での GPU リソースの実験的な使用をサポートします。OpenShift Container Platform での GPU リソースの設定に関する詳細は、OpenShift Container Platform on NVIDIA GPU accelerated clusters を参照してください。
OpenShift Container Platform クラスターについて GPU リソースが有効にされた後に、kn
CLI を使用して Knative サービスの GPU 要件を指定できます。
手順
kn
を使用して Knative サービスを作成する際に GPU リソース要件を指定できます。
- サービスを作成します。
nvidia.com/gpu=1
を使用して、GPU リソース要件の制限を1
に設定します。$ kn service create hello --image docker.io/knativesamples/hellocuda-go --limit nvidia.com/gpu=1
GPU リソース要件の制限が
1
の場合、サービスには専用の GPU リソースが 1 つ必要です。サービスは、GPU リソースを共有しません。GPU リソースを必要とするその他のサービスは、GPU リソースが使用されなくなるまで待機する必要があります。1 GPU の制限は、1 GPU リソースの使用を超えるアプリケーションが制限されることも意味します。サービスが 2 つ以上の GPU リソースを要求する場合、これは GPU リソース要件を満たしているノードにデプロイされます。
kn
を使用した Knative サービスの GPU 要件の更新
-
サービスを更新します。
nvidia.com/gpu=3
を使用して、GPU リソース要件の制限を3
に変更します。
$ kn service update hello --limit nvidia.com/gpu=3
14.1.1. 追加リソース
- 制限についての詳細は、Setting resource quotas for extended resources を参照してください。