Chapitre 5. Aperçu de l’architecture GPU NVIDIA
La NVIDIA prend en charge l’utilisation des ressources de l’unité de traitement graphique (GPU) sur OpenShift Dedicated. La plateforme OpenShift Dedicated est une plateforme Kubernetes axée sur la sécurité et développée et prise en charge par Red Hat pour déployer et gérer des clusters Kubernetes à grande échelle. Le logiciel OpenShift Dedicated inclut des améliorations à Kubernetes afin que les utilisateurs puissent facilement configurer et utiliser les ressources GPU NVIDIA pour accélérer les charges de travail.
L’opérateur GPU NVIDIA exploite le cadre Opérateur d’OpenShift dédié pour gérer le cycle de vie complet des composants logiciels NVIDIA nécessaires pour exécuter des charges de travail accélérées par GPU.
Ces composants incluent les pilotes NVIDIA (pour activer CUDA), le plugin de périphérique Kubernetes pour les GPU, la boîte à outils NVIDIA Container Toolkit, le marquage automatique des nœuds utilisant la découverte de fonctionnalités GPU (GFD), la surveillance basée sur DCGM, et d’autres.
L’opérateur GPU NVIDIA n’est pris en charge que par NVIDIA. En savoir plus sur l’obtention d’un support auprès de NVIDIA, consultez Obtain Support de NVIDIA.
5.1. Conditions préalables du GPU NVIDIA Copier lienLien copié sur presse-papiers!
- Cluster OpenShift fonctionnant avec au moins un nœud de travail GPU.
- Accès au cluster OpenShift en tant que cluster-admin pour effectuer les étapes requises.
- Le CLI OpenShift (oc) est installé.
- L’opérateur de découverte de fonctionnalités de nœud (NFD) est installé et une instance de découverte de nodefeature est créée.