3.6. Tester la configuration de ressource
Vous pouvez valider votre configuration système par la procédure suivante. Vous devez être en mesure de monter le système de fichiers exporté avec NFSv3 ou NFSv4.
- Vérifier sur un noeud en dehors du cluster se trouvant dans le même réseau que le déploiement, que le partage NFS puisse être aperçu en montant un partage NFS. Dans cet exemple, nous utilisons le réseau 192.168.122.0/24.
#
showmount -e 192.168.122.200
Export list for 192.168.122.200: /nfsshare/exports/export1 192.168.122.0/255.255.255.0 /nfsshare/exports 192.168.122.0/255.255.255.0 /nfsshare/exports/export2 192.168.122.0/255.255.255.0 - Pour vérifier que vous pouvez monter le partage NFS avec NFSv4, monter le partage NFS sur un répertoire du noeud du client. Après l'avoir monté, vérifiez que le contenu des répertoires d'exportation soient visibles. Dé-monter le partage après le test.
#
mkdir nfsshare
#mount -o "vers=4" 192.168.122.200:export1 nfsshare
#ls nfsshare
clientdatafile1 #umount nfsshare
- Vérifiez de pouvoir monter le partage NFS avec NFSv3. Après l'avoir monté, vérifiez que le fichier
clientdatafile1
soit bien visible. À la différence de NFSv4, comme NFSV3 n'utilise pas le système de fichiers virtuels, vous devrez monter une exportation spécifique. Dé-monter le partage après le test.#
mkdir nfsshare
#mount -o "vers=3" 192.168.122.200:/nfsshare/exports/export2 nfsshare
#ls nfsshare
clientdatafile2 #umount nfsshare
- Pour tester les basculements, procédez aux étapes suivantes.
- Montez le partage nfs sur un noeud qui se trouve en dehors du cluster et vérifiez l'accès au
clientdatafile1
que nous avons créé dans Section 3.3, « Mise en place de Partages NFS ».#
mkdir nfsshare
#mount -o "vers=4" 192.168.122.200:export1 nfsshare
#ls nfsshare
clientdatafile1 - À partir d'un noeud du cluster, déterminer quel noeud du cluster exécute le
nfsgroup
. Dans cet exemple,nfsgroup
exécute surz1.example.com
.[root@z1 ~]#
pcs status
... Full list of resources: myapc (stonith:fence_apc_snmp): Started z1.example.com Resource Group: nfsgroup my_lvm (ocf::heartbeat:LVM): Started z1.example.com nfsshare (ocf::heartbeat:Filesystem): Started z1.example.com nfs-daemon (ocf::heartbeat:nfsserver): Started z1.example.com nfs-root (ocf::heartbeat:exportfs): Started z1.example.com nfs-export1 (ocf::heartbeat:exportfs): Started z1.example.com nfs-export2 (ocf::heartbeat:exportfs): Started z1.example.com nfs_ip (ocf::heartbeat:IPaddr2): Started z1.example.com nfs-notify (ocf::heartbeat:nfsnotify): Started z1.example.com ... - À partir d'un noeud du cluster, mettez le noeud qui exécute
nfsgroup
en mode de veille.[root@z1 ~]#
pcs cluster standby z1.example.com
- Vérifiez que
nfsgroup
démarre bien sur l'autre noeud de cluster.[root@z1 ~]#
pcs status
... Full list of resources: Resource Group: nfsgroup my_lvm (ocf::heartbeat:LVM): Started z2.example.com nfsshare (ocf::heartbeat:Filesystem): Started z2.example.com nfs-daemon (ocf::heartbeat:nfsserver): Started z2.example.com nfs-root (ocf::heartbeat:exportfs): Started z2.example.com nfs-export1 (ocf::heartbeat:exportfs): Started z2.example.com nfs-export2 (ocf::heartbeat:exportfs): Started z2.example.com nfs_ip (ocf::heartbeat:IPaddr2): Started z2.example.com nfs-notify (ocf::heartbeat:nfsnotify): Started z2.example.com ... - À partir du noeud qui se trouve en dehors du cluster et sur lequel vous avez monté le partage nfs, vérifiez que ce noeud extérieur continue d'avoir accès au fichier test dans le montage NFS.
#
ls nfsshare
clientdatafile1Le service disparaîtra durant un bref moment lors du basculement, mais le client devrait se restaurer sans intervention de la part de l'utilisateur. Par défaut, les clients utilisant NFSv4 peuvent prendre jusqu'à 90 secondes pour se restaurer à la suite d'un montage ; ces 90 secondes représentent la période de grâce du bail du fichier NFSv4 observée par le serveur au démarrage. Les clients NFSv3 devraient pouvoir accéder au montage à nouveau en quelques secondes. - À partir d'un noeud du cluster, supprimer le noeud qui exécutait
nfsgroup
en mode d'attente. Cela ne déplacera pas en soi les ressources du cluster vers ce noeud.[root@z1 ~]#
pcs cluster unstandby z1.example.com