Administration de clusters
Configurer et gérer le module complémentaire High Availability
Édition 0
Résumé
Introduction
- Guide d'installation Red Hat Enterprise Linux — Fournit des informations sur l'installation de Red Hat Enterprise Linux 6.
- Guide de déploiement Red Hat Enterprise Linux — Fournit des informations sur le déploiement, la configuration et l'administration de Red Hat Enterprise Linux 6.
- Aperçu du module complémentaire High Availability — Fournit un aperçu de haut niveau du module complémentaire High Availability.
- Administration du gestionnaire de volume logiques (LVM) — Fournit une description du gestionnaire de volumes logiques LVM, y compris des informations sur l'exécution de LVM dans un environnement clusterisé.
- Global File System 2 : Configuration et administration — Fournit des informations sur l'installation, la configuration et la maintenance de Red Hat GFS2 (Red Hat Global File System 2), qui est inclus dans le module complémentaire Resilient Storage.
- DM Multipath — Fournit des informations sur l'utilisation de la fonctionnalité DM Multipath (Device-Mapper Multipath) de Red Hat Enterprise Linux 6.
- Administration de l'Équilibreur de charges — Fournit des informations sur la configuration de systèmes et services de haute performance avec le module complémentaire Équilibreur de charges, un ensemble de composants logiciels fournissant des serveurs virtuels Linux (LVS, de l'anglais « Linux Virtual Server ») pour équilibrer les charges IP sur un ensemble de serveurs réels.
- Notes de publication — Fournit des informations sur la version actuelle des produits Red Hat.
1. Commentaires Copier lienLien copié sur presse-papiers!
Cluster_Administration(EN)-6 (2013-2-15T16:26)
Cluster_Administration(EN)-6 (2013-2-15T16:26)
Chapitre 1. Aperçu de la gestion et de la configuration du module complémentaire Red Hat High Availability Copier lienLien copié sur presse-papiers!
Note
1.1. Nouvelles fonctionnalités et fonctionnalités modifiées Copier lienLien copié sur presse-papiers!
1.1.1. Nouvelles fonctionnalités et fonctionnalités modifiées de Red Hat Enterprise Linux 6.1 Copier lienLien copié sur presse-papiers!
- À partir de Red Hat Enterprise Linux 6.1 et ses versions plus récentes, le module complémentaire Red Hat High Availability offre maintenant la prise en charge des interruptions SNMP. Pour obtenir des informations sur la configuration des interruptions SNMP avec le module complémentaire Red Hat High Availability, reportez-vous au Chapitre 10, Configuration SNMP avec le module complémentaire Red Hat High Availability.
- À partir de Red Hat Enterprise Linux 6.1 et ses versions plus récentes, le module complémentaire Red Hat High Availability offre maintenant la prise en charge de la commande de configuration du cluster
ccs. Pour obtenir des informations sur la commandeccs, reportez-vous au Chapitre 5, Configurer le module complémentaire Red Hat High Availability avec la commande ccs et au Chapitre 6, Gérer le module complémentaire Red Hat High Availability avec ccs. - La documentation sur la configuration et la gestion du logiciel du module complémentaire Red Hat High Availability à l'aide de Conga a été mise à jour afin de refléter la mise à jour des écrans Conga et la prise en charge des fonctionnalités.
- Pour Red Hat Enterprise Linux 6.1 et ses versions plus récentes, l'utilisation de
riccirequiert un mot de passe la première fois que vous propagerez une configuration de cluster mise à jour depuis n'importe quel nœud en particulier. Pour obtenir des informations surriccireportez-vous à la Section 2.13, « Considérations pourricci». - Vous pouvez maintenant spécifier une politique d'échec Restart-Disable (Redémarrer-désactiver) pour un service, indiquant au système de tenter de redémarrer le service à sa place s'il devait échouer, et de désactiver le service si le redémarrage échouait aussi au lieu de le déplacer sur un autre hôte dans le cluster. Cette fonctionnalité est documentée dans la Section 3.10, « Ajouter un service cluster à un cluster » l'Annexe B, Paramètres des ressources HA.
- Vous pouvez maintenant configurer un sous-arbre indépendant comme non-critique, indiquant que si la ressource échoue alors seule cette ressource est désactivée. Pour obtenir des informations sur cette fonctionnalité, voir la Section 3.10, « Ajouter un service cluster à un cluster » et la Section C.4, « Récupération de défaillance et sous-arbres indépendants ».
- Ce document inclut maintenant le nouveau Chapitre 9, Diagnostiquer et corriger des problèmes dans un cluster.
1.1.2. Nouvelles fonctionnalités et fonctionnalités modifiées de Red Hat Enterprise Linux 6.2 Copier lienLien copié sur presse-papiers!
- Red Hat Enterprise Linux fournit maintenant du support pour exécuter « Clustered Samba » sous une configuration active/active. Pour obtenir des informations sur les configurations de Samba clusterisé, reportez-vous au Chapitre 11, Configuration de Samba en cluster.
- Même si tout utilisateur en mesure de s'authentifier sur le système hébergeant luci peut se connecter à luci, à partir de Red Hat Enterprise Linux 6.2, seul l'utilisateur root du système exécutant luci peut accéder à tous les composants luci jusqu'à ce qu'un administrateur (l'utilisateur root, ou un utilisateur avec des permissions d'administrateur) définisse les permissions pour cet utilisateur. Pour obtenir des informations sur la définition des permissions luci pour les utilisateurs, reportez-vous à la Section 3.3, « Contrôler l'accès à luci ».
- Les nœuds d'un cluster peuvent communiquer entre eux en utilisant le mécanisme de transport de monodiffusion UDP. Pour obtenir des informations sur la configuration de la monodiffusion UDP, veuillez vous reporter à la Section 2.12, « Trafic de monodiffusion UDP ».
- Vous pouvez maintenant configurer certains aspects du comportement de luci par le biais du fichier
/etc/sysconfig/luci. Par exemple, vous pouvez configurer spécifiquement l'unique adresse IP à laquelle luci est servi. Pour obtenir des informations sur la configuration de l'unique adresse IP à laquelle luci est servi, reportez-vous au Tableau 2.2, « Port IP activé sur un ordinateur exécutant luci ». Pour obtenir des informations sur le fichier/etc/sysconfig/lucien général, reportez-vous à la Section 2.4, « Configurer luci avec/etc/sysconfig/luci». - La commande
ccsinclut maintenant l'option--lsfenceopts, qui imprime une liste des périphériques fence disponibles, ainsi que l'option--lsfenceoptsfence_type, qui imprime chaque type fence disponible. Pour obtenir des informations sur ces options, reportez-vous à la Section 5.6, « Répertorier les périphériques fence et les options de périphériques fence ». - La commande
ccsinclut maintenant l'option--lsserviceopts, qui imprime une liste des services cluster actuellement disponibles pour votre cluster, ainsi que l'option--lsserviceoptsservice_type, qui imprime une liste des options que vous pouvez spécifier pour un type de service particulier. Pour obtenir des informations sur ces options, reportez-vous à la Section 5.11, « Répertorier les services cluster disponibles ». - Red Hat Enterprise Linux 6.2 fournit le support pour l'agent fence VMware (interface SOAP). Pour obtenir des informations sur les paramètres des périphériques fence, reportez-vous à l'Annexe A, Paramètres des périphériques fence.
- Red Hat Enterprise Linux 6.2 fournit le support pour l'agent fence RHEV-M REST API, avec RHEV 3.0 et versions plus récentes. Pour obtenir des informations sur les paramètres des périphériques fence, reportez-vous à l'Annexe A, Paramètres des périphériques fence.
- À partir de Red Hat Enterprise Linux 6.2, lorsque vous configurez une machine virtuelle dans un cluster avec la commande
ccs, vous pourrez utiliser l'option--addvm(plutôt que l'optionaddservice). Ceci assure la définition correcte de la ressourcevmdirectement sous le nœud de configurationrmdans le fichier de configuration du cluster. Pour obtenir des informations sur la configuration des ressources de machines virtuelles avec la commandeccs, reportez-vous à la Section 5.12, « Ressources de machine virtuelle ». - Ce document inclut un nouvel annexe, Annexe D, Vérification des ressources de service de cluster et délai de basculement. Cet annexe décrit comment
rgmanagersurveille le statut des ressources de clusters et comment modifier l'intervalle des vérifications de statut. L'annexe décrit aussi le paramètre de service__enforce_timeouts, qui indique qu'un délai d'inactivité pour une opération causera à un service d'échouer. - Ce document inclut une nouvelle section, la Section 2.3.3, « Configurer le pare-feu iptables pour autoriser des composants de clusters ». Cette section affiche le filtrage que vous pouvez utiliser pour autoriser le trafic de multidiffusion à travers le pare-feu
iptablespour les divers composants du cluster.
1.1.3. Nouvelles fonctionnalités et fonctionnalités modifiées de Red Hat Enterprise Linux 6.3 Copier lienLien copié sur presse-papiers!
- Red Hat Enterprise Linux 6.3 offre le support de l'agent de ressources
condor. Pour obtenir des informations sur les paramètres de ressources HA, reportez-vous à l'Annexe B, Paramètres des ressources HA. - Ce document inclut maintenant un nouvel annexe, Annexe F, LVM haute disponibilité (HA-LVM).
- Les informations présentes dans ce document clarifient quels sont les changements de configuration qui requièrent le redémarrage d'un cluster. Pour obtenir un résumé de ces changements, reportez-vous à la Section 9.1, « Les changements de configuration ne prennent pas effet ».
- La documentation souligne maintenant que luci possède délai d'inactivité qui vous déconnecte après 15 minutes d'inactivité. Pour obtenir des informations sur le démarrage de luci, reportez-vous à la Section 3.2, « Démarrage de luci ».
- Le périphérique fence
fence_ipmilanprend en charge un paramètre de niveau de privilège. Pour obtenir des informations sur les paramètres de périphérique fence, reportez-vous à l'Annexe A, Paramètres des périphériques fence. - Ce document inclut maintenant une nouvelle section, Section 2.14, « Configurer des machines virtuelles dans un environnement clusterisé ».
- Ce document inclut maintenant une nouvelle section, Section 4.6, « Effectuer une copie de sauvegarde et restaurer une configuration Luci ».
- Ce document inclut maintenant une nouvelle section, Section 9.4, « Échec du démon cluster ».
- Ce document fournit des informations sur le paramétrage d'options de débogage dans la Section 5.14.4, « Journalisation », Section 7.7, « Configurer les options de débogage », et la Section 9.13, « La journalisation du débogage pour le DLM (« Distributed Lock Manager », ou gestionnaire de verrous distribués) doit être activée ».
- À partir de Red Hat Enterprise Linux 6.3, l'utilisateur root ou un utilisateur possédant des permissions d'administrateur luci peut aussi utiliser l'interface luci pour ajouter des utilisateurs au système, comme le décrit la Section 3.3, « Contrôler l'accès à luci ».
- À partir de Red Hat Enterprise Linux 6.3, la commande
ccsvalide la configuration selon le schéma du cluster de/usr/share/cluster/cluster.rngsur le nœud que vous spécifiez avec l'option-h. Auparavant, la commandeccsutilisait toujours le schéma du cluster qui était empaqueté avec la commandeccselle-même,/usr/share/ccs/cluster.rngsur le système local. Pour obtenir des informations sur la validation de configuration, reportez-vous à la Section 5.1.6, « Validation de la configuration ». - Les tableaux décrivant les paramètres de périphérique fence dans l'Annexe A, Paramètres des périphériques fence ainsi que les tableaux décrivant les paramètres de ressources HA dans l'Annexe B, Paramètres des ressources HA incluent maintenant les noms de ces paramètres comme ils apparaissent dans le fichier
cluster.conf.
1.1.4. Nouvelles fonctionnalités et fonctionnalités modifiées de Red Hat Enterprise Linux 6.4 Copier lienLien copié sur presse-papiers!
- Red Hat Enterprise Linux 6.4 fournit la prise en charge de l'agent fence du contrôleur d'alimentation réseau Eaton (Interface SNMP), de l'agent fence de HP BladeSystem et de l'agent fence d'IBM iPDU. Pour obtenir des informations sur les paramètres des périphériques fence, veuillez vous référer à l'Annexe A, Paramètres des périphériques fence.
- L'Annexe B, Paramètres des ressources HA fournit maintenant une description de l'agent de ressources du serveur NFS.
- À partir de Red Hat Enterprise Linux 6.4, l'utilisateur root ou un utilisateur possédant des permissions d'administrateur luci peut aussi utiliser l'interface luci pour supprimer des utilisateurs du système. Ceci est documenté dans la Section 3.3, « Contrôler l'accès à luci ».
- L'Annexe B, Paramètres des ressources HA fournit une description du nouveau paramètre
nfsrestartpour les ressources HA GFS2 et le système de fichiers. - Ce document inclut une nouvelle section, Section 5.1.5, « Commandes remplaçant les paramètres précédents ».
- Section 2.3, « Activation des ports IP » inclut maintenant des informations sur le filtrage de
igmpsur le pare-feuiptables. - L'agent fence IPMI LAN prend maintenant en charge un paramètre pour configurer le niveau de privilèges sur le périphérique IPMI, comme documenté dans l'Annexe A, Paramètres des périphériques fence.
- En outre du mode de liaison Ethernet 1, les modes de liaisons 0 et 2 sont maintenant pris en charge pour les communications inter-nœuds dans un cluster. Des conseils pour les résolutions de problèmes dans ce document qui vous suggèrent de vous assurer que vous utilisez bien uniquement les modes de liaisons pris en charge ont pris note de cette addition.
- Les périphériques balisés VLAN sont maintenant pris en charge pour les communications cardiaques de cluster. Les conseils des résolutions de problèmes qui indiquaient que ceci n'est pas pris en charge ont été supprimés de ce document.
- Le module Red Hat High Availability prend maintenant en charge la configuration du protocole d'anneau redondant. Pour obtenir des informations générales sur l'utilisation de cette fonctionnalité et sur la configuration du fichier de configuration
cluster.conf, reportez-vous à la Section 7.6, « Configurer le protocole d'anneau redondant (« Redundant Ring ») ». Pour obtenir des informations sur la configuration du protocole d'anneau redondant avec luci, reportez-vous à la Section 3.5.4, « Configurer le protocole d'anneau redondant (« Redundant Ring ») ». Pour obtenir des informations sur la configuration du protocole d'anneau redondant avec la commandeccs, reportez-vous à la Section 5.14.5, « Configurer le protocole d'anneau redondant (« Redundant Ring ») ».
1.2. Bases de configuration Copier lienLien copié sur presse-papiers!
- Installation du matériel. Reportez-vous à la Section 1.3, « Installation du matériel ».
- Installation du logiciel du module complémentaire Red Hat High Availability. Reportez-vous à la Section 1.4, « Installer le logiciel du module complémentaire Red Hat High Availability ».
- Configuration du module complémentaire Red Hat High Availability. Reportez-vous à la Section 1.5, « Configurer le logiciel du module complémentaire Red Hat High Availability ».
1.3. Installation du matériel Copier lienLien copié sur presse-papiers!
- Nœuds de cluster — Ordinateurs capables d'exécuter le logiciel Red Hat Enterprise Linux 6, avec au moins 1Go de RAM.
- Commutateur ou concentrateur Ethernet pour réseau public — Ceci est requis pour que le client puisse accéder au cluster.
- Commutateur ou concentrateur Ethernet pour réseau privé — Ceci est requis pour la communication entre les nœuds du cluster et le reste du matériel du cluster, comme les commutateurs d'alimentation réseau et les interrupteurs Fibre Channel.
- Commutateur d'alimentation du réseau — Un commutateur d'alimentation du réseau est recommandé pour effectuer le fencing dans un cluster de niveau entreprise.
- Commutateur Fibre Channel — Un commutateur Fibre Channel fournit l'accès au stockage Fibre Channel. D'autres options sont disponibles pour le stockage selon le type d'interface de stockage, iSCSI par exemple. Un commutateur Fibre Channel peut être configuré de manière à effectuer le fencing.
- Stockage — Un certain type de stockage est requis pour un cluster. Le type requis dépend du but du cluster.
Figure 1.1. Aperçu du matériel du module complémentaire Red Hat High Availability
1.4. Installer le logiciel du module complémentaire Red Hat High Availability Copier lienLien copié sur presse-papiers!
yum install pour installer les paquetages des logiciels du module complémentaire Red Hat High Availability :
yum install rgmanager lvm2-cluster gfs2-utils
# yum install rgmanager lvm2-cluster gfs2-utils
rgmanager uniquement téléchargera toutes les dépendances nécessaires pour créer un cluster HA depuis le canal HighAvailability. Les paquetages lvm2-cluster et gfs2-utils font partie du canal ResilientStorage et pourraient ne pas être nécessaires sur votre site.
Mise à niveau du logiciel du module complémentaire Red Hat High Availability Copier lienLien copié sur presse-papiers!
- Éteignez tous les services du cluster sur un seul nœud de cluster. Pour obtenir des instructions sur l'arrêt du logiciel du cluster sur un nœud, reportez-vous à la Section 8.1.2, « Arrêter un logiciel de cluster ». Il peut être désirable de déplacer manuellement les services gérés par le cluster et les machines virtuelles hors de l'hôte avant d'arrêter
rgmanager. - Veuillez exécuter la commande
yum updatepour mettre à jour les paquetages installés. - Redémarrez le nœud du cluster ou redémarrez les services du cluster manuellement. Pour obtenir des instructions sur le démarrage du logiciel du cluster sur un nœud, reportez-vous à la Section 8.1.1, « Démarrer un logiciel de cluster ».
1.5. Configurer le logiciel du module complémentaire Red Hat High Availability Copier lienLien copié sur presse-papiers!
- Conga — Interface utilisateur complète pour l'installation, la configuration et la gestion du module complémentaire Red Hat High Availability. Reportez-vous au Chapitre 3, Configurer le module complémentaire Red Hat High Availability avec Conga et au Chapitre 4, Gérer le module complémentaire Red Hat High Availability avec Conga pour obtenir des informations sur la configuration et la gestion du module complémentaire High Availability avec Conga.
- La commande
ccs— Cette commande configure et gère le module complémentaire Red Hat High Availability. Reportez-vous au Chapitre 5, Configurer le module complémentaire Red Hat High Availability avec la commande ccs et au Chapitre 6, Gérer le module complémentaire Red Hat High Availability avec ccs pour obtenir des informations sur la configuration et la gestion du module complémentaire High Availability avec la commandeccs. - Outils de ligne de commande — Ensemble d'outils de ligne de commande pour la configuration et la gestion du module complémentaire Red Hat High Availability. Reportez-vous au Chapitre 7, Configurer le module complémentaire Red Hat High Availability avec des outils de ligne de commande et au Chapitre 8, Gérer le module complémentaire Red Hat High Availability avec des outils de ligne de commande pour obtenir des informations sur la configuration et la gestion d'un cluster avec des outils de ligne de commande. Reportez-vous à l'Annexe E, Résumé des outils de la ligne de commande pour obtenir un résumé des outils de ligne de commande préférés.
Note
system-config-cluster n'est pas disponible dans Red Hat Enterprise Linux 6.
Chapitre 2. Avant de configurer le module complémentaire Red Hat High Availability (Haute Disponibilité) Copier lienLien copié sur presse-papiers!
Important
2.1. Considérations pour une configuration générale Copier lienLien copié sur presse-papiers!
- Le nombre de nœuds de cluster pris en charge
- Le nombre maximum de nœuds de cluster pris en charge par le module complémentaire High Availability (Haute Disponibilité) est 16.
- Clusters de site unique
- Seuls les clusters pour site unique sont entièrement pris en charge à l'heure actuelle. Les clusters s'étalant sur de multiples emplacements physiques ne sont pas officiellement pris en charge. Pour obtenir plus de détails et discuter des clusters sur de multiples sites, veuillez consulter votre représentant du support ou des ventes Red Hat.
- GFS2
- Même si un système de fichiers GFS2 peut être implémenté sur un système autonome ou en tant que partie d'une configuration de cluster, Red Hat ne prend pas en charge GFS2 en tant que système de fichiers à nœud unique. Red Hat prend en charge un certain nombre de systèmes de fichiers à nœud unique de haute performance qui sont optimisés pour un nœud unique et possèdent ainsi un plafond plus bas qu'un système de fichiers de cluster. Red Hat recommande l'utilisation de ces systèmes de fichiers plutôt que GFS2 dans le cas où un nœud unique doit monter le système de fichiers. Red Hat continuera à prendre en charge les systèmes de fichiers GFS2 à nœud unique pour ses clients existants.Lorsque vous configurer un système de fichiers GFS2 en tant que système de fichiers de cluster, vous devez vous assurer que tous les nœuds du cluster ont accès au système de fichiers partagé. Les configurations de clusters asymétriques dans lesquelles certains nœuds ont accès au système de fichiers et pas d'autres ne sont pas prises en charge. Ceci ne requiert pas que tous les nœuds montent le système de fichiers GFS2.
- Configuration du matériel sans point de défaillance unique (No-single-point-of-failure hardware configuration)
- Les clusters peuvent inclure une matrice RAID à double contrôleur, de multiples canaux réseau liés, de multiples chemins d'accès entre les membres du cluster et le stockage, et des systèmes onduleurs (UPS, de l'anglais « un-interruptible power supply ») afin de s'assurer qu'aucune défaillance unique ne résulte en temps d'inactivité ou en perte de données.Alternativement, un cluster de bas coût peut être installé pour offrir moins de disponibilité qu'un cluster sans point de défaillance unique. Par exemple, vous pouvez paramétrer un cluster avec une matrice RAID à contrôleur unique et un seul canal Ethernet.Certaines alternatives à bas coût, comme les contrôleurs RAID hôtes, les RAID logiciels sans prise en charge de clusters, et les configurations parallèles SCSI avec multi-initiateur ne sont pas compatibles, ou ne sont pas appropriées pour une utilisation en tant que stockage partagé de cluster.
- Assurance d'intégrité des données
- Pour s'assurer de l'intégrité des données, seul un nœud peut exécuter un service de cluster et accéder aux données du cluster-service à la fois. L'utilisation d'interrupteurs d'alimentation dans la configuration du matériel du cluster active un nœud pour alimenter le cycle d'alimentation d'un autre nœud avant de redémarrer les services HA de ce nœud pendant le processus de basculement. Ceci empêche les deux nœuds d'accéder simultanément aux données et de les corrompres. Des périphériques fence (des solutions matérielles ou logicielles pouvant allumer, éteindre et redémarrer des nœuds de clusters à distance) sont utilisés pour garantir l'intégrité des données sous toutes conditions d'échec.
- Liaison de canal Ethernet
- Le quorum du cluster et la santé du nœud sont déterminés par la communication de messages parmi les nœuds du cluster via Ethernet. En outre, les nœuds de clusters utilisent Ethernet pour tout un éventail d'autres fonctions critiques de clusters (pour le fencing par exemple). Avec la liaison de canaux Ethernet, de multiples interfaces Ethernet sont configurées de manière à se comporter comme une seule interface, réduisant ainsi le risque de défaillance d'un point unique dans la connexion Ethernet commutée habituelle parmi les nœuds de clusters et le reste du matériel du cluster.À partir de Red Hat Enterprise Linux 6.4, les modes de liaisons 0, 1 et 2 sont pris en charge.
- IPv4 et IPv6
- Le module complémentaire High Availability prend en charge les protocoles Internet IPv4 et IPv6. La prise en charge de IPv6 par le module complémentaire High Availability est une nouveauté de Red Hat Enterprise Linux 6.
2.2. Matériel compatible Copier lienLien copié sur presse-papiers!
2.3. Activation des ports IP Copier lienLien copié sur presse-papiers!
iptables pour activer les ports IP nécessaires au module complémentaire Red Hat High Availability :
2.3.1. Activation des ports IP sur des nœuds de clusters Copier lienLien copié sur presse-papiers!
system-config-firewall pour activer les ports IP.
| Numéro de port IP | Protocole | Composant |
|---|---|---|
| 5404, 5405 | UDP | corosync/cman (Gestionnaire du cluster) |
| 11111 | TCP | ricci (propage les informations mises à jour du cluster) |
| 21064 | TCP | dlm (Gestionnaire de verrous distribués) |
| 16851 | TCP | modclusterd |
2.3.2. Activer le port IP pour luci Copier lienLien copié sur presse-papiers!
Note
| Numéro de port IP | Protocole | Composant |
|---|---|---|
| 8084 | TCP | luci (serveur de l'interface utilisateur Conga) |
/etc/sysconfig/luci, vous pouvez spécifiquement configurer l'unique adresse IP à laquelle luci est servi. Vous pouvez utiliser cette capacité sir l'infrastructure de votre serveur incorpore plus d'un réseau et que vous souhaitez accéder à luci depuis le réseau interne uniquement. Pour ce faire, veuillez « décommenter » et modifier la ligne dans le fichier spécifiant host. Par exemple, pour modifier le paramètre host dans le fichier sur 10.10.10.10, modifiez la ligne host comme suit :
host = 10.10.10.10
host = 10.10.10.10
/etc/sysconfig/luci, reportez-vous à la Section 2.4, « Configurer luci avec /etc/sysconfig/luci ».
2.3.3. Configurer le pare-feu iptables pour autoriser des composants de clusters Copier lienLien copié sur presse-papiers!
cman (Gestionnaire de clusters), veuillez utiliser le filtrage suivant.
iptables -I INPUT -m state --state NEW -m multiport -p udp -s 192.168.1.0/24 -d 192.168.1.0/24 --dports 5404,5405 -j ACCEPT iptables -I INPUT -m addrtype --dst-type MULTICAST -m state --state NEW -m multiport -p udp -s 192.168.1.0/24 --dports 5404,5405 -j ACCEPT
$ iptables -I INPUT -m state --state NEW -m multiport -p udp -s 192.168.1.0/24 -d 192.168.1.0/24 --dports 5404,5405 -j ACCEPT
$ iptables -I INPUT -m addrtype --dst-type MULTICAST -m state --state NEW -m multiport -p udp -s 192.168.1.0/24 --dports 5404,5405 -j ACCEPT
dlm (Gestionnaire de verrous distribués, « Distributed Lock Manager ») :
iptables -I INPUT -m state --state NEW -p tcp -s 192.168.1.0/24 -d 192.168.1.0/24 --dport 21064 -j ACCEPT
$ iptables -I INPUT -m state --state NEW -p tcp -s 192.168.1.0/24 -d 192.168.1.0/24 --dport 21064 -j ACCEPT
ricci (qui fait partie de l'agent distant de Conga) :
iptables -I INPUT -m state --state NEW -p tcp -s 192.168.1.0/24 -d 192.168.1.0/24 --dport 11111 -j ACCEPT
$ iptables -I INPUT -m state --state NEW -p tcp -s 192.168.1.0/24 -d 192.168.1.0/24 --dport 11111 -j ACCEPT
modclusterd (qui fait partie de l'agent distant de Conga) :
iptables -I INPUT -m state --state NEW -p tcp -s 192.168.1.0/24 -d 192.168.1.0/24 --dport 16851 -j ACCEPT
$ iptables -I INPUT -m state --state NEW -p tcp -s 192.168.1.0/24 -d 192.168.1.0/24 --dport 16851 -j ACCEPT
luci (serveur de l'interface utilisateur Conga) :
iptables -I INPUT -m state --state NEW -p tcp -s 192.168.1.0/24 -d 192.168.1.0/24 --dport 16851 -j ACCEPT
$ iptables -I INPUT -m state --state NEW -p tcp -s 192.168.1.0/24 -d 192.168.1.0/24 --dport 16851 -j ACCEPT
igmp (protocole de gestion de groupes internet « Internet Group Management Protocol ») :
iptables -I INPUT -p igmp -j ACCEPT
$ iptables -I INPUT -p igmp -j ACCEPT
service iptables save ; service iptables restart
$ service iptables save ; service iptables restart
2.4. Configurer luci avec /etc/sysconfig/luci Copier lienLien copié sur presse-papiers!
/etc/sysconfig/luci. Les paramètres que vous pouvez modifier avec ce fichier incluent les paramètres auxiliaires de l'environnement d'exécution utilisés par le script init ainsi que la configuration du serveur. En outre, vous pouvez modifier ce fichier afin de changer certains paramètres de configuration de l'application. Des instructions sont fournies dans le fichier, celles-ci décrivent les paramètres de configuration pouvant être changés en modifiant ce fichier.
/etc/sysconfig/luci lorsque vous modifiez le fichier. En outre, vous devez prendre soin de bien suivre la syntaxe requise pour ce fichier, particulièrement dans la section INITSCRIPT, qui n'autorise pas d'espaces blancs autour du signe égal et qui requiert que vous utilisiez des guillemets pour enfermer les chaînes contenant des espaces.
/etc/sysconfig/luci.
- Décommentez la ligne suivante dans le fichier
/etc/sysconfig/luci:#port = 4443
#port = 4443Copy to Clipboard Copied! Toggle word wrap Toggle overflow - Remplacez 4443 par le numéro de port souhaité, qui peut être plus grand que ou égal à 1024 (qui n'est pas un port privilégié). Par exemple, vous pouvez modifier cette ligne du fichier comme suit pour définir le port par lequel luci est servi sur 8084.
port = 8084
port = 8084Copy to Clipboard Copied! Toggle word wrap Toggle overflow - Redémarrez le service luci pour que les modifications prennent effet.
Important
/etc/sysconfig/luci pour redéfinir une valeur par défaut, vous devriez prendre soin de bien utiliser la valeur à la place de la valeur documentée par défaut. Par exemple, lorsque vous modifiez le port sur lequel luci est servi, assurez-vous de bien spécifier la valeur modifiée lors de l'activation d'un port IP pour luci, comme le décrit la Section 2.3.2, « Activer le port IP pour luci ».
/etc/sysconfig/luci, reportez-vous à la documentation dans le fichier même.
2.5. Configurer l'ACPI pour une utilisation avec des périphériques fence intégrés Copier lienLien copié sur presse-papiers!
Note
shutdown -h now). Si l'ACPI Soft-Off est activé, un périphérique fence intégré peut prendre quatre secondes ou plus pour arrêter un nœud (voir la remarque suivante). En outre, si l'ACPI Soft-Off est activé et qu'un nœud panique ou se fige lors de l'arrêt, un périphérique fence intégré pourrait ne pas réussir à arrêter le nœud. Dans ces circonstances, la clôture est retardée ou mise en échec. Ainsi, lorsqu'un nœud est clos avec un périphérique fence intégré et qu'ACPI Soft-Off est activé, un cluster devra être récupéré lentement ou nécessitera une intervention administrative.
Note
chkconfig et vérifiez que le nœud s'arrête immédiatement lorsqu'il est « fenced ». La manière préférée de désactiver l'ACPI Soft-Off est avec la gestion chkconfig. Cependant, si cette méthode n'est pas satisfaisante pour votre cluster, vous pouvez désactiver ACPI Soft-Off à l'aide de l'une des méthodes suivantes :
- Modifiez le paramètre BIOS sur "instant-off" ou sur un autre paramètre équivalent qui arrêtera le nœud sans délai
Note
Désactiver l'ACPI Soft-Off avec le BIOS peut ne pas être possible sur certains ordinateurs. - Ajouter
acpi=offà la ligne de commande de démarrage du noyau du fichier/boot/grub/grub.conf.Important
Cette méthode désactive complètement l'ACPI ; certains ordinateurs ne démarrent pas correctement si l'ACPI est complètement désactivé. Utilisez cette méthode uniquement si les autres méthodes ne sont pas effectives sur votre cluster.
- Section 2.5.2, « Désactivation de l'ACPI Soft-Off avec le BIOS » — Première méthode alternative
- Section 2.5.3, « Complètement désactiver ACPI dans le fichier
grub.conf» — Seconde méthode alternative
2.5.1. Désactivation de l'ACPI Soft-Off avec la gestion chkconfig Copier lienLien copié sur presse-papiers!
chkconfig pour désactiver l'ACPI Soft-Off soit en supprimant le démon ACPI (acpid) de la gestion chkconfig ou en éteignant acpid.
Note
chkconfig sur chaque nœud du cluster comme suit :
- Exécutez l'une des commandes suivantes :
chkconfig --del acpid— Cette commande supprimeacpidde la gestionchkconfig.— OU —chkconfig --level 2345 acpid off— Cette commande éteintacpid.
- Redémarrez le nœud.
- Lorsque le cluster est configuré et en cours d'exécution, vérifiez que le nœud s'éteint immédiatement lorsqu'il est « fenced ».
Note
Vous pouvez clore le nœud avec la commandefence_nodeou Conga.
2.5.2. Désactivation de l'ACPI Soft-Off avec le BIOS Copier lienLien copié sur presse-papiers!
chkconfig (Section 2.5.1, « Désactivation de l'ACPI Soft-Off avec la gestion chkconfig »). Cependant, si la méthode préférée ne fonctionne pas sur votre cluster, suivez la procédure décrite dans cette section.
Note
- Redémarrez le nœud et lancez le programme
BIOS CMOS Setup Utility. - Accédez au menu (ou à un autre menu de gestion de l'alimentation).
- Dans le menu , ajustez la fonction (ou son équivalent) sur (ou sur le paramètre équivalent qui arrête le nœud sans délai via le bouton d'alimentation). L'Exemple 2.1, «
BIOS CMOS Setup Utility: paramétré sur » montre un menu avec la fonction paramétrée sur (activé) et paramétrée sur .Note
Les équivalents de , , et peuvent varier grandement selon les ordinateurs. Cependant, l'objectif de cette procédure est de configurer le BIOS de manière à ce que l'ordinateur puisse être éteint via le bouton de l'alimentation sans délais. - Quittez le programme
BIOS CMOS Setup Utilityen enregistrant la configuration BIOS. - Lorsque le cluster est configuré et en cours d'exécution, vérifiez que le nœud s'éteint immédiatement lorsqu'il est « fenced ».
Note
Vous pouvez clore le nœud avec la commandefence_nodeou Conga.
Exemple 2.1. BIOS CMOS Setup Utility : paramétré sur
2.5.3. Complètement désactiver ACPI dans le fichier grub.conf Copier lienLien copié sur presse-papiers!
chkconfig (Section 2.5.1, « Désactivation de l'ACPI Soft-Off avec la gestion chkconfig »). Si la méthode préférée n'est pas effective sur votre cluster, vous pouvez désactiver l'ACPI Soft-Off avec la gestion de l'alimentation BIOS (Section 2.5.2, « Désactivation de l'ACPI Soft-Off avec le BIOS »). Si aucune de ces méthodes ne fonctionne sur votre cluster, vous pouvez aussi complètement désactiver l'ACPI en ajoutant acpi=off à la ligne de commande du démarrage du noyau dans le fichier grub.conf.
Important
grub.conf de chaque nœud du cluster comme suit :
- Ouvrez
/boot/grub/grub.confà l'aide d'un éditeur de texte. - Ajoutez
acpi=offà la ligne de commande du démarrage du noyau dans/boot/grub/grub.conf(reportez-vous à l'Exemple 2.2, « Ligne de commande du démarrage du noyau avecacpi=offajouté »). - Redémarrez le nœud.
- Lorsque le cluster est configuré et en cours d'exécution, vérifiez que le nœud s'éteint immédiatement lorsqu'il est « fenced ».
Note
Vous pouvez clore le nœud avec la commandefence_nodeou Conga.
Exemple 2.2. Ligne de commande du démarrage du noyau avec acpi=off ajouté
acpi=off a été ajouté à la ligne de commande du démarrage du noyau — la ligne commençant par "kernel /vmlinuz-2.6.32-193.el6.x86_64.img".
2.6. Considérations pour la configuration des services HA Copier lienLien copié sur presse-papiers!
rgmanager, implémente un basculement à froid pour des applications prises sur étagère (COTS). Dans le module complémentaire Red Hat High Availability, une application est configurée avec d'autres ressources de cluster pour former un service HA qui peut basculer d'un nœud de cluster à un autre sans interruption apparente aux clients du cluster. Le basculement HA-service peut se produire si un nœud de cluster est en échec ou si un administrateur système de clusters déplace le service d'un nœud de cluster à un autre par exemple, lors du temps d'indisponibilité planifié d'un nœud de cluster).
- Ressource adresse IP — IP address 10.10.10.201.
- Ressource d'application nommée "httpd-content" — script d'initialisation d'application de serveur web
/etc/init.d/httpd(spécifianthttpd). - Ressource de système de fichiers — Red Hat GFS2 nommé "gfs2-content-webserver".
Figure 2.1. Exemple de service de cluster de serveur web
Note
/etc/cluster/cluster.conf (dans chaque nœud du cluster). Dans le fichier de configuration du cluster, chaque arborescence de ressources est une représentation XML spécifiant chaque ressource, ses attributs, et ses relations aux autres ressources dans l'arborescence des ressources (parents, enfants et de même parenté).
Note
- Le type de ressources nécessaires à la création du service
- Les relations entre les parents, les enfants et les enfants de mêmes parents dans les ressources
2.7. Validation de la configuration Copier lienLien copié sur presse-papiers!
/usr/share/cluster/cluster.rng au moment du démarrage et lorsqu'une configuration est rechargée. Vous pouvez aussi valider une configuration de cluster à tout moment en utilisant la commande ccs_config_validate. Pour obtenir des informations sur la validation de configuration lors de l'utilisation de la commande ccs, voir la Section 5.1.6, « Validation de la configuration ».
/usr/share/doc/cman-X.Y.ZZ/cluster_conf.html (par exemple, /usr/share/doc/cman-3.0.12/cluster_conf.html).
- Validité XML — Vérifie que le fichier de configuration est un fichier XML valide.
- Options de configuration — Vérifie que les options (éléments XML et attributs) sont valides.
- Valeurs des options — Vérifie que les options contiennent des données valides (limité).
- Configuration valide — Exemple 2.3, «
cluster.confExemple de configuration : Fichier valide » - Option invalide — Exemple 2.5, «
cluster.confExemple de configuration : Option invalide » - Valeur de l'option invalide — Exemple 2.6, «
cluster.confExemple de configuration : Valeur de l'option invalide »
Exemple 2.3. cluster.conf Exemple de configuration : Fichier valide
Exemple 2.4. cluster.conf Exemple de configuration : XML invalide
<cluster> au lieu de </cluster>.
Exemple 2.5. cluster.conf Exemple de configuration : Option invalide
loging au lieu de logging.
Exemple 2.6. cluster.conf Exemple de configuration : Valeur de l'option invalide
nodeid dans la ligne clusternode de node-01.example.com. La valeur est une valeur négative ("-1") au lieu d'une valeur positive ("1"). Pour l'attribut nodeid, la valeur doit être une valeur positive.
2.8. Considérations pour NetworkManager Copier lienLien copié sur presse-papiers!
Note
cman ne démarrera pas si NetworkManager est exécuté ou a été configuré de manière à s'exécuter avec la commande chkconfig.
2.9. Considérations pour utiliser le disque Quorum Copier lienLien copié sur presse-papiers!
qdiskd, qui fournit des heuristiques supplémentaires pour déterminer la santé des nœuds. Avec les heuristiques, vous pouvez déterminer des facteurs importants à l'opération des nœuds dans le cas d'une partition de réseau. Par exemple, dans un cluster à quatre nœuds avec un partage 3:1 ; habituellement, les trois nœuds "gagnent" automatiquement grâce à leur majorité. Sous ces circonstances, le nœud "seul" est clos. Cependant, avec qdiskd, vous pouvez paramétrer des heuristiques qui permettent à ce nœud de gagner en se basant sur l'accès à une ressource critique (par exemple, un chemin d'accès de réseau critique). Si votre cluster nécessite des méthodes supplémentaires pour déterminer la santé des nœuds, vous devriez configurer qdiskd afin de répondre à ces besoins.
Note
qdiskd n'est pas requise à moins que vous n'ayez des besoins spéciaux pour la santé des nœuds. La configuration "all-but-one" (tous sauf un) est exemple de besoin spécifique. Dans ce type de configuration, qdiskd est configuré afin de fournir suffisamment de votes de quorum pour maintenir le quorum même si un seul nœud travaille.
Important
qdiskd de votre déploiement dépendent de l'environnement du site et des besoins spécifiques nécessités. Pour comprendre l'utilisation des heuristiques et des autres paramètres qdiskd, reportez-vous à la page man qdisk(5). Si vous nécessitez de l'aide pour comprendre et utiliser qdiskd pour votre site, veuillez contacter un représentant du support Red Hat autorisé.
qdiskd, vous devriez prendre en compte les considérations suivantes :
- Votes de nœuds de clusters
- Lors de l'utilisation du disque Quorum, chaque nœud de cluster doit avoir un vote.
- Valeur du délai d'expiration de l'appartenance à CMAN
- La valeur du délai d'expiration de l'appartenance à CMAN (la durée sans réponse du nœud avant que CMAN considère le nœud comme étant 'mort', donc n'étant plus membre) devrait être au moins deux fois plus élevé que la valeur du délai d'expiration de l'appartenance à
qdiskd. La raison pour ceci est que le démon du quorum doit pouvoir détecter les nœuds en échec par lui-même et celui-ci peut prendre bien plus longtemps pour ce faire que le CMAN. La valeur par défaut du délai d'expiration de l'appartenance à CMAN est de 10 secondes. D'autres conditions spécifiques au site peuvent affecter la relation entre les valeurs des délais d'expiration des adhésions à CMAN et àqdiskd. Pour obtenir de l'aide avec l'ajustement de la valeur du délai d'expiration de l'appartenance à CMAN, veuillez contacter un représentant du support Red Hat autorisé. - Clôtures (Fencing)
- Pour garantir une clôture fiable lors de l'utilisation de
qdiskd, utiliser le power fencing. Alors que les autres types de fencing peuvent être fiables avec les clusters qui ne sont pas configurés avecqdiskd, ceux-ci ne sont pas fiables pour un cluster configuré avecqdiskd. - Nombre maximum de nœuds
- Un cluster configuré avec
qdiskdprend en charge un maximum de 16 nœuds. La raison pour cette limite est liée à l'évolutivité, l'augmentation du compte des nœuds augmente les conflits d'E/S synchrones sur le périphérique du disque quorum. - Périphérique de disque quorum
- Un périphérique de disque quorum doit être un périphérique bloc partagé avec accès lecture/écriture simultané par tous les nœuds d'un cluster. La taille minimum du périphérique bloc est de 10 méga-octets. Une matrice RAID SCSI multiports, un SAN RAID Fibre Channel, une cible iSCSI configuré RAID sont des exemples de périphériques blocs partagés pouvant être utilisés par
qdiskd. Vous pouvez créer un périphérique de disque quorum avecmkqdisk, l'utilitaire du disque Quorum de clusters. Pour obtenir des informations sur l'utilisation de l'utilitaire, reportez-vous à la page man mkqdisk(8).Note
Utiliser JBOD comme disque quorum n'est pas recommandé. Un JBOD ne peut pas fournir une performance fiable et ne pourrait ainsi ne pas permettre à un nœud d'écrire dessus assez rapidement. Si un nœud n'est pas en mesure d'écrire sur un périphérique de disque quorum assez rapidement, le nœud sera alors incorrectement expulsé du cluster.
2.10. Module complémentaire Red Hat High Availability et SELinux Copier lienLien copié sur presse-papiers!
enforcing avec le type de politique SELinux défini sur targeted.
2.11. Adresses de multidiffusion Copier lienLien copié sur presse-papiers!
Note
2.12. Trafic de monodiffusion UDP Copier lienLien copié sur presse-papiers!
cman transport="udpu" dans le fichier de configuration cluster.conf. Vous pouvez aussi spécifier la monodiffusion à partir de la page de l'interface utilisateur Conga, comme le décrit la Section 3.5.3, « Configuration du réseau ».
2.13. Considérations pour ricci Copier lienLien copié sur presse-papiers!
ricci remplace ccsd. Ainsi, il est nécessaire que ricci soit exécuté dans chaque nœud de cluster pour pouvoir propager la configuration du cluster mis à jour, que ce soit via la commande cman_tool version -r, via la commande ccs, ou via le serveur de l'interface utilisateur luci. Vous pouvez démarrer ricci en utilisant service ricci start ou en l'autorisant à s'exécuter lors du démarrage via chkconfig. Pour obtenir des informations sur l'activation des ports IP pour ricci, reportez-vous à la Section 2.3.1, « Activation des ports IP sur des nœuds de clusters ».
ricci requiert un mot de passe la première fois que vous propagez une configuration mise à jour d'un cluster depuis n'importe quel nœud en particulier. Définissez le mot de passe de ricci après avoir installé ricci sur votre système avec la commande passwd ricci pour l'utilisateur ricci.
2.14. Configurer des machines virtuelles dans un environnement clusterisé Copier lienLien copié sur presse-papiers!
rgmanager pour démarrer et arrêter les machines virtuelles. L'utilisation de virsh pour démarrer une machine peut faire que celle-ci soit exécutée dans plusieurs emplacements, ce qui peut corrompre les données de la machine virtuelle.
virsh car l'emplacement du fichier de configuration sera inconnu à virsh.
path d'une ressource de machine virtuelle. Remarquez que l'attribut path est un répertoire ou un ensemble de répertoires séparés par le caractère des deux-points « : », il ne s'agit pas du chemin vers un fichier spécifique.
Avertissement
libvirt-guests devrait être désactivé sur tous les nœuds qui exécutent rgmanager. Si une machine virtuelle démarre automatiquement (« autostart ») ou reprend, ceci peut résulter en la machine virtuelle étant exécutée dans plusieurs emplacements, ce qui peut corrompre les données de la machine virtuelle.
Chapitre 3. Configurer le module complémentaire Red Hat High Availability avec Conga Copier lienLien copié sur presse-papiers!
Note
3.1. Tâches de configuration Copier lienLien copié sur presse-papiers!
- Configuration et exécution de l'interface utilisateur de configuration Conga — le serveur luci. Reportez-vous à la Section 3.2, « Démarrage de luci ».
- Création d'un cluster. Reportez-vous à la Section 3.4, « Créer un cluster ».
- Configuration des propriétés globales du cluster. Reportez-vous à la Section 3.5, « Propriétés globales du cluster ».
- Configuration des périphériques fence. Reportez-vous à la Section 3.6, « Configurer des périphériques fence ».
- Configuration du fencing pour les membres du cluster. Reportez-vous à la Section 3.7, « Configurer le fencing pour les membres du cluster ».
- Création de domaines de basculement. Reportez-vous à la Section 3.8, « Configurer un domaine de basculement ».
- Création des ressources. Reportez-vous à la Section 3.9, « Configurer les ressources globales du cluster ».
- Création des services du cluster. Reportez-vous à la Section 3.10, « Ajouter un service cluster à un cluster ».
3.2. Démarrage de luci Copier lienLien copié sur presse-papiers!
Note
luci pour configurer un cluster requiert que ricci soit installé et exécuté sur les nœuds du cluster, comme décrit dans la Section 2.13, « Considérations pour ricci ». Comme noté dans cette section, l'utilisation de ricci requiert un mot de passe que luci vous demande de saisir pour chaque nœud de cluster lorsque vous créez un cluster, comme décrit dans la Section 3.4, « Créer un cluster ».
- Sélectionnez un ordinateur pour héberger luci et installez le logiciel luci sur cet ordinateur. Par exemple :
yum install luci
# yum install luciCopy to Clipboard Copied! Toggle word wrap Toggle overflow Note
Typiquement, un ordinateur dans une cage de serveur ou dans un centre de données héberge luci ; cependant, un ordinateur cluster peut aussi héberger luci. - Démarrez luci à l'aide de
service luci start. Par exemple :Copy to Clipboard Copied! Toggle word wrap Toggle overflow Note
À partir de Red Hat Enterprise Linux 6.1, vous pouvez configurer certains aspects du comportement de luci par le biais du fichier/etc/sysconfig/luci, y compris les paramètres du port et de l'hôte, comme le décrit la Section 2.4, « Configurer luci avec/etc/sysconfig/luci». Les paramètres du port et de l'hôte seront automatiquement reflétés dans l'URL affiché lorsque le service luci est lancé. - Sur un navigateur web, placez l'URL du serveur luci dans la boîte de l'adresse URL et cliquez sur
Aller à(ou équivalent). La syntaxe de l'URL du serveur luci esthttps://luci_server_hostname:luci_server_port. La valeur par défaut de luci_server_port est8084.La première fois que vous accéderez à luci, une invite spécifique au navigateur web concernant le certificat SSL auto-signé (du serveur luci) s'affiche. Après confirmation de la boîte (ou des boîtes) de dialogue, votre navigateur web affichera la page de connexion de luci. - Même si tout utilisateur en mesure de s'authentifier sur le système qui héberge luci peut se connecter à luci, à partir de la version 6.2 de Red Hat Enterprise Linux, seul l'utilisateur root du système qui exécute luci pourra accéder à tous les composants luci, jusqu'à ce qu'un administrateur (l'utilisateur root, ou un utilisateur avec des permissions d'administrateur) définisse les permissions pour cet utilisateur. Pour obtenir des informations sur la définition des permissions luci pour les utilisateurs, reportez-vous à la Section 3.3, « Contrôler l'accès à luci ».Se connecter à luci affiche la page (page d'accueil) luci, comme indiqué dans la Figure 3.1, « Page Homebase luci ».
Figure 3.1. Page Homebase luci
Note
3.3. Contrôler l'accès à luci Copier lienLien copié sur presse-papiers!
- À partir de Red Hat Enterprise Linux 6.2, l'utilisateur root ou un utilisateur qui s'est vu offrir des permissions d'administrateur luci sur un système exécutant luci peut contrôler l'accès aux divers composants luci en paramétrant des permissions pour les utilisateurs individuels sur un système.
- À partir de Red Hat Enterprise Linux 6.3, l'utilisateur root ou un utilisateur qui s'est vu offrir des permissions d'administrateur luci peut aussi utiliser l'interface luci pour ajouter des utilisateurs au système.
- À partir de Red Hat Enterprise Linux 6.4, l'utilisateur root ou un utilisateur qui s'est vu offrir des permissions d'administrateur luci peut aussi utiliser l'interface luci pour supprimer des utilisateurs du système.
root ou en tant qu'utilisateur qui possède déjà des permissions d'administrateur et cliquez sur la sélection dans le coin en haut à droite de l'écran luci. Ceci ouvre la page , qui affiche les utilisateurs existants.
- Offre à l'utilisateur les mêmes permissions que l'utilisateur root, avec des permissions complètes sur tous les clusters et la possibilité de définir ou supprimer des permissions pour tous les utilisateurs, à l'exception de l'utilisateur root, dont les permissions ne peuvent pas être restreintes.
- Permet à l'utilisateur de créer des clusters, comme décrit dans la Section 3.4, « Créer un cluster ».
- Permet à l'utilisateur d'ajouter un cluster existant à l'interface luci, comme le décrit la Section 4.1, « Ajouter un cluster existante à l'interface luci ».
- Autorise l'utilisateur à voir le cluster spécifié.
- Permet à l'utilisateur de modifier la configuration du cluster spécifié, à l'exception de l'ajout et de la suppression de nœuds du cluster.
- Permet à l'utilisateur de gérer les services de haute disponibilité (« High Availability »), comme le décrit la Section 4.5, « Gérer les services High-Availability ».
- Permet à l'utilisateur de gérer les nœuds individuels d'un cluster, comme le décrit la Section 4.3, « Gérer les nœuds de clusters ».
- Permet à l'utilisateur d'ajouter et de supprimer des nœuds d'un cluster, comme le décrit la Section 3.4, « Créer un cluster ».
- Permet à l'utilisateur de supprimer un cluster de l'interface luci, comme le décrit la Section 4.4, « Démarrer, arrêter, redémarrer et supprimer des clusters ».
3.4. Créer un cluster Copier lienLien copié sur presse-papiers!
- Cliquez sur dans le menu sur le côté gauche de la page de luci. L'écran apparaît, comme décrit dans la Figure 3.2, « page de gestion de cluster luci ».
Figure 3.2. page de gestion de cluster luci
- Cliquez sur . La boîte de dialogue , comme décrit dans la Figure 3.3, « boîte de dialogue luci de création de cluster ».
Figure 3.3. boîte de dialogue luci de création de cluster
- Saisissez les paramètres suivants dans la boîte de dialogue comme nécessaire :
- Dans la boîte de texte , saisissez un nom de cluster. Le nom du cluster ne doit pas excéder 15 caractères.
- Si chaque nœud du cluster possède le même mot de passe ricci, vous pouvez cocher (utiliser le même mot de passe pour tous les nœuds) afin de remplir automatiquement le champ (mot de passe) lorsque vous ajoutez des nœuds.
- Saisissez le nom du nœud pour un nœud dans le cluster dans la colonne (nom du nœud) puis saisissez le mot de passe ricci du nœud dans la colonne (mot de passe).
- Si votre système est configuré avec un réseau privé dédié au trafic des clusters, vous devriez configurer luci de manière à communiquer avec ricci sur une différente adresse de celle résolue par le nom du nœud du cluster. Ceci peut être accompli en saisissant cette adresse comme le (nom d'hôte Ricci).
- Si vous utilisez un autre port pour l'agent ricci que le port par défaut 11111, vous pouvez modifier ce paramètre.
- Cliquez sur (ajouter un autre nœud) puis saisissez le nom du nœud et le mot de passe ricci pour chaque nœud supplémentaire du cluster.
- Si vous ne souhaitez pas mettre à niveau les paquetages logiciels déjà installés sur les nœuds lorsque vous créez le cluster, laissez l'option (Utiliser les paquetages installés localement) sélectionnée. Si vous ne souhaitez pas mettre à niveau tous les paquetages logiciels du cluster, sélectionnez l'option (Télécharger les paquetages).
Note
Que vous sélectionniez l'option (Utiliser les paquetages installés localement) ou l'option (Télécharger les paquetages), si des composants de base du cluster ne sont pas présents (cman,rgmanager,modclusteret leurs dépendances), il seront installés. S'ils ne peuvent pas être installés, la création du nœud échouera. - Sélectionnez (Redémarrer les nœuds avant de joindre le cluster) si nécessaire.
- Sélectionnez (activer le support du stockage partagé) si un stockage clusterisé est requis ; ceci télécharge les paquetages qui prennent en charge le stockage clusterisé et active LVM sur les clusters. Vous devriez sélectionner ceci uniquement lorsque vous avez accès au module complémentaire Resilient Storage (Stockage résilient) ou au module complémentaire Scalable File System (Système de fichiers scalable).
- Cliquez sur . Cliquer sur provoque les actions suivantes :
- Si vous avez sélectionné (Télécharger les paquetages), les paquetages logiciels du cluster sont téléchargés sur les nœuds.
- Les logiciels du cluster sont installés sur les nœuds (sinon, il est vérifié que les bons paquetages logiciels sont installés).
- Le fichier de configuration du cluster est mis à jour et propagé sur chaque nœud dans le cluster.
- Les nœuds ajoutés rejoignent le cluster.
Un message indiquant que le cluster est en train d'être créé est affiché. Lorsque le cluster est prêt, l'écran affiche l'état du cluster nouvellement créé, comme indiqué dans la Figure 3.4, « Affichage du nœud du cluster ». Remarquez que si ricci n'est pas en cours d'exécution sur l'un des nœuds, la création du cluster échouera.Figure 3.4. Affichage du nœud du cluster
- Après avoir cliqué sur pour créer le cluster, vous pouvez ajouter ou supprimer des nœuds du cluster en cliquant sur la fonction ou sur le menu en haut de la page d'affichage des nœuds du cluster. À moins que vous ne tentiez de supprimer un cluster entier, les nœuds doivent être arrêtés avant d'être supprimés. Pour obtenir des informations sur la suppression d'un nœud d'un cluster existant qui est actuellement en cours de fonctionnement, voir Section 4.3.4, « Supprimer un membre d'un cluster ».
Note
La suppression d'un nœud du cluster est une opération destructive qui est irréversible.
3.5. Propriétés globales du cluster Copier lienLien copié sur presse-papiers!
3.5.1. Configurer les propriétés générales Copier lienLien copié sur presse-papiers!
- La boîte de texte (Nom du cluster) affiche le nom du cluster ; elle n'accepte pas de modification du nom du cluster. La seule manière de changer le nom d'un cluster est de créer une nouvelle configuration de cluster avec le nouveau nom.
- La valeur de la est définie sur
1au moment de la création du cluster et est automatiquement incrémentée à chaque fois que vous modifiez la configuration de votre cluster. Cependant, si vous devez changer la valeur, vous pouvez la spécifier dans la boîte de texte .
3.5.2. Configurer les propriétés du démon fence Copier lienLien copié sur presse-papiers!
- Le paramètre est le nombre de secondes que le démon fence (
fenced) doit attendre avant de clôturer un nœud (un membre du domaine fence) une fois que le nœud a échoué. La valeur par défaut de est0. Sa valeur peut être modifiée pour mieux correspondre à performance du cluster et du réseau. - Le paramètre correspond au nombre de secondes que le démon Fence (
fenced) attend avant de clôturer un nœud après que le nœud a rejoint le domaine fence. La valeur par défaut du délai est6. Typiquement, le paramètre de délai se situe entre 20 et 30 seconds, mais celui-ci peut varier en fonction de la performance du cluster et du réseau.
Note
3.5.3. Configuration du réseau Copier lienLien copié sur presse-papiers!
- Ceci est le paramètre par défaut. Avec cette option sélectionnée, le module complémentaire Red Hat High Availability crée une adresse de multidiffusion basée sur l'ID du cluster. Il génère les 16 bits les plus bas de l'adresse et les ajoute à la portion supérieure de l'adresse selon que le protocole IP est IPv4 ou IPv6 :
- Pour IPv4 — L'adresse formée est 239.192. plus les 16 bits les plus bas générés par le logiciel du module complémentaire Red Hat High Availability.
- Pour IPv6 — L'adresse formée est FF15:: plus les 16 bits les plus bas générés par le logiciel du module complémentaire Red Hat High Availability.
Note
L'ID du cluster est un identifiant unique quecmangénère pour chaque cluster. Pour voir l'ID du cluster, exécutez la commandecman_tool statussur un nœud de cluster. - Si vous devez utiliser une adresse de multidiffusion spécifique, sélectionnez cette option et saisissez une adresse de multidiffusion dans la boîte de texte .Si vous spécifiez une adresse de multidiffusion, vous devriez utiliser les séries 239.192.x.x (ou FF15:: pour IPv6) que
cmanutilise. L'utilisation d'une adresse de multidiffusion hors de cette plage peut causer des résultats imprévisibles. Par exemple, l'utilisation de 224.0.0.x, qui est "All hosts on the network" (Tous les hôtes sur le réseau) pourrait ne pas être routé correctement, ou même ne pas être routé du tout par le matériel.Si vous spécifiez ou modifiez une adresse de multidiffusion, vous devrez redémarrer le cluster pour que celle-ci prenne effet. Pour obtenir des informations sur le démarrage et l'arrêt d'un cluster avec Conga, reportez-vous à la Section 4.4, « Démarrer, arrêter, redémarrer et supprimer des clusters ».Note
Si vous spécifiez une adresse de multidiffusion, assurez-vous de bien vérifier la configuration des routeurs par lesquels les paquets des clusters passent. Certains routeurs prennent longtemps pour apprendre les adresses, affectant ainsi sévèrement la performance du cluster. - À partir de Red Hat Enterprise Linux 6.2, les nœuds dans une grappe peuvent communiquer entre eux à l'aide du mécanisme de transport de monodiffusion UDP. Il est recommandé d'utiliser la multidiffusion IP pour le réseau de grappes. La monodiffusion UDP est une alternative pouvant être utilisée lorsque la multidiffusion IP est indisponible. La monodiffusion UDP n'est pas recommandée pour les déploiements GFS2.
3.5.4. Configurer le protocole d'anneau redondant (« Redundant Ring ») Copier lienLien copié sur presse-papiers!
3.5.5. Configuration du disque quorum Copier lienLien copié sur presse-papiers!
Note
| Paramètre | Description | ||||
|---|---|---|---|---|---|
Spécifie l'étiquette du disque quorum créée par l'utilitaire mkqdisk. Si ce champ est utilisé, le démon quorum lit le fichier /proc/partitions et vérifiera les signatures qdisk sur chaque périphérique bloc trouvé, en comparant l'étiquette avec l'étiquette spécifiée. Ceci est utile dans des configurations où le nom du périphérique quorum diffère selon les nœuds. | |||||
| |||||
Score minimum qu'un nœud doit effectuer pour être considéré comme « vivant ». Si oublié, ou si ajusté sur 0, floor((n+1)/2), est utilisé, où n est la somme des scores heuristiques. La valeur ne doit jamais excéder la somme des scores heuristiques, sinon le disque quorum ne pourra pas être disponible. |
Note
/etc/cluster/cluster.conf) dans chaque nœud du cluster. Cependant, pour que le disque quorum puisse opérer ou pour que toute modification apportée aux paramètres du disque quorum puisse prendre effet, vous devez redémarrer le cluster (reportez-vous à la Section 4.4, « Démarrer, arrêter, redémarrer et supprimer des clusters ») et vous assurer que le démon qdiskd est redémarré sur chaque nœud.
3.5.6. Configuration de la journalisation Copier lienLien copié sur presse-papiers!
- Cocher (Journaliser les messages de débogage) active les messages de débogage dans le fichier de journalisation.
- Cocher (Journaliser les messages sur syslog) active les messages sur
syslog. Vous pouvez sélectionner et . Le paramètre indique que les messages au niveau sélectionné et aux niveaux supérieurs sont envoyés sursyslog. - Cocher (Journaliser les messages sur le fichier de journalisation) active les messages sur le fichier de journalisation. Vous pouvez spécifier le nom de (chemin d'accès du fichier de journalisation). Le paramètre indique que les messages au niveau sélectionné et aux niveaux supérieurs sont écrits sur le fichier de journalisation.
syslog et les paramètres du fichier de journalisation de ce démon.
3.6. Configurer des périphériques fence Copier lienLien copié sur presse-papiers!
- Creating fence devices — Reportez-vous à la Section 3.6.1, « Créer un périphérique fence ». Une fois que vous avez créé et nommé un périphérique fence, vous pourrez configurer les périphériques fence pour chaque nœud dans le cluster, comme décrit dans la Section 3.7, « Configurer le fencing pour les membres du cluster ».
- Mise à jour des périphériques fence — Reportez-vous à la Section 3.6.2, « Modifier un périphérique fence ».
- Suppression de périphériques fence — Reportez-vous à la Section 3.6.3, « Supprimer un périphérique fence ».
Note
Figure 3.5. Page luci de la configuration des périphériques fence
3.6.1. Créer un périphérique fence Copier lienLien copié sur presse-papiers!
- À partir de la page de configuration , cliquez sur . Cliquer sur affiche la boîte de dialogue Ajouter un périphérique fence (instance) . À partir de cette boîte de dialogue, sélectionnez le type de périphérique fence à configurer.
- Spécifiez les informations dans la boîte de dialogue Ajouter un périphérique fence (instance) en fonction du type de périphérique fence. Reportez-vous à l'Annexe A, Paramètres des périphériques fence afin d'obtenir plus d'informations sur les paramètres des périphériques fence. Dans certains cas, vous devrez spécifier des paramètres spécifiques au nœud pour le périphérique fence lorsque vous configurer le fencing pour des nœuds individuels, comme décrit dans la Section 3.7, « Configurer le fencing pour les membres du cluster ».
- Cliquez sur (Soumettre).
3.6.2. Modifier un périphérique fence Copier lienLien copié sur presse-papiers!
- À partir de la page , cliquez sur le nom du périphérique fence à modifier. Ceci affiche la boîte de dialogue de ce périphérique fence, avec les valeurs qui ont été configurées pour ce périphérique.
- Pour modifier le périphérique fence, saisissez les modifications aux paramètres affichés. Reportez-vous à l'Annexe A, Paramètres des périphériques fence pour obtenir plus d'informations.
- Cliquez sur et attendez que la configuration soir mise à jour.
3.6.3. Supprimer un périphérique fence Copier lienLien copié sur presse-papiers!
Note
- À partir de la page de configuration , cochez la case à gauche du (ou des) périphérique(s) fence afin de sélectionner les périphériques à supprimer.
- Cliquez sur et attendez que la configuration soit mise à jour. Un message apparaît indiquant quels périphériques sont en cours de suppression.
3.7. Configurer le fencing pour les membres du cluster Copier lienLien copié sur presse-papiers!
3.7.1. Configurer un périphérique fence unique pour un nœud Copier lienLien copié sur presse-papiers!
- À partir de la page spécifique aux clusters, vous pouvez configurer le fencing pour les nœuds dans le cluster en cliquant sur en haut de l'affichage du cluster. Ceci affiche les nœuds constituant le cluster. Cette page est aussi la page par défaut apparaissant lorsque vous cliquez sur le nom du cluster sous dans le menu, sur le côté gauche de la page luci.
- Cliquez sur un nom de nœud. Cliquer sur un lien vers un nœud fait qu'une page pour ce lien sera affichée, montrant comment ce nœud est configuré.La page spécifique aux nœuds affiche tous les services actuellement en cours d'exécution sur le nœud, ainsi que tous les domaines de basculement dont ce nœud est un membre. Vous pouvez modifier un domaine de basculement existant en cliquant sur son nom. Pour obtenir des informations sur la configuration des domaines de basculement, voir la Section 3.8, « Configurer un domaine de basculement ».
- Sur la page spécifique aux nœuds, sous , cliquez sur . Ceci affiche la boîte de dialogue .
- Saisissez un pour la méthode de fencing que vous configurez pour ce nœud. Ceci est un nom arbitraire qui sera utilisé par le module complémentaire Red Hat High Availability ; il ne s'agit pas de la même chose que le nom DNS du périphérique.
- Cliquez sur . Cela ouvre l'écran spécifique aux nœuds qui affiche la méthode que vous venez d'ajouter sous .
- Configurez une instance fence pour cette méthode en cliquant sur le bouton qui apparaît sous la méthode fence. Ceci affiche un menu déroulant à partir duquel vous pouvez sélectionner un périphérique fence que vous avez précédemment configuré, comme décrit dans la Section 3.6.1, « Créer un périphérique fence ».
- Sélectionnez un périphérique fence pour cette méthode. Si ce périphérique fence requiert que vous configuriez des paramètres spécifiques au nœud, l'affichage montrera les paramètres à configurer. Pour obtenir des informations sur les paramètres du fencing, reportez-vous à l'Annexe A, Paramètres des périphériques fence.
Note
Pour les méthodes fence qui ne sont pas basées sur l'alimentation (comme le fencing SAN ou de stockage), est sélectionné par défaut sur l'affichage des paramètres spécifiques au(x) nœud(s). Ceci assure que l'accès d'un nœud clôturé (fenced) au stockage n'est pas ré-activé jusqu'à ce que le nœud ne soit redémarré. Pour obtenir des informations sur l'unfencing d'un nœud, reportez-vous à la page manfence_node(8). - Cliquez sur . Cela vous ramène à l'écran spécifique aux nœuds avec la méthode et l'instance fence affichées.
3.7.2. Configurer un périphérique fence de sauvegarde Copier lienLien copié sur presse-papiers!
- Utilisez la procédure fournie dans la Section 3.7.1, « Configurer un périphérique fence unique pour un nœud » pour configurer la méthode de fencing primaire pour un nœud.
- Sous l'affichage de la méthode primaire que vous avez défini, cliquez sur .
- Saisissez un nom pour la méthode de fencing de sauvegarde que vous avez configuré pour ce nœud et cliquez sur . Ceci affiche l'écran spécifique aux nœuds, qui montre la méthode que vous avez ajoutée en dessous de la méthode fence primaire.
- Configurez une instance fence pour cette méthode en cliquant sur . Ceci affiche un menu déroulant à partir duquel vous pouvez sélectionner un périphérique fence que vous aurez précédemment configuré, comme décrit dans la Section 3.6.1, « Créer un périphérique fence ».
- Sélectionnez un périphérique fence pour cette méthode. Si ce périphérique fence requiert que vous configuriez des paramètres spécifiques au nœud, l'affichage montrera les paramètres à configurer. Pour obtenir des informations sur les paramètres du fencing, reportez-vous à l'Annexe A, Paramètres des périphériques fence.
- Cliquez sur . Cela vous ramène à l'écran spécifique aux nœuds avec la méthode et l'instance fence affichées.
3.7.3. Configurer un nœud avec une alimentation redondante Copier lienLien copié sur presse-papiers!
- Avant de pouvoir configurer le fencing pour un nœud avec une alimentation redondante, vous devez configurer chaque interrupteur d'alimentation en tant que périphérique fence pour le cluster. Pour obtenir des informations sur la configuration des périphériques fence, voir la Section 3.6, « Configurer des périphériques fence ».
- À partir de la page spécifique aux clusters, cliquez sur en haut de l'affichage des clusters. Ceci affiche les nœuds constituant le cluster. Ceci est aussi la page par défaut apparaissant lorsque vous cliquez sur le nom du cluster en dessous de dans le menu sur le côté gauche de la page luci.
- Cliquez sur un nom de nœud. Cliquer sur un lien vers un nœud fait qu'une page pour ce lien sera affichée, montrant comment ce nœud est configuré.
- Sur la page spécifique aux nœuds, cliquez sur .
- Saisissez un nom pour la méthode de fencing que vous configurez pour ce nœud.
- Cliquez sur . Cela ouvre l'écran spécifique aux nœuds qui affiche la méthode que vous venez d'ajouter sous .
- Configurez la première source d'alimentation en tant qu'instance fence pour cette méthode en cliquant sur . Ceci affiche un menu déroulant à partir duquel vous pouvez sélectionner un des périphériques de fencing alimenté que vous aurez précédemment configuré, comme décrit dans la Section 3.6.1, « Créer un périphérique fence ».
- Sélectionnez l'un des périphériques de fencing alimenté pour cette méthode et saisissez les paramètres appropriés pour celui-ci.
- Cliquez sur . Cela vous ramène à l'écran spécifique aux nœuds avec la méthode et l'instance fence affichées.
- Sous la même méthode fence pour laquelle vous avez configuré le premier périphérique de fencing alimenté, cliquez sur . Ceci affiche un menu déroulant à partir duquel vous pouvez sélectionner le second périphérique de fencing que vous avez précédemment configuré, comme décrit dans la Section 3.6.1, « Créer un périphérique fence ».
- Sélectionnez le second périphérique de fencing alimenté pour cette méthode et saisissez les paramètres appropriés pour celui-ci.
- Cliquez sur . Ceci vous ramène à l'écran spécifique aux nœuds où les méthodes et instances fence sont affichées, montrant que chaque périphérique éteindra et allumera le système en séquence. Ceci vous est montré dans la Figure 3.6, « Configuration du fencing à alimentation duelle ».
Figure 3.6. Configuration du fencing à alimentation duelle
3.8. Configurer un domaine de basculement Copier lienLien copié sur presse-papiers!
- Unrestricted — Ceci vous permet de spécifier qu'un sous-ensemble de membres est préféré, mais qu'un service cluster assigné à ce domaine peut s'exécuter sur n'importe quel membre disponible.
- Restricted — Ceci vous permet de restreindre les membres pouvant exécuter un service cluster en particulier. Si aucun des membres dans un domaine de basculement restricted n'est disponible, le service cluster ne pourra pas être lancé (manuellement ou par le logiciel du cluster).
- Unordered — Lorsqu'un service cluster est assigné à un domaine de basculement unordered, le membre sur lequel le service cluster est exécuté est choisi parmi les membres disponibles du domaine de basculement sans ordre de priorité.
- Ordered — Ceci vous permet de spécifier un ordre de préférence parmi les membres d'un domaine de basculement. Le membre le plus haut dans la liste est le préféré, suivi par le second membre dans la liste, et ainsi de suite.
- Failback — Ceci vous permet de spécifier si un service dans le domaine de basculement devrait être restauré sur le nœud sur lequel il était initialement exécuté avant que ce nœud tombe en panne. La configuration de cette caractéristique est utile dans des circonstances où un nœud tombe en panne de manière répétitive et fait partie d'un domaine de basculement ordered. Dans ces circonstances, si un nœud est le nœud préféré dans un domaine de basculement, il est possible qu'un service tombe en panne puis se restaure de manière répétitive entre le nœud préféré et un autre nœud, affectant sévèrement la performance.
Note
La caractéristique failback est uniquement applicable si le basculement ordered est configuré.
Note
Note
httpd), qui requiert que vous paramétriez la configuration de manière identique sur tous les membres exécutant le service cluster. Au lieu de paramétrer le cluster entier afin qu'il exécute le service cluster, il vous est possible de paramétrer uniquement les membres dans le domaine de basculement restricted que vous associerez au service cluster.
Note
3.8.1. Ajouter un domaine de basculement Copier lienLien copié sur presse-papiers!
- À partir de la page spécifique aux clusters, vous pouvez configurer des domaines de basculement pour ce cluster en cliquant sur en haut de l'affichage des clusters. Ceci affiche les domaines de basculement qui ont été configurés pour ce cluster.
- Cliquez sur . Cliquer sur affichera la boîte de dialogue Ajouter le domaine de basculement au cluster, comme décrit dans la Figure 3.7, « Boîte de dialogue luci de la configuration du domaine de basculement ».
Figure 3.7. Boîte de dialogue luci de la configuration du domaine de basculement
- Dans la boîte de dialogue Ajouter un domaine de basculement au cluster, spécifiez un nom de domaine de basculement dans la boîte de texte .
Note
Le nom doit être suffisamment descriptif pour distinguer son but par rapport aux autres noms utilisés dans votre cluster. - Pour activer le paramétrage de la priorité des basculements des membres dans le domaine de basculement, cliquez sur la case à cocher (Priorisés). Lorsque est coché, vous pouvez paramétrer la valeur de priorité (Priorité) pour chaque nœud sélectionné en tant que membre du domaine de basculement.
- Pour restreindre le basculement aux membres dans ce domaine de basculement, cliquez sur la case à cocher (Restreint). Lorsque est coché, les services assignés à ce domaine de basculement ne basculent que sur les nœuds dans ce domaine de basculement.
- Pour spécifier qu'un nœud ne bascule pas dans ce domaine de basculement, cliquez sur la case à cocher (Pas de basculement). Lorsque est coché, si un service bascule depuis un nœud préféré, ce service ne basculera pas vers le nœud d'origine une fois que celui-ci est restauré.
- Configurez les membres de ce domaine de basculement. Cliquez sur la case à cocher de chaque nœud devant être un membre du domaine de basculement. Si est coché, paramétrez la priorité dans la boîte de texte pour chaque membre du domaine de basculement.
- Cliquez sur . Ceci affiche la page Domaines de basculement en affichant le domaine de basculement nouvellement créé. Un message indique que le nouveau domaine est en cours de création. Réactualisez la page pour mettre à jour l'état.
3.8.2. Modifier un domaine de basculement Copier lienLien copié sur presse-papiers!
- À partir de la page spécifique aux clusters, vous pouvez configurer les domaines de basculement pour ce cluster en cliquant sur en haut de l'affichage des clusters. Ceci affiche les domaines de basculement qui ont été configurés pour ce cluster.
- Cliquez sur le nom d'un domaine de basculement. Ceci affiche la page de configuration de ce domaine de basculement.
- Pour modifier les propriétés , ou du domaine de basculement, cochez ou décochez la case à cocher à côté de la propriété puis cliquez sur (Mettre à jour les propriétés).
- Pour modifier l'adhésion au domaine de basculement, cochez ou décochez la case à cocher à côté du membre du cluster. Si le domaine de basculement est priorisé, vous pouvez aussi modifier le paramètre de la priorité du membre du cluster. Cliquez ensuite sur (Mettre à jour les paramètres).
3.8.3. Supprimer un domaine de basculement Copier lienLien copié sur presse-papiers!
- À partir de la page spécifique aux clusters, vous pouvez configurer les domaines de basculement pour ce cluster en cliquant sur en haut de l'affichage des clusters. Ceci affiche les domaines de basculement qui ont été configurés pour ce cluster.
- Sélectionnez la case à cocher du domaine de basculement à supprimer.
- Cliquez sur (supprimer).
3.9. Configurer les ressources globales du cluster Copier lienLien copié sur presse-papiers!
- Sur la page spécifique aux clusters, vous pouvez ajouter des ressources à ce cluster en cliquant sur en haut de l'affichage des clusters. Ceci affiche les ressources qui ont été configurées pour ce cluster.
- Cliquez sur . Ceci affiche le menu déroulant .
- Cliquez sur la boîte déroulante sous et sélectionnez le type de ressource à configurer.
- Saisissez les paramètres de ressources de la ressource que vous ajoutez. L'Annexe B, Paramètres des ressources HA décrit les paramètres de ressources.
- Cliquez sur . Cliquer sur vous ramène à la page des ressources qui affiche l'écran Ressources, montrant la ressource ajoutée (ainsi que d'autres ressources).
- À partir de la page luci , cliquez sur le nom de la ressource à modifier. Ceci affiche les paramètres de cette ressource.
- Modifiez les paramètres de la ressource.
- Cliquez sur .
- À partir de la page luci , cliquez sur la case à cocher pour supprimer toute ressource.
- Cliquez sur (supprimer).
3.10. Ajouter un service cluster à un cluster Copier lienLien copié sur presse-papiers!
- Sur la page spécifique aux clusters, vous pouvez ajouter des services à ce cluster en cliquant sur en haut de l'affichage des clusters. Ceci affiche les services qui ont été configurés pour ce cluster. (Depuis la page , vous pouvez aussi démarrer, redémarrer et désactiver un service, comme décrit dans la Section 4.5, « Gérer les services High-Availability ».)
- Cliquez sur . Ceci affiche la boîte de dialogue .
- Dans la boîte de texte se trouvant dans la boîte de dialogue Ajouter un groupe de services au cluster, saisissez le nom du service.
Note
Utilisez un nom descriptif qui distingue clairement le service des autres services dans le cluster. - Cochez la case si vous souhaitez que ce service démarre automatiquement lorsqu'un cluster est lancé et fonctionne. Si la case n'est pas cochée, le service devra être lancé manuellement à chaque fois que le cluster sortira de l'état arrêté.
- Cochez la case pour définir une stratégie avec laquelle le service ne s'exécute que sur des nœuds sur lesquels aucun autre service ne s'exécute.
- Si vous avez configuré des domaines de basculement pour le cluster, vous pouvez utiliser le menu déroulant du paramètre pour sélectionner un domaine de basculement pour ce service. Pour obtenir des informations sur la configuration de domaines de basculement, voir la Section 3.8, « Configurer un domaine de basculement ».
- Utilisez la boîte déroulante pour sélectionner une politique de récupération pour le service. Les options pour le service sont (Déplacer), (Redémarrer), (Redémarrer-désactiver), ou (Désactiver).Sélectionner l'option (redémarrer) indique que le système devrait tenter de redémarrer le service en échec avant de le déplacer. Sélectionner l'option (déplacer) indique que le système devrait tenter de redémarrer le service dans un autre nœud. Sélectionner l'option (désactiver) indique que le système devrait désactiver le groupe de ressources si l'un des composants échoue. Sélectionner l'option (redémarrer-désactiver) indique que le système devrait tenter de redémarrer le service à sa place s'il échoue, mais si le redémarrage échoue, alors le service sera désactivé au lieu d'être déplacé vers un autre hôte dans le cluster.Si vous sélectionnez ou en tant que politique de récupération pour le service, vous pourrez spécifier le nombre maximum d'échecs de redémarrage avant le déplacement ou la désactivation du service. Vous pouvez aussi spécifier (en secondes) à partir de combien de temps il ne faudra plus effectuer de redémarrages.
- Pour ajouter une ressource au service, cliquez sur . Cliquer sur affiche la boîte déroulante de l'écran qui vous permet d'ajouter une ressource globale existante ou d'ajouter une nouvelle ressource qui est uniquement disponible à ce service.
- Pour ajouter une ressource globale existante, cliquez sur le nom de la ressource existante dans la boîte déroulante . Ceci affiche la ressource et ses paramètres sur la page pour le service que vous configurez. Pour obtenir des informations sur l'ajout et sur la modification des ressources globales, voir la Section 3.9, « Configurer les ressources globales du cluster ».
- Pour ajouter un nouvelle ressource uniquement disponible à ce service, sélectionnez le type de ressource à configurer à partir de la boîte déroulante et saisissez les paramètres de ressources pour la ressource que vous ajoutez. L'Annexe B, Paramètres des ressources HA décrit les paramètres de ressources.
- Lors de l'ajout d'une ressource à un service, qu'il s'agisse d'une ressource globale existante ou d'une ressource uniquement disponible à ce service, vous pouvez spécifier si la ressource est une ou une .Si vous spécifiez la ressource en tant qu'arborescence indépendante et que celle-ci échoue, elle seule sera redémarrée (plutôt que le service entier) avant que le système ne tente d'effectuer une récupération normale. Vous pouvez spécifier le nombre maximum de redémarrages que cette ressource devra tenter sur un nœud avant d'implémenter une politique de récupération pour ce service. Vous pouvez aussi spécifier la durée, en secondes, après laquelle le système implémentera la politique de récupération pour ce service.Si vous spécifiez la ressource en tant que ressource non-critique et que celle-ci échoue, elle seule sera redémarrée. Si elle continue à échouer, alors plutôt que le service entier, elle seule sera désactivée. Vous pouvez spécifier le nombre maximum de redémarrages que cette ressource devra tenter sur un nœud avant de la désactiver. Vous pouvez aussi spécifier la durée, en secondes, après laquelle le système désactivera cette ressource.
- Si vous souhaitez ajouter des ressources enfant à la ressource que êtes en train de définir, cliquez sur . Cliquer sur affiche la boite déroulante , à partir de laquelle vous pouvez ajouter une ressource globale existante ou une nouvelle ressource uniquement disponible à ce service. Vous pouvez continuer d'ajouter des ressources enfant à la ressource selon vos besoins.
Note
Si vous êtes en train d'ajouter une ressource du service Samba, ajoutez-la directement au service, et non pas en tant qu'enfant d'une autre ressource. - Lorsque vous aurez fini d'ajouter des ressources au service et des ressources enfant aux ressources, cliquez sur . Cliquer sur vous ramène à la page , qui affiche le service ajouté (et les autres services).
Note
/sbin/ip addr show sur un nœud de cluster (plutôt que la commande obsolète ifconfig). La sortie suivante montre la commande /sbin/ip addr show exécutée sur un nœud qui exécute un service cluster :
- À partir de la boîte de dialogue , cliquez sur le nom du service à modifier. Ceci affiche les paramètres et les ressources qui ont été configurés pour ce service.
- Modifiez les paramètres de service.
- Cliquez sur (Soumettre).
- À partir de la page luci , cliquez sur la case à cocher pour supprimer tout service.
- Cliquez sur (supprimer).
- À partir de Red Hat Enterprise Linux 6.3, avant que luci ne supprime un (ou plusieurs) service(s), un message s'affiche vous demandant de confirmer si vous souhaitez bien supprimer le ou les groupe(s) de services, ce qui arrête les ressources qui le ou qui les contiennent. Cliquez sur pour fermer la boîte de dialogue sans supprimer de services, ou sur pour supprimer le ou les service(s) sélectionné(s).
Chapitre 4. Gérer le module complémentaire Red Hat High Availability avec Conga Copier lienLien copié sur presse-papiers!
4.1. Ajouter un cluster existante à l'interface luci Copier lienLien copié sur presse-papiers!
- Cliquez sur dans le menu à gauche de la page luci . L'écran s'affiche.
- Cliquez sur . L'écran s'affiche.
- Saisissez le nom d'hôte du nœud et un mot de passe ricci pour n'importe quel nœud dans le cluster existant. Chaque nœud dans le cluster contient toutes les informations de configuration du cluster, celles-ci devraient être suffisantes pour pouvoir ajouter le cluster à l'interface luci.
- Cliquez sur . L'écran affiche alors le nom du cluster et les nœuds restants dans celui-ci.
- Saisissez les mots de passe ricci individuels pour chaque nœuds dans le cluster, ou saisissez un mot de passe et sélectionnez .
- Cliquez sur . Le cluster précédemment configuré s'affiche maintenant sur l'écran .
4.2. Supprimer un cluster de l'interface luci Copier lienLien copié sur presse-papiers!
- Cliquez sur dans le menu à gauche de la page luci . L'écran s'affiche.
- Sélectionnez le ou les cluster(s) que vous souhaitez supprimer.
- Cliquez sur (supprimer).
4.3. Gérer les nœuds de clusters Copier lienLien copié sur presse-papiers!
4.3.1. Redémarrer un nœud de cluster Copier lienLien copié sur presse-papiers!
- À partir de la page spécifique aux clusters, cliquez sur en haut de l'affichage des clusters. Ceci affiche les nœuds constituant le cluster. Ceci est aussi la page par défaut apparaissant lorsque vous cliquez sur le nom du cluster en dessous de dans le menu sur le côté gauche de la page luci.
- Sélectionnez le nœud à redémarrer en cliquant sur la case à cocher pour ce nœud.
- Sélectionnez la fonction (Redémarrer) dans le menu en haut de la page. Ceci cause au nœud sélectionné de redémarrer et un message s'affiche en haut de la page indiquant que le nœud est en train de redémarrer.
- Réactualise la page pour voir l'état du nœud mis à jour.
4.3.2. Causer à un nœud de joindre ou quitter un cluster Copier lienLien copié sur presse-papiers!
Not a cluster member(N'est pas un membre du cluster). Pour obtenir des informations sur la suppression complète du nœud de la configuration du cluster, voir la Section 4.3.4, « Supprimer un membre d'un cluster ».
- À partir de la page spécifique aux clusters, cliquez sur en haut de l'affichage des clusters. Ceci affiche les nœuds constituant le cluster. Ceci est aussi la page par défaut apparaissant lorsque vous cliquez sur le nom du cluster en dessous de dans le menu sur le côté gauche de la page luci.
- Sélectionnez le nœud que vous souhaitez faire quitter le cluster en cliquant sur la case à cocher de ce nœud.
- Sélectionnez la fonction (en anglais, « Leave Cluster ») dans le menu en haut de la page. Ceci fait apparaître un message en haut de la page indiquant que le nœud est en train d'être arrêté.
- Réactualise la page pour voir l'état du nœud mis à jour.
4.3.3. Ajouter un membre à un cluster en cours d'exécution Copier lienLien copié sur presse-papiers!
- À partir de la page spécifique aux clusters, cliquez sur en haut de l'affichage du cluster. Ceci affiche les nœuds constituant le cluster. Ceci est aussi la page par défaut apparaissant lorsque vous cliquez sur le nom du cluster en-dessous de sur le côté gauche de la page luci, .
- Cliquez sur . Cliquer sur provoque l'affichage de la boîte de dialogue Ajouter des nœuds au cluster.
- Saisissez le nom du nœud dans la boîte de texte ; saisissez le mot de passe ricci dans la boîte de texte . Si vous utilisez un port différent pour l'agent ricci autre que celui par défaut, 11111, modifiez ce paramètre sur le port que vous utilisez.
- Cochez la case (de l'anglais, « Enable Shared Storage Support ») si le stockage clusterisé est requis pour télécharger les paquetages qui prennent en charge le stockage clusterisé et activez LVM sous clusters ; vous devriez sélectionner ceci uniquement lorsque vous avez accès au module complémentaire Resilient Storage ou au module complémentaire Scalable File System.
- Si vous souhaitez ajouter plus de nœuds, cliquez sur et saisissez le nom du nœud et le mot de passe pour chaque nœud supplémentaire.
- Cliquez sur . Cliquer sur provoque les actions suivantes :
- Si vous avez sélectionné (Télécharger les paquetages), les paquetages logiciels du cluster sont téléchargés sur les nœuds.
- Les logiciels du cluster sont installés sur les nœuds (sinon, il est vérifié que les bons paquetages logiciels sont installés).
- Le fichier de configuration est mis à jour et propagé vers chaque nœud dans le cluster — y compris vers le nœud ajouté.
- Le nœud ajouté rejoint le cluster.
La page s'affiche avec un message indiquant que le nœud est en train d'être ajouté au cluster. Réactualisez la page pour mettre le statut à jour. - Lorsque le processus d'ajout du nœud est terminé, cliquez sur le nom du nœud pour que le nœud nouvellement ajouté configure le fencing pour le nœud, comme le décrit la Section 3.6, « Configurer des périphériques fence ».
4.3.4. Supprimer un membre d'un cluster Copier lienLien copié sur presse-papiers!
- À partir de la page spécifique aux clusters, cliquez sur en haut de l'affichage du cluster. Ceci affiche les nœuds constituant le cluster. Ceci est aussi la page par défaut apparaissant lorsque vous cliquez sur le nom du cluster en-dessous de sur le côté gauche de la page luci, .
Note
Pour permettre aux services exécutés sur nœud de basculer lorsque le nœud est supprimé, ignorez l'étape suivante. - Désactivez ou déplacez chaque service en cours d'exécution sur le nœud à supprimer. Pour obtenir des informations sur la désactivation et le déplacement des services, voir la Section 4.5, « Gérer les services High-Availability ».
- Sélectionnez le ou les nœud(s) à supprimer.
- Cliquez sur . La page nœuds indique que le nœud est en cours de suppression. Réactualisez la page pour voir le statut actuel.
Important
4.4. Démarrer, arrêter, redémarrer et supprimer des clusters Copier lienLien copié sur presse-papiers!
Not a cluster member.
- Sélectionnez tous les nœuds dans le cluster en cliquant sur la case à cocher à côté de chaque nœud.
- Sélectionnez la fonction dans le menu en haut de la page. Ceci fait apparaître un message en haut de la page indiquant que chaque nœud est en train d'être arrêté.
- Réactualisez la page pour voir le statut mis à jour des nœuds.
- Sélectionnez tous les nœuds dans le cluster en cliquant sur la case à cocher à côté de chaque nœud.
- Sélectionnez la fonction dans le menu en haut de la page.
- Réactualisez la page pour voir le statut mis à jour des nœuds.
Important
- Sélectionnez tous les nœuds dans le cluster en cliquant sur la case à cocher à côté de chaque nœud.
- Sélectionnez la fonction du menu en haut de la page.
4.5. Gérer les services High-Availability Copier lienLien copié sur presse-papiers!
- Démarrer un service
- Redémarrer un service
- Désactiver un service
- Supprimer un service
- Déplacer un service
- — Pour démarrer tout service qui n'est pas en cours d'exécution, sélectionnez le service que vous souhaitez démarrer en cliquant sur sa case à cocher, puis cliquez sur .
- — Pour redémarrer tout service en cours d'exécution, sélectionnez le service que vous souhaitez redémarrer en cliquant sur sa case à cocher, puis cliquez sur .
- — Pour désactiver tout service en cours d'exécution, sélectionnez le service que vous souhaitez désactiver en cliquant sur sa case à cocher, puis cliquez sur .
- — Pour supprimer tout service qui n'est pas en cours d'exécution, sélectionnez le service que vous souhaitez supprimer en cliquant sur sa case à cocher, puis cliquez sur .
- — Pour déplacer un service en cours d'exécution, cliquez sur le nom du service dans l'écran affichant les services. Ceci affiche la page de configuration des services, indiquant sur quel nœud le service est actuellement en cours d'exécution.Dans la boîte déroulante Start on node... (Démarrer sur le nœud...), sélectionnez le nœud sur lequel vous souhaitez déplacer le service, puis cliquez sur l'icône . Un message s'affichera en haut de l'écran, indiquant que le service est en train de démarrer. Vous pourriez devoir réactualiser l'écran pour voir si le service est exécuté sur le nœud que vous avez sélectionné.
Note
Si le service que vous avez sélectionné est un servicevm, la boîte déroulante affichera l'optionmigrerau lieu de l'optiondéplacer.
Note
4.6. Effectuer une copie de sauvegarde et restaurer une configuration Luci Copier lienLien copié sur presse-papiers!
/var/lib/luci/data/luci.db. Il ne s'agit pas de la configuration du cluster, qui est stocké dans le fichier cluster.conf. Au contraire, ce fichier contient la liste des utilisateurs, des clusters et des propriétés liées que luci maintient. Par défaut, la sauvegarde que cette procédure crée sera écrite sur le même répertoire que le fichier luci.db.
- Exécutez
service luci stop. - Exécutez
service luci backup-db.Optionnellement, vous pouvez spécifier un nom de fichier en tant que paramètre pour la commandebackup-db, qui écrira la base de données luci sur ce fichier. Par exemple, pour écrire la base de données luci sur le fichier/root/luci.db.backup, vous pouvez exécuter la commandeservice luci backup-db /root/luci.db.backup. Remarquez cependant que les fichiers de sauvegarde qui sont écrits sur des emplacements autres que/var/lib/luci/data/(pour les sauvegardes dont les noms de fichiers sont spécifiés lors de l'utilisation deservice luci backup-db) n'apparaîtront pas dans la sortie de la commandelist-backups. - Exécutez
service luci start.
- Exécutez
service luci stop. - Exécutez
service luci list-backupset notez le nom du fichier à restaurer. - Exécutez
service luci restore-db /var/lib/luci/data/lucibackupfile, où lucibackupfile est le fichier de sauvegarde à restaurer.Par exemple, la commande suivante restaure les informations de configuration luci qui étaient stockées dans le fichierluci-backup20110923062526.db:service luci restore-db /var/lib/luci/data/luci-backup20110923062526.db
service luci restore-db /var/lib/luci/data/luci-backup20110923062526.dbCopy to Clipboard Copied! Toggle word wrap Toggle overflow - Exécutez
service luci start.
host.pem de la machine sur laquelle vous avez créé la sauvegarde, par exemple à cause d'une réinstallation complète, vous devrez ajouter vos clusters sur luci manuellement afin de ré-authentifier les nœuds du cluster.
luci1 et la sauvegarde est restaurée sur la machine luci2.
- Exécutez la séquence de commandes suivante pour créer une copie de sauvegarde de luci sur
luci1et copiez le fichier certificat SSL et la sauvegarde luci surluci2.service luci stop service luci backup-db service luci list-backups /var/lib/luci/data/luci-backup20120504134051.db scp /var/lib/luci/certs/host.pem /var/lib/luci/data/luci-backup20120504134051.db root@luci2:
[root@luci1 ~]# service luci stop [root@luci1 ~]# service luci backup-db [root@luci1 ~]# service luci list-backups /var/lib/luci/data/luci-backup20120504134051.db [root@luci1 ~]# scp /var/lib/luci/certs/host.pem /var/lib/luci/data/luci-backup20120504134051.db root@luci2:Copy to Clipboard Copied! Toggle word wrap Toggle overflow - Sur la machine
luci2, assurez-vous que luci a été installé et n'est pas en cours d'exécution. Installez le paquet s'il ne l'a pas déjà été. - Exécutez la séquence de commandes suivante afin de vous assurer que les authentifications sont effectuées et pour restaurer la base de données luci de
luci1surluci2.cp host.pem /var/lib/luci/certs/ chown luci: /var/lib/luci/certs/host.pem /etc/init.d/luci restore-db ~/luci-backup20120504134051.db shred -u ~/host.pem ~/luci-backup20120504134051.db service luci start
[root@luci2 ~]# cp host.pem /var/lib/luci/certs/ [root@luci2 ~]# chown luci: /var/lib/luci/certs/host.pem [root@luci2 ~]# /etc/init.d/luci restore-db ~/luci-backup20120504134051.db [root@luci2 ~]# shred -u ~/host.pem ~/luci-backup20120504134051.db [root@luci2 ~]# service luci startCopy to Clipboard Copied! Toggle word wrap Toggle overflow
Chapitre 5. Configurer le module complémentaire Red Hat High Availability avec la commande ccs Copier lienLien copié sur presse-papiers!
ccs. La commande ccs permet à un administrateur de créer, de modifier et d'afficher le fichier de configuration du cluster cluster.conf. Vous pouvez utiliser la commande ccs pour configurer un fichier de configuration de cluster sur un système de fichiers local ou sur un nœud distant. Avec la commande ccs, un administrateur peut aussi démarrer et arrêter les services du cluster sur un ou tous les nœuds d'un cluster configuré.
ccs. Pour obtenir des informations sur l'utilisation de la commande ccs pour gérer un cluster en cours d'exécution, voir Chapitre 6, Gérer le module complémentaire Red Hat High Availability avec ccs.
Note
Note
cluster.conf communément utilisés. Pour obtenir la liste et la description complète des éléments et attributs cluster.conf, reportez-vous au schéma des clusters sur /usr/share/cluster/cluster.rng, et au schéma annoté sur /usr/share/doc/cman-X.Y.ZZ/cluster_conf.html (par exemple, /usr/share/doc/cman-3.0.12/cluster_conf.html).
5.1. Aperçu opérationnel Copier lienLien copié sur presse-papiers!
ccs pour configurer un cluster :
5.1.1. Créer le fichier de configuration du cluster sur un système local Copier lienLien copié sur presse-papiers!
ccs, vous pouvez créer un fichier de configuration de cluster sur un nœud de cluster, ou un fichier de configuration de cluster sur un système de fichiers local, puis envoyer ce fichier sur un hôte dans un cluster. Ceci vous permet de travailler sur un fichier à partir d'une machine locale, où vous pourrez le maintenir sous contrôle de version, ou étiqueter le fichier selon vos besoins. L'utilisation de la commande ccs ne requiert pas le privilège root.
ccs, vous utilisez l'option -h pour spécifier le nom de l'hôte. Ceci crée et modifie le fichier cluster.conf sur l'hôte :
ccs -h host [options]
ccs -h host [options]
-f de la commande ccs pour spécifier le nom du fichier de configuration lorsque vous effectuez une opération de cluster. Vous pouvez nommer ce fichier comme bon vous semble.
ccs -f file [options]
ccs -f file [options]
--setconf de la commande ccs. Sur une machine hôte dans un cluster, le fichier envoyé sera nommé cluster.conf et sera placé dans le répertoire /etc/cluster.
ccs -h host -f file --setconf
ccs -h host -f file --setconf
--setconf de la commande ccs, voir la Section 5.15, « Propager le fichier de configuration sur les nœuds du cluster ».
5.1.2. Afficher la configuration actuelle du cluster Copier lienLien copié sur presse-papiers!
ccs -h host --getconf
ccs -h host --getconf
-f au lieu de l'option -h, comme décrit dans la Section 5.1.1, « Créer le fichier de configuration du cluster sur un système local ».
5.1.3. Spécifier les mots de passe ricci avec la commande css Copier lienLien copié sur presse-papiers!
ccs qui distribuent des copies du fichier cluster.conf aux nœuds d'un cluster requiert que ricci soit installé et exécuté sur les nœuds du cluster, comme décrit dans la Section 2.13, « Considérations pour ricci ». L'utilisation de ricci requiert un mot de passe la première fois que vous aurez une interaction avec ricci, et ce, depuis n'importe quelle machine spécifique.
ccs le requerra. Alternativement, vous pouvez utiliser l'option -p pour spécifier un mot de passe ricci sur la ligne de commande.
ccs -h host -p password --sync --activate
ccs -h host -p password --sync --activate
cluster.conf vers tous les nœuds du cluster avec l'option --sync de la commande ccs et que vous spécifiez un mot de passe ricci pour la commande, la commande ccs utilisera ce mot de passe pour chaque nœud du cluster. Si vous devez définir différents mots de passe pour ricci sur des nœuds individuels, vous pouvez utiliser l'option --setconf avec l'option -p pour distribuer le fichier de configuration sur un nœud à la fois.
5.1.4. Modifier les composants de la configuration du cluster Copier lienLien copié sur presse-papiers!
ccs pour configurer les composants du cluster et leurs attributs dans le fichier de configuration du cluster. Après avoir ajouté un composant de cluster au fichier dans le but de modifier les attributs de ce composant, vous devrez supprimer le composant quvous avez défini puis ajouter ce composant à nouveau, avec les attributs modifiés. Des informations sur la manière d'effectuer cela avec chaque composant sont fournies dans des sections individuelles de ce chapitre.
cman fournissent une exception à cette procédure pour modifier les composants de clusters. Pour modifier ces attributs, exécutez l'option --setcman de la commande ccs, en spécifiant les nouveaux attributs. Remarquez que spécifier cette option ré-initialisera toutes les valeurs que vous n'aurez pas explicitement spécifié comme étant des valeurs par défaut, comme le décrit la Section 5.1.5, « Commandes remplaçant les paramètres précédents ».
5.1.5. Commandes remplaçant les paramètres précédents Copier lienLien copié sur presse-papiers!
ccs qui implémentent des sémantiques de remplacement lors de la définition de propriétés. Cela signifie que vous pouvez exécuter la commande ccs avec l'une de ces options sans spécifier de paramètres et tous les paramètres seront ré-initialisés à leurs valeurs par défaut. Ces options sont comme suit :
--settotem--setdlm--setrm--setcman--setmulticast--setaltmulticast--setfencedaemon--setlogging--setquorumd
ccs -h hostname --setfencedaemon
# ccs -h hostname --setfencedaemon
post_fail_delay sur 5 :
ccs -h hostname --setfencedaemon post_fail_delay=5
# ccs -h hostname --setfencedaemon post_fail_delay=5
post_join_delay sur 10, la propriété post_fail_delay sera restaurée à sa valeur par défaut :
ccs -h hostname --setfencedaemon post_join_delay=10
# ccs -h hostname --setfencedaemon post_join_delay=10
post_fail_delay et post_join_delay, indiquez-les toutes les deux sur la même commande, comme dans l'exemple suivant :
ccs -h hostname --setfencedaemon post_fail_delay=5 post_join_delay=10
# ccs -h hostname --setfencedaemon post_fail_delay=5 post_join_delay=10
5.1.6. Validation de la configuration Copier lienLien copié sur presse-papiers!
ccs pour créer et modifier le fichier de configuration du cluster, la configuration est automatiquement validée selon le schéma du cluster. À partir de Red Hat Enterprise Linux 6.3, la commande ccs valide la configuration selon le schéma du cluster de /usr/share/cluster/cluster.rng sur le nœud que spécifierez avec l'option -h. Auparavant, la commande ccs utilisait toujours le schéma du cluster empaqueté avec la commande ccs-même, /usr/share/ccs/cluster.rng sur le système local. Lorsque vous utilisez l'option -f pour spécifier le système local, la commande ccs utilise toujours le schéma du cluster /usr/share/ccs/cluster.rng qui était empaqueté avec la commande ccs-même sur ce système.
5.2. Tâches de configuration Copier lienLien copié sur presse-papiers!
ccs comprend les étapes suivantes :
- S'assurer que ricci est en cours d'exécution sur tous les nœuds du cluster. Reportez-vous à la Section 5.3, « Démarrage de ricci ».
- Création d'un cluster. Reportez-vous à la Section 5.4, « Créer un cluster ».
- Configuration des périphériques fence. Reportez-vous à la Section 5.5, « Configuration des périphériques fence ».
- Configuration du fencing pour les membres du cluster. Reportez-vous à la Section 5.7, « Configuration du fencing pour les membres du cluster ».
- Création de domaines de basculements. Reportez-vous à la Section 5.8, « Configurer un domaine de basculement ».
- Création de ressources. Reportez-vous à la Section 5.9, « Configurer les ressources globales du cluster ».
- Création de services de clusters. Reportez-vous à la Section 5.10, « Ajouter un service cluster à un cluster ».
- Configuration d'un disque quorum. Reportez-vous à la Section 5.13, « Configurer un disque Quorum : ».
- Configuration des propriétés globales du cluster. Reportez-vous à la Section 5.14, « Diverses configurations de clusters ».
- Propagation du fichier de configuration du cluster à tous les nœuds du cluster. Reportez-vous à la Section 5.15, « Propager le fichier de configuration sur les nœuds du cluster ».
5.3. Démarrage de ricci Copier lienLien copié sur presse-papiers!
- Les ports IP des nœuds de votre cluster doivent être activés pour ricci. Pour obtenir des informations sur l'activation des ports IP sur les nœuds de clusters, voir la Section 2.3.1, « Activation des ports IP sur des nœuds de clusters ».
- Le service ricci est installé sur tous les nœuds du cluster et possède un mot de passe ricci, comme décrit dans la Section 2.13, « Considérations pour
ricci».
service ricci start Starting ricci: [ OK ]
# service ricci start
Starting ricci: [ OK ]
5.4. Créer un cluster Copier lienLien copié sur presse-papiers!
ccs sans utiliser de fencing, de domaines de basculement et de services HA. Les sections suivantes décrivent comment configurer ces parties de la configuration.
- Créez un fichier de configuration de cluster sur l'un des nœuds du cluster en exécutant la commande
ccset en utilisant le paramètre-hpour spécifier le nœud sur lequel créer le fichier ainsi que l'optioncreateclusterpour spécifier un nom pour le cluster :ccs -h host --createcluster clustername
ccs -h host --createcluster clusternameCopy to Clipboard Copied! Toggle word wrap Toggle overflow Par exemple, la commande suivante crée un fichier de configuration surnode-01.example.comnommémycluster:ccs -h node-01.example.com --createcluster mycluster
ccs -h node-01.example.com --createcluster myclusterCopy to Clipboard Copied! Toggle word wrap Toggle overflow Le nom du cluster ne doit pas excéder 15 caractères.Si un fichiercluster.confexiste déjà sur l'hôte spécifié, l'exécution de cette commande remplacera le fichier existant.Si vous souhaitez créer un fichier de configuration de cluster sur votre système local, vous pouvez spécifier l'option-fau lieu de l'option-h. Pour obtenir des informations sur la création locale du fichier, reportez-vous à la Section 5.1.1, « Créer le fichier de configuration du cluster sur un système local ». - Pour configurer les nœuds contenus par le cluster, exécutez la commande suivante sur chaque nœud du cluster :
ccs -h host --addnode node
ccs -h host --addnode nodeCopy to Clipboard Copied! Toggle word wrap Toggle overflow Par exemple, les trois commandes suivantes ajoutent les nœudsnode-01.example.com,node-02.example.com, etnode-03.example.comau fichier de configuration surnode-01.example.com:ccs -h node-01.example.com --addnode node-01.example.com ccs -h node-01.example.com --addnode node-02.example.com ccs -h node-01.example.com --addnode node-03.example.com
ccs -h node-01.example.com --addnode node-01.example.com ccs -h node-01.example.com --addnode node-02.example.com ccs -h node-01.example.com --addnode node-03.example.comCopy to Clipboard Copied! Toggle word wrap Toggle overflow Pour afficher une liste des nœuds qui ont été configurés pour un cluster, exécutez la commande suivante :ccs -h host --lsnodes
ccs -h host --lsnodesCopy to Clipboard Copied! Toggle word wrap Toggle overflow L'Exemple 5.1, « Fichiercluster.confaprès l'ajout de trois nœuds » affiche un fichier de configurationcluster.confune fois que vous avez créé le clustermycluster, celui-ci contient les nœudsnode-01.example.com,node-02.example.cometnode-03.example.com.Exemple 5.1. Fichier
cluster.confaprès l'ajout de trois nœudsCopy to Clipboard Copied! Toggle word wrap Toggle overflow Lorsque vous ajoutez un nœud au cluster, vous pouvez spécifier le nombre de votes auquel le nœud contribue afin de déterminer si le quorum est atteint. Pour ajuster le nombre de vote d'un nœud de cluster, veuillez utiliser la commande suivante :ccs -h host --addnode host --votes votes
ccs -h host --addnode host --votes votesCopy to Clipboard Copied! Toggle word wrap Toggle overflow Lorsque vous ajoutez un nœud,ccsassigne à celui-ci un entier unique qui est utilisé en tant qu'identifiant de nœud. Sivous souhaitez spécifier l'identifiant du nœud manuellement lorsque vous créez un nœud, utilisez la commande suivante :ccs -h host --addnode host --nodeid nodeid
ccs -h host --addnode host --nodeid nodeidCopy to Clipboard Copied! Toggle word wrap Toggle overflow Pour supprimer un nœud d'un cluster, exécutez la commande suivante :ccs -h host --rmnode node
ccs -h host --rmnode nodeCopy to Clipboard Copied! Toggle word wrap Toggle overflow
5.5. Configuration des périphériques fence Copier lienLien copié sur presse-papiers!
- L'attribut
post_fail_delaycorrespond au nombre de secondes que le démon fence (fenced) attend avant de fencer » n n«oeud (un membre du domaine fence) une fois que celui-ci a échoué. - L'attribut
post-join_delaycorrespond au nombre de secondes que le démon Fence (fenced) attend avant de clôturer un nœud après que le nœud a rejoint le domaine fence. La valeur par défaut depost_join_delayest6. Typiquement, le paramètre de délai depost_join_delayse situe entre 20 et 30 secondes, mais celui-ci peut varier en fonction de la performance du cluster et du réseau.
post_fail_delay et post_join_delay avec l'option --setfencedaemon de la commande ccs. Remarquez cependant que l'exécution de la commande ccs --setfencedaemon remplace toutes les propriétés du démon fence existant ayant été explicitement paramétrées et restaurera leurs valeurs par défaut.
post_fail_delay, exécutez la commande suivante. Cette commande remplacera les valeurs de toutes les autres propriétés existantes du démon fence que vous aurez paramétré avec cette commande et restaurera leurs valeurs par défaut.
ccs -h host --setfencedaemon post_fail_delay=value
ccs -h host --setfencedaemon post_fail_delay=value
post_join_delay, exécutez la commande suivante. Cette commande remplacera les valeurs de toutes les autres propriétés existantes du démon fence que vous aurez paramétré avec cette commande et restaurera leurs valeurs par défaut.
ccs -h host --setfencedaemon post_join_delay=value
ccs -h host --setfencedaemon post_join_delay=value
post_join_delay et post_fail_delay, veuillez exécuter la commande suivante :
ccs -h host --setfencedaemon post_fail_delay=value post_join_delay=value
ccs -h host --setfencedaemon post_fail_delay=value post_join_delay=value
Note
post_join_delay et post_fail_delay ainsi que sur les propriétés supplémentaires du démon fence que vous pouvez modifier, reportez-vous à la page man fenced(8), au schéma des clusters sur /usr/share/cluster/cluster.rng et au schéma annoté sur /usr/share/doc/cman-X.Y.ZZ/cluster_conf.html.
ccs -h host --addfencedev devicename [fencedeviceoptions]
ccs -h host --addfencedev devicename [fencedeviceoptions]
node1 nommé myfence avec l'adresse IP apc_ip_example, l'identifiant de connexion login_example, et le mot de passe password_example, exécutez la commande suivante :
ccs -h node1 --addfencedev myfence agent=fence_apc ipaddr=apc_ip_example login=login_example passwd=password_example
ccs -h node1 --addfencedev myfence agent=fence_apc ipaddr=apc_ip_example login=login_example passwd=password_example
fencedevices du fichier de configuration cluster.conf une fois ce périphérique fence APC ajouté :
<fencedevices>
<fencedevice agent="fence_apc" ipaddr="apc_ip_example" login="login_example" name="myfence" passwd="password_example"/>
</fencedevices>
<fencedevices>
<fencedevice agent="fence_apc" ipaddr="apc_ip_example" login="login_example" name="myfence" passwd="password_example"/>
</fencedevices>
ccs pour imprimer une liste des périphériques fence et options disponibles ou pour imprimer une liste des périphériques fence actuellement configurés pour votre cluster, reportez-vous à la Section 5.6, « Répertorier les périphériques fence et les options de périphériques fence ».
ccs -h host --rmfencedev fence_device_name
ccs -h host --rmfencedev fence_device_name
myfence depuis le fichier de configuration du cluster du nœud de cluster node1, exécutez la commande suivante :
ccs -h node1 --rmfencedev myfence
ccs -h node1 --rmfencedev myfence
5.6. Répertorier les périphériques fence et les options de périphériques fence Copier lienLien copié sur presse-papiers!
ccs pour imprimer une liste des périphériques fence disponibles et pour imprimer une liste des options pour chaque type fence disponible. Vous pouvez aussi utiliser la commande ccs pour imprimer une liste des périphériques fence actuellement configurés pour votre cluster.
ccs -h host --lsfenceopts
ccs -h host --lsfenceopts
node1 du cluster, affichant un exemple de sortie.
ccs -h host --lsfenceopts fence_type
ccs -h host --lsfenceopts fence_type
fence_wti.
ccs -h host --lsfencedev
ccs -h host --lsfencedev
5.7. Configuration du fencing pour les membres du cluster Copier lienLien copié sur presse-papiers!
5.7.1. Configurer un périphérique fence unique basé sur l'alimentation pour un nœud Copier lienLien copié sur presse-papiers!
apc utilisant l'agent de fencing fence_apc.
- Ajoutez une méthode fence pour le nœud, en fournissant un nom pour la méthode fence.
ccs -h host --addmethod method node
ccs -h host --addmethod method nodeCopy to Clipboard Copied! Toggle word wrap Toggle overflow Par exemple, pour configurer une méthode fence nomméeAPCpour le nœudnode-01.example.comdans le fichier de configuration sur le nœud du clusternode-01.example.com, exécutez la commande suivante :ccs -h node01.example.com --addmethod APC node01.example.com
ccs -h node01.example.com --addmethod APC node01.example.comCopy to Clipboard Copied! Toggle word wrap Toggle overflow - Ajoutez une instance fence à la méthode. Vous devez spécifier le périphérique fence à utiliser pour le nœud, le nœud auquel s'applique cette instance, le nom de la méthode, et toute autre option de cette méthode qui serait spécifique à ce nœud :
ccs -h host --addfenceinst fencedevicename node method [options]
ccs -h host --addfenceinst fencedevicename node method [options]Copy to Clipboard Copied! Toggle word wrap Toggle overflow Par exemple, pour configurer une instance fence dans le fichier de configuration sur le nœud du clusternode-01.example.comqui utilise le port d'alimentation 1 de l'interrupteur APC sur le périphérique fence nomméapcpour clore le nœud du clusternode-01.example.comà l'aide de la méthode nomméeAPC, exécutez la commande suivante :ccs -h node01.example.com --addfenceinst apc node01.example.com APC port=1
ccs -h node01.example.com --addfenceinst apc node01.example.com APC port=1Copy to Clipboard Copied! Toggle word wrap Toggle overflow
APC. Le périphérique pour la méthode fence spécifie apc comme nom de périphérique, qui est un périphérique précédemment configuré avec l'option --addfencedev, comme le décrit la Section 5.5, « Configuration des périphériques fence ». Chaque nœud est configuré avec un numéro de port d'alimentation de l'interrupteur APC unique : le numéro de port de node-01.example.com est 1, le numéro de port de node-02.example.com est 2, et le numéro de port de node-03.example.com est 3.
cluster.conf après avoir ajouté des méthodes fence basées sur l'alimentation » montrera un fichier de configuration cluster.conf une fois que vous aurez ajouté ces méthodes et instances de fencing à chaque nœud du cluster.
Exemple 5.2. cluster.conf après avoir ajouté des méthodes fence basées sur l'alimentation
5.7.2. Configurer un périphérique fence unique basé sur stockage pour un nœud Copier lienLien copié sur presse-papiers!
on ou de enable.
fence_node(8).
sanswitch1 utilisant l'agent de fencing fence_sanbox2.
- Ajoutez une méthode fence pour le nœud, en fournissant un nom pour la méthode fence.
ccs -h host --addmethod method node
ccs -h host --addmethod method nodeCopy to Clipboard Copied! Toggle word wrap Toggle overflow Par exemple, pour configurer une méthode fence nomméeSANpour le nœudnode-01.example.comdans le fichier de configuration du nœud du clusternode-01.example.com, exécutez la commande suivante :ccs -h node01.example.com --addmethod SAN node01.example.com
ccs -h node01.example.com --addmethod SAN node01.example.comCopy to Clipboard Copied! Toggle word wrap Toggle overflow - Ajoutez une instance fence à la méthode. Vous devez spécifier le périphérique fence à utiliser pour le nœud, le nœud auquel s'applique cette instance, le nom de la méthode, et toute autre option de cette méthode qui serait spécifique à ce nœud :
ccs -h host --addfenceinst fencedevicename node method [options]
ccs -h host --addfenceinst fencedevicename node method [options]Copy to Clipboard Copied! Toggle word wrap Toggle overflow Par exemple, pour configurer une instance fence dans le fichier de configuration du nœud du clusternode-01.example.comqui utilise le port d'alimentation 11 de l'interrupteur SAN sur le périphérique fence nommésanswitch1afin qu'il clôture le nœud du clusternode-01.example.comà l'aide de la méthode nomméeSAN, exécutez la commande suivante :ccs -h node01.example.com --addfenceinst sanswitch1 node01.example.com SAN port=11
ccs -h node01.example.com --addfenceinst sanswitch1 node01.example.com SAN port=11Copy to Clipboard Copied! Toggle word wrap Toggle overflow - Pour configurer unfencing pour le périphérique fence basé sur stockage de ce nœud, exécutez la commande suivante :
ccs -h host --addunfence fencedevicename node action=on|off
ccs -h host --addunfence fencedevicename node action=on|offCopy to Clipboard Copied! Toggle word wrap Toggle overflow
SAN. Le périphérique de la méthode fence spécifie sanswitch comme nom de périphérique, qui est un périphérique précédemment configuré avec l'option --addfencedev, comme le décrit la Section 5.5, « Configuration des périphériques fence ». Chaque nœud est configuré avec un numéro de port physique SAN unique : le numéro de port de node-01.example.com est 11, le numéro de port de node-02.example.com est 12, et le numéro de port de node-03.example.com est 13.
cluster.conf après avoir ajouté des méthodes fence basé sur stockage » montre un fichier de configuration cluster.conf après avoir ajouté des méthodes de fencing, des instances de fencing et « l'unfencing » à chaque nœud du cluster.
Exemple 5.3. cluster.conf après avoir ajouté des méthodes fence basé sur stockage
5.7.3. Configurer un périphérique fence de sauvegarde Copier lienLien copié sur presse-papiers!
Note
ccs est la méthode de fencing primaire et la seconde méthode configurée est la méthode de fencing de sauvegarde. Pour changer l'ordre, vous pouvez supprimer la méthode de fencing primaire du fichier de configuration, puis ajoutez cette méthode à nouveau.
ccs -h host --lsfenceinst [node]
ccs -h host --lsfenceinst [node]
apc qui utilise l'agent de fencing fence_apc et un périphérique de fencing de sauvegarde utilisant un périphérique fence nommé sanswitch1 qui utilise l'agent de fencing fence_sanbox2. Comme le périphérique sanswitch1 est un agent de fencing basé sur stockage, vous devrez aussi configurer « l'unfencing » pour ce périphérique.
- Ajouter une méthode fence primaire pour le nœud, en fournissant un nom pour la méthode fence.
ccs -h host --addmethod method node
ccs -h host --addmethod method nodeCopy to Clipboard Copied! Toggle word wrap Toggle overflow Par exemple, pour configurer une méthode fence nomméeAPCcomme méthode primaire pour le nœudnode-01.example.comdans le fichier de configuration sur le nœud du clusternode-01.example.com, exécutez la commande suivante :ccs -h node01.example.com --addmethod APC node01.example.com
ccs -h node01.example.com --addmethod APC node01.example.comCopy to Clipboard Copied! Toggle word wrap Toggle overflow - Ajoutez une instance fence pour la méthode primaire. Vous devez spécifier le périphérique fence à utiliser pour le nœud, le nœud auquel s'applique cette instance, le nom de la méthode et toutes les options de cette méthode qui sont spécifiques à ce nœud :
ccs -h host --addfenceinst fencedevicename node method [options]
ccs -h host --addfenceinst fencedevicename node method [options]Copy to Clipboard Copied! Toggle word wrap Toggle overflow Par exemple, pour configurer une instance fence dans le fichier de configuration sur le nœud du clusternode-01.example.comqui utilise le port d'alimentation 1 de l'interrupteur APC sur le périphérique fence nomméapcpour clore le nœud du clusternode-01.example.comà l'aide de la méthode nomméeAPC, exécutez la commande suivante :ccs -h node01.example.com --addfenceinst apc node01.example.com APC port=1
ccs -h node01.example.com --addfenceinst apc node01.example.com APC port=1Copy to Clipboard Copied! Toggle word wrap Toggle overflow - Ajoutez une méthode fence de sauvegarde pour ce nœud, tout en fournissant un nom pour la méthode fence.
ccs -h host --addmethod method node
ccs -h host --addmethod method nodeCopy to Clipboard Copied! Toggle word wrap Toggle overflow Par exemple, pour configurer une méthode fence de sauvegarde nomméeSANpour le nœudnode-01.example.comdans le fichier de configuration sur le nœud du clusternode-01.example.com, exécutez la commande suivante :ccs -h node01.example.com --addmethod SAN node01.example.com
ccs -h node01.example.com --addmethod SAN node01.example.comCopy to Clipboard Copied! Toggle word wrap Toggle overflow - Ajoutez une instance fence pour la méthode de sauvegarde. Vous devez spécifier le périphérique fence à utiliser pour le nœud, le nœud auquel s'applique cette instance, le nom de la méthode et toutes les options de cette méthode qui sont spécifiques à ce nœud :
ccs -h host --addfenceinst fencedevicename node method [options]
ccs -h host --addfenceinst fencedevicename node method [options]Copy to Clipboard Copied! Toggle word wrap Toggle overflow Par exemple, pour configurer une instance fence dans le fichier de configuration du nœud du clusternode-01.example.comqui utilise le port d'alimentation 11 de l'interrupteur SAN sur le périphérique fence nommésanswitch1afin qu'il clôture le nœud du clusternode-01.example.comà l'aide de la méthode nomméeSAN, exécutez la commande suivante :ccs -h node01.example.com --addfenceinst sanswitch1 node01.example.com SAN port=11
ccs -h node01.example.com --addfenceinst sanswitch1 node01.example.com SAN port=11Copy to Clipboard Copied! Toggle word wrap Toggle overflow - Comme le périphérique
sanswitch1est un périphérique basé sur stockage, vous devez configurer unfencing pour celui-ci.ccs -h node01.example.com --addunfence sanswitch1 node01.example.com port=11 action=on
ccs -h node01.example.com --addunfence sanswitch1 node01.example.com port=11 action=onCopy to Clipboard Copied! Toggle word wrap Toggle overflow
cluster.conf après avoir ajouté des méthodes fence de sauvegarde » montre un fichier de configuration cluster.conf après avoir ajouté une méthode de fencing primaire basé sur l'alimentation et une méthode de fencing de sauvegarde basé sur stockage à chaque nœud du cluster.
Exemple 5.4. cluster.conf après avoir ajouté des méthodes fence de sauvegarde
Note
5.7.4. Configurer un nœud avec une alimentation redondante Copier lienLien copié sur presse-papiers!
action sur on.
- Avant de pouvoir configurer le fencing pour un nœud avec une alimentation redondante, vous devez configurer chaque interrupteur de l'alimentation en tant que périphérique fence pour le cluster. Pour obtenir des informations sur la configuration des périphériques fence, voir la Section 5.5, « Configuration des périphériques fence ».Pour imprimer une liste des périphériques fence actuellement configurés pour votre cluster, exécutez la commande suivante :
ccs -h host --lsfencedev
ccs -h host --lsfencedevCopy to Clipboard Copied! Toggle word wrap Toggle overflow - Ajoutez une méthode fence pour le nœud, en fournissant un nom pour la méthode fence.
ccs -h host --addmethod method node
ccs -h host --addmethod method nodeCopy to Clipboard Copied! Toggle word wrap Toggle overflow Par exemple, pour configurer une méthode nomméeAPC-dualpour le nœudnode-01.example.comdans le fichier de configuration du nœud du clusternode-01.example.com, exécutez la commande suivante :ccs -h node01.example.com --addmethod APC-dual node01.example.com
ccs -h node01.example.com --addmethod APC-dual node01.example.comCopy to Clipboard Copied! Toggle word wrap Toggle overflow - Ajoutez une instance fence pour la première alimentation électrique à la méthode fence. Vous devez spécifier le périphérique fence à utiliser pour le nœud, le nœud auquel cette instance s'applique, le nom de la méthode, et toutes les options de cette méthode qui sont spécifiques à ce nœud. À ce moment, configurez l'attribut
actionsuroff.ccs -h host --addfenceinst fencedevicename node method [options] action=off
ccs -h host --addfenceinst fencedevicename node method [options] action=offCopy to Clipboard Copied! Toggle word wrap Toggle overflow Par exemple, pour configurer une instance fence dans le fichier de configuration du nœud du clusternode-01.example.com, qui utilise le port d'alimentation 1 de l'interrupteur APC du périphérique fence nomméapc1, pour clôturer le nœud du clusternode-01.example.com, qui utilise la méthode nomméeAPC-dual, et pour paramétrer l'attributactionsuroff, exécutez la commande suivante :ccs -h node01.example.com --addfenceinst apc1 node01.example.com APC-dual port=1 action=off
ccs -h node01.example.com --addfenceinst apc1 node01.example.com APC-dual port=1 action=offCopy to Clipboard Copied! Toggle word wrap Toggle overflow - Ajoutez une instance fence pour la seconde alimentation à la méthode fence. Vous devez spécifier le périphérique fence à utiliser pour le nœud, le nœud auquel s'applique cette instance, le nom de la méthode et toutes les options de cette méthode qui sont spécifiques à ce nœud. À ce moment, configurez aussi l'attribut
actionsuroffpour cette instance :ccs -h host --addfenceinst fencedevicename node method [options] action=off
ccs -h host --addfenceinst fencedevicename node method [options] action=offCopy to Clipboard Copied! Toggle word wrap Toggle overflow Par exemple, pour configurer une seconde instance fence dans le fichier de configuration du nœud du clusternode-01.example.com, qui utilise le port d'alimentation 1 de l'interrupteur APC du périphérique fence nomméapc2, pour clôturer le nœud du clusternode-01.example.com, qui utilise la même méthode que pour la première instance nomméeAPC-dual, et pour paramétrer l'attributactionsuroff, exécutez la commande suivante :ccs -h node01.example.com --addfenceinst apc2 node01.example.com APC-dual port=1 action=off
ccs -h node01.example.com --addfenceinst apc2 node01.example.com APC-dual port=1 action=offCopy to Clipboard Copied! Toggle word wrap Toggle overflow - À ce moment, ajoutez une autre instance fence pour la première alimentation à la méthode fence, tout en configurant l'attribut
actionsuron. Vous devez spécifier le périphérique fence à utiliser pour le nœud, le nœud auquel s'applique cette instance, le nom de la méthode et toutes les options de cette méthode qui sont spécifiques à ce nœud, puis spécifiez l'attributactioncomme étanton:ccs -h host --addfenceinst fencedevicename node method [options] action=on
ccs -h host --addfenceinst fencedevicename node method [options] action=onCopy to Clipboard Copied! Toggle word wrap Toggle overflow Par exemple, pour configurer une instance fence dans le fichier de configuration du nœud du clusternode-01.example.com, qui utilise le port d'alimentation 1 de l'interrupteur APC du périphérique fence nomméapc1, pour clôturer le nœud du clusternode-01.example.com, qui utilise la méthode nomméeAPC-dual, et pour paramétrer l'attributactionsuron, exécutez la commande suivante :ccs -h node01.example.com --addfenceinst apc1 node01.example.com APC-dual port=1 action=on
ccs -h node01.example.com --addfenceinst apc1 node01.example.com APC-dual port=1 action=onCopy to Clipboard Copied! Toggle word wrap Toggle overflow - Ajoutez une autre instance fence pour la seconde alimentation à la méthode fence, tout en spécifiant l'attribut
actionde cette instance suron. Vous devez spécifier le périphérique fence à utiliser pour le nœud, le nœud auquel s'applique cette instance, le nom de la méthode et toutes les options de cette méthode qui sont spécifiques à ce nœud, ainsi que spécifier l'attributactionsuron:ccs -h host --addfenceinst fencedevicename node method [options] action=on
ccs -h host --addfenceinst fencedevicename node method [options] action=onCopy to Clipboard Copied! Toggle word wrap Toggle overflow Par exemple, pour configurer une seconde instance fence dans le fichier de configuration du nœud du clusternode-01.example.com, qui utilise le port d'alimentation 1 de l'interrupteur APC du périphérique fence nomméapc2, pour clôturer le nœud du clusternode-01.example.com, qui utilise la même méthode que pour la première instance nomméeAPC-dual, et pour paramétrer l'attributactionsuron, exécutez la commande suivante :ccs -h node01.example.com --addfenceinst apc2 node01.example.com APC-dual port=1 action=on
ccs -h node01.example.com --addfenceinst apc2 node01.example.com APC-dual port=1 action=onCopy to Clipboard Copied! Toggle word wrap Toggle overflow
cluster.conf après avoir ajouté le fencing à double alimentation » montre un fichier de configuration cluster.conf après avoir ajouté le fencing sur deux alimentations électriques pour chaque nœud dans un cluster :
Exemple 5.5. cluster.conf après avoir ajouté le fencing à double alimentation
5.7.5. Supprimer les méthodes et instances fence Copier lienLien copié sur presse-papiers!
ccs -h host --rmmethod method node
ccs -h host --rmmethod method node
APC que vous avez configuré pour node01.example.com depuis le fichier de configuration sur le nœud du cluster node01.example.com, exécutez la commande suivante :
ccs -h node01.example.com --rmmethod APC node01.example.com
ccs -h node01.example.com --rmmethod APC node01.example.com
ccs -h host --rmfenceinst fencedevicename node method
ccs -h host --rmfenceinst fencedevicename node method
apc1 de la méthode nommée APC-dual configurée pour node01.example.com du fichier de configuration du cluster du nœud du cluster node01.example.com, exécutez la commande suivante :
ccs -h node01.example.com --rmfenceinst apc1 node01.example.com APC-dual
ccs -h node01.example.com --rmfenceinst apc1 node01.example.com APC-dual
5.8. Configurer un domaine de basculement Copier lienLien copié sur presse-papiers!
- Unrestricted — Ceci vous permet de spécifier qu'un sous-ensemble de membres est préféré, mais qu'un service cluster assigné à ce domaine peut s'exécuter sur n'importe quel membre disponible.
- Restricted — Ceci vous permet de restreindre les membres pouvant exécuter un service cluster en particulier. Si aucun des membres dans un domaine de basculement restricted n'est disponible, le service cluster ne pourra pas être lancé (manuellement ou par le logiciel du cluster).
- Unordered — Lorsqu'un service cluster est assigné à un domaine de basculement unordered, le membre sur lequel le service cluster est exécuté est choisi parmi les membres disponibles du domaine de basculement sans ordre de priorité.
- Ordered — Ceci vous permet de spécifier un ordre de préférence parmi les membres d'un domaine de basculement. Le membre le plus haut dans la liste est le préféré, suivi par le second membre dans la liste, et ainsi de suite.
- Failback — Ceci vous permet de spécifier si un service dans le domaine de basculement devrait être restauré sur le nœud sur lequel il était initialement exécuté avant que ce nœud tombe en panne. La configuration de cette caractéristique est utile dans des circonstances où un nœud tombe en panne de manière répétitive et fait partie d'un domaine de basculement ordered. Dans ces circonstances, si un nœud est le nœud préféré dans un domaine de basculement, il est possible qu'un service tombe en panne puis se restaure de manière répétitive entre le nœud préféré et un autre nœud, affectant sévèrement la performance.
Note
La caractéristique failback est uniquement applicable si le basculement ordered est configuré.
Note
Note
httpd), qui requiert que vous paramétriez la configuration de manière identique sur tous les membres exécutant le service cluster. Au lieu de paramétrer le cluster entier afin qu'il exécute le service cluster, il vous est possible de paramétrer uniquement les membres dans le domaine de basculement restricted que vous associerez au service cluster.
Note
- Pour ajouter un domaine de basculement, exécutez la commande suivante :
ccs -h host --addfailoverdomain name [restricted] [ordered] [nofailback]
ccs -h host --addfailoverdomain name [restricted] [ordered] [nofailback]Copy to Clipboard Copied! Toggle word wrap Toggle overflow Note
Le nom doit être suffisamment descriptif pour distinguer son but par rapport aux autres noms utilisés dans votre cluster.Par exemple, la commande suivante configure un domaine de basculement nomméexample_prisurnode-01.example.com, qui est unrestricted, ordered, et permet le failback :ccs -h node-01.example.com --addfailoverdomain example_pri ordered
ccs -h node-01.example.com --addfailoverdomain example_pri orderedCopy to Clipboard Copied! Toggle word wrap Toggle overflow - Pour ajouter un nœud au domaine de basculement, exécutez la commande suivante :
ccs -h host --addfailoverdomainnode failoverdomain node priority
ccs -h host --addfailoverdomainnode failoverdomain node priorityCopy to Clipboard Copied! Toggle word wrap Toggle overflow Par exemple, pour configurer le domaine de basculementexample_pridu fichier de configuration surnode-01.example.comafin qu'il contiennenode-01.example.comavec une priorité de 1,node-02.example.comavec une priorité de 2 etnode-03.example.comavec une priorité de 3, exécutez les commandes suivantes :ccs -h node-01.example.com --addfailoverdomainnode example_pri node-01.example.com 1 ccs -h node-01.example.com --addfailoverdomainnode example_pri node-02.example.com 2 ccs -h node-01.example.com --addfailoverdomainnode example_pri node-03.example.com 3
ccs -h node-01.example.com --addfailoverdomainnode example_pri node-01.example.com 1 ccs -h node-01.example.com --addfailoverdomainnode example_pri node-02.example.com 2 ccs -h node-01.example.com --addfailoverdomainnode example_pri node-03.example.com 3Copy to Clipboard Copied! Toggle word wrap Toggle overflow
ccs -h host --lsfailoverdomain
ccs -h host --lsfailoverdomain
ccs -h host --rmfailoverdomain name
ccs -h host --rmfailoverdomain name
ccs -h host --rmfailoverdomainnode failoverdomain node
ccs -h host --rmfailoverdomainnode failoverdomain node
5.9. Configurer les ressources globales du cluster Copier lienLien copié sur presse-papiers!
- Global — Les ressources disponibles à tous les services dans le cluster.
- Service-specific — Les ressources disponibles à un seul service.
ccs -h host --lsservices
ccs -h host --lsservices
ccs -h host --addresource resourcetype [resource options]
ccs -h host --addresource resourcetype [resource options]
node01.example.com. Le nom de la ressource est web_fs, le périphérique du système de fichier est /dev/sdd2, le point de montage du système de fichiers est /var/www, et le type de système de fichiers est ext3.
ccs -h node01.example.com --addresource fs name=web_fs device=/dev/sdd2 mountpoint=/var/www fstype=ext3
ccs -h node01.example.com --addresource fs name=web_fs device=/dev/sdd2 mountpoint=/var/www fstype=ext3
ccs -h host --rmresource resourcetype [resource options]
ccs -h host --rmresource resourcetype [resource options]
5.10. Ajouter un service cluster à un cluster Copier lienLien copié sur presse-papiers!
- Ajoutez un service au cluster avec la commande suivante :
ccs -h host --addservice servicename [service options]
ccs -h host --addservice servicename [service options]Copy to Clipboard Copied! Toggle word wrap Toggle overflow Note
Utilisez un nom descriptif qui distingue clairement le service des autres services dans le cluster.Lorsque vous ajoutez un service à la configuration du cluster, vous devez configurer les attributs suivants :autostart— Spécifie s'il faut démarrer le service automatiquement lorsque le cluster démarre. Veuillez utiliser « 1 » pour activer et « 0 » pour désactiver, le service est activé par défaut.domain— Spécifie un domaine de basculement (s'il est requis).exclusive— Spécifie une politique où le service s'exécute uniquement sur des nœuds sur lesquels aucun autre service ne s'exécute.recovery— Spécifie une stratégie de récupération pour le service. Les options pour le service sont « relocate » (déplacer), « restart » (redémarrer), « disable » (désactiver), ou « restart-disable » (redémarrer-désactiver). La stratégie de récupération « restart » (redémarrer) indique que le système devrait tenter de redémarrer le service en échec avant de tenter de déplacer le service vers un autre nœud. La stratégie « relocate » indique que le système devrait tenter de redémarrer le service sur un autre nœud. La stratégie « disable » (désactiver) indique que le système devrait désactiver le groupe de ressources si un composant échoue. La stratégie « restart-disable » (redémarrer-désactiver) devrait tenter de redémarrer le service au même endroit s'il échoue, mais que si le redémarrage du service échoue, le service sera désactivé au lieu d'être déplacé vers un autre hôte dans le cluster.Si vous sélectionnez ou en tant que politique de récupération pour le service, vous pourrez spécifier le nombre maximum d'échecs de redémarrage avant le déplacement ou la désactivation du service. Vous pouvez aussi spécifier (en secondes) à partir de combien de temps il ne faudra plus effectuer de redémarrages.
Par exemple, pour ajouter un service au fichier de configuration sur le nœud du clusternode-01.example.comnomméexample_apachequi utilise le domaine de basculementexample_pri, et possède la politiquerelocate, exécutez la commande suivante :ccs -h node-01.example.com --addservice example_apache domain=example_pri recovery=relocate
ccs -h node-01.example.com --addservice example_apache domain=example_pri recovery=relocateCopy to Clipboard Copied! Toggle word wrap Toggle overflow Lors de la configuration de services pour un cluster, vous trouverez utile de pouvoir afficher une liste des services disponibles pour votre cluster ainsi que les options qui leurs sont disponibles. Pour obtenir des informations sur l'utilisation de la commandeccspour imprimer une liste des services et options disponibles, reportez-vous à la Section 5.11, « Répertorier les services cluster disponibles ». - Ajoutez des ressources au service avec la commande suivante :
ccs -h host --addsubservice servicename subservice [service options]
ccs -h host --addsubservice servicename subservice [service options]Copy to Clipboard Copied! Toggle word wrap Toggle overflow Selon le type de ressources que vous souhaitez utiliser, remplissez le service avec des resources globales ou spécifiques au service. Pour ajouter une ressource globale, utilisez l'option--addsubservicedeccs. Par exemple, pour ajouter la ressource globale d'un système de fichiers nomméeweb_fsau service nomméexample_apachedu fichier de configuration du cluster surnode-01.example.com, exécutez la commande suivante :ccs -h node01.example.com --addsubservice example_apache fs ref=web_fs
ccs -h node01.example.com --addsubservice example_apache fs ref=web_fsCopy to Clipboard Copied! Toggle word wrap Toggle overflow Pour ajouter une ressource spécifique au service, vous devez spécifier toutes les options du service. Par exemple, si vous n'avez pas définiweb_fsen tant que service global au préalable, vous pourriez l'ajouter en tant que ressource spécifique au service avec la commande suivante :ccs -h node01.example.com --addsubservice example_apache fs name=web_fs device=/dev/sdd2 mountpoint=/var/www fstype=ext3
ccs -h node01.example.com --addsubservice example_apache fs name=web_fs device=/dev/sdd2 mountpoint=/var/www fstype=ext3Copy to Clipboard Copied! Toggle word wrap Toggle overflow - Pour ajouter un service enfant au service, vous pouvez aussi utiliser l'option
--addsubserviceà la commandeccstout en spécifiant les options du service.Si vous devez ajouter des services dans une structure arborescente de dépendances, utilisez le caractère des deux-points (":") pour séparer les éléments et des parenthèses pour identifier les sous-services du même type. L'exemple suivant ajoute un troisième servicenfsclienten tant que sous-service d'un servicenfsclient, qui lui-même est un sous-service d'un servicenfsclient, qui est un sous-service du service nomméservice_a:ccs -h node01.example.com --addsubservice service_a nfsclient[1]:nfsclient[2]:nfsclient
ccs -h node01.example.com --addsubservice service_a nfsclient[1]:nfsclient[2]:nfsclientCopy to Clipboard Copied! Toggle word wrap Toggle overflow Note
Si vous êtes en train d'ajouter une ressource du service Samba, ajoutez-la directement au service, et non pas en tant qu'enfant d'une autre ressource.
Note
/sbin/ip addr show sur un nœud de cluster (plutôt que la commande obsolète ifconfig). La sortie suivante montre la commande /sbin/ip addr show exécutée sur un nœud qui exécute un service cluster :
ccs -h host --rmservice servicename
ccs -h host --rmservice servicename
ccs -h host --rmsubservice servicename subservice [service options]
ccs -h host --rmsubservice servicename subservice [service options]
5.11. Répertorier les services cluster disponibles Copier lienLien copié sur presse-papiers!
ccs pour imprimer une liste des services disponibles à un cluster. Vous pouvez aussi utiliser la commande ccs pour imprimer une liste des options pouvant être spécifiées pour un type de service particulier.
ccs -h host --lsserviceopts
ccs -h host --lsserviceopts
node1 du cluster, affichant un exemple de sortie.
ccs -h host --lsserviceopts service_type
ccs -h host --lsserviceopts service_type
vm.
5.12. Ressources de machine virtuelle Copier lienLien copié sur presse-papiers!
ccs, vous pouvez utiliser --addvm (plutôt que l'option addservice). Ceci assure que la ressource vm est directement définie sous le nœud de configuration rm dans le fichier de configuration du cluster.
name (nom) et path (chemin). L'attribut name doit correspondre au nom du domaine libvirt et l'attribut path doit spécifier le répertoire où les définitions partagées de la machine virtuelle sont stockées.
Note
path dans le fichier de configuration du cluster est une spécification de chemin ou un nom de répertoire, pas un chemin vers un fichier individuel.
/mnt/vm_defs, la commande suivante définira une machine virtuelle nommée guest1 :
ccs -h node1.example.com --addvm guest1 path=/mnt/vm_defs
# ccs -h node1.example.com --addvm guest1 path=/mnt/vm_defs
cluster.conf :
<vm name="guest1" path="/mnt/vm_defs"/>
<vm name="guest1" path="/mnt/vm_defs"/>
5.13. Configurer un disque Quorum : Copier lienLien copié sur presse-papiers!
Note
ccs -h host --setquorumd [quorumd options]
ccs -h host --setquorumd [quorumd options]
--setquorumd avec leurs valeurs par défaut, comme le décrit la Section 5.1.5, « Commandes remplaçant les paramètres précédents ».
/usr/share/cluster/cluster.rng et au schéma annoté sur /usr/share/doc/cman-X.Y.ZZ/cluster_conf.html.
| Paramètre | Description |
|---|---|
| Fréquence, en secondes, des cycles de lecture/écriture. | |
Nombre de votes que le démon quorum annonce à cman lorsqu'il obtient un score assez élevé. | |
| Nombre de cycles qu'un nœud doit rater pour être déclaré comme étant mort. | |
Score minimum qu'un nœud doit effectuer pour être considéré comme « vivant ». Si oublié, ou si ajusté sur 0, floor((n+1)/2), est utilisé, où n est la somme des scores heuristiques. La valeur ne doit jamais excéder la somme des scores heuristiques, sinon le disque quorum ne pourra pas être disponible. | |
| Périphérique de stockage que le démon quorum utilise. Le périphérique doit être le même sur tous les nœuds. | |
Spécifie l'étiquette du disque quorum créé par l'utilitaire mkqdisk. Si ce champ contient une entrée, l'étiquette remplace le champ . Si ce champ est utilisé, le démon quorum lit /proc/partitions et vérifie les signatures qdisk sur chaque périphérique bloc trouvé, comparant l'étiquette à l'étiquette spécifiée. Ceci est utile pour les configurations dans lesquelles le nom du périphérique quorum diffère selon les nœuds. |
ccs -h host --addheuristic [heuristic options]
ccs -h host --addheuristic [heuristic options]
| Paramètre | Description |
|---|---|
Chemin vers le programme utilisé pour déterminer si cette heuristique est disponible. Ceci peut être n'importe quoi qui est exécutable par /bin/sh -c. Une valeur retournée de 0 indique un succès ; toute autre chose indique un échec. Ce paramètre est requis pour utiliser un disque quorum. | |
| Fréquence (en secondes) à laquelle l'heuristique est analysée. L'intervalle par défaut pour toute heuristique est de 2 secondes. | |
| Poids de l'heuristique. Soyez prudent lorsque vous déterminez les scores des heuristiques. Le score par défaut de chaque heuristique est de 1. | |
| Nombre d'échecs consécutifs requis avant que cette heuristique ne soit déclarée indisponible. |
ccs -h host --lsquorum
ccs -h host --lsquorum
ccs -h host rmheuristic [heuristic options]
ccs -h host rmheuristic [heuristic options]
Note
qdiskd sur chaque nœud.
5.14. Diverses configurations de clusters Copier lienLien copié sur presse-papiers!
ccs pour configurer ce qui suit :
ccs pour définir les paramètres de configuration avancés du cluster, y compris les options totem, dlm, rm et cman. Pour obtenir des informations sur la définition de ces paramètres, voir la page man ccs(8) et le schéma annoté du fichier de configuration du cluster sur /usr/share/doc/cman-X.Y.ZZ/cluster_conf.html.
ccs -h host --lsmisc
ccs -h host --lsmisc
5.14.1. Version de la configuration du cluster Copier lienLien copié sur presse-papiers!
1 par défaut lorsque vous créez un fichier de configuration de cluster, celle-ci est automatiquement incrémentée chaque fois que vous modifiez la configuration de votre cluster. Cependant, si vous devez la définir sur une autre valeur, vous pouvez la spécifier à l'aide de la commande suivante :
ccs -h host --setversion n
ccs -h host --setversion n
ccs -h host --getversion
ccs -h host --getversion
ccs -h host --incversion
ccs -h host --incversion
5.14.2. Configuration de la multidiffusion Copier lienLien copié sur presse-papiers!
- Pour IPv4 — L'adresse formée est 239.192. plus les 16 bits les plus bas générés par le logiciel du module complémentaire Red Hat High Availability.
- Pour IPv6 — L'adresse formée est FF15:: plus les 16 bits les plus bas générés par le logiciel du module complémentaire Red Hat High Availability.
Note
cman génère pour chaque cluster. Pour voir l'ID du cluster, exécutez la commande cman_tool status sur un nœud de cluster.
ccs -h host --setmulticast multicastaddress
ccs -h host --setmulticast multicastaddress
--setmulticast avec leurs valeurs par défaut, comme le décrit la Section 5.1.5, « Commandes remplaçant les paramètres précédents ».
cman. L'utilisation d'une adresse de multidiffusion hors de cette plage peut provoquer des résultats imprévisibles. Par exemple, utiliser 224.0.0.x (qui équivaut à "All hosts on the network") peut ne pas être acheminé correctement, certains matériaux pourraient même ne pas du tout l'acheminer.
ccs, reportez-vous à la Section 6.2, « Démarrer et arrêter un cluster ».
Note
--setmulticast de ccs mais ne spécifiez pas d'adresse de multidiffusion :
ccs -h host --setmulticast
ccs -h host --setmulticast
5.14.3. Configurer un cluster à deux nœuds Copier lienLien copié sur presse-papiers!
ccs -h host --setcman two_node=1 expected_votes=1
ccs -h host --setcman two_node=1 expected_votes=1
--setcman avec leurs valeurs par défaut, comme le décrit la Section 5.1.5, « Commandes remplaçant les paramètres précédents ».
ccs --setcman pour ajouter, supprimer, ou pour modifier l'option two_node, vous devez redémarrer le cluster pour que ce changement prenne effet. Pour obtenir des informations sur le démarrage et l'arrêt d'un cluster avec la commande ccs, reportez-vous à la Section 6.2, « Démarrer et arrêter un cluster ».
5.14.4. Journalisation Copier lienLien copié sur presse-papiers!
/var/log/cluster/démon.log.
ccs -h host --setlogging [logging options]
ccs -h host --setlogging [logging options]
ccs -h node1.example.com --setlogging debug=on
# ccs -h node1.example.com --setlogging debug=on
--setlogging avec leurs valeurs par défaut, comme le décrit la Section 5.1.5, « Commandes remplaçant les paramètres précédents ».
ccs -h host --addlogging [logging daemon options]
ccs -h host --addlogging [logging daemon options]
corosync et fenced.
ccs -h node1.example.com --addlogging name=corosync debug=on ccs -h node1.example.com --addlogging name=fenced debug=on
# ccs -h node1.example.com --addlogging name=corosync debug=on
# ccs -h node1.example.com --addlogging name=fenced debug=on
ccs -h host --rmlogging name=clusterprocess
ccs -h host --rmlogging name=clusterprocess
fenced
ccs -h host --rmlogging name=fenced
ccs -h host --rmlogging name=fenced
cluster.conf(5).
5.14.5. Configurer le protocole d'anneau redondant (« Redundant Ring ») Copier lienLien copié sur presse-papiers!
--addalt de la commande ccs :
ccs -h host --addalt node_name alt_name
ccs -h host --addalt node_name alt_name
clusternet-node1-eth2 du nœud de cluster clusternet-node1-eth1 :
ccs -h clusternet-node1-eth1 --addalt clusternet-node1-eth1 clusternet-node1-eth2
# ccs -h clusternet-node1-eth1 --addalt clusternet-node1-eth1 clusternet-node1-eth2
--setaltmulticast de la commande ccs :
ccs -h host --setaltmulticast [alt_multicast_address] [alt_multicast_options].
ccs -h host --setaltmulticast [alt_multicast_address] [alt_multicast_options].
cluster.conf sur le nœud clusternet-node1-eth1 :
ccs -h clusternet-node1-eth1 --setaltmulticast 239.192.99.88 port=888 ttl=3
ccs -h clusternet-node1-eth1 --setaltmulticast 239.192.99.88 port=888 ttl=3
--setaltmulticast de la commande ccs, mais ne spécifiez pas d'adresse de multidiffusion. Remarquez que l'exécution de cette commande réinitialise toutes les autres propriétés que vous pouvez définir avec l'option --setaltmulticast avec leurs valeurs par défaut, comme décrit dans la Section 5.1.5, « Commandes remplaçant les paramètres précédents ».
5.15. Propager le fichier de configuration sur les nœuds du cluster Copier lienLien copié sur presse-papiers!
ccs -h host --sync --activate
ccs -h host --sync --activate
ccs -h host --checkconf
ccs -h host --checkconf
ccs -f file -h host --setconf
ccs -f file -h host --setconf
ccs -f file --checkconf
ccs -f file --checkconf
Chapitre 6. Gérer le module complémentaire Red Hat High Availability avec ccs Copier lienLien copié sur presse-papiers!
ccs, qui est prise en charge à partir de la version 6.1 de Red Hat Enterprise Linux et de ses versions plus récentes. Ce chapitre est composé des sections suivantes :
6.1. Gérer les nœuds de clusters Copier lienLien copié sur presse-papiers!
ccs :
6.1.1. Causer à un nœud de joindre ou quitter un cluster Copier lienLien copié sur presse-papiers!
ccs pour faire qu'un nœud quitte un cluster en arrêtant les services cluster sur ce nœud. Causer le départ d'un nœud d'un cluster ne supprime pas les informations de configuration de ce nœud. Faire qu'un nœud quitte un cluster empêche le nœud de joindre le cluster automatiquement lorsqu'il est redémarré.
-h :
ccs -h host --stop
ccs -h host --stop
--rmnode de la commande ccs, comme décrit dans la Section 5.4, « Créer un cluster ».
-h :
ccs -h host --start
ccs -h host --start
6.1.2. Ajouter un membre à un cluster en cours d'exécution Copier lienLien copié sur presse-papiers!
6.2. Démarrer et arrêter un cluster Copier lienLien copié sur presse-papiers!
ccs pour arrêter un cluster à l'aide de la commande suivante, celle-ci stoppe les services cluster sur tous les nœuds dans le cluster :
ccs -h host --stopall
ccs -h host --stopall
ccs pour démarrer un cluster qui n'est pas en cours d'exécution à l'aide de la commande suivante, celle-ci lance les services cluster sur tous les nœuds dans le cluster :
ccs -h host --startall
ccs -h host --startall
6.3. Diagnostiquer et corriger des problèmes dans un cluster Copier lienLien copié sur presse-papiers!
ccs.
ccs -h host --checkconf
ccs -h host --checkconf
ccs -f file --checkconf
ccs -f file --checkconf
Chapitre 7. Configurer le module complémentaire Red Hat High Availability avec des outils de ligne de commande Copier lienLien copié sur presse-papiers!
/etc/cluster/cluster.conf) et en utilisant des outils de ligne de commande. Ce chapitre fournit des procédures sur la construction d'un fichier de configuration étape par étape, en commençant par un fichier exemple fournit dans le chapitre. Un fichier de configuration squelette peut être copié depuis la page man cluster.conf et servir d'alternative au commencement avec l'exemple de fichier ci-joint. Cependant, faire ainsi ne s'aligne pas forcément sur les informations fournies dans les procédures ultérieures de ce chapitre. Il existe d'autres manières de créer et de configurer un fichier de configuration de cluster ; ce chapitre propose des procédures pour la construction une section à la fois. Aussi, n'oubliez pas qu'il ne s'agit que du point de départ pour le développement d'un fichier de configuration adapté à vos besoins de mise en cluster.
Important
Important
cluster.conf communément utilisés. Pour obtenir la liste et la description complète des éléments et attributs cluster.conf, reportez-vous au schéma des clusters sur /usr/share/cluster/cluster.rng, et au schéma annoté sur /usr/share/doc/cman-X.Y.ZZ/cluster_conf.html (par exemple, /usr/share/doc/cman-3.0.12/cluster_conf.html).
Important
cman_tool version -r pour propager une configuration de cluster à travers un cluster. L'utilisation de cette commande requiert que ricci soit en cours d'exécution. L'utilisation de ricci requerra un mot de passe la première fois que vous aurez une interaction avec ricci, et ce depuis n'importe quelle machine. Pour obtenir des informations sur le service ricci, reportez-vous à la Section 2.13, « Considérations pour ricci ».
Note
7.1. Tâches de configuration Copier lienLien copié sur presse-papiers!
- Création d'un cluster. Reportez-vous à la Section 7.2, « Création d'un fichier de configuration de cluster de base ».
- Configuration du fencing. Reportez-vous à la Section 7.3, « Configurer le fencing ».
- Configuration des domaines de basculement. Reportez-vous à la Section 7.4, « Configurer les domaines de basculement ».
- Configuration des services HA. Reportez-vous à la Section 7.5, « Configurer les services HA ».
- Vérification d'une configuration. Reportez-vous à la Section 7.8, « Vérifier une configuration ».
7.2. Création d'un fichier de configuration de cluster de base Copier lienLien copié sur presse-papiers!
/etc/cluster/cluster.conf) et commencer à exécuter le module complémentaire High Availability. En tant que point de démarrage seulement, cette section décrit comment créer un squelette de fichier de configuration de cluster sans utiliser le fencing, de domaines de basculement, ou de services HA. Les sections utlérieures décrivent comment configurer ces parties du fichier de configuration.
Important
- Sur n'importe quel nœud du cluster, créez
/etc/cluster/cluster.confà l'aide du modèle de l'exemple dans l'Exemple 7.1, « Exemple decluster.conf: configuration de base ». - (Optional) Si vous configurez un cluster à deux nœuds, vous pouvez ajouter la ligne suivante au fichier de configuration afin de permettre à un nœud unique de maintenir le quorum (si un nœud échoue par exemple) :
<cman two_node="1" expected_votes="1"/>Lorsque vous ajoutez ou supprimez l'optiontwo_nodedu fichiercluster.conf, vous devez redémarrer le cluster pour que cette modification prenne effet lors de la mise à jour de la configuration. Pour des informations sur la mise à jour d'une configuration de cluster, reportez-vous à la Section 8.4, « Mettre à jour une configuration ». Pour un exemple de spécification de l'optiontwo_node, reportez-vous à l'Exemple 7.2, « Exemple decluster.conf: configuration à deux nœuds de base ».\n\n\t\n - Spécifiez le nom du cluster ainsi que son numéro de version de configuration à l'aide des attributs
cluster:nameetconfig_version(reportez-vous à l'Exemple 7.1, « Exemple decluster.conf: configuration de base » ou à l'Exemple 7.2, « Exemple decluster.conf: configuration à deux nœuds de base »). - Dans la section
clusternodes, spécifiez le nom du nœud et l'ID du nœud de chaque nœud utilisant les attributsclusternode:nameetnodeid. - Enregistrez
/etc/cluster/cluster.conf. - Validez le fichier avec le schéma du cluster (
cluster.rng) en exécutant la commandeccs_config_validate. Par exemple :ccs_config_validate Configuration validates
[root@example-01 ~]# ccs_config_validate Configuration validatesCopy to Clipboard Copied! Toggle word wrap Toggle overflow - Propagez le fichier de configuration sur
/etc/cluster/dans chaque nœud du cluster. Par exemple, vous pourriez propager le fichier vers d'autres nœuds de cluster à l'aide de la commandescp.Note
La propagation d'un fichier de configuration de cluster de cette manière est nécessaire la première fois qu'un cluster est créé. Une fois que le cluster est installé et en cours d'exécution, le fichier de configuration du cluster peut être propagé à l'aide decman_tool version -r. Il est possible d'utiliser la commandescppour propager un fichier de configuration mis à jour. Cependant, le logiciel du cluster doit être arrêté sur tous les nœuds pendant l'utilisation de la commandescp. En outre, vous devriez exécuterccs_config_validatesi vous propagez un fichier de configuration mis à jour via la commandescp.Note
Tandis que d'autres éléments et attributs sont présents dans l'exemple du fichier de configuration (par exemple,fenceetfencedevices), il n'est pas nécessaire de les remplir maintenant. Des procédures expliquées ultérieurement dans ce chapitre fournissent des informations sur la spécification d'autres éléments et attributs. - Démarrez le cluster. Exécutez la commande suivante sur chaque nœud de cluster :
service cman startPar exemple :Copy to Clipboard Copied! Toggle word wrap Toggle overflow - Sur n'importe quel nœud de cluster, exécutez
cman_tool nodespour vérifier que les nœuds fonctionnent en tant que membres dans le cluster (décrit comme « M » dans la colonne du statut « Sts »). Par exemple :Copy to Clipboard Copied! Toggle word wrap Toggle overflow - Si le cluster est en cours d'exécution, procédez à Section 7.3, « Configurer le fencing ».
Exemples de configurations de base Copier lienLien copié sur presse-papiers!
cluster.conf : configuration de base » et l'Exemple 7.2, « Exemple de cluster.conf : configuration à deux nœuds de base » (pour un cluster à deux nœuds) fournissent tous deux un exemple très basique de fichier de configuration de cluster comme point de départ. Les procédures suivantes dans ce chapitre fournissent des informations sur la configuration du fencing et des services HA.
Exemple 7.1. Exemple de cluster.conf : configuration de base
Exemple 7.2. Exemple de cluster.conf : configuration à deux nœuds de base
La valeur du consensus pour totem dans un cluster à deux nœuds Copier lienLien copié sur presse-papiers!
consensus dans la balise totem du fichier cluster.conf, ainsi la valeur consensus sera calculée automatiquement. Lorsque la valeur consensus est calculée automatiquement, les règles suivantes sont utilisées :
- S'il y a deux nœuds ou moins, la valeur
consensussera (token * 0.2), avec un plafond de 2000 msec et un plancher de 200 msec. - S'il y a trois nœuds ou plus, la valeur
consensussera (token + 2000 msec)
cman configurer votre délai d'expiration de consensus de cette manière, alors le déplacement ultérieur de deux à trois nœuds (ou plus) requerra le redémarrage du cluster, puisque le délai d'expiration du consensus devra changer vers cette valeur plus importante, basée sur le délai d'expiration du token.
cluster.conf comme suit :
<totem token="X" consensus="X + 2000" />
<totem token="X" consensus="X + 2000" />
cman, le nombre de neouds physiques est le plus importants, et non la présence de la directive two_node=1 dans le fichier cluster.conf.
7.3. Configurer le fencing Copier lienLien copié sur presse-papiers!
cluster.conf comme suit en vous basant sur le type des périphériques et des méthodes fence requis pour votre configuration :
- Dans la section
fencedevices, spécifiez chaque périphérique fence à l'aide d'un élémentfencedeviceet d'attributs dépendants au(x) périphérique(s) fence. L'Exemple 7.3, « Périphérique fence APC ajouté àcluster.conf» montre un exemple de fichier de configuration avec un périphérique fence APC qui lui est ajouté. - Sur la section
clusternodes, dans l'élémentfencede chaque section declusternode, spécifiez chaque méthode fence du nœud. Spécifiez le nom de la méthode fence à l'aide de l'attributnamedemethod. Spécifiez le périphérique fence pour chaque méthode fence à l'aide de l'élémentdeviceet de ses attributs,nameet des paramètres spécifiques au périphérique fence. L'Exemple 7.4, « Méthodes fence ajoutées àcluster.conf» montre un exemple de méthode fence avec un périphérique fence pour chaque nœud dans le cluster. - Pour des méthodes fence non-alimentées (c'est-à-dire le fencing SAN/stockage) dans la section
clusternodes, ajoutez une sectionunfence. Ceci vous assure qu'un nœud fenced n'est pas ré-activé tant que le nœud n'a pas été redémarré. Pour plus d'informations sur l'unfencing d'un nœud, reportez-vous à la page manfence_node(8).La sectionunfencene contient pas de sectionsmethodcomme la sectionfence. Elle contient des référencesdevice, qui mettent en miroir les sections des périphériques correspondants pourfence, avec l'addition notable de l'action explicite (action) sur "on" ou sur "enable". La même sectionfencedeviceest référencée par les lignesfenceetunfencedeviceet les mêmes arguments par nœud devraient être répétés.La spécification de l'attributactionsur "on" ou sur "enable" active le nœud lorsque redémarré. L'Exemple 7.4, « Méthodes fence ajoutées àcluster.conf» et l'Exemple 7.5, «cluster.conf: Multiples méthodes fence par nœud » incluent des exemple des éléments et attributsunfence.Pour obtenir plus d'informations surunfence, reportez-vous à la page manfence_node. - Mettez à jour l'attribut
config_versionen incrémentant sa valeur (par exemple, en la modifiant deconfig_version="2"àconfig_version="3">). - Enregistrez
/etc/cluster/cluster.conf. - (Optional) Validez le fichier mis à jour sur le schéma du cluster (
cluster.rng) en exécutant la commandeccs_config_validate. Par exemple :ccs_config_validate Configuration validates
[root@example-01 ~]# ccs_config_validate Configuration validatesCopy to Clipboard Copied! Toggle word wrap Toggle overflow - Exécutez la commande
cman_tool version -rpour propager la configuration au reste des nœuds du cluster. Ceci exécutera aussi une validation supplémentaire. Il est nécessaire quericcisoit exécuté dans chaque nœud de cluster afin de pouvoir propager les informations mises à jour sur la configuration du cluster. - Vérifiez que le fichier de configuration mis à jour a été propagé.
- Procédez à la Section 7.4, « Configurer les domaines de basculement ».
fenced, tente la méthode suivante et continuera d'essayer les méthodes successivement jusqu'à ce qu'une d'entre elles fonctionne.
fenced exécute l'agent fence une fois par ligne de périphérique fence, chaque ligne doit fonctionner pour que le fencing soit considéré comme réussi.
fence_apc). En outre, vous pourrez trouver des informations supplémentaires sur les paramètres du fencing dans l'Annexe A, Paramètres des périphériques fence, sur les agents fence dans /usr/sbin/, sur le schéma du cluster dans /usr/share/cluster/cluster.rng et sur le schéma annoté sur /usr/share/doc/cman-X.Y.ZZ/cluster_conf.html (par exemple, /usr/share/doc/cman-3.0.12/cluster_conf.html).
Exemples de configurations du fencing Copier lienLien copié sur presse-papiers!
Note
Exemple 7.3. Périphérique fence APC ajouté à cluster.conf
fencedevice) a été ajouté à l'élément fencedevices en spécifiant l'agent fence (agent) en tant que fence_apc, l'adresse IP (ipaddr) en tant que apc_ip_example, l'identifiant de connexion (login) en tant que login_example, le nom du périphérique fence (name) en tant que apc et le mot de passe (passwd) en tant que password_example.
Exemple 7.4. Méthodes fence ajoutées à cluster.conf
method) a été ajoutée à chaque nœud. Le nom de la méthode fence (name) de chaque nœud est APC. Le périphérique (device) pour la méthode fence dans chaque nœud spécifie le nom (name) comme apc et un unique numéro de port d'alimentation de l'interrupteur APC (port) pour chaque nœud. Par exemple, le numéro de port de node-01.example.com est 1 (port="1"). Le nom de périphérique de chaque nœud (device name="apc") pointe vers le périphérique fence au nom (name) apc sur cette ligne de l'élément fencedevices : fencedevice agent="fence_apc" ipaddr="apc_ip_example" login="login_example" name="apc" passwd="password_example".
Exemple 7.5. cluster.conf : Multiples méthodes fence par nœud
Exemple 7.6. cluster.conf : Fencing, multiples ports multipath
Exemple 7.7. cluster.conf : Effectuer le fencing de nœuds avec des alimentations duelles
7.4. Configurer les domaines de basculement Copier lienLien copié sur presse-papiers!
- Unrestricted — Ceci vous permet de spécifier qu'un sous-ensemble de membres est préféré, mais qu'un service cluster assigné à ce domaine peut s'exécuter sur n'importe quel membre disponible.
- Restricted — Ceci vous permet de restreindre les membres pouvant exécuter un service cluster en particulier. Si aucun des membres dans un domaine de basculement restricted n'est disponible, le service cluster ne pourra pas être lancé (manuellement ou par le logiciel du cluster).
- Unordered — Lorsqu'un service cluster est assigné à un domaine de basculement unordered, le membre sur lequel le service cluster est exécuté est choisi parmi les membres disponibles du domaine de basculement sans ordre de priorité.
- Ordered — Ceci vous permet de spécifier un ordre de préférence parmi les membres d'un domaine de basculement. Les domaines de basculement ordered sélectionnent le nœud avec le numéro de priorité le plus bas en premier. Autrement dit, le nœud dans un domaine de basculement avec un numéro de priorité de "1" spécifie la priorité la plus haute, il est ainsi le nœud préféré dans le domaine de basculement. Après ce nœud, le nœud préféré suivant sera le nœud avec le numéro de priorité le plus haut qui suit, et ainsi de suite.
- Failback — Ceci vous permet de spécifier si un service dans le domaine de basculement devrait être restauré sur le nœud sur lequel il était initialement exécuté avant que ce nœud tombe en panne. La configuration de cette caractéristique est utile dans des circonstances où un nœud tombe en panne de manière répétitive et fait partie d'un domaine de basculement ordered. Dans ces circonstances, si un nœud est le nœud préféré dans un domaine de basculement, il est possible qu'un service tombe en panne puis se restaure de manière répétitive entre le nœud préféré et un autre nœud, affectant sévèrement la performance.
Note
La caractéristique failback est uniquement applicable si le basculement ordered est configuré.
Note
Note
httpd), qui requiert que vous paramétriez la configuration de manière identique sur tous les membres exécutant le service cluster. Au lieu de paramétrer le cluster entier afin qu'il exécute le service cluster, il vous est possible de paramétrer uniquement les membres dans le domaine de basculement restricted que vous associerez au service cluster.
Note
- Ouvrez
/etc/cluster/cluster.confsur n'importe quel nœud dans le cluster. - Ajoutez la section squelette suivante dans l'élément
rmpour chaque domaine de basculement à utiliser :Copy to Clipboard Copied! Toggle word wrap Toggle overflow Note
Le nombre d'attributsfailoverdomainnodedépend du nombre de nœuds dans le domaine de basculement. La section squelettefailoverdomaindans le texte précédent affiche trois élémentsfailoverdomainnode(sans aucun nom de nœud spécifié), signifiant ainsi qu'il y a trois nœuds dans le domaine de basculement. - Dans la section
failoverdomain, fournissez les valeurs des éléments et attributs. Pour des descriptions des éléments et attributs, reportez-vous à la section failoverdomain du schéma de clusters annoté. Le schéma de clusters annoté est disponible sur/usr/share/doc/cman-X.Y.ZZ/cluster_conf.html(par exemple,/usr/share/doc/cman-3.0.12/cluster_conf.html) dans n'importe quel nœud de cluster. Pour voir un exemple de sectionfailoverdomains, reportez-vous à l'Exemple 7.8, « Domaine de basculement ajouté àcluster.conf». - Mettez à jour l'attribut
config_versionen incrémentant sa valeur (par exemple, en la modifiant deconfig_version="2"àconfig_version="3">). - Enregistrez
/etc/cluster/cluster.conf. - (Optional) Validez le fichier sur le schéma du cluster (
cluster.rng) en exécutant la commandeccs_config_validate. Par exemple :ccs_config_validate Configuration validates
[root@example-01 ~]# ccs_config_validate Configuration validatesCopy to Clipboard Copied! Toggle word wrap Toggle overflow - Exécutez la commande
cman_tool version -rpour propager la configuration au reste des nœuds de cluster. - Procédez à la Section 7.5, « Configurer les services HA ».
cluster.conf » propose un exemple de configuration avec un domaine de basculement ordered et unrestricted.
Exemple 7.8. Domaine de basculement ajouté à cluster.conf
failoverdomains contient une section failoverdomain pour chaque domaine de basculement dans le cluster. Cet exemple possède un domaine de basculement. Sur la ligne failoverdomain, le nom (name) est spécifié en tant que example_pri. En outre, il ne spécifie aucune restauration « failback » (failback="0"), il spécifie que le basculement est ordered (ordered="1") et que le domaine de basculement est unrestricted (restricted="0").
7.5. Configurer les services HA Copier lienLien copié sur presse-papiers!
/etc/cluster/cluster.conf afin d'ajouter des ressources et des services.
Important
7.5.1. Ajouter des ressources cluster Copier lienLien copié sur presse-papiers!
- Global — Ressources disponibles à tous les services dans le cluster. Celles-ci sont configurées dans la section
resourcesdu fichier de configuration (dans l'élémentrm). - Service-specific — Ressources disponibles à un seul service. Celles-ci sont configurées dans chaque section
servicedu fichier de configuration (dans l'élémentrm).
- Ouvrez
/etc/cluster/cluster.confsur n'importe quel nœud dans le cluster. - Ajoutez une section
resourcesdans l'élémentrm. Par exemple :Copy to Clipboard Copied! Toggle word wrap Toggle overflow - Remplissez-la avec les ressources correspondantes aux services que vous souhaitez créer. Par exemple, voici des ressources à utiliser dans le service Apache. Celles-ci sont composées d'une ressource de système de fichiers (
fs), d'une ressource IP (ip) et d'une ressource Apache (apache).Copy to Clipboard Copied! Toggle word wrap Toggle overflow L'Exemple 7.9, « Fichiercluster.confavec des ressources ajoutées » montre un exemple du fichiercluster.confavec la sectionresourcesajoutée. - Mettez à jour l'attribut
config_versionen incrémentant sa valeur (par exemple, en modifiantconfig_version="2"enconfig_version="3"). - Enregistrez
/etc/cluster/cluster.conf. - (Optional) Validez le fichier sur le schéma du cluster (
cluster.rng) en exécutant la commandeccs_config_validate. Par exemple :ccs_config_validate Configuration validates
[root@example-01 ~]# ccs_config_validate Configuration validatesCopy to Clipboard Copied! Toggle word wrap Toggle overflow - Exécutez la commande
cman_tool version -rpour propager la configuration au reste des nœuds de cluster. - Vérifiez que le fichier de configuration mis à jour a été propagé.
- Procédez à la Section 7.5.2, « Ajouter un service cluster à un cluster ».
Exemple 7.9. Fichier cluster.conf avec des ressources ajoutées
7.5.2. Ajouter un service cluster à un cluster Copier lienLien copié sur presse-papiers!
- Ouvrez
/etc/cluster/cluster.confsur n'importe quel nœud dans le cluster. - Ajoutez une section
serviceavec l'élémentrmpour chaque service. Par exemple :Copy to Clipboard Copied! Toggle word wrap Toggle overflow - Configurez les paramètres suivants (attributs) dans l'élément
service:autostart— Spécifie s'il faut démarrer le service automatiquement lorsque le cluster démarre. Veuillez utiliser « 1 » pour activer et « 0 » pour désactiver, le service est activé par défaut.domain— Spécifie un domaine de basculement (s'il est requis).exclusive— Spécifie une politique où le service s'exécute uniquement sur des nœuds sur lesquels aucun autre service ne s'exécute.recovery— Spécifie une stratégie de récupération pour le service. Les options disponibles du service sont déplacer, redémarrer, désactiver, ou redémarrer-désactiver.
- Selon le type de ressources que vous souhaitez utiliser, remplissez le service avec des ressources globales ou spécifiques au servicePar exemple, voici un service Apache qui utilise des ressources globales :
Copy to Clipboard Copied! Toggle word wrap Toggle overflow Par exemple, voici un service Apache qui utilise des ressources spécifiques au service :Copy to Clipboard Copied! Toggle word wrap Toggle overflow L'Exemple 7.10, «cluster.confavec services ajoutés : l'un utilisant des ressources globales et l'autre utilisant des ressources spécifiques au service » montre un exemple de fichiercluster.confavec deux services :example_apache— Ce service utilise les ressources globalesweb_fs,127.143.131.100etexample_server.example_apache2— Ce service utilise les ressources spécifiques au serviceweb_fs2,127.143.131.101etexample_server2.
- Mettez à jour l'attribut
config_versionen incrémentant sa valeur (par exemple, en la modifiant deconfig_version="2"àconfig_version="3">). - Enregistrez
/etc/cluster/cluster.conf. - (Optional) Validez le fichier mis à jour sur le schéma du cluster (
cluster.rng) en exécutant la commandeccs_config_validate. Par exemple :ccs_config_validate Configuration validates
[root@example-01 ~]# ccs_config_validate Configuration validatesCopy to Clipboard Copied! Toggle word wrap Toggle overflow - Exécutez la commande
cman_tool version -rpour propager la configuration au reste des nœuds de cluster. - Vérifiez que le fichier de configuration mis à jour a été propagé.
- Procédez à la Section 7.8, « Vérifier une configuration ».
Exemple 7.10. cluster.conf avec services ajoutés : l'un utilisant des ressources globales et l'autre utilisant des ressources spécifiques au service
7.6. Configurer le protocole d'anneau redondant (« Redundant Ring ») Copier lienLien copié sur presse-papiers!
- Ne spécifiez pas plus de deux anneaux.
- Chaque anneau doit utiliser le même protocole, ne mélangez pas IPv4 et IPv6.
- Si nécessaire, vous pouvez spécifier une adresse de multidiffusion pour le deuxième anneau. Si vous spécifiez une adresse de multidiffusion pour le deuxième anneau, l'adresse de multidiffusion alterne ou le port alterne doit être différent de l'adresse de multidiffusion du premier anneau. Si vous ne spécifiez pas d'adresse de multidiffusion alterne, le système utilisera automatiquement une adresse de multidiffusion différente pour le deuxième anneau.Si vous spécifiez un port alterne, les numéros de port du premier et second anneau doivent différer d'au moins deux, car le système utilise port et port-1 pour effectuer des opérations.
- N'utilisez pas deux différentes interfaces sur le même sous-réseau.
- En général, il est recommandé de configurer le protocole d'anneau redondant sur deux différents NIC et deux différents commutateurs, au cas où un NIC ou un commutateur échouerait.
- N'utilisez pas la commande
ifdownouservice network stoppour simuler une panne réseau. Cela détruit le cluster et requiert que vous redmarriez tous les nœuds du cluster pour restaurer. - N'utilisez pas
NetworkManager, car il exécutera la commandeifdownsi le cable est débranché. - Lorsqu'un nœud d'un NIC échoue, l'anneau entier est marqué comme étant en échec.
- Aucune intervention manuelle n'est requise pour restaurer après un anneau en échec. Pour effectuer une restauration, vous devrez uniquement corriger la raison originale de l'échec, telle que l'échec d'un NIC ou d'un commutateur.
altname à la section clusternode du fichier de configuration cluster.conf. Lorsque vous spécifiez altname, vous devrez spécifier un attribut name pour indiquer un second nom d'hôte ou adresse IP pour le nœud.
clusternet-node1-eth2 comme nom alternatif pour le nœud du cluster clusternet-node1-eth1.
altname dans le bloc clusternode n'est pas dépendant de sa position. Elle peut se trouver avant ou après la section fence. Ne spécifiez pas plus d'un composant altname pour un nœud de cluster ou le système échouera au démarrage.
altmulticast dans la section cman du fichier de configuration cluster.conf. Le composant altmulticast accepte addr, port et le paramètre ttl.
cman d'un fichier de configuration de cluster qui définit une adresse de multidiffusion, un port et un TTL pour le second anneau.
7.7. Configurer les options de débogage Copier lienLien copié sur presse-papiers!
/etc/cluster/cluster.conf. Par défaut, la journalisation est dirigée vers le fichier /var/log/cluster/démon.log.
/etc/cluster/cluster.conf. La configuration de la journalisation « par démon » remplace les paramètres généraux.
cluster.conf(5).
7.8. Vérifier une configuration Copier lienLien copié sur presse-papiers!
- Sur chaque nœud, redémarrez le logiciel du cluster. Cette action vous assurera que toute addition de configuration qui n'est vérifiée qu'au moment du démarrage sera bien incluse dans la configuration en cours d'exécution. Vous pouvez redémarrer le logiciel du cluster en exécutant
service cman restart. Par exemple :Copy to Clipboard Copied! Toggle word wrap Toggle overflow - Exécutez
service clvmd startsi CLVM est utilisé pour créer des volumes clusterisés. Par exemple :service clvmd start Activating VGs: [ OK ]
[root@example-01 ~]# service clvmd start Activating VGs: [ OK ]Copy to Clipboard Copied! Toggle word wrap Toggle overflow - Exécutez
service gfs2 startsi vous utilisez Red Hat GFS2. Par exemple :service gfs2 start Mounting GFS2 filesystem (/mnt/gfsA): [ OK ] Mounting GFS2 filesystem (/mnt/gfsB): [ OK ]
[root@example-01 ~]# service gfs2 start Mounting GFS2 filesystem (/mnt/gfsA): [ OK ] Mounting GFS2 filesystem (/mnt/gfsB): [ OK ]Copy to Clipboard Copied! Toggle word wrap Toggle overflow - Exécutez
service rgmanager startsi vous utilisez des services HA (haute disponibilité, de l'anglais « high-availability »). Par exemple :service rgmanager start Starting Cluster Service Manager: [ OK ]
[root@example-01 ~]# service rgmanager start Starting Cluster Service Manager: [ OK ]Copy to Clipboard Copied! Toggle word wrap Toggle overflow - Sur n'importe quel nœud de cluster, exécutez
cman_tool nodespour vérifier que les nœuds fonctionnent en tant que membres dans le cluster (décrit comme « M » dans la colonne du statut « Sts »). Par exemple :Copy to Clipboard Copied! Toggle word wrap Toggle overflow - Sur tout nœud, vérifiez que les services HA fonctionnent bien comme prévu à l'aide de l'utilitaire
clustat. En outre,clustataffiche le statut des nœuds du cluster. Par exemple :Copy to Clipboard Copied! Toggle word wrap Toggle overflow - Si le cluster fonctionne comme prévu, alors la création du fichier de configuration est terminée. Vous pouvez gérer le cluster avec les outils de ligne de commande décrits dans le Chapitre 8, Gérer le module complémentaire Red Hat High Availability avec des outils de ligne de commande.
Chapitre 8. Gérer le module complémentaire Red Hat High Availability avec des outils de ligne de commande Copier lienLien copié sur presse-papiers!
Important
Important
cluster.conf communément utilisés. Pour obtenir la liste et la description complète des éléments et attributs cluster.conf, reportez-vous au schéma des clusters sur /usr/share/cluster/cluster.rng, et au schéma annoté sur /usr/share/doc/cman-X.Y.ZZ/cluster_conf.html (par exemple, /usr/share/doc/cman-3.0.12/cluster_conf.html).
Important
cman_tool version -r pour propager une configuration de cluster à travers un cluster. L'utilisation de cette commande requiert que ricci soit en cours d'exécution.
Note
8.1. Démarrer et arrêter le logiciel du cluster Copier lienLien copié sur presse-papiers!
8.1.1. Démarrer un logiciel de cluster Copier lienLien copié sur presse-papiers!
service cman startservice clvmd start, si CLVM a été utilisé pour créer des volumes clusterisésservice gfs2 start, si vous utilisez Red Hat GFS2service rgmanager start, si vous utilisez les services high-availability (HA) (rgmanager).
8.1.2. Arrêter un logiciel de cluster Copier lienLien copié sur presse-papiers!
service rgmanager stop, si vous utilisez les services high-availability (HA) (rgmanager).service gfs2 stop, si vous utilisez Red Hat GFS2umount -at gfs2, si vous utilisez Red Hat GFS2 en conjonction avecrgmanager, pour vous assurer que tous les fichiers GFS2 montés pendant le lancement dergmanager(mais pas démontés lors de la fermeture) ont bien été démontés.service clvmd stop, si CLVM a été utilisé pour créer des volumes clusterisésservice cman stop
Note
8.2. Ajouter ou supprimer un nœud Copier lienLien copié sur presse-papiers!
8.2.1. Supprimer un nœud d'un cluster Copier lienLien copié sur presse-papiers!
Important
- Sur n'importe quel nœud, utilisez l'utilitaire
clusvcadmpour déplacer, migrer, ou arrêter chaque service HA en cours de suppression du cluster qui est exécuté sur le nœud. Pour obtenir plus d'informations sur l'utilisation declusvcadm, reportez-vous à la Section 8.3, « Gérer les services High-Availability ». - Sur le nœud à supprimer du cluster, arrêtez le logiciel du cluster selon la Section 8.1.2, « Arrêter un logiciel de cluster ». Par exemple :
Copy to Clipboard Copied! Toggle word wrap Toggle overflow - Sur n'importe quel nœud dans le cluster, modifiez
/etc/cluster/cluster.confpour supprimer la sectionclusternodedu nœud à supprimer. Par exemple, dans l'Exemple 8.1, « Configuration d'un cluster à trois nœuds », si node-03.example.com est censé être supprimé, alors supprimez la sectionclusternodepour ce nœud. Si la suppression d'un (ou plusieurs) nœud(s) cause au cluster de devenir un cluster à deux nœuds, vous pouvez ajouter la ligne suivante au fichier de configuration afin de permettre à un nœud unique de maintenir le quorum (au cas où un nœud échoue) :<cman two_node="1" expected_votes="1"/>Reportez-vous à la Section 8.2.3, « Exemples de configurations à deux nœuds et à trois nœuds » pour une comparaison entre une configuration à deux nœuds et une configuration à trois nœuds. - Mettez à jour l'attribut
config_versionen incrémentant sa valeur (par exemple, en la modifiant deconfig_version="2"àconfig_version="3">). - Enregistrez
/etc/cluster/cluster.conf. - (Optional) Validez le fichier mis à jour sur le schéma du cluster (
cluster.rng) en exécutant la commandeccs_config_validate. Par exemple :ccs_config_validate Configuration validates
[root@example-01 ~]# ccs_config_validate Configuration validatesCopy to Clipboard Copied! Toggle word wrap Toggle overflow - Exécutez la commande
cman_tool version -rpour propager la configuration au reste des nœuds de cluster. - Vérifiez que le fichier de configuration mis à jour a été propagé.
- Si le décompte des nœuds du cluster est passé de plus de deux nœuds à deux nœuds, vous devrez redémarrer le logiciel du cluster comme suit :
- Sur chaque nœud, arrêtez le logiciel du cluster selon la Section 8.1.2, « Arrêter un logiciel de cluster ». Par exemple :
Copy to Clipboard Copied! Toggle word wrap Toggle overflow - Sur chaque nœud, démarrez le logiciel du cluster selon la Section 8.1.1, « Démarrer un logiciel de cluster ». Par exemple :
Copy to Clipboard Copied! Toggle word wrap Toggle overflow - Sur n'importe quel nœud de cluster, exécutez
cman_tool nodespour vérifier que les nœuds fonctionnent en tant que membres dans le cluster (décrit comme « M » dans la colonne du statut « Sts »). Par exemple :cman_tool nodes Node Sts Inc Joined Name 1 M 548 2010-09-28 10:52:21 node-01.example.com 2 M 548 2010-09-28 10:52:21 node-02.example.com
[root@example-01 ~]# cman_tool nodes Node Sts Inc Joined Name 1 M 548 2010-09-28 10:52:21 node-01.example.com 2 M 548 2010-09-28 10:52:21 node-02.example.comCopy to Clipboard Copied! Toggle word wrap Toggle overflow - Sur tout nœud, vérifiez que les services HA fonctionnent bien comme prévu à l'aide de l'utilitaire
clustat. En outre,clustataffiche le statut des nœuds du cluster. Par exemple :Copy to Clipboard Copied! Toggle word wrap Toggle overflow
8.2.2. Ajouter un nœud à un cluster Copier lienLien copié sur presse-papiers!
- Sur n'importe quel nœud dans le cluster, modifiez
/etc/cluster/cluster.confpour ajouter la sectionclusternodedu nœud à ajouter. Par exemple, dans l'Exemple 8.2, « Configuration d'un cluster à deux nœuds », si node-03.example.com est censé être ajouté, alors ajoutez la sectionclusternodepour ce nœud. Si l'ajout d'un (ou plusieurs) nœud(s) cause au cluster de passer d'un cluster à deux nœuds à un cluster à trois nœuds ou plus, supprimez les attributscmande/etc/cluster/cluster.confcomme suit :cman two_node="1"expected_votes="1"
Reportez-vous à la Section 8.2.3, « Exemples de configurations à deux nœuds et à trois nœuds » pour une comparaison entre une configuration à deux nœuds et une configuration à trois nœuds. - Mettez à jour l'attribut
config_versionen incrémentant sa valeur (par exemple, en la modifiant deconfig_version="2"àconfig_version="3">). - Enregistrez
/etc/cluster/cluster.conf. - (Optional) Validez le fichier mis à jour sur le schéma du cluster (
cluster.rng) en exécutant la commandeccs_config_validate. Par exemple :ccs_config_validate Configuration validates
[root@example-01 ~]# ccs_config_validate Configuration validatesCopy to Clipboard Copied! Toggle word wrap Toggle overflow - Exécutez la commande
cman_tool version -rpour propager la configuration au reste des nœuds de cluster. - Vérifiez que le fichier de configuration mis à jour a été propagé.
- Propagez le fichier de configuration mis à jour vers
/etc/cluster/dans chaque nœud à ajouter au cluster. Par exemple, utilisez la commandescppour envoyer le fichier de configuration mis à jour sur chaque nœud à ajouter au cluster. - Si le décompte des nœuds du cluster est passé de deux nœuds à plus de deux nœuds, vous devrez redémarrer le logiciel du cluster dans les nœuds du cluster comme suit :
- Sur chaque nœud, arrêtez le logiciel du cluster selon la Section 8.1.2, « Arrêter un logiciel de cluster ». Par exemple :
Copy to Clipboard Copied! Toggle word wrap Toggle overflow - Sur chaque nœud, démarrez le logiciel du cluster selon la Section 8.1.1, « Démarrer un logiciel de cluster ». Par exemple :
Copy to Clipboard Copied! Toggle word wrap Toggle overflow
- Sur chaque nœud à ajouter au cluster, démarrez le logiciel du cluster selon la Section 8.1.1, « Démarrer un logiciel de cluster ». Par exemple :
Copy to Clipboard Copied! Toggle word wrap Toggle overflow - Sur n'importe quel nœud et à l'aide de l'utilitaire
clustat, vérifiez que chaque nœud ajouté est en cours d'exécution et fait partie du cluster. Par exemple :Copy to Clipboard Copied! Toggle word wrap Toggle overflow Pour obtenir des informations sur l'utilisation declustat, reportez-vous à la Section 8.3, « Gérer les services High-Availability ».En outre, vous pouvez utilisercman_tool statuspour vérifier les votes de nœuds, le compte des nœuds, et le compte quorum. Par exemple :Copy to Clipboard Copied! Toggle word wrap Toggle overflow - Sur n'importe quel nœud, vous pouvez vous servir de l'utilitaire
clusvcadmpour migrer ou déplacer un service en cours d'exécution sur le nouveau nœud du cluster. Vous pouvez aussi activer tout service désactivé. Pour obtenir des informations sur l'utilisation declusvcadm, reportez-vous à la Section 8.3, « Gérer les services High-Availability ».
8.2.3. Exemples de configurations à deux nœuds et à trois nœuds Copier lienLien copié sur presse-papiers!
Exemple 8.1. Configuration d'un cluster à trois nœuds
Exemple 8.2. Configuration d'un cluster à deux nœuds
8.3. Gérer les services High-Availability Copier lienLien copié sur presse-papiers!
clustat, et Cluster User Service Administration Utility, clusvcadm. clustat affiche l'état d'un cluster et clusvcadm fournit possibilité de gérer les services high-availability.
clustat et clusvcadm. Celle-ci comporte les sous-sections suivantes :
8.3.1. Afficher l'état du service HA avec clustat Copier lienLien copié sur presse-papiers!
clustat affiche l'état global du cluster. Il est ainsi possible de voir les informations sur l'adhésion, le quorum, l'état de tous les services high-availability (haute disponibilité), clustat indique aussi le nœud sur lequel la commande clustat est exécutée (Local). Le Tableau 8.1, « État des services » décrit les états dans lesquels les services peuvent se trouver, ceux-ci s'affichent lors de l'exécution de clustat. L'Exemple 8.3, « Écran clustat » montre un exemple de l'écran de clustat. Pour obtenir de plus amples informations sur l'exécution de la commande clustat, reportez-vous à la page man clustat.
| État des services | Description |
|---|---|
| Les ressources d'un service sont configurées et disponibles sur le système du cluster propriétaire du service. | |
| Le service est en attente de démarrage sur un autre nœud. | |
| Le service a été désactivé et n'a pas de propriétaire qui lui est assigné. Un service désactivé n'est jamais redémarré automatiquement par le cluster. | |
| Dans l'état arrêté, le service sera évalué pour démarrer après le service suivant ou la transition de nœud. Ceci est un état temporaire. Vous pouvez activer ou désactiver le service de cet état. | |
Le service est présumé mort. Un service est placé dans cet état lorsque l'opération stop d'une ressource échoue. Une fois que le service se trouve dans cet état, vous devez vérifier qu'aucune ressource n'est allouée (par exemple, des systèmes de fichiers montés) avant d'effectuer une requête disable. La seule opération pouvant s'effectuer lorsqu'un service est entré dans cet état est disable.. | |
Cet état peut apparaître dans certains cas lors du démarrage et de l'exécution de clustat -f. |
Exemple 8.3. Écran clustat
8.3.2. Gérer les services HA avec clusvcadm Copier lienLien copié sur presse-papiers!
clusvcadm. Avec celle-ci, vous pouvez effectuer les opérations suivantes :
- Activer et lancer un service.
- Désactiver un service.
- Arrêter un service.
- Geler un service
- Dégeler un service
- Migrer un service (uniquement pour les services de machines virtuelles)
- Déplacer un service.
- Redémarrer un service.
clusvcadm.
| Opération du service | Description | Syntaxe de la commande |
|---|---|---|
Lance le service, optionnellement sur une cible préférée et optionnellement selon les règles du domaine de basculement. En l'absence d'une cible préférée ou de règles de domaine de basculement, l'hôte local où clusvcadm est exécuté lancera le service. Si l'opération d'origine start échoue, le service se comportera comme si l'opération relocate avait été requise (reportez-vous à dans ce tableau). Si l'opération fonctionne, le service sera placé dans l'état « started ». | clusvcadm -e <service_name> ou clusvcadm -e <service_name> -m <member> (L'utilisation de l'option -m option spécifie le membre-cible préféré sur lequel lancer le service.) | |
| Arrête le service et le place dans un état déasctivé. Ceci est l'unique opération permise lorsqu'un service est dans l'état failed. | clusvcadm -d <service_name> | |
Déplace le service sur un autre nœud. Optionnellement, vous pouvez spécifier un nœud préféré pour recevoir le service, mais l'incapacité du service à s'exécuter sur cet hôte (par exemple, si le service ne parvient pas à démarrer ou si l'hôte est hors-ligne) n'empêche pas le déplacement, et un autre nœud est choisi. rgmanager tente de démarrer le service sur n'importe quel nœud permis dans le cluster. Si aucun nœud-cible permis dans le cluster ne démarre le service, le déplacement échoue et le service tente d'être redémarré sur le propriétaire d'origine. Si le propriétaire d'origine ne peut pas redémarrer le service, alors le service est placé dans l'état stopped. | clusvcadm -r <service_name> ou clusvcadm -r <service_name> -m <member> (L'utilisation de l'option -m spécifie le membre-cible préféré sur lequel lancer le service.) | |
| Arrête le service et le place dans l'état stopped. | clusvcadm -s <service_name> | |
| Gèle un service sur le nœud sur lequel il est en cours d'exécution. Ceci empêche les vérifications d'état du service ainsi que les basculements au cas où le nœud échouerait ou si rgmanager était arrêté. Ceci peut être utilisé pour suspendre un service afin de permettre la maintenance des ressources sous-jacentes. Reportez-vous à la section intitulée « Considérations pour l'utilisation des opérations Freeze et Unfreeze » pour obtenir des informations importantes sur l'utilisation des opérations freeze et unfreeze. | clusvcadm -Z <service_name> | |
| Unfreeze retire un service de l'état freeze. ceci ré-active les vérifications d'état. Reportez-vous à la section intitulée « Considérations pour l'utilisation des opérations Freeze et Unfreeze » pour obtenir d'importantes informations sur l'utilisation des opérations freeze et unfreeze. | clusvcadm -U <service_name> | |
| Migre une machine virtuelle sur un autre nœud. Vous devez spécifier un nœud-cible. Selon l'échec, un échec de migration peut résulter en la machine virtuelle se trouvant dans l'état failed ou dans l'état « started » dans le propriétaire d'origine. | clusvcadm -M <service_name> -m <member> Important
Pour l'opération migrate, vous devez spécifier un nœud-cible à l'aide de l'option -m <member>.
| |
| Redémarre un service sur le nœud sur lequel il est actuellement en cours d'exécution. | clusvcadm -R <service_name> |
Considérations pour l'utilisation des opérations Freeze et Unfreeze Copier lienLien copié sur presse-papiers!
rgmanager. Par exemple, si vous possédez une base de données et un serveur web dans un service rgmanager, vous pouvez geler le service rgmanager, arrêter la base de données, effectuer la maintenance, redémarrer la base de données, puis dégeler le service.
- Les vérifications d'État sont désactivées.
- Les opérations Start sont désactivées.
- Les opérations Stop sont désactivées.
- Le basculement ne se produira pas (même si vous éteignez le propriétaire du service).
Important
- Vous ne devriez pas arrêter toutes les instances de rgmanager lorsqu'un service est gelé, à moins que vous ne planifiez de redémarrer les hôtes avant de relancer rgmanager.
- Vous ne devriez pas dégeler un service avant que le propriétaire du service ne rejoigne le cluster et qu'il ne redémarre rgmanager.
8.4. Mettre à jour une configuration Copier lienLien copié sur presse-papiers!
/etc/cluster/cluster.conf) et en sa propagation vers chaque nœud dans le cluster. Vous pouvez mettre à jour la configuration en utilisant l'une des procédures suivantes :
8.4.1. Mettre à jour une configuration à l'aide de cman_tool version -r Copier lienLien copié sur presse-papiers!
cman_tool version -r, procédez aux étapes suivantes :
- Sur tout nœud dans le cluster, modifiez le fichier
/etc/cluster/cluster.conf. - Mettez à jour l'attribut
config_versionen incrémentant sa valeur (par exemple, en la modifiant deconfig_version="2"àconfig_version="3">). - Enregistrez
/etc/cluster/cluster.conf. - Exécutez la commande
cman_tool version -rpour propager la configuration au reste des nœuds du cluster. Il est nécessaire quericcisoit en cours d'exécution dans chaque nœud de cluster afin de pouvoir propager les informations mises à jour de la configuration du cluster. - Vérifiez que le fichier de configuration mis à jour a été propagé.
- Vous pouvez ignorer cette étape (redémarrer le logiciel du cluster) si vous avez uniquement effectué les changements de configuration suivants :
- Supprimer un nœud de la configuration du cluster — Sauf si le décompte des nœuds passe de plus de deux nœuds à deux nœuds. Pour obtenir des informations sur la suppression d'un nœud d'un cluster et sur la transition de plus de deux nœuds à deux nœuds, reportez-vous à la Section 8.2, « Ajouter ou supprimer un nœud ».
- Ajouter un nœud à la configuration du cluster — Sauf si le décompte des nœuds passe de deux nœuds à plus de deux nœuds. Pour obtenir des informations sur l'ajout d'un nœud à un cluster et sur la transition de deux nœuds à plus de deux nœuds, reportez-vous à la Section 8.2.2, « Ajouter un nœud à un cluster ».
- Modifier la manière dont les démons journalisent les informations.
- Ajout, modification, ou suppression d'un service HA ou de la maintenance VM.
- Ajout, modification, ou suppression de la maintenance des ressources.
- Ajout, modification, ou suppression de la maintenance du domaine de basculement.
Sinon, vous devrez redémarrer le logiciel du cluster comme suit :- Sur chaque nœud, arrêtez le logiciel du cluster selon la Section 8.1.2, « Arrêter un logiciel de cluster ». Par exemple :
Copy to Clipboard Copied! Toggle word wrap Toggle overflow - Sur chaque nœud, démarrez le logiciel du cluster selon la Section 8.1.1, « Démarrer un logiciel de cluster ». Par exemple :
Copy to Clipboard Copied! Toggle word wrap Toggle overflow Arrêter et démarrer le logiciel du cluster assure que toutes les modifications de la configuration, qui ne sont vérifiées qu'au démarrage, sont bien incluses dans la configuration en cours d'exécution.
- Sur n'importe quel nœud de cluster, exécutez
cman_tool nodespour vérifier que les nœuds fonctionnent en tant que membres dans le cluster (décrit comme « M » dans la colonne du statut « Sts »). Par exemple :Copy to Clipboard Copied! Toggle word wrap Toggle overflow - Sur tout nœud, vérifiez que les services HA fonctionnent bien comme prévu à l'aide de l'utilitaire
clustat. En outre,clustataffiche le statut des nœuds du cluster. Par exemple :Copy to Clipboard Copied! Toggle word wrap Toggle overflow - Si le cluster s'exécute comme prévu, vous avez terminé de mettre à jour la configuration.
8.4.2. Mettre à jour une configuration à l'aide de scp Copier lienLien copié sur presse-papiers!
scp, procédez aux étapes suivantes :
- Sur chaque nœud, arrêtez le logiciel du cluster selon la Section 8.1.2, « Arrêter un logiciel de cluster ». Par exemple :
Copy to Clipboard Copied! Toggle word wrap Toggle overflow - Sur tout nœud dans le cluster, modifiez le fichier
/etc/cluster/cluster.conf. - Mettez à jour l'attribut
config_versionen incrémentant sa valeur (par exemple, en la modifiant deconfig_version="2"àconfig_version="3">). - Enregistrez
/etc/cluster/cluster.conf. - Validez le fichier mis à jour avec le schéma du cluster (
cluster.rng) en exécutant la commandeccs_config_validate. Par exemple :ccs_config_validate Configuration validates
[root@example-01 ~]# ccs_config_validate Configuration validatesCopy to Clipboard Copied! Toggle word wrap Toggle overflow - Si le fichier mis à jour est valide, utilisez la commande
scppour le propager sur/etc/cluster/dans chaque nœud du cluster.: - Vérifiez que le fichier de configuration mis à jour a été propagé.
- Sur chaque nœud, démarrez le logiciel du cluster selon la Section 8.1.1, « Démarrer un logiciel de cluster ». Par exemple :
Copy to Clipboard Copied! Toggle word wrap Toggle overflow - Sur n'importe quel nœud de cluster, exécutez
cman_tool nodespour vérifier que les nœuds fonctionnent en tant que membres dans le cluster (décrit comme « M » dans la colonne du statut « Sts »). Par exemple :Copy to Clipboard Copied! Toggle word wrap Toggle overflow - Sur tout nœud, vérifiez que les services HA fonctionnent bien comme prévu à l'aide de l'utilitaire
clustat. En outre,clustataffiche le statut des nœuds du cluster. Par exemple :Copy to Clipboard Copied! Toggle word wrap Toggle overflow - Si le cluster s'exécute comme prévu, vous avez terminé de mettre à jour la configuration.
Chapitre 9. Diagnostiquer et corriger des problèmes dans un cluster Copier lienLien copié sur presse-papiers!
9.1. Les changements de configuration ne prennent pas effet Copier lienLien copié sur presse-papiers!
- Lorsque vous configurez un cluster à l'aide de Conga, Conga propage les modifications automatiquement lorsque vous les appliquez.
- Pour obtenir des informations sur la propagation des modifications apportées à la configuration du cluster avec la commande
ccs, reportez-vous à la Section 5.15, « Propager le fichier de configuration sur les nœuds du cluster ». - Pour obtenir des informations sur la propagation des modifications apportées à la configuration du cluster avec des outils de ligne de commande, reportez-vous à la Section 8.4, « Mettre à jour une configuration ».
- Supprimer un nœud de la configuration du cluster — Sauf si le décompte des nœuds passe de plus de deux nœuds à deux nœuds.
- Ajouter un nœud à la configuration du cluster — Sauf si le décompte des nœuds passe de deux nœuds à plus de deux nœuds.
- Modifier les paramètres de connexion.
- Ajouter, modifier ou supprimer des services HA ou des composants VM.
- Ajouter, modifier ou supprimer des ressources cluster.
- Ajouter, modifier ou supprimer des domaines de basculement.
- L'ajout ou la suppression de l'option
two_nodedu fichier de configuration du cluster. - Renommer le cluster.
- La modification de l'une des horloges de
corosyncouopenais. - Ajouter, modifier ou supprimer des heuristiques du disque quorum, la modification de n'importe quelle horloge du disque quorum, ou la modification du périphérique disque du quorum. Un redémarrage complet du démon
qdiskdest nécessaire pour que ces modifications prennent effet. - La modification du mode
central_processingpourrgmanager. Un redémarrage complet dergmanagerest nécessaire pour que ces changements prennent effet. - La modification de l'adresse de multidiffusion.
- Le basculement du mode de transport de la multiffusion UDP à la monodiffusion UDP, ou de la monodiffusion UDP à la multiffusion UDP.
ccs ou des outils de ligne de commande,
- Pour obtenir des informations sur le redémarrage d'un cluster avec Conga, reportez-vous à la Section 4.4, « Démarrer, arrêter, redémarrer et supprimer des clusters ».
- Pour obtenir des informations sur le redémarrage d'un cluster avec la commande
ccs, reportez-vous à la Section 6.2, « Démarrer et arrêter un cluster ». - Pour obtenir des informations sur le redémarrage d'un cluster avec des outils de ligne de commande, reportez-vous à la Section 8.1, « Démarrer et arrêter le logiciel du cluster ».
9.2. Le cluster ne se forme pas Copier lienLien copié sur presse-papiers!
- Assurez-vous que la résolution de nom est correctement paramétrée. Le nom du nœud du cluster dans le fichier
cluster.confdevrait correspondre au nom utilisé pour résoudre l'adresse de ce cluster sur le réseau que le cluster utilisera pour communiquer. Par exemple, si les noms des nœuds du cluster sontnodeaetnodeb, assurez-vous que les deux nœuds possèdent bien des entrées dans les fichiers/etc/cluster/cluster.confet/etc/hostsqui correspondent à ces noms. - Si le cluster utilise la multidiffusion pour les communications entre nœuds, assurez-vous que le trafic de multidiffusion n'est pas bloqué, retardé ou que rien ne soit en train d'interférer avec sur le réseau que le cluster utilise pour communiquer. Notez que certains interrupteurs Cisco possèdent des fonctionnalités pouvant provoquer des délais au trafic de multidiffusion.
- Utilisez
telnetouSSHpour vérifier si vous pouvez atteindre des nœuds distants. - Exécutez la commande
ethtool eth1 | grep linkpour vérifier si le lien ethernet fonctionne. - Utilisez la commande
tcpdumpsur chaque nœud pour vérifier le trafic du réseau. - Assurez-vous qu'aucune règle de pare-feu ne bloque les communications entre les nœuds.
- Assurez-vous que les interfaces utilisées par le cluster pour les communications inter-nœuds ne soient utilisées par aucun autre mode de liaison que les modes 0, 1, ou 2. (Les modes de liaison 0 et 2 sont pris en charge à partir de Red Hat Enterprise Linux 6.4.)
9.3. nœuds incapables de rejoindre le cluster après un clôturage (fencing) ou un redémarrage Copier lienLien copié sur presse-papiers!
- Les clusters dont le trafic passe par un interrupteur Cisco Catalyst peuvent rencontrer ce problème.
- Assurez-vous que tous les nœuds du cluster possèdent la même version du fichier
cluster.conf. Si le fichiercluster.confest différent sur n'importe quel nœud, alors ces nœuds pourraient ne pas être en mesure de rejoindre le cluster après le fencing.À partir de Red Hat Enterprise Linux 6.1, vous pouvez utiliser la commande suivante pour vérifier que tous les nœuds spécifiés dans le fichier de configuration du cluster de l'hôte possèdent bien un fichier de configuration du cluster identique :ccs -h host --checkconf
ccs -h host --checkconfCopy to Clipboard Copied! Toggle word wrap Toggle overflow Pour obtenir des informations sur la commandeccs, voir le Chapitre 5, Configurer le module complémentaire Red Hat High Availability avec la commande ccs et le Chapitre 6, Gérer le module complémentaire Red Hat High Availability avec ccs. - Assurez-vous de bien avoir configuré
chkconfig onpour les services clusters dans le nœud qui tente de rejoindre le cluster. - Assurez-vous qu'aucune règle de pare-feu ne bloque les communications entre le nœud et les autres nœuds dans le cluster.
9.4. Échec du démon cluster Copier lienLien copié sur presse-papiers!
rgmanager principal échouerait de manière inattendue. Ceci entraîne le fencing du nœud du cluster et la récupération du service par rgmanager sur un autre hôte. Lorsque le démon de surveillance détecte que le processus rgmanager principal est en panne, il redémarrera le nœud du cluster, puis les nœuds actifs du cluster détecteront que le nœud est parti et l'expulseront du cluster.
gcore peut vous aider à résoudre un démon en échec.
rgmanager et rgmanager-debuginfo sont bien les mêmes, sinon le « core » (cœur) de l'application capturée pourrait se révéler inutilisable.
yum -y --enablerepo=rhel-debuginfo install gdb rgmanager-debuginfo
$ yum -y --enablerepo=rhel-debuginfo install gdb rgmanager-debuginfo
9.4.1. Capturer le « core » (cœur) de rgmanager lors du runtime. Copier lienLien copié sur presse-papiers!
rgmanager exécutés lors du démarrage. Vous devez capturer le « core » (cœur) du processus rgmanager avec le numéro PID le plus élevé.
psaffichant deux processus de rgmanager.
pidof est utilisé pour déterminer automatiquement le numéro PID le plus élevé, qui est le PID correct pour créer le « core » (cœur). La commande complète capture le « core » de l'application du processus 22483, qui possède le PID le plus élevé.
gcore -o /tmp/rgmanager-$(date '+%F_%s').core $(pidof -s rgmanager)
$ gcore -o /tmp/rgmanager-$(date '+%F_%s').core $(pidof -s rgmanager)
9.4.2. Capturer le « core » (cœur) lorsque le démon échoue Copier lienLien copié sur presse-papiers!
/etc/init.d/functions bloque les fichiers principaux des démons appelés par /etc/init.d/rgmanager. Pour que le démon crée des « core » (cœurs) d'applications, vous devez activer cette option. Cette procédure doit être effectuée sur tous les nœuds des clusters dont le « core » d'application doit être capturé.
/etc/sysconfig/cluster. Le paramètre DAEMONCOREFILELIMIT permet au démon de créer des fichiers cœurs si le processus tombe en panne. Il existe une option, -w, qui empêche le processus de surveillance de s'exécuter. Le démon de surveillance est responsable du redémarrage du nœud du cluster si rgmanager tombe en panne et dans certains cas, si le démon est en cours d'exécution, alors le fichier cœur ne sera pas généré, il doit ainsi être désactivé afin de capturer les fichiers cœurs.
DAEMONCOREFILELIMIT="unlimited" RGMGR_OPTS="-w"
DAEMONCOREFILELIMIT="unlimited"
RGMGR_OPTS="-w"
service rgmanager restart
service rgmanager restart
Note
rgmanager
ls /core*
ls /core*
/core.11926
/core.11926
rgmanager pour capturer le « core » de l'application. Le nœud du cluster qui a expérimenté l'échec de rgmanager devra être redémarré ou clôturé (« fenced ») une fois que le « core » est capturé afin d'être sûr que le processus de surveillance n'était pas en cours d'exécution.
9.4.3. Enregistrement d'une session de backtrace gdb Copier lienLien copié sur presse-papiers!
gdb, le débogueur GNU. Pour enregistrer une session script de gdb sur le fichier « core » du système affecté, veuillez exécuter ce qui suit :
script /tmp/gdb-rgmanager.txt gdb /usr/sbin/rgmanager /tmp/rgmanager-.core.
$ script /tmp/gdb-rgmanager.txt
$ gdb /usr/sbin/rgmanager /tmp/rgmanager-.core.
gdb, tandis que script l'enregistrera sur le fichier texte correspondant. Lorsque vous êtes dans une session gdb, exécutez les commandes suivantes :
(gdb) thread apply all bt full (gdb) quit
(gdb) thread apply all bt full
(gdb) quit
ctrl-D pour arrêter la session script et l'enregistrer sur le fichier texte.
9.5. Suspension des services du cluster Copier lienLien copié sur presse-papiers!
- Le cluster a peut-être tenté de clôturer un nœud et l'opération fence a peut-être échouée.
- Observez le fichier
/var/log/messagessur tous les nœuds et voyez s'il y a des messages d'échec du fencing. S'il y en a, alors redémarrez les nœuds dans le cluster et configurez le fencing correctement. - Vérifiez qu'une partition du réseau ne s'est pas produite, comme décrit dans la Section 9.8, « Chaque nœud d'un cluster à deux nœuds rapporte que le second nœud est en panne ». Vérifiez aussi si les communications entre nœuds sont toujours possibles et si le réseau fonctionne.
- Si des nœuds quittent le cluster, les nœuds restants peuvent ne pas atteindre le quorum. Le quorum doit être atteint pour que le cluster puisse fonctionner. Si des nœuds sont supprimés et que le cluster n'atteint pas le quorum, alors les services et le stockage seront suspendus. Dans ce cas, ajustez les votes attendus ou restituez la quantité requise de nœuds au cluster.
Note
fence_node ou avec Conga. Pour obtenir des informations, voir la page man fence_node et la Section 4.3.2, « Causer à un nœud de joindre ou quitter un cluster ».
9.6. Le service cluster ne démarre pas Copier lienLien copié sur presse-papiers!
- Il peut y avoir une erreur de syntaxe dans la configuration du service dans le fichier
cluster.conf. Vous pouvez utiliser la commanderg_testpour valider la syntaxe de la configuration. S'il y a un faute dans la configuration ou la syntaxe,rg_testvous informera sur le problème.rg_test test /etc/cluster/cluster.conf start service servicename
$ rg_test test /etc/cluster/cluster.conf start service servicenameCopy to Clipboard Copied! Toggle word wrap Toggle overflow Pour obtenir plus d'informations sur la commanderg_test, voir la Section C.5, « Débogage et testage des services et de l'ordre des ressources ».Si la configuration est valide, augmentez alors la journalisation du gestionnaire du groupe de ressource puis lisez les journaux des messages pour déterminer ce qui cause l'échec du démarrage du service. Vous pouvez augmenter le niveau de journalisation en ajoutant le paramètreloglevel="7"au marqueurrmdans le fichiercluster.conf. Vous remarquerez alors une augmentation de la verbosité dans les journaux des messages concernant le démarrage, l'arrêt et la migration des services clusterisés.
9.7. Échec de la migration des services contrôlés par le cluster Copier lienLien copié sur presse-papiers!
- Assurez-vous que les ressources requises pour exécuter un service donné sont présentes sur tous les nœuds du cluster qui pourraient devoir exécuter ce service. Par exemple, si le service clusterisé suppose qu'un fichier script se trouve dans un emplacement spécifique ou dans un système de fichiers monté sur un point de montage spécifique, alors vous devez vous assurer que ces ressources sont disponibles aux emplacements prévus sur tous les nœuds du cluster.
- Assurez-vous que les domaines de basculement, les dépendances et l'exclusivité des services ne sont pas configurés d'une manière vous empêchant de migrer les services vers des nœuds.
- Si le service en question est une ressource de machine virtuelle, vérifiez la documentation pour vous assurer que tout le travail de configuration réalisé est correct.
- Augmentez la journalisation du gestionnaire des groupes de services, comme décrit dans la Section 9.6, « Le service cluster ne démarre pas », puis lisez les journaux de messages pour déterminer ce qui cause l'échec de la migration du démarrage du service.
9.8. Chaque nœud d'un cluster à deux nœuds rapporte que le second nœud est en panne Copier lienLien copié sur presse-papiers!
9.9. nœuds clôturés sur un chemin d'accès LUN en échec Copier lienLien copié sur presse-papiers!
9.10. Le disque quorum n'apparaît pas en tant que membre du cluster Copier lienLien copié sur presse-papiers!
- Assurez-vous de bien avoir ajusté
chkconfig onpour le serviceqdisk. - Assurez-vous de bien avoir démarré le service
qdisk. - Remarquez que l'enregistrement du disque quorum sur le cluster peut prendre quelques minutes. Ce comportement est normal et prévu.
9.11. Comportement inhabituel des basculements Copier lienLien copié sur presse-papiers!
9.12. Le fencing se produit au hasard Copier lienLien copié sur presse-papiers!
- La cause profonde des fences est toujours un nœud perdant un jeton, cela signifie que celui-ci a perdu la faculté de communiquer avec le reste du cluster et arrêté de retourner la pulsation.
- Toute situation résultant en un système ne retournant pas la pulsation dans l'intervalle spécifiée du jeton peut mener à une opération de fencing. Par défaut, l'intervalle du jeton est de 10 secondes. Cet intervalle peut être spécifié en ajoutant la valeur souhaitée (en millisecondes) au paramètre du jeton de la balise totem dans le fichier
cluster.conf(par exemple, en paramétranttotem token="30000"pour 30 secondes). - Assurez-vous que le réseau est solide et fonctionne comme prévu.
- Assurez-vous que les interfaces utilisées par le cluster pour les communications inter-nœuds ne soient utilisées par aucun autre mode de liaison que les modes 0, 1, ou 2. (Les modes de liaison 0 et 2 sont pris en charge à partir de Red Hat Enterprise Linux 6.4.)
- Prenez des mesures pour déterminer si le système est gelé ou s'il y a une panique du noyau. Paramétrez l'utilitaire
kdumpet voyez si vous trouvez un cœur lors de l'une de ces clôtures. - Assurez-vous qu'il ne s'agisse pas d'un problème attribué par erreur au fencing. Par exemple, lorsque le disque quorum éjecte un nœud dû à un échec du stockage ou à un produit de tierce partie comme Oracle RAC redémarrant un nœud à cause d'une condition externe quelconque. Les journaux des messages sont souvent très utiles pour déterminer de tels problèmes. Lorsque des redémarrages de nœuds se produisent ou lorsque des fences se mettent en place, l'inspection des journaux des messages de tous les nœuds dans le cluster à partir du moment auquel le redémarrage ou le fencing s'est produit devrait être une pratique standard.
- Inspectez minutieusement le système pour trouver des défauts de matériel pouvant mener le système à ne plus répondre à la pulsation lorsqu'il le devrait.
9.13. La journalisation du débogage pour le DLM (« Distributed Lock Manager », ou gestionnaire de verrous distribués) doit être activée Copier lienLien copié sur presse-papiers!
/etc/cluster/cluster.conf pour ajouter des options de configuration à la balise dlm. L'option log_debug active les messages de débogage du noyau DLM et l'option plock_debug active les messages de débogage de verrous POSIX.
/etc/cluster/cluster.conf qui suit affiche la balise dlm qui active les options de débogage DLM :
/etc/cluster/cluster.conf, veuillez exécutez la commande cman_tool version -r pour propager la configuration au reste des nœuds du cluster.
Chapitre 10. Configuration SNMP avec le module complémentaire Red Hat High Availability Copier lienLien copié sur presse-papiers!
10.1. SNMP et le module complémentaire Red Hat High Availability Copier lienLien copié sur presse-papiers!
foghorn, le sous-agent SNMP du module complémentaire Red Hat High Availability, émet les interruptions SNMP. Le sous-agent foghorn, communique avec le démon snmpd au moyen du protocole AgentX. Le sous-agent foghorn peut uniquement créer les interruptions SNMP, il ne prend pas en charge d'autres opérations SNMP comme get ou set.
config actuellement pour le sous-agent foghorn. Il ne peut pas être configuré pour utiliser un socket spécifique. Seul le socket AgentX est actuellement pris en charge.
10.2. Configurer SNMP avec le module complémentaire Red Hat High Availability Copier lienLien copié sur presse-papiers!
- Pour utiliser des interruptions SNMP avec le module complémentaire Red Hat High Availability, le service
snmpdest requis et agit en tant qu'agent maître. Comme le servicefoghornest le sous-agent et utilise le protocole AgentX, vous devez ajouter la ligne suivante au fichier/etc/snmp/snmpd.confpour activer la prise en charge d'AgentX :master agentx
master agentxCopy to Clipboard Copied! Toggle word wrap Toggle overflow - Pour spécifier l'hôte vers lequel les notifications des interruptions SNMP devraient être envoyées, ajoutez la ligne suivante au fichier
/etc/snmp/snmpd.conf:trap2sink host
trap2sink hostCopy to Clipboard Copied! Toggle word wrap Toggle overflow Pour obtenir des informations sur la gestion des notifications, voir la page mansnmpd.conf. - Assurez-vous que le démon
snmpdest bien activé et en cours d'exécution en exécutant les commandes suivantes :chkconfig snmpd on service snmpd start
# chkconfig snmpd on # service snmpd startCopy to Clipboard Copied! Toggle word wrap Toggle overflow - Si le démon
messagebusn'est pas déjà activé et en cours d'exécution, exécutez les commandes suivantes :chkconfig messagebus on service messagebus start
# chkconfig messagebus on # service messagebus startCopy to Clipboard Copied! Toggle word wrap Toggle overflow - Assurez-vous que le démon
foghornest bien activé et en cours d'exécution en exécutant les commandes suivantes :chkconfig foghorn on service foghorn start
# chkconfig foghorn on # service foghorn startCopy to Clipboard Copied! Toggle word wrap Toggle overflow - Exécutez la commande suivante pour configurer votre système de manière à ce que
COROSYNC-MIBgénère des interruptions SNMP et pour vous assurer que le démoncorosync-notifydest bien activé et en cours d'exécution :echo "OPTIONS=\"-d\" " > /etc/sysconfig/corosync-notifyd chkconfig corosync-notifyd on service corosync-notifyd start
# echo "OPTIONS=\"-d\" " > /etc/sysconfig/corosync-notifyd # chkconfig corosync-notifyd on # service corosync-notifyd startCopy to Clipboard Copied! Toggle word wrap Toggle overflow
foghorn et traduits en interruptions SNMPv2. Ces interruptions sont ensuite passées à l'hôte que vous avez défini avec l'entrée trapsink pour recevoir les interruptions SNMPv2.
10.3. Transférer les interruptions SNMP Copier lienLien copié sur presse-papiers!
snmptrapd et personnaliser la manière par laquelle répondre aux notifications.
- Pour chaque nœud dans le cluster, suivez la procédure décrite dans la Section 10.2, « Configurer SNMP avec le module complémentaire Red Hat High Availability », en paramétrant l'entrée
trap2sink hostdans le fichier/etc/snmp/snmpd.confpour spécifier l'hôte externe qui exécutera le démonsnmptrapd. - Sur l'hôte externe qui recevra les interruptions, modifiez le fichier de configuration
/etc/snmp/snmptrapd.confpour spécifier vos chaînes de communauté. Par exemple, vous pouvez utiliser l'entrée suivante pour permettre au démonsnmptrapdde traiter les notifications à l'aide de la chaîne de communautépublic.authCommunity log,execute,net public
authCommunity log,execute,net publicCopy to Clipboard Copied! Toggle word wrap Toggle overflow - Sur l'hôte externe qui recevra les interruptions, assurez-vous que le démon
snmptrapdest activé et en cours d'exécution en saisissant les commandes suivantes :chkconfig snmptrapd on service snmptrapd start
# chkconfig snmptrapd on # service snmptrapd startCopy to Clipboard Copied! Toggle word wrap Toggle overflow
snmptrapd.conf.
10.4. Interruptions SNMP produites par le module complémentaire Red Hat High Availability Copier lienLien copié sur presse-papiers!
foghorn génère les interruptions suivantes :
fenceNotifyFenceNodeCette interruption se produit lorsqu'un nœud clôturé (fenced) tente de clôturer un autre nœud. Remarquez que cette interruption est uniquement générée sur un nœud - le nœud qui a tenté d'effectuer l'opération de fencing. La notification inclut les champs suivants :fenceNodeName- nom du nœud clôturéfenceNodeID- id de nœud du nœud clôturéfenceResult- résultat de l'opération fence (0 pour une réussite, -1 lorsqu'un problème s'est produit, -2 si aucune méthode fence n'est définie)
rgmanagerServiceStateChangeCette interruption se produit lorsque l'état d'un service cluster change. La notification inclut les champs suivants :rgmanagerServiceName- nom du service, qui inclut le type de service (par exemple,service:fooouvm:foo).rgmanagerServiceState- état du service. Ceci exclut les états transitionnels tels questarting(démarrage) etstopping(arrêt) pour réduire l'encombrement dans les interruptions.rgmanagerServiceFlags- indicateurs de service. Actuellement, deux indicateurs sont pris en charge :frozen, indiquant un service qui a été gelé à l'aide declusvcadm -Zetpartial, indiquant un service dans lequel une ressource en échec a été marquée commenon-critiquepour que celle-ci puisse échouer et que ses composants puissent être redémarrés sans que le service entier ne soit affecté.rgmanagerServiceCurrentOwner- propriétaire du service. Si le service n'est pas en cours d'exécution, celui-ci affichera(none)(aucun).rgmanagerServicePreviousOwner- dernier propriétaire du service, s'il est connu. S'il n'est pas connu, celui-ci peut afficher(none)(aucun).
corosync-nodifyd génère les interruptions suivantes :
corosyncNoticesNodeStatusCette interruption se produit lorsqu'un nœud rejoint ou quitte le cluster. La notification inclut les champs suivants :corosyncObjectsNodeName- nom du nœudcorosyncObjectsNodeID- id du nœudcorosyncObjectsNodeAddress- adresse IP du nœudcorosyncObjectsNodeStatus- état du nœud (joinedouleft)
corosyncNoticesQuorumStatusCette interruption se produit lorsque l'état du quorum change. La notification inclut les champs suivants :corosyncObjectsNodeName- nom du nœudcorosyncObjectsNodeID- id du nœudcorosyncObjectsQuorumStatus- nouvel état du quorum (quorateouNOT quorate)
corosyncNoticesAppStatusCette interruption se produit lorsqu'une application client se connecte ou se déconnecte de Corosync.corosyncObjectsNodeName- nom du nœudcorosyncObjectsNodeID- id du nœudcorosyncObjectsAppName- nom de l'applicationcorosyncObjectsAppStatus- nouvel état de l'application (connectedoudisconnected)
Chapitre 11. Configuration de Samba en cluster Copier lienLien copié sur presse-papiers!
Note
11.1. Vue d'ensemble de CTDB Copier lienLien copié sur presse-papiers!
11.2. Paquetages requis Copier lienLien copié sur presse-papiers!
ctdbsambasamba-commonsamba-winbind-clients
11.3. Configuration GFS2 Copier lienLien copié sur presse-papiers!
/dev/csmb_vg/csmb_lv, qui contient les données utilisateur qui seront exportées via le partage Samba et doit donc être dimensionné en conséquence. Cet exemple crée un volume logique d'une taille de 100 Go./dev/csmb_vg/ctdb_lv, qui contiendra les informations sur l'état du partage CTDB et doit faire une taille de 1 Go.
mkfs.gfs2. Exécutez cette commande sur un nœud du cluster uniquement.
/dev/csmb_vg/csmb_lv, veuillez exécuter la commande suivante :
mkfs.gfs2 -j3 -p lock_dlm -t csmb:gfs2 /dev/csmb_vg/csmb_lv
[root@clusmb-01 ~]# mkfs.gfs2 -j3 -p lock_dlm -t csmb:gfs2 /dev/csmb_vg/csmb_lv
-j- Spécifie le nombre de journaux à créer dans le système de fichiers. Cet exemple utilise un cluster à trois nœuds, nous créons donc un journal par nœud.
-p- Spécifie le protocole de verrouillage.
lock_dlmest le protocole de verrouillage utilisé par GFS2 pour les communications entre les nœuds. -t- Spécifie le nom du tableau de verrouillage et se trouve sous le format cluster_name:fs_name. Dans cet exemple, le nom du cluster spécifié dans le fichier
cluster.confestcsmbet nous utilisonsgfs2en tant que nom du système de fichiers.
/dev/csmb_vg/csmb_lv sera monté sur l'emplacement /mnt/gfs2 sur tous les nœuds. Ce point de montage doit correspondre à la valeur que vous spécifiez comme étant l'emplacement du répertoire share (répertoire de partage) avec l'option path = dans le fichier /etc/samba/smb.conf, comme le décrit la Section 11.5, « Configuration de Samba ».
/dev/csmb_vg/ctdb_lv, veuillez exécuter la commande suivante :
mkfs.gfs2 -j3 -p lock_dlm -t csmb:ctdb_state /dev/csmb_vg/ctdb_lv
[root@clusmb-01 ~]# mkfs.gfs2 -j3 -p lock_dlm -t csmb:ctdb_state /dev/csmb_vg/ctdb_lv
/dev/csmb_vg/csmb_lv. Ceci permet de distinguer les noms des tableaux de verrouillage des différents périphériques utilisés pour les systèmes de fichiers.
mkfs.gfs2 apparaît comme suit :
/dev/csmb_vg/ctdb_lv sera monté sur l'emplacement /mnt/ctdb sur tous les nœuds. Ce point de montage doit correspondre à la valeur que vous spécifiez comme étant l'emplacement du fichier .ctdb.lock avec l'option CTDB_RECOVERY_LOCK dans le fichier /etc/sysconfig/ctdb, comme le décrit la Section 11.4, « Configuration de CTDB ».
11.4. Configuration de CTDB Copier lienLien copié sur presse-papiers!
/etc/sysconfig/ctdb. Les champs devant être obligatoirement configurés pour opérer CTDB sont les suivants :
CTDB_NODESCTDB_PUBLIC_ADDRESSESCTDB_RECOVERY_LOCKCTDB_MANAGES_SAMBA(doit être activé)CTDB_MANAGES_WINBIND(doit être activé si exécuté sur un serveur membre)
CTDB_NODES- Spécifie l'emplacement du fichier contenant la liste des nœuds du cluster.Le fichier
/etc/ctdb/nodesqueCTDB_NODESréférence répertorie simplement les adresses IP des nœuds du cluster, comme dans l'exemple suivant :192.168.1.151 192.168.1.152 192.168.1.153
192.168.1.151 192.168.1.152 192.168.1.153Copy to Clipboard Copied! Toggle word wrap Toggle overflow Dans cet exemple, il n'y a qu'une seule interface/adresse IP sur chaque nœud utilisé pour les communications cluster/CTDB et pour servir les clients. Cependant, il est fortement recommandé que chaque nœud de cluster possède deux interfaces réseau, ainsi un ensemble d'interfaces pourra être dédié aux communications cluster/CTDB et un autre ensemble pourra être dédié à l'accès public du client. Veuillez utiliser les adresses IP correctes du réseau du cluster et vous assurer que les nom d'hôtes/adresses IP utilisés dans le fichiercluster.confsont bien les mêmes. De la même manière, veuillez utiliser les interfaces correctes du réseau public pour l'accès client dans le fichierpublic_addresses.Il est critique que le fichier/etc/ctdb/nodessoit identique sur tous les nœuds car l'ordre est important et CTDB échouera si différentes informations se trouvent sur différents nœuds. CTDB_PUBLIC_ADDRESSES- Spécifie l'emplacement du fichier qui répertorie les adresses IP pouvant être utilisées pour accéder aux partages Samba exportés par ce cluster. Ce sont les adresses IP que vous devriez configurer dans DNS pour le nom du serveur Samba clusterisé et les adresses auxquelles les clients CIFS se connecteront. Configurez le nom du serveur Samba clusterisé comme étant un enregistrement DNS de type A avec de multiples adresses IP et laissez le DNS Round-Robin distribuer les clients à travers les nœuds du cluster.Pour cet exemple, nous avons configuré une entrée DNS Round-Robin
csmb-serveravec toutes les adresses répertoriées dans le fichier/etc/ctdb/public_addresses. Le DNS distribuera les clients utilisant cette entrée sur le cluster à l'aide de la technique du DNS Round-Robin.Le contenu du fichier/etc/ctdb/public_addressessur chaque nœud est comme suit :192.168.1.201/0 eth0 192.168.1.202/0 eth0 192.168.1.203/0 eth0
192.168.1.201/0 eth0 192.168.1.202/0 eth0 192.168.1.203/0 eth0Copy to Clipboard Copied! Toggle word wrap Toggle overflow Cet exemple utilise trois adresses qui sont actuellement inutilisées sur le réseau. Dans votre propre configuration, choisissez les adresses pouvant être accédées par les clients voulus.Alternativement, cet exemple affiche le contenu des fichiers/etc/ctdb/public_addressesdans un cluster dans lequel se trouvent trois nœuds, mais un total de quatre adresses publiques. Dans cet exemple, l'adresse IP 198.162.2.1 peut être hébergée par le nœud 0 ou le nœud 1 et sera disponible aux clients aussi longtemps que l'un de ces nœuds sera disponible. Cette adresse publique sera indisponible aux clients uniquement si les nœuds 0 et 1 échouent. Toutes les autres adresses publiques peuvent uniquement être servies par un seul nœud respectivement et seront donc seulement disponibles si le nœud respectif est aussi disponible.Le fichier/etc/ctdb/public_addressessur le nœud 0 inclut le contenu suivant :198.162.1.1/24 eth0 198.162.2.1/24 eth1
198.162.1.1/24 eth0 198.162.2.1/24 eth1Copy to Clipboard Copied! Toggle word wrap Toggle overflow Le fichier/etc/ctdb/public_addressessur le nœud 1 inclut le contenu suivant :198.162.2.1/24 eth1 198.162.3.1/24 eth2
198.162.2.1/24 eth1 198.162.3.1/24 eth2Copy to Clipboard Copied! Toggle word wrap Toggle overflow Le fichier/etc/ctdb/public_addressessur le nœud 2 inclut le contenu suivant :198.162.3.2/24 eth2
198.162.3.2/24 eth2Copy to Clipboard Copied! Toggle word wrap Toggle overflow CTDB_RECOVERY_LOCK- Spécifie un fichier verrou que CTDB utilise de manière interne pour la récupération. Ce fichier doit être sur un stockage partagé afin que tous les nœuds du cluster puissent y accéder. L'exemple de cette section utilise le système de fichiers GFS2 qui sera monté sur
/mnt/ctdbsur tous les nœuds. Ceci est différent du système de fichiers GFS2 qui hébergera le partage Samba devant être exporté. Ce fichier verrou de récupération est utilisé afin de prévenir les scénarios de type « split-brain ». Dans les versions plus récentes de CTDB (à partir de la version 1.0.112), la spécification de ce fichier est optionnelle à partir du moment où celle-ci est remplacée par un autre mécanisme de prévention de « split-brain ». CTDB_MANAGES_SAMBA- Lorsqu'activé, en paramétrant sur
yes, cette valeur spécifie que CTDB est autorisé à démarrer et arrêter le service Samba comme nécessaire, afin de fournir un basculement ou une migration du service.LorsqueCTDB_MANAGES_SAMBAest activé, vous devriez désactiver le démarrage automatiqueinitdes démonssmbetnmben exécutant les commandes suivantes :chkconfig snb off chkconfig nmb off
[root@clusmb-01 ~]# chkconfig snb off [root@clusmb-01 ~]# chkconfig nmb offCopy to Clipboard Copied! Toggle word wrap Toggle overflow CTDB_MANAGES_WINBIND- Lorsqu'activé, en paramétrant sur
yes, cette valeur spécifie que CTDB est autorisé à démarrer et arrêter le démonwinbindcomme requis. Celui-ci devrait être activé lorsque CTDB est utilisé dans un domaine Windows ou en mode de sécurité de répertoire actif.LorsqueCTDB_MANAGES_WINBINDest activé, vous devriez désactiver le démarrage automatiqueinitdu démonwinbinden exécutant la commande suivante :chkconfig windinbd off
[root@clusmb-01 ~]# chkconfig windinbd offCopy to Clipboard Copied! Toggle word wrap Toggle overflow
11.5. Configuration de Samba Copier lienLien copié sur presse-papiers!
smb.conf est placé sur /etc/samba/smb.conf. Il contient les paramètres suivants :
csmb, se trouvant sur /mnt/gfs2/share. Ceci est différent du système de fichiers partagé GFS2 sur /mnt/ctdb/.ctdb.lock que nous avons spécifié comme étant le paramètre CTDB_RECOVERY_LOCK dans le fichier de configuration CTDB sur /etc/sysconfig/ctdb.
share sur /mnt/gfs2 lorsque nous le monterons pour la première fois. L'entrée clustering = yes ordonne à Samba d'utiliser CTDB. L'entrée netbios name = csmb-server paramètre explicitement tous les nœuds de manière à ce qu'ils aient un nom NetBIOS commun. Le paramètre ea support est requis si vous planifiez d'utiliser des attributs étendus.
smb.conf doit être identique sur tous les nœuds du cluster.
net conf pour que la configuration reste automatiquement synchronisée entre les différents membres du cluster sans avoir à copier manuellement les fichiers de configuration des nœuds du cluster. Pour obtenir des informations sur la commande net conf, veuillez vous reporter à la page man net(8).
11.6. Lancer CTDB et les services Samba Copier lienLien copié sur presse-papiers!
share et les comptes d'utilisateurs sur les nœuds du cluster doivent être paramétrés pour l'accès client.
ctdbd. Comme cet exemple configure CTDB avec CTDB_MANAGES_SAMBA=yes, CTDB lancera aussi le service Samba sur tous les nœuds et exportera tous les partages Samba configurés.
service ctdb start
[root@clusmb-01 ~]# service ctdb start
ctdb status affiche le statut de CTDB, comme l'exemple suivant le montre :
11.7. Utiliser le serveur Samba clusterisé Copier lienLien copié sur presse-papiers!
/etc/ctdb/public_addresses, ou en utilisant l'entrée DNS csmb-server configurée au préalable, comme suit :
mount -t cifs //csmb-server/csmb /mnt/sambashare -o user=testmonkey
[root@clusmb-01 ~]# mount -t cifs //csmb-server/csmb /mnt/sambashare -o user=testmonkey
smbclient //csmb-server/csmb
[user@clusmb-01 ~]$ smbclient //csmb-server/csmb
Annexe A. Paramètres des périphériques fence Copier lienLien copié sur presse-papiers!
ccs, ou en modifiant le fichier etc/cluster/cluster.conf. Pour obtenir une liste et description complète des paramètres du périphérique fence pour chaque agent fence, veuillez vous reporter à la page man de cet agent.
Note
Note
/etc/cluster/cluster.conf).
fence_apc, l'agent fence pour APC sur telnet/SSH.
| Champ luci | Attribut cluster.conf | Description |
|---|---|---|
| Nom | name | Nom du périphérique APC connecté au cluster auquel le démon fence se connecte via telnet/ssh. |
| Adresse IP ou nom d'hôte | ipaddr | Adresse IP ou nom d'hôte assigné au périphérique. |
| Port IP (optionnel) | ipport | Port TCP à utiliser pour se connecter au périphérique. |
| Connexion | login | Nom de connexion utilisé pour accéder au périphérique. |
| Mot de passe | passwd | Mot de passe utilisé pour authentifier la connexion au périphérique. |
| Script de mot de passe (optionnel) | passwd_script | Script fournissant un mot de passe pour accéder au périphérique fence. Son utilisation supplante le paramètre . |
| Délai de l'alimentation | power_wait | Nombre de secondes d'attente après avoir effectué une commande de mise hors tension ou de mise sous tension. |
| Port | port | Le port. |
| Interrupteur (optionnel) | switch | Numéro d'interrupteur de l'interrupteur APC qui se connecte au nœud lorsque vous avez de multiples interrupteurs connectés en chaîne. |
| Utiliser SSH | secure | Indique que le système utilisera SSH pour accéder au périphérique. |
| Chemin vers le fichier d'identité SSH | identity_file | Fichier d'identité de SSH. |
fence_apc_snmp, qui est l'agent fence pour APC qui se connecte au périphérique SNP via le protocole SNMP.
| Champ luci | Attribut cluster.conf | Description |
|---|---|---|
| Nom | name | Nom du périphérique APC connecté au cluster auquel le démon fence se connecte via le protocole SNMP. |
| Adresse IP ou nom d'hôte | ipaddr | Adresse IP ou nom d'hôte assigné au périphérique. |
| UDP/TCP port | udpport | Port UDP/TCP à utiliser pour la connexion avec le périphérique, la valeur par défaut est 161. |
| Connexion | login | Nom de connexion utilisé pour accéder au périphérique. |
| Mot de passe | passwd | Mot de passe utilisé pour authentifier la connexion au périphérique. |
| Script de mot de passe (optionnel) | passwd_script | Script fournissant un mot de passe pour accéder au périphérique fence. Son utilisation supplante le paramètre . |
| Version de SNMP | snmp_version | Version SNMP à utiliser (1, 2c, 3), la valeur par défaut est 1. |
| Communauté SNMP | community | Chaîne « SNMP community », la valeur par défaut est private. |
| Niveau de sécurité SNMP | snmp_sec_level | Niveau de sécurité SNMP (noAuthNoPriv, authNoPriv, authPriv). |
| Protocole d'authentification SNMP | snmp_auth_prot | Protocole d'authentification SNMP (MD5, SHA). |
| Protocole de confidentialité SNMP | snmp_priv_prot | Protocole de confidentialité SNMP (DES, AES). |
| Mot de passe du protocole de confidentialité SNMP | snmp_priv_passwd | Mot de passe du protocole de confidentialité SNMP. |
| Script du protocole de confidentialité SNMP | snmp_priv_passwd_script | Script fournissant un mot de passe pour le protocole de confidentialité SNMP. Son utilisation supplante le paramètre (mot de passe du protocole de confidentialité SNMP). |
| Délai de l'alimentation | power_wait | Nombre de secondes d'attente après avoir effectué une commande de mise hors tension ou de mise sous tension. |
| Numéro (de la prise) du port | port | Le port. |
fence_brocade, l'agent fence des interrupteurs Brocade FC.
| Champ luci | Attribut cluster.conf | Description |
|---|---|---|
| Nom | name | Nom du périphérique Brocade connecté au cluster. |
| Adresse IP ou nom d'hôte | ipaddr | Adresse IP assignée au périphérique. |
| Connexion | login | Nom de connexion utilisé pour accéder au périphérique. |
| Mot de passe | passwd | Mot de passe utilisé pour authentifier la connexion au périphérique. |
| Script de mot de passe (optionnel) | passwd_script | Script fournissant un mot de passe pour accéder au périphérique fence. Son utilisation supplante le paramètre . |
| Port | port | Numéro de la prise de l'interrupteur. |
fence_cisco_mds, l'agent fence pour Cisco MDS.
| Champ luci | Attribut cluster.conf | Description |
|---|---|---|
| Nom | name | Nom du périphérique MDS 9000 series de Cisco avec SNMP activé. |
| Adresse IP ou nom d'hôte | ipaddr | Adresse IP ou nom d'hôte assigné au périphérique. |
| UDP/TCP port | udpport | Port UDP/TCP à utiliser pour la connexion avec le périphérique, la valeur par défaut est 161. |
| Connexion | login | Nom de connexion utilisé pour accéder au périphérique. |
| Mot de passe | passwd | Mot de passe utilisé pour authentifier la connexion au périphérique. |
| Script de mot de passe (optionnel) | passwd_script | Script fournissant un mot de passe pour accéder au périphérique fence. Son utilisation supplante le paramètre . |
| Numéro (de la prise) du port | port | Le port. |
| Version de SNMP | snmp_version | Version SNMP à utiliser (1, 2c, 3). |
| Communauté SNMP | community | Chaîne SNMP Community. |
| Niveau de sécurité SNMP | snmp_sec_level | Niveau de sécurité SNMP (noAuthNoPriv, authNoPriv, authPriv). |
| Protocole d'authentification SNMP | snmp_auth_prot | Protocole d'authentification SNMP (MD5, SHA). |
| Protocole de confidentialité SNMP | snmp_priv_prot | Protocole de confidentialité SNMP (DES, AES). |
| Mot de passe du protocole de confidentialité SNMP | snmp_priv_passwd | Mot de passe du protocole de confidentialité SNMP. |
| Script du protocole de confidentialité SNMP | snmp_priv_passwd_script | Script fournissant un mot de passe pour le protocole de confidentialité SNMP. Son utilisation supplante le paramètre (mot de passe du protocole de confidentialité SNMP). |
| Délai de l'alimentation | power_wait | Nombre de secondes d'attente après avoir effectué une commande de mise hors tension ou de mise sous tension. |
fence_cisco_ucs, l'agent fence pour Cisco UCS.
| Champ luci | Attribut cluster.conf | Description |
|---|---|---|
| Nom | name | Nom du périphérique UCS Cisco. |
| Adresse IP ou nom d'hôte | ipaddr | Adresse IP ou nom d'hôte assigné au périphérique. |
| IP port (optional) | ipport | Port TCP à utiliser pour se connecter au périphérique. |
| Connexion | login | Nom de connexion utilisé pour accéder au périphérique. |
| Mot de passe | passwd | Mot de passe utilisé pour authentifier la connexion au périphérique. |
| Script de mot de passe (optionnel) | passwd_script | Script fournissant un mot de passe pour accéder au périphérique fence. Son utilisation supplante le paramètre . |
| Utiliser SSH | ssl | Utilisez les connexions SSL pour communiquer avec le périphérique. |
| Sous-organisation | suborg | Chemin supplémentaire nécessaire pour accéder à la sous-organisation. |
| Numéro (de la prise) du port | port | Nom de la machine virtuelle. |
| Délai de l'alimentation | power_wait | Nombre de secondes d'attente après avoir effectué une commande de mise hors tension ou de mise sous tension. |
fence_drac5, fence_cisco_ucs, l'agent fence pour Dell DRAC 5.
| Champ luci | Attribut cluster.conf | Description |
|---|---|---|
| Nom | name | Nom assigné au DRAC. |
| Adresse IP ou nom d'hôte | ipaddr | Adresse IP ou nom d'hôte assigné au DRAC. |
| Port IP (optionnel) | ipport | Port TCP à utiliser pour se connecter au périphérique. |
| Connexion | login | Nom de connexion utilisé pour accéder au DRAC. |
| Mot de passe | passwd | Mot de passe utilisé pour authentifier la connexion au DRAC. |
| Script de mot de passe (optionnel) | passwd_script | Script fournissant un mot de passe pour accéder au périphérique fence. Son utilisation supplante le paramètre . |
| Utiliser SSH | secure | Indique que le système utilisera SSH pour accéder au périphérique. |
| Chemin vers le fichier d'identité SSH | identity_file | Fichier d'identité de SSH. |
| Nom du module | module_name | (Optionnel) Nom du module pour le DRAC lorsque vous possédez de multiples modules DRAC. |
| Forcer l'invite de commande | cmd_prompt | Invite de commande à utiliser. La valeur par défaut est ’\$’. |
| Délai de l'alimentation | power_wait | Nombre de secondes d'attente après avoir effectué une commande de mise hors tension ou de mise sous tension. |
fence_eaton_snmp, l'agent fence du commutateur d'alimentation réseau Eaton sur SNMP.
| Champ luci | Attribut cluster.conf | Description |
|---|---|---|
| Nom | name | Nom du commutateur d'alimentation réseau Eaton connecté au cluster. |
| Adresse IP ou nom d'hôte | ipaddr | Adresse IP ou nom d'hôte assigné au périphérique. |
| Port UDP/TCP (optionnel) | udpport | Port UDP/TCP à utiliser pour la connexion avec le périphérique, la valeur par défaut est 161. |
| Connexion | login | Nom de connexion utilisé pour accéder au périphérique. |
| Mot de passe | passwd | Mot de passe utilisé pour authentifier la connexion au périphérique. |
| Script de mot de passe (optionnel) | passwd_script | Script fournissant un mot de passe pour accéder au périphérique fence. Son utilisation supplante le paramètre . |
| Version de SNMP | snmp_version | Version SNMP à utiliser (1, 2c, 3), la valeur par défaut est 1. |
| Communauté SNMP | community | Chaîne « SNMP community », la valeur par défaut est private. |
| Niveau de sécurité SNMP | snmp_sec_level | Niveau de sécurité SNMP (noAuthNoPriv, authNoPriv, authPriv). |
| Protocole d'authentification SNMP | snmp_auth_prot | Protocole d'authentification SNMP (MD5, SHA). |
| Protocole de confidentialité SNMP | snmp_priv_prot | Protocole de confidentialité SNMP (DES, AES). |
| Mot de passe du protocole de confidentialité SNMP | snmp_priv_passwd | Mot de passe du protocole de confidentialité SNMP. |
| Script du protocole de confidentialité SNMP | snmp_priv_passwd_script | Script fournissant un mot de passe pour le protocole de confidentialité SNMP. Son utilisation supplante le paramètre (mot de passe du protocole de confidentialité SNMP). |
| Attente démarrage (secondes) | power_wait | Nombre de secondes d'attente après avoir effectué une commande de mise hors tension ou de mise sous tension. |
| Numéro (de la prise) du port | port | Numéro de la prise physique ou nom de la machine virtuelle. Ce paramètre est toujours requis. |
fence_egenera, l'agent fence pour Egenera BladeFrame.
| Champ luci | Attribut cluster.conf | Description |
|---|---|---|
| Nom | name | Nom du périphérique BladeFrame Egenera connecté au cluster. |
| CServer | cserver | Nom d'hôte (optionnellement nom d'utilisateur sous la forme username@hostname) assigné au périphérique. Reportez-vous à la page man fence_egenera(8) pour obtenir plus d'informations. |
| ESH Path (optional) | esh | Chemin d'accès de la commande esh sur le cserver (par défaut /opt/panmgr/bin/esh) |
| Nom d'utilisateur : | user | Nom de la connexion, la valeur par défaut est root. |
| lpan | lpan | LPAN (de l'anglais, « Logical Process Area Network », réseau de la zone du processus logique) du périphérique. |
| pserver | pserver | Nom du « processing blade » (pserver) du périphérique. |
fence_eps, l'agent fence pour ePowerSwitch.
| Champ luci | Attribut cluster.conf | Description |
|---|---|---|
| Nom | name | Nom du périphérique ePowerSwitch connecté au cluster. |
| Adresse IP ou nom d'hôte | ipaddr | Adresse IP ou nom d'hôte assigné au périphérique. |
| Connexion | login | Nom de connexion utilisé pour accéder au périphérique. |
| Mot de passe | passwd | Mot de passe utilisé pour authentifier la connexion au périphérique. |
| Script de mot de passe (optionnel) | passwd_script | Script fournissant un mot de passe pour accéder au périphérique fence. Son utilisation supplante le paramètre . |
| Nom de la page cachée | hidden_page | Nom de la page cachée du périphérique. |
| Numéro (de la prise) du port | port | Numéro de la prise physique ou nom de machine virtuelle. |
fence_virt, l'agent fence pour un périphérique fence « Fence virt ».
| Champ luci | Attribut cluster.conf | Description |
|---|---|---|
| Nom | name | Nom du périphérique fence « Fence virt ». |
| Périphérique série | serial_device | Sur l'hôte, le périphérique série doit être mappé dans le fichier de configuration de chaque domaine. Pour obtenir plus d'informations, voir la page man fence_virt.conf. Si ce champ est spécifié, il cause à l'agent du fencing fence_virt d'opérer en mode série. Ne pas spécifier de valeur cause à l'agent du fencing fence_virt d'opérer en mode canal VM. |
| Paramètres de série | serial_params | Paramètres de série. Les valeurs par défaut sont 115200, 8N1. |
| Adresse IP du canal VM | channel_address | Adresse IP du canal. La valeur par défaut est 10.0.2.179. |
| Port ou domaine (déprécié) | port | Machine virtuelle (Nom ou UUID de domaine) à clôturer. |
ipport | Port du canal. La valeur par défaut est 1229, qui est la valeur utilisée lors de la configuration de ce périphérique fence avec luci. |
fence_rsb, l'agent fence pour le RSB Fujitsu-Siemens.
| Champ luci | Attribut cluster.conf | Description |
|---|---|---|
| Nom | name | Nom du RSB à utiliser en tant que périphérique fence. |
| Adresse IP ou nom d'hôte | ipaddr | Nom d'hôte assigné au périphérique. |
| Connexion | login | Nom de connexion utilisé pour accéder au périphérique. |
| Mot de passe | passwd | Mot de passe utilisé pour authentifier la connexion au périphérique. |
| Script de mot de passe (optionnel) | passwd_script | Script fournissant un mot de passe pour accéder au périphérique fence. Son utilisation supplante le paramètre . |
| Port TCP | ipport | Numéro de port écouté par le service telnet. La valeur par défaut est 3172. |
fence_hpblade, l'agent fence de HP BladeSystem.
| Champ luci | Attribut cluster.conf | Description |
|---|---|---|
| Nom | name | Nom du périphérique HP BladeSystem connecté au cluster. |
| Adresse IP ou nom d'hôte | ipaddr | Adresse IP ou nom d'hôte assigné au périphérique HP BladeSystem. |
| Port IP (optionnel) | ipport | Port TCP à utiliser pour se connecter au périphérique. |
| Connexion | login | Nom de connexion utilisé pour accéder au périphérique HP BladeSystem. Ce paramètre est requis. |
| Mot de passe | passwd | Mot de passe utilisé pour authentifier la connexion sur le périphérique fence. |
| Script de mot de passe (optionnel) | passwd_script | Script fournissant un mot de passe pour accéder au périphérique fence. Son utilisation supplante le paramètre . |
| Forcer l'invite de commande | cmd_prompt | Invite de commande à utiliser. La valeur par défaut est ’\$’. |
| Le port manquant retourne OFF au lieu d'un échec | missing_as_off | Le port manquant retourne OFF au lieu d'un échec. |
| Attente démarrage (secondes) | power_wait | Nombre de secondes d'attente après avoir effectué une commande de mise hors tension ou de mise sous tension. |
| Utiliser SSH | secure | Indique que le système utilisera SSH pour accéder au périphérique. |
| Chemin vers le fichier d'identité SSH | identity_file | Fichier d'identité de SSH. |
fence_ilo, l'agent fence pour les périphériques HP iLO.
| Champ luci | Attribut cluster.conf | Description |
|---|---|---|
| Nom | name | Nom du serveur avec le support HP iLO. |
| Adresse IP ou nom d'hôte | ipaddr | Adresse IP ou nom d'hôte assigné au périphérique. |
| Port IP (optionnel) | ipport | Port TCP à utiliser pour une connexion avec le périphérique. |
| Connexion | login | Nom de connexion utilisé pour accéder au périphérique. |
| Mot de passe | passwd | Mot de passe utilisé pour authentifier la connexion au périphérique. |
| Script de mot de passe (optionnel) | passwd_script | Script fournissant un mot de passe pour accéder au périphérique fence. Son utilisation supplante le paramètre . |
| Délai de l'alimentation | power_wait | Nombre de secondes d'attente après avoir effectué une commande de mise hors tension ou de mise sous tension. |
fence_ilo_mp, l'agent fence pour les périphériques HP iLO MP.
| Champ luci | Attribut cluster.conf | Description |
|---|---|---|
| Nom | name | Nom du serveur avec le support HP iLO. |
| Adresse IP ou nom d'hôte | ipaddr | Adresse IP ou nom d'hôte assigné au périphérique. |
| Port IP (optionnel) | ipport | Port TCP à utiliser pour une connexion avec le périphérique. |
| Connexion | login | Nom de connexion utilisé pour accéder au périphérique. |
| Mot de passe | passwd | Mot de passe utilisé pour authentifier la connexion au périphérique. |
| Script de mot de passe (optionnel) | passwd_script | Script fournissant un mot de passe pour accéder au périphérique fence. Son utilisation supplante le paramètre . |
| Utiliser SSH | secure | Indique que le système utilisera SSH pour accéder au périphérique. |
| Chemin vers le fichier d'identité SSH | identity_file | Fichier d'identité de SSH. |
| Forcer l'invite de commande | cmd_prompt | Invite de commande à utiliser. La valeur par défaut est ’MP>’, ’hpiLO->’. |
| Délai de l'alimentation | power_wait | Nombre de secondes d'attente après avoir effectué une commande de mise hors tension ou de mise sous tension. |
fence_bladecenter, l'agent fence pour IBM BladeCenter.
| Champ luci | Attribut cluster.conf | Description |
|---|---|---|
| Nom | name | Nom du périphérique IBM BladeCenter connecté au cluster. |
| Adresse IP ou nom d'hôte | ipaddr | Adresse IP ou nom d'hôte assigné au périphérique. |
| IP port (optional) | ipport | Port TCP à utiliser pour une connexion avec le périphérique. |
| Connexion | login | Nom de connexion utilisé pour accéder au périphérique. |
| Mot de passe | passwd | Mot de passe utilisé pour authentifier la connexion au périphérique. |
| Script de mot de passe (optionnel) | passwd_script | Script fournissant un mot de passe pour accéder au périphérique fence. Son utilisation supplante le paramètre . |
| Délai de l'alimentation | power_wait | Nombre de secondes d'attente après avoir effectué une commande de mise hors tension ou de mise sous tension. |
| Utiliser SSH | secure | Indique que le système utilisera SSH pour accéder au périphérique. |
| Chemin vers le fichier d'identité SSH | identity_file | Fichier d'identité de SSH. |
fence_ibmblade, l'agent fence pour IBM BladeCenter sur SNMP.
| Champ luci | Attribut cluster.conf | Description |
|---|---|---|
| Nom | name | Nom du périphérique IBM BladeCenter SNMP connecté au cluster. |
| Adresse IP ou nom d'hôte | ipaddr | Adresse IP ou nom d'hôte assigné au périphérique. |
| Port UDP/TCP (optionnel) | udpport | Port UDP/TCP à utiliser pour les connexions avec le périphérique, la valeur par défaut est 161. |
| Connexion | login | Nom de connexion utilisé pour accéder au périphérique. |
| Mot de passe | passwd | Mot de passe utilisé pour authentifier la connexion au périphérique. |
| Script de mot de passe (optionnel) | passwd_script | Script fournissant un mot de passe pour accéder au périphérique fence. Son utilisation supplante le paramètre . |
| Version de SNMP | snmp_version | Version SNMP à utiliser (1, 2c, 3), la valeur par défaut est 1. |
| Communauté SNMP | community | Chaîne SNMP Community. |
| Niveau de sécurité SNMP | snmp_sec_level | Niveau de sécurité SNMP (noAuthNoPriv, authNoPriv, authPriv). |
| Protocole d'authentification SNMP | snmp_auth_prot | Protocole d'authentification SNMP (MD5, SHA). |
| Protocole de confidentialité SNMP | snmp_priv_prot | Protocole de confidentialité SNMP (DES, AES). |
| Mot de passe du protocole de confidentialité SNMP | snmp_priv_passwd | Mot de passe du protocole de confidentialité SNMP. |
| Script du protocole de confidentialité SNMP | snmp_priv_passwd_script | Script fournissant un mot de passe pour le protocole de confidentialité SNMP. Son utilisation supplante le paramètre (mot de passe du protocole de confidentialité SNMP). |
| Délai de l'alimentation | power_wait | Nombre de secondes d'attente après avoir effectué une commande de mise hors tension ou de mise sous tension. |
| Port | port | Numéro de la prise physique ou nom de machine virtuelle. |
fence_ipdu, l'agent fence pour iPDU sur périphériques SNMP.
| Champ luci | Attribut cluster.conf | Description |
|---|---|---|
| Nom | name | Nom du périphérique IBM iPDU connecté au cluster auquel le démon fence se connecte via le protocole SNMP. |
| Adresse IP ou nom d'hôte | ipaddr | Adresse IP ou nom d'hôte assigné au périphérique. |
| Port UDP/TCP | udpport | Port UDP/TCP à utiliser pour la connexion avec le périphérique, la valeur par défaut est 161. |
| Connexion | login | Nom de connexion utilisé pour accéder au périphérique. |
| Mot de passe | passwd | Mot de passe utilisé pour authentifier la connexion au périphérique. |
| Script de mot de passe (optionnel) | passwd_script | Script fournissant un mot de passe pour accéder au périphérique fence. Son utilisation supplante le paramètre . |
| Version de SNMP | snmp_version | Version SNMP à utiliser (1, 2c, 3), la valeur par défaut est 1. |
| Communauté SNMP | community | Chaîne « SNMP community », la valeur par défaut est private. |
| Niveau de sécurité SNMP | snmp_sec_level | Niveau de sécurité SNMP (noAuthNoPriv, authNoPriv, authPriv). |
| Protocole d'authentification SNMP | snmp_auth_prot | Protocole d'authentification SNMP (MD5, SHA). |
| Protocole de confidentialité SNMP | snmp_priv_prot | Protocole de confidentialité SNMP (DES, AES). |
| Mot de passe du protocole de confidentialité SNMP | snmp_priv_passwd | Mot de passe du protocole de confidentialité SNMP. |
| Script du protocole de confidentialité SNMP | snmp_priv_passwd_script | Script fournissant un mot de passe pour le protocole de confidentialité SNMP. Son utilisation supplante le paramètre (mot de passe du protocole de confidentialité SNMP). |
| Délai de l'alimentation | power_wait | Nombre de secondes d'attente après avoir effectué une commande de mise hors tension ou de mise sous tension. |
| Port | port | Le port. |
fence_ifmib, l'agent fence pour les périphériques IF-MIB.
| Champ luci | Attribut cluster.conf | Description |
|---|---|---|
| Nom | name | Nom du périphérique IF MIB connecté au cluster. |
| Adresse IP ou nom d'hôte | ipaddr | Adresse IP ou nom d'hôte assigné au périphérique. |
| Port UDP/TCP (optionnel) | udpport | Port UDP/TCP à utiliser pour la connexion avec le périphérique, la valeur par défaut est 161. |
| Connexion | login | Nom de connexion utilisé pour accéder au périphérique. |
| Mot de passe | passwd | Mot de passe utilisé pour authentifier la connexion au périphérique. |
| Script de mot de passe (optionnel) | passwd_script | Script fournissant un mot de passe pour accéder au périphérique fence. Son utilisation supplante le paramètre . |
| Version de SNMP | snmp_version | Version SNMP à utiliser (1, 2c, 3), la valeur par défaut est 1. |
| Communauté SNMP | community | Chaîne SNMP Community. |
| Niveau de sécurité SNMP | snmp_sec_level | Niveau de sécurité SNMP (noAuthNoPriv, authNoPriv, authPriv). |
| Protocole d'authentification SNMP | snmp_auth_prot | Protocole d'authentification SNMP (MD5, SHA). |
| Protocole de confidentialité SNMP | snmp_priv_prot | Protocole de confidentialité SNMP (DES, AES). |
| Mot de passe du protocole de confidentialité SNMP | snmp_priv_passwd | Mot de passe du protocole de confidentialité SNMP. |
| Script du protocole de confidentialité SNMP | snmp_priv_passwd_script | Script fournissant un mot de passe pour le protocole de confidentialité SNMP. Son utilisation supplante le paramètre (mot de passe du protocole de confidentialité SNMP). |
| Délai de l'alimentation | power_wait | Nombre de secondes d'attente après avoir effectué une commande de mise hors tension ou de mise sous tension. |
| Port | port | Numéro de la prise physique ou nom de machine virtuelle. |
fence_intelmodular, l'agent fence pour Intel Modular.
| Champ luci | Attribut cluster.conf | Description |
|---|---|---|
| Nom | name | Nom du périphérique Intel Modular connecté au cluster. |
| Adresse IP ou nom d'hôte | ipaddr | Adresse IP ou nom d'hôte assigné au périphérique. |
| Connexion | login | Nom de connexion utilisé pour accéder au périphérique. |
| Mot de passe | passwd | Mot de passe utilisé pour authentifier la connexion au périphérique. |
| Script de mot de passe (optionnel) | passwd_script | Script fournissant un mot de passe pour accéder au périphérique fence. Son utilisation supplante le paramètre . |
| Version de SNMP | snmp_version | Version SNMP à utiliser (1, 2c, 3), la valeur par défaut est 1. |
| Communauté SNMP | community | Chaîne « SNMP community », la valeur par défaut est private. |
| Niveau de sécurité SNMP | snmp_sec_level | Niveau de sécurité SNMP (noAuthNoPriv, authNoPriv, authPriv). |
| Protocole d'authentification SNMP | snmp_auth_prot | Protocole d'authentification SNMP (MD5, SHA). |
| Protocole de confidentialité SNMP | snmp_priv_prot | Protocole de confidentialité SNMP (DES, AES). |
| Mot de passe du protocole de confidentialité SNMP | snmp_priv_passwd | Mot de passe du protocole de confidentialité SNMP. |
| Script du protocole de confidentialité SNMP | snmp_priv_passwd_script | Script fournissant un mot de passe pour le protocole de confidentialité SNMP. Son utilisation supplante le paramètre (mot de passe du protocole de confidentialité SNMP). |
| Délai de l'alimentation | power_wait | Nombre de secondes d'attente après avoir effectué une commande de mise hors tension ou de mise sous tension. |
| Port | port | Numéro de la prise physique ou nom de machine virtuelle. |
fence_ipmilan, l'agent fence pour IPMI sur LAN.
| Champ luci | Attribut cluster.conf | Description |
|---|---|---|
| Nom | name | Nom du périphérique IPMI LAN connecté au cluster. |
| Adresse IP ou nom d'hôte | ipaddr | Adresse IP ou nom d'hôte assigné au périphérique. |
| Connexion | login | Nom de connexion d'un utilisateur en mesure d'effectuer des commandes de mise sous/hors tension sur un port IPMI donné. |
| Mot de passe | passwd | Mot de passe utilisé pour authentifier la connexion sur le port IPMI. |
| Script de mot de passe (optionnel) | passwd_script | Script fournissant un mot de passe pour accéder au périphérique fence. Son utilisation supplante le paramètre . |
| Type d'authentification | auth | Type d'authentification IPMI LAN : none (aucun), password (mot de passe), ou md5. |
| Utiliser Lanplus | lanplus | True ou 1. Si vide, alors la valeur est False. |
| Ciphersuite to use | cipher | Serveur distant d'authentification, et algoritmes d'intégrité et de chiffrement à utiliser pour les connexions lanplus IPMIv2. |
| Niveau de privilèges | privlvl | Niveau de privilèges du périphérique IPMI. |
fence_rhevm, l'agent fence pour RHEV-M REST API.
| Champ luci | Attribut cluster.conf | Description |
|---|---|---|
| Nom | name | Nom du périphérique de fencing RHEV-M REST API. |
| Adresse IP ou nom d'hôte | ipaddr | Adresse IP ou nom d'hôte assigné au périphérique. |
| Port IP (optionnel) | ipport | Port TCP à utiliser pour une connexion avec le périphérique. |
| Connexion | login | Nom de connexion utilisé pour accéder au périphérique. |
| Mot de passe | passwd | Mot de passe utilisé pour authentifier la connexion au périphérique. |
| Script de mot de passe (optionnel) | passwd_script | Script fournissant un mot de passe pour accéder au périphérique fence. Son utilisation supplante le paramètre . |
| Utiliser SSH | ssl | Utilisez les connexions SSL pour communiquer avec le périphérique. |
| Délai de l'alimentation | power_wait | Nombre de secondes d'attente après avoir effectué une commande de mise hors tension ou de mise sous tension. |
| Port | port | Numéro de la prise physique ou nom de machine virtuelle. |
fence_scsi, l'agent fence pour les réservations persistantes SCSI.
Note
- Lors de l'utilisation du fencing SCSI, tous les nœuds dans le cluster doivent s'enregistrer avec les mêmes périphériques afin que chaque nœud puisse supprimer la clé d'enregistrement d'un autre nœud de tous les périphériques auprès desquels elle est enregistrée.
- Les périphériques utilisés pour les volumes de clusters devraient être un LUN complet et non des partitions. Les réservations persistantes SCSI fonctionnent sur un LUN entier, ce qui signifie que l'accès est contrôlé sur chaque LUN, pas sur les partitions individuelles.
| Champ luci | Attribut cluster.conf | Description |
|---|---|---|
| Nom | name | Nom du périphérique fence SCSI. |
| Node name | | |
| Clé pour l'action actuelle | | (remplace le nom du nœud) |
fence_vmware_soap, l'agent fence pour VMWare sur SOAP API.
| Champ luci | Attribut cluster.conf | Description |
|---|---|---|
| Nom | name | Nom du périphérique de fencing de la machine virtuelle. |
| Adresse IP ou nom d'hôte | ipaddr | Adresse IP ou nom d'hôte assigné au périphérique. |
| Port IP (optionnel) | ipport | Port TCP à utiliser pour une connexion avec le périphérique. |
| Connexion | login | Nom de connexion utilisé pour accéder au périphérique. |
| Mot de passe | passwd | Mot de passe utilisé pour authentifier la connexion au périphérique. |
| Script de mot de passe (optionnel) | passwd_script | Script fournissant un mot de passe pour accéder au périphérique fence. Son utilisation supplante le paramètre . |
| Séparateur | separator | Séparateur pour CSV créé par la liste des opérations. La valeur par défaut est une virgule (« , »). |
| Délai de l'alimentation | power_wait | Nombre de secondes d'attente après avoir effectué une commande de mise hors tension ou de mise sous tension. |
| Nom de la VM | port | Nom de la machine virtuelle sous le format de chemin d'inventaire (par exemple, /datacenter/vm/Discovered_virtual_machine/myMachine). |
| UUID de la VM | uuid | UUID de la machine virtuelle sur laquelle effectuer le fencing. |
| Utiliser SSH | ssl | Utilisez les connexions SSL pour communiquer avec le périphérique. |
fence_wti, l'agent fence pour l'interrupteur d'alimentation réseau WTI.
| Champ luci | Attribut cluster.conf | Description |
|---|---|---|
| Nom | name | Nom de l'interrupteur d'alimentation WTI connecté au cluster. |
| Adresse IP ou nom d'hôte | ipaddr | Adresse IP ou adresse du nom d'hôte assignée au périphérique. |
| Port IP (optionnel) | ipport | Port TCP à utiliser pour se connecter au périphérique. |
| Connexion | login | Nom de connexion utilisé pour accéder au périphérique. |
| Mot de passe | passwd | Mot de passe utilisé pour authentifier la connexion au périphérique. |
| Script de mot de passe (optionnel) | passwd_script | Script fournissant un mot de passe pour accéder au périphérique fence. Son utilisation supplante le paramètre . |
| Port | port | Numéro de la prise physique ou nom de machine virtuelle. |
| Force command prompt | cmd_prompt | Invite de commande à utiliser. La valeur par défaut est [’RSM>’, ’>MPC’, ’IPS>’, ’TPS>’, ’NBB>’, ’NPS>’, ’VMR>’] |
| Délai de l'alimentation | power_wait | Nombre de secondes d'attente après avoir effectué une commande de mise hors tension ou de mise sous tension. |
| Utiliser SSH | secure | Indique que le système utilisera SSH pour accéder au périphérique. |
| Chemin vers le fichier d'identité SSH | identity_file | Fichier d'identité de SSH. |
Annexe B. Paramètres des ressources HA Copier lienLien copié sur presse-papiers!
ccs, ou en modifiant le fichier etc/cluster/cluster.conf. Le Tableau B.1, « Sommaire des ressources HA » répertorie les ressources, leurs agents de ressources correspondants, et les références aux autres tableaux contenant des descriptions de paramètres. Pour mieux comprendre les agents de ressources, vous pouvez les voir dans le fichier /usr/share/cluster de chaque nœud du cluster.
/usr/share/cluster inclut un script OCF factice pour un groupe de ressources, service.sh. Pour obtenir des informations supplémentaires sur les paramètres inclus dans ce script, reportez-vous au script service.sh.
cluster.conf, reportez-vous au schéma du cluster sous /usr/share/cluster/cluster.rng, et au schéma sous /usr/share/doc/cman-X.Y.ZZ/cluster_conf.html (par exemple, /usr/share/doc/cman-3.0.12/cluster_conf.html).
| Ressource | Agent de ressources | Références aux descriptions des paramètres |
|---|---|---|
| Apache | apache.sh | Tableau B.2, « Serveur Apache » |
| Instance Condor | condor.sh | Tableau B.3, « Instance Condor » |
| Système de fichiers | fs.sh | Tableau B.4, « Système de fichiers » |
| Système de fichiers GFS2 | clusterfs.sh | Tableau B.5, « GFS2 » |
| Adresse IP | ip.sh | Tableau B.6, « Adresse IP » |
| LVM HA | lvm.sh | Tableau B.7, « LVM HA » |
| MySQL | mysql.sh | Tableau B.8, « MySQL » |
| Client NFS | nfsclient.sh | Tableau B.9, « Client NFS » |
| Export NFS | nfsexport.sh | Tableau B.10, « Export NFS » |
| Serveur NFS | nfsserver.sh | Tableau B.11, « Serveur NFS » |
| Montage NFS/CIFS | netfs.sh | Tableau B.12, « Montage NFS/CIFS » |
| Open LDAP | openldap.sh | Tableau B.13, « Open LDAP » |
| Instance de basculement Oracle 10g/11g | oracledb.sh | Tableau B.14, « Instance de basculement Oracle 10g/11g » |
| Instance de basculement Oracle 10g | orainstance.sh | Tableau B.15, « Instance de basculement Oracle 10g » |
| Listener Oracle 10g | oralistener.sh | Tableau B.16, « Listener Oracle 10g » |
| PostgreSQL 8 | postgres-8.sh | Tableau B.17, « PostgreSQL 8 » |
| SAP Database | SAPDatabase | Tableau B.18, « SAP Database » |
| SAP Instance | SAPInstance | Tableau B.19, « SAP Instance » |
| Samba | samba.sh | Tableau B.20, « Serveur Samba » |
| Script | script.sh | Tableau B.21, « Script » |
| Sybase ASE | ASEHAagent.sh | Tableau B.22, « Instance de basculement ASE Sybase » |
| Tomcat 6 | tomcat-6.sh | Tableau B.23, « Tomcat 6 » |
| Virtual Machine | vm.sh | Tableau B.24, « Virtual Machine »
REMARQUE : luci affiche ceci en tant que service virtuel si le cluster hôte peut prendre en charge les machines virtuelles.
|
| Champ luci | Attribut de cluster.conf | Description |
|---|---|---|
| Nom | name | Nom du service Apache. |
| Serveur root | server_root | La valeur pas défaut est /etc/httpd. |
| Fichier de configuration | config_file | Spécifie le fichier de configuration. La valeur par défaut est /etc/httpd/conf. |
| Options httpd | httpd_options | Autres options en ligne de commande pour httpd. |
| Attente fermeture (en secondes) | shutdown_wait | Spécifie le nombre de secondes à attendre pour la fermeture correcte de la fin du service. |
| Champ | Champ luci | Attribut de cluster.conf |
|---|---|---|
| Nom d'instance | name | Spécifie un nom unique pour l'instance Condor. |
| Type de sous-système Condor | type | Spécifie le type de sous-système Condor pour cette instance : schedd, job_server, ou query_server. |
| Champ luci | Attribut de cluster.conf | Description |
|---|---|---|
| Nom | name | Spécifie un nom pour la ressources du système de fichiers. |
| Type de système de fichiers | fstype | Si non spécifié, mount essaie de déterminer le type de système de fichiers. |
| Point de montage | mountpoint | Chemin dans la hiérarchie du système de fichiers pour monter ce système de fichiers. |
| Device (périphérique), FS Label (étiquette FS), ou UUID | device | Spécifie le périphérique associé aux ressources du système de fichiers. Ceci peut être un périphérique bloc, une étiquette de système de fichiers, ou l'UUID d'un système de fichiers. |
| Options de montage | options | Options de montage ; options utilisées lorsque le système de fichiers est monté. Celles-ci peuvent être spécifique au système de fichiers. Reportez-vous à la page man mount(8) pour voir les options de montage prises en charge. |
| ID du système de fichiers (optionnel) | fsid | Note ID du système de fichiers est uniquement utilisé par les services NFS.
Lors de la création d'une nouvelle ressource de système de fichiers, vous pouvez laisser ce champ vide. Laisser ce champ vide fait que l'ID du système de fichiers sera assigné automatiquement après avoir committé le paramètre pendant la configuration. Si vous devez assigner un ID de système de fichiers excplicitement, spécifiez-le dans ce champ.
|
| Forcer le démontage | force_unmount | Si activé, il force le système de fichier à se démonter. Le paramètre par défaut est disabled. Lorsqu'il essaie d'effectuer le démontage, Force Unmount supprime tous les processus utilisant le point de montage afin de le libérer. |
| Forcer fsck | force_fsck | Si activé, fsck sera exécuté sur le système de ficheirs avant qu'il ne soit monté. Le paramètre par défaut est disabled. |
| Activez le démon NFS et la solution de contournement lockd (Red Hat Enterprise Linux 6.4 et versions supérieures) | nfsrestart | Si votre système de fichiers est exporté via NFS et qu'il échoue occasionnellement à se démonter (lors d'une fermeture ou du transfert d'un service), le paramétrage de cette option effacera toute référence au système de fichiers avant l'opération de démontage. Le paramétrage de cette option requiert que vous activiez l'option et ne doit pas être utilisée avec la ressource NFS Server. Comme il s'agit d'une tentative forcée de démontage d'un système de fichiers, veuillez paramétrer cette option en dernier recours uniquement. |
| Utiliser les vérifications rapides de statut | quick_status | Si activé, effectue des vérifications rapides du statut. |
| Redémarrer le nœud hôte si le démontage échoue | self_fence | Si activé, redémarre le nœud le démontage du système de fichiers échoue. L'agent de ressources filesystem (système de fichiers) accepte les valeurs 1, yes, on, ou true pour activer ce paramètre et les valeurs 0, no, off, ou false pour le désactiver. Le paramètre par défaut est disabled (désactivé). |
| Champ luci | Attribut de cluster.conf | Description |
|---|---|---|
| Nom | name | Nom de la ressource du système de fichiers. |
| Point de montage | mountpoint | Cheminselon lequel la ressource du système de fichiers est montée. |
| Device (périphérique), FS Label (étiquette FS), ou UUID | device | Fichier du périphérique associé à la ressource du système de fichiers. |
| Type de système de fichiers | fstype | Paramétrer sur GFS2 sur luci |
| Options de montage | options | Options de montage. |
| ID du système de fichiers (optionnel) | fsid | Note ID du système de fichiers est uniquement utilisé par les services NFS.
Lors de la création d'une nouvelle ressource GFS2, vous pouvez laisser ce champ vide. Laisser ce champ vide fera que l'ID du système de fichiers sera assigné automatiquement après avoir committé le paramètre pendant la configuration. Si vous devez assigner un ID de système de fichiers explicitement, spécifiez-le dans ce champ.
|
| Forcer le démontage | force_unmount | Si activé, il force le système de fichiers à se démonter. Le paramètre par défaut est disabled. Lorsqu'il essaie d'effectuer le démontage, Force Unmount supprime tous les processus utilisant le point de montage afin de libérer celui-ci. Avec les ressources GFS2, le point de montage n'est pas démonté lors du service démontage à moins que Force Unmount (Forcer le démontage) ne soit enabled (activé). |
| Activez le démon NFS et la solution de contournement lockd (Red Hat Enterprise Linux 6.4 et versions supérieures) | nfsrestart | Si votre système de fichiers est exporté via NFS et qu'il échoue occasionnellement à se démonter (lors d'une fermeture ou du transfert d'un service), le paramétrage de cette option effacera toute référence au système de fichiers avant l'opération de démontage. Le paramétrage de cette option requiert que vous activiez l'option et ne doit pas être utilisée avec la ressource NFS Server. Comme il s'agit d'une tentative forcée de démontage d'un système de fichiers, veuillez paramétrer cette option en dernier recours uniquement. |
| Redémarrer le nœud hôte si le démontage échoue | self_fence | Si activer et démonter le système de fichiers échoue, le nœud redémarrera immédiatement. En général, ceci est utilisé en conjonction avec la prise en charge de force-unmount (forcer le démontage), mais n'est pas requis. L'agent de ressources GFS2 accepte les valeurs 1, yes, on, ou true pour activer ce paramètre et les valeurs 0, no, off, ou false pour le désactiver. |
| Champ luci | Attribut de cluster.conf | Description |
|---|---|---|
| IP Address (adresse IP), Netmask Bits (bits de masque réseau) | address | L'adresse IP (et optionnellement les bits du masque réseau) pour la ressource. Les bits du masque réseau, ou la longueur du préfixe réseau, peut se situer après l'adresse avec une barre oblique utilisée comme séparateur, en conformité avec la notation CIDR (par exemple, 10.1.1.1/8). Ceci est une adresse IP virtuelle. Les adresses IPv4 et IPv6 sont prises en charge, tout comme le contrôle du lien NIC pour chaque adresse IP. |
| Monitor Link | monitor_link | Activer ceci cause à la vérification du statut d'échouer si le lien sur le NIC vers lequel cette adresse IP se dirige n'est pas présent. |
| Désactiver les mises à jour des routes statiques | disable_rdisc | Désactiver les mises à jour du routage à l'aide du protocole RDISC. |
| Nombre de secondes de veille après la suppression d'une adresse IP | sleeptime | Spécifie le temps (en secondes) de veille. |
| Champ luci | Attribut de cluster.conf | Description |
|---|---|---|
| Nom | name | Nom unique pour cette ressource LVM. |
| Nom du groupe de volumes | vg_name | Nom descriptif du groupe de volumes géré. |
| Nom du volume logique (optionnel) | lv_name | Nom du volume logique géré. Ce paramètre est optionnel s'il y a plus d'un volume logique dans le groupe de volumes géré. |
| Fencing du nœud s'il est incapable de nettoyer les balises LVM | self_fence | Effectuez le fencing du nœud s'il est incapable de supprimer les balises LVM. L'agent de ressources LVM accepte les valeurs 1 ou yes pour activer ce paramètre et les valeurs 0 ou no pour le désactiver. |
| Champ luci | Attribut de cluster.conf | Description |
|---|---|---|
| Nom | name | Spécifie un nom pour la ressource de MySQL server. |
| Fichier de configuration | config_file | Spécifie le fichier de configuration. La valeur par défaut est /etc/my.cnf. |
| Listen Address | listen_address | Spécifie une adresse IP pour MySQL server. Si aucune adresse IP n'est fournie, la première adresse IP du service sera utilisée. |
| Options mysqld | mysqld_options | Autres options en ligne de commande pour httpd. |
| Attente démarrage (en secondes) | startup_wait | Spécifie le nombre de secondes à attendre pour la fin correcte du démarrage du service. |
| Attente fermeture (en secondes) | shutdown_wait | Spécifie le nombre de secondes à attendre pour la fermeture correcte de la fin du service. |
| Champ luci | Attribut de cluster.conf | Description |
|---|---|---|
| Nom | name | Ceci est un nom symbolique d'un client habitué à y faire référence dans l'arborescence des ressources. Il ne s'agit pas de la même chose que l'option Target (Cible). |
| Nom d'hôte, caractère générique, ou netgroup de la cible | target | Serveur à partir duquel vous effectuez le montage. Il peut être spécifié à l'aide d'un nom d'hôte, d'un caractère de remplacement (basé sur adresse IP ou nom d'hôte), ou d'un netgroup définissant un hôte ou des hôtes vers lequel (ou lesquels) exporter. |
| Autoriser la récupération de ce client NFS | allow_recover | Autorise la récupération. |
| Options | options | Définit une liste d'options pour ce client — par exemple, des droits d'accès client supplémentaires. Pour plus d'informations, reportez-vous aux Options générales de la page man exports (5). |
| Champ luci | Attribut de cluster.conf | Description |
|---|---|---|
| Nom | name |
Nom descriptif de la ressource. La ressource NFS Export s'assure que les démons NFS sont en cours d'exécution. Elle est entièrement réutilisable ; habituellement, seule une ressource NFS Export est nécessaire.
Note
Nom de la ressource NFS Export, afin qu'elle soit clairement distinguable des autres ressources NFS.
|
| Champ luci | Attribut de cluster.conf | Description |
|---|---|---|
| Nom | name |
Nom descriptif de la ressource du serveur NFS. La ressource du serveur NFS est utile pour exporter des systèmes de fichiers NFSv4 sur des clients. À cause de la manière dont NFSv4 fonctionne, seule une ressource NFSv4 peut exister sur un serveur à la fois. En outre, il n'est pas possible d'utiliser la ressource de serveur NFS lorsque des instances locales de NFS sont aussi utilisées sur chaque nœud de cluster.
|
| Champ luci | Attribut de cluster.conf | Description |
|---|---|---|
| Nom | name |
Nom symbolique du montage NFS ou CIFS.
Note
Cette ressource est requise lorsqu'un service cluster est configuré de manière à être un client NFS.
|
| Point de montage | mountpoint | Chemin sur lequel la ressource du système de fichiers est montée. |
| Hôte | host | Adresse IP ou nom d'hôte du serveur NFS/CIFS. |
| Nom du répertoire NFS Export ou nom du partage CIFS | export | Nom du répertoire NFS Export ou nom du partage CIFS. |
| Type de système de fichiers | fstype |
Type de système de fichiers :
|
| Forcer le démontage | force_unmount | Si Force Unmount (Forcer le démontage) est activé, le cluster supprime tous les processus à l'aide de ce système de fichiers lorsque le service est arrêté. La suppression de tous les processus à l'aide du système de fichiers libère l'espace du système de fichiers. Autrement, le démontage échouera et le service sera redémarré. |
| Ne pas démonter le système de fichiers pendant une opération d'arrêt ou de déplacement. | no_unmount | Si activé, cela spécifie que le système de fichiers ne doit pas être démonté pendant une opération d'arrêt ou de déplacement. |
| Options | options | Options de montage. Spécifie une liste des options de montage. Si aucune n'est spécifiée, le système de fichiers est monté -o sync. |
| Champ luci | Attribut de cluster.conf | Description |
|---|---|---|
| Nom | name | Spécifie un nom de service pour la connexion et pour d'autres raisons. |
| Fichier de configuration | config_file | Spécifie un chemin absolu vers un fichier de configuration. La valeur par défaut est /etc/openldap/slapd.conf. |
| Liste des URL | url_list | La valeur par défaut est ldap:///. |
Options slapd | slapd_options | Autres options en ligne de commande de slapd. |
| Attente fermeture (en secondes) | shutdown_wait | Spécifie le nombre de secondes à attendre pour la fermeture correcte de la fin du service. |
| Champ luci | Attribut de cluster.conf | Description |
|---|---|---|
| Nom d'instance (SID) de l'instance Oracle | name | Nom d'instance. |
| Nom d'utilisateur Oracle | user | Ceci est le nom d'utilisateur de l'utilisateur Oracle sous lequel l'instance AS d'Oracle est exécutée. |
| Répertoire de base de l'application Oracle | home | Ceci est le répertoire de base d'Oracle (l'application, et non l'utilisateur). Il est configuré lorsque vous installez Oracle. |
| Type d'installation Oracle | type | Type d'installation Oracle. Par défaut : 10g, Database Instance and Listener Only base, Database, Listener, Enterprise Manager et ISQL*Plus : base-em (ou 10g), ou Internet Application Server (infrastructure) : ias (ou 10g-ias). |
| Nom d'hôte virtuel (optionnel) | vhost | Nom d'hôte virtuel correspondant au nom d'hôte de l'installation d'Oracle 10g. Remarquez que pendant le démarrage/arrêt d'une ressource oracledb, votre nom d'hôte est temporairement modifié sous ce nom d'hôte. Ainsi, vous devriez configurer une ressource oracledb faisant partie d'un service exclusif uniquement. |
| Champ luci | Attribut de cluster.conf | Description |
|---|---|---|
| Nom d'instance (SID) de l'instance Oracle | name | Nom d'instance. |
| Nom d'utilisateur Oracle | user | Ceci est le nom d'utilisateur de l'utilisateur Oracle sous lequel l'instance d'Oracle est exécutée. |
| Répertoire de base de l'application Oracle | home | Ceci est le répertoire de base d'Oracle (l'application, et non l'utilisateur). Il est configuré lorsque vous installez Oracle. |
| Liste des listeners Oracle (optionnels, séparés par des espaces) | listeners | Liste des listeners Oracle qui seront lancés avec l'instance de la base de données. Les noms de listeners sont séparés par des espaces vides. Vide par défaut, ce qui désactive les listeners. |
| Chemin vers le fichier verrou (optionnel) | lockfile | Emplacement du fichier verrou qui sera utilisé pour vérifier si Oracle devrait être exécuté ou non. Se met par défaut sous l'emplacement /tmp. |
| Champ luci | Attribut de cluster.conf | Description |
|---|---|---|
| Nom du listener | name | Nom du listener. |
| Nom d'utilisateur Oracle | user | Ceci est le nom d'utilisateur de l'utilisateur Oracle sous lequel l'instance d'Oracle est exécutée. |
| Répertoire de base de l'application Oracle | home | Ceci est le répertoire de base d'Oracle (l'application, et non l'utilisateur). Il est configuré lorsque vous installez Oracle. |
| Champ luci | Attribut de cluster.conf | Description |
|---|---|---|
| Nom | name | Spécifie un nom de service pour la connexion et pour d'autres raisons. |
| Fichier de configuration | config_file | Définit un chemin absolu vers le fichier de configuration. La valeur par défaut est /var/lib/pgsql/data/postgresql.conf. |
| Postmaster User | postmaster_user | Utilisateur qui exécute le serveur de la base de données car elle ne peut être exécutée par root. La valeur par défaut est postgres. |
| Options Postmaster | postmaster_options | Autres options en ligne de commande de postmaster. |
| Attente fermeture (en secondes) | shutdown_wait | Spécifie le nombre de secondes à attendre pour la fermeture correcte de la fin du service. |
| Champ luci | Attribut de cluster.conf | Description |
|---|---|---|
| Nom de base de données SAP | SID | Spécifie un identifiant de système SAP unique. Par exemple, P01. |
| Répertoire exécutable SAP | DIR_EXECUTABLE | Spécifie le chemin d'accès complet vers sapstartsrv et sapcontrol. |
| Type de base de données | DBTYPE | Spécifie un type des bases de données suivantes : Oracle, DB6, ou ADA. |
| Nom du listener Oracle | NETSERVICENAME | Spécifie le nom de l'écouteur (listener) TNS d'Oracle. |
| La pile ABAP n'est pas installée, seule la pile Java est installée | DBJ2EE_ONLY | Si aucune pile ABAP n'est installée dans la base de données SAP, activez ce paramètre. |
| Surveillance du niveau des applications | STRICT_MONITORING | Active la surveillance du niveau des applications. |
| Récupération du démarrage automatique (« Automatic Startup Recovery ») | AUTOMATIC_RECOVER | Activer ou désactiver la récupération du démarrage automatique. |
| Chemin vers Java SDK | JAVE_HOME | Chemin vers Java SDK. |
| Nom du fichier du pilote JDBC | DB_JARS | Nom de fichier du pilote JDBC. |
| Chemin vers un script pré-démarrage | PRE_START_USEREXIT | Chemin vers un script pré-démarrage. |
| Chemin vers un script post-démarrage | POST_START_USEREXIT | Chemin vers un script post-démarrage. |
| Chemin vers un script pré-arrêt | PRE_STOP_USEREXIT | Chemin vers un script pré-arrêt |
| Chemin vers un script post-arrêt | POST_STOP_USEREXIT | Chemin vers un script post-arrêt |
| Répertoire « Bootstrap » de l'instance J2EE | DIR_BOOTSTRAP | Chemin d'accès complet du répertoire de démarrage de l'instance J2EE. Par exemple, /usr/sap/P01/J00/j2ee/cluster/bootstrap. |
| Chemin du stockage de sécurité J2EE | DIR_SECSTORE | Chemin d'accès complet du répertoire de stockage de sécurité J2EE. Par exemple, /usr/sap/P01/SYS/global/security/lib/tools. |
| Champ luci | Attribut de cluster.conf | Description |
|---|---|---|
| Nom d'instance SAP | InstanceName | Nom complet de l'instance SAP. Par exemple, P01_DVEBMGS00_sapp01ci. |
| Répertoire exécutable SAP | DIR_EXECUTABLE | Chemin d'accès complet vers sapstartsrv et sapcontrol. |
| Répertoire contenant le profil START SAP. | DIR_PROFILE | Chemin d'accès complet vers le profil START SAP. |
| Nom du profil START SAP | START_PROFILE | Spécifie le nom du profil START SAP. |
| Nombre de secondes d'attente avant la vérification du statut du démarrage | START_WAITTIME | Spécifie le nombre de secondes à attendre avant de vérifier le statut du démarrage (ne pas attendre J2EE-Addin). |
| Activer la récupération du démarrage automatique (« Automatic Startup Recovery ») | AUTOMATIC_RECOVER | Activer ou désactiver la récupération du démarrage automatique. |
| Chemin vers un script pré-démarrage | PRE_START_USEREXIT | Chemin vers un script pré-démarrage. |
| Chemin vers un script post-démarrage | POST_START_USEREXIT | Chemin vers un script post-démarrage. |
| Chemin vers un script pré-arrêt | PRE_STOP_USEREXIT | Chemin vers un script pré-arrêt |
| Chemin vers un script post-arrêt | POST_STOP_USEREXIT | Chemin vers un script post-arrêt |
Note
| Champ luci | Attribut de cluster.conf | Description |
|---|---|---|
| Nom | name | Spécifie le nom du serveur Samba. |
| Fichier de configuration | config_file | Fichier de configuration Samba |
| Autres options en ligne de commande de smbd | smbd_options | Autres options en ligne de commande de smbd. |
| Autres options en ligne de commande de nmbd | nmbd_options | Autres options en ligne de commande de nmbd. |
| Attente fermeture (en secondes) | shutdown_wait | Spécifie le nombre de secondes à attendre pour la fermeture correcte de la fin du service. |
| Champ luci | Attribut de cluster.conf | Description |
|---|---|---|
| Nom | name | Spécifie un nom pour le script personnalisé de l'utilisateur. La ressource script permet à un script init compatible avec LSB d'être utilisé pour démarrer un service clusterisé. |
| Chemin complet vers le fichier script | file | Saisir le chemin d'accès de ce script personnalisé (par exemple, /etc/init.d/userscript). |
| Champ luci | Attribut de cluster.conf | Description |
|---|---|---|
| Nom d'instance | name | Spécifie le nom d'instance de la ressource ASE Sybase. |
| Nom du serveur ASE | server_name | Nom du serveur ASE configuré pour le service HA. |
| Répertoire de base SYBASE | sybase_home | Répertoire de base des produits Sybase. |
| Fichier de connexion | login_file | Chemin d'accès complet du fichier de connexion qui contient la paire identifiant-mot de passe. |
| Fichier des interfaces | interfaces_file | Chemin d'accès complet du fichiers des interfaces utilisé pour démarrer/accéder au serveur ASE. |
| Nom du répertoire SYBASE_ASE | sybase_ase | Nom du répertoire sour sybase_home où les produits ASE sont installés. |
| Nom du répertoire SYBASE_OCS | sybase_ocs | Nom du répertoire sous sybase_home où les produits OCS sont installés. Par exemple, ASE-15_0. |
| Utilisateur Sybase | sybase_user | Utilisateur pouvant exécuter le serveur ASE. |
| Attente démarrage (en secondes) | start_timeout | Valeur du délai du démarrage. |
| Attente fermeture (en secondes) | shutdown_timeout | Valeur du délai de fermeture. |
| Délai d'expiration Deep Probe | deep_probe_timeout | Le nombre maximum de secondes de l'attente pour une réponse du serveur ASE avant de déterminer que le serveur n'a pas de réponse pendant l'exécution de Deep Probe. |
| Champ luci | Attribut de cluster.conf | Description |
|---|---|---|
| Nom | name | Spécifie un nom de service pour la connexion et pour d'autres raisons. |
| Fichier de configuration | config_file | Spécifie le chemin d'accès absolu du fichier de configuration. La valeur par défaut est /etc/tomcat6/tomcat6.conf. |
| Attente fermeture (en secondes) | shutdown_wait | Spécifie le nombre de secondes d'attendre de la fin correcte de la fermeture du service. La valeur par défaut est 30. |
Important
rgmanager pour démarrer et arrêter les machines virtuelles. L'utilisation de virsh pour démarrer une machine peut entraîner l'exécution de la machine virtuelle dans plusieurs emplacements, ce qui peut provoquer une corruption de données dans celle-ci. Pour obtenir des informations sur la configuration de votre système pour réduire la possibilité qu'un administrateur effectue un « double-démarrage » accidentel en utilisant les outils du cluster et des outils non-clusterisés, reportez-vous à la Section 2.14, « Configurer des machines virtuelles dans un environnement clusterisé ».
Note
Virtual Machine en tant que type de ressource virtuelle et en saisissant les paramètres des ressource de la machine virtuelle. Pour obtenir des informations sur la configuration d'une machine virtuelle avec la commande ccs, reportez-vous à la Section 5.12, « Ressources de machine virtuelle ».
| Champ luci | Attribut de cluster.conf | Description |
|---|---|---|
| Nom du service | name | Spécifie le nom de la machine virtuelle. Lors de l'utilisation de l'interface luci, vous pouvez spécifier ceci en tant que nom de service. |
| Démarrer ce service automatiquement | autostart | Si activé, cette machine virtuelle est démarrée automatiquement une fois que le cluster atteint le quorum. Si ce paramètre est désactivé, cette machine virtuelle ne sera pas démarrée automatiquement une fois que le cluster aura atteint le quorum, et elle entrera alors dans l'état disabled (déactivé). |
| Exécuter de manière exclusive | exclusive | Si activé, cette machine virtuelle peut uniquement être déplacée pour être exécutée sur un autre nœud de manière exclusive. C'est-à-dire de s'exécuter sur un nœud sur lequel aucune autre machine virtuelle n'est exécutée. S'il n'y a pas d'autre nœud disponible pour qu'une machine virtuelle puisse être exécutée de manière exclusive, alors la machine virtuelle ne sera pas redémarrée après cet échec. En outre, les autres machines virtuelles ne se déplacent pas automatiquement sur un nœud qui exécute cette machine virtuelle en tant que Run exclusive (Exécuter de manière exclusive). Vous pouvez outrepasser cette option avec un démarrage manuel ou des opérations de déplacement. |
| Domaine de basculement | domain | Définit une liste des membres du cluster à essayer au cas où une machine virtuelle échouerait. |
| Stratégie de récupération | recovery |
La
Recovery policy (stratégie de récupération) offre les options suivantes :
|
| Options de redémarrage | max_restarts, restart_expire_time | Avec ou sélectionné comme politique de récupération pour un service, ceci spécifie le nombre maximum d'échec du redémarrage avant que le déplacement ou la désactivation du service ne soit effectué. Spécifie aussi le temps en secondes au bout duquel il faut arrêter de redémarrer. |
| Type de migration | migrate | Spécifie un type de migration live ou pause. Le paramètre par défaut est live. |
| Mappage de migration | migration_mapping |
Spécifie une interface de migration alternative. Vous pouvez spécifier ceci par exemple lorsque l'adresse réseau utilisée pour la migration de la machine virtuelle sur un nœud est différente de l'adresse du nœud utilisée pour les communications du cluster.
La spécification de ce qui suit indique que lorsque vous migrer un machine virtuelle de
member à member2, vous effectuez en fait une migration vers target2. De la même manière, lorsque vous effectuez une migration de member2 à member, la migration est effectuée avec target.
member:target,member2:target2
|
| Status Program | status_program |
État du programme à exécuter en plus de la vérification standard de la présence d'une machine virtuelle. Si spécifié, l'état du programme est exécuté une fois par minute. Ceci vous permet de déterminer l'état des services critiques dans une machine virtuelle. Par exemple, si une machine virtuelle exécute un serveur web, votre état du programme peut vérifier si un serveur web fonctionne correctement ; si la vérification de l'état échoue, (qui est signifiée par le retour d'une valeur inégale à zéro), la machine virtuelle est récupérée.
Une fois qu'une machine virtuelle est démarrée, l'agent de ressources de la machine virtuelle appellera l'état du programme et attendra le retour d'un code de réussite (zéro) avant de revenir. Le délai d'expiration est fixé à 5 minutes.
|
| Chemin d'accès xmlfile utilisé pour créer la VM | xmlfile | Chemin d'accès complet du fichier XML libvirt contenant la définition du domaine libvirt. |
| Chemin d'accès du fichier de configuration de la VM | path |
Spécification du chemin d'accès délimitée par le caractère deux-points (:) indiquant que l'agent des ressources de la machine virtuelle (
vm.sh) recherche le fichier de configuration de la machine virtuelle. Par exemple : /mnt/guests/config:/etc/libvirt/qemu.
Important
Le chemin d'accès ne doit jamais directement pointer vers le fichier de configuration d'une machine virtuelle.
|
| Chemin d'accès du répertoire VM snapshot | snapshot | Chemin d'accès du répertoire d'instantanés où l'image de la machine virtuelle sera stockée. |
| URI de l'hyperviseur | hypervisor_uri | URI de l'hyperviseur (habituellement automatique). |
| URI de la migration | migration_uri | URI de la migration (habituellement automatique). |
| Données du tunnel sur ssh pendant la migration | tunnelled | Données du tunnel sur ssh pendant la migration. |
Annexe C. Comportement des ressources HA Copier lienLien copié sur presse-papiers!
/etc/cluster/cluster.conf. Pour obtenir des descriptions des paramètres de ressources HA, reportez-vous à l'Annexe B, Paramètres des ressources HA. Pour mieux comprendre les agents de ressources, vous pouvez les voir dans le fichier /usr/share/cluster de chaque nœud du cluster.
Note
/etc/cluster/cluster.conf.
/etc/cluster/cluster.conf (dans chaque nœud du cluster). Dans le fichier de configuration du lcuster, chaque arborescence de ressources est une représentation XML spécifiant chaque ressource, ses attributs, et ses relations aux autres ressources dans l'arborescence des ressources (parents, enfants et de même parenté).
Note
Note
/etc/cluster/cluster.conf, sont à des fins d'illustration uniquement.
C.1. Relations entre parents, enfants, et enfants de mêmes parents parmi les ressources Copier lienLien copié sur presse-papiers!
rgmanager. Toutes les ressources d'un service sont exécutées sur le même nœud. Du point de vue de rgmanager, un service cluster est une entité qui peut être démarrée, arrêtée, ou déplacée. Cependant, à l'intérieur d'un service clusterm la hiérarchie des ressources détermine l'ordredans lequel chaque ressource est démarrée puis arrêtée. Les niveaux de hiérarchie sont : parent, enfant, et de même parenté.
fs:myfs(<fs name="myfs" ...>) etip:10.1.1.2(<ip address="10.1.1.2 .../>) sont de même parenté.fs:myfs(<fs name="myfs" ...>) is the parent ofscript:script_child(<script name="script_child"/>).script:script_child(<script name="script_child"/>) est l'enfant defs:myfs(<fs name="myfs" ...>).
Exemple C.1. Hiérarchie des ressources du service foo
- Les parents sont démarrés avant les enfants.
- Les enfants doivent tous s'arrêter correctement avant qu'un parent puisse être arrêté.
- Pour qu'une ressource soit considérée comme étant en bonne santé, tous ses enfants doivent être en bonne santé.
C.2. Ordre de démarrage des relations de même parenté et ordre des enfants de ressources Copier lienLien copié sur presse-papiers!
- Désigne un attribut de type enfant (ressource enfant typée) — Si la ressource Service désigne un attribut de type enfant pour une ressource enfant, la ressource enfant est typée. L'attribut de type enfant détermine de manière explicite l'ordre de début et de fin de la ressource enfant.
- Ne désigne pas d'attributs de type enfant (ressource enfant non-typée) — Si la ressource Service ne désigne pas un attribut de type enfant pour une ressource enfant, la ressource enfant est non-typée. La ressource Service ne contrôle pas explicitement les ordres de démarrage et d'arrêt d'une ressource enfant non-typée. Cependant, une ressource enfant non-typée est démarrée et arrêtée en fonction de son ordre dans
/etc/cluster/cluster.conf. En outre, les ressources enfant non-typées sont démarrées une fois que toutes les ressources enfants typées sont démarrées et elles sont arrêtées avant que toute ressource enfant typée ne soit arrêtée.
Note
C.2.1. Ordre de démarrage et d'arrêt des ressources enfant typées Copier lienLien copié sur presse-papiers!
service.sh » affiche les valeurs de démarrage et d'arrêt telles qu'elles apparaissent sur l'agent de la ressource Service service.sh. Pour la ressource Service, tous les enfants LVM sont démarrés en premier, suivis par tous les enfant systèmes de fichiers, suivis par tous les enfants scripts, et ainsi de suite.
| Ressource | Type d'enfant | Valeur de l'ordre de démarrage | Valeur de l'ordre d'arrêt |
|---|---|---|---|
| LVM | lvm | 1 | 9 |
| Système de fichiers | fs | 2 | 8 |
| Système de fichiers GFS2 | clusterfs | 3 | 7 |
| Montage NFS | netfs | 4 | 6 |
| Export NFS | nfsexport | 5 | 5 |
| Client NFS | nfsclient | 6 | 4 |
| IP Address | ip | 7 | 2 |
| Samba | smb | 8 | 3 |
| Script | script | 9 | 1 |
Exemple C.2. Valeurs de démarrage et d'arrêt de la ressource : extraites de l'agent de la ressource Service service.sh
/etc/cluster/cluster.conf. Par exemple, prenez en considération l'ordre de démarrage et d'arrêt des ressources enfants typées dans l'Exemple C.3, « Classement dans un type de ressource ».
Exemple C.3. Classement dans un type de ressource
Ordre de démarrage de ressource enfant typée Copier lienLien copié sur presse-papiers!
lvm:1— Ceci est une ressource LVM, Toutes les ressources LVM sont démarrées en premier.lvm:1(<lvm name="1" .../>) est la première ressource LVM démarrée dar il s'agit de la première ressource LVM répertoriée dans la portion Service foo de/etc/cluster/cluster.conf.lvm:2— Ceci est une ressource LVM. Toutes les ressources LVM sont démarrées en premier.lvm:2(<lvm name="2" .../>) est démarré aprèslvm:1carlvm:2est répertorié aprèslvm:1dans la portion Service foo de/etc/cluster/cluster.conf.fs:1— Ceci est une ressource de système de fichiers. S'il y avait d'autres ressources de systèmes de fichiers dans Service foo, elles seraient démarrées dans l'ordre définit dans la portion Service foo de/etc/cluster/cluster.conf.ip:10.1.1.1— Ceci est une ressource d'adresse IP. S'il y avait d'autres ressources d'adresses IP dans Service foo, elles seraient démarrées dans l'ordre définit dans la portion Service foo de/etc/cluster/cluster.conf.script:1— Ceci est une ressource de script. S'il y avait d'autres ressources de scripts dans Service foo, elles seraient démarrées dans l'ordre définit dans la portion Service foo de/etc/cluster/cluster.conf.
Ordre d'arrêt des ressources enfants typées Copier lienLien copié sur presse-papiers!
script:1— Ceci est une ressource Script. S'il y avait d'autres ressources Script dans Service foo, elles seraient arrêtées dans l'ordre inverse définit dans la portion Service foo de/etc/cluster/cluster.conf.ip:10.1.1.1— Ceci est une ressource adresse IP. S'il y avait d'autres ressources adresse IP dans Service foo, elles seraient arrêtées dans l'ordre inverse définit dans la portion Service foo de/etc/cluster/cluster.conf.fs:1— Ceci est une ressource Système de fichiers. S'il y avait d'autres ressources Système de fichiers dans Service foo, elles seraient arrêtées dans l'ordre inverse définit dans la portion Service foo de/etc/cluster/cluster.conf.lvm:2— Ceci est une ressource LVM. Toutes les ressources LVM sont arrêtées en dernier.lvm:2(<lvm name="2" .../>) est arrêté avantlvm:1; les ressources à l'intérieur du groupe d'un type de ressources sont arrêtées dans l'ordre inverse définit dans la portion Service foo de/etc/cluster/cluster.conf.lvm:1— Ceci est une ressource LVM. Toutes les ressources LVM sont arrêtées en dernier.lvm:1(<lvm name="1" .../>) est arrêté aprèslvm:2; les ressources à l'intérieur du groupe d'un type de ressources sont arrêtées dans l'ordre inverse définit dans la portion Service foo de/etc/cluster/cluster.conf.
C.2.2. Ordre de démarrage et d'arrêt de ressources enfant non-typées Copier lienLien copié sur presse-papiers!
/etc/cluster/cluster.conf. En outre, les ressources enfant sans type sont démarrées après toutes les ressources enfants avec type et arrêtées avant toute ressource enfant avec type.
Exemple C.4. Ressources enfant typées et non-typées dans un service
Ordre de démarrage de ressources enfant non-typées Copier lienLien copié sur presse-papiers!
lvm:1— Ceci est une ressource LVM, Toutes les ressources LVM sont démarrées en premier.lvm:1(<lvm name="1" .../>) est la première ressource LVM démarrée dar il s'agit de la première ressource LVM répertoriée dans la portion Service foo de/etc/cluster/cluster.conf.lvm:2— Ceci est une ressource LVM. Toutes les ressources LVM sont démarrées en premier.lvm:2(<lvm name="2" .../>) est démarré aprèslvm:1carlvm:2est répertorié aprèslvm:1dans la portion Service foo de/etc/cluster/cluster.conf.fs:1— Ceci est une ressource de système de fichiers. S'il y avait d'autres ressources de systèmes de fichiers dans Service foo, elles seraient démarrées dans l'ordre définit dans la portion Service foo de/etc/cluster/cluster.conf.ip:10.1.1.1— Ceci est une ressource d'adresse IP. S'il y avait d'autres ressources d'adresses IP dans Service foo, elles seraient démarrées dans l'ordre définit dans la portion Service foo de/etc/cluster/cluster.conf.script:1— Ceci est une ressource de script. S'il y avait d'autres ressources de scripts dans Service foo, elles seraient démarrées dans l'ordre définit dans la portion Service foo de/etc/cluster/cluster.conf.nontypedresource:foo— Ressource non-typée. Comme il s'agit d'une ressource non-typée, celle-ci est lancée après le démarrage des ressources typées. En outre, son ordre dans la ressource Service est avant les autres ressources non-typéesnontypedresourcetwo:bar; elle est ainsi lancée avantnontypedresourcetwo:bar. (Les ressources non-typées sont lancées dans l'ordre dans lequel elles apparaissent dans la ressource Service.)nontypedresourcetwo:bar— Ressource non-typée. Comme il s'agit d'une ressource non-typée, celle-ci est lancée après le démarrage des ressources typées. En outre, son ordre dans la ressource Service est après les autres ressources non-typéesnontypedresource:foo; elle est ainsi lancée aprèsnontypedresource:foo. (Les ressources non-typées sont lancées dans l'ordre dans lequel elles apparaissent dans la ressource Service.)
Ordre d'arrêt des ressources enfant non-typées Copier lienLien copié sur presse-papiers!
nontypedresourcetwo:bar— Ressource non-typée. Comme il s'agit d'une ressource non-typée, celle-ci est arrêtée avant l'arrêt des ressources typées. En outre, son ordre dans la ressource Service est après les autres ressources non-typéesnontypedresource:foo; elle est ainsi arrêtée avantnontypedresource:foo. (Les ressources non-typées sont arrêtées dans l'ordre inverse par rapport à l'ordre dans lequel elles apparaissent dans la ressource Service.)nontypedresource:foo— Ceci est une ressource non-typée. Comme il s'agit d'une ressource non-typée, celle-ci est arrêtée avant l'arrêt des ressources typées. En outre, son ordre dans la ressource Service est avant les autres ressources non-typéesnontypedresourcetwo:bar; elle est ainsi arrêtée aprèsnontypedresourcetwo:bar. (Les ressources non-typées sont arrêtées l'ordre inverse par rapport à l'ordre dans lequel elles apparaissent dans la ressource Service.)script:1— Ceci est une ressource Script. S'il y avait d'autres ressources Script dans Service foo, elles seraient arrêtées dans l'ordre inverse définit dans la portion Service foo de/etc/cluster/cluster.conf.ip:10.1.1.1— Ceci est une ressource adresse IP. S'il y avait d'autres ressources adresse IP dans Service foo, elles seraient arrêtées dans l'ordre inverse définit dans la portion Service foo de/etc/cluster/cluster.conf.fs:1— Ceci est une ressource Système de fichiers. S'il y avait d'autres ressources Système de fichiers dans Service foo, elles seraient arrêtées dans l'ordre inverse définit dans la portion Service foo de/etc/cluster/cluster.conf.lvm:2— Ceci est une ressource LVM. Toutes les ressources LVM sont arrêtées en dernier.lvm:2(<lvm name="2" .../>) est arrêté avantlvm:1; les ressources à l'intérieur du groupe d'un type de ressources sont arrêtées dans l'ordre inverse définit dans la portion Service foo de/etc/cluster/cluster.conf.lvm:1— Ceci est une ressource LVM. Toutes les ressources LVM sont arrêtées en dernier.lvm:1(<lvm name="1" .../>) est arrêté aprèslvm:2; les ressources à l'intérieur du groupe d'un type de ressources sont arrêtées dans l'ordre inverse définit dans la portion Service foo de/etc/cluster/cluster.conf.
C.3. Héritage, le bloc , et la réutilisation des ressources Copier lienLien copié sur presse-papiers!
Exemple C.5. Paramétrage du service NFS pour une réutilisation des ressources et un héritage
- Le service nécessiterait quatre ressources nfsclient — une par fichier (soit un total de deux pour les systèmes de fichiers), et une par machine-cible (soit un total de deux pour les machines-cibles).
- Le service devrait spécifier le chemin d'exportation et l'ID du système de fichiers à chaque nfsclient, ce qui induit la possibilité d'erreurs dans la configuration.
C.4. Récupération de défaillance et sous-arbres indépendants Copier lienLien copié sur presse-papiers!
__independent_subtree. Par exemple, dans l'Exemple C.7, « Récupération après défaillance du service foo avec l'attribut __independent_subtree », l'attribut __independent_subtree est utilisé afin d'effectuer les actions suivantes :
- Si script:script_one échoue, redémarrez script:script_one, script:script_two, et script:script_three.
- Si script:script_two échoue, redémarrez script:script_two uniquement.
- Si script:script_three échoue, redémarrez restart script:script_one, script:script_two, et script:script_three.
- Si script:script_four échoue, redémarrez la totalité du service.
Exemple C.6. Récupération normale après défaillance du service foo
Exemple C.7. Récupération après défaillance du service foo avec l'attribut __independent_subtree
__independent_subtree="2", qui désigne le sous-arbre indépendant comme étant non-critique.
Note
__max_restartsconfigure le nombre maximum de redémarrages tolérés avant d'abandonner.__restart_expire_timeconfigure le temps, en secondes, à partir duquel un redémarrage n'est plus tenté.
C.5. Débogage et testage des services et de l'ordre des ressources Copier lienLien copié sur presse-papiers!
rg_test. rg_test est un utilitaire en ligne de commande fourni par le paquetage rgmanager qui est exécuté depuis un shell ou un terminal (il n'est pas disponible sous Conga). Le Tableau C.2, « Résumé de l'utilitaire rg_test » résume les actions et la syntaxe de l'utilitaire rg_test.
| Action | Syntaxe |
|---|---|
Afficher les règles des ressources que rg_test comprend. | rg_test rules |
| Tester une configuration (et /usr/share/cluster) pour des erreurs ou des agents de ressources redondants. | rg_test test /etc/cluster/cluster.conf |
| Afficher l'ordre de démarrage et d'arrêt d'un service. |
Afficher l'ordre de démarrage :
rg_test noop /etc/cluster/cluster.conf start service
Afficher l'ordre d'arrêt :
rg_test noop /etc/cluster/cluster.conf stop service
|
| Démarrer ou arrêter un service de manière explicite. | Important
Effectuez cela sur un seul nœud, et désactivez le service dans rgmanager en premier à chaque fois.
Démarrer un service :
rg_test test /etc/cluster/cluster.conf start service
Arrêter un service :
rg_test test /etc/cluster/cluster.conf stop service
|
| Calculer et afficher le delta de l'arborescence des ressources entre deux fichiers cluster.conf. | rg_test delta
Par exemple :
rg_test delta /etc/cluster/cluster.conf.bak /etc/cluster/cluster.conf
|
Annexe D. Vérification des ressources de service de cluster et délai de basculement Copier lienLien copié sur presse-papiers!
rgmanager surveille le statut des ressources de cluster et comment modifier l'intervalle de vérification de statut. L'annexe décrit aussi le paramètre du service __enforce_timeouts, qui indique si un délai pour une opération provoque l'échec d'un service.
Note
/etc/cluster/cluster.conf. Pour obtenir la liste et la description complète des éléments et attributs cluster.conf, reportez-vous au schéma des clusters sur /usr/share/cluster/cluster.rng, et au schéma annoté sur /usr/share/doc/cman-X.Y.ZZ/cluster_conf.html (par exemple, /usr/share/doc/cman-3.0.12/cluster_conf.html).
D.1. Modifier l'intervalle de vérification du statut des ressources Copier lienLien copié sur presse-papiers!
rgmanager vérifie le statut des ressources individuelles, pas des services entiers. Toutes les 10 secondes, rgmanager scanne l'arborescence des ressources, cherchant des ressources ayant passé leur intervalle de « vérification de statut ».
cluster.conf avec la balise spéciale <action> :\t
<cman two_node="1" expected_votes="1"/>
cluster.conf. Par exemple, si vous possédez une ressource de système de fichier sur laquelle vous souhaiteriez supprimer l'intervalle de vérification de statut, vous pouvez spécifier la ressource du système de fichier dans le fichier cluster.conf comme suit :
profondeur est définie sur *, indiquant ainsi que ces valeurs devraient être utilisées pour toutes les profondeurs. Le résultat est que le système de fichiers test est vérifié à la plus grande profondeur offerte par l'agent de ressources (dans ce cas, 20) toutes les 10 secondes.
D.2. Appliquer les délais des ressources Copier lienLien copié sur presse-papiers!
__enforce_timeouts="1" à la référence dans le fichier cluster.conf.
__enforce_timeouts définit pour la ressource netfs. Avec cet attribut défini, si plus de 30 secondes sont nécessaires pour démonter le système de fichiers NFS pendant un processus de récupération, l'opération expirera, mettant par la même occasion le service en état d'échec.
Annexe E. Résumé des outils de la ligne de commande Copier lienLien copié sur presse-papiers!
| Outil de la ligne de commande | Utilisé avec | But |
|---|---|---|
ccs_config_dump — Outil de vidage de configuration de cluster | Infrastructure du cluster | ccs_config_dump génère une sortie XML de la configuration en cours d'exécution. La configuration en cours d'exécution est parfois différente de la configuration stockée sur fichier car certains sous-systèmes stockent ou paramètrent des informations par défaut dans la configuration. Ces valeurs ne sont généralement pas présentes sur la version sur disque de la configuration, mais sont requises lors de l'exécution pour que le cluster puisse fonctionner correctement. Pour plus d'informations sur cet outil, reportez-vous à la page man ccs_config_dump(8). |
ccs_config_validate — Outil de validation de la configuration du cluster | Infrastructure du cluster | ccs_config_validate valide cluster.conf sur le schéma, cluster.rng (qui se trouve dans /usr/share/cluster/cluster.rng) sur chaque nœud. Pour plus d'informations sur cet outil, reportez-vous à la page man ccs_config_validate(8). |
clustat — Utilitaire de statut du cluster | Composants de gestion du service High-availability | La commande clustat affiche le statut du cluster. Elle affiche les informations d'abonnement, une vue du quorum, ainsi que l'état de tous les services utilisateur configurés. Pour plus d'informations sur cet outil, reportez-vous à la page man clustat(8). |
clusvcadm — Utilitaire d'administration du service utilisateur du cluster | Composants de gestion du service High-availability | La commande clusvcadm vous permet d'activer, de désactiver, de transférer, et de redémarrer les services high-availability dans un cluster. Pour plus d'informations sur cet outil, reportez-vous à la page man clusvcadm(8). |
cman_tool — Outil de gestion du cluster | Infrastructure du cluster | cman_tool est un programme qui gère le gestionnaire de clusters CMAN. Il offre la possibilité de rejoindre un cluster, de le quitter, de tuer (kill) un nœud, ou de changer le nombre de votes d'un nœud pour atteindre le quorum dans un cluster. Pour plus d'informations sur cet outil, reportez-vous à la page man cman_tool(8). |
fence_tool — Outil Fence | Infrastructure du cluster | fence_tool est un programme utilisé pour rejoindre et quitter le domaine Fence. Pour plus d'informations sur cet outil, reportez-vous à la page man fence_tool(8). |
Annexe F. LVM haute disponibilité (HA-LVM) Copier lienLien copié sur presse-papiers!
- Si les applications sont conscientes de l'existence du cluster et ont été paramétrées pour être exécutées simultanément sur de multiples machines à la fois, alors CLVM devrait être utilisé. Plus particulièrement, si plus d'un nœud de votre cluster requiert accès à votre stockage, qui sera ensuite partagé à travers les différents nœuds actifs, alors vous devrez utiliser CLVM. CLVM permet à un utilisateur de configurer des volumes logiques sur un stockage partagé en verrouillant l'accès au stockage physique pendant qu'un volume est en cours de configuration et utilise les services de verrouillage clusterisés pour gérer le stockage partagé. Pour obtenir des informations sur CLVM et sur la configuration LVM en général, reportez-vous au document Administration LVM.
- Si les applications fonctionnent de manière optimale dans des configurations actives/passives (basculement) où seul un nœud unique accédant au stockage est actif à la fois, vous devriez utiliser des agents LVM de haute disponibilité (HA-LVM).
- La méthode préférée utilise CLVM, mais celle-ci active uniquement les volumes logiques de manière exclusive. Cela présente les avantages d'une installation plus facile et permet une meilleure prévention des erreurs administratives (comme la suppression d'un volume logique en cours d'utilisation). Pour utiliser CLVM, les logiciels des modules complémentaires High Availability et Resilient Storage, y compris le démon
clvmd, doivent être en cours d'exécution.La procédure pour configurer HA-LVM à l'aide de cette méthode est décrite dans la Section F.1, « Configurer le basculement HA-LVM avec CLVM (méthode préférée) ». - La seconde méthode utilise le verrouillage de machine locale et des « balises » LVM. Cette méthode présente l'avantage de ne pas nécessiter de paquetages de cluster LVM ; elle requiert cependant des étapes supplémentaires lors de son installation et n'empêchera pas un administrateur de supprimer par erreur un volume logique d'un nœud du cluster lorsqu'il n'est pas actif. La procédure pour configurer HA-LVM à l'aide de cette méthode est décrite dans la Section F.2, « Configurer le basculement HA-LVM avec le Tagging (étiquetage) ».
F.1. Configurer le basculement HA-LVM avec CLVM (méthode préférée) Copier lienLien copié sur presse-papiers!
- Assurez-vous que votre système est configuré pour prendre en charge CLVM, ce qui requiert :
- Les modules complémentaires High Availability et Resilient Storage installés, y compris le paquetage
cmirrorsi les volumes logiques CLVM doivent être mis en miroir. - Le paramètre
locking_typedans la section globale du fichier/etc/lvm/lvm.confdoit être défini sur la valeur « 3 ». - Les logiciels des modules complémentaires High Availability et Resilient Storage, y compris le démon
clvmd, doivent être en cours d'exécution. Pour la mise en miroir CLVM, le servicecmirrorddoit aussi être lancé.
- Créez le volume logique et le système de fichiers à l'aide des commandes standard de LVM et des systèmes de fichiers, comme dans l'exemple suivant.
Copy to Clipboard Copied! Toggle word wrap Toggle overflow Pour obtenir des informations sur la création de volumes logiques LVM, reportez-vous au document Administration LVM. - Modifiez le fichier
/etc/cluster/cluster.confafin d'inclure le nouveau volume logique créé en tant que ressource dans l'un de vos services. Alternativement, vous pouvez utiliser Conga ou la commandeccspour configurer LVM et les ressources du système de fichiers du cluster. Ci-dessous figure une section exemple du gestionnaire de ressources du fichier/etc/cluster/cluster.conf, qui configure un volume logique CLVM en tant que ressource de cluster :Copy to Clipboard Copied! Toggle word wrap Toggle overflow
F.2. Configurer le basculement HA-LVM avec le Tagging (étiquetage) Copier lienLien copié sur presse-papiers!
/etc/lvm/lvm.conf, veuillez procéder aux étapes suivantes :
- Assurez-vous que le paramètre
locking_typedans la section globale du fichier/etc/lvm/lvm.confest bien défini sur la valeur « 1 ». - Créez le volume logique et le système de fichiers à l'aide des commandes standard de LVM et des systèmes de fichiers, comme dans l'exemple suivant.
Copy to Clipboard Copied! Toggle word wrap Toggle overflow Pour obtenir des informations sur la création de volumes logiques LVM, reportez-vous au document Administration LVM. - Modifiez le fichier
/etc/cluster/cluster.confafin d'inclure le nouveau volume logique créé en tant que ressource dans l'un de vos services. Alternativement, vous pouvez utiliser Conga ou la commandeccspour configurer LVM et les ressources du système de fichiers du cluster. Ci-dessous figure une section exemple du gestionnaire de ressources du fichier/etc/cluster/cluster.conf, qui configure un volume logique CLVM en tant que ressource de cluster :Copy to Clipboard Copied! Toggle word wrap Toggle overflow Note
Si de multiples volumes logiques se trouvent dans le groupe de volumes, alors le nom du volume logique (lv_name) dans la ressourcelvmdoit être laissé vide ou non-spécifié. Veuillez aussi remarquer que dans une configuration HA-LVM, un groupe de volumes peut uniquement être utilisé par un seul service. - Modifiez le champ
volume_listdans le fichier/etc/lvm/lvm.conf. Veuillez inclure le nom de votre groupe de volumes root et votre nom d'hôte comme répertorié dans le fichier/etc/cluster/cluster.confet précédé du caractère « @ ». Le nom d'hôte à inclure ici est la machine sur laquelle vous modifiez le fichierlvm.conf, et non un nom d'hôte distant. Remarquez que cette chaîne DOIT correspondre au nom du nœud spécifié dans le fichiercluster.conf. Ci-dessous figure un exemple d'entrée du fichier/etc/lvm/lvm.conf:volume_list = [ "VolGroup00", "@neo-01" ]
volume_list = [ "VolGroup00", "@neo-01" ]Copy to Clipboard Copied! Toggle word wrap Toggle overflow Cette balise sera utilisée pour activer les VG (groupes de volumes) ou LV (volumes logiques) partagés. N'INCLUEZ PAS les noms des groupes de volumes devant être partagés à l'aide de HA-LVM. - Mettez à jour le périphérique
initrdsur tous les nœuds de votre cluster :dracut -H -f /boot/initramfs-$(uname -r).img $(uname -r)
# dracut -H -f /boot/initramfs-$(uname -r).img $(uname -r)Copy to Clipboard Copied! Toggle word wrap Toggle overflow - Redémarrez tous les nœuds afin de vous assurer que le périphérique
initrdcorrect est en cours d'utilisation.
Annexe G. Historique des versions Copier lienLien copié sur presse-papiers!
| Historique des versions | |||||||||||||||||||||||||||||||
|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
| Version 5.0-25.2.400 | 2013-10-31 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
| Version 5.0-25.2 | Wed May 1 2013 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
| Version 5.0-25.1 | Thu Apr 18 2013 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
| Version 5.0-25 | Mon Feb 18 2013 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
| Version 5.0-23 | Wed Jan 30 2013 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
| Version 5.0-22 | Tue Jan 29 2013 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
| Version 5.0-20 | Fri Jan 18 2013 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
| Version 5.0-19 | Thu Jan 17 2013 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
| Version 5.0-16 | Mon Nov 26 2012 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
| Version 5.0-15 | Wed Nov 20 2012 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
| Version 5.0-12 | Thu Nov 1 2012 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
| Version 5.0-7 | Thu Oct 25 2012 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
| Version 5.0-6 | Tue Oct 23 2012 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
| Version 5.0-4 | Tue Oct 16 2012 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
| Version 5.0-2 | Thu Oct 11 2012 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
| Version 5.0-1 | Mon Oct 8 2012 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
| Version 4.0-5 | Fri Jun 15 2012 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
| Version 4.0-4 | Tue Jun 12 2012 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
| Version 4.0-3 | Tue May 21 2012 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
| Version 4.0-2 | Wed Apr 25 2012 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
| Version 4.0-1 | Fri Mar 30 2012 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
| Version 3.0-5 | Thu Dec 1 2011 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
| Version 3.0-4 | Mon Nov 7 2011 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
| Version 3.0-3 | Fri Oct 21 2011 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
| Version 3.0-2 | Fri Oct 7 2011 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
| Version 3.0-1 | Wed Sep 28 2011 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
| Version 2.0-1 | Thu May 19 2011 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
| Version 1.0-1 | Wed Nov 10 2010 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
Index Copier lienLien copié sur presse-papiers!
A
- ACPI
- administration de cluster
- considérations pour ricci, Considérations pour ricci
- administration de clusters, Avant de configurer le module complémentaire Red Hat High Availability (Haute Disponibilité), Configurer le pare-feu iptables pour autoriser des composants de clusters, Gérer le module complémentaire Red Hat High Availability avec Conga, Gérer le module complémentaire Red Hat High Availability avec ccs, Gérer le module complémentaire Red Hat High Availability avec des outils de ligne de commande
- activation des ports IP, Activation des ports IP
- afficher les services HA avec clustat, Afficher l'état du service HA avec clustat
- ajouter un nœud de cluster, Ajouter un membre à un cluster en cours d'exécution, Ajouter un membre à un cluster en cours d'exécution
- arrêter un cluster, Démarrer, arrêter, redémarrer et supprimer des clusters, Démarrer et arrêter un cluster
- commutateurs réseau et adresses de multidiffusion, Adresses de multidiffusion
- configuration ACPI, Configurer l'ACPI pour une utilisation avec des périphériques fence intégrés
- configuration de iptables, Activation des ports IP
- considérations pour utiliser le disque quorum, Considérations pour utiliser le disque Quorum
- considérations pour utiliserqdisk, Considérations pour utiliser le disque Quorum
- démarrer un cluster, Démarrer, arrêter, redémarrer et supprimer des clusters, Démarrer et arrêter un cluster
- démarrer, arrêter, redémarrer un cluster, Démarrer et arrêter le logiciel du cluster
- diagnostiquer et corriger des problèmes dans un cluster, Diagnostiquer et corriger des problèmes dans un cluster, Diagnostiquer et corriger des problèmes dans un cluster
- gérer les services high-availability, Gérer les services High-Availability, Gérer les services High-Availability
- gérer les services high-availability, freeze et unfreeze, Gérer les services HA avec clusvcadm, Considérations pour l'utilisation des opérations Freeze et Unfreeze
- gérer un nœud de cluster, Gérer les nœuds de clusters, Gérer les nœuds de clusters
- machines virtuelles, Configurer des machines virtuelles dans un environnement clusterisé
- matériel compatible, Matériel compatible
- mettre à jour la configuration, Mettre à jour une configuration
- mettre à jour la configuration d'un cluster à l'aide de cman_tool version -r, Mettre à jour une configuration à l'aide de cman_tool version -r
- mettre à jour la configuration d'un cluster à l'aide de scp, Mettre à jour une configuration à l'aide de scp
- mise à jour, Mettre à jour une configuration
- NetworkManager, Considérations pour NetworkManager
- quitter un cluster, Causer à un nœud de joindre ou quitter un cluster, Causer à un nœud de joindre ou quitter un cluster
- redémarrer un cluster, Démarrer, arrêter, redémarrer et supprimer des clusters
- redémarrer un nœud de cluster, Redémarrer un nœud de cluster
- rejoindre un cluster, Causer à un nœud de joindre ou quitter un cluster, Causer à un nœud de joindre ou quitter un cluster
- SELinux, Module complémentaire Red Hat High Availability et SELinux
- supprimer un cluster, Démarrer, arrêter, redémarrer et supprimer des clusters
- supprimer un nœud de cluster, Supprimer un membre d'un cluster
- supprimer un nœud de la configuration ; ajouter un nœud à la configuration , Ajouter ou supprimer un nœud
- validation de la configuration, Validation de la configuration
- administration des clusters
- considérations générales, Considérations pour une configuration générale
- adresses de multidiffusion
- considérations pour une utilisation avec des commutateurs réseau et des adresses de multidiffusion, Adresses de multidiffusion
- agent fence
- Commutateur d'alimentation réseau Eaton, Paramètres des périphériques fence
- fence_apc, Paramètres des périphériques fence
- fence_apc_snmp, Paramètres des périphériques fence
- fence_bladecenter, Paramètres des périphériques fence
- fence_brocade, Paramètres des périphériques fence
- fence_cisco_mds, Paramètres des périphériques fence
- fence_cisco_ucs, Paramètres des périphériques fence
- fence_drac5, Paramètres des périphériques fence
- fence_eaton_snmp, Paramètres des périphériques fence
- fence_egenera, Paramètres des périphériques fence
- fence_eps, Paramètres des périphériques fence
- fence_hpblade, Paramètres des périphériques fence
- fence_ibmblade, Paramètres des périphériques fence
- fence_ifmib, Paramètres des périphériques fence
- fence_ilo, Paramètres des périphériques fence
- fence_ilo_mp, Paramètres des périphériques fence
- fence_intelmodular, Paramètres des périphériques fence
- fence_ipdu, Paramètres des périphériques fence
- fence_ipmilan, Paramètres des périphériques fence
- fence_rhevm, Paramètres des périphériques fence
- fence_rsb, Paramètres des périphériques fence
- fence_scsi, Paramètres des périphériques fence
- fence_virt, Paramètres des périphériques fence
- fence_vmware_soap, Paramètres des périphériques fence
- fence_wti, Paramètres des périphériques fence
- agent fence fence_apc, Paramètres des périphériques fence
- agent fence fence_bladecenter, Paramètres des périphériques fence
- agent fence fence_cisco_ucs, Paramètres des périphériques fence
- agent fence fence_drac5, Paramètres des périphériques fence
- agent fence fence_eaton_snmp, Paramètres des périphériques fence
- agent fence fence_egenera, Paramètres des périphériques fence
- agent fence fence_eps, Paramètres des périphériques fence
- agent fence fence_hpblade, Paramètres des périphériques fence
- agent fence fence_ibmblade, Paramètres des périphériques fence
- agent fence fence_ifmib, Paramètres des périphériques fence
- agent fence fence_ilo, Paramètres des périphériques fence
- agent fence fence_ilo_mp, Paramètres des périphériques fence
- agent fence fence_intelmodular, Paramètres des périphériques fence
- agent fence fence_ipdu, Paramètres des périphériques fence
- agent fence fence_ipmilan, Paramètres des périphériques fence
- agent fence fence_rhevm, Paramètres des périphériques fence
- agent fence fence_rsb, Paramètres des périphériques fence
- agent fence fence_scsi, Paramètres des périphériques fence
- agent fence fence_virt, Paramètres des périphériques fence
- agent fence fence_vmware_soap, Paramètres des périphériques fence
- agent fence fence_wti, Paramètres des périphériques fence
B
- balise totem
- valeur du consensus, La valeur du consensus pour totem dans un cluster à deux nœuds
C
- cluster
- administration, Avant de configurer le module complémentaire Red Hat High Availability (Haute Disponibilité), Gérer le module complémentaire Red Hat High Availability avec Conga, Gérer le module complémentaire Red Hat High Availability avec ccs, Gérer le module complémentaire Red Hat High Availability avec des outils de ligne de commande
- démarrer, arrêter, redémarrer, Démarrer et arrêter le logiciel du cluster
- diagnostiquer et corriger des problèmes, Diagnostiquer et corriger des problèmes dans un cluster, Diagnostiquer et corriger des problèmes dans un cluster
- commentaires, Commentaires, Configurer le pare-feu iptables pour autoriser des composants de clusters
- Commutateur d'alimentation réseau Eaton, Paramètres des périphériques fence
- comportement, ressources HA, Comportement des ressources HA
- configuration
- configuration de clusters, Configurer le module complémentaire Red Hat High Availability avec Conga, Configurer le module complémentaire Red Hat High Availability avec des outils de ligne de commande
- ajouter ou supprimer un nœud, Ajouter ou supprimer un nœud
- configuration du cluster, Configurer le module complémentaire Red Hat High Availability avec la commande ccs
- configuration du service HA
- Configurer LVM haute disponibilité, LVM haute disponibilité (HA-LVM)
- Conga
D
- disque quorum
- considérations pour utiliser, Considérations pour utiliser le disque Quorum
F
- fence_apc_snmp fence agent, Paramètres des périphériques fence
- fence_brocade fence agent, Paramètres des périphériques fence
- fence_cisco_mds fence agent, Paramètres des périphériques fence
- fencing SCSI, Paramètres des périphériques fence
- fonctionnalités nouvelles et modifiées, Nouvelles fonctionnalités et fonctionnalités modifiées
G
- générales
- considérations pour l'administration des clusters, Considérations pour une configuration générale
- gestionnaires de services cluster
- configuration, Ajouter un service cluster à un cluster
- gestionnaires des services de clusters
I
- Interrupteur Brocade Fabric de périphérique fence, Paramètres des périphériques fence
- Interrupteur d'alimentation APC sur périphérique fence SNMP, Paramètres des périphériques fence
- Interrupteur d'alimentation APC sur périphérique fence telnet/SSH, Paramètres des périphériques fence
- introduction, Introduction, Vérification des ressources de service de cluster et délai de basculement
- autres documents Red Hat Enterprise Linux, Introduction
- iptables
- configuration, Activation des ports IP
L
- logiciel du cluster
- LVM, haute disponibilité, LVM haute disponibilité (HA-LVM)
M
- machines virtuelles, dans un cluster, Configurer des machines virtuelles dans un environnement clusterisé
- matériel
- compatible, Matériel compatible
N
- NetworkManager
- désactiver pour une utilisation avec clusters, Considérations pour NetworkManager
O
- outils, ligne de commande, Résumé des outils de la ligne de commande
P
- paramètres, périphérique fence, Paramètres des périphériques fence
- paramètres, ressources HA, Paramètres des ressources HA
- périphérique fence
- Cisco MDS, Paramètres des périphériques fence
- Cisco UCS, Paramètres des périphériques fence
- Contrôleur SAN Egenera, Paramètres des périphériques fence
- Dell DRAC 5, Paramètres des périphériques fence
- ePowerSwitch, Paramètres des périphériques fence
- Fence virt, Paramètres des périphériques fence
- fencing SCSI, Paramètres des périphériques fence
- HP BladeSystem, Paramètres des périphériques fence
- HP iLO MP, Paramètres des périphériques fence
- HP iLO/iLO2, Paramètres des périphériques fence
- IBM BladeCenter, Paramètres des périphériques fence
- IBM BladeCenter SNMP, Paramètres des périphériques fence
- IBM iPDU, Paramètres des périphériques fence
- IF MIB, Paramètres des périphériques fence
- Intel Modular, Paramètres des périphériques fence
- Interrupteur Brocade fabric, Paramètres des périphériques fence
- Interrupteur d'alimentation APC sur SNMP, Paramètres des périphériques fence
- Interrupteur d'alimentation APC sur telnet/SSH, Paramètres des périphériques fence
- interrupteur d'alimentation WTI, Paramètres des périphériques fence
- IPMI LAN, Paramètres des périphériques fence
- RHEV-M REST API, Paramètres des périphériques fence
- RSB (Remoteview Service Board) Fujitsu Siemens, Paramètres des périphériques fence
- VMware (interface SOAP), Paramètres des périphériques fence
- Périphérique fence CISCO MDS, Paramètres des périphériques fence
- Périphérique fence Cisco UCS, Paramètres des périphériques fence
- périphérique fence de l'interrupteur d'alimentation WTI, Paramètres des périphériques fence
- Périphérique fence Dell DRAC 5, Paramètres des périphériques fence
- Périphérique fence du contrôleur SAN Egenera , Paramètres des périphériques fence
- Périphérique fence du RSB (Remoteview Service Board) Fujitsu Siemens, Paramètres des périphériques fence
- périphérique fence ePowerSwitch, Paramètres des périphériques fence
- périphérique fence Fence virt, Paramètres des périphériques fence
- Périphérique fence HP Bladesystem, Paramètres des périphériques fence
- périphérique fence HP iLO MP, Paramètres des périphériques fence
- périphérique fence HP iLO/iLO2, Paramètres des périphériques fence
- périphérique fence IBM BladeCenter, Paramètres des périphériques fence
- périphérique fence IBM BladeCenter SNMP, Paramètres des périphériques fence
- périphérique fence IBM iPDU, Paramètres des périphériques fence
- Périphérique fence IF MIB, Paramètres des périphériques fence
- périphérique fence Inter Modular, Paramètres des périphériques fence
- périphérique fence IPMI LAN, Paramètres des périphériques fence
- périphérique fence RHEV-M REST API, Paramètres des périphériques fence
- périphérique fence VMware (interface SOAP) , Paramètres des périphériques fence
- périphériques fence intégrés
- configuration ACPI, Configurer l'ACPI pour une utilisation avec des périphériques fence intégrés
- ports IP
- activation, Activation des ports IP
Q
- qdisk
- considérations pour utiliser, Considérations pour utiliser le disque Quorum
R
- relations
- ressource du cluster, Relations entre parents, enfants, et enfants de mêmes parents parmi les ressources
- relations entre ressources du cluster, Relations entre parents, enfants, et enfants de mêmes parents parmi les ressources
- résolution de problèmes
- diagnostiquer et corriger des problèmes dans un cluster, Diagnostiquer et corriger des problèmes dans un cluster, Diagnostiquer et corriger des problèmes dans un cluster
- ricci
- considérations pour l'administration de clusters, Considérations pour ricci
S
- SELinux
- services cluster, Ajouter un service cluster à un cluster, Ajouter un service cluster à un cluster, Ajouter un service cluster à un cluster
- (voir aussi ajout à la configuration du cluster)
T
- tableaux
- périphériques fence, paramètres, Paramètres des périphériques fence
- ressources HA, paramètres, Paramètres des ressources HA
- types
- ressources du cluster, Considérations pour la configuration des services HA
- types de ressources du cluster, Considérations pour la configuration des services HA, Vérification des ressources de service de cluster et délai de basculement
V
- valeur du consensus, La valeur du consensus pour totem dans un cluster à deux nœuds
- validation
- configuration du cluster, Validation de la configuration
- vue d'ensemble
- fonctionnalités, nouvelles et modifiées, Nouvelles fonctionnalités et fonctionnalités modifiées