Cluster-Administration
Konfiguration und Verwaltung des Hochverfügbarkeits-Add-Ons
Ausgabe 0
Zusammenfassung
Einführung
- Red Hat Enterprise Linux Installationshandbuch — Liefert Informationen bezüglich der Installation von Red Hat Enterprise Linux 6.
- Red Hat Enterprise Linux Bereitstellungshandbuch — Liefert Informationen bezüglich der Implementierung, der Konfiguration und der Administration von Red Hat Enterprise Linux 6.
- Überblick über das Hochverfügbarkeits-Add-On — Liefert einen umfassenden Überblick über das Red Hat Hochverfügbarkeits-Add-On.
- Administration des Logical Volume Manager — Liefert eine Beschreibung des Logical Volume Managers (LVM), inklusive Informationen zum Einsatz von LVM in einer Cluster-Umgebung.
- Global File System 2: Konfiguration und Administration — Liefert Informationen zur Installation, Konfiguration und Pflege von Red Hat GFS (Red Hat Global File System 2), das Bestandteil des Resilient Storage Add-Ons ist.
- DM Multipath — Liefert Informationen über die Verwendung des Device-Mapper Multi-Pathing-Features von Red Hat Enterprise Linux 6.
- Lastverteilungs-Administration — Liefert Informationen zur Konfiguration von Hochleistungssystemen und -diensten mit dem Red Hat Lastverteilungs-Add-On, einer Gruppe integrierter Softwarekomponenten, die Linux Virtual Server (LVS) bereitstellen, um IP-Lasten über eine Gruppe realer Server zu verteilen.
- Versionshinweise — Liefert Informationen zu aktuellen Releases von Red Hat Produkten.
1. Feedback Link kopierenLink in die Zwischenablage kopiert!
Cluster_Administration(EN)-6 (2013-11-13T16:26)
Kapitel 1. Überblick über Konfiguration und Verwaltung des Red Hat Hochverfügbarkeits-Add-Ons Link kopierenLink in die Zwischenablage kopiert!
Anmerkung
1.1. Neue und veränderte Features Link kopierenLink in die Zwischenablage kopiert!
1.1.1. Neue und veränderte Features für Red Hat Enterprise Linux 6.1 Link kopierenLink in die Zwischenablage kopiert!
- Ab der Red Hat Enterprise Linux 6.1 Release bietet das Red Hat Hochverfügbarkeits-Add-On Unterstützung für SNMP-Traps. Informationen über die Konfiguration von SNMP-Traps mit dem Red Hat Hochverfügbarkeits-Add-On finden Sie in Kapitel 10, SNMP-Konfiguration mit dem Red Hat Hochverfügbarkeits-Add-On.
- Ab der Red Hat Enterprise Linux 6.1 Release bietet das Red Hat Hochverfügbarkeits-Add-On Unterstützung für den
ccsCluster-Konfigurationsbefehl. Informationen über denccsBefehl finden Sie in Kapitel 5, Konfiguration des Red Hat Hochverfügbarkeits-Add-Ons mit dem ccs Befehl und Kapitel 6, Verwaltung des Red Hat Hochverfügbarkeits-Add-Ons mit ccs. - Die Dokumentation über die Konfiguration und Verwaltung der Red Hat Hochverfügbarkeits-Add-On-Software mittels Conga wurde aktualisiert, um aktuelle Conga-Oberflächen und unterstützte Features aufzunehmen.
- Für die Red Hat Enterprise Linux 6.1 Release und später ist für die Verwendung von
ricciein Passwort erforderlich, wenn Sie zum ersten Mal eine aktualisierte Cluster-Konfiguration von einem bestimmten Knoten verbreiten. Weitere Informationen überriccifinden Sie unter Abschnitt 2.13, »Überlegungen zuricci«. - Sie können nun die Restart-Disable Wiederherstellungsrichtlinie für einen Dienst festlegen, wodurch das System einen Neustart des ausgefallenen Dienstes an demselben Standort versucht. Scheitert dieser Versuch, wird der Dienst deaktiviert, statt auf einen anderen Host im Cluster verlegt zu werden. Dieses Feature ist in Abschnitt 3.10, »Hinzufügen eines Cluster-Dienstes zum Cluster« und Anhang B, Parameter der Hochverfügbarkeitsressourcen dokumentiert.
- Sie können nun einen unabhängigen Unterbaum als nicht-kritisch konfigurieren, so dass im Falle eines Ausfalls dieser Ressource nur diese Ressource deaktiviert wird (statt des gesamten Dienstes). Informationen über dieses Feature finden Sie in Abschnitt 3.10, »Hinzufügen eines Cluster-Dienstes zum Cluster« und Abschnitt C.4, »Wiederherstellung nach Ausfall und unabhängige Unterbäume«.
- Dieses Dokument enthält nun das neue Kapitel Kapitel 9, Fehlerdiagnose und -behebung in einem Cluster.
1.1.2. Neue und veränderte Features für Red Hat Enterprise Linux 6.2 Link kopierenLink in die Zwischenablage kopiert!
- Red Hat Enterprise Linux bietet nun Unterstützung für den Einsatz von geclustertem Samba in einer active/active-Konfiguration. Für Informationen über die Konfiguration von geclustertem Samba siehe Kapitel 11, Konfiguration von geclustertem Samba.
- Jeder Benutzer, der sich auf dem System anmelden kann, das luci hostet, kann sich auch bei luci anmelden. Ab Red Hat Enterprise Linux 6.2 jedoch kann nur der Root-Benutzer auf dem System, das luci ausführt, auf die luci Komponenten zugreifen, bis ein Administrator (der Root-Benutzer oder ein anderer Benutzer mit Administratorrechten) die Berechtigungen für diesen Benutzer erstellt. Für Informationen über das Erstellen von luci Berechtigungen für Benutzer siehe Abschnitt 3.3, »Zugriffskontrolle für luci«.
- Die Knoten in einem Cluster können miteinander über den UDP-Unicast-Transportmechanismus kommunizieren. Weitere Informationen zur Konfiguration von UDP-Unicast siehe Abschnitt 2.12, »UDP-Unicast-Datenverkehr«.
- Sie können nun einige Aspekte von lucis Verhalten mithilfe der
/etc/sysconfig/luciDatei konfigurieren. Beispielsweise können Sie speziell festlegen, auf welcher IP-Adresse luci bereitgestellt werden soll. Weitere Informationen über das Konfigurieren der IP-Adresse, auf der luci bereitgestellt wird, finden Sie in Tabelle 2.2, »Aktivierter IP-Port auf einem Computer, der luci ausführt«. Allgemeine Informationen über die/etc/sysconfig/luciDatei finden Sie in Abschnitt 2.4, »Konfiguration von luci mithilfe von/etc/sysconfig/luci«. - Der
ccsBefehl beinhaltet nun die--lsfenceoptsOption, die eine Liste der verfügbaren Fencing-Geräte ausgibt, sowie die--lsfenceoptsfence_type Option, die jeden verfügbaren Fencing-Typ ausgibt. Für Informationen über diese Optionen siehe Abschnitt 5.6, »Auflisten von Fencing-Geräten und Fencing-Geräteoptionen«. - Der
ccsBefehl beinhaltet nun die Option--lsserviceopts, die eine Liste der für Ihren Cluster verfügbaren Cluster-Dienste ausgibt, sowie die Option--lsserviceoptsservice_type, die eine Liste der Optionen ausgibt, die Sie für einen bestimmten Diensttyp spezifizieren können. Informationen über diese Optionen finden Sie in Abschnitt 5.11, »Anzeigen verfügbarer Cluster-Dienste und -Ressourcen«. - Die Red Hat Enterprise Linux 6.2 Release bietet Unterstützung für den VMware Fencing-Agenten (SOAP-Schnittstelle). Informationen über Fencing-Geräteparameter finden Sie unter Anhang A, Parameter der Fencing-Geräte.
- Die Red Hat Enterprise Linux 6.2 Release bietet Unterstützung für den RHEV-M REST API Fencing-Agenten mit RHEV 3.0 und höher. Informationen über Fencing-Geräteparameter finden Sie unter Anhang A, Parameter der Fencing-Geräte.
- Ab der Red Hat Enterprise Linux 6.2 Release können Sie bei der Konfiguration einer virtuellen Maschine in einem Cluster mit dem
ccsBefehl die Option--addvmverwenden (statt deraddserviceOption). Dadurch wird gewährleistet, dass dievmRessource direkt unter demrmKonfigurationsknoten in der Cluster-Konfigurationsdatei definiert wird. Informationen über die Konfiguration von virtuellen Maschinen-Ressourcen mit demccsBefehl finden Sie in Abschnitt 5.12, »Virtuelle Maschinen-Ressourcen«. - Dieses Dokument enthält einen neuen Anhang, Anhang D, Prüfung der Cluster-Dienstressource und Zeitüberschreitung der Ausfallsicherung. Dieser Anhang beschreibt, wie
rgmanagerden Status von Cluster-Ressourcen überwacht und wie die Zeitabstände der Statusprüfungen verändert werden können. Der Anhang beschreibt außerdem den__enforce_timeoutsDienstparameter, der festlegt, dass eine Zeitüberschreitung für eine Operation zum Fehlschlagen des Dienstes führen soll. - Dieses Dokument enthält einen neuen Abschnitt, Abschnitt 2.3.3, »Konfiguration der iptables-Firewall zum Erlauben von Cluster-Komponenten«. Dieser Abschnitt zeigt die Filterung, die Sie verwenden können, um Multicast-Datenverkehr durch die
iptablesFirewall für die verschiedenen Cluster-Komponenten zu ermöglichen.
1.1.3. Neue und veränderte Features für Red Hat Enterprise Linux 6.3 Link kopierenLink in die Zwischenablage kopiert!
- Die Red Hat Enterprise Linux 6.3 Release bietet Unterstützung für den
condorRessourcen-Agent. Für Informationen über HA-Ressourcenparameter siehe Anhang B, Parameter der Hochverfügbarkeitsressourcen. - Dieses Dokument enthält einen neuen Anhang, Anhang F, High Availability LVM (HA-LVM).
- Sämtliche Anleitungen in diesem Dokument heben nun deutlicher hervor, welche Konfigurationsänderungen einen Cluster-Neustart erfordern. Eine Übersicht dieser Änderungen finden Sie in Abschnitt 9.1, »Konfigurationsänderungen werden nicht wirksam«.
- Die Dokumentation weist nun darauf hin, dass es eine automatische Abmeldung gibt, die Sie nach 15 Minuten Inaktivität aus luci abmeldet. Für Information zum Start von luci siehe Abschnitt 3.2, »Starten von luci «.
- Das
fence_ipmilanFencing-Gerät unterstützt einen Parameter für Berechtigungsebenen. Für Informationen über Fencing-Geräteparameter siehe Anhang A, Parameter der Fencing-Geräte. - Dieses Dokument enthält einen neuen Abschnitt, Abschnitt 2.14, »Konfiguration von virtuellen Maschinen in einer Cluster-Umgebung«.
- Dieses Dokument enthält einen neuen Abschnitt, Abschnitt 4.6, »Sichern und Wiederherstellen der luci-Konfiguration«.
- Dieses Dokument enthält einen neuen Abschnitt, Abschnitt 9.4, »Cluster-Daemon stürzt ab«.
- Dieses Dokument enthält Informationen über das Erstellen von Debug-Optionen in Abschnitt 5.14.4, »Protokollierung«, Abschnitt 7.7, »Konfiguration von Debugging-Optionen« und Abschnitt 9.13, »Debug-Protokollierung für Distributed Lock Manager (DLM) muss aktiviert sein«.
- Ab Red Hat Enterprise Linux 6.3 kann der Root-Benutzer oder ein Benutzer mit luci Administratorrechten auch die luci Oberfläche nutzen, um Benutzer zum System hinzuzufügen, wie in Abschnitt 3.3, »Zugriffskontrolle für luci« beschrieben.
- Ab der Red Hat Enterprise Linux 6.3 Release prüft der
ccsBefehl die Konfiguration anhand des Cluster-Schemas unter/usr/share/cluster/cluster.rngauf demjenigen Knoten, den Sie mithilfe der-hOption spezifizieren. Bislang verwendete derccsBefehl stets das Cluster-Schema, das imccsBefehl integriert war, also/usr/share/ccs/cluster.rngauf dem lokalen System. Informationen über die Konfigurationsprüfung finden Sie in Abschnitt 5.1.6, »Überprüfung der Konfiguration«. - Die Tabellen der Fencing-Geräteparameter in Anhang A, Parameter der Fencing-Geräte und die Tabellen der HA-Ressourcenparameter in Anhang B, Parameter der Hochverfügbarkeitsressourcen enthalten nun die Namen der Parameter, wie sie in der
cluster.confDatei auftreten.
1.1.4. Neue und veränderte Features für Red Hat Enterprise Linux 6.4 Link kopierenLink in die Zwischenablage kopiert!
- Die Red Hat Enterprise Linux 6.4 Release bietet Unterstützung für den Eaton Network Power Controller (SNMP Interface) Fencing-Agenten, den HP BladeSystem Fencing-Agenten, und den IBM iPDU Fencing-Agenten. Informationen über Fencing-Geräteparameter finden Sie unter Anhang A, Parameter der Fencing-Geräte.
- Anhang B, Parameter der Hochverfügbarkeitsressourcen bietet nun eine Beschreibung des NFS-Server Ressourcen-Agenten
- Ab Red Hat Enterprise Linux 6.3 kann der Root-Benutzer oder ein Benutzer mit luci Administratorrechten auch die luci Oberfläche nutzen, um Benutzer vom System zu entfernen. Dieses ist dokumentiert in Abschnitt 3.3, »Zugriffskontrolle für luci«.
- Anhang B, Parameter der Hochverfügbarkeitsressourcen enthält eine Beschreibung des neuen
nfsrestartParameters für die Dateisystem und GFS2 HA Ressourcen. - Dieses Dokument enthält einen neuen Abschnitt, Abschnitt 5.1.5, »Befehle, die vorhergehende Einstellungen überschreiben«.
- Abschnitt 2.3, »Aktivieren von IP-Ports« enthält nun Informationen über das Filtern der
iptablesFirewall fürigmp. - Der IPMI LAN Fencing-Agent unterstützt jetzt einen Parameter, um die Berechtigungsstufe auf dem IPMI-Gerät zu konfigurieren, wie in Anhang A, Parameter der Fencing-Geräte dokumentiert.
- Neben dem Ethernet Bonding-Modus 1 werden jetzt auch Bonding-Modus 0 und 2 für die Kommunikation zwischen Knoten in einem Cluster unterstützt. Die Ratschläge in diesem Dokument zur Suche und Bereinigung von Fehlern, die darauf hinweisen, nur unterstützte Bonding-Modi zu verwenden, wurden entsprechend angepasst.
- VLAN-markierte Netzwerkgeräte werden jetzt für Cluster-Heartbeat-Kommunikation unterstützt. Die Ratschläge zur Suche und Bereinigung von Fehlern, die darauf hinweisen, dass dies nicht unterstützt wird, wurden aus diesem Dokument entfernt.
- Das Red Hat Hochverfügbarkeits-Add-On unterstützt jetzt die Konfiguration des Redundant Ring Protocolss. Für allgemeine Informationen zur Verwendung dieser Funktion und Konfiguration der
cluster.confKonfigurationsdatei siehe Abschnitt 7.6, »Konfiguration von Redundant Ring Protocol«. Für weitere Informationen zur Konfiguration des Redundant Ring Protocolss mit luci siehe Abschnitt 3.5.4, »Konfiguration des Redundant Ring Protocols«. Für weitere Informationen zur Konfiguration des Redundant Ring Protocolss mit demccsBefehl siehe Abschnitt 5.14.5, »Konfiguration des Redundant Ring Protocols«.
1.1.5. Neue und veränderte Features für Red Hat Enterprise Linux 6.5 Link kopierenLink in die Zwischenablage kopiert!
- Dieses Dokument enthält einen neuen Abschnitt, Abschnitt 7.8, »Konfiguration von nfsexport- und nfsserver-Ressourcen«.
- Die Tabellen der Fencing-Geräteparameter in Anhang A, Parameter der Fencing-Geräte wurden aktualisiert, um kleine Änderungen an der luci Oberfläche widerzuspiegeln.
1.2. Konfigurationsgrundlagen Link kopierenLink in die Zwischenablage kopiert!
- Einrichten der Hardware. Siehe Abschnitt 1.3, »Einrichten der Hardware«.
- Installation der Red Hat Hochverfügbarkeits-Add-On Software. Siehe Abschnitt 1.4, »Installation der Red Hat Hochverfügbarkeits-Add-On-Software«.
- Konfiguration der Red Hat Hochverfügbarkeits-Add-On Software. Siehe Abschnitt 1.5, »Konfiguration der Red Hat Hochverfügbarkeits-Add-On-Software«.
1.3. Einrichten der Hardware Link kopierenLink in die Zwischenablage kopiert!
- Cluster-Knoten — Computer, die in der Lage sind Red Hat Enterprise Linux 6 Software durchzuführen, mit mindestens 1 GB RAM.
- Netzwerk-Switches für öffentliches Netzwerk — Dies ist nötig für den Client-Zugriff auf den Cluster.
- Netzwerk-Switches für privates Netzwerk — Dies ist nötig zur Kommunikation zwischen den Cluster-Knoten und anderer Cluster-Hardware wie z.B. Network Power Switches und Fibre Channel Switches.
- Fencing-Gerät — Ein Fencing-Gerät ist erforderlich. Ein Network Power Switch wird empfohlen, um Fencing in einem Cluster auf Unternehmensebene durchzuführen. Informationen über unterstützte Fencing-Geräte finden Sie in Anhang A, Parameter der Fencing-Geräte.
- Speicher — Für einen Cluster benötigen Sie Speicherplatz. Abbildung 1.1, »Überblick über die Red Hat Hochverfügbarkeits-Add-On-Hardware« zeigt gemeinsam verwendeten Speicher, doch für Ihre Anforderungen ist gemeinsam verwendeter Speicher gegebenenfalls nicht erforderlich.
Abbildung 1.1. Überblick über die Red Hat Hochverfügbarkeits-Add-On-Hardware
1.4. Installation der Red Hat Hochverfügbarkeits-Add-On-Software Link kopierenLink in die Zwischenablage kopiert!
yum install Befehl verwenden, um die Red Hat Hochverfügbarkeits-Add-On-Software-Pakete zu installieren:
# yum install rgmanager lvm2-cluster gfs2-utils
rgmanager alle notwendigen Abhängigkeiten, um einen HA-Cluster aus dem HighAvailability-Channel zu erstellen, eingeschlossen werden. Die lvm2-cluster und gfs2-utils Pakete sind Teil des ResilientStorage-Channels und werden für Ihren Cluster ggf. nicht benötigt.
1.4.1. Aktualisieren der Red Hat Hochverfügbarkeits-Add-On-Software Link kopierenLink in die Zwischenablage kopiert!
- Halten Sie sämtliche Cluster-Dienste auf einem einzelnen Cluster-Knoten an. Eine Anleitung zum Stoppen der Cluster-Software auf einem Knoten finden Sie in Abschnitt 8.1.2, »Stoppen der Cluster-Software«. Gegebenenfalls kann es von Vorteil sein, cluster-verwaltete Dienste und virtuelle Maschinen manuell vom Host zu verlegen, bevor
rgmanagergestoppt wird. - Führen Sie den
yum updateBefehl durch, um die installierten Pakete zu aktualisieren. - Starten Sie den Cluster-Knoten neu oder führen Sie manuell einen Neustart der Cluster-Dienste aus. Eine Anleitung zum Starten der Cluster-Software auf einem Knoten finden Sie in Abschnitt 8.1.1, »Starten der Cluster-Software«.
1.5. Konfiguration der Red Hat Hochverfügbarkeits-Add-On-Software Link kopierenLink in die Zwischenablage kopiert!
- Conga — Hierbei handelt es sich um eine umfangreiche Benutzeroberfläche zur Installation, Konfiguration und Verwaltung des Red Hat Hochverfügbarkeits-Add-Ons. Siehe Kapitel 3, Konfiguration des Red Hat Hochverfügbarkeits-Add-Ons mit Conga und Kapitel 4, Verwaltung des Red Hat Hochverfügbarkeits-Add-Ons mit Conga für Informationen zur Konfiguration und Verwaltung des Hochverfügbarkeits-Add-Ons mit Conga .
- Der
ccsBefehl — Dieser Befehl konfiguriert und verwaltet das Red Hat Hochverfügbarkeits-Add-On. Siehe Kapitel 5, Konfiguration des Red Hat Hochverfügbarkeits-Add-Ons mit dem ccs Befehl und Kapitel 6, Verwaltung des Red Hat Hochverfügbarkeits-Add-Ons mit ccs für Informationen zur Konfiguration und Verwaltung des Hochverfügbarkeits-Add-Ons mit demccsBefehl. - Befehlszeilen-Tools — Hierbei handelt es sich um eine Reihe von Befehlszeilen-Tools zur Konfiguration und Verwaltung des Red Hat Hochverfügbarkeits-Add-Ons. Siehe Kapitel 7, Manuelle Konfiguration von Red Hat Hochverfügbarkeit und Kapitel 8, Verwaltung des Red Hat Hochverfügbarkeits-Add-Ons mit Befehlszeilen-Tools für Informationen zur Konfiguration und Verwaltung eines Clusters mit Befehlszeilen-Tools. Siehe Anhang E, Überblick über Befehlszeilen-Tools für eine Übersicht der bevorzugten Befehlszeilen-Tools.
Anmerkung
system-config-cluster steht in Red Hat Enterprise Linux 6 nicht zur Verfügung.
Kapitel 2. Vor der Konfiguration des Hochverfügbarkeits-Add-Ons Link kopierenLink in die Zwischenablage kopiert!
Wichtig
2.1. Allgemeine Überlegungen zur Konfiguration Link kopierenLink in die Zwischenablage kopiert!
- Anzahl der unterstützten Cluster-Knoten
- Das Hochverfügbarkeits-Add-On unterstützt maximal 16 Cluster-Knoten.
- Cluster an einem einzelnen Standort
- Derzeit werden nur Cluster unterstützt, die sich an einem einzigen physischen Standort befinden. Cluster, die über mehrere physische Standorte verteilt sind, werden offiziell nicht unterstützt. Für weitere Einzelheiten und Informationen über Cluster an mehreren Standorten setzen Sie sich bitte mit Ihrem Red Hat Vertriebs- oder Kundendienstmitarbeiter in Verbindung.
- GFS2
- Obwohl das GFS2-Dateisystem sowohl auf einem eigenständigen System als auch als Teil einer Cluster-Konfiguration implementiert werden kann, unterstützt Red Hat den Einsatz von GFS2 nicht für ein Ein-Knoten-System. Red Hat unterstützt jedoch eine Reihe von leistungsstarken Ein-Knoten-Dateisystemen, die für den Einsatz auf einzelnen Knoten optimiert sind und dadurch meist einen geringeren Mehraufwand als ein Cluster-Dateisystem haben. Red Hat empfiehlt den Einsatz eines dieser Dateisysteme anstelle von GFS2 in Fällen, in denen nur ein einzelner Knoten das Dateisystem einhängen muss. Red Hat wird für Bestandskunden weiterhin Ein-Knoten-GFS2-Dateisysteme unterstützen.Wenn Sie ein GFS2-Dateisystem als ein Cluster-Dateisystem konfigurieren, müssen Sie sicherstellen, dass alle Knoten im Cluster Zugriff auf das gemeinsame Dateisystem haben. Asymmetrische Cluster-Konfigurationen, bei denen einige Knoten Zugriff auf den Speicher haben und andere nicht, werden nicht unterstützt. Es ist jedoch nicht nötig, dass alle Knoten das GFS2-Dateisystem auch tatsächlich selbst einhängen.
- Hardware-Konfiguration ohne einzelne Ausfallpunkte
- Cluster können ein Dual-Controller RAID-Array, mehrere gebündelte Netzwerkkanäle, mehrere Pfade zwischen Cluster-Mitgliedern und Speicher sowie UPS-Systeme ("Un-interruptible Power Supply" oder unterbrechungsfreie Stromversorgung) umfassen, um sicherzustellen, dass kein einzelner Ausfallpunkt zu Datenverlust oder Ausfallzeiten der Applikationen führt.Alternativ kann ein kostengünstiger Cluster eingerichtet werden, der eine geringere Verfügbarkeit als ein Cluster ohne einzelnen Ausfallpunkt bietet. Beispielsweise können Sie einen Cluster mit einem Single-Controller RAID-Array und einem einzelnen Ethernet-Kanal einrichten.Einige kostengünstige Alternativen, wie z.B. Host RAID Controller, Software RAID ohne Clustering-Unterstützung und parallele Multi-Initiator-SCSI-Konfigurationen sind nicht kompatibel bzw. nicht geeignet für den Einsatz als gemeinsam verwendeter Cluster-Speicher.
- Gewährleistung der Datenintegrität
- Um die Datenintegrität zu gewährleisten, darf zu jeder Zeit nur ein Knoten einen Cluster-Dienst ausführen und auf die zugehörigen Daten zugreifen. Mithilfe von Netzschaltern in der Cluster-Hardware-Konfiguration kann bei einem Ausfall ein Knoten einen anderen Knoten aus- und wieder einschalten, bevor dessen Hochverfügbarkeitsdienste neu gestartet werden. Dadurch wird verhindert, dass zwei Knoten gleichzeitig auf dieselben Daten zugreifen und diese dadurch beschädigen. Es wird dringend empfohlen, Fencing-Geräte (Hardware- oder Software-Lösungen, die extern Cluster-Knoten aus- und einschalten sowie neu starten können) einzusetzen, um selbst im Falle eines Ausfalls die Datenintegrität gewährleisten zu können.
- Ethernet-Kanalbündelung
- Das Cluster-Quorum und die Knoten-Zustände werden anhand von Meldungen bestimmt, die via Ethernet zwischen den Cluster-Knoten übertragen werden. Die Cluster-Knoten nutzen das Ethernet darüber hinaus für eine Vielzahl anderer kritischer Cluster-Features (z.B. das Fencing). Bei der Ethernet-Kanalbündelung werden mehrere Ethernet-Schnittstellen so konfiguriert, dass diese sich wie eine einzige Schnittstelle verhalten, wodurch das Risiko eines einzelnen Ausfallpunktes in der herkömmlichen Ethernet-Verbindung zwischen Cluster-Knoten und anderer Cluster-Hardware vermieden wird.Von Red Hat Enterprise Linux 6.4 an werden die Bindungsarten 0, 1, and 2 unterstützt.
- IPv4 und IPv6
- Das Hochverfügbarkeits-Add-On unterstützt sowohl das IPv4- als auch das IPv6-Internetprotokoll. Die Unterstützung für IPv6 im Hochverfügbarkeits-Add-On ist neu für Red Hat Enterprise Linux 6.
2.2. Kompatible Hardware Link kopierenLink in die Zwischenablage kopiert!
2.3. Aktivieren von IP-Ports Link kopierenLink in die Zwischenablage kopiert!
iptables Regeln für die Freigabe der IP-Ports, die von dem Red Hat Hochverfügbarkeits-Add-On benötigt werden:
2.3.1. Aktivieren von IP-Ports auf Cluster-Knoten Link kopierenLink in die Zwischenablage kopiert!
system-config-firewall verwenden, um die IP-Ports zu aktivieren.
| IP-Port-Nummer | Protokoll | Komponente |
|---|---|---|
| 5404, 5405 | UDP | corosync/cman (Cluster-Manager) |
| 11111 | TCP | ricci (überträgt aktualisierte Cluster-Informationen) |
| 21064 | TCP | dlm (Distributed Lock Manager) |
| 16851 | TCP | modclusterd |
2.3.2. Aktivieren des IP-Ports für luci Link kopierenLink in die Zwischenablage kopiert!
Anmerkung
| IP-Port-Nummer | Protokoll | Komponente |
|---|---|---|
| 8084 | TCP | luci (Conga Benutzeroberflächen-Server) |
/etc/sysconfig/luci Datei vorgenommen wird, können Sie speziell festlegen, auf welcher IP-Adresse luci bereitgestellt werden soll. Diese Funktion kann nützlich sein, falls Ihre Serverinfrastruktur mehr als ein Netzwerk umfasst und Sie nur vom internen Netzwerk auf luci zugreifen möchten. Entfernen Sie dazu die Kommentierung der Zeile, die den host spezifiziert. Um beispielsweise die host Einstellung in der Datei auf 10.10.10.10 zu ändern, bearbeiten Sie die host Zeile wie folgt:
host = 10.10.10.10
/etc/sysconfig/luci Datei, siehe Abschnitt 2.4, »Konfiguration von luci mithilfe von /etc/sysconfig/luci«.
2.3.3. Konfiguration der iptables-Firewall zum Erlauben von Cluster-Komponenten Link kopierenLink in die Zwischenablage kopiert!
cman (Cluster Manager) verwenden Sie die folgende Filterung.
$ iptables -I INPUT -m state --state NEW -m multiport -p udp -s 192.168.1.0/24 -d 192.168.1.0/24 --dports 5404,5405 -j ACCEPT
$ iptables -I INPUT -m addrtype --dst-type MULTICAST -m state --state NEW -m multiport -p udp -s 192.168.1.0/24 --dports 5404,5405 -j ACCEPT
dlm (Distributed Lock Manager):
$ iptables -I INPUT -m state --state NEW -p tcp -s 192.168.1.0/24 -d 192.168.1.0/24 --dport 21064 -j ACCEPT
ricci (Teil des Conga Remote-Agent):
$ iptables -I INPUT -m state --state NEW -p tcp -s 192.168.1.0/24 -d 192.168.1.0/24 --dport 11111 -j ACCEPT
modclusterd (Teil des Conga Remote-Agent):
$ iptables -I INPUT -m state --state NEW -p tcp -s 192.168.1.0/24 -d 192.168.1.0/24 --dport 16851 -j ACCEPT
luci (Conga-Benutzeroberflächenserver):
$ iptables -I INPUT -m state --state NEW -p tcp -s 192.168.1.0/24 -d 192.168.1.0/24 --dport 8084 -j ACCEPT
igmp (Internet Group Management Protocol):
$ iptables -I INPUT -p igmp -j ACCEPT
$ service iptables save ; service iptables restart
2.4. Konfiguration von luci mithilfe von /etc/sysconfig/luci Link kopierenLink in die Zwischenablage kopiert!
/etc/sysconfig/luci Datei bearbeiten. Zu den Parametern, die Sie in dieser Datei ändern können, gehören Einstellungen zur laufenden Umgebung, die vom init-Skript verwendet werden, sowie Einstellungen zur Serverkonfiguration. Zudem können Sie diese Datei bearbeiten, um einige Parameter zur Applikationskonfiguration anzupassen. In der Datei selbst finden Sie Anweisungen, welche Konfigurationsparameter Sie mithilfe dieser Datei ändern können.
/etc/sysconfig/luci Datei verändern, wenn Sie die Datei bearbeiten. Außerdem sollten Sie darauf achten, der erforderlichen Syntax für diese Datei zu folgen. Dies gilt insbesondere für den INITSCRIPT Abschnitt, der keinerlei Leerzeichen neben dem Gleichheitszeichen zulässt und Anführungszeichen um Zeichenketten erfordert, die Leerzeichen enthalten.
/etc/sysconfig/luci Datei verändert wird.
- Entfernen Sie die Kommentierung der folgenden Zeile in der
/etc/sysconfig/luciDatei:#port = 4443 - Ersetzen Sie 4443 durch die gewünschte Port-Nummer, die größer oder gleich 1024 sein muss (kein privilegierter Port). Beispielsweise können Sie diese Zeile folgendermaßen bearbeiten, um den Port, auf dem luci bereitgestellt wird, auf 8084 festzulegen.
port = 8084 - Starten Sie den luci Dienst neu, damit die Änderungen wirksam werden.
Wichtig
/etc/sysconfig/luci Datei anpassen, um einen Standardwert neu zu definieren, sollten Sie darauf achten, den neuen Wert anstelle des alten dokumentierten Werts zu verwenden. Wenn Sie beispielsweise den Port ändern möchten, auf dem luci bereitgestellt wird, achten Sie darauf, den neuen Wert anzugeben, wenn Sie einen IP-Port für luci aktivieren wie in Abschnitt 2.3.2, »Aktivieren des IP-Ports für luci« beschrieben.
/etc/sysconfig/luci Datei konfigurieren können, finden Sie in der Dokumentation innerhalb der Datei selbst.
2.5. Konfiguration von ACPI zur Verwendung mit integrierten Fencing-Geräten Link kopierenLink in die Zwischenablage kopiert!
Anmerkung
shutdown -h now). Bleibt ACPI Soft-Off dagegen aktiviert, braucht ein integriertes Fencing-Gerät vier Sekunden oder länger, um einen Knoten abzuschalten (siehe nachfolgende Anmerkung). Zudem ist mit aktiviertem ACPI Soft-Off ein integriertes Fencing-Gerät unter Umständen nicht dazu in der Lage, einen Knoten abzuschalten, der während des Herunterfahrens hängenbleibt. Unter diesen Umständen würde die Abgrenzung erst verzögert erfolgen oder ganz fehlschlagen. Wenn ein Knoten mit einem integrierten Fencing-Gerät abgegrenzt wird und ACPI Soft-Off aktiviert ist, würde sich ein Cluster infolgedessen nur sehr langsam erholen oder gar administratives Eingreifen erfordern.
Anmerkung
chkconfig Befehl und überprüfen Sie, dass der Knoten bei einer Abgrenzung tatsächlich sofort abgeschaltet wird. Die bevorzugte Methode zum Deaktivieren von ACPI Soft-Off ist der chkconfig Befehl. Falls diese Methode in Ihrem Cluster nicht das gewünschte Ergebnis erzielt, können Sie ACPI Soft-Off auch mit einer der folgenden, alternativen Methoden deaktivieren:
- Ändern Sie die BIOS-Einstellung auf "instant-off" oder auf eine ähnliche Einstellung, die den Knoten ohne Verzögerung abschaltet.
Anmerkung
Das Deaktivieren von ACPI Soft-Off im BIOS steht auf einigen Computern ggf. nicht zur Verfügung. - Fügen Sie
acpi=offzu der Kernel-Boot-Befehlszeile der/boot/grub/grub.confDatei hinzu.Wichtig
Diese Methode deaktiviert ACPI vollständig; einige Computer fahren jedoch ggf. nicht einwandfrei hoch, wenn ACPI vollständig deaktiviert ist. Nutzen Sie diese Methode nur dann, wenn die anderen gezeigten Methoden für Ihren Cluster nicht zum gewünschten Ergebnis führen.
- Abschnitt 2.5.1, »Deaktivieren von ACPI Soft-Off mit dem
chkconfigBefehl« — Bevorzugte Methode - Abschnitt 2.5.2, »Deaktivieren von ACPI Soft-Off im BIOS« — Erste alternative Methode
- Abschnitt 2.5.3, »Vollständiges Deaktivieren von ACPI in der
grub.confDatei« — Zweite alternative Methode
2.5.1. Deaktivieren von ACPI Soft-Off mit dem chkconfig Befehl Link kopierenLink in die Zwischenablage kopiert!
chkconfig Befehl zur Deaktivierung von ACPI Soft-Off verwenden, indem Sie entweder den ACPI-Daemon (acpid) aus der chkconfig Verwaltung entfernen, oder indem Sie acpid ausschalten.
Anmerkung
chkconfig Befehl, und zwar wie folgt:
- Führen Sie einen dieser beiden Befehle aus:
chkconfig --del acpid— Dieser Befehl entferntacpidaus derchkconfigVerwaltung.— ODER —chkconfig --level 345 acpid off— Dieser Befehl schaltetacpidaus.
- Starten Sie den Knoten neu.
- Wenn der Cluster konfiguriert ist und läuft, vergewissern Sie sich, dass der Knoten bei einer Abgrenzung sofort abgeschaltet wird.
Anmerkung
Sie können den Knoten mittels demfence_nodeBefehl oder mit Conga abgrenzen.
2.5.2. Deaktivieren von ACPI Soft-Off im BIOS Link kopierenLink in die Zwischenablage kopiert!
chkconfig Befehl (Abschnitt 2.5.1, »Deaktivieren von ACPI Soft-Off mit dem chkconfig Befehl«). Führt die bevorzugte Methode jedoch nicht zum gewünschten Ergebnis, folgen Sie den in diesem Abschnitt beschriebenen Verfahren.
Anmerkung
- Starten Sie den Knoten neu und starten Sie das
BIOS CMOS Setup UtilityProgramm. - Navigieren Sie zum Menü (oder ähnliches Menü zur Energieverwaltung).
- Setzen Sie im Menü die Funktion (oder ähnlich) auf (oder eine ähnliche Einstellung, die den Knoten über den Ein-/Ausschaltknopf ohne Verzögerung ausschaltet). Beispiel 2.1, »
BIOS CMOS Setup Utility: auf eingestellt« zeigt ein Menü mit der auf (aktiviert) und auf (sofort ausschalten) eingestellt.Anmerkung
Abhängig von Ihrem Computertyp heißen die Menüpunkte , und ggf. anders. Das Ziel dieses Verfahren ist es jedoch, das BIOS dahingehend zu konfigurieren, dass der Computer durch Betätigen des Ein-/Ausschaltknopfes ohne Verzögerung abgeschaltet wird. - Verlassen Sie das
BIOS CMOS Setup UtilityProgramm und speichern so die BIOS-Konfiguration. - Wenn der Cluster konfiguriert ist und läuft, vergewissern Sie sich, dass der Knoten bei einer Abgrenzung sofort abgeschaltet wird.
Anmerkung
Sie können den Knoten mittels demfence_nodeBefehl oder mit Conga abgrenzen.
Beispiel 2.1. BIOS CMOS Setup Utility: auf eingestellt
+---------------------------------------------|-------------------+
| ACPI Function [Enabled] | Item Help |
| ACPI Suspend Type [S1(POS)] |-------------------|
| x Run VGABIOS if S3 Resume Auto | Menu Level * |
| Suspend Mode [Disabled] | |
| HDD Power Down [Disabled] | |
| Soft-Off by PWR-BTTN [Instant-Off | |
| CPU THRM-Throttling [50.0%] | |
| Wake-Up by PCI card [Enabled] | |
| Power On by Ring [Enabled] | |
| Wake Up On LAN [Enabled] | |
| x USB KB Wake-Up From S3 Disabled | |
| Resume by Alarm [Disabled] | |
| x Date(of Month) Alarm 0 | |
| x Time(hh:mm:ss) Alarm 0 : 0 : | |
| POWER ON Function [BUTTON ONLY | |
| x KB Power ON Password Enter | |
| x Hot Key Power ON Ctrl-F1 | |
| | |
| | |
+---------------------------------------------|-------------------+
2.5.3. Vollständiges Deaktivieren von ACPI in der grub.conf Datei Link kopierenLink in die Zwischenablage kopiert!
chkconfig Befehl (Abschnitt 2.5.1, »Deaktivieren von ACPI Soft-Off mit dem chkconfig Befehl«). Führt die bevorzugte Methode jedoch nicht zum gewünschten Ergebnis, können Sie ACPI Soft-Off in der Energieverwaltung des BIOS deaktivieren (Abschnitt 2.5.2, »Deaktivieren von ACPI Soft-Off im BIOS«). Falls in Ihrem Cluster keine dieser beiden Methoden zum Ziel führt, können Sie ACPI vollständig deaktiveren, indem Sie acpi=off an die Kernel-Boot-Befehlszeile der grub.conf Datei anhängen.
Wichtig
grub.conf Datei in jedem Cluster-Knoten wie folgt bearbeiten:
- Öffnen Sie
/boot/grub/grub.confmit einem Texteditor. - Fügen Sie
acpi=offam Ende der Kernel-Boot-Befehlszeile in/boot/grub/grub.confhinzu (siehe Beispiel 2.2, »Kernel-Boot-Befehlszeile mit angefügtemacpi=off«). - Starten Sie den Knoten neu.
- Wenn der Cluster konfiguriert ist und läuft, vergewissern Sie sich, dass der Knoten bei einer Abgrenzung sofort abgeschaltet wird.
Anmerkung
Sie können den Knoten mittels demfence_nodeBefehl oder mit Conga abgrenzen.
Beispiel 2.2. Kernel-Boot-Befehlszeile mit angefügtem acpi=off
# grub.conf generated by anaconda
#
# Note that you do not have to rerun grub after making changes to this file
# NOTICE: You have a /boot partition. This means that
# all kernel and initrd paths are relative to /boot/, eg.
# root (hd0,0)
# kernel /vmlinuz-version ro root=/dev/mapper/vg_doc01-lv_root
# initrd /initrd-[generic-]version.img
#boot=/dev/hda
default=0
timeout=5
serial --unit=0 --speed=115200
terminal --timeout=5 serial console
title Red Hat Enterprise Linux Server (2.6.32-193.el6.x86_64)
root (hd0,0)
kernel /vmlinuz-2.6.32-193.el6.x86_64 ro root=/dev/mapper/vg_doc01-lv_root console=ttyS0,115200n8 acpi=off
initrd /initramrs-2.6.32-131.0.15.el6.x86_64.img
acpi=off am Ende der Kernel-Boot-Befehlszeile — die Zeile, die mit "kernel /vmlinuz-2.6.32-193.el6.x86_64.img" beginnt — angefügt.
2.6. Überlegungen zur Konfiguration von Hochverfügbarkeitsdiensten Link kopierenLink in die Zwischenablage kopiert!
rgmanager, implementiert Ausfallsicherung für Standardapplikationen. Im Red Hat Hochverfügbarkeits-Add-On wird eine Applikation mit anderen Cluster-Ressourcen konfiguriert, um einen Hochverfügbarkeitsdienst zu bilden, der zur Ausfallsicherung von einem Cluster-Knoten auf einen anderen wechseln kann, ohne signifikante Unterbrechung für Cluster-Clients. Das Wechseln eines Hochverfügbarkeitsdienstes auf einen anderen Knoten kann z.B. erfolgen, wenn ein Cluster-Knoten ausfällt oder ein Cluster-Systemadministrator den Dienst von einem Cluster-Knoten auf einen anderen verlegt (z.B. für eine geplante Betriebsunterbrechung eines Cluster-Knotens).
- IP-Adressen-Ressource — IP-Adresse 10.10.10.201.
- Eine Applikations-Ressource mit dem Namen "httpd-content" — Ein Initialisierungsskript
/etc/init.d/httpdfür eine Webserver-Applikation (nämlichhttpd). - Eine Dateisystem-Ressource — Red Hat GFS2, genannt "gfs2-content-webserver".
Abbildung 2.1. Beispiel: Webserver-Cluster-Dienst
Anmerkung
/etc/cluster/cluster.conf dargestellt (in jedem Cluster-Knoten). In der Cluster-Konfigurationsdatei ist jeder Ressourcenbaum eine XML-Darstellung, die jede Ressource spezifiziert, deren Parameter, sowie ihre Relationen zu anderen Ressourcen im Ressourcenbaum (Eltern-, Kind-, Geschwisterrelationen).
Anmerkung
- Die Ressourcenarten, die zum Erstellen eines Dienstes nötig sind
- Eltern-, Kind- und Geschwisterrelationen zwischen den Ressourcen
2.7. Überprüfung der Konfiguration Link kopierenLink in die Zwischenablage kopiert!
/usr/share/cluster/cluster.rng überprüft. Zudem können Sie eine Cluster-Konfiguration jederzeit mithilfe des ccs_config_validate Befehls überprüfen. Informationen über die Konfigurationsprüfung bei der Verwendung des ccs Befehls finden Sie unter Abschnitt 5.1.6, »Überprüfung der Konfiguration«.
/usr/share/doc/cman-X.Y.ZZ/cluster_conf.html zur Ansicht (z.B. /usr/share/doc/cman-3.0.12/cluster_conf.html).
- XML-Gültigkeit — Überprüft, ob die Konfigurationsdatei eine gültige XML-Datei ist.
- Konfigurationsoptionen — Überprüft, ob Optionen (XML-Elemente und Parameter) gültig sind.
- Optionswerte — Überprüft, ob die Optionen gültige Daten enthalten (begrenzt).
- Gültige Konfiguration — Beispiel 2.3, »
cluster.confBeispielkonfiguration: Gültige Datei« - Ungültiges XML — Beispiel 2.4, »
cluster.confBeispielkonfiguration: Ungültiges XML« - Ungültige Option — Beispiel 2.5, »
cluster.confBeispielkonfiguration: Ungültige Option« - Ungültiger Optionswert — Beispiel 2.6, »
cluster.confBeispielkonfiguration: Ungültiger Optionswert«
Beispiel 2.3. cluster.conf Beispielkonfiguration: Gültige Datei
<cluster name="mycluster" config_version="1">
<logging debug="off"/>
<clusternodes>
<clusternode name="node-01.example.com" nodeid="1">
<fence>
</fence>
</clusternode>
<clusternode name="node-02.example.com" nodeid="2">
<fence>
</fence>
</clusternode>
<clusternode name="node-03.example.com" nodeid="3">
<fence>
</fence>
</clusternode>
</clusternodes>
<fencedevices>
</fencedevices>
<rm>
</rm>
</cluster>
Beispiel 2.4. cluster.conf Beispielkonfiguration: Ungültiges XML
<cluster name="mycluster" config_version="1">
<logging debug="off"/>
<clusternodes>
<clusternode name="node-01.example.com" nodeid="1">
<fence>
</fence>
</clusternode>
<clusternode name="node-02.example.com" nodeid="2">
<fence>
</fence>
</clusternode>
<clusternode name="node-03.example.com" nodeid="3">
<fence>
</fence>
</clusternode>
</clusternodes>
<fencedevices>
</fencedevices>
<rm>
</rm>
<cluster> <----------------INVALID
<cluster> anstelle von </cluster>.
Beispiel 2.5. cluster.conf Beispielkonfiguration: Ungültige Option
<cluster name="mycluster" config_version="1">
<loging debug="off"/> <----------------INVALID
<clusternodes>
<clusternode name="node-01.example.com" nodeid="1">
<fence>
</fence>
</clusternode>
<clusternode name="node-02.example.com" nodeid="2">
<fence>
</fence>
</clusternode>
<clusternode name="node-03.example.com" nodeid="3">
<fence>
</fence>
</clusternode>
</clusternodes>
<fencedevices>
</fencedevices>
<rm>
</rm>
<cluster>
loging anstelle von logging.
Beispiel 2.6. cluster.conf Beispielkonfiguration: Ungültiger Optionswert
<cluster name="mycluster" config_version="1">
<loging debug="off"/>
<clusternodes>
<clusternode name="node-01.example.com" nodeid="-1"> <--------INVALID
<fence>
</fence>
</clusternode>
<clusternode name="node-02.example.com" nodeid="2">
<fence>
</fence>
</clusternode>
<clusternode name="node-03.example.com" nodeid="3">
<fence>
</fence>
</clusternode>
</clusternodes>
<fencedevices>
</fencedevices>
<rm>
</rm>
<cluster>
nodeid in der clusternode Zeile für node-01.example.com. Der Wert hier ist ein negativer Wert ("-1") anstelle eines positiven Werts ("1"). Für den nodeid Parameter muss der Wert jedoch positiv sein.
2.8. Überlegungen zum NetworkManager Link kopierenLink in die Zwischenablage kopiert!
Anmerkung
cman Dienst wird nicht starten, wenn der NetworkManager läuft oder mithilfe des chkconfig Befehls zur Ausführung konfiguriert wurde.
2.9. Überlegungen zur Verwendung von Quorum Disk Link kopierenLink in die Zwischenablage kopiert!
qdiskd, der ergänzende Heuristiken zum Bestimmen der Knotengesundheit liefert. Mit Heuristiken können Sie Faktoren bestimmen, die wichtig für die Funktion des Knotens im Falle einer Spaltung des Clusters sind. In einem Cluster mit vier Knoten und einer 3:1-Spaltung beispielsweise "gewinnen" die drei Knoten für gewöhnlich automatisch aufgrund Ihrer 3-zu-1-Mehrheit. In dieser Situation wird der einzelne Knoten abgegrenzt. Mithilfe von qdiskd können Sie dagegen Heuristiken einrichten, die es dem einzelnen Knoten ermöglichen zu gewinnen, basierend auf dessen Zugriff auf eine kritische Ressource (z.B. ein kritischer Netzwerkpfad). Falls Ihr Cluster zusätzliche Methoden zur Bestimmung der Knotengesundheit erfordert, sollten Sie zu diesem Zweck qdiskd konfigurieren.
Anmerkung
qdiskd ist nur dann notwendig, wenn Sie besondere Anforderungen an die Knotengesundheit haben. Beispiel für eine besondere Anforderung wäre eine "all-but-one" (alle-außer-einem) Konfiguration. In einer "all-but-one"-Konfiguration wird qdiskd so konfiguriert, dass genügend Quorum-Stimmen geliefert werden, um das Quorum zu erhalten, selbst wenn nur ein einziger Knoten läuft.
Wichtig
qdiskd Parameter für Ihre Bereitstellung hängen im Wesentlichen von den Anforderungen Ihrer Umgebung und sonstigen besonderen Anforderungen ab. Für das bessere Verständnis der Verwendung von Heuristiken und anderen qdiskd Parametern werfen Sie einen Blick auf die qdisk(5) Handbuchseite. Falls Sie beim Einsatz von qdiskd in Ihrer Umgebung Hilfe benötigen, setzen Sie sich bitte mit einem autorisierten Red Hat Support-Vertreter in Verbindung.
qdiskd einsetzen müssen, sollten Sie folgende Faktoren berücksichtigen:
- Cluster-Knotenstimmen
- Wird Quorum Disk verwendet, muss jeder Cluster-Knoten eine Stimme haben.
- Timeout für CMAN-Mitgliedschaft
- Der Wert für den
qdiskd-Mitgliedschafts-Timeout wird automatisch konfiguriert basierend auf dem Wert für den CMAN-Mitgliedschafts-Timeout (die Zeit, die ein Knoten nicht reagiert, bevor CMAN - kurz für Cluster-Manager - diesen Knoten als tot betrachtet, und nicht mehr als Mitglied).qdiskdführt zudem zusätzliche Überprüfungen durch, um sicherzustellen, dass er innerhalb der Zeit für den CMAN-Timeout operieren kann. Falls Sie diesen Wert anpassen müssen, sollten Sie Folgendes beachten:Der Wert für den CMAN-Mitgliedschafts-Timeout sollte mindestens doppelt so lang sein, wie der Wert für denqdiskd-Mitgliedschafts-Timeout. Der Grund hierfür ist der, dass der Quorum-Daemon ausgefallene Knoten selbst entdecken muss und hierzu ggf. deutlich länger braucht als der CMAN. Andere umgebungsspezifische Bedingungen können das Verhältnis zwischen den Mitgliedschafts-Timeout-Werten von CMAN undqdiskdbeeinflussen. Falls Sie beim Anpassen des Werts für den CMAN-Mitgliedschafts-Timeout Hilfe benötigen, setzen Sie sich bitte mit einem autorisierten Red Hat Support-Vertreter in Verbindung. - Fencing (Datenabgrenzung)
- Um beim Einsatz von
qdiskdzuverlässiges Fencing zu gewährleisten, verwenden Sie Power-Fencing. Für Cluster ohneqdiskdkönnen zwar auch andere Arten von Fencing zuverlässig arbeiten, diese sind jedoch für einen Cluster, der mitqdiskdkonfiguriert ist, nicht ausreichend zuverlässig. - Höchstanzahl von Knoten
- Ein Cluster, der mit
qdiskdkonfiguriert ist, unterstützt maximal 16 Knoten. Der Grund für diese Grenze liegt in der Skalierbarkeit; eine Erhöhung der Knotenanzahl geht mit einer Erhöhung der synchronen I/O-Auslastung auf dem gemeinsam verwendeten Quorumdatenträger einher. - Quorumdatenträger
- Ein Quorumdatenträger sollte ein gemeinsam verwendetes Blockgerät sein mit parallelem Lese-/Schreibzugriff für alle Knoten in einem Cluster. Die Mindestgröße für das Blockgerät sollte 10 Megabytes betragen. Zu den gemeinsam verwendeten Blockgeräten, die von
qdiskdverwendet werden können, gehören z.B. ein Multi-Port SCSI RAID Array, ein Fibre Channel RAID SAN oder ein RAID-konfiguriertes iSCSI-Ziel. Sie können einen Quorumdatenträger mit dem Dienstprogramm für Cluster-Quorumdatenträgermkqdiskerstellen. Weitere Informationen über die Verwendung dieses Dienstprogramms finden Sie auf der mkqdisk(8) Handbuchseite.Anmerkung
Der Einsatz von JBOD als Quorumdatenträger wird nicht empfohlen. Eine JBOD bietet keine zuverlässige Leistung und könnte daher einem Knoten einen Schreibvorgang nicht schnell genug ermöglichen. Kann ein Knoten nicht schnell genug auf einen Quorumdatenträger schreiben, wird dieser Knoten fälschlicherweise aus dem Cluster ausgeschlossen.
2.10. Red Hat Hochverfügbarkeits-Add-On und SELinux Link kopierenLink in die Zwischenablage kopiert!
enforcing Modus mit der SELinux-Richtlinie auf targeted eingestellt.
Anmerkung
fenced_can_network_connect dauerhaft auf on gesetzt ist. Dies ermöglicht dem fence_xvm Fencing-Agent die ordnungsgemäße Ausführung, so dass das System virtuelle Maschinen abgrenzen kann.
2.11. Multicast-Adressen Link kopierenLink in die Zwischenablage kopiert!
Anmerkung
2.12. UDP-Unicast-Datenverkehr Link kopierenLink in die Zwischenablage kopiert!
cman transport="udpu" Parameter in der cluster.conf Konfigurationsdatei erstellen. Sie können Unicast auch auf der Seite der Conga Benutzeroberfläche, wie in Abschnitt 3.5.3, »Konfiguration des Netzwerks« beschrieben, konfigurieren.
2.13. Überlegungen zu ricci Link kopierenLink in die Zwischenablage kopiert!
ricci nunmehr ccsd ab. Es ist deshalb notwendig, dass ricci auf jedem Cluster-Knoten ausgeführt wird, um entweder mithilfe des cman_tool version -r Befehls, des ccs Befehls oder mithilfe des luci Benutzeroberflächen-Servers aktualisierte Cluster-Konfigurationsinformationen im Cluster verbreiten zu können. Sie können ricci starten, indem Sie service ricci start ausführen oder indem Sie mithilfe von chkconfig festlegen, dass es beim Systemstart automatisch starten soll. Informationen über das Aktivieren von IP-Ports für ricci finden Sie in Abschnitt 2.3.1, »Aktivieren von IP-Ports auf Cluster-Knoten«.
ricci ein Passwort, wenn Sie zum ersten Mal aktualisierte Cluster-Konfigurationen von einem bestimmten Knoten verbreiten möchten. Sie richten das ricci Passwort nach der Installation von ricci auf Ihrem System ein, indem Sie als Root den Befehl passwd ricci für den Benutzer ricci ausführen.
2.14. Konfiguration von virtuellen Maschinen in einer Cluster-Umgebung Link kopierenLink in die Zwischenablage kopiert!
rgmanager Tools nutzen, um die virtuellen Maschinen zu starten und zu stoppen. Wenn Sie dagegen virsh zum Starten der Maschine nutzen, kann es passieren, dass die virtuelle Maschine an mehr als einem Ort ausgeführt wird, was wiederum zur Beschädigung von Daten in der virtuellen Maschine führen kann.
virsh erschwert, da die Konfigurationsdateien für virsh unbekannt sein werden.
path Parameters einer virtuellen Maschinen-Ressource referenzieren. Beachten Sie, dass der path Parameter ein Verzeichnis oder eine Reihe von Verzeichnissen (getrennt durch das ':' Zeichen) spezifiziert, keinen Pfad zu einer bestimmten Datei.
Warnung
libvirt-guests Dienst sollte auf allen Knoten, auf denen rgmanager ausgeführt wird, deaktiviert werden. Falls eine virtuelle Maschine automatisch startet oder fortgeführt wird, kann es passieren, dass die virtuelle Maschine an mehr als einem Ort läuft, was wiederum zur Beschädigung von Daten in der virtuellen Maschine führen kann.
vm-Ressource)«.
Kapitel 3. Konfiguration des Red Hat Hochverfügbarkeits-Add-Ons mit Conga Link kopierenLink in die Zwischenablage kopiert!
Anmerkung
3.1. Konfigurationsaufgaben Link kopierenLink in die Zwischenablage kopiert!
- Konfiguration und Ausführen der Conga Konfigurationsoberfläche — des luci Servers. Siehe Abschnitt 3.2, »Starten von luci «.
- Erstellen eines Clusters. Siehe Abschnitt 3.4, »Erstellen eines Clusters«.
- Konfiguration von globalen Cluster-Eigenschaften. Siehe Abschnitt 3.5, »Globale Cluster-Eigenschaften«.
- Konfiguration von Fencing-Geräten. Siehe Abschnitt 3.6, »Konfiguration von Fencing-Geräten«.
- Konfiguration von Fencing für Cluster-Mitglieder. Siehe Abschnitt 3.7, »Konfiguration des Fencings für Cluster-Mitglieder«.
- Erstellen von Ausfallsicherungs-Domains. Siehe Abschnitt 3.8, »Konfiguration einer Ausfallsicherungs-Domain«.
- Erstellen von Ressourcen. Siehe Abschnitt 3.9, »Konfiguration von globalen Cluster-Eigenschaften«.
- Erstellen von Cluster-Diensten. Siehe Abschnitt 3.10, »Hinzufügen eines Cluster-Dienstes zum Cluster«.
3.2. Starten von luci Link kopierenLink in die Zwischenablage kopiert!
Anmerkung
luci zur Konfiguration eines Clusters einsetzen zu können, muss ricci auf den Cluster-Knoten installiert sein und laufen, wie in Abschnitt 2.13, »Überlegungen zu ricci« beschrieben. Wie in diesem Abschnitt beschrieben, erfordert die Verwendung von ricci ein Passwort. luci fordert Sie bei der Erstellung eines Clusters für jeden Cluster-Knoten zur Eingabe dieses Passworts auf, wie in Abschnitt 3.4, »Erstellen eines Clusters« beschrieben.
- Wählen Sie einen Computer, der luci hosten soll, und installieren Sie die luci Software auf diesem Computer. Zum Beispiel:
# yum install luciAnmerkung
In der Regel wird luci von einem Computer in einem Server-Käfig oder Rechenzentrum gehostet, aber auch ein Cluster-Computer kann luci hosten. - Starten Sie luci mittels
service luci start. Zum Beispiel:# service luci start Starting luci: generating https SSL certificates... done [ OK ] Please, point your web browser to https://nano-01:8084 to access luciAnmerkung
Ab der Red Hat Enterprise Linux 6.1 Release können Sie einige Verhaltensweisen von luci konfigurieren, indem Sie die/etc/sysconfig/luciDatei bearbeiten. Dazu gehören die Port- und Host-Parameter wie in Abschnitt 2.4, »Konfiguration von luci mithilfe von/etc/sysconfig/luci« beschrieben. Veränderte Port- und Host-Parameter werden automatisch in der URL widergespiegelt, wenn der luci Dienst startet. - Geben Sie in einem Webbrowser die URL des luci Servers in das Adressfeld ein und klicken auf
Go(oder ähnlich). Die URL-Syntax für den luci Server isthttps://luci_server_hostname:luci_server_port. Der Standardwert für luci_server_port ist8084.Beim ersten Zugriff auf luci wird eine Eingabeaufforderung hinsichtlich des selbst signierten SSL-Zertifikats (des luci Servers) angezeigt. Nach Bestätigung dieser Dialogfelder zeigt Ihr Webbrowser nun die luci Anmeldeseite. - Jeder Benutzer, der sich auf dem System, das luci hostet, anmelden kann, kann sich auch bei luci anmelden. Ab Red Hat Enterprise Linux 6.2 jedoch kann nur der Root-Benutzer auf dem System, das luci ausführt, auf die luci Komponenten zugreifen, bis ein Administrator (der Root-Benutzer oder ein anderer Benutzer mit Administratorrechten) die Berechtigungen für diesen Benutzer erstellt. Für Informationen über das Erstellen von luci Berechtigungen für Benutzer werfen Sie einen Blick auf Abschnitt 3.3, »Zugriffskontrolle für luci«.Nach erfolgreicher Anmeldung zeigt luci die luci Seite, wie in Abbildung 3.1, »luci Homebase-Seite« dargestellt.
Abbildung 3.1. luci Homebase-Seite
Anmerkung
3.3. Zugriffskontrolle für luci Link kopierenLink in die Zwischenablage kopiert!
- Ab Red Hat Enterprise Linux 6.2 kann der Root-Benutzer oder ein Benutzer mit luci Administratorrechten auf einem System mit luci den Zugriff auf die verschiedenen luci Komponenten durch das Festlegen von Berechtigungen für die einzelnen Benutzer auf einem System kontrollieren.
- Ab Red Hat Enterprise Linux 6.3 kann der Root-Benutzer oder ein Benutzer mit luci Administratorrechten Benutzer zur luci Oberfläche hinzufügen und Berechtigungen für diesen Benutzer festlegen. Sie müssen diesen Benutzer nach wie vor noch zum System hinzufügen und ein Passwort festlegen, doch dieses Feature ermöglicht es Ihnen, Berechtigungen für diesen Benutzer festzulegen, bevor dieser sich zum ersten Mal bei luci anmeldet.
- Ab Red Hat Enterprise Linux 6.4 kann der Root-Benutzer oder ein Benutzer mit luci Administratorrechten auch die luci Oberfläche nutzen, um Benutzer von der luci Oberfläche zu entfernen, wodurch sämtliche Berechtigungen dieses Benutzers zurückgesetzt werden.
Anmerkung
/etc/pam.d/luci Datei auf dem System bearbeiten. Informationen über die Verwendung von Linux-PAM finden Sie auf der pam(8) Handbuchseite.
root oder als Benutzer, dem zuvor Administratorrechte erteilt wurden, und klicken Sie auf die Auswahl in der oberen rechten Ecke des luci Bildschirmes. Dies ruft die Seite (Benutzer und Berechtigungen) auf, welche die vorhandenen Benutzer anzeigt.
- Gewährt dem Benutzer dieselben Berechtigungen wie der Root-Benutzer, einschließlich umfassender Berechtigungen auf allen Clustern und der Fähigkeit, Berechtigungen auf allen anderen Benutzern zu verändern mit Ausnahme vom Root-Benutzer, dessen Berechtigungen nicht eingeschränkt werden können.
- (Kann Cluster erstellen)
- Erlaubt es dem Benutzer, neue Cluster zu erstellen, wie in Abschnitt 3.4, »Erstellen eines Clusters« beschrieben.
- (Kann vorhandene Cluster importieren)
- Erlaubt es dem Benutzer, einen vorhandenen Cluster zur luci Oberfläche hinzuzufügen, wie in Abschnitt 4.1, »Hinzufügen eines vorhandenen Clusters zur luci-Oberfläche« beschrieben.
- (Kann diesen Cluster ansehen)
- Erlaubt es dem Benutzer, den angegebenen Cluster anzusehen.
- (Kann die Cluster-Konfiguration ändern)
- Erlaubt es dem Benutzer, die Konfiguration für den angegebenen Cluster zu ändern; davon ausgenommen ist das Hinzufügen und Entfernen von Cluster-Knoten.
- (Kann Dienstgruppen aktivieren, deaktivieren, verlegen und migrieren)
- Erlaubt es dem Benutzer, Hochverfügbarkeitsdienste zu verwalten, wie in Abschnitt 4.5, »Verwaltung von Hochverfügbarkeitsdiensten« beschrieben.
- (Kann Cluster-Knoten stoppen, starten und neu starten)
- Erlaubt es dem Benutzer, die einzelnen Knoten eines Clusters zu verwalten, wie in Abschnitt 4.3, »Verwaltung von Cluster-Knoten« beschrieben.
- (Kann Knoten hinzufügen und entfernen)
- Erlaubt es dem Benutzer, Knoten zu einem Cluster hinzuzufügen oder davon zu entfernen, wie in Abschnitt 3.4, »Erstellen eines Clusters« beschrieben.
- (Kann diesen Cluster aus Luci entfernen)
- Erlaubt es dem Benutzer, einen Cluster aus der luci Oberfläche zu entfernen, wie in Abschnitt 4.4, »Starten, Stoppen, Neustarten und Löschen von Clustern« beschrieben.
3.4. Erstellen eines Clusters Link kopierenLink in die Zwischenablage kopiert!
- Klicken Sie auf (Cluster verwalten) im Menü auf der linken Seite der luci Seite. Der Bildschirm erscheint, wie in Abbildung 3.2, »luci-Seite zur Cluster-Verwaltung« dargestellt.
Abbildung 3.2. luci-Seite zur Cluster-Verwaltung
- Klicken Sie auf (Erstellen). Der Bildschirm (Neuen Cluster erstellen) erscheint, wie in Abbildung 3.3, »luci-Dialogfeld zur Cluster-Erstellung« dargestellt.
Abbildung 3.3. luci-Dialogfeld zur Cluster-Erstellung
- Geben Sie im Dialogfeld die folgenden Parameter ein:
- Geben Sie im Textfeld einen Cluster-Namen ein. Der Cluster-Name darf nicht länger als 15 Zeichen sein.
- Falls alle Knoten im Cluster dasselbe ricci Passwort haben, können Sie das Auswahlkästchen (Dasselbe Passwort für alle Knoten verwenden) markieren, um beim Hinzufügen weiterer Knoten das Feld automatisch auszufüllen.
- Geben Sie in der Spalte den Knotennamen für einen Knoten im Cluster ein und geben Sie das ricci Passwort für den Knoten in der Spalte ein. Ein Knotenname darf maximal 255 Bytes lang sein.
- Falls Ihr System mit einem dedizierten privaten Netzwerk konfiguriert ist, das ausschließlich für Cluster-Datenverkehr genutzt wird, können Sie luci dahingehend konfigurieren, dass die Kommunikation mit ricci auf einer Adresse erfolgt, die sich von der Adresse unterscheidet, in die der Cluster-Knotenname aufgelöst wird. Sie erreichen dies, indem Sie diese Adresse als festlegen.
- Falls Sie einen anderen Port für den ricci Agenten als den Standard 11111 verwenden, können Sie diesen Parameter hier ändern.
- Klicken Sie auf (Weiteren Knoten hinzufügen) und geben Sie den Knotennamen und das ricci Passwort für jeden weiteren Knoten im Cluster ein.
- Falls Sie beim Erstellen des Clusters nicht die bereits auf den Knoten installierten Cluster-Software-Pakete aktualisieren möchten, lassen Sie die Option (Lokal installierte Pakete verwenden) ausgewählt. Falls Sie dagegen alle Cluster-Software-Pakete aktualisieren möchten, wählen Sie die Option (Pakete herunterladen).
Anmerkung
Ungeachtet dessen, ob Sie die Option oder wählen, werden eventuell fehlende Basis-Cluster-Komponenten (cman,rgmanager,modclustersamt Abhängigkeiten) installiert. Falls diese nicht installiert werden können, wird die Knotenerstellung misslingen. - Wählen Sie (Knoten vor Cluster-Beitritt neu starten) falls gewünscht.
- Wählen Sie (Unterstützung für gemeinsam verwendeten Speicher aktivieren), falls geclusterter Speicher erforderlich ist; dadurch werden die Pakete heruntergeladen, die Unterstützung für geclusterten Speicher hinzufügen, und geclustertes LVM wird aktiviert. Sie sollten dies nur dann auswählen, wenn Sie Zugriff auf das Resilient Storage Add-On oder das Scalable File System Add-On haben.
- Klicken Sie auf (Cluster erstellen). Der Klick auf löst die folgenden Aktionen aus:
- Falls Sie (Pakete herunterladen) ausgewählt haben, werden die Cluster-Software-Pakete auf die Knoten heruntergeladen.
- Cluster-Software wird auf den Knoten installiert (bzw. es wird überprüft, ob die richtigen Software-Pakete installiert sind).
- Die Cluster-Konfigurationsdatei wird aktualisiert und an jeden Knoten im Cluster weitergereicht.
- Die hinzugefügten Knoten treten dem Cluster bei.
Eine Meldung wird angezeigt, die besagt, dass der Cluster derzeit erstellt wird. Sobald der Cluster bereit ist, wird der Status des neu erstellten Clusters angezeigt, wie in Abbildung 3.4, »Anzeige der Cluster-Knoten« dargestellt. Beachten Sie, dass die Cluster-Erstellung fehlschlagen wird, wenn ricci auf keinem der Knoten ausgeführt wird.
Abbildung 3.4. Anzeige der Cluster-Knoten
- Nachdem Sie auf geklickt haben, um den Cluster zu erstellen, können Sie weitere Knoten zum Cluster hinzufügen oder Knoten aus ihm entfernen, indem Sie auf die (Hinzufügen) oder (Löschen) Funktion oben auf der Cluster-Knoten-Ansichtsseite klicken. Vor dem Löschen von Knoten müssen diese gestoppt werden, es sei denn, Sie löschen den gesamten Cluster. Weitere Informationen über das Löschen eines Knotens aus einem laufenden Cluster finden Sie in Abschnitt 4.3.4, »Ein Mitglied aus einem Cluster löschen«.
Anmerkung
Das Entfernen eines Cluster-Knotens von einem Cluster ist eine destruktive Operation, die nicht rückgängig gemacht werden kann.
3.5. Globale Cluster-Eigenschaften Link kopierenLink in die Zwischenablage kopiert!
3.5.1. Konfiguration der allgemeinen Eigenschaften Link kopierenLink in die Zwischenablage kopiert!
- Das Textfeld zeigt den Cluster-Namen, es akzeptiert jedoch keine Änderung des Cluster-Namens. Die einzige Möglichkeit, den Namen eines Clusters zu ändern, ist das Erstellen einer neuen Cluster-Konfiguration mit dem neuen Namen.
- Der Wert für die (Konfigurationsversion) ist standardmäßig auf
1gesetzt und wird jedes Mal automatisch erhöht, wenn Sie Ihre Cluster-Konfiguration ändern. Falls Sie jedoch einen abweichenden Wert angeben müssen, können Sie diesen manuell im Textfeld angeben.
3.5.2. Konfiguration der Fencing-Daemon Eigenschaften Link kopierenLink in die Zwischenablage kopiert!
- Der Parameter (Verzögerung nach Ausfall) ist die Anzahl von Sekunden, die der Fencing-Daemon (
fenced) wartet, bevor ein Knoten (ein Mitglied der Fencing-Domain) nach dessen Ausfall abgegrenzt wird. Der Standardwert für ist0. Dieser Wert kann je nach Cluster- und Netzwerkleistung angepasst werden. - Der Parameter (Verzögerung nach Beitritt) ist die Anzahl der Sekunden, die der Fencing-Daemon (
fenced) wartet, bevor ein Knoten abgegrenzt wird, nachdem der Knoten der Fencing-Domain beitritt. luci setzt den Wert standardmäßig auf3. Eine typische Einstellung für liegt zwischen 20 und 30 Sekunden, kann aber je nach Cluster- und Netzwerkleistung variieren.
Anmerkung
3.5.3. Konfiguration des Netzwerks Link kopierenLink in die Zwischenablage kopiert!
- (UDP-Multicast und den Cluster die Multicast-Adresse auswählen lassen)Dies ist die Standardeinstellung. Wenn Sie diese Option auswählen, erstellt die Red Hat Hochverfügbarkeits-Add-On-Software eine Multicast-Adresse basierend auf der Cluster-ID. Es generiert die unteren 16 Bits der Adresse und fügt diese an den oberen Teil der Adresse an, abhängig davon, ob das IP-Protokoll IPv4 oder IPv6 verwendet wird:
- Bei IPv4 — Die gebildete Adresse ist 239.192. plus die von der Red Hat Hochverfügbarkeits-Add-On-Software generierten unteren 16 Bits.
- Bei IPv6 — Die gebildete Adresse ist FF15:: plus die von der Red Hat Hochverfügbarkeits-Add-On-Software generierten unteren 16 Bits.
Anmerkung
Die Cluster-ID ist eine eindeutige Kennung, diecmanfür jeden Cluster generiert. Um die Cluster-ID anzusehen, führen Sie dencman_tool statusBefehl auf einem Cluster-Knoten durch. - (UDP-Multicast und manuell die Multicast-Adresse angeben)Falls Sie eine bestimmte Multicast-Adresse verwenden müssen, wählen Sie diese Option und geben Sie im Textfeld eine Multicast-Adresse an.Falls Sie eine Multicast-Adresse angeben, sollten Sie die 239.192.x.x Serie (oder FF15:: für IPv6) nutzen, die
cmanverwendet. Falls Sie eine Multicast-Adresse außerhalb dieses Bereichs verwenden, kann dies eventuell zu unvorhergesehenem Verhalten führen. So könnte z.B. die Adresse 224.0.0.x (d.h. "Alle Hosts auf dem Netzwerk") unter Umständen von mancher Hardware nicht korrekt oder gar nicht geroutet werden.Falls Sie eine Multicast-Adresse angeben oder ändern, müssen Sie den Cluster-Knoten neu starten, damit die Änderungen wirksam werden. Für Informationen über das Starten und Stoppen eines Clusters mit Conga siehe Abschnitt 4.4, »Starten, Stoppen, Neustarten und Löschen von Clustern«.Anmerkung
Falls Sie eine Multicast-Adresse angeben, überprüfen Sie die Konfiguration der Router, die von Cluster-Paketen durchquert werden. Manche Router brauchen eine lange Zeit zum Lernen von Adressen, was sich drastisch auf die Cluster-Leistung auswirken kann. - Ab der Red Hat Enterprise Linux 6.2 Release können die Knoten in einem Cluster miteinander über den UDP-Unicast Transportmechanismus kommunizieren. Es wird jedoch empfohlen, dass Sie IP-Multicasting für das Cluster-Netzwerk verwenden. UDP-Unicast ist eine Alternative, die verwendet werden kann, wenn IP-Multicasting nicht zur Verfügung steht. Für GFS2-Bereitstellungen wird die Verwendung von UDP Unicast nicht empfohlen.
3.5.4. Konfiguration des Redundant Ring Protocols Link kopierenLink in die Zwischenablage kopiert!
3.5.5. Konfiguration des Quorumdatenträgers Link kopierenLink in die Zwischenablage kopiert!
Anmerkung
| Parameter | Beschreibung | ||||
|---|---|---|---|---|---|
Spezifiziert die Kennung des Quorumdatenträgers, das von dem mkqdisk Dienstprogramm erstellt wurde. Wird dieses Feld verwendet, liest der Quorum-Daemon die /proc/partitions Datei, sucht nach qdisk-Signaturen auf jedem gefundenen Blockgerät und vergleicht die Kennung mit der angegebenen Kennung. Dies ist in Konfigurationen hilfreich, in denen der Name des Quorumgeräts sich von Knoten zu Knoten unterscheidet. | |||||
| |||||
Die Mindestpunktzahl eines Knotens, bei der dieser noch als "lebendig" betrachtet wird. Falls dieser Wert weggelassen oder auf 0 gesetzt wird, so wird die Standardfunktion floor((n+1)/2) verwendet, wobei n die Summe der Heuristik-Punktzahlen ist. Der Wert darf nie die Summe der Heuristik-Punktzahlen übersteigen, andernfalls wird der Quorumdatenträger nicht verfügbar sein. |
Anmerkung
/etc/cluster/cluster.conf) auf jedem Cluster-Knoten übertragen. Damit der Quorumdatenträger jedoch funktioniert und damit jegliche Änderungen an den Parametern des Quorumdatenträgers wirksam werden, müssen Sie den Cluster neu starten (siehe Abschnitt 4.4, »Starten, Stoppen, Neustarten und Löschen von Clustern«) und sichergehen, dass der qdiskd Daemon auf jedem Knoten neu gestartet wurde.
3.5.6. Konfiguration der Protokollierung Link kopierenLink in die Zwischenablage kopiert!
- Wenn Sie (Debugging-Nachrichten protokollieren) auswählen, werden Debugging-Nachrichten in der Protokolldatei gespeichert.
- Wenn Sie (Nachrichten nach syslog protokollieren) auswählen, werden Nachrichten mit
syslogprotokolliert. Sie können die und die auswählen. Die Einstellung (Syslog-Nachrichtenpriorität) legt fest, dass Nachrichten mit der ausgewählten Priorität oder höher ansysloggesendet werden. - Wenn Sie (Nachrichten in Protokolldatei speichern) auswählen, werden Nachrichten in der Protokolldatei gespeichert. Sie können den (Pfad zur Protokolldatei) angeben. Die Einstellung legt fest, dass Nachrichten mit der ausgewählten Priorität oder höher in der Protokolldatei gespeichert werden.
syslog und Protokolldateieinstellungen für diesen Daemon vornehmen.
3.6. Konfiguration von Fencing-Geräten Link kopierenLink in die Zwischenablage kopiert!
Anmerkung
- Erstellen von Fencing-Geräten — Siehe Abschnitt 3.6.1, »Erstellen eines Fencing-Geräts«. Nachdem Sie ein Fencing-Gerät erstellt und benannt haben, können Sie die Fencing-Geräte für jeden Knoten im Cluster konfigurieren wie in Abschnitt 3.7, »Konfiguration des Fencings für Cluster-Mitglieder« beschrieben.
- Aktualisieren von Fencing-Geräten — Siehe Abschnitt 3.6.2, »Ändern eines Fencing-Geräts«.
- Löschen von Fencing-Geräten — Siehe Abschnitt 3.6.3, »Löschen eines Fencing-Geräts«.
Anmerkung
Abbildung 3.5. luci-Seite zur Konfiguration von Fencing-Geräten
3.6.1. Erstellen eines Fencing-Geräts Link kopierenLink in die Zwischenablage kopiert!
- Klicken Sie auf der Konfigurationsseite auf (Hinzufügen). Durch den Klick auf wird das Dialogfenster Add Fence Device (Instance) (Fencing-Geräteinstanz hinzufügen) angezeigt. Wählen Sie aus diesem Dialogfenster den Typ des zu konfigurierenden Fencing-Geräts.
- Geben Sie die nötigen Informationen im Dialogfeld Add Fence Device (Instance) an, je nach Typ des Fencing-Geräts. Für weitere Informationen über Fencing-Geräteparameter siehe Anhang A, Parameter der Fencing-Geräte. In einigen Fällen müssen Sie zusätzliche, knotenspezifische Parameter für das Fencing-Gerät angeben, wenn Sie Fencing für individuelle Knoten konfigurieren, wie in Abschnitt 3.7, »Konfiguration des Fencings für Cluster-Mitglieder« beschrieben.
- Klicken Sie auf .
3.6.2. Ändern eines Fencing-Geräts Link kopierenLink in die Zwischenablage kopiert!
- Klicken Sie auf der Konfigurationsseite auf den Namen des zu ändernden Fencing-Geräts. Dies öffnet ein Dialogfenster für dieses Fencing-Gerät, das die für dieses Gerät konfigurierten Werte anzeigt.
- Um das Fencing-Gerät zu ändern, geben Sie die gewünschten Änderungen für die angezeigten Parameter ein. Siehe Anhang A, Parameter der Fencing-Geräte für weitere Informationen.
- Klicken Sie auf und warten Sie, bis die Konfiguration aktualisiert wurde.
3.6.3. Löschen eines Fencing-Geräts Link kopierenLink in die Zwischenablage kopiert!
Anmerkung
- Klicken Sie auf der Konfigurationsseite das Auswahlkästchen links von den Fencing-Geräten, die Sie löschen möchten.
- Klicken Sie auf und warten Sie, bis die Konfiguration aktualisiert wurde. Es wird eine Meldung angezeigt, die bestätigt, welche Geräte gelöscht werden.
3.7. Konfiguration des Fencings für Cluster-Mitglieder Link kopierenLink in die Zwischenablage kopiert!
3.7.1. Konfiguration eines einzelnen Fencing-Geräts für einen Knoten Link kopierenLink in die Zwischenablage kopiert!
- Klicken Sie auf der clusterspezifischen Seite auf (Knoten) oben in der Cluster-Anzeige, um Fencing für die Knoten im Cluster zu konfigurieren. Dadurch werden die Knoten angezeigt, aus denen sich dieser Cluster zusammensetzt. Dies ist zudem die Standardseite, die angezeigt wird, wenn Sie unter im Menü auf der linken Seite der luci Seite auf den Cluster-Namen klicken.
- Klicken Sie auf einen Knotennamen. Durch den Klick auf einen Link für einen Knoten erscheint eine Seite für diesen Link, auf der die Konfiguration für diesen Knoten angezeigt wird.Die knotenspezifische Seite zeigt alle Dienste an, die gegenwärtig auf dem Knoten laufen, sowie alle Ausfallsicherungs-Domains, bei denen der Knoten Mitglied ist. Sie können eine vorhandene Ausfallsicherungs-Domain ändern, indem Sie auf deren Namen klicken. Weitere Informationen über die Konfiguration von Ausfallsicherungs-Domains finden Sie in Abschnitt 3.8, »Konfiguration einer Ausfallsicherungs-Domain«.
- Klicken Sie auf der knotenspezifischen Seite unter auf (Fencing-Methode hinzufügen). Daraufhin wird das Dialogfenster (Fencing-Methode zum Knoten hinzufügen) angezeigt.
- Geben Sie einen (Methodennamen) für die Fencing-Methode ein, die Sie für diesen Knoten konfigurieren. Dies ist ein beliebiger Name, der von dem Red Hat Hochverfügbarkeits-Add-On verwendet wird; es handelt sich hierbei nicht um den DNS-Namen für das Gerät.
- Klicken Sie auf . Daraufhin wird der knotenspezifische Bildschirm angezeigt, der nun die Methode auflistet, die Sie eben unter hinzugefügt haben.
- Konfigurieren Sie eine Fencing-Instanz für diese Methode, indem Sie auf die Schaltfläche (Fencing-Instanz hinzufügen) unter der Fencing-Methode klicken. Daraufhin wird das Drop-Down-Menü angezeigt, aus dem Sie ein Fencing-Gerät auswählen können, das Sie vorher wie in Abschnitt 3.6.1, »Erstellen eines Fencing-Geräts« beschrieben konfiguriert haben.
- Wählen Sie ein Fencing-Gerät für diese Methode. Falls dieses Fencing-Gerät die Konfiguration von knotenspezifischen Parametern erfordert, werden die zu konfigurierenden Parameter angezeigt. Informationen über Fencing-Parameter finden Sie unter Anhang A, Parameter der Fencing-Geräte.
Anmerkung
Für andere Fencing-Methoden als das Power-Fencing (also SAN/Speicher-Fencing) ist auf der knotenspezifischen Parameteranzeige standardmäßig ausgewählt. Dadurch wird sichergestellt, dass ein abgegrenzter Knoten erst dann wieder Zugriff auf den Datenspeicher hat, nachdem er neu gestartet wurde. Wenn Sie ein Gerät konfigurieren, dass Unfencing erfordert, muss der Cluster zunächst gestoppt werden, dann muss die vollständige Konfiguration einschließlich Geräte und Unfencing hinzugefügt werden, bevor der Cluster gestartet wird. Informationen über das Aufheben der Knotenabgrenzung finden Sie auf derfence_node(8) Handbuchseite. - Klicken Sie auf . Daraufhin wird der knotenspezifische Bildschirm mit der Fencing-Methode und der Fencing-Instanz angezeigt.
3.7.2. Konfiguration eines Backup-Fencing-Geräts Link kopierenLink in die Zwischenablage kopiert!
- Nutzen Sie das in Abschnitt 3.7.1, »Konfiguration eines einzelnen Fencing-Geräts für einen Knoten« beschriebene Verfahren, um die primäre Fencing-Methode für einen Knoten zu konfigurieren.
- Klicken Sie unter der von Ihnen definierten primären Methode auf .
- Geben Sie einen Namen für die Backup-Fencing-Methode an, die Sie für diesen Knoten konfigurieren, und klicken Sie auf . Daraufhin wird der knotenspezifische Bildschirm angezeigt, der unter der primären Fencing-Methode nun auch die eben von Ihnen hinzugefügte Methode anzeigt.
- Konfigurieren Sie eine Fencing-Instanz für diese Methode, indem Sie auf (Fencing-Instanz hinzufügen) klicken. Daraufhin wird ein Drop-Down-Menü angezeigt, aus dem Sie ein Fencing-Gerät auswählen können, das Sie vorher wie in Abschnitt 3.6.1, »Erstellen eines Fencing-Geräts« beschrieben konfiguriert haben.
- Wählen Sie ein Fencing-Gerät für diese Methode. Falls dieses Fencing-Gerät die Konfiguration von knotenspezifischen Parametern erfordert, werden die zu konfigurierenden Parameter angezeigt. Informationen über Fencing-Parameter finden Sie unter Anhang A, Parameter der Fencing-Geräte.
- Klicken Sie auf . Daraufhin wird der knotenspezifische Bildschirm mit der Fencing-Methode und der Fencing-Instanz angezeigt.
3.7.3. Konfiguration eines Knotens mit redundanter Stromversorgung Link kopierenLink in die Zwischenablage kopiert!
- Bevor Sie das Fencing für einen Knoten mit redundanter Stromversorgung konfigurieren können, müssen Sie jeden der Netzschalter als Fencing-Gerät für den Cluster konfigurieren. Informationen über die Konfiguration von Fencing-Geräten finden Sie in Abschnitt 3.6, »Konfiguration von Fencing-Geräten«.
- Klicken Sie auf der clusterspezifischen Seite auf (Knoten) oben in der Cluster-Anzeige. Dadurch werden die Knoten angezeigt, aus denen sich dieser Cluster zusammensetzt. Dies ist zudem die Standardseite, die angezeigt wird, wenn Sie unter im Menü auf der linken Seite der luci Seite auf den Cluster-Namen klicken.
- Klicken Sie auf einen Knotennamen. Durch den Klick auf einen Link für einen Knoten erscheint eine Seite für diesen Link, auf der die Konfiguration für diesen Knoten angezeigt wird.
- Klicken Sie auf der knotenspezifischen Seite auf (Fencing-Methode hinzufügen).
- Geben Sie einen Namen für die Fencing-Methode an, die Sie für diesen Knoten konfigurieren.
- Klicken Sie auf . Daraufhin wird der knotenspezifische Bildschirm angezeigt, der nun die Methode auflistet, die Sie eben unter hinzugefügt haben.
- Konfigurieren Sie die erste Stromversorgung als eine Fencing-Instanz für diese Methode, indem Sie auf klicken. Daraufhin wird ein Drop-Down-Menü angezeigt, aus dem Sie eines der Power-Fencing-Geräte auswählen können, die Sie vorher konfiguriert haben, wie in Abschnitt 3.6.1, »Erstellen eines Fencing-Geräts« beschrieben.
- Wählen Sie eines der Power-Fencing-Geräte für diese Methode und geben die entsprechenden Parameter für dieses Gerät an.
- Klicken Sie auf . Daraufhin wird der knotenspezifische Bildschirm mit der Fencing-Methode und der Fencing-Instanz angezeigt.
- Klicken Sie unter derselben Fencing-Methode, für die Sie das erste Power-Fencing-Gerät konfiguriert haben, auf . Daraufhin wird ein Drop-Down-Menü angezeigt, aus dem Sie das zweite Power-Fencing-Gerät auswählen können, die Sie vorher wie in Abschnitt 3.6.1, »Erstellen eines Fencing-Geräts« beschrieben konfiguriert haben.
- Wählen Sie das zweite Power-Fencing-Gerät für diese Methode und geben die entsprechenden Parameter für dieses Gerät an.
- Klicken Sie auf . Dadurch kehren Sie zum knotenspezifischen Bildschirm mit den Fencing-Methoden und Fencing-Instanzen zurück, der nun anzeigt, dass jedes Gerät das System in der angegebenen Reihenfolge abschaltet und in der angegebenen Reihenfolge wieder einschaltet. Dies wird in Abbildung 3.6, »Fencing-Konfiguration für duale Stromversorgung« veranschaulicht.
Abbildung 3.6. Fencing-Konfiguration für duale Stromversorgung
3.8. Konfiguration einer Ausfallsicherungs-Domain Link kopierenLink in die Zwischenablage kopiert!
- Uneingeschränkt — Ermöglicht Ihnen, eine Teilmenge bevorzugter Mitglieder zu spezifizieren, doch der dieser Domain zugewiesene Cluster-Dienst kann auf jedem verfügbaren Mitglied ausgeführt werden.
- Eingeschränkt — Ermöglicht Ihnen, die Mitglieder einzuschränken, auf denen ein bestimmter Cluster-Dienst laufen darf. Falls keines der Mitglieder in einer eingeschränkten Ausfallsicherungs-Domain verfügbar ist, kann der Cluster-Dienst nicht gestartet werden (weder manuell noch durch die Cluster-Software).
- Ungeordnet — Wenn ein Cluster-Dienst einer ungeordneten Aufallsicherungs-Domain zugewiesen ist, wird das Mitglied, auf dem der Cluster-Dienst ausgeführt wird, ohne Berücksichtigung von Prioritäten aus den verfügbaren Mitgliedern der Ausfallsicherungs-Domain ausgewählt.
- Geordnet — Ermöglicht Ihnen, eine Prioritätsreihenfolge für die Mitglieder einer Ausfallsicherungs-Domain anzugeben. Das erste Mitglied in der Liste wird bevorzugt, gefolgt vom zweiten Mitglied in der Liste, usw.
- Failback — Ermöglicht Ihnen festzulegen, ob ein Dienst in der Ausfallsicherungs-Domain auf den Knoten zurückwechseln soll, auf dem er vor dessen Ausfall ursprünglich ausgeführt wurde. Das Konfigurieren dieser Charakteristik ist hilfreich in Situationen, in denen ein Knoten häufig ausfällt und Teil einer geordneten Ausfallsicherungs-Domain ist. In diesem Fall würde ein Dienst, der auf dem bevorzugten Knoten in einer Ausfallsicherungs-Domain läuft, möglicherweise wiederholt zwischen dem bevorzugten Knoten und einem anderen Knoten hin- und her wechseln, was beträchtliche Leistungseinbußen zur Folge hätte.
Anmerkung
Die Failback-Charakteristik greift nur, wenn die geordnete Ausfallsicherung konfiguriert ist.
Anmerkung
Anmerkung
httpd) einzurichten, müssen Sie auf allen Cluster-Mitgliedern, die diesen Cluster-Dienst ausführen sollen, eine identische Konfiguration einrichten. Anstatt den gesamten Cluster zur Ausführung dieses Cluster-Dienstes einzurichten, müssen Sie somit nur die Mitglieder der beschränkten Ausfallsicherungs-Domain, die Sie mit diesem Cluster-Dienst verknüpfen möchten, entsprechend einrichten.
Anmerkung
3.8.1. Hinzufügen einer Ausfallsicherungs-Domain Link kopierenLink in die Zwischenablage kopiert!
- Sie können auf der clusterspezifischen Seite Ausfallsicherungs-Domains für diesen Cluster konfigurieren, indem Sie auf (Ausfallsicherungs-Domains) oben in der Cluster-Ansicht klicken. Dadurch werden die Ausfallsicherungs-Domains angezeigt, die für diesen Cluster konfiguriert wurden.
- Klicken Sie auf (Hinzufügen). Durch einen Klick auf wird das Dialogfeld Add Failover Domain to Cluster (Ausfallsicherungs-Domain zum Cluster hinzufügen) angezeigt, wie in Abbildung 3.7, »luci-Dialogfeld zur Konfiguration von Ausfallsicherungs-Domains« veranschaulicht.
Abbildung 3.7. luci-Dialogfeld zur Konfiguration von Ausfallsicherungs-Domains
- Geben Sie im Dialogfeld Add Failover Domain to Cluster im Textfeld einen Namen für die Ausfallsicherungs-Domain an.
Anmerkung
Der Name sollte aussagekräftig genug sein, um daraus im Vergleich zu anderen Namen im Cluster auf den Zweck schließen zu können. - Um das Erstellen von Ausfallsicherungsprioritäten für Mitglieder in einer Ausfallsicherungs-Domain zu aktivieren, markieren Sie das Auswahlkästchen (Priorisiert). Ist ausgewählt, können Sie den Prioritätswert für jeden Knoten festlegen, der als Mitglied in der Ausfallsicherungs-Domain ausgewählt ist.
- Um die Ausfallsicherung auf Mitglieder in dieser Ausfallsicherungs-Domain zu beschränken, markieren Sie das Auswahlkästchen (Eingeschränkt). Ist ausgewählt, werden Dienste, denen diese Ausfallsicherungs-Domain zugewiesen ist, im Fehlerfall nur auf Knoten innerhalb dieser Ausfallsicherungs-Domain wechseln.
- Um festzulegen, dass ein Dienst in dieser Ausfallsicherungs-Domain nicht wieder auf den ursprünglichen Knoten zurückwechselt, markieren Sie das Auswahlkästchen (Kein Failback). Ist ausgewählt, so wird ein Dienst, der aufgrund eines Ausfalls von einem bevorzugten Knoten wechselt, nach dessen Wiederherstellung nicht wieder auf den ursprünglichen Knoten zurückwechseln.
- Konfigurieren Sie Mitglieder für diese Ausfallsicherungs-Domain. Markieren Sie das Auswahlkästchen (Mitglied) für jeden Knoten, der Mitglied der Ausfallsicherungs-Domain sein soll. Falls ausgewählt ist, stellen Sie im Textfeld die Priorität für jedes Mitglied der Ausfallsicherungs-Domain ein.
- Klicken Sie auf (Erstellen). Dadurch wird die Seite Failover Domains mit der neu erstellten Ausfallsicherungs-Domain angezeigt. Eine Meldung wird angezeigt, die besagt, dass die neue Domain erstellt wird. Aktualisieren Sie die Seite, um den aktuellen Status zu sehen.
3.8.2. Ändern einer Ausfallsicherungs-Domain Link kopierenLink in die Zwischenablage kopiert!
- Sie können auf der clusterspezifischen Seite Ausfallsicherungs-Domains für diesen Cluster konfigurieren, indem Sie auf (Ausfallsicherungs-Domains) oben in der Cluster-Ansicht klicken. Dadurch werden die Ausfallsicherungs-Domains angezeigt, die für diesen Cluster konfiguriert wurden.
- Klicken Sie auf den Namen einer Ausfallsicherungs-Domain. Daraufhin wird die Konfigurationsseite für diese Ausfallsicherungs-Domain angezeigt.
- Um die , oder Eigenschaften für die Ausfallsicherungs-Domain zu ändern, setzen oder entfernen Sie das Häkchen im entsprechenden Auswahlkästchen für diese Eigenschaft und klicken Sie auf (Eigenschaften aktualisieren).
- Um die Mitgliedschaften der Ausfallsicherungs-Domain zu ändern, setzen oder entfernen Sie das Häkchen im Auswahlkästchen für die gewünschten Cluster-Mitglieder. Falls die Ausfallsicherungs-Domain priorisiert ist, können Sie auch die Prioritätseigenschaft für die Cluster-Mitglieder verändern. Klicken Sie zum Abschluss auf (Einstellungen aktualisieren).
3.8.3. Löschen einer Ausfallsicherungs-Domain Link kopierenLink in die Zwischenablage kopiert!
- Sie können auf der clusterspezifischen Seite Ausfallsicherungs-Domains für diesen Cluster konfigurieren, indem Sie auf (Ausfallsicherungs-Domains) oben in der Cluster-Ansicht klicken. Dadurch werden die Ausfallsicherungs-Domains angezeigt, die für diesen Cluster konfiguriert wurden.
- Markieren Sie das Auswahlkästchen der zu löschenden Ausfallsicherungs-Domain.
- Klicken Sie auf (Löschen).
3.9. Konfiguration von globalen Cluster-Eigenschaften Link kopierenLink in die Zwischenablage kopiert!
- Sie können auf der clusterspezifischen Seite Ressourcen für diesen Cluster hinzufügen, indem Sie auf oben in der Cluster-Ansicht klicken. Dadurch werden die Ressourcen angezeigt, die für diesen Cluster konfiguriert wurden.
- Klicken Sie auf . Dadurch erscheint das Drop-Down-Menü (Ressource zum Cluster hinzufügen).
- Klicken Sie auf das Drop-Down-Menü unter und wählen Sie den zu konfigurierenden Ressourcentyp.
- Geben Sie die Ressourcenparameter für die hinzugefügte Ressource an. In Anhang B, Parameter der Hochverfügbarkeitsressourcen werden die Ressourcenparameter beschrieben.
- Klicken Sie auf . Durch den Klick auf kehren Sie zur Ressourcenseite mit der Resources Anzeige zurück, auf der nun neben anderen Ressourcen auch die neu hinzugefügte Ressource angezeigt wird.
- Klicken Sie auf der luci Seite auf den Namen der Ressource, die geändert werden soll. Daraufhin werden die Parameter für diese Ressource angezeigt.
- Bearbeiten Sie die Ressourcenparameter.
- Klicken Sie auf .
- Markieren Sie auf der luci Seite die Auswahlkästchen all jener Ressourcen, die Sie löschen möchten.
- Klicken Sie auf .
3.10. Hinzufügen eines Cluster-Dienstes zum Cluster Link kopierenLink in die Zwischenablage kopiert!
- Sie können auf der clusterspezifischen Seite Dienste für diesen Cluster hinzufügen, indem Sie auf oben in der Cluster-Ansicht klicken. Dadurch werden die Dienste angezeigt, die für diesen Cluster konfiguriert wurden. (Auf der Seite können Sie einen Dienst auch starten, stoppen und deaktivieren, wie in Abschnitt 4.5, »Verwaltung von Hochverfügbarkeitsdiensten« beschrieben.)
- Klicken Sie auf . Dadurch erscheint das Dialogfeld (Dienstgruppe zu Cluster hinzufügen).
- Geben Sie im Dialogfeld Add Service Group to Cluster den Namen des Dienstes im Textfeld ein.
Anmerkung
Der Name sollte aussagekräftig genug sein, um den Dienst klar von anderen Diensten im Cluster unterscheiden zu können. - Markieren Sie das Auswahlkästchen (Diesen Dienst automatisch starten), falls Sie möchten, dass dieser Dienst beim Start des Clusters ebenfalls automatisch gestartet wird. Wird dieses Auswahlkästchen nicht markiert, muss der Dienst jedes Mal manuell gestartet werden, wenn der Cluster vom "Gestoppt"-Status wieder hochgefahren wird.
- Markieren Sie das Auswahlkästchen (Exklusiv ausführen), um die Richtlinie anzuwenden, nach der ein Dienst ausschließlich auf Knoten läuft, auf denen kein anderer Dienst ausgeführt wird.
- Falls Sie Ausfallsicherungs-Domains für den Cluster konfiguriert haben, können Sie das Drop-Down-Menü des Parameters nutzen, um eine Ausfallsicherungs-Domain für diesen Dienst auszuwählen. Informationen über die Konfiguration von Ausfallsicherungs-Domains finden Sie in Abschnitt 3.8, »Konfiguration einer Ausfallsicherungs-Domain«.
- Verwenden Sie die Drop-Down-Liste (Richtlinie zur Wiederherstellung), um eine Richtlinie zur Wiederherstellung des Dienstes festzulegen. Mögliche Optionen für den Dienst sind (Verlegung), (Neustart), (Neustart-Deaktivierung) oder (Deaktivierung).Wird die Option ausgewählt, so versucht das System einen Neustart des ausgefallenen Dienstes, bevor der Dienst verlegt wird. Wird die Option ausgewählt, so versucht das System einen Neustart des Dienstes auf einem anderen Knoten. Wird die Option gewählt, deaktiviert das System die Ressourcengruppe, falls eine der Komponenten ausfällt. Wird die Option ausgewählt, versucht das System einen Neustart des ausgefallenen Dienstes an demselben Ort. Scheitert dieser Versuch, wird der Dienst deaktiviert, statt auf einen anderen Host im Cluster verlegt zu werden.Falls Sie oder als Wiederherstellungsrichtlinie für diesen Dienst auswählen, können Sie die maximale Anzahl an Neustart-Fehlschlägen festlegen, bevor der Dienst verlegt oder deaktiviert wird, sowie die Zeitspanne in Sekunden, nach der ein Neustart nicht weiter versucht werden soll.
- Um eine Ressource zum Dienst hinzuzufügen, klicken Sie auf . Durch den Klick auf wird das Drop-Down-Menü angezeigt, aus dem Sie eine vorhandene globale Ressource oder eine vorhandene lokale Ressource, die nur diesem Dienst zur Verfügung steht, hinzufügen können.
Anmerkung
Wenn Sie einen Cluster-Dienst konfigurieren, der eine IP-Adress-Ressource enthält, deren IP-Adresse geändert werden darf ("Floating"), müssen Sie die IP-Ressource als ersten Eintrag konfigurieren.- Um eine vorhandene globale Ressource hinzuzufügen, klicken Sie im Drop-Down-Menü (Ressource zu Dienst hinzufügen) auf den Namen der vorhandenen Ressource. Daraufhin wird auf der Seite für den Dienst, den Sie gerade konfigurieren, die Ressource und ihre Parameter angezeigt. Informationen über das Hinzufügen oder Verändern von globalen Ressourcen finden Sie in Abschnitt 3.9, »Konfiguration von globalen Cluster-Eigenschaften«).
- Um eine neue Ressource hinzuzufügen, die nur diesem Dienst zur Verfügung steht, wählen Sie den zu konfigurierenden Ressourcentyp aus dem Drop-Down-Menü und geben Sie die Ressourcenparameter für die hinzuzufügende Ressource an. In Anhang B, Parameter der Hochverfügbarkeitsressourcen werden die Ressourcenparameter beschrieben.
- Wenn Sie eine Ressource zu einem Dienst hinzufügen - egal, ob es sich dabei um eine vorhandene globale Ressource oder um eine nur für diesen Dienst verfügbare Ressource handelt - können Sie festlegen, ob diese Ressource ein (Unabhängiger Unterbaum) oder eine (Nicht-kritische Ressource) sein soll.Wenn Sie festlegen, dass eine Ressource ein unabhängiger Unterbaum sein soll, wird im Falle eines Ausfalls dieser Ressource nur diese Ressource neu gestartet (statt des gesamten Dienstes), bevor das System die normale Wiederherstellung versucht. Sie können die maximale Anzahl der zu versuchenden Neustarts für diese Ressource auf einem Knoten festlegen, bevor die Wiederherstellungsrichtlinie für diesen Dienst zur Anwendung kommt. Sie können auch eine Zeitspanne festlegen, nach der das System die Wiederherstellungsrichtlinie für den Dienst anwendet.Wenn Sie festlegen, dass die Ressource eine nicht-kritische Ressource ist, wird im Falle eines Ausfalls dieser Ressource nur diese Ressource neu gestartet, und falls die Ressource weiterhin fehlschlägt, wird nur diese Ressource deaktiviert (statt des gesamten Dienstes). Sie können die maximale Anzahl der zu versuchenden Neustarts für diese Ressource auf einem Knoten festlegen, bevor die Ressource deaktiviert wird. Sie können auch eine Zeitspanne festlegen, nach der das System die Ressource deaktiviert.
- Falls Sie eine Kindressource zu der von Ihnen definierten Ressource hinzufügen möchten, klicken Sie auf (Kindressource hinzufügen). Durch den Klick auf wird das Drop-Down-Menü angezeigt, aus dem Sie eine vorhandene globale Ressource oder eine neue lokale Ressource, die nur diesem Dienst zur Verfügung steht, hinzufügen können. Je nach Bedarf können Sie weitere Kindressourcen zur Ihrer Ressource hinzufügen.
Anmerkung
Falls Sie eine Samba-Dienstressource hinzufügen, fügen Sie diese direkt zum Dienst hinzu, nicht als Kind einer anderen Ressource.Anmerkung
Wenn Sie einen Abhängigkeitenbaum für einen Cluster-Dienst konfigurieren, der eine IP-Adress-Ressource enthält, deren IP-Adresse geändert werden darf ("Floating"), müssen Sie die IP-Ressource als ersten Eintrag konfigurieren und nicht als Kind einer anderen Ressource. - Wenn Sie damit fertig sind, Ressourcen zum Dienst und ggf. Kindressourcen zu den Ressourcen hinzuzufügen, klicken Sie auf . Durch einen Klick auf kehren Sie zur Seite zurück, auf der neben den anderen Diensten nun auch der neu hinzugefügte Dienst angezeigt wird.
Anmerkung
/sbin/ip addr show Befehl auf einem Cluster-Knoten verwenden (anstelle des überholten ifconfig Befehls). Die folgende Ausgabe zeigt den /sbin/ip addr show Befehl auf einem Knoten ausgeführt auf dem ein Cluster-Dienst läuft:
1: lo: <LOOPBACK,UP> mtu 16436 qdisc noqueue
link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
inet 127.0.0.1/8 scope host lo
inet6 ::1/128 scope host
valid_lft forever preferred_lft forever
2: eth0: <BROADCAST,MULTICAST,UP> mtu 1356 qdisc pfifo_fast qlen 1000
link/ether 00:05:5d:9a:d8:91 brd ff:ff:ff:ff:ff:ff
inet 10.11.4.31/22 brd 10.11.7.255 scope global eth0
inet6 fe80::205:5dff:fe9a:d891/64 scope link
inet 10.11.4.240/22 scope global secondary eth0
valid_lft forever preferred_lft forever
- Klicken Sie im Dialogfeld auf den Namen des Dienstes, der geändert werden soll. Daraufhin werden die Parameter und Ressourcen angezeigt, die für diesen Dienst konfiguriert wurden.
- Bearbeiten Sie die Dienstparameter.
- Klicken Sie auf .
- Markieren Sie auf der luci Seite die Auswahlkästchen all jener Dienste, die Sie löschen möchten.
- Klicken Sie auf .
- Ab Red Hat Enterprise Linux 6.3 werden Sie von luci vor dem Löschen eines Dienstes in einer Warnmeldung dazu aufgefordert zu bestätigen, dass Sie die Dienstgruppen oder Gruppen wirklich löschen möchten, wodurch die darin enthaltenen Ressourcen gestoppt werden. Klicken Sie auf , um diesen Dialog zu schließen, ohne die Dienste zu löschen, oder klicken Sie auf , um mit dem Löschen der gewählten Dienste fortzufahren.
Kapitel 4. Verwaltung des Red Hat Hochverfügbarkeits-Add-Ons mit Conga Link kopierenLink in die Zwischenablage kopiert!
4.1. Hinzufügen eines vorhandenen Clusters zur luci-Oberfläche Link kopierenLink in die Zwischenablage kopiert!
- Klicken Sie auf (Cluster verwalten) aus dem Menü auf der linken Seite der luci Seite. Der Bildschirm erscheint.
- Klicken Sie auf (Hinzufügen). Der Bildschirm (Vorhandenen Cluster hinzufügen) erscheint.
- Geben Sie den Knoten-Hostnamen und das ricci Passwort für einen beliebigen Knoten in dem vorhandenen Cluster an. Da jeder Knoten im Cluster sämtliche Konfigurationsinformationen des Clusters enthält, sollte dies genügend Informationen liefern, um den Cluster zur luci Oberfläche hinzuzufügen.
- Klicken Sie auf (Verbinden). Der Bildschirm (Vorhandenen Cluster hinzufügen) zeigt daraufhin den Cluster-Namen und die verbleibenden Knoten im Cluster.
- Geben Sie die jeweiligen ricci Passwörter für jeden Knoten im Cluster an, oder geben Sie nur ein Passwort an und wählen (Dasselbe Passwort für alle Knoten im Cluster verwenden).
- Klicken Sie auf (Cluster hinzufügen). Der bereits konfigurierte Cluster wird nun im Bildschirm angezeigt.
4.2. Entfernen eines Clusters aus der luci-Oberfläche Link kopierenLink in die Zwischenablage kopiert!
- Klicken Sie auf (Cluster verwalten) aus dem Menü auf der linken Seite der luci Seite. Der Bildschirm erscheint.
- Wählen Sie einen oder mehrere Cluster, die Sie entfernen möchten.
- Klicken Sie auf . Das System wird Sie dazu auffordern zu bestätigen, dass der Cluster aus der luci Verwaltungsoberfläche entfernt werden soll.
4.3. Verwaltung von Cluster-Knoten Link kopierenLink in die Zwischenablage kopiert!
4.3.1. Einen Cluster-Knoten neu starten Link kopierenLink in die Zwischenablage kopiert!
- Klicken Sie auf der clusterspezifischen Seite auf (Knoten) oben in der Cluster-Anzeige. Dadurch werden die Knoten angezeigt, aus denen sich dieser Cluster zusammensetzt. Dies ist zudem die Standardseite, die angezeigt wird, wenn Sie unter im Menü auf der linken Seite der luci Seite auf den Cluster-Namen klicken.
- Wählen Sie den neu zu startenden Knoten, indem Sie das Auswahlkästchen des gewünschten Knotens markieren.
- Wählen Sie die (Neustart) Funktion aus dem Menü oben auf der Seite. Dies veranlasst den Knoten zu einem Neustart und es erscheint eine Meldung oben auf der Seite, die besagt, dass dieser Knoten derzeit neu gestartet wird.
- Aktualisieren Sie die Seite, um den aktuellen Status des Knotens zu sehen.
4.3.2. Einen Knoten zum Verlassen oder Beitreten eines Clusters veranlassen Link kopierenLink in die Zwischenablage kopiert!
Not a cluster member (Kein Cluster-Mitglied). Informationen über das vollständige Löschen eines Knotens aus der Cluster-Konfiguration finden Sie in Abschnitt 4.3.4, »Ein Mitglied aus einem Cluster löschen«.
- Klicken Sie auf der clusterspezifischen Seite auf (Knoten) oben in der Cluster-Anzeige. Dadurch werden die Knoten angezeigt, aus denen sich dieser Cluster zusammensetzt. Dies ist zudem die Standardseite, die angezeigt wird, wenn Sie unter im Menü auf der linken Seite der luci Seite auf den Cluster-Namen klicken.
- Wählen Sie den Knoten, der den Cluster verlassen soll, indem Sie das Auswahlkästchen für diesen Knoten markieren.
- Wählen Sie die Funktion (Cluster verlassen) aus dem Menü oben auf der Seite. Daraufhin erscheint eine Meldung oben auf der Seite, die besagt, dass dieser Knoten gestoppt wird.
- Aktualisieren Sie die Seite, um den aktuellen Status des Knotens zu sehen.
4.3.3. Ein Mitglied zu einem laufenden Cluster hinzufügen Link kopierenLink in die Zwischenablage kopiert!
- Klicken Sie auf der clusterspezifischen Seite auf oben in der Cluster-Anzeige. Dadurch werden die Knoten angezeigt, aus denen sich dieser Cluster zusammensetzt. Dies ist zudem die Standardseite, die angezeigt wird, wenn Sie unter im Menü auf der linken Seite der luci Seite auf den Cluster-Namen klicken.
- Klicken Sie auf (Hinzufügen). Durch einen Klick auf wird das Dialogfeld Add Nodes To Cluster (Knoten zu diesem Cluster hinzufügen) angezeigt.
- Geben Sie in dem Textfeld den Knotennamen und im Textfeld das ricci Passwort ein. Falls Sie einen anderen Port für den ricci Agenten als den Standard 11111 verwenden, ändern Sie diesen Parameter auf den von Ihnen verwendeten Port.
- Markieren Sie das Auswahlkästchen (Unterstützung für gemeinsam verwendeten Speicher aktivieren), falls geclusterter Speicher erforderlich ist, um die Pakete herunterzuladen, die Unterstützung für geclusterten Speicher hinzufügen und um geclustertes LVM zu aktivieren. Sie sollten dies nur dann auswählen, wenn Sie Zugriff auf das Resilient Storage Add-On oder das Scalable File System Add-On haben.
- Falls Sie weitere Knoten hinzufügen möchten, klicken Sie auf (Weiteren Knoten hinzufügen) und geben Sie den Knotennamen und das Passwort für jeden weiteren Knoten ein.
- Klicken Sie auf (Knoten hinzufügen). Ein Klick auf löst die folgenden Aktionen aus:
- Falls Sie (Pakete herunterladen) ausgewählt haben, werden die Cluster-Software-Pakete auf die Knoten heruntergeladen.
- Cluster-Software wird auf den Knoten installiert (bzw. es wird überprüft, ob die richtigen Software-Pakete installiert sind).
- Die Cluster-Konfigurationsdatei wird aktualisiert und an jeden Knoten im Cluster weitergereicht — einschließlich dem hinzugefügten Knoten.
- Der hinzugefügte Knoten tritt dem Cluster bei.
Die Seite erscheint mit einer Meldung, die besagt, dass der Knoten derzeit zum Cluster hinzugefügt wird. Aktualisieren Sie die Seite, um den aktuellen Status zu sehen. - Sobald der Vorgang zum Hinzufügen eines Knotens abgeschlossen ist, klicken Sie auf den Knotennamen des neu hinzugefügten Knotens, um das Fencing für diesen Knoten wie in Abschnitt 3.6, »Konfiguration von Fencing-Geräten« beschrieben zu konfigurieren.
4.3.4. Ein Mitglied aus einem Cluster löschen Link kopierenLink in die Zwischenablage kopiert!
- Klicken Sie auf der clusterspezifischen Seite auf oben in der Cluster-Anzeige. Dadurch werden die Knoten angezeigt, aus denen sich dieser Cluster zusammensetzt. Dies ist zudem die Standardseite, die angezeigt wird, wenn Sie unter im Menü auf der linken Seite der luci Seite auf den Cluster-Namen klicken.
Anmerkung
Überspringen Sie den nächsten Schritt, um es Diensten zu ermöglichen, selbst auf einen anderen Knoten auszuweichen, wenn ihr Knoten gelöscht wird. - Deaktivieren oder Verlegen Sie jeden Dienst, der auf dem zu löschenden Knoten läuft. Informationen über das Deaktivieren oder Verlegen von Diensten finden Sie in Abschnitt 4.5, »Verwaltung von Hochverfügbarkeitsdiensten«.
- Wählen Sie den bzw. die zu löschenden Knoten.
- Klicken Sie auf (Löschen). Die Seite Nodes zeigt an, dass der Knoten derzeit gelöscht wird. Aktualisieren Sie die Seite, um den aktuellen Status zu sehen.
Wichtig
4.4. Starten, Stoppen, Neustarten und Löschen von Clustern Link kopierenLink in die Zwischenablage kopiert!
Not a cluster member (Kein Cluster-Mitglied).
- Wählen Sie alle Knoten im Cluster, indem Sie das Auswahlkästchen neben jedem Knoten markieren.
- Wählen Sie die Funktion (Cluster verlassen) aus dem Menü oben auf der Seite. Daraufhin erscheint eine Meldung oben auf der Seite, die besagt, dass jeder Knoten gestoppt wird.
- Aktualisieren Sie die Seite, um den aktuellen Status der Knoten zu sehen.
- Wählen Sie alle Knoten im Cluster, indem Sie das Auswahlkästchen neben jedem Knoten markieren.
- Wählen Sie die Funktion (Cluster beitreten) aus dem Menü oben auf der Seite.
- Aktualisieren Sie die Seite, um den aktuellen Status der Knoten zu sehen.
Wichtig
- Wählen Sie alle Knoten im Cluster, indem Sie das Auswahlkästchen neben jedem Knoten markieren.
- Wählen Sie die Funktion (Löschen) aus dem Menü oben auf der Seite.
4.5. Verwaltung von Hochverfügbarkeitsdiensten Link kopierenLink in die Zwischenablage kopiert!
- Starten eines Dienstes
- Neustarten eines Dienstes
- Deaktivieren eines Dienstes
- Löschen eines Dienstes
- Verlegen eines Dienstes
- — Um Dienste zu starten, die derzeit nicht ausgeführt werden, wählen Sie die gewünschten Dienste aus, indem Sie deren Auswahlkästchen markieren, und klicken Sie anschließend auf .
- — Um Dienste neu zu starten, die derzeit ausgeführt werden, wählen Sie die gewünschten Dienste aus, indem Sie deren Auswahlkästchen markieren, und klicken Sie anschließend auf (Neustart).
- — Um Dienste zu deaktivieren, die derzeit ausgeführt werden, wählen Sie die gewünschten Dienste aus, indem Sie deren Auswahlkästchen markieren, und klicken Sie anschließend auf (Deaktivieren).
- — Um Dienste zu löschen, die derzeit nicht ausgeführt werden, wählen Sie die gewünschten Dienste aus, indem Sie deren Auswahlkästchen markieren, und klicken Sie anschließend auf (Löschen).
- — Um einen laufenden Dienst zu verlegen, klicken Sie in der Dienste-Seite auf den Namen des gewünschten Dienstes. Dadurch wird die Dienst-Konfigurationsseite für diesen Dienst angezeigt, der Sie unter anderem entnehmen können, auf welchem Knoten der Dienst derzeit läuft.Wählen Sie aus der Auswahlliste Start on node... (Starten auf Knoten...) denjenigen Knoten, auf den Sie diesen Dienst verlegen möchten, und klicken Sie anschließend auf das Symbol. Es erscheint eine Meldung oben auf der Seite, die besagt, dass dieser Knoten derzeit gestartet wird. Sie müssen ggf. die Seite neu laden, um schließlich die neue Meldung zu erhalten, dass der Dienst nun auf dem von Ihnen ausgewählten Knoten ausgeführt wird.
Anmerkung
Falls es sich bei dem laufenden Dienst, den Sie ausgewählt haben, um einenvmDienst handelt, zeigt die Auswahlliste diemigrateOption anstelle derrelocateOption.
Anmerkung
4.6. Sichern und Wiederherstellen der luci-Konfiguration Link kopierenLink in die Zwischenablage kopiert!
/var/lib/luci/data/luci.db Datei gespeichert ist. Diese Datei ist nicht die Cluster-Konfiguration selbst (die in der cluster.conf Datei gespeichert ist), sondern sie enthält eine Liste mit Benutzern, Clustern und zugehörigen Eigenschaften, die von luci gepflegt werden. Standardmäßig wird die Sicherungskopie, die mithilfe dieses Verfahrens erstellt wird, in dasselbe Verzeichnis geschrieben, in der sich auch die luci.db Datei befindet.
- Führen Sie den
service luci stopBefehl durch. - Führen Sie den
service luci backup-dbBefehl durch.Optional können Sie einen Dateinamen als Parameter zumbackup-dbBefehl angeben, wodurch die luci Datenbank in die angegebene Datei geschrieben wird. Um die luci Datenbank beispielsweise in die Datei/root/luci.db.backupzu schreiben, können Sie den Befehlservice luci backup-db /root/luci.db.backupausführen. Beachten Sie, dass Sicherungsdateien, die an anderen Speicherorten als/var/lib/luci/data/abgelegt werden (Sicherungsdateien, deren Namen Sie zum Befehlservice luci backup-dbangeben), nicht in der Ausgabe deslist-backupsBefehls erscheinen. - Führen Sie
service luci startaus.
- Führen Sie den
service luci stopBefehl durch. - Führen Sie
service luci list-backupsaus und notieren Sie sich den Namen der Datei, von der wiederhergestellt werden soll. - Führen Sie
service luci restore-db /var/lib/luci/data/lucibackupfileaus, wobei lucibackupfile die Sicherungsdatei ist, von der wiederhergestellt werden soll.Der folgende Befehl stellt beispielsweise die luci Konfigurationsinformationen wieder her, die in der Sicherungsdateiluci-backup20110923062526.dbgespeichert waren:service luci restore-db /var/lib/luci/data/luci-backup20110923062526.db - Führen Sie
service luci startaus.
host.pem Datei auf dem Rechner verloren, auf dem Sie die Sicherung durchgeführt haben. In diesem Fall müssen Sie Ihre Cluster manuell wieder zu luci hinzufügen, um alle Cluster-Knoten erneut zu authentifizieren.
luci1 erstellt und auf dem Rechner luci2 wiederhergestellt.
- Führen Sie die folgende Befehlssequenz aus, um eine luci Sicherungsdatei auf
luci1zu erstellen und um sowohl die SSL-Zertifikatsdatei als auch die luci Sicherungsdatei aufluci2zu kopieren.[root@luci1 ~]# service luci stop [root@luci1 ~]# service luci backup-db [root@luci1 ~]# service luci list-backups /var/lib/luci/data/luci-backup20120504134051.db [root@luci1 ~]# scp /var/lib/luci/certs/host.pem /var/lib/luci/data/luci-backup20120504134051.db root@luci2: - Stellen Sie sicher, dass auf dem
luci2Rechner luci installiert wurde und derzeit nicht läuft. Installieren Sie das Paket, falls es noch nicht installiert wurde. - Führen Sie die folgende Befehlssequenz aus, um sicherzustellen, dass die Authentifizierung funktioniert, und um die luci Datenbank von
luci1nachluci2zu kopieren.[root@luci2 ~]# cp host.pem /var/lib/luci/certs/ [root@luci2 ~]# chown luci: /var/lib/luci/certs/host.pem [root@luci2 ~]# /etc/init.d/luci restore-db ~/luci-backup20120504134051.db [root@luci2 ~]# shred -u ~/host.pem ~/luci-backup20120504134051.db [root@luci2 ~]# service luci start
Kapitel 5. Konfiguration des Red Hat Hochverfügbarkeits-Add-Ons mit dem ccs Befehl Link kopierenLink in die Zwischenablage kopiert!
ccs Cluster-Konfigurationsbefehl. Der ccs Befehl ermöglicht es einem Administrator, die cluster.conf Cluster-Konfigurationsdatei zu erstellen, zu bearbeiten, oder anzusehen. Sie können den ccs Befehl verwenden, um eine Cluster-Konfigurationsdatei auf einem lokalen System oder auf einem entfernten Knoten zu konfigurieren. Mithilfe des ccs Befehls kann ein Administrator zudem die Cluster-Dienste auf einem oder allen Knoten in einem konfigurierten Cluster starten oder stoppen.
ccs Befehls. Informationen über die Verwendung des ccs Befehls zur Verwaltung eines laufenden Clusters finden Sie in Kapitel 6, Verwaltung des Red Hat Hochverfügbarkeits-Add-Ons mit ccs.
Anmerkung
Anmerkung
cluster.conf Elemente und Parameter. Eine vollständige Liste samt Beschreibung aller cluster.conf Elemente und Parameter finden Sie im Cluster-Schema unter /usr/share/cluster/cluster.rng und das kommentierte Schema unter /usr/share/doc/cman-X.Y.ZZ/cluster_conf.html (zum Beispiel /usr/share/doc/cman-3.0.12/cluster_conf.html).
5.1. Überblick über operationale Aspekte Link kopierenLink in die Zwischenablage kopiert!
ccs Befehls zur Konfiguration eines Clusters:
5.1.1. Erstellen der Cluster-Konfigurationsdatei auf einem lokalen System Link kopierenLink in die Zwischenablage kopiert!
ccs Befehls können Sie eine Cluster-Konfigurationsdatei auf einem Cluster-Knoten erstellen, oder Sie können eine Cluster-Konfigurationsdatei auf einem lokalen Dateisystem erstellen und diese Datei anschließend auf einen Host in einem Cluster übertragen. Dies ermöglicht Ihnen, auf einem lokalen Rechner an der Datei zu arbeiten, diese unter Versionskontrolle zu verwalten, oder sie anderweitig je nach Bedarf zu kennzeichnen. Der ccs Befehl erfordert keine Root-Privilegien.
ccs Befehl eine Cluster-Konfigurationsdatei auf einem Cluster-Knoten erstellen und bearbeiten, benutzen Sie die -h Option, um den Namen des Hosts anzugeben. Dieser Befehl erstellt und bearbeitet die cluster.conf Datei auf dem Host:
ccs -h host [options]
-f Option des ccs Befehls, um den Namen der Konfigurationsdatei anzugeben, wenn Sie eine Cluster-Operation ausführen. Sie können diese Datei nach Belieben benennen.
ccs -f file [options]
--setconf Option des ccs Befehls auf einen Cluster-Knoten übertragen. Auf einem Host-Rechner im Cluster wird die Datei cluster.conf benannt und im /etc/cluster Verzeichnis abgelegt.
ccs -h host -f file --setconf
--setconf Option des ccs Befehls siehe Abschnitt 5.15, »Verbreiten der Konfigurationsdatei auf den Cluster-Knoten«.
5.1.2. Anzeigen der aktuellen Cluster-Konfiguration Link kopierenLink in die Zwischenablage kopiert!
ccs -h host --getconf
-f Option anstelle der -h Option angeben, wie in Abschnitt 5.1.1, »Erstellen der Cluster-Konfigurationsdatei auf einem lokalen System« beschrieben.
5.1.3. Angeben des ricci-Passworts mit dem ccs-Befehl Link kopierenLink in die Zwischenablage kopiert!
ccs Befehl dazu nutzen können, Kopien der cluster.conf Datei an die Knoten im Cluster zu verbreiten, ist es erforderlich, dass ricci auf den Cluster-Knoten installiert ist und läuft, wie in Abschnitt 2.13, »Überlegungen zu ricci« beschrieben. Die Verwendung von ricci erfordert ein Passwort, wenn Sie zum ersten Mal von einem bestimmten Rechner aus mit ricci interagieren.
ccs Befehl es benötigt. Alternativ können Sie die -p Option verwenden, um ein ricci Passwort auf der Befehlszeile anzugeben.
ccs -h host -p password --sync --activate
cluster.conf Datei mithilfe der --sync Option des ccs Befehls an alle Knoten im Cluster verbreiten und Sie dabei ein ricci Passwort im Befehl angeben, wird der ccs Befehl dieses Passwort für jeden Knoten im Cluster verwenden. Falls Sie auf den einzelnen Knoten jedoch verschiedene ricci Passwörter festlegen möchten, können Sie die --setconf Option mit der -p Option verwenden, um die Konfigurationsdatei nacheinander an alle Knoten einzeln zu verbreiten.
5.1.4. Ändern von Cluster-Konfigurationskomponenten Link kopierenLink in die Zwischenablage kopiert!
ccs Befehl, um Cluster-Komponenten und Ihre Parameter in der Cluster-Konfigurationsdatei zu konfigurieren. Wenn Sie eine Cluster-Komponente zur Datei hinzugefügt haben und die Parameter dieser Komponente später verändern möchten, müssen Sie die definierte Komponente entfernen und sie mit den geänderten Parametern wieder hinzufügen. In den einzelnen Abschnitten dieses Kapitels finden Sie Informationen darüber, wie Sie dies für die jeweiligen Komponenten erreichen.
cman Cluster-Komponente bieten eine Ausnahme von diesem Verfahren zur Modifizierung von Cluster-Komponenten. Um diese Parameter zu ändern, führen Sie die --setcman Option des ccs unter Angabe der neuen Parameter durch. Beachten Sie, dass durch die Angabe dieser Option alle Werte, die Sie nicht explizit festlegen, auf ihre Standardwerte zurückgesetzt werden, wie in Abschnitt 5.1.5, »Befehle, die vorhergehende Einstellungen überschreiben« beschrieben.
5.1.5. Befehle, die vorhergehende Einstellungen überschreiben Link kopierenLink in die Zwischenablage kopiert!
ccs Befehls überschreiben beim Festlegen von Eigenschaften die vorherigen Einstellungen. Dies bedeutet, dass Sie den ccs Befehl mit einer dieser Optionen ohne Angabe von Einstellungen eingeben können und es werden alle Einstellungen auf die Standardwerte zurückgesetzt. Diese Optionen lauten:
--settotem--setdlm--setrm--setcman--setmulticast--setaltmulticast--setfencedaemon--setlogging--setquorumd
# ccs -h hostname --setfencedaemon
post_fail_delay Eigenschaft auf 5 zu setzen:
# ccs -h hostname --setfencedaemon post_fail_delay=5
post_join_delay Eigenschaft auf 10 zurückzusetzen, wird die post_fail_delay Eigenschaft auf den Standardwert zurückgesetzt:
# ccs -h hostname --setfencedaemon post_join_delay=10
post_fail_delay als auch die post_join_delay Eigenschaften neu einzustellen, geben Sie beide auf dem gleichen Befehl ein, wie im folgenden Beispiel:
# ccs -h hostname --setfencedaemon post_fail_delay=5 post_join_delay=10
5.1.6. Überprüfung der Konfiguration Link kopierenLink in die Zwischenablage kopiert!
ccs Befehl die Cluster-Konfigurationsdatei erstellen und bearbeiten, wird die Konfiguration automatisch anhand des Cluster-Schemas auf ihre Gültigkeit überprüft. Ab der Red Hat Enterprise Linux 6.3 Release prüft der ccs Befehl die Konfiguration anhand des Cluster-Schemas unter /usr/share/cluster/cluster.rng auf demjenigen Knoten, den Sie mithilfe der -h Option spezifizieren. Bislang verwendete der ccs Befehl stets das Cluster-Schema, das im ccs Befehl integriert war, also /usr/share/ccs/cluster.rng auf dem lokalen System. Wenn Sie die -f Option verwenden, um das lokale System zu spezifizieren, so verwendet der ccs Befehl nach wie vor das Cluster-Schema /usr/share/ccs/cluster.rng, das im ccs Befehl enthalten war, auf dem lokalen System.
5.2. Konfigurationsaufgaben Link kopierenLink in die Zwischenablage kopiert!
ccs umfasst die folgenden Schritte:
- Stellen Sie sicher, dass ricci auf allen Knoten im Cluster ausgeführt wird. Siehe Abschnitt 5.3, »Starten von ricci«.
- Erstellen Sie einen Cluster. Siehe Abschnitt 5.4, »Erstellen eines Clusters«.
- Konfigurieren Sie Fencing-Geräte. Siehe Abschnitt 5.5, »Konfigurieren von Fencing-Geräten«.
- Konfigurieren Sie das Fencing für die Cluster-Mitglieder. Siehe Abschnitt 5.7, »Konfigurieren von Fencing-Geräten für Cluster-Mitglieder«.
- Erstellen Sie Ausfallsicherungs-Domains. Siehe Abschnitt 5.8, »Konfigurieren einer Ausfallsicherungs-Domain«.
- Erstellen Sie Ressourcen. Siehe Abschnitt 5.9, »Konfigurieren von globalen Cluster-Ressourcen«.
- Erstellen Sie Cluster-Dienste. Siehe Abschnitt 5.10, »Hinzufügen eines Cluster-Dienstes zum Cluster«.
- Konfigurieren Sie einen Quorumdatenträger, falls nötig. Siehe Abschnitt 5.13, »Konfigurieren eines Quorumdatenträgers«.
- Konfigurieren Sie globale Cluster-Eigenschaften. Siehe Abschnitt 5.14, »Sonstige Cluster-Konfiguration«.
- Verbreiten Sie die Cluster-Konfigurationsdatei auf allen Cluster-Knoten. Siehe Abschnitt 5.15, »Verbreiten der Konfigurationsdatei auf den Cluster-Knoten«.
5.3. Starten von ricci Link kopierenLink in die Zwischenablage kopiert!
- Die IP-Ports auf Ihren Cluster-Knoten sind für ricci aktiviert. Für Informationen über das Aktivieren von IP-Ports auf Cluster-Knoten siehe Abschnitt 2.3.1, »Aktivieren von IP-Ports auf Cluster-Knoten«.
- Der ricci Dienst ist auf allen Knoten im Cluster installiert, und es wurde ein ricci Passwort zugewiesen, wie in Abschnitt 2.13, Ȇberlegungen zu
ricci« beschrieben.
# service ricci start
Starting ricci: [ OK ]
5.4. Erstellen eines Clusters Link kopierenLink in die Zwischenablage kopiert!
ccs Befehls erstellen, bearbeiten und löschen können. Nachfolgende Abschnitte beschreiben, wie diese Teile der Konfiguration erstellt werden.
- Erstellen Sie eine Cluster-Konfigurationsdatei auf einem der Knoten im Cluster, indem Sie den
ccsBefehl mit dem-hParameter ausführen, um den Knoten zu spezifizieren, auf dem die Datei erstellt werden soll, und diecreateclusterOption, um den Namen für den Cluster zu spezifizieren:ccs -h host --createcluster clusternameZum Beispiel erzeugt der folgende Befehl eine Konfigurationsdatei aufnode-01.example.comnamensmycluster:ccs -h node-01.example.com --createcluster myclusterDer Cluster-Name darf nicht länger als 15 Zeichen sein.Falls bereits einecluster.confDatei auf dem von Ihnen spezifizierten Host existiert, wird dieser Befehl die vorhandene Datei ersetzen.Wenn Sie eine Cluster-Konfigurationsdatei auf Ihrem lokalen System erstellen möchten, können Sie die-fOption anstelle der-hOption angeben. Für weitere Informationen zum lokalen Erstellen der Datei siehe Abschnitt 5.1.1, »Erstellen der Cluster-Konfigurationsdatei auf einem lokalen System«. - Um die Knoten zu konfigurieren, aus denen sich der Cluster zusammensetzt, führen Sie den folgenden Befehl für jeden Knoten im Cluster aus. Der Knotenname darf maximal 255 Bytes lang sein.
ccs -h host --addnode nodeBeispielsweise fügen die folgenden drei Befehle die Knotennode-01.example.com,node-02.example.comundnode-03.example.comzur Konfigurationsdatei aufnode-01.example.comhinzu:ccs -h node-01.example.com --addnode node-01.example.com ccs -h node-01.example.com --addnode node-02.example.com ccs -h node-01.example.com --addnode node-03.example.comUm eine Liste der Knoten anzusehen, die für einen Cluster konfiguriert wurden, führen Sie den folgenden Befehl aus:ccs -h host --lsnodesBeispiel 5.1, »cluster.confDatei nach Hinzufügen von drei Knoten« zeigt einecluster.confKonfigurationsdatei, nachdem Sie den Clustermyclustererstellt haben, der die Knotennode-01.example.com,node-02.example.comundnode-03.example.comenthält.Beispiel 5.1.
cluster.confDatei nach Hinzufügen von drei Knoten<cluster name="mycluster" config_version="2"> <clusternodes> <clusternode name="node-01.example.com" nodeid="1"> <fence> </fence> </clusternode> <clusternode name="node-02.example.com" nodeid="2"> <fence> </fence> </clusternode> <clusternode name="node-03.example.com" nodeid="3"> <fence> </fence> </clusternode> </clusternodes> <fencedevices> </fencedevices> <rm> </rm> </cluster>Wenn Sie einen Knoten zum Cluster hinzufügen, können Sie die Anzahl der Stimmen festlegen, über die der Knoten verfügt, und anhand derer bestimmt wird, ob ein Quorum vorliegt. Um die Anzahl der Stimmen für einen Cluster-Knoten zu spezifizieren, nutzen Sie folgenden Befehl:ccs -h host --addnode host --votes votesWenn Sie einen Knoten hinzufügen, weistccsdem Knoten einen eindeutigen, ganzzahligen Wert zu, der als Knotenkennung dient. Falls Sie die Knotenkennung bei der Erstellung des Knotens manuell festlegen möchten, verwenden Sie folgenden Befehl:ccs -h host --addnode host --nodeid nodeidUm einen Knoten aus dem Cluster zu entfernen, führen Sie den folgenden Befehl aus:ccs -h host --rmnode node
5.5. Konfigurieren von Fencing-Geräten Link kopierenLink in die Zwischenablage kopiert!
- Der Parameter
post_fail_delay(Verzögerung nach Ausfall) ist die Anzahl von Sekunden, die der Fencing-Daemon (fenced) wartet, bevor ein Knoten (ein Mitglied der Fencing-Domain) nach dessen Ausfall abgegrenzt wird. Der Standardwert fürpost_fail_delayist0. Dieser Wert kann je nach Cluster- und Netzwerkleistung angepasst werden. - Der Parameter
post-join_delay(Verzögerung nach Beitritt) ist die Anzahl der Sekunden, die der Fencing-Daemon (fenced) wartet, bevor ein Knoten abgegrenzt wird nachdem der Knoten der Fencing-Domain beitritt. Derpost-join_delayStandardwert ist6. Eine typische Einstellung fürpost-join_delayliegt zwischen 20 und 30 Sekunden, kann aber je nach Cluster- und Netzwerkleistung variieren.
post_fail_delay und post_join_delay Parameter mit der --setfencedaemon Option des ccs Befehls. Beachten Sie jedoch, dass die Ausführung des ccs --setfencedaemon Befehls alle vorhandenen Fencing-Daemon-Eigenschaften, die explizit gesetzt wurden, überschreibt und sie auf die Standardwerte zurücksetzt.
post_fail_delay Parameter zu konfigurieren, führen Sie den folgenden Befehl aus. Dieser Befehl überschreibt die Werte aller anderen bestehenden Fencing-Daemon-Eigenschaften, die Sie mit diesem Befehl gesetzt haben und stellt sie auf die Standardwerte zurück.
ccs -h host --setfencedaemon post_fail_delay=value
post_join_delay Parameter zu konfigurieren, führen Sie den folgenden Befehl aus. Dieser Befehl überschreibt die Werte aller anderen bestehenden Fencing-Daemon-Eigenschaften, die Sie mit diesem Befehl gesetzt haben und stellt sie auf die Standardwerte zurück.
ccs -h host --setfencedaemon post_join_delay=value
post_join_delay Parameter als auch den post_fail_delay Parameter zu konfigurieren, führen Sie den folgenden Befehl aus:
ccs -h host --setfencedaemon post_fail_delay=value post_join_delay=value
Anmerkung
post_join_delay und post_fail_delay Parameter sowie weitere, konfigurierbare Fencing-Daemon-Eigenschaften finden Sie auf der fenced(8) Handbuchseite. Werfen Sie auch einen Blick auf das Cluster-Schema unter /usr/share/cluster/cluster.rng und das kommentierte Schema unter /usr/share/doc/cman-X.Y.ZZ/cluster_conf.html.
ccs -h host --addfencedev devicename [fencedeviceoptions]
node1 ein APC-Fencing-Gerät namens my_apc mit der IP-Adresse apc_ip_example, mit dem Login login_example und dem Passwort password_example zu erstellen, führen Sie den folgenden Befehl aus:
ccs -h node1 --addfencedev myfence agent=fence_apc ipaddr=apc_ip_example login=login_example passwd=password_example
fencedevices Abschnitt der cluster.conf Konfigurationsdatei, nachdem Sie dieses APC-Fencing-Gerät hinzugefügt haben:
<fencedevices>
<fencedevice agent="fence_apc" ipaddr="apc_ip_example" login="login_example" name="my_apc" passwd="password_example"/>
</fencedevices>
ccs, um eine Liste verfügbarer Fencing-Geräte und Optionen bzw. eine Liste derzeit konfigurierter Fencing-Geräte für Ihren Cluster anzuzeigen, werfen Sie einen Blick auf Abschnitt 5.6, »Auflisten von Fencing-Geräten und Fencing-Geräteoptionen«.
ccs -h host --rmfencedev fence_device_name
myfence aus der Cluster-Konfigurationsdatei auf dem Cluster-Knoten node1 zu löschen, führen Sie den folgenden Befehl aus:
ccs -h node1 --rmfencedev myfence
5.6. Auflisten von Fencing-Geräten und Fencing-Geräteoptionen Link kopierenLink in die Zwischenablage kopiert!
ccs Befehl verwenden, um eine Liste aller verfügbaren Fencing-Geräte anzuzeigen und um eine Liste mit Optionen für die jeweiligen Fencing-Typen anzuzeigen. Auch können Sie mit dem ccs Befehl eine Liste aller Fencing-Geräte anzeigen, die derzeit für Ihren Cluster konfiguriert sind.
ccs -h host --lsfenceopts
node1 verfügbar sind.
[root@ask-03 ~]# ccs -h node1 --lsfenceopts
fence_rps10 - RPS10 Serial Switch
fence_vixel - No description available
fence_egenera - No description available
fence_xcat - No description available
fence_na - Node Assassin
fence_apc - Fence agent for APC over telnet/ssh
fence_apc_snmp - Fence agent for APC over SNMP
fence_bladecenter - Fence agent for IBM BladeCenter
fence_bladecenter_snmp - Fence agent for IBM BladeCenter over SNMP
fence_cisco_mds - Fence agent for Cisco MDS
fence_cisco_ucs - Fence agent for Cisco UCS
fence_drac5 - Fence agent for Dell DRAC CMC/5
fence_eps - Fence agent for ePowerSwitch
fence_ibmblade - Fence agent for IBM BladeCenter over SNMP
fence_ifmib - Fence agent for IF MIB
fence_ilo - Fence agent for HP iLO
fence_ilo_mp - Fence agent for HP iLO MP
fence_intelmodular - Fence agent for Intel Modular
fence_ipmilan - Fence agent for IPMI over LAN
fence_kdump - Fence agent for use with kdump
fence_rhevm - Fence agent for RHEV-M REST API
fence_rsa - Fence agent for IBM RSA
fence_sanbox2 - Fence agent for QLogic SANBox2 FC switches
fence_scsi - fence agent for SCSI-3 persistent reservations
fence_virsh - Fence agent for virsh
fence_virt - Fence agent for virtual machines
fence_vmware - Fence agent for VMware
fence_vmware_soap - Fence agent for VMware over SOAP API
fence_wti - Fence agent for WTI
fence_xvm - Fence agent for virtual machines
ccs -h host --lsfenceopts fence_type
fence_wti verfügbar sind.
[root@ask-03 ~]# ccs -h node1 --lsfenceopts fence_wti
fence_wti - Fence agent for WTI
Required Options:
Optional Options:
option: No description available
action: Fencing Action
ipaddr: IP Address or Hostname
login: Login Name
passwd: Login password or passphrase
passwd_script: Script to retrieve password
cmd_prompt: Force command prompt
secure: SSH connection
identity_file: Identity file for ssh
port: Physical plug number or name of virtual machine
inet4_only: Forces agent to use IPv4 addresses only
inet6_only: Forces agent to use IPv6 addresses only
ipport: TCP port to use for connection with device
verbose: Verbose mode
debug: Write debug information to given file
version: Display version information and exit
help: Display help and exit
separator: Separator for CSV created by operation list
power_timeout: Test X seconds for status change after ON/OFF
shell_timeout: Wait X seconds for cmd prompt after issuing command
login_timeout: Wait X seconds for cmd prompt after login
power_wait: Wait X seconds after issuing ON/OFF
delay: Wait X seconds before fencing is started
retry_on: Count of attempts to retry power on
ccs -h host --lsfencedev
5.7. Konfigurieren von Fencing-Geräten für Cluster-Mitglieder Link kopierenLink in die Zwischenablage kopiert!
Anmerkung
5.7.1. Konfiguration eines einzelnen Power-Fencing-Geräts für einen Knoten Link kopierenLink in die Zwischenablage kopiert!
my_apc verwendet, welches wiederum den fence_apc Fencing-Agenten verwendet. In diesem Beispiel wurde das Gerät namens my_apc bereits mit der --addfencedev Option konfiguriert, wie in Abschnitt 5.5, »Konfigurieren von Fencing-Geräten« beschrieben.
- Fügen Sie eine Fencing-Methode für den Knoten hinzu und geben Sie einen Namen für die Fencing-Methode an.
ccs -h host --addmethod method nodeUm beispielsweise eine Fencing-Methode namensAPCfür den Knotennode-01.example.comin der Konfigurationsdatei auf dem Cluster-Knotennode-01.example.comzu konfigurieren, führen Sie den folgenden Befehl aus:ccs -h node01.example.com --addmethod APC node01.example.com - Fügen Sie eine Fencing-Instanz für die Methode hinzu. Sie müssen angeben, welches Fencing-Gerät für den Knoten verwendet werden soll, den Knoten, auf den diese Instanz angewendet wird, den Namen der Methode, sowie jegliche Optionen für diese Methode speziell für diesen Knoten:
ccs -h host --addfenceinst fencedevicename node method [options]Um beispielsweise eine Fencing-Instanz in der Konfigurationsdatei auf dem Cluster-Knotennode-01.example.comzu konfigurieren, die den APC Switch Power-Port 1 auf dem Fencing-Gerät namensmy_apcverwendet, um den Cluster-Knotennode-01.example.comunter Verwendung der Methode namensAPCabzugrenzen, verwenden Sie folgenden Befehl:ccs -h node01.example.com --addfenceinst my_apc node01.example.com APC port=1
APC. Das Gerät für die Fencing-Methode spezifiziert my_apc als Gerätename, wobei es sich hierbei um ein Gerät handelt, das bereits vorher mit der --addfencedev Option konfiguriert wurde, wie in Abschnitt 5.5, »Konfigurieren von Fencing-Geräten« beschrieben. Jeder Knoten ist mit einer eindeutigen APC Switch Power-Port-Nummer konfiguriert: Die Port-Nummer für node-01.example.com ist 1, die Port-Nummer für node-02.example.com ist 2, und die Port-Nummer für node-03.example.com ist 3.
ccs -h node01.example.com --addmethod APC node01.example.com
ccs -h node01.example.com --addmethod APC node02.example.com
ccs -h node01.example.com --addmethod APC node03.example.com
ccs -h node01.example.com --addfenceinst my_apc node01.example.com APC port=1
ccs -h node01.example.com --addfenceinst my_apc node02.example.com APC port=2
ccs -h node01.example.com --addfenceinst my_apc node03.example.com APC port=3
cluster.conf nach Hinzufügen von Power-Fencing-Methoden« zeigt eine cluster.conf Konfigurationsdatei, nachdem Sie diese Fencing-Methoden und Instanzen zu jedem Knoten im Cluster hinzugefügt haben.
Beispiel 5.2. cluster.conf nach Hinzufügen von Power-Fencing-Methoden
<cluster name="mycluster" config_version="3">
<clusternodes>
<clusternode name="node-01.example.com" nodeid="1">
<fence>
<method name="APC">
<device name="my_apc" port="1"/>
</method>
</fence>
</clusternode>
<clusternode name="node-02.example.com" nodeid="2">
<fence>
<method name="APC">
<device name="my_apc" port="2"/>
</method>
</fence>
</clusternode>
<clusternode name="node-03.example.com" nodeid="3">
<fence>
<method name="APC">
<device name="my_apc" port="3"/>
</method>
</fence>
</clusternode>
</clusternodes>
<fencedevices>
<fencedevice agent="fence_apc" ipaddr="apc_ip_example" login="login_example" name="my_apc" passwd="password_example"/>
</fencedevices>
<rm>
</rm>
</cluster>
5.7.2. Konfiguration eines einzelnen Speicher-Fencing-Geräts für einen Knoten Link kopierenLink in die Zwischenablage kopiert!
on oder enable enthält.
fence_node(8) Handbuchseite.
sanswitch1 verwendet, welches wiederum den fence_sanbox2 Fencing-Agenten verwendet.
- Fügen Sie eine Fencing-Methode für den Knoten hinzu und geben Sie einen Namen für die Fencing-Methode an.
ccs -h host --addmethod method nodeUm beispielsweise eine Fencing-Methode namensSANfür den Knotennode-01.example.comin der Konfigurationsdatei auf dem Cluster-Knotennode-01.example.comzu konfigurieren, führen Sie den folgenden Befehl aus:ccs -h node01.example.com --addmethod SAN node01.example.com - Fügen Sie eine Fencing-Instanz für die Methode hinzu. Sie müssen angeben, welches Fencing-Gerät für den Knoten verwendet werden soll, den Knoten, auf den diese Instanz angewendet wird, den Namen der Methode, sowie jegliche Optionen für diese Methode speziell für diesen Knoten:
ccs -h host --addfenceinst fencedevicename node method [options]Um beispielsweise eine Fencing-Instanz in der Konfigurationsdatei auf dem Cluster-Knotennode-01.example.comzu konfigurieren, die den SAN Switch Power-Port 11 auf dem Fencing-Gerät namenssanswitch1verwendet, um den Cluster-Knotennode-01.example.comunter Verwendung der Methode namensSANabzugrenzen, verwenden Sie folgenden Befehl:ccs -h node01.example.com --addfenceinst sanswitch1 node01.example.com SAN port=11 - Um Unfencing für das Speicher-Fencing-Gerät auf diesem Knoten zu konfigurieren, führen Sie den folgenden Befehl aus:
ccs -h host --addunfence fencedevicename node action=on|off
SAN. Das Gerät für die Fencing-Methode spezifiziert sanswitch als Gerätename, wobei es sich hierbei um ein Gerät handelt, die bereits vorher mit der --addfencedev Option konfiguriert wurde, wie in Abschnitt 5.5, »Konfigurieren von Fencing-Geräten« beschrieben. Jeder Knoten ist mit einer eindeutigen SAN physischen Port-Nummer konfiguriert: Die Port-Nummer für node-01.example.com ist 11, die Port-Nummer für node-02.example.com ist 12, und die Port-Nummer für node-03.example.com ist 13.
ccs -h node01.example.com --addmethod SAN node01.example.com
ccs -h node01.example.com --addmethod SAN node02.example.com
ccs -h node01.example.com --addmethod SAN node03.example.com
ccs -h node01.example.com --addfenceinst sanswitch1 node01.example.com SAN port=11
ccs -h node01.example.com --addfenceinst sanswitch1 node02.example.com SAN port=12
ccs -h node01.example.com --addfenceinst sanswitch1 node03.example.com SAN port=13
ccs -h node01.example.com --addunfence sanswitch1 node01.example.com port=11 action=on
ccs -h node01.example.com --addunfence sanswitch1 node02.example.com port=12 action=on
ccs -h node01.example.com --addunfence sanswitch1 node03.example.com port=13 action=on
cluster.conf nach Hinzufügen von Speicher-Fencing-Methoden« zeigt eine cluster.conf Konfigurationsdatei, nachdem Sie Fencing-Methoden, Fencing-Instanzen und Unfencing für jeden Knoten im Cluster hinzugefügt haben:
Beispiel 5.3. cluster.conf nach Hinzufügen von Speicher-Fencing-Methoden
<cluster name="mycluster" config_version="3">
<clusternodes>
<clusternode name="node-01.example.com" nodeid="1">
<fence>
<method name="SAN">
<device name="sanswitch1" port="11"/>
</method>
</fence>
<unfence>
<device name="sanswitch1" port="11" action="on"/>
</unfence>
</clusternode>
<clusternode name="node-02.example.com" nodeid="2">
<fence>
<method name="SAN">
<device name="sanswitch1" port="12"/>
</method>
</fence>
<unfence>
<device name="sanswitch1" port="12" action="on"/>
</unfence>
</clusternode>
<clusternode name="node-03.example.com" nodeid="3">
<fence>
<method name="SAN">
<device name="sanswitch1" port="13"/>
</method>
</fence>
<unfence>
<device name="sanswitch1" port="13" action="on"/>
</unfence>
</clusternode>
</clusternodes>
<fencedevices>
<fencedevice agent="fence_sanbox2" ipaddr="san_ip_example"
login="login_example" name="sanswitch1" passwd="password_example"/>
</fencedevices>
<rm>
</rm>
</cluster>
5.7.3. Konfiguration eines Backup-Fencing-Geräts Link kopierenLink in die Zwischenablage kopiert!
Anmerkung
ccs Befehl konfigurieren, ist die primäre Fencing-Methode, die zweite von Ihnen konfigurierte Methode ist die Backup-Fencing-Methode. Um die Reihenfolge zu ändern, können Sie die primäre Fencing-Methode aus der Konfigurationsdatei löschen und diese Methode anschließend wieder hinzufügen.
ccs -h host --lsfenceinst [node]
my_apc verwendet, welches wiederum den fence_apc Fencing-Agenten verwendet, sowie ein Backup-Fencing-Gerät, das ein Fencing-Gerät namens sanswitch1 verwendet, welches wiederum den fence_sanbox2 Fencing-Agenten verwendet. Da es sich bei dem sanswitch1 Gerät um einen Speicher Fencing-Agent handelt, müssen Sie für dieses Gerät zusätzlich Unfencing konfigurieren.
- Fügen Sie eine primäre Fencing-Methode für den Knoten hinzu und geben Sie einen Namen für die Fencing-Methode an.
ccs -h host --addmethod method nodeUm beispielsweise eine Fencing-Methode namensAPCals primäre Methode für den Knotennode-01.example.comin der Konfigurationsdatei auf dem Cluster-Knotennode-01.example.comzu konfigurieren, führen Sie folgenden Befehl aus:ccs -h node01.example.com --addmethod APC node01.example.com - Fügen Sie eine Fencing-Instanz für die primäre Methode hinzu. Sie müssen das zu verwendende Fencing-Gerät für den Knoten spezifizieren, sowie den Knoten, auf den diese Instanz angewendet wird, den Namen der Methode, und jegliche Optionen, die spezifisch für diesen Knoten sind:
ccs -h host --addfenceinst fencedevicename node method [options]Um beispielsweise eine Fencing-Instanz in der Konfigurationsdatei auf dem Cluster-Knotennode-01.example.comzu konfigurieren, die den APC Switch Power-Port 1 auf dem Fencing-Gerät namensmy_apcverwendet, um den Cluster-Knotennode-01.example.comunter Verwendung der Methode namensAPCabzugrenzen, verwenden Sie folgenden Befehl:ccs -h node01.example.com --addfenceinst my_apc node01.example.com APC port=1 - Fügen Sie eine Backup-Fencing-Methode für den Knoten hinzu und geben Sie einen Namen für die Fencing-Methode an.
ccs -h host --addmethod method nodeUm beispielsweise eine Backup-Fencing-Methode namensSANfür den Knotennode-01.example.comin der Konfigurationsdatei auf dem Cluster-Knotennode-01.example.comzu konfigurieren, führen Sie folgenden Befehl aus:ccs -h node01.example.com --addmethod SAN node01.example.com - Fügen Sie eine Fencing-Instanz für die Backup-Methode hinzu. Sie müssen das zu verwendende Fencing-Gerät für den Knoten spezifizieren, sowie den Knoten, auf den diese Instanz angewendet wird, den Namen der Methode, und jegliche Optionen, die spezifisch für diesen Knoten sind:
ccs -h host --addfenceinst fencedevicename node method [options]Um beispielsweise eine Fencing-Instanz in der Konfigurationsdatei auf dem Cluster-Knotennode-01.example.comzu konfigurieren, die den SAN Switch Power-Port 11 auf dem Fencing-Gerät namenssanswitch1verwendet, um den Cluster-Knotennode-01.example.comunter Verwendung der Methode namensSANabzugrenzen, verwenden Sie folgenden Befehl:ccs -h node01.example.com --addfenceinst sanswitch1 node01.example.com SAN port=11 - Da es sich bei dem
sanswitch1Gerät um ein Speicher-Fencing-Gerät handelt, müssen Sie für dieses Gerät zusätzlich Unfencing konfigurieren.ccs -h node01.example.com --addunfence sanswitch1 node01.example.com port=11 action=on
cluster.conf nach Hinzufügen von Backup-Fencing-Methoden« zeigt eine cluster.conf Konfigurationsdatei, nachdem Sie eine primäre Power-Fencing-Methode und eine Speicher-Backup-Fencing-Methode zu jedem Knoten im Cluster hinzugefügt haben.
Beispiel 5.4. cluster.conf nach Hinzufügen von Backup-Fencing-Methoden
<cluster name="mycluster" config_version="3">
<clusternodes>
<clusternode name="node-01.example.com" nodeid="1">
<fence>
<method name="APC">
<device name="my_apc" port="1"/>
</method>
<method name="SAN">
<device name="sanswitch1" port="11"/>
</method>
</fence>
<unfence>
<device name="sanswitch1" port="11" action="on"/>
</unfence
</clusternode>
<clusternode name="node-02.example.com" nodeid="2">
<fence>
<method name="APC">
<device name="my_apc" port="2"/>
</method>
<method name="SAN">
<device name="sanswitch1" port="12"/>
</method>
</fence>
<unfence>
<device name="sanswitch1" port="12" action="on"/>
</unfence
</clusternode>
<clusternode name="node-03.example.com" nodeid="3">
<fence>
<method name="APC">
<device name="my_apc" port="3"/>
</method>
<method name="SAN">
<device name="sanswitch1" port="13"/>
</method>
</fence>
<unfence>
<device name="sanswitch1" port="13" action="on"/>
</unfence
</clusternode>
</clusternodes>
<fencedevices>
<fencedevice agent="fence_apc" ipaddr="apc_ip_example" login="login_example" name="my_apc" passwd="password_example"/>
<fencedevice agent="fence_sanbox2" ipaddr="san_ip_example" login="login_example" name="sanswitch1" passwd="password_example"/>
</fencedevices>
<rm>
</rm>
</cluster>
Anmerkung
5.7.4. Konfiguration eines Knotens mit redundanter Stromversorgung Link kopierenLink in die Zwischenablage kopiert!
action Parameter off konfigurieren, bevor Sie anschließend jedes der Geräte mit dem action Parameter on konfigurieren.
- Bevor Sie das Fencing für einen Knoten mit redundanter Stromversorgung konfigurieren können, müssen Sie jeden der Netzschalter als Fencing-Gerät für den Cluster konfigurieren. Informationen über die Konfiguration von Fencing-Geräten finden Sie in Abschnitt 5.5, »Konfigurieren von Fencing-Geräten«.Um eine Liste aller derzeit für Ihren Cluster konfigurierten Fencing-Geräte auszugeben, führen Sie den folgenden Befehl aus:
ccs -h host --lsfencedev - Fügen Sie eine Fencing-Methode für den Knoten hinzu und geben Sie einen Namen für die Fencing-Methode an.
ccs -h host --addmethod method nodeUm beispielsweise eine Fencing-Methode namensAPC-dualfür den Knotennode-01.example.comin der Konfigurationsdatei auf dem Cluster-Knotennode-01.example.comzu konfigurieren, führen Sie den folgenden Befehl aus:ccs -h node01.example.com --addmethod APC-dual node01.example.com - Fügen Sie eine Fencing-Instanz für die erste Stromversorgung zur Fencing-Methode hinzu. Sie müssen angeben, welches Fencing-Gerät für den Knoten verwendet werden soll, den Knoten, auf den diese Instanz angewendet wird, den Namen der Methode, sowie jegliche Optionen für diese Methode speziell für diesen Knoten. Konfigurieren Sie an diesem Punkt den
actionParameter alsoff.ccs -h host --addfenceinst fencedevicename node method [options] action=offUm beispielsweise in der Konfigurationsdatei auf dem Cluster-Knotennode-01.example.comeine Fencing-Instanz zu konfigurieren, die den APC Switch Power Port 1 auf dem Fencing-Gerät namensapc1verwendet, um den Cluster-Knotennode-01.example.comunter Verwendung der Methode namensAPC-dualabzugrenzen und um denactionParameter aufoffzu setzen, führen Sie den folgenden Befehl aus:ccs -h node01.example.com --addfenceinst apc1 node01.example.com APC-dual port=1 action=off - Fügen Sie eine Fencing-Instanz für die zweite Stromversorgung zur Fencing-Methode hinzu. Sie müssen angeben, welches Fencing-Gerät für den Knoten verwendet werden soll, den Knoten, auf den diese Instanz angewendet wird, den Namen der Methode, sowie jegliche Optionen für diese Methode speziell für diesen Knoten. Konfigurieren Sie an diesem Punkt auch für diese Instanz den
actionParameter alsoff.ccs -h host --addfenceinst fencedevicename node method [options] action=offUm beispielsweise in der Konfigurationsdatei auf dem Cluster-Knotennode-01.example.comeine zweite Fencing-Instanz zu konfigurieren, die den APC Switch Power Port 1 auf dem Fencing-Gerät namensapc2verwendet, um den Cluster-Knotennode-01.example.comunter Verwendung derselben Methode wie für die erste Instanz namensAPC-dualabzugrenzen und um denactionParameter aufoffzu setzen, führen Sie den folgenden Befehl aus:ccs -h node01.example.com --addfenceinst apc2 node01.example.com APC-dual port=1 action=off - Fügen Sie nun eine weitere Fencing-Instanz für die erste Stromversorgung zur Fencing-Methode hinzu und konfigurieren Sie den
actionParameter aufon. Sie müssen angeben, welches Fencing-Gerät für den Knoten verwendet werden soll, den Knoten, auf den diese Instanz angewendet wird, den Namen der Methode, sowie jegliche Optionen für diese Methode speziell für diesen Knoten, und setzen Sie denactionParameter aufon:ccs -h host --addfenceinst fencedevicename node method [options] action=onUm beispielsweise in der Konfigurationsdatei auf dem Cluster-Knotennode-01.example.comeine Fencing-Instanz zu konfigurieren, die den APC Switch Power Port 1 auf dem Fencing-Gerät namensapc1verwendet, um den Cluster-Knotennode-01.example.comunter Verwendung der Methode namensAPC-dualabzugrenzen und um denactionParameter aufonzu setzen, führen Sie den folgenden Befehl aus:ccs -h node01.example.com --addfenceinst apc1 node01.example.com APC-dual port=1 action=on - Fügen Sie eine weitere Fencing-Instanz für die zweite Stromversorgung zur Fencing-Methode hinzu und konfigurieren Sie den
actionParameter für diese Instanz aufon. Sie müssen angeben, welches Fencing-Gerät für den Knoten verwendet werden soll, den Knoten, auf den diese Instanz angewendet wird, den Namen der Methode, sowie jegliche Optionen für diese Methode speziell für diesen Knoten, und setzen Sie denactionParameter aufon:ccs -h host --addfenceinst fencedevicename node method [options] action=onUm beispielsweise in der Konfigurationsdatei auf dem Cluster-Knotennode-01.example.comeine zweite Fencing-Instanz zu konfigurieren, die den APC Switch Power Port 1 auf dem Fencing-Gerät namensapc2verwendet, um den Cluster-Knotennode-01.example.comunter Verwendung derselben Methode wie für die erste Instanz namensAPC-dualabzugrenzen und um denactionParameter aufonzu setzen, führen Sie den folgenden Befehl aus:ccs -h node01.example.com --addfenceinst apc2 node01.example.com APC-dual port=1 action=on
cluster.conf nach Hinzufügen von Fencing für duale Stromversorgung« zeigt eine cluster.conf Konfigurationsdatei, nachdem Sie Fencing für zwei Stromversorgungen für jeden Knoten im Cluster hinzugefügt haben.
Beispiel 5.5. cluster.conf nach Hinzufügen von Fencing für duale Stromversorgung
<cluster name="mycluster" config_version="3">
<clusternodes>
<clusternode name="node-01.example.com" nodeid="1">
<fence>
<method name="APC-dual">
<device name="apc1" port="1"action="off"/>
<device name="apc2" port="1"action="off"/>
<device name="apc1" port="1"action="on"/>
<device name="apc2" port="1"action="on"/>
</method>
</fence>
</clusternode>
<clusternode name="node-02.example.com" nodeid="2">
<fence>
<method name="APC-dual">
<device name="apc1" port="2"action="off"/>
<device name="apc2" port="2"action="off"/>
<device name="apc1" port="2"action="on"/>
<device name="apc2" port="2"action="on"/>
</method>
</fence>
</clusternode>
<clusternode name="node-03.example.com" nodeid="3">
<fence>
<method name="APC-dual">
<device name="apc1" port="3"action="off"/>
<device name="apc2" port="3"action="off"/>
<device name="apc1" port="3"action="on"/>
<device name="apc2" port="3"action="on"/>
</method>
</fence>
</clusternode>
</clusternodes>
<fencedevices>
<fencedevice agent="fence_apc" ipaddr="apc_ip_example" login="login_example" name="apc1" passwd="password_example"/>
<fencedevice agent="fence_apc" ipaddr="apc_ip_example" login="login_example" name="apc2" passwd="password_example"/>
</fencedevices>
<rm>
</rm>
</cluster>
5.7.5. Entfernen von Fencing-Methoden und Fencing-Instanzen Link kopierenLink in die Zwischenablage kopiert!
ccs -h host --rmmethod method node
APC, die Sie für node01.example.com konfiguriert hatten, aus der Cluster-Konfigurationsdatei auf dem Cluster-Knoten node01.example.com zu entfernen, führen Sie den folgenden Befehl aus:
ccs -h node01.example.com --rmmethod APC node01.example.com
ccs -h host --rmfenceinst fencedevicename node method
apc1 von der Methode namens APC-dual, konfiguriert für node01.example.com, aus der Cluster-Konfigurationsdatei auf dem Cluster-Knoten node01.example.com zu entfernen, führen Sie den folgenden Befehl aus:
ccs -h node01.example.com --rmfenceinst apc1 node01.example.com APC-dual
5.8. Konfigurieren einer Ausfallsicherungs-Domain Link kopierenLink in die Zwischenablage kopiert!
- Uneingeschränkt — Ermöglicht Ihnen, eine Teilmenge bevorzugter Mitglieder zu spezifizieren, doch der dieser Domain zugewiesene Cluster-Dienst kann auf jedem verfügbaren Mitglied ausgeführt werden.
- Eingeschränkt — Ermöglicht Ihnen, die Mitglieder einzuschränken, auf denen ein bestimmter Cluster-Dienst laufen darf. Falls keines der Mitglieder in einer eingeschränkten Ausfallsicherungs-Domain verfügbar ist, kann der Cluster-Dienst nicht gestartet werden (weder manuell noch durch die Cluster-Software).
- Ungeordnet — Wenn ein Cluster-Dienst einer ungeordneten Ausfallsicherungs-Domain zugewiesen ist, wird das Mitglied, auf dem der Cluster-Dienst ausgeführt wird, ohne Berücksichtigung von Prioritäten aus den verfügbaren Mitgliedern der Ausfallsicherungs-Domain ausgewählt.
- Geordnet — Ermöglicht Ihnen, eine Prioritätsreihenfolge für die Mitglieder einer Ausfallsicherungs-Domain anzugeben. Das erste Mitglied in der Liste wird bevorzugt, gefolgt vom zweiten Mitglied in der Liste, usw.
- Failback — Ermöglicht Ihnen festzulegen, ob ein Dienst in der Ausfallsicherungs-Domain auf den Knoten zurückwechseln soll, auf dem er vor dessen Ausfall ursprünglich ausgeführt wurde. Das Konfigurieren dieser Charakteristik ist hilfreich in Situationen, in denen ein Knoten häufig ausfällt und Teil einer geordneten Ausfallsicherungs-Domain ist. In diesem Fall würde ein Dienst, der auf dem bevorzugten Knoten in einer Ausfallsicherungs-Domain läuft, möglicherweise wiederholt zwischen dem bevorzugten Knoten und einem anderen Knoten hin- und herwechseln, was beträchtliche Leistungseinbußen zur Folge hätte.
Anmerkung
Die Failback-Charakteristik greift nur, wenn die geordnete Ausfallsicherung konfiguriert ist.
Anmerkung
Anmerkung
httpd) einzurichten, müssen Sie auf allen Cluster-Mitgliedern, die diesen Cluster-Dienst ausführen sollen, eine identische Konfiguration einrichten. Anstatt den gesamten Cluster zur Ausführung dieses Cluster-Dienstes einzurichten, müssen Sie somit nur die Mitglieder der beschränkten Ausfallsicherungs-Domain, die Sie mit diesem Cluster-Dienst verknüpfen möchten, entsprechend einrichten.
Anmerkung
- Um eine Ausfallsicherungs-Domain hinzuzufügen, führen Sie den folgenden Befehl aus:
ccs -h host --addfailoverdomain name [restricted] [ordered] [nofailback]Anmerkung
Der Name sollte aussagekräftig genug sein, um daraus im Vergleich zu anderen Namen im Cluster auf den Zweck schließen zu können.Beispielsweise konfiguriert der folgende Befehl eine Ausfallsicherungs-Domain namensexample_priaufnode-01.example.com, die uneingeschränkt und geordnet ist und Failback erlaubt:ccs -h node-01.example.com --addfailoverdomain example_pri ordered - Um einen Knoten zu einer Ausfallsicherungs-Domain hinzuzufügen, führen Sie den folgenden Befehl aus:
ccs -h host --addfailoverdomainnode failoverdomain node priorityUm beispielsweise die Ausfallsicherungs-Domainexample_priin der Konfigurationsdatei aufnode-01.example.comso zu konfigurieren, dass sienode-01.example.commit der Priorität 1,node-02.example.commit der Priorität 2 undnode-03.example.commit der Priorität 3 beinhaltet, führen Sie die folgenden Befehle aus:ccs -h node-01.example.com --addfailoverdomainnode example_pri node-01.example.com 1 ccs -h node-01.example.com --addfailoverdomainnode example_pri node-02.example.com 2 ccs -h node-01.example.com --addfailoverdomainnode example_pri node-03.example.com 3
ccs -h host --lsfailoverdomain
ccs -h host --rmfailoverdomain name
ccs -h host --rmfailoverdomainnode failoverdomain node
5.9. Konfigurieren von globalen Cluster-Ressourcen Link kopierenLink in die Zwischenablage kopiert!
- Global — Ressourcen, die jedem Dienst im Cluster zur Verfügung stehen.
- Dienstspezifisch — Ressourcen, die nur einem Dienst zur Verfügung stehen.
ccs -h host --lsservices
ccs -h host --addresource resourcetype [resource options]
node01.example.com hinzu. Der Name der Ressource lautet web_fs, das Dateisystemgerät ist /dev/sdd2, der Einhängepunkt des Dateisystems ist /var/www, und der Dateisystemtyp ist ext3.
ccs -h node01.example.com --addresource fs name=web_fs device=/dev/sdd2 mountpoint=/var/www fstype=ext3
ccs -h host --rmresource resourcetype [resource options]
5.10. Hinzufügen eines Cluster-Dienstes zum Cluster Link kopierenLink in die Zwischenablage kopiert!
- Fügen Sie mit den folgenden Befehl einen Dienst zum Cluster hinzu:
ccs -h host --addservice servicename [service options]Anmerkung
Der Name sollte aussagekräftig genug sein, um den Dienst klar von anderen Diensten im Cluster unterscheiden zu können.Wenn Sie einen Dienst zur Cluster-Konfiguration hinzufügen, können Sie die folgenden Parameter konfigurieren:autostart— Legt fest, ob der Dienst beim Start des Clusters automatisch gestartet werden soll. Verwenden Sie "1" zur Aktivierung und "0" zur Deaktivierung; standardmäßig ist er aktiviert.domain— Legt eine Ausfallsicherungs-Domain fest (falls erforderlich).exclusive— Legt eine Richtlinie fest, gemäß der dieser Dienst ausschließlich auf Knoten ausgeführt werden darf, auf denen kein anderer Dienst läuft.recovery— Legt eine Richtlinie zur Wiederherstellung für den Dienst fest. Mögliche Optionen sind "relocate" (Verlegung), "restart" (Neustart), "restart-disable" (Neustart-Deaktivierung) oder "disable" (Deaktivierung). Mit der "restart"-Wiederherstellungsrichtlinie versucht das System einen Neustart des ausgefallenen Dienstes, bevor es den Dienst auf einen anderen Knoten zu verlegen versucht. Mit der "relocate"-Wiederherstellungsrichtlinie versucht das System einen Neustart des Dienstes auf einem anderen Knoten. Mit der "disable"-Wiederherstellungsrichtlinie deaktiviert das System die Ressourcengruppe, falls eine der Komponenten ausfällt. Mit der "restart-disable"-Wiederherstellungsrichtlinie versucht das System einen Neustart des ausgefallenen Dienstes an demselben Ort. Scheitert dieser Versuch, wird der Dienst deaktiviert, statt auf einen anderen Host im Cluster verlegt zu werden.Falls Sie oder als Wiederherstellungsrichtlinie für diesen Dienst auswählen, können Sie die maximale Anzahl an Neustartfehlschlägen festlegen, bevor der Dienst verlegt oder deaktiviert wird, sowie die Zeitspanne in Sekunden, nach der ein Neustart nicht weiter versucht werden soll.
Um beispielsweise einen Dienst namensexample_apachezur Konfigurationsdatei auf dem Cluster-Knotennode-01.example.comhinzuzufügen, der die Ausfallsicherungs-Domainexample_pribenutzt und die Wiederherstellungsrichtlinierelocateverwendet, führen Sie den folgenden Befehl aus:ccs -h node-01.example.com --addservice example_apache domain=example_pri recovery=relocateBei der Konfiguration von Diensten für einen Cluster kann es hilfreich sein, eine Liste der Dienste zu sehen, die für Ihren Cluster zur Verfügung stehen, sowie die jeweiligen Optionen, die für diese Dienste verfügbar sind. Für mehr Informationen über die Verwendung vonccs, um eine Liste verfügbarer Dienste und Optionen anzuzeigen, werfen Sie einen Blick auf Abschnitt 5.11, »Anzeigen verfügbarer Cluster-Dienste und -Ressourcen«. - Fügen Sie mit dem folgenden Befehl Ressourcen zu diesem Dienst hinzu:
ccs -h host --addsubservice servicename subservice [service options]Bestücken Sie den Dienst abhängig von dem Ressourcentyp, den Sie verwenden möchten, entweder mit globalen oder dienstspezifischen Ressourcen. Um eine globale Ressource hinzuzufügen, verwenden Sie die--addsubserviceOption vonccs. Um beispielsweise die globale Dateisystemressource namensweb_fszu dem Dienst namensexample_apachein der Cluster-Konfigurationsdatei aufnode-01.example.comhinzuzufügen, führen Sie den folgenden Befehl aus:ccs -h node01.example.com --addsubservice example_apache fs ref=web_fsUm eine dienstspezifische Ressource zum Dienst hinzuzufügen, müssen Sie sämtliche Dienstoptionen angeben. Falls Sie beispielsweiseweb_fsnicht bereits als globalen Dienst definiert haben, können Sie es mithilfe des folgenden Befehls als dienstspezifische Ressource hinzufügen:ccs -h node01.example.com --addsubservice example_apache fs name=web_fs device=/dev/sdd2 mountpoint=/var/www fstype=ext3 - Um einen untergeordneten Dienst zu diesem Dienst hinzuzufügen, verwenden Sie zudem die
--addsubserviceOption desccsBefehls und geben dabei die Dienstoptionen an.Falls Sie einen Dienst innerhalb einer Baumstruktur von Abhängigkeiten hinzufügen müssen, verwenden Sie einen Doppelpunkt (":"), um Elemente voneinander zu trennen, und Klammern, um untergeordnete Dienste desselben Typs zu identifizieren. Das folgende Beispiel fügt einen drittennfsclientDienst als untergeordneten Dienst einesnfsclientDienstes hinzu, der selbst ein untergeordneter Dienst einesnfsclientDienstes ist, der selbst wiederum ein untergeordneter Dienst eines Dienstes namensservice_aist:ccs -h node01.example.com --addsubservice service_a nfsclient[1]:nfsclient[2]:nfsclientAnmerkung
Falls Sie eine Samba-Dienst Ressource hinzufügen, fügen Sie diese direkt zum Dienst hinzu, nicht als Kind einer anderen Ressource.Anmerkung
Wenn Sie einen Abhängigkeitenbaum für einen Cluster-Dienst konfigurieren, der eine IP-Adress-Ressource enthält, deren IP-Adresse geändert werden darf ("Floating"), müssen Sie die IP-Ressource als ersten Eintrag konfigurieren.
Anmerkung
/sbin/ip addr show Befehl auf einem Cluster-Knoten verwenden (anstelle des überholten ifconfig Befehls). Die folgende Ausgabe zeigt den /sbin/ip addr show Befehl auf einem Knoten ausgeführt auf dem ein Cluster-Dienst läuft:
1: lo: <LOOPBACK,UP> mtu 16436 qdisc noqueue
link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
inet 127.0.0.1/8 scope host lo
inet6 ::1/128 scope host
valid_lft forever preferred_lft forever
2: eth0: <BROADCAST,MULTICAST,UP> mtu 1356 qdisc pfifo_fast qlen 1000
link/ether 00:05:5d:9a:d8:91 brd ff:ff:ff:ff:ff:ff
inet 10.11.4.31/22 brd 10.11.7.255 scope global eth0
inet6 fe80::205:5dff:fe9a:d891/64 scope link
inet 10.11.4.240/22 scope global secondary eth0
valid_lft forever preferred_lft forever
ccs -h host --rmservice servicename
ccs -h host --rmsubservice servicename subservice [service options]
5.11. Anzeigen verfügbarer Cluster-Dienste und -Ressourcen Link kopierenLink in die Zwischenablage kopiert!
ccs Befehl verwenden, um eine Liste aller verfügbaren Ressourcen und Dienste für einen Cluster anzuzeigen. Auch können Sie mit dem ccs Befehl eine Liste aller Optionen anzeigen, die Sie für einen bestimmten Dienst- oder Ressourcentyp spezifizieren können.
--lsresourceopts ist ein Alias für --lsserviceopts):
ccs -h host --lsserviceopts
ccs -h host --lsresourceopts
node1 verfügbar sind.
[root@ask-03 ~]# ccs -h node1 --lsserviceopts
service - Defines a service (resource group).
ASEHAagent - Sybase ASE Failover Instance
SAPDatabase - SAP database resource agent
SAPInstance - SAP instance resource agent
apache - Defines an Apache web server
clusterfs - Defines a cluster file system mount.
fs - Defines a file system mount.
ip - This is an IP address.
lvm - LVM Failover script
mysql - Defines a MySQL database server
named - Defines an instance of named server
netfs - Defines an NFS/CIFS file system mount.
nfsclient - Defines an NFS client.
nfsexport - This defines an NFS export.
nfsserver - This defines an NFS server resource.
openldap - Defines an Open LDAP server
oracledb - Oracle 10g Failover Instance
orainstance - Oracle 10g Failover Instance
oralistener - Oracle 10g Listener Instance
postgres-8 - Defines a PostgreSQL server
samba - Dynamic smbd/nmbd resource agent
script - LSB-compliant init script as a clustered resource.
tomcat-6 - Defines a Tomcat server
vm - Defines a Virtual Machine
action - Overrides resource action timings for a resource instance.
ccs -h host --lsserviceopts service_type
vm Dienst verfügbar sind.
[root@ask-03 ~]# ccs -f node1 --lsserviceopts vm
vm - Defines a Virtual Machine
Required Options:
name: Name
Optional Options:
domain: Cluster failover Domain
autostart: Automatic start after quorum formation
exclusive: Exclusive resource group
recovery: Failure recovery policy
migration_mapping: memberhost:targethost,memberhost:targethost ..
use_virsh: If set to 1, vm.sh will use the virsh command to manage virtual machines instead of xm. This is required when using non-Xen virtual machines (e.g. qemu / KVM).
xmlfile: Full path to libvirt XML file describing the domain.
migrate: Migration type (live or pause, default = live).
path: Path to virtual machine configuration files.
snapshot: Path to the snapshot directory where the virtual machine image will be stored.
depend: Top-level service this depends on, in service:name format.
depend_mode: Service dependency mode (soft or hard).
max_restarts: Maximum restarts for this service.
restart_expire_time: Restart expiration time; amount of time before a restart is forgotten.
status_program: Additional status check program
hypervisor: Hypervisor
hypervisor_uri: Hypervisor URI (normally automatic).
migration_uri: Migration URI (normally automatic).
__independent_subtree: Treat this and all children as an independent subtree.
__enforce_timeouts: Consider a timeout for operations as fatal.
__max_failures: Maximum number of failures before returning a failure to a status check.
__failure_expire_time: Amount of time before a failure is forgotten.
__max_restarts: Maximum number restarts for an independent subtree before giving up.
__restart_expire_time: Amount of time before a failure is forgotten for an independent subtree.
5.12. Virtuelle Maschinen-Ressourcen Link kopierenLink in die Zwischenablage kopiert!
ccs Befehl die Option --addvm verwenden (statt der addservice Option). Dadurch wird gewährleistet, dass die vm Ressource direkt unter dem rm Konfigurationsknoten in der Cluster-Konfigurationsdatei definiert wird.
name und einen path Parameter. Der name Parameter sollte dem Namen der libvirt Domain entsprechen und der path Parameter sollte das Verzeichnis spezifizieren, in dem die virtuellen Maschinen-Definitionen gespeichert sind.
Anmerkung
path Parameter in der Cluster-Konfigurationsdatei ist eine Pfadspezifikation oder ein Verzeichnisname, kein Pfad zu einer einzelnen Datei.
/mnt/vm_defs, dann definiert der folgende Befehl eine virtuelle Maschine namens guest1:
# ccs -h node1.example.com --addvm guest1 path=/mnt/vm_defs
rm Konfigurationsknoten in der cluster.conf Datei hinzugefügt:
<vm name="guest1" path="/mnt/vm_defs"/>
5.13. Konfigurieren eines Quorumdatenträgers Link kopierenLink in die Zwischenablage kopiert!
Anmerkung
ccs -h host --setquorumd [quorumd options]
--setquorumd Option erstellen können, auf die Standardwerte zurücksetzt, wie in Abschnitt 5.1.5, »Befehle, die vorhergehende Einstellungen überschreiben« beschrieben.
/usr/share/cluster/cluster.rng sowie im kommentierten Schema unter /usr/share/doc/cman-X.Y.ZZ/cluster_conf.html.
| Parameter | Beschreibung |
|---|---|
| Die Häufigkeit von Lese-/Schreibzyklen in Sekunden. | |
Die Anzahl der Stimmen, die der Quorum-Daemon an cman mitteilt, wenn eine Punktzahl erreicht wird, die hoch genug ist. | |
| Die Anzahl von Zyklen, die ein Knoten auslassen muss, bevor dieser für "tot" erklärt wird. | |
Die Mindestpunktzahl eines Knotens, bei der dieser noch als "lebendig" betrachtet wird. Falls dieser Wert weggelassen oder auf 0 gesetzt wird, so wird die Standardfunktion floor((n+1)/2) verwendet, wobei n die Summe der Heuristik-Punktzahlen ist. Der Wert darf nie die Summe der Heuristik-Punktzahlen übersteigen, andernfalls wird der Quorumdatenträger nicht verfügbar sein. | |
| Das vom Quorum-Daemon verwendete Speichergerät. Das Gerät muss auf allen Knoten dasselbe sein. | |
Spezifiziert die Kennung des Quorumdatenträgers, die von dem mkqdisk Dienstprogramm erstellt wurde. Wenn dieses Feld eine Eintragung enthält, überschreibt die Kennung das Feld. Wird dieses Feld verwendet, liest der Quorum-Daemon die /proc/partitions, sucht nach qdisk-Signaturen auf jedem gefundenen Blockgerät und vergleicht die Kennung mit der angegebenen Kennung. Dies ist in Konfigurationen hilfreich, in denen sich der Name des Quorumgeräts von Knoten zu Knoten unterscheidet. |
ccs -h host --addheuristic [heuristic options]
| Parameter | Beschreibung |
|---|---|
Der Pfad zum Programm das verwendet wird, um festzustellen, ob diese Heuristik verfügbar ist. Dies kann alles sein, was durch /bin/sh-c ausgeführt werden kann. Ein Rückgabewert von 0 bedeutet Erfolg, alles andere bedeutet Misserfolg. Dieses Feld ist für den Gebrauch eines Quorumdatenträgers erforderlich. | |
| Die Zeitabstände (in Sekunden), in denen die Heuristik abgefragt wird. Das standardmäßige Intervall für jede Heuristik ist 2 Sekunden. | |
| Die Gewichtung dieser Heuristik. Seien Sie vorsichtig beim Festlegen der Gewichtung für Heuristiken. Die standardmäßige Gewichtung für jede Heuristik ist 1. | |
| Die Anzahl von aufeinander folgenden Fehlschlägen, bevor diese Heuristik für nicht verfügbar erklärt wird. |
ccs -h host --lsquorum
ccs -h host rmheuristic [heuristic options]
Anmerkung
qdiskd Daemon auf jedem Knoten neu gestartet wird.
5.14. Sonstige Cluster-Konfiguration Link kopierenLink in die Zwischenablage kopiert!
ccs Befehls, um Folgendes zu konfigurieren:
ccs Befehl auch dazu verwenden, erweiterte Cluster-Konfigurationsparameter einzustellen, wie z.B. totem Optionen, dlm Optionen, rm Optionen und cman Optionen. Für Informationen über das Erstellen dieser Parameter siehe die ccs(8) Handbuchseite und das kommentierte Cluster-Konfigurationsdatei Schema unter /usr/share/doc/cman-X.Y.ZZ/cluster_conf.html.
ccs -h host --lsmisc
5.14.1. Cluster-Konfigurationsversion Link kopierenLink in die Zwischenablage kopiert!
1 gesetzt, wenn Sie eine Cluster-Konfigurationsdatei erstellen, und wird jedes Mal automatisch erhöht, wenn Sie Ihre Cluster-Konfiguration ändern. Falls Sie jedoch einen abweichenden Wert angeben müssen, können Sie diesen mithilfe des folgenden Befehls angeben:
ccs -h host --setversion n
ccs -h host --getversion
ccs -h host --incversion
5.14.2. Multicast-Konfiguration Link kopierenLink in die Zwischenablage kopiert!
- Bei IPv4 — Die gebildete Adresse ist 239.192. plus die von der Red Hat Hochverfügbarkeits-Add-On-Software generierten unteren 16 Bits.
- Bei IPv6 — Die gebildete Adresse ist FF15:: plus die von der Red Hat Hochverfügbarkeits-Add-On-Software generierten unteren 16 Bits.
Anmerkung
cman für jeden Cluster generiert. Um die Cluster-ID anzusehen, führen Sie den cman_tool status Befehl auf einem Cluster-Knoten durch.
ccs -h host --setmulticast multicastaddress
--setmulticast Option erstellen können, auf die Standardwerte zurücksetzt, wie in Abschnitt 5.1.5, »Befehle, die vorhergehende Einstellungen überschreiben« beschrieben.
cman verwendet. Falls Sie eine Multicast-Adresse außerhalb dieses Bereichs verwenden, kann dies andernfalls zu unvorhergesehenem Verhalten führen. So könnte z.B. die Adresse 224.0.0.x (d.h. "Alle Hosts auf dem Netzwerk") unter Umständen von mancher Hardware nicht korrekt oder gar nicht geroutet werden.
ccs Befehl finden Sie in Abschnitt 6.2, »Starten und Stoppen eines Clusters«.
Anmerkung
--setmulticast Option von ccs, geben dabei aber keine Multicast-Adresse an:
ccs -h host --setmulticast
5.14.3. Konfiguration eines Zwei-Knoten-Clusters Link kopierenLink in die Zwischenablage kopiert!
ccs -h host --setcman two_node=1 expected_votes=1
--setcman Option erstellen können, auf die Standardwerte zurücksetzt, wie in Abschnitt 5.1.5, »Befehle, die vorhergehende Einstellungen überschreiben« beschrieben.
ccs --setcman Befehl zum Hinzufügen, Entfernen oder Ändern der two_node Option verwenden, müssen Sie den Cluster-Knoten neu starten, damit die Änderungen wirksam werden. Informationen über das Starten und Stoppen eines Clusters mit dem ccs Befehl finden Sie in Abschnitt 6.2, »Starten und Stoppen eines Clusters«.
5.14.4. Protokollierung Link kopierenLink in die Zwischenablage kopiert!
/var/log/cluster/daemon.log geschrieben.
ccs -h host --setlogging [logging options]
# ccs -h node1.example.com --setlogging debug=on
--setlogging Option erstellen können, auf die Standardwerte zurücksetzt, wie in Abschnitt 5.1.5, »Befehle, die vorhergehende Einstellungen überschreiben« beschrieben.
ccs -h host --addlogging [logging daemon options]
corosync und fenced Daemons.
# ccs -h node1.example.com --addlogging name=corosync debug=on
# ccs -h node1.example.com --addlogging name=fenced debug=on
ccs -h host --rmlogging name=clusterprocess
fenced Daemon.
ccs -h host --rmlogging name=fenced
cluster.conf(5) Handbuchseite.
5.14.5. Konfiguration des Redundant Ring Protocols Link kopierenLink in die Zwischenablage kopiert!
--addalt Option des ccs Befehls hinzu:
ccs -h host --addalt node_name alt_name
clusternet-node1-eth2 für den Cluster-Knoten clusternet-node1-eth1:
# ccs -h clusternet-node1-eth1 --addalt clusternet-node1-eth1 clusternet-node1-eth2
--setaltmulticast Option des ccs Befehls:
ccs -h host --setaltmulticast [alt_multicast_address] [alt_multicast_options].
cluster.conf Datei auf dem Knoten clusternet-node1-eth1 definiert ist, fest:
ccs -h clusternet-node1-eth1 --setaltmulticast 239.192.99.88 port=888 ttl=3
--setaltmulticast Option des ccs Befehls, geben aber keine Multicast-Adresse an. Beachten Sie, dass dieser Befehl alle anderen Eigenschaften, die Sie mit der --setmulticast Option erstellen können, auf die Standardwerte zurücksetzt, wie in Abschnitt 5.1.5, »Befehle, die vorhergehende Einstellungen überschreiben« beschrieben.
5.15. Verbreiten der Konfigurationsdatei auf den Cluster-Knoten Link kopierenLink in die Zwischenablage kopiert!
ccs -h host --sync --activate
ccs -h host --checkconf
ccs -f file -h host --setconf
ccs -f file --checkconf
Kapitel 6. Verwaltung des Red Hat Hochverfügbarkeits-Add-Ons mit ccs Link kopierenLink in die Zwischenablage kopiert!
ccs Befehls, der ab der Red Hat Enterprise Linux 6.1 Release unterstützt wird. Dieses Kapitel umfasst die folgenden Abschnitte:
6.1. Verwaltung von Cluster-Knoten Link kopierenLink in die Zwischenablage kopiert!
ccs Befehls durchgeführt werden:
6.1.1. Einen Knoten zum Verlassen oder Beitreten eines Clusters veranlassen Link kopierenLink in die Zwischenablage kopiert!
ccs Befehl dazu verwenden, um einen Knoten zum Verlassen eines Clusters zu veranlassen, indem Sie alle Cluster-Dienste auf diesem Knoten stoppen. Wenn Sie einen Knoten zum Verlassen eines Clusters veranlassen, löscht dies nicht die Cluster-Konfigurationsinformationen auf diesem Knoten. Vielmehr wird dadurch verhindert, dass dieser Knoten automatisch wieder dem Cluster beitritt, wenn dieser neu startet.
-h Option spezifizierten Knoten beendet werden.
ccs -h host --stop
--rmnode Option des ccs Befehls, wie in Abschnitt 5.4, »Erstellen eines Clusters« beschrieben.
-h Option spezifizierten Knoten gestartet werden.
ccs -h host --start
6.1.2. Ein Mitglied zu einem laufenden Cluster hinzufügen Link kopierenLink in die Zwischenablage kopiert!
6.2. Starten und Stoppen eines Clusters Link kopierenLink in die Zwischenablage kopiert!
ccs Befehl dazu verwenden, um einen Cluster zu stoppen, indem Sie mithilfe des folgenden Befehls die Cluster-Dienste auf allen Knoten im Cluster stoppen:
ccs -h host --stopall
ccs Befehl dazu verwenden, um einen derzeit nicht laufenden Cluster zu starten, indem Sie mithilfe des folgenden Befehls die Cluster-Dienste auf allen Knoten im Cluster starten:
ccs -h host --startall
6.3. Fehlerdiagnose und -behebung in einem Cluster Link kopierenLink in die Zwischenablage kopiert!
css Befehl vornehmen können.
ccs -h host --checkconf
ccs -f file --checkconf
Kapitel 7. Manuelle Konfiguration von Red Hat Hochverfügbarkeit Link kopierenLink in die Zwischenablage kopiert!
/etc/cluster/cluster.conf) und unter Verwendung von Befehlszeilen-Tools konfigurieren können. Das Kapitel zeigt Verfahren zum abschnittsweisen Erstellen einer Konfigurationsdatei, ausgehend von einer bereitgestellten Beispieldatei. Alternativ zur Bearbeitung der hier bereitgestellten Beispieldatei können Sie auch das Gerüst für die Konfigurationsdatei von der cluster.conf Handbuchseite kopieren, allerdings lassen sich die in den nachfolgenden Verfahren angegebenen Informationen dann nicht unbedingt auf diesen Fall übertragen. Es gibt verschiedene Wege zum Erstellen und Konfigurieren einer Cluster-Konfigurationsdatei; dieses Kapitel beschreibt die Verfahren zum abschnittsweisen Erstellen einer Konfigurationsdatei. Bedenken Sie zudem, dass dieses Kapitel nur ein Ausgangspunkt zur Entwicklung einer Konfigurationsdatei sein kann und Sie Ihre Konfigurationsdatei ggf. weiter auf Ihre Clustering-Bedürfnisse anpassen müssen.
Wichtig
Wichtig
cluster.conf Elemente und Parameter. Eine vollständige Liste samt Beschreibung aller cluster.conf Elemente und Parameter finden Sie im Cluster-Schema unter /usr/share/cluster/cluster.rng und das kommentierte Schema unter /usr/share/doc/cman-X.Y.ZZ/cluster_conf.html (zum Beispiel /usr/share/doc/cman-3.0.12/cluster_conf.html).
Wichtig
cman_tool version -r Befehl zum Verbreiten der Cluster-Konfiguration im gesamten Cluster ausgeführt wird. Für die Verwendung dieses Befehls ist es erforderlich, dass ricci läuft. Die Verwendung von ricci erfordert ein Passwort, wenn Sie zum ersten Mal von einem bestimmten Rechner aus mit ricci interagieren. Informationen über den ricci Dienst finden Sie in Abschnitt 2.13, »Überlegungen zu ricci«.
Anmerkung
7.1. Konfigurationsaufgaben Link kopierenLink in die Zwischenablage kopiert!
- Erstellen eines Clusters. Siehe Abschnitt 7.2, »Erstellen einer einfachen Cluster-Konfigurationsdatei«.
- Konfiguration des Fencings. Siehe Abschnitt 7.3, »Konfiguration von Fencing«.
- Konfiguration von Ausfallsicherungs-Domains. Siehe Abschnitt 7.4, »Konfiguration von Ausfallsicherungs-Domains«.
- Konfiguration von Hochverfügbarkeitsdiensten. Siehe Abschnitt 7.5, »Konfiguration von Hochverfügbarkeitsdiensten«.
- Überprüfen der Konfiguration. Siehe Abschnitt 7.9, »Überprüfen der Konfiguration«.
7.2. Erstellen einer einfachen Cluster-Konfigurationsdatei Link kopierenLink in die Zwischenablage kopiert!
/etc/cluster/cluster.conf) erstellen und das Hochverfügbarkeits-Add-On starten. Dieser Abschnitt soll Ihnen als Ausgangspunkt dienen und beschreibt, wie Sie das Gerüst für eine Cluster-Konfigurationsdatei erstellen, allerdings noch ohne Fencing, Ausfallsicherungs-Domains oder Hochverfügbarkeitsdiensten - mit diesen Aspekten der Konfigurationsdatei befassen sich spätere Abschnitte.
Wichtig
- Erstellen Sie auf jedem Knoten im Cluster eine
/etc/cluster/cluster.confDatei. Verwenden Sie dazu die Vorlage in Beispiel 7.1, »cluster.confBeispiel: Grundlegende Konfiguration«. - (Optional) Falls Sie einen Zwei-Knoten-Cluster ausführen, können Sie die folgende Zeile zur Konfigurationsdatei hinzufügen, damit es einem einzelnen Knoten möglich ist, das Quorum zu erhalten (z.B. falls der andere Knoten ausfällt):
<cman two_node="1" expected_votes="1"/>Wenn Sie dietwo_nodeOption aus dercluster.confDatei entfernen oder ihr hinzufügen, so müssen Sie den Cluster neu starten, damit diese Änderung wirksam wird, wenn Sie die Konfiguration aktualisieren. Für Informationen über das Aktualisieren einer Cluster-Konfiguration siehe Abschnitt 8.4, »Aktualisieren einer Konfiguration«. Ein Beispiel für das Spezifizieren dertwo_nodeOption finden Sie in Beispiel 7.2, »cluster.confBeispiel: Einfache Zwei-Knoten-Konfiguration«. - Geben Sie den Cluster-Namen und die Versionsnummer der Konfiguration mithilfe dieser
clusterParameter an:nameundconfig_version(siehe Beispiel 7.1, »cluster.confBeispiel: Grundlegende Konfiguration« oder Beispiel 7.2, »cluster.confBeispiel: Einfache Zwei-Knoten-Konfiguration«). - Geben Sie im
clusternodesAbschnitt den Knotennamen und die Knoten-ID eines jeden Knotens mithilfe dieserclusternodeParameter an:nameundnodeid. Der Knotenname darf maximal 255 Bytes lang sein. - Speichern Sie die
/etc/cluster/cluster.confab. - Überprüfen Sie die Datei anhand des Cluster-Schemas (
cluster.rng), indem Sie denccs_config_validateBefehl ausführen. Zum Beispiel:[root@example-01 ~]# ccs_config_validate Configuration validates - Übertragen Sie die Konfigurationsdatei nach
/etc/cluster/in jedem Cluster-Knoten. Beispielsweise könnten Sie die Datei mithilfe desscpBefehls an andere Cluster-Knoten übertragen.Anmerkung
Eine solche Übertragung der Cluster-Konfigurationsdatei ist nur beim erstmaligen Erstellen des Clusters notwendig. Sobald ein Cluster installiert wurde und läuft, kann die Cluster-Konfigurationsdatei mit dem Befehlcman_tool version -rübertragen werden. Es ist möglich, denscpBefehl zur Weitergabe einer aktualisierten Konfigurationsdatei zu verwenden, allerdings muss zur Verwendung desscpBefehls auf allen Knoten die Cluster-Software gestoppt werden. Zusätzlich sollten Sieccs_config_validateausführen, falls Sie eine aktualisierte Konfigurationsdatei mittelsscpübertragen.Anmerkung
Es sind zwar noch andere Elemente und Parameter in der Beispielkonfigurationsdatei enthalten (z.B.fenceundfencedevices), vorerst ist es jedoch nicht nötig, diese mit Informationen auszufüllen. An späterer Stelle in diesem Kapitel werden Verfahren erläutert, die Informationen zu diesen Elementen und Parametern liefern. - Starten Sie den Cluster. Führen Sie dazu auf jedem Cluster-Knoten den folgenden Befehl aus:
service cman startZum Beispiel:[root@example-01 ~]# service cman start Starting cluster: Checking Network Manager... [ OK ] Global setup... [ OK ] Loading kernel modules... [ OK ] Mounting configfs... [ OK ] Starting cman... [ OK ] Waiting for quorum... [ OK ] Starting fenced... [ OK ] Starting dlm_controld... [ OK ] Starting gfs_controld... [ OK ] Unfencing self... [ OK ] Joining fence domain... [ OK ] - Führen Sie auf einem beliebigen Cluster-Knoten
cman_tool nodesaus, um zu überprüfen, dass die Knoten nun als Mitglieder im Cluster fungieren (gekennzeichnet durch ein "M" in der Statusspalte "Sts"). Zum Beispiel:[root@example-01 ~]# cman_tool nodes Node Sts Inc Joined Name 1 M 548 2010-09-28 10:52:21 node-01.example.com 2 M 548 2010-09-28 10:52:21 node-02.example.com 3 M 544 2010-09-28 10:52:21 node-03.example.com - Läuft der Cluster, fahren Sie mit Abschnitt 7.3, »Konfiguration von Fencing« fort.
7.2.1. Einfache Konfigurationsbeispiele Link kopierenLink in die Zwischenablage kopiert!
cluster.conf Beispiel: Grundlegende Konfiguration« und Beispiel 7.2, »cluster.conf Beispiel: Einfache Zwei-Knoten-Konfiguration« (bei einem Zwei-Knoten-Cluster) liefern jeweils eine sehr einfache Beispiel-Cluster-Konfigurationsdatei als Ausgangspunkt. An späterer Stelle in diesem Kapitel werden Verfahren erläutert, die Informationen über die Konfiguration von Fencing und Hochverfügbarkeitsdiensten liefern.
Beispiel 7.1. cluster.conf Beispiel: Grundlegende Konfiguration
<cluster name="mycluster" config_version="2">
<clusternodes>
<clusternode name="node-01.example.com" nodeid="1">
<fence>
</fence>
</clusternode>
<clusternode name="node-02.example.com" nodeid="2">
<fence>
</fence>
</clusternode>
<clusternode name="node-03.example.com" nodeid="3">
<fence>
</fence>
</clusternode>
</clusternodes>
<fencedevices>
</fencedevices>
<rm>
</rm>
</cluster>
Beispiel 7.2. cluster.conf Beispiel: Einfache Zwei-Knoten-Konfiguration
<cluster name="mycluster" config_version="2">
<cman two_node="1" expected_votes="1"/>
<clusternodes>
<clusternode name="node-01.example.com" nodeid="1">
<fence>
</fence>
</clusternode>
<clusternode name="node-02.example.com" nodeid="2">
<fence>
</fence>
</clusternode>
</clusternodes>
<fencedevices>
</fencedevices>
<rm>
</rm>
</cluster>
7.2.2. Der consensus Wert für totem in einen Zwei-Knoten-Cluster Link kopierenLink in die Zwischenablage kopiert!
consensus Wert im totem Tag in der cluster.conf Datei weglassen, so dass der consensus Wert automatisch ermittelt wird. Beim automatischen Ermitteln des consensus Wertes gelten die folgenden Regeln:
- Bei zwei oder weniger Knoten lautet der
consensusWert (Token * 0.2), mit einer Höchstgrenze von 2000 ms und einer Mindestgrenze von 200 ms. - Bei drei oder mehr Knoten lautet der
consensusWert (Token + 2000 ms)
cman Dienstprogramm Ihren Consensus-Timeout auf diese Weise bestimmen lassen, müssen Sie später, falls Sie von zwei auf drei oder mehr Knoten aufstocken, Ihren Cluster neu starten, da der Consensus-Timeout dann auf den höheren Wert geändert werden muss, entsprechend dem Token-Timeout.
cluster.conf wie folgt:
<totem token="X" consensus="X + 2000" />
cman die Anzahl der physischen Knoten maßgeblich ist, nicht das Vorhandensein der two_node=1 Direktive in der cluster.conf Datei.
7.3. Konfiguration von Fencing Link kopierenLink in die Zwischenablage kopiert!
Anmerkung
cluster.conf folgendermaßen:
- Geben Sie im
fencedevicesAbschnitt jedes Fencing-Geräts mittels einesfencedeviceElements und den von dem Fencing-Gerät abhängigen Parametern an. Beispiel 7.3, »APC Fencing-Gerät zucluster.confhinzugefügt« zeigt ein Beispiel für eine Konfigurationsdatei, zu der ein APC-Fencing-Gerät hinzugefügt wurde. - Geben Sie im
clusternodesAbschnitt innerhalb desfenceElements für jedenclusternodeAbschnitt die Fencing-Methode für den Knoten an. Spezifizieren Sie den Fencing-Methodennamen mithilfe desmethodParametersname. Geben Sie das Fencing-Gerät für jede Fencing-Methode an, und zwar mithilfe desdeviceElements und dessen Parametern,nameund Fencing-Gerät-spezifischen Parametern. Beispiel 7.4, »Fencing-Methoden zucluster.confhinzugefügt« zeigt ein Beispiel für eine Fencing-Methode mit einem Fencing-Gerät für jeden Knoten im Cluster. - Fügen Sie für andere Fencing-Methoden als das Power-Fencing (also SAN/Speicher-Fencing) im
clusternodesAbschnitt einenunfenceAbschnitt ein. Dadurch wird sichergestellt, dass ein abgegrenzter Knoten erst wieder re-aktiviert wird, nachdem er neu gestartet wurde. Wenn Sie ein Gerät konfigurieren, dass Unfencing erfordert, muss der Cluster zunächst gestoppt werden, dann muss die vollständige Konfiguration einschließlich Geräten und Unfencing hinzugefügt werden, bevor der Cluster gestartet wird. Weitere Informationen über das Aufheben der Knotenabgrenzung finden Sie auf derfence_node(8) Handbuchseite.DerunfenceAbschnitt enthält im Gegensatz zumfenceAbschnitt keinemethodAbschnitte. Er enthält direktedeviceReferenzen, welche die entsprechenden Geräteabschnitte fürfencewiderspiegeln, sowie zusätzlich die explizite Aktion (action) "on" oder "enable". Dasselbefencedevicewird sowohl von denfenceals auch vonunfencedeviceZeilen referenziert, und es sollten dieselben Parameter für den Knoten wiederholt werden.Indem Sie denactionParameter auf "on" oder "enable" setzen, wird dieser Knoten nach einem Neustart aktiviert. Beispiel 7.4, »Fencing-Methoden zucluster.confhinzugefügt« und Beispiel 7.5, »cluster.conf: Mehrere Fencing-Methoden pro Knoten« enthalten Beispiele für dieunfenceElemente und Parameter.Für weitere Informationen überunfencewerfen Sie einen Blick auf diefence_nodeHandbuchseite. - Aktualisieren Sie den
config_versionParameter, indem Sie dessen Wert erhöhen (ändern Sie ihn z.B. vonconfig_version="2"aufconfig_version="3"). - Speichern Sie die
/etc/cluster/cluster.confab. - (Optional) Überprüfen Sie die aktualisierte Datei anhand des Cluster-Schemas (
cluster.rng), indem Sie denccs_config_validateBefehl ausführen. Zum Beispiel:[root@example-01 ~]# ccs_config_validate Configuration validates - Führen Sie den
cman_tool version -rBefehl aus, um die Konfiguration an die übrigen Cluster-Knoten zu verbreiten. Dadurch wird auch eine zusätzliche Validierung ausgeführt. Es ist notwendig, dassricciauf jedem Cluster-Knoten ausgeführt wird, um die aktualisierten Cluster Konfigurationsdaten verbreiten zu können. - Vergewissern Sie sich, dass die aktualisierte Konfigurationsdatei übertragen wurde.
- Fahren Sie mit Abschnitt 7.4, »Konfiguration von Ausfallsicherungs-Domains« fort.
fenced die nächste Methode usw., bis er schließlich eine Methode findet, die funktioniert.
fenced führt den Fenching-Agent einmal für jede Fencing-Gerätezeile aus; alle müssen erfolgreich verlaufen, damit das Fencing insgesamt erfolgreich ist.
fence_apc). Des Weiteren finden Sie Informationen über Fencing-Parameter in Anhang A, Parameter der Fencing-Geräte, den Fencing-Agenten in /usr/sbin/, das Cluster-Schema unter /usr/share/cluster/cluster.rng, und das kommentierte Schema unter /usr/share/doc/cman-X.Y.ZZ/cluster_conf.html (z.B. /usr/share/doc/cman-3.0.12/cluster_conf.html).
7.3.1. Fencing-Konfigurationsbeispiele Link kopierenLink in die Zwischenablage kopiert!
Anmerkung
Beispiel 7.3. APC Fencing-Gerät zu cluster.conf hinzugefügt
<cluster name="mycluster" config_version="3">
<clusternodes>
<clusternode name="node-01.example.com" nodeid="1">
<fence>
</fence>
</clusternode>
<clusternode name="node-02.example.com" nodeid="2">
<fence>
</fence>
</clusternode>
<clusternode name="node-03.example.com" nodeid="3">
<fence>
</fence>
</clusternode>
</clusternodes>
<fencedevices>
<fencedevice agent="fence_apc" ipaddr="apc_ip_example" login="login_example" name="apc" passwd="password_example"/>
</fencedevices>
<rm>
</rm>
</cluster>
fencedevice) zum fencedevices Element hinzugefügt und spezifiziert den Fencing-Agenten (agent) als fence_apc, die IP-Adresse (ipaddr) als apc_ip_example, das Login (login) als login_example, den Namen des Fencing-Geräts (name) als apc und das Passwort (passwd) als password_example.
Beispiel 7.4. Fencing-Methoden zu cluster.conf hinzugefügt
<cluster name="mycluster" config_version="3">
<clusternodes>
<clusternode name="node-01.example.com" nodeid="1">
<fence>
<method name="APC">
<device name="apc" port="1"/>
</method>
</fence>
</clusternode>
<clusternode name="node-02.example.com" nodeid="2">
<fence>
<method name="APC">
<device name="apc" port="2"/>
</method>
</fence>
</clusternode>
<clusternode name="node-03.example.com" nodeid="3">
<fence>
<method name="APC">
<device name="apc" port="3"/>
</method>
</fence>
</clusternode>
</clusternodes>
<fencedevices>
<fencedevice agent="fence_apc" ipaddr="apc_ip_example" login="login_example" name="apc" passwd="password_example"/>
</fencedevices>
<rm>
</rm>
</cluster>
method) zu jedem Knoten hinzugefügt. Der Name der Fencing-Methode (name) für jeden Knoten ist APC. Das Gerät (device) für die Fencing-Methode in jedem Knoten spezifiziert den Namen (name) als apc und eine eindeutige APC Switch Netzanschlussnummer (port) für jeden Knoten. Zum Beispiel lautet die Netzanschlussnummer für node-01.example.com 1 (port="1"). Der Gerätename für jeden Knoten (device name="apc") verweist auf das Fencing-Gerät anhand des Namens (name) apc in dieser Zeile des fencedevices Elements: fencedevice agent="fence_apc" ipaddr="apc_ip_example" login="login_example" name="apc" passwd="password_example".
Beispiel 7.5. cluster.conf: Mehrere Fencing-Methoden pro Knoten
<cluster name="mycluster" config_version="3">
<clusternodes>
<clusternode name="node-01.example.com" nodeid="1">
<fence>
<method name="APC">
<device name="apc" port="1"/>
</method>
<method name="SAN">
<device name="sanswitch1" port="11"/>
</method>
</fence>
<unfence>
<device name="sanswitch1" port="11" action="on"/>
</unfence>
</clusternode>
<clusternode name="node-02.example.com" nodeid="2">
<fence>
<method name="APC">
<device name="apc" port="2"/>
</method>
<method name="SAN">
<device name="sanswitch1" port="12"/>
</method>
</fence>
<unfence>
<device name="sanswitch1" port="12" action="on"/>
</unfence>
</clusternode>
<clusternode name="node-03.example.com" nodeid="3">
<fence>
<method name="APC">
<device name="apc" port="3"/>
</method>
<method name="SAN">
<device name="sanswitch1" port="13"/>
</method>
</fence>
<unfence>
<device name="sanswitch1" port="13" action="on"/>
</unfence>
</clusternode>
</clusternodes>
<fencedevices>
<fencedevice agent="fence_apc" ipaddr="apc_ip_example" login="login_example" name="apc" passwd="password_example"/>
<fencedevice agent="fence_sanbox2" ipaddr="san_ip_example"
login="login_example" name="sanswitch1" passwd="password_example"/>
</fencedevices>
<rm>
</rm>
</cluster>
Beispiel 7.6. cluster.conf: Fencing, Multi-Pathing mehrerer Ports
<cluster name="mycluster" config_version="3">
<clusternodes>
<clusternode name="node-01.example.com" nodeid="1">
<fence>
<method name="SAN-multi">
<device name="sanswitch1" port="11"/>
<device name="sanswitch2" port="11"/>
</method>
</fence>
<unfence>
<device name="sanswitch1" port="11" action="on"/>
<device name="sanswitch2" port="11" action="on"/>
</unfence>
</clusternode>
<clusternode name="node-02.example.com" nodeid="2">
<fence>
<method name="SAN-multi">
<device name="sanswitch1" port="12"/>
<device name="sanswitch2" port="12"/>
</method>
</fence>
<unfence>
<device name="sanswitch1" port="12" action="on"/>
<device name="sanswitch2" port="12" action="on"/>
</unfence>
</clusternode>
<clusternode name="node-03.example.com" nodeid="3">
<fence>
<method name="SAN-multi">
<device name="sanswitch1" port="13"/>
<device name="sanswitch2" port="13"/>
</method>
</fence>
<unfence>
<device name="sanswitch1" port="13" action="on"/>
<device name="sanswitch2" port="13" action="on"/>
</unfence>
</clusternode>
</clusternodes>
<fencedevices>
<fencedevice agent="fence_sanbox2" ipaddr="san_ip_example"
login="login_example" name="sanswitch1" passwd="password_example"/>
<fencedevice agent="fence_sanbox2" ipaddr="san_ip_example"
login="login_example" name="sanswitch2" passwd="password_example"/>
</fencedevices>
<rm>
</rm>
</cluster>
Beispiel 7.7. cluster.conf: Fencing von Knoten mit Dual-Stromversorgung
<cluster name="mycluster" config_version="3">
<clusternodes>
<clusternode name="node-01.example.com" nodeid="1">
<fence>
<method name="APC-dual">
<device name="apc1" port="1"action="off"/>
<device name="apc2" port="1"action="off"/>
<device name="apc1" port="1"action="on"/>
<device name="apc2" port="1"action="on"/>
</method>
</fence>
</clusternode>
<clusternode name="node-02.example.com" nodeid="2">
<fence>
<method name="APC-dual">
<device name="apc1" port="2"action="off"/>
<device name="apc2" port="2"action="off"/>
<device name="apc1" port="2"action="on"/>
<device name="apc2" port="2"action="on"/>
</method>
</fence>
</clusternode>
<clusternode name="node-03.example.com" nodeid="3">
<fence>
<method name="APC-dual">
<device name="apc1" port="3"action="off"/>
<device name="apc2" port="3"action="off"/>
<device name="apc1" port="3"action="on"/>
<device name="apc2" port="3"action="on"/>
</method>
</fence>
</clusternode>
</clusternodes>
<fencedevices>
<fencedevice agent="fence_apc" ipaddr="apc_ip_example" login="login_example" name="apc1" passwd="password_example"/>
<fencedevice agent="fence_apc" ipaddr="apc_ip_example" login="login_example" name="apc2" passwd="password_example"/>
</fencedevices>
<rm>
</rm>
</cluster>
7.4. Konfiguration von Ausfallsicherungs-Domains Link kopierenLink in die Zwischenablage kopiert!
- Uneingeschränkt — Ermöglicht Ihnen, eine Teilmenge bevorzugter Mitglieder zu spezifizieren, doch der dieser Domain zugewiesene Cluster-Dienst kann auf jedem verfügbaren Mitglied ausgeführt werden.
- Eingeschränkt — Ermöglicht Ihnen, die Mitglieder einzuschränken, auf denen ein bestimmter Cluster-Dienst laufen darf. Falls keines der Mitglieder in einer eingeschränkten Ausfallsicherungs-Domain verfügbar ist, kann der Cluster-Dienst nicht gestartet werden (weder manuell noch durch die Cluster-Software).
- Ungeordnet — Wenn ein Cluster-Dienst einer ungeordneten Aufallsicherungs-Domain zugewiesen ist, wird das Mitglied, auf dem der Cluster-Dienst ausgeführt wird, ohne Berücksichtigung von Prioritäten aus den verfügbaren Mitgliedern der Ausfallsicherungs-Domain ausgewählt.
- Geordnet — Ermöglicht Ihnen, eine Prioritätsreihenfolge für die Mitglieder einer Ausfallsicherungs-Domain anzugeben. Geordnete Ausfallsicherungs-Domains wählen den Knoten mit der niedrigsten Priorität zuerst. Das heißt, dass der Knoten in der Ausfallsicherungs-Domain mit der Priorität "1" die höchste Priorität hat und demnach der bevorzugte Knoten in einer Ausfallsicherungs-Domain ist. Der nächste bevorzugte Knoten wäre also der Knoten mit der nächsthöheren Priorität, usw.
- Failback — Ermöglicht Ihnen festzulegen, ob ein Dienst in der Ausfallsicherungs-Domain auf den Knoten zurückwechseln soll, auf dem er vor dessen Ausfall ursprünglich ausgeführt wurde. Das Konfigurieren dieser Charakteristik ist hilfreich in Situationen, in denen ein Knoten häufig ausfällt und Teil einer geordneten Ausfallsicherungs-Domain ist. In diesem Fall würde ein Dienst, der auf dem bevorzugten Knoten in einer Ausfallsicherungs-Domain läuft, möglicherweise wiederholt zwischen dem bevorzugten Knoten und einem anderen Knoten hin- und her wechseln, was beträchtliche Leistungseinbußen zur Folge hätte.
Anmerkung
Die Failback-Charakteristik greift nur, wenn die geordnete Ausfallsicherung konfiguriert ist.
Anmerkung
Anmerkung
httpd) einzurichten, müssen Sie auf allen Cluster-Mitgliedern, die diesen Cluster-Dienst ausführen sollen, eine identische Konfiguration einrichten. Anstatt den gesamten Cluster zur Ausführung dieses Cluster-Dienstes einzurichten, müssen Sie somit nur die Mitglieder der beschränkten Ausfallsicherungs-Domain, die Sie mit diesem Cluster-Dienst verknüpfen möchten, entsprechend einrichten.
Anmerkung
- Öffnen Sie
/etc/cluster/cluster.confauf einem beliebigen Knoten im Cluster. - Fügen Sie das folgende Gerüst innerhalb des
rmElements für jede zu verwendende Ausfallsicherungs-Domain hinzu:<failoverdomains> <failoverdomain name="" nofailback="" ordered="" restricted=""> <failoverdomainnode name="" priority=""/> <failoverdomainnode name="" priority=""/> <failoverdomainnode name="" priority=""/> </failoverdomain> </failoverdomains>Anmerkung
Die Anzahl derfailoverdomainnodeParameter hängt von der Anzahl der Knoten in der Ausfallsicherungs-Domain ab. Das oben gezeigte Gerüst für denfailoverdomainAbschnitt enthält dreifailoverdomainnodeElemente (ohne spezifizierte Knotennamen), was bedeutet, dass es drei Knoten in der Ausfallsicherungs-Domain gibt. - Geben Sie im
failoverdomainAbschnitt die Werte für die Elemente und Parameter an. Beschreibungen der Elemente und Parameter finden Sie im failoverdomain Abschnitt des kommentierten Cluster-Schemas. Das kommentierte Cluster-Schema ist in jedem Cluster-Knoten verfügbar unter/usr/share/doc/cman-X.Y.ZZ/cluster_conf.html(z.B./usr/share/doc/cman-3.0.12/cluster_conf.html). Ein Beispiel für einenfailoverdomainsAbschnitt finden Sie in Beispiel 7.8, »Eine Ausfallsicherungs-Domain zucluster.confhinzugefügt«. - Aktualisieren Sie den
config_versionParameter, indem Sie dessen Wert erhöhen (ändern Sie ihn z.B. vonconfig_version="2"aufconfig_version="3"). - Speichern Sie die
/etc/cluster/cluster.confab. - (Optional) Überprüfen Sie die Datei anhand des Cluster-Schemas (
cluster.rng), indem Sie denccs_config_validateBefehl ausführen. Zum Beispiel:[root@example-01 ~]# ccs_config_validate Configuration validates - Führen Sie den
cman_tool version -rBefehl durch, um die Konfiguration an die übrigen Cluster-Knoten weiterzugeben. - Fahren Sie mit Abschnitt 7.5, »Konfiguration von Hochverfügbarkeitsdiensten« fort.
cluster.conf hinzugefügt« zeigt ein Beispiel für eine Konfiguration mit einer geordneten, uneingeschränkten Ausfallsicherungs-Domain.
Beispiel 7.8. Eine Ausfallsicherungs-Domain zu cluster.conf hinzugefügt
<cluster name="mycluster" config_version="3">
<clusternodes>
<clusternode name="node-01.example.com" nodeid="1">
<fence>
<method name="APC">
<device name="apc" port="1"/>
</method>
</fence>
</clusternode>
<clusternode name="node-02.example.com" nodeid="2">
<fence>
<method name="APC">
<device name="apc" port="2"/>
</method>
</fence>
</clusternode>
<clusternode name="node-03.example.com" nodeid="3">
<fence>
<method name="APC">
<device name="apc" port="3"/>
</method>
</fence>
</clusternode>
</clusternodes>
<fencedevices>
<fencedevice agent="fence_apc" ipaddr="apc_ip_example" login="login_example" name="apc" passwd="password_example"/>
</fencedevices>
<rm>
<failoverdomains>
<failoverdomain name="example_pri" nofailback="0" ordered="1" restricted="0">
<failoverdomainnode name="node-01.example.com" priority="1"/>
<failoverdomainnode name="node-02.example.com" priority="2"/>
<failoverdomainnode name="node-03.example.com" priority="3"/>
</failoverdomain>
</failoverdomains>
</rm>
</cluster>
failoverdomains Abschnitt enthält einen failoverdomain Abschnitt für jede Ausfallsicherungs-Domain im Cluster. Dieses Beispiel hat eine Ausfallsicherungs-Domain. In der failoverdomain Zeile ist der Name (name) als example_pri spezifiziert. Zusätzlich wird kein Failback (failback="0"), eine geordnete Ausfallsicherung (ordered="1") und die Ausfallsicherungs-Domain als uneingeschränkt (restricted="0") spezifiziert.
7.5. Konfiguration von Hochverfügbarkeitsdiensten Link kopierenLink in die Zwischenablage kopiert!
/etc/cluster/cluster.conf zum Hinzufügen von Ressourcen und Diensten konfigurieren.
Wichtig
7.5.1. Hinzufügen von Cluster-Ressourcen Link kopierenLink in die Zwischenablage kopiert!
- Global — Ressourcen, die für jeden Dienst im Cluster zur Verfügung stehen. Diese werden im
resourcesAbschnitt der Konfigurationsdatei konfiguriert (innerhalb desrmElements). - Dienstspezifisch — Ressourcen, die nur für einen einzigen Dienst zur Verfügung stehen. Diese werden im jeweiligen
serviceAbschnitt der Konfigurationsdatei konfiguriert (innerhalb desrmElements).
- Öffnen Sie
/etc/cluster/cluster.confauf einem beliebigen Knoten im Cluster. - Fügen Sie einen
resourcesAbschnitt innerhalb desrmElements hinzu. Zum Beispiel:<rm> <resources> </resources> </rm> - Füllen Sie es mit Ressourcen abhängig von den Diensten, die Sie erstellen möchten, aus. Sehen Sie nachfolgend beispielsweise die Ressourcen, die in einem Apache-Dienst verwendet werden. Dazu gehören eine Dateisystem-Ressource (
fs), eine IP-Ressource (ip) und eine Apache-Ressource (apache).<rm> <resources> <fs name="web_fs" device="/dev/sdd2" mountpoint="/var/www" fstype="ext3"/> <ip address="127.143.131.100" monitor_link="yes" sleeptime="10"/> <apache config_file="conf/httpd.conf" name="example_server" server_root="/etc/httpd" shutdown_wait="0"/> </resources> </rm>Beispiel 7.9, »cluster.confDatei mit hinzugefügten Ressourcen« zeigt ein Beispiel einercluster.confDatei mit hinzugefügtemresourcesAbschnitt. - Aktualisieren Sie den
config_versionParameter, indem Sie dessen Wert erhöhen (ändern Sie ihn z.B. vonconfig_version="2"aufconfig_version="3"). - Speichern Sie die
/etc/cluster/cluster.confab. - (Optional) Überprüfen Sie die Datei anhand des Cluster-Schemas (
cluster.rng), indem Sie denccs_config_validateBefehl ausführen. Zum Beispiel:[root@example-01 ~]# ccs_config_validate Configuration validates - Führen Sie den
cman_tool version -rBefehl durch, um die Konfiguration an die übrigen Cluster-Knoten weiterzugeben. - Vergewissern Sie sich, dass die aktualisierte Konfigurationsdatei übertragen wurde.
- Fahren Sie mit Abschnitt 7.5.2, »Hinzufügen eines Cluster-Dienstes zum Cluster« fort.
Beispiel 7.9. cluster.conf Datei mit hinzugefügten Ressourcen
<cluster name="mycluster" config_version="3">
<clusternodes>
<clusternode name="node-01.example.com" nodeid="1">
<fence>
<method name="APC">
<device name="apc" port="1"/>
</method>
</fence>
</clusternode>
<clusternode name="node-02.example.com" nodeid="2">
<fence>
<method name="APC">
<device name="apc" port="2"/>
</method>
</fence>
</clusternode>
<clusternode name="node-03.example.com" nodeid="3">
<fence>
<method name="APC">
<device name="apc" port="3"/>
</method>
</fence>
</clusternode>
</clusternodes>
<fencedevices>
<fencedevice agent="fence_apc" ipaddr="apc_ip_example" login="login_example" name="apc" passwd="password_example"/>
</fencedevices>
<rm>
<failoverdomains>
<failoverdomain name="example_pri" nofailback="0" ordered="1" restricted="0">
<failoverdomainnode name="node-01.example.com" priority="1"/>
<failoverdomainnode name="node-02.example.com" priority="2"/>
<failoverdomainnode name="node-03.example.com" priority="3"/>
</failoverdomain>
</failoverdomains>
<resources>
<fs name="web_fs" device="/dev/sdd2" mountpoint="/var/www" fstype="ext3"/>
<ip address="127.143.131.100" monitor_link="yes" sleeptime="10"/>
<apache config_file="conf/httpd.conf" name="example_server" server_root="/etc/httpd" shutdown_wait="0"/>
</resources>
</rm>
</cluster>
7.5.2. Hinzufügen eines Cluster-Dienstes zum Cluster Link kopierenLink in die Zwischenablage kopiert!
Anmerkung
- Öffnen Sie
/etc/cluster/cluster.confauf einem beliebigen Knoten im Cluster. - Fügen Sie für jeden Dienst einen
serviceAbschnitt innerhalb desrmElements hinzu. Zum Beispiel:<rm> <service autostart="1" domain="" exclusive="0" name="" recovery="restart"> </service> </rm> - Konfigurieren Sie die folgenden Parameter im
serviceElement:autostart— Legt fest, ob der Dienst beim Start des Clusters automatisch gestartet werden soll. Verwenden Sie '1' zur Aktivierung und '0' zur Deaktivierung; der Standard ist aktiviert.domain— Legt eine Ausfallsicherungs-Domain fest (falls erforderlich).exclusive— Legt eine Richtlinie fest, gemäß der dieser Dienst ausschließlich auf Knoten ausgeführt werden darf, auf denen kein anderer Dienst läuft.recovery— Legt eine Richtlinie zur Wiederherstellung des Dienstes fest. Die Optionen sind relocate, restart, disable oder restart-disable.
- Abhängig von der Art der Ressource, die Sie verwenden möchten, füllen Sie den Dienst mit globalen oder dienstspezifischen Ressourcen aus.Sehen Sie hier beispielsweise einen Apache-Dienst, der globale Ressourcen verwendet:
<rm> <resources> <fs name="web_fs" device="/dev/sdd2" mountpoint="/var/www" fstype="ext3"/> <ip address="127.143.131.100" monitor_link="yes" sleeptime="10"/> <apache config_file="conf/httpd.conf" name="example_server" server_root="/etc/httpd" shutdown_wait="0"/> </resources> <service autostart="1" domain="example_pri" exclusive="0" name="example_apache" recovery="relocate"> <fs ref="web_fs"/> <ip ref="127.143.131.100"/> <apache ref="example_server"/> </service> </rm>Und sehen Sie hier beispielsweise einen Apache-Dienst, der dienstspezifische Ressourcen verwendet:<rm> <service autostart="0" domain="example_pri" exclusive="0" name="example_apache2" recovery="relocate"> <fs name="web_fs2" device="/dev/sdd3" mountpoint="/var/www2" fstype="ext3"/> <ip address="127.143.131.101" monitor_link="yes" sleeptime="10"/> <apache config_file="conf/httpd.conf" name="example_server2" server_root="/etc/httpd" shutdown_wait="0"/> </service> </rm>Beispiel 7.10, »cluster.confmit hinzugefügten Diensten: Einer verwendet globale Ressourcen, der andere verwendet dienstspezifische Ressourcen« zeigt ein Beispiel einercluster.confDatei mit zwei Diensten:example_apache— Dieser Dienst verwendet die globalen Ressourcenweb_fs,127.143.131.100undexample_server.example_apache2— Dieser Dienst verwendet die dienstspezifischen Ressourcenweb_fs2,127.143.131.101undexample_server2.
- Aktualisieren Sie den
config_versionParameter, indem Sie dessen Wert erhöhen (ändern Sie ihn z.B. vonconfig_version="2"aufconfig_version="3"). - Speichern Sie die
/etc/cluster/cluster.confab. - (Optional) Überprüfen Sie die aktualisierte Datei anhand des Cluster-Schemas (
cluster.rng), indem Sie denccs_config_validateBefehl ausführen. Zum Beispiel:[root@example-01 ~]# ccs_config_validate Configuration validates - Führen Sie den
cman_tool version -rBefehl durch, um die Konfiguration an die übrigen Cluster-Knoten weiterzugeben. - Vergewissern Sie sich, dass die aktualisierte Konfigurationsdatei übertragen wurde.
- Fahren Sie mit Abschnitt 7.9, »Überprüfen der Konfiguration« fort.
Beispiel 7.10. cluster.conf mit hinzugefügten Diensten: Einer verwendet globale Ressourcen, der andere verwendet dienstspezifische Ressourcen
<cluster name="mycluster" config_version="3">
<clusternodes>
<clusternode name="node-01.example.com" nodeid="1">
<fence>
<method name="APC">
<device name="apc" port="1"/>
</method>
</fence>
</clusternode>
<clusternode name="node-02.example.com" nodeid="2">
<fence>
<method name="APC">
<device name="apc" port="2"/>
</method>
</fence>
</clusternode>
<clusternode name="node-03.example.com" nodeid="3">
<fence>
<method name="APC">
<device name="apc" port="3"/>
</method>
</fence>
</clusternode>
</clusternodes>
<fencedevices>
<fencedevice agent="fence_apc" ipaddr="apc_ip_example" login="login_example" name="apc" passwd="password_example"/>
</fencedevices>
<rm>
<failoverdomains>
<failoverdomain name="example_pri" nofailback="0" ordered="1" restricted="0">
<failoverdomainnode name="node-01.example.com" priority="1"/>
<failoverdomainnode name="node-02.example.com" priority="2"/>
<failoverdomainnode name="node-03.example.com" priority="3"/>
</failoverdomain>
</failoverdomains>
<resources>
<fs name="web_fs" device="/dev/sdd2" mountpoint="/var/www" fstype="ext3"/>
<ip address="127.143.131.100" monitor_link="yes" sleeptime="10"/>
<apache config_file="conf/httpd.conf" name="example_server" server_root="/etc/httpd" shutdown_wait="0"/>
</resources>
<service autostart="1" domain="example_pri" exclusive="0" name="example_apache" recovery="relocate">
<fs ref="web_fs"/>
<ip ref="127.143.131.100"/>
<apache ref="example_server"/>
</service>
<service autostart="0" domain="example_pri" exclusive="0" name="example_apache2" recovery="relocate">
<fs name="web_fs2" device="/dev/sdd3" mountpoint="/var/www2" fstype="ext3"/>
<ip address="127.143.131.101" monitor_link="yes" sleeptime="10"/>
<apache config_file="conf/httpd.conf" name="example_server2" server_root="/etc/httpd" shutdown_wait="0"/>
</service>
</rm>
</cluster>
7.6. Konfiguration von Redundant Ring Protocol Link kopierenLink in die Zwischenablage kopiert!
- Legen Sie nicht mehr als zwei Ringe an.
- Jeder Ring muss das gleiche Protokoll verwenden; Sie dürfen nicht IPv4 und IPv6 mischen.
- Wenn nötig, können Sie manuell eine Multicast-Adresse für den zweiten Ring angeben. Wenn Sie eine Multicast-Adresse für den zweiten Ring angeben, muss entweder die alternative Multicast-Adresse oder der alternative Port anders sein als die Multicast-Adresse für den ersten Ring. Wenn Sie keine alternative Multicast-Adresse angeben haben, wird das System automatisch eine andere Multicast-Adresse für den zweiten Ring verwenden.Wenn Sie einen alternativen Port angeben, müssen die Port-Nummern des ersten Rings und des zweiten Rings um mindestens zwei unterschiedlich sein, da das System selbst port und port-1 verwendet, um Operationen durchzuführen.
- Verwenden Sie nicht zwei unterschiedliche Schnittstellen auf demselben Subnetz.
- Im Allgemeinen ist es ist ratsam, das Redundant Ring Protocol auf zwei unterschiedlichen Netzwerkkarten und zwei verschiedenen Switches zu konfigurieren, für den Fall, dass eine Netzwerkkarte oder ein Switch ausfällt.
- Verwenden Sie nicht den
ifdownoder denservice network stopBefehl, um einen Netzwerkausfall zu simulieren. Dies zerstört den ganzen Cluster und erfordert, dass Sie alle Knoten im Cluster neu starten müssen, um ihn wiederherzustellen. - Verwenden Sie nicht den
NetworkManager, da es denifdownBefehl durchführt, wenn das Kabel herausgezogen wird. - Wenn ein Knoten einer Netzwerkkarte ausfällt, wird der gesamte Ring als ausgefallen markiert.
- Manuelles Eingreifen ist nicht erforderlich, um einen ausgefallenen Ring wiederherzustellen. Zur Wiederherstellung brauchen Sie nur den Grund für den Ausfall, wie z.B. eine ausgefallene Netzwerkkarte oder Switch, zu beheben.
altname Komponente zum clusternode Abschnitt der cluster.conf Konfigurationsdatei hinzu. Wenn Sie altname festlegen, müssen Sie einen name Parameter definieren, um einen zweiten Host-Namen oder die IP-Adresse des Knotens anzugeben.
clusternet-node1-eth2 als der alternative Name für den Cluster-Knoten clusternet-node1-eth1 definiert.
<cluster name="mycluster" config_version="3" >
<logging debug="on"/>
<clusternodes>
<clusternode name="clusternet-node1-eth1" votes="1" nodeid="1">
<fence>
<method name="single">
<device name="xvm" domain="clusternet-node1"/>
</method>
</fence>
<altname name="clusternet-node1-eth2"/>
</clusternode>
altname Abschnitt innerhalb des clusternode Block ist nicht positionsabhängig. Es kann vor oder nach dem fence Abschnitt kommen. Definieren Sie nicht mehr als eine altname Komponente für einen Cluster-Knoten, andernfalls kann das System nicht gestartet werden.
altmulticast Komponente im cman Abschnitt der cluster.conf Konfigurationsdatei definieren. Die altmulticast Komponente akzeptiert einen addr, einen port, und einen ttl Parameter.
cman Abschnitt einer Cluster-Konfigurationsdatei, die eine Multicast-Adresse, Port und TTL für den zweiten Ring festlegt.
<cman>
<multicast addr="239.192.99.73" port="666" ttl="2"/>
<altmulticast addr="239.192.99.88" port="888" ttl="3"/>
</cman>
7.7. Konfiguration von Debugging-Optionen Link kopierenLink in die Zwischenablage kopiert!
/etc/cluster/cluster.conf Datei hinzu. Standardmäßig wird Protokollausgabe in die Datei /var/log/cluster/daemon.log geschrieben.
<cluster config_version="7" name="rh6cluster">
<logging debug="on"/>
...
</cluster>
/etc/cluster/cluster.conf Datei hinzu. Die Konfiguration für einzelne Daemons setzt dabei die globalen Einstellungen außer Kraft.
<cluster config_version="7" name="rh6cluster">
...
<logging>
<!-- turning on per-subsystem debug logging -->
<logging_daemon name="corosync" debug="on" />
<logging_daemon name="fenced" debug="on" />
<logging_daemon name="qdiskd" debug="on" />
<logging_daemon name="rgmanager" debug="on" />
<logging_daemon name="dlm_controld" debug="on" />
<logging_daemon name="gfs_controld" debug="on" />
</logging>
...
</cluster>
cluster.conf(5) Handbuchseite.
7.8. Konfiguration von nfsexport- und nfsserver-Ressourcen Link kopierenLink in die Zwischenablage kopiert!
nfsexport- oder nfsserver-Ressource in Erwägung gezogen werden sollten.
nfsexport-Ressourcen-Agent funktioniert mit NFSv2- und NFSv3-Clients. Um nfsexport zu verwenden, müssen Sie Folgendes tun:
- Vergewissern Sie sich, dass
nfsundnfslockbeim Systemstart aktiviert sind. - Fügen Sie auf allen Cluster-Knoten
RPCNFSDARGS="-N 4"zur/etc/sysconfig/nfsDatei hinzu. - Fügen Sie
nfslock="1"zurserviceKomponente in dercluster.confDatei hinzu. - Strukturieren Sie Ihren Dienst wie folgt:
<service nfslock="1" ... > <fs name="myfs" ... > <nfsexport name="exports"> <nfsclient ref="client1" /> <nfsclient ref="client2" /> ... </nfsexport> </fs> <ip address="10.1.1.2" /> ... </service>
nfsserver Ressourcen-Agent funktioniert mit NFSv3- und NFSv4-Clients. Um nfsserver zu verwenden, müssen Sie Folgendes tun:
- Vergewissern Sie sich, dass
nfsundnfslockbeim Systemstart deaktiviert sind. - Vergewissern Sie sich, dass
nfslock="1"nicht für den Dienst eingestellt ist. - Strukturieren Sie Ihren Dienst wie folgt:
<service ... > <fs name="myfs" ... > <nfsserver name="server"> <nfsclient ref="client1" /> <nfsclient ref="client2" /> ... </nfsexport> </fs> <ip address="10.1.1.2" /> ... </service>
nfsserver Ressourcen-Agents mit NFSv3 und NFSv4 konfigurieren, müssen Sie die folgenden Einschränkungen berücksichtigen:
- Konfigurieren Sie nur eine
nfsserverRessource pro Cluster. Falls Sie mehr benötigen, müssen Sie eingeschränkte Ausfallsicherungs-Domains verwenden um sicherzustellen, dass die zwei fraglichen Dienste nie auf demselben Rechner starten können. - Referenzieren Sie eine global konfigurierte
nfsserverRessource in maximal einem Dienst. - Mischen Sie in demselben Cluster keine alten NFS-Dienste mit dem neuen
nfsserver. Ältere NFS-Dienste erfordern laufende NFS-Daemons,nfsservererfordert dagegen, dass diese Daemons gestoppt sind, wenn der Dienst gestartet wird. - Wenn Sie mehrere Dateisysteme verwenden, können Sie keine Vererbung für die Exporte nutzen, daher können Sie
nfsclientRessourcen in Diensten mit mehreren Dateisystemen nur begrenzt wiederverwenden. Sie können jedoch explizit Ziel- und Pfadparameter für eine beliebige Anzahl vonnfsclientsdefinieren.
7.9. Überprüfen der Konfiguration Link kopierenLink in die Zwischenablage kopiert!
- Führen Sie auf jedem Knoten einen Neustart der Cluster-Software aus. Dadurch wird sichergestellt, dass auch solche Konfigurationsänderungen, die nur beim Start überprüft werden, für die aktuelle Konfiguration berücksichtigt werden. Sie können die Cluster-Software durch Ausführen von
service cman restartneu starten. Zum Beispiel:[root@example-01 ~]# service cman restart Stopping cluster: Leaving fence domain... [ OK ] Stopping gfs_controld... [ OK ] Stopping dlm_controld... [ OK ] Stopping fenced... [ OK ] Stopping cman... [ OK ] Waiting for corosync to shutdown: [ OK ] Unloading kernel modules... [ OK ] Unmounting configfs... [ OK ] Starting cluster: Checking Network Manager... [ OK ] Global setup... [ OK ] Loading kernel modules... [ OK ] Mounting configfs... [ OK ] Starting cman... [ OK ] Waiting for quorum... [ OK ] Starting fenced... [ OK ] Starting dlm_controld... [ OK ] Starting gfs_controld... [ OK ] Unfencing self... [ OK ] Joining fence domain... [ OK ] - Führen Sie
service clvmd startaus, falls CLVM zum Erstellen geclusterter Datenträger verwendet wird. Zum Beispiel:[root@example-01 ~]# service clvmd start Activating VGs: [ OK ] - Führen Sie
service gfs2 startaus, falls Sie Red Hat GFS2 verwenden. Zum Beispiel:[root@example-01 ~]# service gfs2 start Mounting GFS2 filesystem (/mnt/gfsA): [ OK ] Mounting GFS2 filesystem (/mnt/gfsB): [ OK ] - Führen Sie
service rgmanager startaus, falls Sie Hochverfügbarkeitsdienste verwenden. Zum Beispiel:[root@example-01 ~]# service rgmanager start Starting Cluster Service Manager: [ OK ] - Führen Sie auf einem beliebigen Cluster-Knoten
cman_tool nodesaus, um zu überprüfen, dass die Knoten nun als Mitglieder im Cluster fungieren (gekennzeichnet durch ein "M" in der Statusspalte "Sts"). Zum Beispiel:[root@example-01 ~]# cman_tool nodes Node Sts Inc Joined Name 1 M 548 2010-09-28 10:52:21 node-01.example.com 2 M 548 2010-09-28 10:52:21 node-02.example.com 3 M 544 2010-09-28 10:52:21 node-03.example.com - Überprüfen Sie auf einem beliebigen Knoten mithilfe des
clustatDienstprogramms, ob die Hochverfügbarkeitsdienste wie erwartet funktionieren. Zusätzlich zeigtclustatden Status der Cluster-Knoten. Zum Beispiel:[root@example-01 ~]#clustat Cluster Status for mycluster @ Wed Nov 17 05:40:00 2010 Member Status: Quorate Member Name ID Status ------ ---- ---- ------ node-03.example.com 3 Online, rgmanager node-02.example.com 2 Online, rgmanager node-01.example.com 1 Online, Local, rgmanager Service Name Owner (Last) State ------- ---- ----- ------ ----- service:example_apache node-01.example.com started service:example_apache2 (none) disabled - Wenn der Cluster wie erwartet funktioniert, sind Sie mit dem Erstellen der Konfigurationsdatei fertig. Sie können den Cluster mit den in Kapitel 8, Verwaltung des Red Hat Hochverfügbarkeits-Add-Ons mit Befehlszeilen-Tools beschriebenen Befehlszeilen-Tools verwalten.
Kapitel 8. Verwaltung des Red Hat Hochverfügbarkeits-Add-Ons mit Befehlszeilen-Tools Link kopierenLink in die Zwischenablage kopiert!
Wichtig
Wichtig
cluster.conf Elemente und Parameter. Eine vollständige Liste samt Beschreibung aller cluster.conf Elemente und Parameter finden Sie im Cluster-Schema unter /usr/share/cluster/cluster.rng und das kommentierte Schema unter /usr/share/doc/cman-X.Y.ZZ/cluster_conf.html (zum Beispiel /usr/share/doc/cman-3.0.12/cluster_conf.html).
Wichtig
cman_tool version -r Befehl zum Verbreiten der Cluster-Konfiguration im gesamten Cluster ausgeführt wird. Für die Verwendung dieses Befehls ist es erforderlich, dass ricci läuft.
Anmerkung
8.1. Starten und Stoppen der Cluster-Software Link kopierenLink in die Zwischenablage kopiert!
8.1.1. Starten der Cluster-Software Link kopierenLink in die Zwischenablage kopiert!
service cman startservice clvmd start, falls CLVM zum Erstellen geclusterter Datenträger verwendet wirdservice gfs2 start, falls Sie Red Hat GFS2 verwendenservice rgmanager start, falls Sie Hochverfügbarkeitsdienste verwenden (rgmanager)
[root@example-01 ~]# service cman start
Starting cluster:
Checking Network Manager... [ OK ]
Global setup... [ OK ]
Loading kernel modules... [ OK ]
Mounting configfs... [ OK ]
Starting cman... [ OK ]
Waiting for quorum... [ OK ]
Starting fenced... [ OK ]
Starting dlm_controld... [ OK ]
Starting gfs_controld... [ OK ]
Unfencing self... [ OK ]
Joining fence domain... [ OK ]
[root@example-01 ~]# service clvmd start
Starting clvmd: [ OK ]
Activating VG(s): 2 logical volume(s) in volume group "vg_example" now active
[ OK ]
[root@example-01 ~]# service gfs2 start
Mounting GFS2 filesystem (/mnt/gfsA): [ OK ]
Mounting GFS2 filesystem (/mnt/gfsB): [ OK ]
[root@example-01 ~]# service rgmanager start
Starting Cluster Service Manager: [ OK ]
[root@example-01 ~]#
8.1.2. Stoppen der Cluster-Software Link kopierenLink in die Zwischenablage kopiert!
service rgmanager stop, falls Sie Hochverfügbarkeitsdienste verwenden (rgmanager)service gfs2 stop, falls Sie Red Hat GFS2 verwendenumount -at gfs2, falls Sie Red Hat GFS2 in Verbindung mit demrgmanagerverwenden, um sicherzustellen, dass jegliche GFS2-Dateien, die während des Starts vonrgmanagereingehängt wurden (jedoch beim Beenden nicht ausgehängt wurden) ebenfalls ausgehängt werden.service clvmd stop, falls CLVM zum Erstellen geclusterter Datenträger verwendet wirdservice cman stop
[root@example-01 ~]# service rgmanager stop
Stopping Cluster Service Manager: [ OK ]
[root@example-01 ~]# service gfs2 stop
Unmounting GFS2 filesystem (/mnt/gfsA): [ OK ]
Unmounting GFS2 filesystem (/mnt/gfsB): [ OK ]
[root@example-01 ~]# umount -at gfs2
[root@example-01 ~]# service clvmd stop
Signaling clvmd to exit [ OK ]
clvmd terminated [ OK ]
[root@example-01 ~]# service cman stop
Stopping cluster:
Leaving fence domain... [ OK ]
Stopping gfs_controld... [ OK ]
Stopping dlm_controld... [ OK ]
Stopping fenced... [ OK ]
Stopping cman... [ OK ]
Waiting for corosync to shutdown: [ OK ]
Unloading kernel modules... [ OK ]
Unmounting configfs... [ OK ]
[root@example-01 ~]#
Anmerkung
8.2. Hinzufügen oder Löschen eines Knotens Link kopierenLink in die Zwischenablage kopiert!
8.2.1. Einen Knoten vom Cluster löschen Link kopierenLink in die Zwischenablage kopiert!
Wichtig
- Verwenden Sie auf einem beliebigen Knoten das
clusvcadmDienstprogramm, um alle Hochverfügbarkeitsdienste, die auf dem zu löschenden Knoten laufen, entweder zu verlegen, zu migrieren oder zu stoppen. Weitere Informationen zur Verwendung vonclusvcadmfinden Sie in Abschnitt 8.3, »Verwaltung von Hochverfügbarkeitsdiensten«. - Halten Sie auf dem zu löschenden Knoten die Cluster-Software gemäß Abschnitt 8.1.2, »Stoppen der Cluster-Software« an. Zum Beispiel:
[root@example-01 ~]# service rgmanager stop Stopping Cluster Service Manager: [ OK ] [root@example-01 ~]# service gfs2 stop Unmounting GFS2 filesystem (/mnt/gfsA): [ OK ] Unmounting GFS2 filesystem (/mnt/gfsB): [ OK ] [root@example-01 ~]# service clvmd stop Signaling clvmd to exit [ OK ] clvmd terminated [ OK ] [root@example-01 ~]# service cman stop Stopping cluster: Leaving fence domain... [ OK ] Stopping gfs_controld... [ OK ] Stopping dlm_controld... [ OK ] Stopping fenced... [ OK ] Stopping cman... [ OK ] Waiting for corosync to shutdown: [ OK ] Unloading kernel modules... [ OK ] Unmounting configfs... [ OK ] [root@example-01 ~]# - Bearbeiten Sie auf einem beliebigen Knoten im Cluster die
/etc/cluster/cluster.conf, um denclusternodeAbschnitt des zu löschenden Knotens zu entfernen. Falls z.B. node-03.example.com in Beispiel 8.1, »Drei-Knoten-Cluster-Konfiguration« entfernt werden soll, löschen Sie denclusternodeAbschnitt für diesen Knoten. Falls der Cluster durch das Löschen eines Knotens nunmehr nur noch zwei Knoten umfasst, können Sie die folgende Zeile zur Konfigurationsdatei hinzufügen, damit ein einzelner Knoten das Quorum erhalten kann (falls z.B. ein Knoten ausfällt):<cman two_node="1" expected_votes="1"/>Siehe Abschnitt 8.2.3, »Beispiele für Drei-Knoten- und Zwei-Knoten-Konfigurationen« für einen Vergleich einer Drei-Knoten- und einer Zwei-Knoten-Konfiguration. - Aktualisieren Sie den
config_versionParameter, indem Sie dessen Wert erhöhen (ändern Sie ihn z.B. vonconfig_version="2"aufconfig_version="3"). - Speichern Sie die
/etc/cluster/cluster.confab. - (Optional) Überprüfen Sie die aktualisierte Datei anhand des Cluster-Schemas (
cluster.rng), indem Sie denccs_config_validateBefehl ausführen. Zum Beispiel:[root@example-01 ~]# ccs_config_validate Configuration validates - Führen Sie den
cman_tool version -rBefehl durch, um die Konfiguration an die übrigen Cluster-Knoten weiterzugeben. - Vergewissern Sie sich, dass die aktualisierte Konfigurationsdatei übertragen wurde.
- Falls der Cluster durch das Löschen eines Knotens nunmehr nur noch zwei Knoten umfasst, müssen Sie die Cluster-Software wie folgt neu starten:
- Halten Sie auf jedem Knoten die Cluster-Software gemäß Abschnitt 8.1.2, »Stoppen der Cluster-Software« an. Zum Beispiel:
[root@example-01 ~]# service rgmanager stop Stopping Cluster Service Manager: [ OK ] [root@example-01 ~]# service gfs2 stop Unmounting GFS2 filesystem (/mnt/gfsA): [ OK ] Unmounting GFS2 filesystem (/mnt/gfsB): [ OK ] [root@example-01 ~]# service clvmd stop Signaling clvmd to exit [ OK ] clvmd terminated [ OK ] [root@example-01 ~]# service cman stop Stopping cluster: Leaving fence domain... [ OK ] Stopping gfs_controld... [ OK ] Stopping dlm_controld... [ OK ] Stopping fenced... [ OK ] Stopping cman... [ OK ] Waiting for corosync to shutdown: [ OK ] Unloading kernel modules... [ OK ] Unmounting configfs... [ OK ] [root@example-01 ~]# - Starten Sie auf jedem Knoten die Cluster-Software gemäß Abschnitt 8.1.1, »Starten der Cluster-Software«. Zum Beispiel:
[root@example-01 ~]# service cman start Starting cluster: Checking Network Manager... [ OK ] Global setup... [ OK ] Loading kernel modules... [ OK ] Mounting configfs... [ OK ] Starting cman... [ OK ] Waiting for quorum... [ OK ] Starting fenced... [ OK ] Starting dlm_controld... [ OK ] Starting gfs_controld... [ OK ] Unfencing self... [ OK ] Joining fence domain... [ OK ] [root@example-01 ~]# service clvmd start Starting clvmd: [ OK ] Activating VG(s): 2 logical volume(s) in volume group "vg_example" now active [ OK ] [root@example-01 ~]# service gfs2 start Mounting GFS2 filesystem (/mnt/gfsA): [ OK ] Mounting GFS2 filesystem (/mnt/gfsB): [ OK ] [root@example-01 ~]# service rgmanager start Starting Cluster Service Manager: [ OK ] [root@example-01 ~]# - Führen Sie auf einem beliebigen Cluster-Knoten
cman_tool nodesaus, um zu überprüfen, dass die Knoten nun als Mitglieder im Cluster fungieren (gekennzeichnet durch ein "M" in der Statusspalte "Sts"). Zum Beispiel:[root@example-01 ~]# cman_tool nodes Node Sts Inc Joined Name 1 M 548 2010-09-28 10:52:21 node-01.example.com 2 M 548 2010-09-28 10:52:21 node-02.example.com - Überprüfen Sie auf einem beliebigen Knoten mithilfe des
clustatDienstprogramms, ob die Hochverfügbarkeitsdienste wie erwartet funktionieren. Zusätzlich zeigtclustatden Status der Cluster-Knoten. Zum Beispiel:[root@example-01 ~]#clustat Cluster Status for mycluster @ Wed Nov 17 05:40:00 2010 Member Status: Quorate Member Name ID Status ------ ---- ---- ------ node-02.example.com 2 Online, rgmanager node-01.example.com 1 Online, Local, rgmanager Service Name Owner (Last) State ------- ---- ----- ------ ----- service:example_apache node-01.example.com started service:example_apache2 (none) disabled
8.2.2. Einen Knoten zum Cluster hinzufügen Link kopierenLink in die Zwischenablage kopiert!
- Bearbeiten Sie auf einem beliebigen Knoten im Cluster die
/etc/cluster/cluster.confDatei, um einenclusternodeAbschnitt für den neuen Knoten hinzuzufügen. Um in Beispiel 8.2, »Zwei-Knoten-Cluster-Konfiguration« beispielsweise node-03.example.com hinzuzufügen, fügen Sie einenclusternodeAbschnitt für diesen Knoten ein. Falls der Cluster durch das Hinzufügen eines Knotens von vormals zwei Knoten auf nun drei oder mehr Knoten anwächst, entfernen Sie die folgendencmanParameter aus der/etc/cluster/cluster.conf:cman two_node="1"expected_votes="1"
Siehe Abschnitt 8.2.3, »Beispiele für Drei-Knoten- und Zwei-Knoten-Konfigurationen« für einen Vergleich einer Drei-Knoten- und einer Zwei-Knoten-Konfiguration. - Aktualisieren Sie den
config_versionParameter, indem Sie dessen Wert erhöhen (ändern Sie ihn z.B. vonconfig_version="2"aufconfig_version="3"). - Speichern Sie die
/etc/cluster/cluster.confab. - (Optional) Überprüfen Sie die aktualisierte Datei anhand des Cluster-Schemas (
cluster.rng), indem Sie denccs_config_validateBefehl ausführen. Zum Beispiel:[root@example-01 ~]# ccs_config_validate Configuration validates - Führen Sie den
cman_tool version -rBefehl durch, um die Konfiguration an die übrigen Cluster-Knoten weiterzugeben. - Vergewissern Sie sich, dass die aktualisierte Konfigurationsdatei übertragen wurde.
- Übertragen Sie die aktualisierte Konfigurationsdatei nach
/etc/cluster/in jedem Knoten, der zum Cluster hinzugefügt werden soll. Verwenden Sie beispielsweise denscpBefehl, um die aktualisierte Konfigurationsdatei auf jeden hinzuzufügenden Knoten zu übertragen. - Falls die Anzahl der Knoten im Cluster durch das Hinzufügen von Knoten nunmehr mehr als zwei Knoten umfasst, müssen Sie die Cluster-Software in den vorhandenen Cluster-Knoten wie folgt neu starten:
- Halten Sie auf jedem Knoten die Cluster-Software gemäß Abschnitt 8.1.2, »Stoppen der Cluster-Software« an. Zum Beispiel:
[root@example-01 ~]# service rgmanager stop Stopping Cluster Service Manager: [ OK ] [root@example-01 ~]# service gfs2 stop Unmounting GFS2 filesystem (/mnt/gfsA): [ OK ] Unmounting GFS2 filesystem (/mnt/gfsB): [ OK ] [root@example-01 ~]# service clvmd stop Signaling clvmd to exit [ OK ] clvmd terminated [ OK ] [root@example-01 ~]# service cman stop Stopping cluster: Leaving fence domain... [ OK ] Stopping gfs_controld... [ OK ] Stopping dlm_controld... [ OK ] Stopping fenced... [ OK ] Stopping cman... [ OK ] Waiting for corosync to shutdown: [ OK ] Unloading kernel modules... [ OK ] Unmounting configfs... [ OK ] [root@example-01 ~]# - Starten Sie auf jedem Knoten die Cluster-Software gemäß Abschnitt 8.1.1, »Starten der Cluster-Software«. Zum Beispiel:
[root@example-01 ~]# service cman start Starting cluster: Checking Network Manager... [ OK ] Global setup... [ OK ] Loading kernel modules... [ OK ] Mounting configfs... [ OK ] Starting cman... [ OK ] Waiting for quorum... [ OK ] Starting fenced... [ OK ] Starting dlm_controld... [ OK ] Starting gfs_controld... [ OK ] Unfencing self... [ OK ] Joining fence domain... [ OK ] [root@example-01 ~]# service clvmd start Starting clvmd: [ OK ] Activating VG(s): 2 logical volume(s) in volume group "vg_example" now active [ OK ] [root@example-01 ~]# service gfs2 start Mounting GFS2 filesystem (/mnt/gfsA): [ OK ] Mounting GFS2 filesystem (/mnt/gfsB): [ OK ] [root@example-01 ~]# service rgmanager start Starting Cluster Service Manager: [ OK ] [root@example-01 ~]#
- Starten Sie auf jedem Knoten, der zum Cluster hinzugefügt werden soll, die Cluster-Software gemäß Abschnitt 8.1.1, »Starten der Cluster-Software«. Zum Beispiel:
[root@example-01 ~]# service cman start Starting cluster: Checking Network Manager... [ OK ] Global setup... [ OK ] Loading kernel modules... [ OK ] Mounting configfs... [ OK ] Starting cman... [ OK ] Waiting for quorum... [ OK ] Starting fenced... [ OK ] Starting dlm_controld... [ OK ] Starting gfs_controld... [ OK ] Unfencing self... [ OK ] Joining fence domain... [ OK ] [root@example-01 ~]# service clvmd start Starting clvmd: [ OK ] Activating VG(s): 2 logical volume(s) in volume group "vg_example" now active [ OK ] [root@example-01 ~]# service gfs2 start Mounting GFS2 filesystem (/mnt/gfsA): [ OK ] Mounting GFS2 filesystem (/mnt/gfsB): [ OK ] [root@example-01 ~]# service rgmanager start Starting Cluster Service Manager: [ OK ] [root@example-01 ~]# - Überprüfen Sie auf einem beliebigen Knoten mithilfe des
clustatDienstprogramms, dass jeder hinzugefügte Knoten läuft und Teil des Clusters ist. Zum Beispiel:[root@example-01 ~]#clustat Cluster Status for mycluster @ Wed Nov 17 05:40:00 2010 Member Status: Quorate Member Name ID Status ------ ---- ---- ------ node-03.example.com 3 Online, rgmanager node-02.example.com 2 Online, rgmanager node-01.example.com 1 Online, Local, rgmanager Service Name Owner (Last) State ------- ---- ----- ------ ----- service:example_apache node-01.example.com started service:example_apache2 (none) disabledInformationen über die Verwendung vonclustatfinden Sie in Abschnitt 8.3, »Verwaltung von Hochverfügbarkeitsdiensten«.Zusätzlich können Siecman_tool statusdazu verwenden, um die Knotenstimmen, Knotenanzahl und Quorum-Zahl zu überprüfen. Zum Beispiel:[root@example-01 ~]#cman_tool status Version: 6.2.0 Config Version: 19 Cluster Name: mycluster Cluster Id: 3794 Cluster Member: Yes Cluster Generation: 548 Membership state: Cluster-Member Nodes: 3 Expected votes: 3 Total votes: 3 Node votes: 1 Quorum: 2 Active subsystems: 9 Flags: Ports Bound: 0 11 177 Node name: node-01.example.com Node ID: 3 Multicast addresses: 239.192.14.224 Node addresses: 10.15.90.58 - Sie können auf einem beliebigen Knoten das
clusvcadmDienstprogramm verwenden, um einen laufenden Dienst auf den neu beigetretenen Knoten zu verlegen oder zu migrieren. Sie können auch eventuell deaktivierte Dienste aktivieren. Informationen über die Verwendung vonclusvcadmfinden Sie in Abschnitt 8.3, »Verwaltung von Hochverfügbarkeitsdiensten«
8.2.3. Beispiele für Drei-Knoten- und Zwei-Knoten-Konfigurationen Link kopierenLink in die Zwischenablage kopiert!
Beispiel 8.1. Drei-Knoten-Cluster-Konfiguration
<cluster name="mycluster" config_version="3">
<cman/>
<clusternodes>
<clusternode name="node-01.example.com" nodeid="1">
<fence>
<method name="APC">
<device name="apc" port="1"/>
</method>
</fence>
</clusternode>
<clusternode name="node-02.example.com" nodeid="2">
<fence>
<method name="APC">
<device name="apc" port="2"/>
</method>
</fence>
</clusternode>
<clusternode name="node-03.example.com" nodeid="3">
<fence>
<method name="APC">
<device name="apc" port="3"/>
</method>
</fence>
</clusternode>
</clusternodes>
<fencedevices>
<fencedevice agent="fence_apc" ipaddr="apc_ip_example" login="login_example" name="apc" passwd="password_example"/>
</fencedevices>
<rm>
<failoverdomains>
<failoverdomain name="example_pri" nofailback="0" ordered="1" restricted="0">
<failoverdomainnode name="node-01.example.com" priority="1"/>
<failoverdomainnode name="node-02.example.com" priority="2"/>
<failoverdomainnode name="node-03.example.com" priority="3"/>
</failoverdomain>
</failoverdomains>
<resources>
<ip address="127.143.131.100" monitor_link="yes" sleeptime="10">
<fs name="web_fs" device="/dev/sdd2" mountpoint="/var/www" fstype="ext3">
<apache config_file="conf/httpd.conf" name="example_server" server_root="/etc/httpd" shutdown_wait="0"/>
</fs>
</ip>
</resources>
<service autostart="0" domain="example_pri" exclusive="0" name="example_apache" recovery="relocate">
<fs ref="web_fs"/>
<ip ref="127.143.131.100"/>
<apache ref="example_server"/>
</service>
<service autostart="0" domain="example_pri" exclusive="0" name="example_apache2" recovery="relocate">
<fs name="web_fs2" device="/dev/sdd3" mountpoint="/var/www" fstype="ext3"/>
<ip address="127.143.131.101" monitor_link="yes" sleeptime="10"/>
<apache config_file="conf/httpd.conf" name="example_server2" server_root="/etc/httpd" shutdown_wait="0"/>
</service>
</rm>
</cluster>
Beispiel 8.2. Zwei-Knoten-Cluster-Konfiguration
<cluster name="mycluster" config_version="3">
<cman two_node="1" expected_votes="1"/>
<clusternodes>
<clusternode name="node-01.example.com" nodeid="1">
<fence>
<method name="APC">
<device name="apc" port="1"/>
</method>
</fence>
</clusternode>
<clusternode name="node-02.example.com" nodeid="2">
<fence>
<method name="APC">
<device name="apc" port="2"/>
</method>
</fence>
</clusternodes>
<fencedevices>
<fencedevice agent="fence_apc" ipaddr="apc_ip_example" login="login_example" name="apc" passwd="password_example"/>
</fencedevices>
<rm>
<failoverdomains>
<failoverdomain name="example_pri" nofailback="0" ordered="1" restricted="0">
<failoverdomainnode name="node-01.example.com" priority="1"/>
<failoverdomainnode name="node-02.example.com" priority="2"/>
</failoverdomain>
</failoverdomains>
<resources>
<ip address="127.143.131.100" monitor_link="yes" sleeptime="10">
<fs name="web_fs" device="/dev/sdd2" mountpoint="/var/www" fstype="ext3">
<apache config_file="conf/httpd.conf" name="example_server" server_root="/etc/httpd" shutdown_wait="0"/>
</fs>
</ip>
</resources>
<service autostart="0" domain="example_pri" exclusive="0" name="example_apache" recovery="relocate">
<fs ref="web_fs"/>
<ip ref="127.143.131.100"/>
<apache ref="example_server"/>
</service>
<service autostart="0" domain="example_pri" exclusive="0" name="example_apache2" recovery="relocate">
<fs name="web_fs2" device="/dev/sdd3" mountpoint="/var/www" fstype="ext3"/>
<ip address="127.143.131.101" monitor_link="yes" sleeptime="10"/>
<apache config_file="conf/httpd.conf" name="example_server2" server_root="/etc/httpd" shutdown_wait="0"/>
</service>
</rm>
</cluster>
8.3. Verwaltung von Hochverfügbarkeitsdiensten Link kopierenLink in die Zwischenablage kopiert!
clustat, und der Cluster User Service Administration Utility, clusvcadm verwalten. clustat zeigt den Status eines Clusters und clusvcadm ermöglicht die Verwaltung von Hochverfügbarkeitsdiensten.
clustat und clusvcadm Befehle. Er besteht aus den folgenden Unterabschnitten:
8.3.1. Anzeige des Hochverfügbarkeitsdienst-Status mit clustat Link kopierenLink in die Zwischenablage kopiert!
clustat zeigt den clusterweiten Status an. Es zeigt Informationen über Mitgliedschaften, die Quorum-Ansicht, den Status aller Hochverfügbarkeitsdienste, und es gibt außerdem an, auf welchem Knoten der clustat Befehl ausgeführt wird (lokal). Tabelle 8.1, »Dienst-Status« beschreibt die Status, in denen sich die Dienste befinden können und die durch Ausführen von clustat angezeigt werden. Beispiel 8.3, »clustat Anzeige« zeigt ein Beispiel einer clustat Anzeige. Detailliertere Informationen zum Ausführen des clustat Befehls finden Sie auf der clustat Handbuchseite.
| Dienst-Status | Beschreibung |
|---|---|
| Die Dienstressourcen sind konfiguriert und stehen dem Cluster-System, das diesen Dienst besitzt, zur Verfügung. | |
| Der Dienst wartet darauf, auf einem anderen Knoten zu starten. | |
| Der Dienst wurde deaktiviert und ist keinem Besitzer zugewiesen. Ein deaktivierter Dienst wird niemals automatisch vom Cluster neu gestartet. | |
| In gestopptem Zustand wird der Dienst für einen Start nach der nächsten Dienst- oder Knotenänderung evaluiert. Es handelt sich um einen vorübergehenden Status. Sie können den Dienst von diesem Status aus deaktivieren oder aktivieren. | |
Der Dienst ist vermutlich tot. Ein Dienst wird in diesen Status versetzt, wenn die stop Operation einer Ressource fehlschlägt. Nachdem ein Dienst in diesen Status versetzt wurde, müssen Sie sicherstellen, dass keine Ressourcen (z.B. ein eingehängtes Dateisystem) zugewiesen sind, bevor Sie eine disable Anfrage senden. Die einzige Operation, die auf einem Dienst mit diesem Status ausgeführt werden kann, ist disable. | |
Dieser Status kann in bestimmten Fällen während des Starts und des Ausführens von clustat -f auftreten. |
Beispiel 8.3. clustat Anzeige
[root@example-01 ~]#clustat
Cluster Status for mycluster @ Wed Nov 17 05:40:15 2010
Member Status: Quorate
Member Name ID Status
------ ---- ---- ------
node-03.example.com 3 Online, rgmanager
node-02.example.com 2 Online, rgmanager
node-01.example.com 1 Online, Local, rgmanager
Service Name Owner (Last) State
------- ---- ----- ------ -----
service:example_apache node-01.example.com started
service:example_apache2 (none) disabled
8.3.2. Verwaltung von Hochverfügbarkeitsdiensten mit clusvcadm Link kopierenLink in die Zwischenablage kopiert!
clusvcadm Befehls verwalten. Damit können Sie die folgenden Operationen ausführen:
- Aktivieren und Starten eines Dienstes
- Deaktivieren eines Dienstes
- Stoppen eines Dienstes
- Einfrieren eines Dienstes
- Einfrieren eines Dienstes aufheben
- Migrieren eines Dienstes (nur für Dienste auf virtuellen Maschinen)
- Verlegen eines Dienstes
- Neustarten eines Dienstes
clusvcadm Dienstprogramms.
| Dienst-Operation | Beschreibung | Befehlssyntax |
|---|---|---|
Startet den Dienst, optional auf einem bevorzugten Ziel und optional gemäß der Regeln zur Ausfallsicherungs-Domain. Werden weder ein bevorzugtes Ziel noch Regeln zur Ausfallsicherungs-Domain angegeben, so wird der Dienst auf dem lokalen Host gestartet, auf dem clusvcadm ausgeführt wird. Falls der ursprüngliche start fehlschlägt, verhält sich der Dienst, als ob eine relocate Operation angefragt wurde (siehe in dieser Tabelle). Falls die Operation erfolgreich ist, wird der Dienst in den "Started"-Status versetzt. | clusvcadm -e <service_name> oder clusvcadm -e <service_name> -m <member> (Die -m Option gibt das bevorzugte Zielmitglied an, auf dem der Dienst gestartet werden soll.) | |
| Stoppt den Dienst und versetzt ihn in den "Disabled"-Zustand. Dies ist die einzig zulässige Operation, wenn sich ein Dienst im failed Status befindet. | clusvcadm -d <service_name> | |
Verlegt den Dienst auf einen anderen Knoten. Optional können Sie einen bevorzugten Knoten angeben, auf den der Dienst verlegt werden soll. Kann der Dienst nicht auf diesem bevorzugten Knoten ausgeführt werden (z.B. weil der Start des Dienstes fehlschlägt oder der Host offline ist), so verhindert dies jedoch nicht die Verlegung, sondern es wird stattdessen ein anderer Knoten ausgewählt. rgmanager versucht, den Dienst auf jedem zulässigen Knoten im Cluster zu starten. Falls keiner der zulässigen Zielknoten im Cluster den Dienst erfolgreich starten kann, schlägt die Verlegung fehl und es wird versucht, den Dienst auf dem ursprünglichen Besitzer neu zu starten. Falls der ursprüngliche Besitzer den Dienst nicht neu starten kann, wird der Dienst in den stopped Status versetzt. | clusvcadm -r <service_name> oder clusvcadm -r <service_name> -m <member> (Die -m Option gibt das bevorzugte Zielmitglied an, auf dem der Dienst gestartet werden soll.) | |
| Stoppt den Dienst und versetzt ihn in den stopped Status. | clusvcadm -s <service_name> | |
| Friert einen Dienst auf dem Knoten ein, auf dem er derzeit ausgeführt wird. Dies verhindert sowohl Überprüfungen des Dienststatus als auch die Ausfallsicherung, falls der Knoten ausfällt oder rgmanager gestoppt wird. Dies kann verwendet werden, um einen Dienst auszusetzen, wenn Wartungsarbeiten an den zu Grunde liegenden Ressourcen nötig sind. Siehe »Überlegungen zur Verwendung der Freeze- und Unfreeze-Operationen« für wichtige Informationen über die Verwendung der freeze und unfreeze Operationen. | clusvcadm -Z <service_name> | |
| Hebt den freeze Status eines Dienstes wieder auf. Dadurch werden Überprüfungen des Status wieder ermöglicht. Siehe »Überlegungen zur Verwendung der Freeze- und Unfreeze-Operationen« für wichtige Informationen über die Verwendung der freeze und unfreeze Operationen. | clusvcadm -U <service_name> | |
| Migriert eine virtuelle Maschine auf einen anderen Knoten. Sie müssen dabei einen Zielknoten angeben. Ein Scheitern dieser Migration kann abhängig vom Fehler dazu führen, dass die virtuelle Maschine in den failed Zustand oder den "started" Zustand auf dem ursprünglichen Besitzer versetzt wird. | clusvcadm -M <service_name> -m <member> Wichtig
Für die migrate Operation müssen Sie mithilfe der -m <member> Option einen Zielknoten spezifizieren.
| |
| Startet einen Dienst auf dem Knoten, auf dem er derzeit ausgeführt wird, neu. | clusvcadm -R <service_name> |
8.3.2.1. Überlegungen zur Verwendung der Freeze- und Unfreeze-Operationen Link kopierenLink in die Zwischenablage kopiert!
rgmanager Dienstes. Falls Sie beispielsweise eine Datenbank und einen Webserver in einem rgmanager Dienst haben, können Sie den rgmanager Dienst einfrieren, die Datenbank stoppen, die Wartungsarbeiten durchführen, die Datenbank neu starten, und das Einfrieren des Dienstes anschließend wieder aufheben.
- Status-Überprüfungen sind deaktiviert.
- Start-Operationen sind deaktiviert.
- Stopp-Operationen sind deaktiviert.
- Es erfolgt keine Ausfallsicherung (selbst wenn Sie den Besitzer des Dienstes ausschalten).
Wichtig
- Sie dürfen nicht alle Instanzen des rgmanager stoppen, wenn ein Dienst eingefroren ist, es sei denn, Sie planen vor dem Neustart von rgmanager einen Neustart der Hosts.
- Sie dürfen nicht das Einfrieren eines Dienstes aufheben, bevor der Besitzer des Dienstes wieder dem Cluster beitritt und rgmanager neu startet.
8.4. Aktualisieren einer Konfiguration Link kopierenLink in die Zwischenablage kopiert!
/etc/cluster/cluster.conf) und deren Übertragung an alle Knoten im Cluster. Sie können die Konfiguration unter Verwendung einer der folgenden Verfahren aktualisieren:
8.4.1. Aktualisieren der Konfiguration mittels cman_tool version -r Link kopierenLink in die Zwischenablage kopiert!
cman_tool version -r zu aktualisieren, führen Sie die folgenden Schritte aus:
- Bearbeiten Sie auf einem beliebigen Knoten im Cluster die
/etc/cluster/cluster.confDatei. - Aktualisieren Sie den
config_versionParameter, indem Sie dessen Wert erhöhen (ändern Sie ihn z.B. vonconfig_version="2"aufconfig_version="3"). - Speichern Sie die
/etc/cluster/cluster.confab. - Führen Sie den
cman_tool version -rBefehl durch, um die Konfiguration an die übrigen Cluster-Knoten zu verbreiten. Es ist notwendig, dassricciauf jedem Cluster-Knoten ausgeführt wird, um die aktualisierten Cluster-Konfigurationsinformationen verbreiten zu können. - Vergewissern Sie sich, dass die aktualisierte
cluster.confKonfigurationsdatei auf die anderen Knoten im Cluster übertragen wurde. Falls nicht, verwenden Sie denscpBefehl, um/etc/cluster/auf alle Cluster-Knoten zu verbreiten. - Sie können diesen Schritt (Neustart der Cluster-Software) überspringen, falls Sie nur die folgenden Konfigurationsänderungen vorgenommen haben:
- Löschen eines Knotens aus der Cluster-Konfiguration — es sei denn, die Knotenanzahl verringert sich dadurch auf zwei Knoten. Informationen über das Löschen eines Knotens und die Verringerung der Knotenanzahl auf zwei Knoten finden Sie in Abschnitt 8.2, »Hinzufügen oder Löschen eines Knotens«.
- Hinzufügen eines Knotens zur Cluster-Konfiguration — es sei denn, die Knotenanzahl erhöht sich dadurch auf mehr als zwei Knoten. Informationen über das Hinzufügen eines Knotens und die Erhöhung der Knotenanzahl auf mehr als zwei Knoten finden Sie in Abschnitt 8.2.2, »Einen Knoten zum Cluster hinzufügen«.
- Änderungen an der Protokollierung durch Daemons.
- Wartung von Hochverfügbarkeitsdiensten/virtuellen Maschinen (hinzufügen, bearbeiten oder löschen).
- Wartung von Ressourcen (hinzufügen, bearbeiten oder löschen).
- Wartung von Ausfallsicherungs-Domains (hinzufügen, bearbeiten oder löschen).
Andernfalls müssen Sie die Cluster-Software wie folgt neu starten:- Halten Sie auf jedem Knoten die Cluster-Software gemäß Abschnitt 8.1.2, »Stoppen der Cluster-Software« an.
- Starten Sie auf jedem Knoten die Cluster-Software gemäß Abschnitt 8.1.1, »Starten der Cluster-Software«.
Das Stoppen und Starten der Cluster-Software gewährleistet, dass auch solche Konfigurationsänderungen, die nur beim Start überprüft werden, in die laufende Konfiguration miteinbezogen werden. - Führen Sie auf einem beliebigen Cluster-Knoten
cman_tool nodesaus, um zu überprüfen, dass die Knoten nun als Mitglieder im Cluster fungieren (gekennzeichnet durch ein "M" in der Statusspalte "Sts"). Zum Beispiel:[root@example-01 ~]# cman_tool nodes Node Sts Inc Joined Name 1 M 548 2010-09-28 10:52:21 node-01.example.com 2 M 548 2010-09-28 10:52:21 node-02.example.com 3 M 544 2010-09-28 10:52:21 node-03.example.com - Überprüfen Sie auf einem beliebigen Knoten mithilfe des
clustatDienstprogramms, ob die Hochverfügbarkeitsdienste wie erwartet funktionieren. Zusätzlich zeigtclustatden Status der Cluster-Knoten. Zum Beispiel:[root@example-01 ~]#clustat Cluster Status for mycluster @ Wed Nov 17 05:40:00 2010 Member Status: Quorate Member Name ID Status ------ ---- ---- ------ node-03.example.com 3 Online, rgmanager node-02.example.com 2 Online, rgmanager node-01.example.com 1 Online, Local, rgmanager Service Name Owner (Last) State ------- ---- ----- ------ ----- service:example_apache node-01.example.com started service:example_apache2 (none) disabled - Wenn der Cluster wie erwartet funktioniert, sind Sie mit dem Aktualisieren der Konfiguration fertig.
8.4.2. Aktualisieren der Konfiguration mittels scp Link kopierenLink in die Zwischenablage kopiert!
scp Befehls zu aktualisieren, führen Sie die folgenden Schritte aus:
- Bearbeiten Sie auf einem beliebigen Knoten im Cluster die
/etc/cluster/cluster.confDatei. - Aktualisieren Sie den
config_versionParameter, indem Sie dessen Wert erhöhen (ändern Sie ihn z.B. vonconfig_version="2"aufconfig_version="3"). - Speichern Sie die
/etc/cluster/cluster.confab. - Überprüfen Sie die aktualisierte Datei anhand des Cluster-Schemas (
cluster.rng), indem Sie denccs_config_validateBefehl ausführen. Zum Beispiel:[root@example-01 ~]# ccs_config_validate Configuration validates - Ist die aktualisierte Datei gültig, verwenden Sie den
scpBefehl, um sie auf/etc/cluster/in jedem Cluster-Knoten zu übertragen. - Vergewissern Sie sich, dass die aktualisierte Konfigurationsdatei übertragen wurde.
- Führen Sie den folgenden Befehl auf einem der Cluster-Knoten aus, um die neue Konfiguration zu laden:
cman_tool version -rFalls Siericcinicht installiert haben, können Sie den folgenden Befehl verwenden:cman_tool version -s - Sie können diesen Schritt (Neustart der Cluster-Software) überspringen, falls Sie nur die folgenden Konfigurationsänderungen vorgenommen haben:
- Löschen eines Knotens aus der Cluster-Konfiguration — es sei denn, die Knotenanzahl verringert sich dadurch auf zwei Knoten. Informationen über das Löschen eines Knotens und die Verringerung der Knotenanzahl auf zwei Knoten finden Sie in Abschnitt 8.2, »Hinzufügen oder Löschen eines Knotens«.
- Hinzufügen eines Knotens zur Cluster-Konfiguration — es sei denn, die Knotenanzahl erhöht sich dadurch auf mehr als zwei Knoten. Informationen über das Hinzufügen eines Knotens und die Erhöhung der Knotenanzahl auf mehr als zwei Knoten finden Sie in Abschnitt 8.2.2, »Einen Knoten zum Cluster hinzufügen«.
- Änderungen an der Protokollierung durch Daemons.
- Wartung von Hochverfügbarkeitsdiensten/virtuellen Maschinen (hinzufügen, bearbeiten oder löschen).
- Wartung von Ressourcen (hinzufügen, bearbeiten oder löschen).
- Wartung von Ausfallsicherungs-Domains (hinzufügen, bearbeiten oder löschen).
Andernfalls müssen Sie die Cluster-Software wie folgt neu starten:- Halten Sie auf jedem Knoten die Cluster-Software gemäß Abschnitt 8.1.2, »Stoppen der Cluster-Software« an.
- Starten Sie auf jedem Knoten die Cluster-Software gemäß Abschnitt 8.1.1, »Starten der Cluster-Software«.
Das Stoppen und Starten der Cluster-Software gewährleistet, dass auch solche Konfigurationsänderungen, die nur beim Start überprüft werden, in die laufende Konfiguration miteinbezogen werden. - Vergewissern Sie sich, dass die Knoten als Mitglieder im Cluster funktionieren und dass die Hochverfügbarkeitsdienste wie erwartet ausgeführt werden.
- Führen Sie auf einem beliebigen Cluster-Knoten
cman_tool nodesaus, um zu überprüfen, dass die Knoten nun als Mitglieder im Cluster fungieren (gekennzeichnet durch ein "M" in der Statusspalte "Sts"). Zum Beispiel:[root@example-01 ~]# cman_tool nodes Node Sts Inc Joined Name 1 M 548 2010-09-28 10:52:21 node-01.example.com 2 M 548 2010-09-28 10:52:21 node-02.example.com 3 M 544 2010-09-28 10:52:21 node-03.example.com - Überprüfen Sie auf einem beliebigen Knoten mithilfe des
clustatDienstprogramms, ob die Hochverfügbarkeitsdienste wie erwartet funktionieren. Zusätzlich zeigtclustatden Status der Cluster-Knoten. Zum Beispiel:[root@example-01 ~]#clustat Cluster Status for mycluster @ Wed Nov 17 05:40:00 2010 Member Status: Quorate Member Name ID Status ------ ---- ---- ------ node-03.example.com 3 Online, rgmanager node-02.example.com 2 Online, rgmanager node-01.example.com 1 Online, Local, rgmanager Service Name Owner (Last) State ------- ---- ----- ------ ----- service:example_apache node-01.example.com started service:example_apache2 (none) disabled
Wenn der Cluster wie erwartet funktioniert, sind Sie mit dem Aktualisieren der Konfiguration fertig.
Kapitel 9. Fehlerdiagnose und -behebung in einem Cluster Link kopierenLink in die Zwischenablage kopiert!
9.1. Konfigurationsänderungen werden nicht wirksam Link kopierenLink in die Zwischenablage kopiert!
- Wenn Sie einen Cluster mithilfe von Conga konfigurieren, überträgt Conga die Änderungen automatisch, sobald Sie die Änderungen übernehmen.
- Informationen über das Übertragen der Änderungen an der Cluster-Konfiguration mit dem
ccsBefehl finden Sie in Abschnitt 5.15, »Verbreiten der Konfigurationsdatei auf den Cluster-Knoten«. - Informationen über das Übertragen der Änderungen an der Cluster-Konfiguration mit Befehlszeilentools finden Sie in Abschnitt 8.4, »Aktualisieren einer Konfiguration«.
- Löschen eines Knotens aus der Cluster-Konfiguration — es sei denn, die Knotenanzahl verringert sich dadurch von über zwei Knoten auf dann nur noch zwei Knoten.
- Hinzufügen eines Knotens zur Cluster-Konfiguration — es sei denn, die Knotenanzahl erhöht sich dadurch von weniger als zwei Knoten auf dann mehr als zwei Knoten.
- Ändern der Protokollierungseinstellungen.
- Hinzufügen, Bearbeiten oder Löschen von HA-Diensten oder VM-Komponenten.
- Hinzufügen, Bearbeiten oder Löschen von Cluster-Ressourcen.
- Hinzufügen, Bearbeiten oder Löschen von Ausfallsicherungs-Domains.
- Hinzufügen oder Entfernen der
two_nodeOption aus der Cluster-Konfigurationsdatei. - Umbenennen des Clusters.
- Ändern von
corosyncoderopenaisTimern. - Hinzufügen, Ändern oder Löschen von Heuristiken für Quorumdatenträger, Ändern von Quorumdatenträger-Timern oder Ändern des Quorumdatenträgergeräts. Damit diese Änderungen wirksam werden, ist ein globaler Neustart des
qdiskdDaemons erforderlich. - Ändern des
central_processingModus fürrgmanager. Damit diese Änderungen wirksam werden, ist ein globaler Neustart vonrgmanagererforderlich. - Ändern der Multicast-Adresse.
- Ändern des Transportmodus von UDP-Multicast auf UDP-Unicast oder Ändern des Modus von UDP-Unicast auf UDP-Multicast.
ccs Befehl oder den Befehlszeilentools neu starten.
- Informationen über das Neustarten eines Clusters mit Conga finden Sie in Abschnitt 4.4, »Starten, Stoppen, Neustarten und Löschen von Clustern«.
- Informationen über das Neustarten eines Clusters mit dem
ccsBefehl finden Sie in Abschnitt 6.2, »Starten und Stoppen eines Clusters«. - Informationen über das Neustarten eines Clusters mit Befehlszeilentools finden Sie in Abschnitt 8.1, »Starten und Stoppen der Cluster-Software«.
9.2. Cluster wird nicht gebildet Link kopierenLink in die Zwischenablage kopiert!
- Vergewissern Sie sich, dass die Namensauflösung korrekt konfiguriert ist. Der Cluster-Knotenname in der
cluster.confDatei sollte mit dem Namen übereinstimmen, der zur Auflösung der Cluster-Netzwerkadresse zur Kommunikation über den Cluster verwendet wird. Falls Ihre Cluster-Knotennamen beispielsweisenodeaundnodeblauten, dann vergewissern Sie sich, dass für beide Knoten Einträge in der/etc/cluster/cluster.confDatei vorhanden sind und die/etc/hostsDatei mit diesen Namen übereinstimmt. - Falls der Cluster Multicast zur Kommunikation der Knoten untereinander verwendet, stellen Sie sicher, dass auf dem Netzwerk, das der Cluster zur Kommunikation benutzt, Multicast-Datenverkehr nicht blockiert, verzögert oder anderweitig behindert wird. Beachten Sie, dass einige Cisco-Switches über Features verfügen, die ggf. Verzögerungen des Multicast-Datenverkehrs verursachen.
- Verwenden Sie
telnetoderSSH, um zu überprüfen, ob die entfernten Knoten erreichbar sind. - Führen Sie den
ethtool eth1 | grep linkBefehl durch, um zu überprüfen, ob die Ethernet-Verbindung aktiv ist. - Verwenden Sie den
tcpdumpBefehl auf jedem Knoten, um den Netzwerkverkehr zu überprüfen. - Vergewissern Sie sich, dass keine Firewall-Regeln die Kommunikation zwischen Ihren Knoten unterbinden.
- Stellen Sie sicher, dass die Schnittstellen, die der Cluster für die Kommunikation zwischen Knoten benutzt, nur Bindungs-Modus 0, 1 oder 2 verwenden. (Bindungs-Modus 0 und 2 werden ab Red Hat Enterprise Linux 6.4 unterstützt.)
9.3. Knoten können nach Fencing oder Neustart dem Cluster nicht wieder beitreten Link kopierenLink in die Zwischenablage kopiert!
- Cluster, die Ihre Daten über einen Cisco Catalyst Switch leiten, können ggf. von diesem Problem betroffen sein.
- Vergewissern Sie sich, dass alle Cluster-Knoten dieselbe Version der
cluster.confDatei verwenden. Falls diecluster.confDatei auf einem der Knoten abweicht, kann dieser Knoten dem Cluster unter Umständen nicht mehr beitreten.Ab Red Hat Enterprise Linux 6.1 können Sie den folgenden Befehl verwenden, um zu überprüfen, ob alle in der Cluster-Konfigurationsdatei des Hosts spezifizierten Knoten über identische Cluster-Konfigurationsdateien verfügen:ccs -h host --checkconfFür Informationen über denccsBefehl, siehe Kapitel 5, Konfiguration des Red Hat Hochverfügbarkeits-Add-Ons mit dem ccs Befehl und Kapitel 6, Verwaltung des Red Hat Hochverfügbarkeits-Add-Ons mit ccs. - Stellen Sie sicher, dass Sie
chkconfig onfür die Cluster-Dienste in dem Knoten konfiguriert haben, der dem Cluster beizutreten versucht. - Vergewissern Sie sich, dass keine Firewall-Regeln die Kommunikation zwischen den Knoten im Cluster unterbinden.
9.4. Cluster-Daemon stürzt ab Link kopierenLink in die Zwischenablage kopiert!
rgmanager Hauptprozess unerwartet abstürzt. Dies führt dazu, dass der Cluster-Knoten abgegrenzt wird und rgmanager den Dienst auf einem anderen Host wiederherstellt. Wenn der Überwachungsdaemon feststellt, dass der rgmanager Hauptprozess abgestürzt ist, wird er den Cluster-Knoten neu starten. Die aktiven Cluster-Knoten werden daraufhin bemerken, dass der Cluster-Knoten ausgefallen ist, und ihn aus dem Cluster ausschließen.
gcore kann bei der Fehlerbehebung eines abgestürzten Daemons helfen.
rgmanager und rgmanager-debuginfo von derselben Version sind, da der Speicherauszug andernfalls möglicherweise unbrauchbar ist.
$ yum -y --enablerepo=rhel-debuginfo install gdb rgmanager-debuginfo
9.4.1. Erstellen eines rgmanager Speicherauszugs zur Laufzeit Link kopierenLink in die Zwischenablage kopiert!
rgmanager Prozesse, die gestartet werden. Sie müssen den Speicherauszug für den rgmanager Prozess mit der höheren PID erstellen.
ps Befehl, die zwei rgmanager Prozesse zeigt.
$ ps aux | grep rgmanager | grep -v grep
root 22482 0.0 0.5 23544 5136 ? S<Ls Dec01 0:00 rgmanager
root 22483 0.0 0.2 78372 2060 ? S<l Dec01 0:47 rgmanager
pidof Programm dazu verwendet, um automatisch die höhere PID zu bestimmen, also die, von der der Speicherauszug erstellt werden muss. Der vollständige Befehl erstellt einen Speicherauszug für den Prozess 22483, der die höhere PID-Nummer aufweist.
$ gcore -o /tmp/rgmanager-$(date '+%F_%s').core $(pidof -s rgmanager)
9.4.2. Erstellen eines Speicherauszugs beim Absturz des Daemons Link kopierenLink in die Zwischenablage kopiert!
/etc/init.d/functions Skript Speicherauszugsdateien von Daemons, die durch /etc/init.d/rgmanager aufgerufen wurden. Damit der Daemon Speicherauszugsdateien erstellen kann, müssen Sie diese Option aktivieren. Diese Prozedur muss auf allen Cluster-Knoten ausgeführt werden, auf denen ein Speicherauszug erstellt werden soll.
/etc/sysconfig/cluster Datei. Der DAEMONCOREFILELIMIT Parameter erlaubt es dem Daemon, einen Speicherauszug zu erstellen, wenn der Prozess abstürzt. Es gibt eine -w Option, die verhindert, dass der Überwachungsprozess läuft. Der Überwachungs-Daemon ist verantwortlich für einen Neustart des Cluster-Knotens, wenn rgmanager abstürzt und in einigen Fällen wird der Speicherauszug nicht erzeugt werden, wenn der Überwachungs-Daemon läuft. Aus diesem Grund muss er deaktiviert werden, um Speicherauszüge zu erstellen.
DAEMONCOREFILELIMIT="unlimited"
RGMGR_OPTS="-w"
service rgmanager restart
Anmerkung
rgmanager Prozesses generiert wird.
ls /core*
/core.11926
rgmanager neu starten, um einen Speicherauszug der Applikation zu erstellen. Der Cluster-Knoten, auf dem der rgmanager Absturz stattfand, sollte neu gestartet oder abgegrenzt werden, nachdem der Speicherauszug erstellt wurde, um sicherzustellen, dass der Überwachungsprozess nicht ausgeführt wurde.
9.4.3. Aufzeichnen einer gdb Backtrace-Sitzung Link kopierenLink in die Zwischenablage kopiert!
gdb einsehen. Um eine Skriptsitzung von gdb auf der Auszugsdatei des betroffenen Systems aufzuzeichnen, führen Sie Folgendes aus:
$ script /tmp/gdb-rgmanager.txt
$ gdb /usr/sbin/rgmanager /tmp/rgmanager-.core.
gdb Sitzung gestartet, die von script in der entsprechenden Textdatei aufgezeichnet wird. Führen Sie innerhalb von gdb die folgenden Befehle aus:
(gdb) thread apply all bt full
(gdb) quit
Strg-D, um die Skriptsitzung zu stoppen und sie in der Textdatei zu speichern.
9.5. Cluster-Dienste hängen sich auf Link kopierenLink in die Zwischenablage kopiert!
- Der Cluster hat ggf. versucht, einen Knoten abzugrenzen, und diese Fencing-Operation kann unter Umständen fehlgeschlagen sein.
- Sehen Sie sich die
/var/log/messagesDatei auf allen Knoten an und suchen Sie nach Nachrichten bezüglich einer fehlgeschlagenen Abgrenzung. Sollten Sie welche finden, starten Sie die Knoten im Cluster neu und konfigurieren Sie das Fencing korrekt. - Vergewissern Sie sich, dass keine Aufspaltung des Netzwerks auftrat, wie in Abschnitt 9.8, »Jeder Knoten in einem Zwei-Knoten-Cluster meldet den jeweils anderen Knoten als ausgefallen« beschrieben, und stellen Sie sicher, dass die Kommunikation zwischen den Knoten nach wie vor möglich ist und das Netzwerk aktiv ist.
- Falls Knoten den Cluster verlassen, verfügen die verbleibenden Knoten ggf. über kein Quorum mehr. Der Cluster braucht jedoch ein Quorum, um funktionsfähig zu sein. Falls Knoten entfernt werden, so dass der Cluster nicht länger über ein Quorum verfügt, hängen sich Dienste und Speicher auf. Passen Sie entweder die erwarteten Stimmen an oder fügen Sie dem Cluster wieder die benötigte Anzahl an Knoten hinzu.
Anmerkung
fence_node Befehl oder mit Conga abgrenzen. Für Informationen diesbezüglich, siehe fence_node Handbuchseite und Abschnitt 4.3.2, »Einen Knoten zum Verlassen oder Beitreten eines Clusters veranlassen«.
9.6. Cluster-Dienst startet nicht Link kopierenLink in die Zwischenablage kopiert!
- Die Dienstkonfiguration in der
cluster.confDatei enthält unter Umständen Syntaxfehler. Führen Sie denrg_testBefehl aus, um die Syntax in Ihrer Konfiguration zu überprüfen. Falls diese Konfigurations- oder Syntaxfehler enthält, wirdrg_testSie über das Problem informieren.$ rg_test test /etc/cluster/cluster.conf start service servicenameFür weitere Informationen über denrg_testBefehl, siehe Abschnitt C.5, »Testen und Fehlerbehebung von Diensten und der Ressourcenreihenfolge«.Ist die Konfiguration gültig, erhöhen Sie als Nächstes die Protokollierung des Ressourcengruppen-Managers und untersuchen die Protokolle, um Hinweise darauf zu erhalten, warum der Dienst nicht startet. Sie können die Protokollierungsstufe erhöhen, indem Sie den Parameterloglevel="7"zumrmTag in dercluster.confDatei hinzufügen. Dadurch erhalten Sie ausführlichere Protokollmeldungen hinsichtlich dem Starten, Stoppen und Migrieren von geclusterten Diensten.
9.7. Migration von Cluster-verwalteten Diensten schlägt fehl Link kopierenLink in die Zwischenablage kopiert!
- Vergewissern Sie sich, dass die Ressourcen, die zum Ausführen eines bestimmten Dienstes notwendig sind, auf allen Knoten im Cluster vorhanden sind, die unter Umständen diesen Dienst ausführen müssen. Falls Ihr geclusterter Dienst beispielsweise eine Skriptdatei an einem bestimmten Speicherort voraussetzt oder ein Dateisystem an einem bestimmten Einhängepunkt erwartet, dann müssen Sie sicherstellen, dass diese Ressourcen auf allen Knoten im Cluster an den erwarteten Orten vorliegen.
- Vergewissern Sie sich, dass Ausfallsicherungs-Domains, Dienstabhängigkeiten und Dienstexklusivität nicht derart konfiguriert sind, dass infolgedessen eine Migration von Diensten auf Knoten nicht erwartungsgemäß funktionieren kann.
- Falls es sich bei dem fraglichen Dienst um eine virtuelle Maschinennressource handelt, prüfen Sie die Dokumentation um sicherzustellen, dass Sie alle notwendigen Konfigurationen korrekt vorgenommen haben.
- Erhöhen Sie die Protokollierung des Ressourcengruppen-Managers wie in Abschnitt 9.6, »Cluster-Dienst startet nicht« beschrieben, und untersuchen Sie die Protokolle, um Hinweise darauf zu erhalten, warum die Migration des Dienstes fehlschlägt.
9.8. Jeder Knoten in einem Zwei-Knoten-Cluster meldet den jeweils anderen Knoten als ausgefallen Link kopierenLink in die Zwischenablage kopiert!
9.9. Knoten werden nach LUN-Pfadausfall abgegrenzt Link kopierenLink in die Zwischenablage kopiert!
9.10. Quorumdatenträger erscheint nicht als Cluster-Mitglied Link kopierenLink in die Zwischenablage kopiert!
- Vergewissern Sie sich, dass Sie
chkconfig onfür denqdiskDienst festgelegt haben. - Vergewissern Sie sich, dass Sie den
qdiskDienst gestartet haben. - Beachten Sie, dass es einige Minuten dauern kann, bis sich der Quorumdatenträger beim Cluster registriert hat. Dies ist normales und erwartetes Verhalten.
9.11. Ungewöhnliches Verhalten bei Ausfallsicherung Link kopierenLink in die Zwischenablage kopiert!
9.12. Wahlloses Fencing Link kopierenLink in die Zwischenablage kopiert!
- Die Ursache für das Fencing ist immer ein Knoten, der die Kommunikation mit dem Rest des Clusters abgebrochen hat und keinen "Heartbeat" mehr überträgt.
- Jede Situation, die dazu führt, dass ein System innerhalb einer festgelegten Zeitspanne keinen Heartbeat überträgt, kann die Abgrenzung verursachen. Standardmäßig beträgt diese Zeitspanne 10 Sekunden. Sie können diese Zeitspanne festlegen, indem Sie den gewünschten Wert (in Millisekunden) an den Token-Parameter des Totem-Tags in der
cluster.confDatei hinzufügen (z.B.totem token="30000"für 30 Sekunden). - Vergewissern Sie sich, dass das Netzwerk einwandfrei funktioniert.
- Stellen Sie sicher, dass die Schnittstellen, die der Cluster für die Kommunikation zwischen Knoten benutzt, nur Bindungs-Modus 0, 1 oder 2 verwenden. (Bindungs-Modus 0 und 2 werden ab Red Hat Enterprise Linux 6.4 unterstützt.)
- Führen Sie Maßnahmen durch, um festzustellen, ob das System sich aufhängt oder ob eine Kernel-Panik auftritt. Richten Sie das
kdumpDienstprogramm ein, um einen Speicherauszug während einer dieser wahllosen Abgrenzungen zu erhalten. - Stellen Sie sicher, dass Sie die auftretende Situation nicht fälschlicherweise für eine Abgrenzung halten, obwohl es ggf. zum Beispiel der Quorumdatenträger ist, die aufgrund eines Speicherausfalls einen Knoten ausschließt, oder ein Produkt eines Drittanbieters wie Oracle RAC, das einen Knoten aus anderen Gründen neu startet. Die Nachrichtenprotokolle sind oft hilfreich, um diese Probleme zu untersuchen. Bei jeder Abgrenzung oder jedem Knoten-Neustart sollten Sie standardmäßig die Nachrichtenprotokolle vom Zeitpunkt der Abgrenzung/des Neustarts auf allen Knoten im Cluster überprüfen.
- Überprüfen Sie das System zudem gründlich auf Hardware-Fehler, die dazu führen könnten, dass das System nicht erwartungsgemäß auf Heartbeats reagiert.
9.13. Debug-Protokollierung für Distributed Lock Manager (DLM) muss aktiviert sein Link kopierenLink in die Zwischenablage kopiert!
/etc/cluster/cluster.conf Datei, um Konfigurationsoptionen zum dlm Tag hinzuzufügen. Die log_debug Option aktiviert DLM-Kernel-Debuggingnachrichten und die plock_debug Option aktiviert POSIX-Sperren-Debuggingnachrichten.
/etc/cluster/cluster.conf Datei zeigt den dlm Tag, der beide DLM-Debugoptionen aktiviert:
<cluster config_version="42" name="cluster1">
...
<dlm log_debug="1" plock_debug="1"/>
...
</cluster>
/etc/cluster/cluster.conf Datei bearbeitet haben, führen Sie den cman_tool version -r Befehl aus, um die Konfiguration an die übrigen Cluster-Knoten weiterzugeben.
Kapitel 10. SNMP-Konfiguration mit dem Red Hat Hochverfügbarkeits-Add-On Link kopierenLink in die Zwischenablage kopiert!
10.1. SNMP und das Red Hat Hochverfügbarkeits-Add-On Link kopierenLink in die Zwischenablage kopiert!
foghorn, der die SNMP-Traps ausgibt. Der foghorn Subagent kommuniziert mit dem snmpd Daemon über das AgentX-Protokoll. Der foghorn Subagent erstellt lediglich SNMP-Traps; er unterstützt keine anderen SNMP-Operationen wie z.B. get oder set.
config Optionen für den foghorn Subagent. Er kann nicht zur Verwendung eines bestimmten Sockets konfiguriert werden; nur der standardmäßige AgentX-Socket wird derzeit unterstützt.
10.2. Konfiguration von SNMP mit dem Red Hat Hochverfügbarkeits-Add-On Link kopierenLink in die Zwischenablage kopiert!
- Um SNMP-Traps mit dem Red Hat Hochverfügbarkeits-Add-On zu verwenden, ist der
snmpdDienst erforderlich, der als Master-Agent fungiert. Da derfoghornDienst der Subagent ist und das AgentX-Protokoll verwendet, müssen Sie die folgende Zeile zur/etc/snmp/snmpd.confDatei hinzufügen, um AgentX-Unterstützung zu aktivieren:master agentx - Um den Host festzulegen, an den die SNMP-Trap-Benachrichtigungen gesendet werden sollen, fügen Sie die folgende Zeile zur
/etc/snmp/snmpd.confDatei hinzu:trap2sink hostWeitere Informationen über die Handhabung der Benachrichtigungen finden Sie auf dersnmpd.confHandbuchseite. - Vergewissern Sie sich, dass der
snmpdDaemon aktiviert ist und läuft, indem Sie die folgenden Befehle ausführen:# chkconfig snmpd on # service snmpd start - Falls der
messagebusDaemon noch nicht aktiviert ist und noch nicht läuft, führen Sie die folgenden Befehle aus:# chkconfig messagebus on # service messagebus start - Vergewissern Sie sich, dass der
foghornDaemon aktiviert ist und läuft, indem Sie die folgenden Befehle ausführen:# chkconfig foghorn on # service foghorn start - Führen Sie den folgenden Befehl aus, um Ihr System so zu konfigurieren, dass der
COROSYNC-MIBSNMP-Traps generiert und um sicherzustellen, dass dercorosync-notifydDaemon aktiviert ist und läuft:# echo "OPTIONS=\"-d\" " > /etc/sysconfig/corosync-notifyd # chkconfig corosync-notifyd on # service corosync-notifyd start
foghorn Dienst empfangen und in SNMPv2-Traps übersetzt. Diese Traps werden anschließend an den Host übertragen, den Sie mit dem trapsink Eintrag zum Empfang von SNMPv2-Traps definiert haben.
10.3. Weiterleiten von SNMP-Traps Link kopierenLink in die Zwischenablage kopiert!
snmptrapd Daemon einsetzen und anpassen können, wie die Benachrichtigungen gehandhabt werden sollen.
- Folgen Sie für jeden Knoten im Cluster dem in Abschnitt 10.2, »Konfiguration von SNMP mit dem Red Hat Hochverfügbarkeits-Add-On« beschriebenen Verfahren, und geben Sie dabei im
trap2sink hostEintrag in der/etc/snmp/snmpd.confDatei den externen Host an, auf dem dersnmptrapdDaemon ausgeführt werden soll. - Bearbeiten Sie auf dem externen Host, der die Traps empfangen wird, die
/etc/snmp/snmptrapd.confKonfigurationsdatei, um Ihre Community-Strings festzulegen. Beispielsweise können Sie den folgenden Eintrag verwenden, um es demsnmptrapdDaemon zu ermöglichen, Benachrichtigungen unter Verwendung despublicCommunity-Strings zu verarbeiten.authCommunity log,execute,net public - Vergewissern Sie sich auf dem externen Host, der die Traps empfangen wird, dass der
snmptrapdDaemon aktiviert ist und läuft, indem Sie die folgenden Befehle ausführen:# chkconfig snmptrapd on # service snmptrapd start
snmptrapd.conf Handbuchseite.
10.4. SNMP-Traps generiert vom Red Hat Hochverfügbarkeits-Add-On Link kopierenLink in die Zwischenablage kopiert!
foghorn Daemon generiert die folgenden Traps:
fenceNotifyFenceNodeDiese Trap tritt auf, wenn ein abgegrenzter Knoten versucht, einen anderen Knoten abzugrenzen. Beachten Sie, dass diese Trap nur auf einem Knoten generiert wird - auf demjenigen Knoten, der die Fencing-Operation durchzuführen versucht. Die Benachrichtigung beinhaltet die folgenden Felder:fenceNodeName- Name des abgegrenzten KnotensfenceNodeID- Knoten-ID des abgegrenzten KnotensfenceResult- das Ergebnis der Fencing-Operation (0 falls erfolgreich, -1 falls Fehler auftraten, -2 falls keine Fencing-Methoden definiert sind)
rgmanagerServiceStateChangeDiese Trap tritt auf, wenn sich der Status eines Cluster-Dienstes ändert. Die Benachrichtigung beinhaltet die folgenden Felder:rgmanagerServiceName- der Name des Dienstes einschließlich Diensttyp (z.B.service:fooodervm:foo).rgmanagerServiceState- der Status des Dienstes. Davon ausgenommen sind Übergangszustände wiestartingundstopping, um die Traps übersichtlich zu halten.rgmanagerServiceFlags- die Dienst-Flags. Derzeit gibt es zwei unterstützte Flags:frozen, was einen Dienst kennzeichnet, der mithilfe des Befehlsclusvcadm -Zeingefroren wurde, undpartial, was einen Dienst kennzeichnet, in dem eine ausgefallene Ressource alsnon-criticalmarkiert wurde, so dass die Ressource ausfallen und deren Komponenten manuell neu gestartet werden können, ohne dass der gesamte Dienst davon betroffen ist.rgmanagerServiceCurrentOwner- der Dienstbesitzer. Falls der Dienst nicht läuft, ist dies(none).rgmanagerServicePreviousOwner- der letzte Dienstbesitzer, sofern bekannt. Ist der letzte Dienstbesitzer nicht bekannt, ist dies ggf.(none).
corosync-nodifyd Daemon generiert die folgenden Traps:
corosyncNoticesNodeStatusDiese Trap tritt auf, wenn ein Knoten einem Cluster beitritt oder diesen verlässt. Die Benachrichtigung beinhaltet die folgenden Felder:corosyncObjectsNodeName- KnotennamecorosyncObjectsNodeID- Knoten-IDcorosyncObjectsNodeAddress- Knoten-IP-AdressecorosyncObjectsNodeStatus- Knotenstatus (joinedoderleft)
corosyncNoticesQuorumStatusDiese Trap tritt auf, wenn sich der Quorumstatus ändert. Die Benachrichtigung beinhaltet die folgenden Felder:corosyncObjectsNodeName- KnotennamecorosyncObjectsNodeID- Knoten-IDcorosyncObjectsQuorumStatus- neuer Status des Quorum (quorateoderNOT quorate)
corosyncNoticesAppStatusDiese Trap tritt auf, wenn eine Client-Applikation eine Verbindung mit Corosync herstellt oder diese unterbricht.corosyncObjectsNodeName- KnotennamecorosyncObjectsNodeID- Knoten-IDcorosyncObjectsAppName- ApplikationsnamecorosyncObjectsAppStatus- neuer Status einer Applikation (connectedoderdisconnected)
Kapitel 11. Konfiguration von geclustertem Samba Link kopierenLink in die Zwischenablage kopiert!
Anmerkung
Anmerkung
11.1. Überblick über CTDB Link kopierenLink in die Zwischenablage kopiert!
11.2. Erforderliche Pakete Link kopierenLink in die Zwischenablage kopiert!
ctdbsambasamba-commonsamba-winbind-clients
11.3. GFS2-Konfiguration Link kopierenLink in die Zwischenablage kopiert!
/dev/csmb_vg/csmb_lv, auf dem die Benutzerdaten enthalten sind, die über die Samba-Freigabe exportiert werden, und der dementsprechend groß sein sollte. Dieses Beispiel erstellt einen logischen Datenträger, der 100 GB groß ist./dev/csmb_vg/ctdb_lv, auf dem die gemeinsam verwendeten CTDB-Zustandsinformationen gespeichert werden. Dieser Datenträger muss 1 GB groß sein.
mkfs.gfs2 Befehl aus. Führen Sie diesen Befehl nur auf einem einzigen Knoten im Cluster aus.
/dev/csmb_vg/csmb_lv das Dateisystem zu erstellen, das die Samba-Freigabe beherbert, führen Sie den folgenden Befehl aus:
[root@clusmb-01 ~]# mkfs.gfs2 -j3 -p lock_dlm -t csmb:gfs2 /dev/csmb_vg/csmb_lv
-j- Spezifiziert die Anzahl der Journale, die im Dateisystem erstellt werden sollen. Dieses Beispiel erstellt einen Cluster mit drei Knoten, wir erstellen also ein Journal pro Knoten.
-p- Spezifiziert das Sperrprotokoll.
lock_dlmist das Sperrprotokoll, das GFS2 für die Kommunikation der Knoten untereinander verwendet. -t- Spezifiziert den Namen der Sperrtabelle und folgt dem Format cluster_name:fs_name. In diesem Beispiel lautet der in der
cluster.confDatei festgelegte Cluster-Namecsmbund wir verwendengfs2als Namen für das Dateisystem.
This will destroy any data on /dev/csmb_vg/csmb_lv.
It appears to contain a gfs2 filesystem.
Are you sure you want to proceed? [y/n] y
Device:
/dev/csmb_vg/csmb_lv
Blocksize: 4096
Device Size 100.00 GB (26214400 blocks)
Filesystem Size: 100.00 GB (26214398 blocks)
Journals: 3
Resource Groups: 400
Locking Protocol: "lock_dlm"
Lock Table: "csmb:gfs2"
UUID:
94297529-ABG3-7285-4B19-182F4F2DF2D7
/dev/csmb_vg/csmb_lv Dateisystem auf allen Knoten unter /mnt/gfs2 eingehängt. Dieser Einhängepunkt muss dem Wert entsprechen, den Sie als Speicherort des share Verzeichnisses mit der path = Option in der /etc/samba/smb.conf Datei angeben, wie in Abschnitt 11.5, »Samba-Konfiguration« beschrieben.
/dev/csmb_vg/ctdb_lv das Dateisystem zu erstellen, das die CTDB-Zustandsinformationen beherbert, führen Sie den folgenden Befehl aus:
[root@clusmb-01 ~]# mkfs.gfs2 -j3 -p lock_dlm -t csmb:ctdb_state /dev/csmb_vg/ctdb_lv
/dev/csmb_vg/csmb_lv. Dadurch unterscheiden sich die Sperrtabellennamen für die verschiedenen Geräte, die für die Dateisysteme verwendet werden.
mkfs.gfs2 Befehl sieht wie folgt aus:
This will destroy any data on /dev/csmb_vg/ctdb_lv.
It appears to contain a gfs2 filesystem.
Are you sure you want to proceed? [y/n] y
Device:
/dev/csmb_vg/ctdb_lv
Blocksize: 4096
Device Size 1.00 GB (262144 blocks)
Filesystem Size: 1.00 GB (262142 blocks)
Journals: 3
Resource Groups: 4
Locking Protocol: "lock_dlm"
Lock Table: "csmb:ctdb_state"
UUID:
BCDA8025-CAF3-85BB-B062-CC0AB8849A03
/dev/csmb_vg/ctdb_lv Dateisystem auf allen Knoten unter /mnt/ctdb eingehängt. Dieser Einhängepunkt muss dem Wert entsprechen, den Sie als Speicherort der .ctdb.lock Datei mit der CTDB_RECOVERY_LOCK Option in der /etc/sysconfig/ctdb Datei angeben, wie in Abschnitt 11.4, »CTDB-Konfigurationen« beschrieben.
11.4. CTDB-Konfigurationen Link kopierenLink in die Zwischenablage kopiert!
/etc/sysconfig/ctdb. Die folgenden Felder sind für die CTDB-Konfiguration erforderlich:
CTDB_NODESCTDB_PUBLIC_ADDRESSESCTDB_RECOVERY_LOCKCTDB_MANAGES_SAMBA(muss aktiviert sein)CTDB_MANAGES_WINBIND(muss aktiviert sein, falls auf einem Mitgliedsserver ausgeführt)
CTDB_NODES=/etc/ctdb/nodes
CTDB_PUBLIC_ADDRESSES=/etc/ctdb/public_addresses
CTDB_RECOVERY_LOCK="/mnt/ctdb/.ctdb.lock"
CTDB_MANAGES_SAMBA=yes
CTDB_MANAGES_WINBIND=yes
CTDB_NODES- Spezifiziert den Speicherort der Datei mit der Cluster-Knotenliste.Die
/etc/ctdb/nodesDatei, auf dieCTDB_NODESverweist, listet einfach die IP-Adressen der Cluster-Knoten, wie im folgenden Beispiel veranschaulicht:192.168.1.151 192.168.1.152 192.168.1.153In diesem Beispiel gibt es nur eine Schnittstelle/IP auf jedem Knoten, die sowohl zur Cluster/CTDB-Kommunikation als auch zur Handhabung von Client-Anfragen verwendet wird. Allerdings empfehlen wir dringend Cluster-Knoten mit zwei Netzwerkschnittstellen, so dass eine Schnittstellengruppe der Cluster/CTDB-Kommunikation und eine andere dem öffentlichen Client-Zugriff dienen kann. Verwenden Sie hier entsprechenden IP-Adressen des Cluster-Netzwerks und achten Sie darauf, dass die Hostnamen bzw. IP-Adressen in dercluster.confDatei damit übereinstimmen. Verwenden Sie ebenso die entsprechenden Schnittstellen des öffentlichen Netzwerks für den Client-Zugriff in derpublic_addressesDatei.Es ist von entscheidender Bedeutung, dass die/etc/ctdb/nodesDatei auf allen Knoten identisch ist, denn die Reihenfolge der Einträge ist wichtig und CTDB würde fehlschlagen, falls auf verschiedenen Knoten abweichende Informationen vorliegen. CTDB_PUBLIC_ADDRESSES- Spezifiziert den Speicherort der Datei, in der IP-Adressen aufgeführt sind, die zum Zugriff auf die vom Cluster exportierten Samba-Freigaben genutzt werden können. Dies sind die IP-Adressen, die Sie in DNS für den Namen des geclusterten Samba-Servers konfigurieren sollten und mit denen sich CIFS-Clients verbinden werden. Konfigurieren Sie den Namen des geclusterten Samba-Servers als einen DNS-Typ-A-Eintrag mit mehreren IP-Adressen und lassen Sie DNS die Clients reihum ("Round Robin") an die Knoten im Cluster verteilen.Für dieses Beispiel haben wir einen Round-Robin DNS-Eintrag
csmb-serverkonfiguriert mit allen Adressen, die in der/etc/ctdb/public_addressesDatei aufgeführt sind. DNS verteilt die Clients, die diesen Eintrag nutzen, reihum an die Knoten im Cluster.Die/etc/ctdb/public_addressesDatei auf jedem Knoten hat den folgenden Inhalt:192.168.1.201/0 eth0 192.168.1.202/0 eth0 192.168.1.203/0 eth0Dieses Beispiel verwendet drei Adressen, die derzeit nicht im Netzwerk verwendet werden. Wählen Sie für Ihre eigene Konfiguration Adressen, auf die von den zukünftigen Clients zugegriffen werden kann.Alternativ zeigt das folgende Beispiel die Inhalte der/etc/ctdb/public_addressesDateien in einem Cluster, der drei Knoten umfasst, jedoch insgesamt vier öffentliche Adressen hat. In diesem Beispiel kann die IP-Adresse 198.162.2.1 entweder von Knoten 0 oder Knoten 1 gehostet werden und wird für Clients verfügbar sein, solange mindestens einer dieser beiden Knoten verfügbar ist. Nur wenn Knoten 0 und 1 beide ausfallen, ist diese öffentliche Adresse für Clients nicht länger verfügbar. Alle anderen öffentlichen Adressen können jeweils von nur einem einzigen Knoten bedient werden und sind somit nur dann verfügbar, wenn auch der jeweilige Knoten verfügbar ist.Die/etc/ctdb/public_addressesDatei auf Knoten 0 hat den folgenden Inhalt:198.162.1.1/24 eth0 198.162.2.1/24 eth1Die/etc/ctdb/public_addressesDatei auf Knoten 1 hat den folgenden Inhalt:198.162.2.1/24 eth1 198.162.3.1/24 eth2Die/etc/ctdb/public_addressesDatei auf Knoten 2 hat den folgenden Inhalt:198.162.3.2/24 eth2 CTDB_RECOVERY_LOCK- Spezifiziert eine Sperrdatei, die CTDB intern zur Wiederherstellung benutzt. Diese Datei muss sich auf gemeinsam verwendetem Speicher befinden, damit alle Cluster-Knoten darauf zugreifen können. Das Beispiel in diesem Abschnitt benutzt ein GFS2-Dateisystem, das auf allen Knoten unter
/mnt/ctdbeingehängt wird. Es unterscheidet sich von jenem GFS2-Dateisystem, das die zu exportierende Samba-Freigabe enthält. Diese Sperrdatei zur Wiederherstellung wird verwendet, um eine Aufspaltung des Clusters ("Split-Brain") zu verhindern. Unter neueren Versionen von CTDB (1.0.112 und höher) ist die Angabe dieser Datei optional, vorausgesetzt, es wird ein anderer Mechanismus verwendet, der Cluster-Aufspaltungen verhindert. CTDB_MANAGES_SAMBA- Falls durch die Einstellung
yesaktiviert, darf CTDB den Samba-Dienst nach eigenem Ermessen starten und stoppen, um Dienstmigration/Ausfallsicherung zur Verfügung zu stellen.WennCTDB_MANAGES_SAMBAaktiviert ist, sollten Sie den automatischeninitStart dersmbundnmbDaemons mithilfe der folgenden Befehle deaktivieren:[root@clusmb-01 ~]# chkconfig snb off [root@clusmb-01 ~]# chkconfig nmb off CTDB_MANAGES_WINBIND- Falls durch die Einstellung
yesaktiviert, darf CTDB denwinbindDaemon nach eigenem Ermessen starten und stoppen. Dies sollte aktiviert werden, wenn Sie CTDB in einer Windows-Domain oder im Active Directory Security-Modus verwenden.WennCTDB_MANAGES_WINBINDaktiviert ist, sollten Sie den automatischeninitStart deswinbindDaemons mithilfe des folgenden Befehls deaktivieren:[root@clusmb-01 ~]# chkconfig windinbd off
11.5. Samba-Konfiguration Link kopierenLink in die Zwischenablage kopiert!
smb.conf befindet sich in diesem Beispiel unter /etc/samba/smb.conf. Sie enthält die folgenden Parameter:
[global]
guest ok = yes
clustering = yes
netbios name = csmb-server
[csmb]
comment = Clustered Samba
public = yes
path = /mnt/gfs2/share
writeable = yes
ea support = yes
csmb unter /mnt/gfs2/share. Sie unterscheidet sich vom gemeinsam verwendeten GFS2-Dateisystem unter /mnt/ctdb/.ctdb.lock, das wir als CTDB_RECOVERY_LOCK Parameter in der CTDB-Konfigurationsdatei unter /etc/sysconfig/ctdb spezifiziert haben.
share Verzeichnis in /mnt/gfs2, wenn wir es zum ersten Mal einhängen. Der clustering = yes Eintrag weist Samba zur Verwendung von CTDB an. Der netbios name = csmb-server Eintrag richtet alle Knoten explizit mit demselben NetBIOS-Namen ein. Der ea support Parameter ist erforderlich, falls Sie erweiterte Parameter nutzen möchten.
cluster.conf Konfigurationsdatei muss auf allen Cluster-Knoten identisch sein.
net conf Befehls, um die Konfiguration automatisch auf allen Cluster-Mitgliedern synchron zu halten, ohne manuell die Konfigurationsdateien zwischen den Cluster-Knoten hin- und herkopieren zu müssen. Weitere Informationen über den net conf Befehl finden Sie auf der net(8) Handbuchseite.
11.6. Starten von CTDB und Samba-Diensten Link kopierenLink in die Zwischenablage kopiert!
share Verzeichnis und den Benutzerkonten auf den Cluster-Knoten sollten für den Client-Zugriff eingerichtet sein.
ctdbd Daemon zu starten. Da dieses Beispiel CTDB mit CTDB_MANAGES_SAMBA=yes konfiguriert hat, wird CTDB auch die Samba-Dienste auf allen Knoten starten und alle konfigurierten Samba-Freigaben exportieren.
[root@clusmb-01 ~]# service ctdb start
ctdb status aus, um den Status von CTDB anzusehen, wie das folgende Beispiel veranschaulicht:
[root@clusmb-01 ~]# ctdb status
Number of nodes:3
pnn:0 192.168.1.151 OK (THIS NODE)
pnn:1 192.168.1.152 OK
pnn:2 192.168.1.153 OK
Generation:1410259202
Size:3
hash:0 lmaster:0
hash:1 lmaster:1
hash:2 lmaster:2
Recovery mode:NORMAL (0)
Recovery master:0
11.7. Verwenden des geclusterten Samba-Servers Link kopierenLink in die Zwischenablage kopiert!
/etc/ctdb/public_addresses Datei festgelegt wurden, oder indem Sie den csmb-server DNS-Eintrag nutzen, der in einem früheren Schritt konfiguriert wurde:
[root@clusmb-01 ~]# mount -t cifs //csmb-server/csmb /mnt/sambashare -o user=testmonkey
[user@clusmb-01 ~]$ smbclient //csmb-server/csmb
Anhang A. Parameter der Fencing-Geräte Link kopierenLink in die Zwischenablage kopiert!
ccs Befehls konfigurieren, oder indem Sie die etc/cluster/cluster.conf Datei bearbeiten. Eine vollständige Liste der Fencing-Geräteparameter samt Beschreibungen finden Sie auf der Handbuchseite des jeweiligen Agenten.
Anmerkung
Anmerkung
/etc/cluster/cluster.conf) nicht sichtbar sind.
fence_apc - dem Fencing-Agenten für APC über Telnet/SSH - verwendet werden.
| luci-Feld | cluster.conf Parameter | Beschreibung |
|---|---|---|
| Name | name | Ein Name für das mit dem Cluster verbundene APC-Gerät, bei dem sich der Fencing-Daemon über telnet/ssh anmeldet. |
| IP Address or Hostname | ipaddr | Die IP-Adresse oder der Hostname des Geräts. |
| IP-Port (optional) | ipport | Der zur Verbindung mit diesem Gerät zu verwendende TCP-Port. |
| Login | login | Der Login-Name für den Zugriff auf das Gerät. |
| Password | passwd | Das Passwort zur Authentifizierung der Verbindung mit dem Gerät. |
| Password Script (optional) | passwd_script | Das Skript, das ein Passwort zum Zugriff auf das Fencing-Gerät liefert. Dies ersetzt den Parameter. |
| Power Wait (seconds) | power_wait | Anzahl von Sekunden, die nach einem Befehl zum Ein- oder Ausschalten gewartet werden soll. |
| Power Timeout (seconds) | power_timeout | Anzahl von Sekunden, die nach einem Befehl zum Ein- oder Ausschalten gewartet werden soll, bevor auf eine Statusänderung hin überprüft wird. Der Standardwert ist 20. |
| Shell Timeout (seconds) | shell_timeout | Anzahl von Sekunden, die nach Eingabe eines Befehl auf die Eingabeaufforderung gewartet werden soll. Der Standardwert ist 3. |
| Login Timeout (seconds) | login_timeout | Anzahl von Sekunden, die nach der Anmeldung auf die Eingabeaufforderung gewartet werden soll. Der Standardwert ist 5. |
| Times to Retry Power On Operation | retry_on | Anzahl von Neuversuchen für einen Befehl zum Anschalten. Der Standardwert ist 1. |
| Port | port | Der Port. |
| Switch (optional) | switch | Die Switch-Nummer für den APC-Switch, der mit dem Knoten verbindet, wenn Sie mehrere in Reihe geschaltete Switches haben. |
| Delay (optional) | delay | Anzahl von Sekunden, die gewartet werden soll, bevor die Abgrenzung gestartet wird. Der Standardwert ist 0. |
| Use SSH | secure | Zeigt an, dass das System SSH zum Zugriff auf das Gerät verwendet. Bei der Verwendung von SSH müssen Sie entweder ein Passwort, ein Passwortskript oder eine Identitätsdatei angeben. |
| Path to SSH Identity File | identity_file | Die Identitätsdatei für SSH. |
fence_apc_snmp - dem Fencing-Agenten für APC, der sich direkt über das SNMP-Protokoll bei dem SNP-Gerät anmeldet - verwendet werden.
| luci-Feld | cluster.conf Parameter | Beschreibung |
|---|---|---|
| Name | name | Ein Name für das mit dem Cluster verbundene APC-Gerät, bei dem sich der Fencing-Daemon über das SNMP-Protokoll anmeldet. |
| IP Address or Hostname | ipaddr | Die IP-Adresse oder der Hostname des Geräts. |
| UDP/TCP port | udpport | Der zur Verbindung mit diesem Gerät zu verwendende UDP/TCP-Port; der Standardwert ist 161. |
| Login | login | Der Login-Name für den Zugriff auf das Gerät. |
| Password | passwd | Das Passwort zur Authentifizierung der Verbindung mit dem Gerät. |
| Password Script (optional) | passwd_script | Das Skript, das ein Passwort zum Zugriff auf das Fencing-Gerät liefert. Dies ersetzt den Parameter. |
| SNMP Version | snmp_version | Die zu verwendende SNMP-Version (1, 2c, 3); der Standardwert ist 1. |
| SNMP Community | community | Der SNMP-Community-String; der Standardwert ist private. |
| SNMP Security Level | snmp_sec_level | Die SNMP-Sicherheitsstufe (noAuthNoPriv, authNoPriv, authPriv). |
| SNMP Authentication Protocol | snmp_auth_prot | Das SNMP-Authentifizierungsprotokoll (MD5, SHA). |
| SNMP Privacy Protocol | snmp_priv_prot | Das SNMP-Verschlüsselungsprotokoll (DES, AES). |
| SNMP Privacy Protocol Password | snmp_priv_passwd | Das Passwort für das SNMP-Verschlüsselungsprotokoll. |
| SNMP Privacy Protocol Script | snmp_priv_passwd_script | Das Skript, das ein Passwort für das SNMP-Verschlüsselungsprotokoll liefert. Dies ersetzt den Parameter. |
| Power Wait (seconds) | power_wait | Anzahl von Sekunden, die nach einem Befehl zum Ein- oder Ausschalten gewartet werden soll. |
| Power Timeout (seconds) | power_timeout | Anzahl von Sekunden, die nach einem Befehl zum Ein- oder Ausschalten gewartet werden soll, bevor auf eine Statusänderung hin überprüft wird. Der Standardwert ist 20. |
| Shell Timeout (seconds) | shell_timeout | Anzahl von Sekunden, die nach Eingabe eines Befehl auf die Eingabeaufforderung gewartet werden soll. Der Standardwert ist 3. |
| Login Timeout (seconds) | login_timeout | Anzahl von Sekunden, die nach der Anmeldung auf die Eingabeaufforderung gewartet werden soll. Der Standardwert ist 5. |
| Times to Retry Power On Operation | retry_on | Anzahl von Neuversuchen für einen Befehl zum Anschalten. Der Standardwert ist 1. |
| Port (Outlet) Number | port | Der Port. |
| Delay (optional) | delay | Anzahl von Sekunden, die gewartet werden soll, bevor die Abgrenzung gestartet wird. Der Standardwert ist 0. |
fence_brocade - dem Fencing-Agenten für Brocade FC Switches - verwendet werden.
| luci-Feld | cluster.conf Parameter | Beschreibung |
|---|---|---|
| Name | name | Ein Name für das mit dem Cluster verbundene Brocade-Gerät. |
| IP Address or Hostname | ipaddr | Die IP-Adresse des Geräts. |
| Login | login | Der Login-Name für den Zugriff auf das Gerät. |
| Password | passwd | Das Passwort zur Authentifizierung der Verbindung mit dem Gerät. |
| Password Script (optional) | passwd_script | Das Skript, das ein Passwort zum Zugriff auf das Fencing-Gerät liefert. Dies ersetzt den Parameter. |
| Port | port | Die Switch-Outlet-Nummer. |
| Unfencing | unfence Abschnitt der Cluster-Konfigurations-datei | Wenn aktiviert, stellt dies sicher, dass ein abgegrenzter Knoten erst wieder reaktiviert wird, nachdem er neu gestartet wurde. Dies ist notwendig für andere Fencing-Methoden als das Power-Fencing (also SAN/Speicher-Fencing). Wenn Sie ein Gerät konfigurieren, dass Unfencing (Aufheben der Knotenabgrenzung) erfordert, muss der Cluster zunächst gestoppt werden, dann muss die vollständige Konfiguration einschließlich Geräte und Unfencing hinzugefügt werden, bevor der Cluster gestartet wird. Informationen über das Unfencing finden Sie auf der fence_node(8) Handbuchseite. Für Informationen über das Konfigurieren von Unfencing in der Cluster-Konfigurationsdatei werfen Sie einen Blick auf Abschnitt 7.3, »Konfiguration von Fencing«. Für Informationen über das Konfigurieren von Unfencing mit dem ccs Befehl werfen Sie einen Blick auf Abschnitt 5.7.2, »Konfiguration eines einzelnen Speicher-Fencing-Geräts für einen Knoten«. |
fence_cisco_mds - dem Fencing-Agenten für Cisco MDS - verwendet werden.
| luci-Feld | cluster.conf Parameter | Beschreibung |
|---|---|---|
| Name | name | Ein Name für das Cisco MDS 9000 Series Gerät mit aktiviertem SNMP. |
| IP Address or Hostname | ipaddr | Die IP-Adresse oder der Hostname des Geräts. |
| UDP/TCP port (optional) | udpport | Der zur Verbindung mit diesem Gerät zu verwendende UDP/TCP-Port; der Standardwert ist 161. |
| Login | login | Der Login-Name für den Zugriff auf das Gerät. |
| Password | passwd | Das Passwort zur Authentifizierung der Verbindung mit dem Gerät. |
| Password Script (optional) | passwd_script | Das Skript, das ein Passwort zum Zugriff auf das Fencing-Gerät liefert. Dies ersetzt den Parameter. |
| SNMP Version | snmp_version | Die zu verwendende SNMP-Version (1, 2c, 3). |
| SNMP Community | community | Der SNMP-Community-String. |
| SNMP Security Level | snmp_sec_level | Die SNMP-Sicherheitsstufe (noAuthNoPriv, authNoPriv, authPriv). |
| SNMP Authentication Protocol | snmp_auth_prot | Das SNMP-Authentifizierungsprotokoll (MD5, SHA). |
| SNMP Privacy Protocol | snmp_priv_prot | Das SNMP-Verschlüsselungsprotokoll (DES, AES). |
| SNMP Privacy Protocol Password | snmp_priv_passwd | Das Passwort für das SNMP-Verschlüsselungsprotokoll. |
| SNMP Privacy Protocol Script | snmp_priv_passwd_script | Das Skript, das ein Passwort für das SNMP-Verschlüsselungsprotokoll liefert. Dies ersetzt den Parameter. |
| Power Wait (seconds) | power_wait | Anzahl von Sekunden, die nach einem Befehl zum Ein- oder Ausschalten gewartet werden soll. |
| Power Timeout (seconds) | power_timeout | Anzahl von Sekunden, die nach einem Befehl zum Ein- oder Ausschalten gewartet werden soll, bevor auf eine Statusänderung hin überprüft wird. Der Standardwert ist 20. |
| Shell Timeout (seconds) | shell_timeout | Anzahl von Sekunden, die nach Eingabe eines Befehl auf die Eingabeaufforderung gewartet werden soll. Der Standardwert ist 3. |
| Login Timeout (seconds) | login_timeout | Anzahl von Sekunden, die nach der Anmeldung auf die Eingabeaufforderung gewartet werden soll. Der Standardwert ist 5. |
| Times to Retry Power On Operation | retry_on | Anzahl von Neuversuchen für einen Befehl zum Anschalten. Der Standardwert ist 1. |
| Port (Outlet) Number | port | Der Port. |
| Delay (optional) | delay | Anzahl von Sekunden, die gewartet werden soll, bevor die Abgrenzung gestartet wird. Der Standardwert ist 0. |
fence_cisco_ucs - dem Fencing-Agenten für Cisco UCS - verwendet werden.
| luci-Feld | cluster.conf Parameter | Beschreibung |
|---|---|---|
| Name | name | Ein Name für das Cisco UCS-Gerät. |
| IP Address or Hostname | ipaddr | Die IP-Adresse oder der Hostname des Geräts. |
| IP port (optional) | ipport | Der zur Verbindung mit diesem Gerät zu verwendende TCP-Port. |
| Login | login | Der Login-Name für den Zugriff auf das Gerät. |
| Password | passwd | Das Passwort zur Authentifizierung der Verbindung mit dem Gerät. |
| Password Script (optional) | passwd_script | Das Skript, das ein Passwort zum Zugriff auf das Fencing-Gerät liefert. Dies ersetzt den Parameter. |
| Use SSL | ssl | SSL-Verbindungen zur Kommunikation mit dem Gerät verwenden. |
| Sub-Organization | suborg | Zusätzlicher Pfad zum Zugriff auf Unterorganisation. |
| Power Wait (seconds) | power_wait | Anzahl von Sekunden, die nach einem Befehl zum Ein- oder Ausschalten gewartet werden soll. |
| Power Timeout (seconds) | power_timeout | Anzahl von Sekunden, die nach einem Befehl zum Ein- oder Ausschalten gewartet werden soll, bevor auf eine Statusänderung hin überprüft wird. Der Standardwert ist 20. |
| Shell Timeout (seconds) | shell_timeout | Anzahl von Sekunden, die nach Eingabe eines Befehl auf die Eingabeaufforderung gewartet werden soll. Der Standardwert ist 3. |
| Login Timeout (seconds) | login_timeout | Anzahl von Sekunden, die nach der Anmeldung auf die Eingabeaufforderung gewartet werden soll. Der Standardwert ist 5. |
| Times to Retry Power On Operation | retry_on | Anzahl von Neuversuchen für einen Befehl zum Anschalten. Der Standardwert ist 1. |
| Port (Outlet) Number | port | Name der virtuellen Maschine. |
| Delay (optional) | delay | Anzahl von Sekunden, die gewartet werden soll, bevor die Abgrenzung gestartet wird. Der Standardwert ist 0. |
fence_drac5 - dem Fencing-Agent für Dell DRAC 5 - verwendet werden.
| luci-Feld | cluster.conf Parameter | Beschreibung |
|---|---|---|
| Name | name | Der dem DRAC zugewiesene Name. |
| IP Address or Hostname | ipaddr | Die IP-Adresse oder der Hostname für den DRAC. |
| IP-Port (optional) | ipport | Der zur Verbindung mit diesem Gerät zu verwendende TCP-Port. |
| Login | login | Der Login-Name für den Zugriff auf den DRAC. |
| Password | passwd | Das Passwort zur Authentifizierung der Verbindung mit dem DRAC. |
| Password Script (optional) | passwd_script | Das Skript, das ein Passwort zum Zugriff auf das Fencing-Gerät liefert. Dies ersetzt den Parameter. |
| Use SSH | secure | Zeigt an, dass das System SSH zum Zugriff auf das Gerät verwendet. Bei der Verwendung von SSH müssen Sie entweder ein Passwort, ein Passwortskript oder eine Identitätsdatei angeben. |
| Path to SSH Identity File | identity_file | Die Identitätsdatei für SSH. |
| Module Name | module_name | (optional) Der Modulname für den DRAC, wenn Sie mehrere DRAC-Module haben. |
| Force Command Prompt | cmd_prompt | Die zu verwendende Eingabeaufforderung. Der Standardwert ist ’\$’. |
| Power Wait (seconds) | power_wait | Anzahl von Sekunden, die nach einem Befehl zum Ein- oder Ausschalten gewartet werden soll. |
| Delay (seconds) | delay | Anzahl von Sekunden, die gewartet werden soll, bevor die Abgrenzung gestartet wird. Der Standardwert ist 0. |
| Power Timeout (seconds) | power_timeout | Anzahl von Sekunden, die nach einem Befehl zum Ein- oder Ausschalten gewartet werden soll, bevor auf eine Statusänderung hin überprüft wird. Der Standardwert ist 20. |
| Shell Timeout (seconds) | shell_timeout | Anzahl von Sekunden, die nach Eingabe eines Befehl auf die Eingabeaufforderung gewartet werden soll. Der Standardwert ist 3. |
| Login Timeout (seconds) | login_timeout | Anzahl von Sekunden, die nach der Anmeldung auf die Eingabeaufforderung gewartet werden soll. Der Standardwert ist 5. |
| Times to Retry Power On Operation | retry_on | Anzahl von Neuversuchen für einen Befehl zum Anschalten. Der Standardwert ist 1. |
fence_eaton_snmp - dem Fencing-Agent für den Eaton über SNMP Network Power Switch - verwendet werden.
| luci-Feld | cluster.conf Parameter | Beschreibung |
|---|---|---|
| Name | name | Ein Name für den mit dem Cluster verbundenen Eaton Netzwerk Stromversorgungs-Schalter. |
| IP Address or Hostname | ipaddr | Die IP-Adresse oder der Hostname des Geräts. |
| UDP/TCP Port (optional) | udpport | Der zur Verbindung mit diesem Gerät zu verwendende UDP/TCP-Port; der Standardwert ist 161. |
| Login | login | Der Login-Name für den Zugriff auf das Gerät. |
| Password | passwd | Das Passwort zur Authentifizierung der Verbindung mit dem Gerät. |
| Password Script (optional) | passwd_script | Das Skript, das ein Passwort zum Zugriff auf das Fencing-Gerät liefert. Dies ersetzt den Parameter. |
| SNMP Version | snmp_version | Die zu verwendende SNMP-Version (1, 2c, 3); der Standardwert ist 1. |
| SNMP Community | community | Der SNMP-Community-String; der Standardwert ist private. |
| SNMP Security Level | snmp_sec_level | Die SNMP-Sicherheitsstufe (noAuthNoPriv, authNoPriv, authPriv). |
| SNMP Authentication Protocol | snmp_auth_prot | Das SNMP-Authentifizierungsprotokoll (MD5, SHA). |
| SNMP Privacy Protocol | snmp_priv_prot | Das SNMP-Verschlüsselungsprotokoll (DES, AES). |
| SNMP Privacy Protocol Password | snmp_priv_passwd | Das Passwort für das SNMP-Verschlüsselungsprotokoll. |
| SNMP Privacy Protocol Script | snmp_priv_passwd_script | Das Skript, das ein Passwort für das SNMP-Verschlüsselungsprotokoll liefert. Dies ersetzt den Parameter. |
| Power Wait (seconds) | power_wait | Anzahl von Sekunden, die nach einem Befehl zum Ein- oder Ausschalten gewartet werden soll. |
| Power Timeout (seconds) | power_timeout | Anzahl von Sekunden, die nach einem Befehl zum Ein- oder Ausschalten gewartet werden soll, bevor auf eine Statusänderung hin überprüft wird. Der Standardwert ist 20. |
| Shell Timeout (seconds) | shell_timeout | Anzahl von Sekunden, die nach Eingabe eines Befehl auf die Eingabeaufforderung gewartet werden soll. Der Standardwert ist 3. |
| Login Timeout (seconds) | login_timeout | Anzahl von Sekunden, die nach der Anmeldung auf die Eingabeaufforderung gewartet werden soll. Der Standardwert ist 5. |
| Times to Retry Power On Operation | retry_on | Anzahl von Neuversuchen für einen Befehl zum Anschalten. Der Standardwert ist 1. |
| Port (Outlet) Number | port | Physische Anschlussnummer oder Name der virtuellen Maschine. Dieser Parameter ist immer erforderlich. |
| Delay (optional) | delay | Anzahl von Sekunden, die gewartet werden soll, bevor die Abgrenzung gestartet wird. Der Standardwert ist 0. |
fence_egenera - dem Fencing-Agent für Egenera BladeFrame - verwendet werden.
| luci-Feld | cluster.conf Parameter | Beschreibung |
|---|---|---|
| Name | name | Ein Name für das mit dem Cluster verbundene Egenera BladeFrame-Gerät. |
| CServer | cserver | Der dem Gerät zugewiesene Hostname (und optional der Benutzername in der Form username@hostname). Siehe die fence_egenera(8) Handbuchseite für weitere Informationen. |
| ESH Path (optional) | esh | Der Pfad zum esh-Befehl auf dem cserver (Standard ist /opt/panmgr/bin/esh) |
| Username | user | Der Loginname. Der Standardwert ist root. |
| lpan | lpan | Das Logical Process Area Network (LPAN) des Geräts. |
| pserver | pserver | Der Name des Processing Blade (pserver) des Geräts. |
| Delay (optional) | delay | Anzahl von Sekunden, die gewartet werden soll, bevor die Abgrenzung gestartet wird. Der Standardwert ist 0. |
| Unfencing | unfence Abschnitt der Cluster-Konfigurations-datei | Wenn aktiviert, stellt dies sicher, dass ein abgegrenzter Knoten erst wieder reaktiviert wird, nachdem er neu gestartet wurde. Dies ist notwendig für andere Fencing-Methoden als das Power-Fencing (also SAN/Speicher-Fencing). Wenn Sie ein Gerät konfigurieren, dass Unfencing (Aufheben der Knotenabgrenzung) erfordert, muss der Cluster zunächst gestoppt werden, dann muss die vollständige Konfiguration einschließlich Geräte und Unfencing hinzugefügt werden, bevor der Cluster gestartet wird. Informationen über das Unfencing finden Sie auf der fence_node(8) Handbuchseite. Für Informationen über das Konfigurieren von Unfencing in der Cluster-Konfigurationsdatei werfen Sie einen Blick auf Abschnitt 7.3, »Konfiguration von Fencing«. Für Informationen über das Konfigurieren von Unfencing mit dem ccs Befehl werfen Sie einen Blick auf Abschnitt 5.7.2, »Konfiguration eines einzelnen Speicher-Fencing-Geräts für einen Knoten«. |
fence_eps - dem Fencing-Agent für ePowerSwitch - verwendet werden.
| luci-Feld | cluster.conf Parameter | Beschreibung |
|---|---|---|
| Name | name | Ein Name für das mit dem Cluster verbundene ePowerSwitch-Gerät. |
| IP Address or Hostname | ipaddr | Die IP-Adresse oder der Hostname des Geräts. |
| Login | login | Der Login-Name für den Zugriff auf das Gerät. |
| Password | passwd | Das Passwort zur Authentifizierung der Verbindung mit dem Gerät. |
| Password Script (optional) | passwd_script | Das Skript, das ein Passwort zum Zugriff auf das Fencing-Gerät liefert. Dies ersetzt den Parameter. |
| Name of Hidden Page | hidden_page | Der Name der Hidden Page für das Gerät. |
| Times to Retry Power On Operation | retry_on | Anzahl von Neuversuchen für einen Befehl zum Anschalten. Der Standardwert ist 1. |
| Port (Outlet) Number | port | Physische Anschlussnummer oder Name der virtuellen Maschine. |
| Delay (optional) | delay | Anzahl von Sekunden, die gewartet werden soll, bevor die Abgrenzung gestartet wird. Der Standardwert ist 0. |
fence_virt - dem Fencing-Agenten für ein Fence-virt-fence-Gerät - verwendet werden.
| luci-Feld | cluster.conf Parameter | Beschreibung |
|---|---|---|
| Name | name | Ein Name für das Fence virt Fencing-Gerät. |
| Serial Device | serial_device | Auf dem Host muss das serielle Gerät in der Konfigurationsdatei einer jeden Domain zugewiesen sein. Für weitere Informationen siehe die fence_virt.conf Handbuchseite. Ist dieses Feld angegeben, veranlasst dies den fence_virt Fencing-Agenten zum Betrieb im seriellen Modus. Wird kein Wert angegeben, veranlasst dies den fence_virt Fencing-Agenten zum Betrieb im VM-Channel-Modus. |
| Serial Parameters | serial_params | Die seriellen Parameter. Der Standard ist 115200, 8N1. |
| VM Channel IP Adresse | channel_address | Die Channel-IP. Der Standardwert ist 10.0.2.179. |
| Port or Domain (deprecated) | port | Die abzugrenzende virtuelle Maschine (Domain-UUID oder Name). |
ipport | Der Channel-Port. Der Standardwert ist 1229, dieser Wert wird verwendet, wenn das Fencing-Gerät mit luci konfiguriert wird. |
fence_rsb - dem Fencing-Agent für Fujitsu-Siemens RSB - verwendet werden.
| luci-Feld | cluster.conf Parameter | Beschreibung |
|---|---|---|
| Name | name | Ein Name des RSB, das als Fencing-Gerät verwendet werden soll. |
| IP Address or Hostname | ipaddr | Der Hostname des Geräts. |
| Login | login | Der Login-Name für den Zugriff auf das Gerät. |
| Password | passwd | Das Passwort zur Authentifizierung der Verbindung mit dem Gerät. |
| Password Script (optional) | passwd_script | Das Skript, das ein Passwort zum Zugriff auf das Fencing-Gerät liefert. Dies ersetzt den Parameter. |
| TCP Port | ipport | Die Port-Nummer, auf dem der telnet-Dienst horcht. Der Standardwert ist 3172. |
| Force Command Prompt | cmd_prompt | Die zu verwendende Eingabeaufforderung. Der Standardwert ist ’\$’. |
| Power Wait (seconds) | power_wait | Anzahl von Sekunden, die nach einem Befehl zum Ein- oder Ausschalten gewartet werden soll. |
| Delay (seconds) | delay | Anzahl von Sekunden, die gewartet werden soll, bevor die Abgrenzung gestartet wird. Der Standardwert ist 0. |
| Power Timeout (seconds) | power_timeout | Anzahl von Sekunden, die nach einem Befehl zum Ein- oder Ausschalten gewartet werden soll, bevor auf eine Statusänderung hin überprüft wird. Der Standardwert ist 20. |
| Shell Timeout (seconds) | shell_timeout | Anzahl von Sekunden, die nach Eingabe eines Befehl auf die Eingabeaufforderung gewartet werden soll. Der Standardwert ist 3. |
| Login Timeout (seconds) | login_timeout | Anzahl von Sekunden, die nach der Anmeldung auf die Eingabeaufforderung gewartet werden soll. Der Standardwert ist 5. |
| Times to Retry Power On Operation | retry_on | Anzahl von Neuversuchen für einen Befehl zum Anschalten. Der Standardwert ist 1. |
fence_hpblade - dem Fencing-Agent für das HP Bladesystem - verwendet werden.
| luci-Feld | cluster.conf Parameter | Beschreibung |
|---|---|---|
| Name | name | Der Name für das mit dem Cluster verbundene HP BladeSystem-Gerät. |
| IP Address or Hostname | ipaddr | Die IP-Adresse oder der Hostname, der dem HP BladeSystem zugeordnet ist. |
| IP-Port (optional) | ipport | Der zur Verbindung mit diesem Gerät zu verwendende TCP-Port. |
| Login | login | Der Login-Name für den Zugriff auf das HP BladeSystem Gerät. Dieser Parameter ist notwendig. |
| Password | passwd | Das Passwort zur Authentifizierung der Verbindung mit dem Fencing-Gerät. |
| Password Script (optional) | passwd_script | Das Skript, das ein Passwort zum Zugriff auf das Fencing-Gerät liefert. Dies ersetzt den Parameter. |
| Force Command Prompt | cmd_prompt | Die zu verwendende Eingabeaufforderung. Der Standardwert ist ’\$’. |
| Missing port returns OFF instead of failure | missing_as_off | Fehlender Port gibt OFF statt Misserfolg zurück. |
| Power Wait (seconds) | power_wait | Anzahl von Sekunden, die nach einem Befehl zum Ein- oder Ausschalten gewartet werden soll. |
| Power Timeout (seconds) | power_timeout | Anzahl von Sekunden, die nach einem Befehl zum Ein- oder Ausschalten gewartet werden soll, bevor auf eine Statusänderung hin überprüft wird. Der Standardwert ist 20. |
| Shell Timeout (seconds) | shell_timeout | Anzahl von Sekunden, die nach Eingabe eines Befehl auf die Eingabeaufforderung gewartet werden soll. Der Standardwert ist 3. |
| Login Timeout (seconds) | login_timeout | Anzahl von Sekunden, die nach der Anmeldung auf die Eingabeaufforderung gewartet werden soll. Der Standardwert ist 5. |
| Times to Retry Power On Operation | retry_on | Anzahl von Neuversuchen für einen Befehl zum Anschalten. Der Standardwert ist 1. |
| Use SSH | secure | Zeigt an, dass das System SSH zum Zugriff auf das Gerät verwendet. Bei der Verwendung von SSH müssen Sie entweder ein Passwort, ein Passwortskript oder eine Identitätsdatei angeben. |
| Path to SSH Identity File | identity_file | Die Identitätsdatei für SSH. |
fence_ilo und HP iLO2 Geräte fence_ilo2 verwenden dieselbe Implementation. Tabelle A.14, »HP iLO (Integrated Lights Out) und HP iLO2« listet die Fencing-Geräteparameter auf, die von diesen Agents verwendet werden.
| luci-Feld | cluster.conf Parameter | Beschreibung |
|---|---|---|
| Name | name | Ein Name für den Server mit HP iLO Unterstützung. |
| IP Address or Hostname | ipaddr | Die IP-Adresse oder der Hostname des Geräts. |
| IP-Port (optional) | ipport | Der zur Verbindung mit diesem Gerät zu verwendende TCP-Port. |
| Login | login | Der Login-Name für den Zugriff auf das Gerät. |
| Password | passwd | Das Passwort zur Authentifizierung der Verbindung mit dem Gerät. |
| Password Script (optional) | passwd_script | Das Skript, das ein Passwort zum Zugriff auf das Fencing-Gerät liefert. Dies ersetzt den Parameter. |
| Power Wait (seconds) | power_wait | Anzahl von Sekunden, die nach einem Befehl zum Ein- oder Ausschalten gewartet werden soll. |
| Delay (seconds) | delay | Anzahl von Sekunden, die gewartet werden soll, bevor die Abgrenzung gestartet wird. Der Standardwert ist 0. |
| Power Timeout (seconds) | power_timeout | Anzahl von Sekunden, die nach einem Befehl zum Ein- oder Ausschalten gewartet werden soll, bevor auf eine Statusänderung hin überprüft wird. Der Standardwert ist 20. |
| Shell Timeout (seconds) | shell_timeout | Anzahl von Sekunden, die nach Eingabe eines Befehl auf die Eingabeaufforderung gewartet werden soll. Der Standardwert ist 3. |
| Login Timeout (seconds) | login_timeout | Anzahl von Sekunden, die nach der Anmeldung auf die Eingabeaufforderung gewartet werden soll. Der Standardwert ist 5. |
| Times to Retry Power On Operation | retry_on | Anzahl von Neuversuchen für einen Befehl zum Anschalten. Der Standardwert ist 1. |
fence_ilo_mp - dem Fencing-Agenten für HP-iLO-MP-Geräte - verwendet werden.
| luci-Feld | cluster.conf Parameter | Beschreibung |
|---|---|---|
| Name | name | Ein Name für den Server mit HP iLO Unterstützung. |
| IP Address or Hostname | ipaddr | Die IP-Adresse oder der Hostname des Geräts. |
| IP-Port (optional) | ipport | Der zur Verbindung mit diesem Gerät zu verwendende TCP-Port. |
| Login | login | Der Login-Name für den Zugriff auf das Gerät. |
| Password | passwd | Das Passwort zur Authentifizierung der Verbindung mit dem Gerät. |
| Password Script (optional) | passwd_script | Das Skript, das ein Passwort zum Zugriff auf das Fencing-Gerät liefert. Dies ersetzt den Parameter. |
| Use SSH | secure | Zeigt an, dass das System SSH zum Zugriff auf das Gerät verwendet. Bei der Verwendung von SSH müssen Sie entweder ein Passwort, ein Passwortskript oder eine Identitätsdatei angeben. |
| Path to SSH Identity File | identity_file | Die Identitätsdatei für SSH. |
| Force Command Prompt | cmd_prompt | Die zu verwendende Eingabeaufforderung. Der Standardwert ist ’MP>’, ’hpiLO->’. |
| Power Wait (seconds) | power_wait | Anzahl von Sekunden, die nach einem Befehl zum Ein- oder Ausschalten gewartet werden soll. |
| Delay (seconds) | delay | Anzahl von Sekunden, die gewartet werden soll, bevor die Abgrenzung gestartet wird. Der Standardwert ist 0. |
| Power Timeout (seconds) | power_timeout | Anzahl von Sekunden, die nach einem Befehl zum Ein- oder Ausschalten gewartet werden soll, bevor auf eine Statusänderung hin überprüft wird. Der Standardwert ist 20. |
| Shell Timeout (seconds) | shell_timeout | Anzahl von Sekunden, die nach Eingabe eines Befehl auf die Eingabeaufforderung gewartet werden soll. Der Standardwert ist 3. |
| Login Timeout (seconds) | login_timeout | Anzahl von Sekunden, die nach der Anmeldung auf die Eingabeaufforderung gewartet werden soll. Der Standardwert ist 5. |
| Times to Retry Power On Operation | retry_on | Anzahl von Neuversuchen für einen Befehl zum Anschalten. Der Standardwert ist 1. |
fence_bladecenter - dem Fencing-Agent für IBM BladeCenter - verwendet werden.
| luci-Feld | cluster.conf Parameter | Beschreibung |
|---|---|---|
| Name | name | Ein Name für das mit dem Cluster verbundene IBM BladeCenter-Gerät. |
| IP Address or Hostname | ipaddr | Die IP-Adresse oder der Hostname des Geräts. |
| IP port (optional) | ipport | Der zur Verbindung mit diesem Gerät zu verwendende TCP-Port. |
| Login | login | Der Login-Name für den Zugriff auf das Gerät. |
| Password | passwd | Das Passwort zur Authentifizierung der Verbindung mit dem Gerät. |
| Password Script (optional) | passwd_script | Das Skript, das ein Passwort zum Zugriff auf das Fencing-Gerät liefert. Dies ersetzt den Parameter. |
| Power Wait (seconds) | power_wait | Anzahl von Sekunden, die nach einem Befehl zum Ein- oder Ausschalten gewartet werden soll. |
| Power Timeout (seconds) | power_timeout | Anzahl von Sekunden, die nach einem Befehl zum Ein- oder Ausschalten gewartet werden soll, bevor auf eine Statusänderung hin überprüft wird. Der Standardwert ist 20. |
| Shell Timeout (seconds) | shell_timeout | Anzahl von Sekunden, die nach Eingabe eines Befehl auf die Eingabeaufforderung gewartet werden soll. Der Standardwert ist 3. |
| Login Timeout (seconds) | login_timeout | Anzahl von Sekunden, die nach der Anmeldung auf die Eingabeaufforderung gewartet werden soll. Der Standardwert ist 5. |
| Times to Retry Power On Operation | retry_on | Anzahl von Neuversuchen für einen Befehl zum Anschalten. Der Standardwert ist 1. |
| Use SSH | secure | Zeigt an, dass das System SSH zum Zugriff auf das Gerät verwendet. Bei der Verwendung von SSH müssen Sie entweder ein Passwort, ein Passwortskript oder eine Identitätsdatei angeben. |
| Path to SSH Identity File | identity_file | Die Identitätsdatei für SSH. |
fence_ibmblade - dem Fencing-Agenten für IBM BladeCenter über SNMP - verwendet werden.
| luci-Feld | cluster.conf Parameter | Beschreibung |
|---|---|---|
| Name | name | Ein Name für das mit dem Cluster verbundene IBM BladeCenter SNMP-Gerät. |
| IP Address or Hostname | ipaddr | Die IP-Adresse oder der Hostname des Geräts. |
| UDP/TCP Port (optional) | udpport | Der zur Verbindung mit diesem Gerät zu verwendende UDP/TCP-Port; der Standardwert ist 161. |
| Login | login | Der Login-Name für den Zugriff auf das Gerät. |
| Password | passwd | Das Passwort zur Authentifizierung der Verbindung mit dem Gerät. |
| Password Script (optional) | passwd_script | Das Skript, das ein Passwort zum Zugriff auf das Fencing-Gerät liefert. Dies ersetzt den Parameter. |
| SNMP Version | snmp_version | Die zu verwendende SNMP-Version (1, 2c, 3); der Standardwert ist 1. |
| SNMP Community | community | Der SNMP-Community-String. |
| SNMP Security Level | snmp_sec_level | Die SNMP-Sicherheitsstufe (noAuthNoPriv, authNoPriv, authPriv). |
| SNMP Authentication Protocol | snmp_auth_prot | Das SNMP-Authentifizierungsprotokoll (MD5, SHA). |
| SNMP Privacy Protocol | snmp_priv_prot | Das SNMP-Verschlüsselungsprotokoll (DES, AES). |
| SNMP privacy protocol password | snmp_priv_passwd | Das Passwort für das SNMP-Verschlüsselungsprotokoll. |
| SNMP Privacy Protocol Script | snmp_priv_passwd_script | Das Skript, das ein Passwort für das SNMP-Verschlüsselungsprotokoll liefert. Dies ersetzt den Parameter. |
| Power Wait (seconds) | power_wait | Anzahl von Sekunden, die nach einem Befehl zum Ein- oder Ausschalten gewartet werden soll. |
| Power Timeout (seconds) | power_timeout | Anzahl von Sekunden, die nach einem Befehl zum Ein- oder Ausschalten gewartet werden soll, bevor auf eine Statusänderung hin überprüft wird. Der Standardwert ist 20. |
| Shell Timeout (seconds) | shell_timeout | Anzahl von Sekunden, die nach Eingabe eines Befehl auf die Eingabeaufforderung gewartet werden soll. Der Standardwert ist 3. |
| Login Timeout (seconds) | login_timeout | Anzahl von Sekunden, die nach der Anmeldung auf die Eingabeaufforderung gewartet werden soll. Der Standardwert ist 5. |
| Times to Retry Power On Operation | retry_on | Anzahl von Neuversuchen für einen Befehl zum Anschalten. Der Standardwert ist 1. |
| Port (Outlet) Number | port | Physische Anschlussnummer oder Name der virtuellen Maschine. |
| Delay (optional) | delay | Anzahl von Sekunden, die gewartet werden soll, bevor die Abgrenzung gestartet wird. Der Standardwert ist 0. |
fence_ipdu - dem Fencing-Agenten für iPDU over SNMP-Geräten - verwendet werden.
| luci-Feld | cluster.conf Parameter | Beschreibung |
|---|---|---|
| Name | name | Ein Name für das mit dem Cluster verbundene IBM iPDU Gerät, bei dem sich der Fencing-Daemon über das SNMP-Protokoll anmeldet. |
| IP Address or Hostname | ipaddr | Die IP-Adresse oder der Hostname des Geräts. |
| UDP/TCP Port | udpport | Der zur Verbindung mit diesem Gerät zu verwendende UDP/TCP-Port; der Standardwert ist 161. |
| Login | login | Der Login-Name für den Zugriff auf das Gerät. |
| Password | passwd | Das Passwort zur Authentifizierung der Verbindung mit dem Gerät. |
| Password Script (optional) | passwd_script | Das Skript, das ein Passwort zum Zugriff auf das Fencing-Gerät liefert. Dies ersetzt den Parameter. |
| SNMP Version | snmp_version | Die zu verwendende SNMP-Version (1, 2c, 3); der Standardwert ist 1. |
| SNMP Community | community | Der SNMP-Community-String; der Standardwert ist private. |
| SNMP Security Level | snmp_sec_level | Die SNMP-Sicherheitsstufe (noAuthNoPriv, authNoPriv, authPriv). |
| SNMP Authentication Protocol | snmp_auth_prot | Das SNMP-Authentifizierungsprotokoll (MD5, SHA). |
| SNMP Privacy Protocol | snmp_priv_prot | Das SNMP-Verschlüsselungsprotokoll (DES, AES). |
| SNMP Privacy Protocol Password | snmp_priv_passwd | Das Passwort für das SNMP-Verschlüsselungsprotokoll. |
| SNMP Privacy Protocol Script | snmp_priv_passwd_script | Das Skript, das ein Passwort für das SNMP-Verschlüsselungsprotokoll liefert. Dies ersetzt den Parameter. |
| Power Wait (seconds) | power_wait | Anzahl von Sekunden, die nach einem Befehl zum Ein- oder Ausschalten gewartet werden soll. |
| Power Timeout (seconds) | power_timeout | Anzahl von Sekunden, die nach einem Befehl zum Ein- oder Ausschalten gewartet werden soll, bevor auf eine Statusänderung hin überprüft wird. Der Standardwert ist 20. |
| Shell Timeout (seconds) | shell_timeout | Anzahl von Sekunden, die nach Eingabe eines Befehl auf die Eingabeaufforderung gewartet werden soll. Der Standardwert ist 3. |
| Login Timeout (seconds) | login_timeout | Anzahl von Sekunden, die nach der Anmeldung auf die Eingabeaufforderung gewartet werden soll. Der Standardwert ist 5. |
| Times to Retry Power On Operation | retry_on | Anzahl von Neuversuchen für einen Befehl zum Anschalten. Der Standardwert ist 1. |
| Port (Outlet) Number | port | Physische Anschlussnummer oder Name der virtuellen Maschine. |
| Delay (optional) | delay | Anzahl von Sekunden, die gewartet werden soll, bevor die Abgrenzung gestartet wird. Der Standardwert ist 0. |
fence_ifmib - dem Fencing-Agenten für IF-MIB-Geräte - verwendet werden.
| luci-Feld | cluster.conf Parameter | Beschreibung |
|---|---|---|
| Name | name | Ein Name für das mit dem Cluster verbundene IF MIB-Gerät. |
| IP Address or Hostname | ipaddr | Die IP-Adresse oder der Hostname des Geräts. |
| UDP/TCP Port (optional) | udpport | Der zur Verbindung mit diesem Gerät zu verwendende UDP/TCP-Port; der Standardwert ist 161. |
| Login | login | Der Login-Name für den Zugriff auf das Gerät. |
| Password | passwd | Das Passwort zur Authentifizierung der Verbindung mit dem Gerät. |
| Password Script (optional) | passwd_script | Das Skript, das ein Passwort zum Zugriff auf das Fencing-Gerät liefert. Dies ersetzt den Parameter. |
| SNMP Version | snmp_version | Die zu verwendende SNMP-Version (1, 2c, 3); der Standardwert ist 1. |
| SNMP Community | community | Der SNMP-Community-String. |
| SNMP Security Level | snmp_sec_level | Die SNMP-Sicherheitsstufe (noAuthNoPriv, authNoPriv, authPriv). |
| SNMP Authentication Protocol | snmp_auth_prot | Das SNMP-Authentifizierungsprotokoll (MD5, SHA). |
| SNMP Privacy Protocol | snmp_priv_prot | Das SNMP-Verschlüsselungsprotokoll (DES, AES). |
| SNMP Privacy Protocol Password | snmp_priv_passwd | Das Passwort für das SNMP-Verschlüsselungsprotokoll. |
| SNMP Privacy Protocol Script | snmp_priv_passwd_script | Das Skript, das ein Passwort für das SNMP-Verschlüsselungsprotokoll liefert. Dies ersetzt den Parameter. |
| Power Wait (seconds) | power_wait | Anzahl von Sekunden, die nach einem Befehl zum Ein- oder Ausschalten gewartet werden soll. |
| Power Timeout (seconds) | power_timeout | Anzahl von Sekunden, die nach einem Befehl zum Ein- oder Ausschalten gewartet werden soll, bevor auf eine Statusänderung hin überprüft wird. Der Standardwert ist 20. |
| Shell Timeout (seconds) | shell_timeout | Anzahl von Sekunden, die nach Eingabe eines Befehl auf die Eingabeaufforderung gewartet werden soll. Der Standardwert ist 3. |
| Login Timeout (seconds) | login_timeout | Anzahl von Sekunden, die nach der Anmeldung auf die Eingabeaufforderung gewartet werden soll. Der Standardwert ist 5. |
| Times to Retry Power On Operation | retry_on | Anzahl von Neuversuchen für einen Befehl zum Anschalten. Der Standardwert ist 1. |
| Port (Outlet) Number | port | Physische Anschlussnummer oder Name der virtuellen Maschine. |
| Delay (optional) | delay | Anzahl von Sekunden, die gewartet werden soll, bevor die Abgrenzung gestartet wird. Der Standardwert ist 0. |
fence_intelmodular - dem Fencing-Agenten für Intel Modular - verwendet werden.
| luci-Feld | cluster.conf Parameter | Beschreibung |
|---|---|---|
| Name | name | Ein Name für das mit dem Cluster verbundene Intel Modular-Gerät. |
| IP Address or Hostname | ipaddr | Die IP-Adresse oder der Hostname des Geräts. |
| UDP/TCP Port (optional) | udpport | Der zur Verbindung mit diesem Gerät zu verwendende UDP/TCP-Port; der Standardwert ist 161. |
| Login | login | Der Login-Name für den Zugriff auf das Gerät. |
| Password | passwd | Das Passwort zur Authentifizierung der Verbindung mit dem Gerät. |
| Password Script (optional) | passwd_script | Das Skript, das ein Passwort zum Zugriff auf das Fencing-Gerät liefert. Dies ersetzt den Parameter. |
| SNMP Version | snmp_version | Die zu verwendende SNMP-Version (1, 2c, 3); der Standardwert ist 1. |
| SNMP Community | community | Der SNMP-Community-String; der Standardwert ist private. |
| SNMP Security Level | snmp_sec_level | Die SNMP-Sicherheitsstufe (noAuthNoPriv, authNoPriv, authPriv). |
| SNMP Authentication Protocol | snmp_auth_prot | Das SNMP-Authentifizierungsprotokoll (MD5, SHA). |
| SNMP Privacy Protocol | snmp_priv_prot | Das SNMP-Verschlüsselungsprotokoll (DES, AES). |
| SNMP Privacy Protocol Password | snmp_priv_passwd | Das Passwort für das SNMP-Verschlüsselungsprotokoll. |
| SNMP Privacy Protocol Script | snmp_priv_passwd_script | Das Skript, das ein Passwort für das SNMP-Verschlüsselungsprotokoll liefert. Dies ersetzt den Parameter. |
| Power Wait (seconds) | power_wait | Anzahl von Sekunden, die nach einem Befehl zum Ein- oder Ausschalten gewartet werden soll. |
| Power Timeout (seconds) | power_timeout | Anzahl von Sekunden, die nach einem Befehl zum Ein- oder Ausschalten gewartet werden soll, bevor auf eine Statusänderung hin überprüft wird. Der Standardwert ist 20. |
| Shell Timeout (seconds) | shell_timeout | Anzahl von Sekunden, die nach Eingabe eines Befehl auf die Eingabeaufforderung gewartet werden soll. Der Standardwert ist 3. |
| Login Timeout (seconds) | login_timeout | Anzahl von Sekunden, die nach der Anmeldung auf die Eingabeaufforderung gewartet werden soll. Der Standardwert ist 5. |
| Times to Retry Power On Operation | retry_on | Anzahl von Neuversuchen für einen Befehl zum Anschalten. Der Standardwert ist 1. |
| Port (Outlet) Number | port | Physische Anschlussnummer oder Name der virtuellen Maschine. |
| Delay (optional) | delay | Anzahl von Sekunden, die gewartet werden soll, bevor die Abgrenzung gestartet wird. Der Standardwert ist 0. |
fence_ipmilan,) Dell iDRAC (fence_idrac), IBM Integriertes Managementmodul (fence_imm), HP iLO3 Geräte fence_ilo3 und HP iLO4 Geräte fence_ilo4 verwenden dieselbe Implementation. Tabelle A.21, »IPMI (Intelligent Platform Management Interface) LAN, Dell iDrac, IBM Integriertes Managementmodul, HPiLO3, HPiLO4« listet die Fencing-Geräteparameter auf, die von diesen Agents verwendet werden.
| luci-Feld | cluster.conf Parameter | Beschreibung |
|---|---|---|
| Name | name | Ein Name für das Fencing-Gerät, das mit dem Cluster verbunden ist. |
| IP Address or Hostname | ipaddr | Die IP-Adresse oder der Hostname des Geräts. |
| Login | login | Der Login-Name eines Benutzers, der Befehle zum Ein- und Ausschalten des angegebenen Ports ausgeben darf. |
| Password | passwd | Das Passwort zur Authentifizierung der Verbindung mit dem Port. |
| Password Script (optional) | passwd_script | Das Skript, das ein Passwort zum Zugriff auf das Fencing-Gerät liefert. Dies ersetzt den Parameter. |
| Authentication Type | auth | Authentifizierungstyp: none, password oder MD5. |
| Use Lanplus | lanplus | True oder 1. Falls leer, ist der Wert False. Es wird empfohlen, dass Sie Lanplus aktivieren, um die Sicherheit Ihrer Verbindung zu erhöhen, sofern Ihre Hardware dies unterstützt. |
| Ciphersuite to use | cipher | Die Remote-Server-Authentifizierung, Integrität und Verschlüsselungs-Algorithmen, die für IPMIv2 lanplus Verbindungen verwendet werden. |
| Privilege level | privlvl | Das Berechtigungslevel auf dem Gerät. |
| IPMI Operation Timeout | timeout | Timeout in Sekunden für IPMI-Operation. |
| Power Wait (seconds) | power_wait | Anzahl von Sekunden, die nach einem Befehl zum Ein- oder Ausschalten gewartet werden soll. |
| Delay (optional) | delay | Anzahl von Sekunden, die gewartet werden soll, bevor die Abgrenzung gestartet wird. Der Standardwert ist 0. |
fence_rhevm - dem Fencing-Agenten für RHEV-M REST API - verwendet werden.
| luci-Feld | cluster.conf Parameter | Beschreibung |
|---|---|---|
| Name | name | Der Name des RHEV-M REST API Fencing-Geräts. |
| IP Address or Hostname | ipaddr | Die IP-Adresse oder der Hostname des Geräts. |
| IP-Port (optional) | ipport | Der zur Verbindung mit diesem Gerät zu verwendende TCP-Port. |
| Login | login | Der Login-Name für den Zugriff auf das Gerät. |
| Password | passwd | Das Passwort zur Authentifizierung der Verbindung mit dem Gerät. |
| Password Script (optional) | passwd_script | Das Skript, das ein Passwort zum Zugriff auf das Fencing-Gerät liefert. Dies ersetzt den Parameter. |
| Use SSL | ssl | SSL-Verbindungen zur Kommunikation mit dem Gerät verwenden. |
| Power Wait (seconds) | power_wait | Anzahl von Sekunden, die nach einem Befehl zum Ein- oder Ausschalten gewartet werden soll. |
| Power Timeout (seconds) | power_timeout | Anzahl von Sekunden, die nach einem Befehl zum Ein- oder Ausschalten gewartet werden soll, bevor auf eine Statusänderung hin überprüft wird. Der Standardwert ist 20. |
| Shell Timeout (seconds) | shell_timeout | Anzahl von Sekunden, die nach Eingabe eines Befehl auf die Eingabeaufforderung gewartet werden soll. Der Standardwert ist 3. |
| Login Timeout (seconds) | login_timeout | Anzahl von Sekunden, die nach der Anmeldung auf die Eingabeaufforderung gewartet werden soll. Der Standardwert ist 5. |
| Times to Retry Power On Operation | retry_on | Anzahl von Neuversuchen für einen Befehl zum Anschalten. Der Standardwert ist 1. |
| Port (Outlet) Number | port | Physische Anschlussnummer oder Name der virtuellen Maschine. |
| Delay (optional) | delay | Anzahl von Sekunden, die gewartet werden soll, bevor die Abgrenzung gestartet wird. Der Standardwert ist 0. |
fence_scsi - dem Fencing-Agenten für SCSI persistente Reservierungen - verwendet werden.
Anmerkung
- Bei der Verwendung von SCSI-Fencing müssen sich alle Knoten im Cluster bei demselben Gerät registrieren, damit jeder Knoten den Registrierungsschlüssel eines anderen Knotens von allen Geräten entfernen kann, bei denen er registriert ist.
- Bei den Geräten, die als Cluster-Datenträger eingesetzt werden, sollte es sich um komplette LUNs handeln, nicht um Partitionen. SCSI persistente Reservierungen arbeiten auf einer gesamten LUN, was bedeutet, dass der Zugriff auf jede einzelne LUN kontrolliert wird, nicht auf einzelne Partitionen.
| luci-Feld | cluster.conf Parameter | Beschreibung |
|---|---|---|
| Name | name | Ein Name für das SCSI-Fencing-Gerät. |
| Unfencing | unfence Abschnitt der Cluster-Konfigurations-datei | Wenn aktiviert, stellt dies sicher, dass ein abgegrenzter Knoten erst wieder reaktiviert wird, nachdem er neu gestartet wurde. Dies ist notwendig für andere Fencing-Methoden als das Power-Fencing (also SAN/Speicher-Fencing). Wenn Sie ein Gerät konfigurieren, dass Unfencing (Aufheben der Knotenabgrenzung) erfordert, muss der Cluster zunächst gestoppt werden, dann muss die vollständige Konfiguration einschließlich Geräte und Unfencing hinzugefügt werden, bevor der Cluster gestartet wird. Informationen über das Unfencing finden Sie auf der fence_node(8) Handbuchseite. Für Informationen über das Konfigurieren von Unfencing in der Cluster-Konfigurationsdatei werfen Sie einen Blick auf Abschnitt 7.3, »Konfiguration von Fencing«. Für Informationen über das Konfigurieren von Unfencing mit dem ccs Befehl werfen Sie einen Blick auf Abschnitt 5.7.2, »Konfiguration eines einzelnen Speicher-Fencing-Geräts für einen Knoten«. |
| Node name | nodename | Der Knotenname wird verwendet, um den Schlüsselwert für die aktuelle Operation zu generieren. |
| Key for current action | key | (setzt Knotenname außer Kraft) Schlüssel für die aktuelle Operation. Dieser Schlüssel sollte eindeutig auf dem Knoten sein. Für die "on"-Aktion spezifiziert der Schlüssel den zur Registrierung des lokalen Knoten zu verwendenden Schlüssel. Für die "off"-Aktion spezifiziert dieser Schlüssel den von den Geräten zu entfernenden Schlüssel. |
| Delay (optional) | delay | Anzahl von Sekunden, die gewartet werden soll, bevor die Abgrenzung gestartet wird. Der Standardwert ist 0. |
fence_vmware_soap - dem Fencing-Agenten für VMWare über SOAP-API - verwendet werden.
| luci-Feld | cluster.conf Parameter | Beschreibung |
|---|---|---|
| Name | name | Ein Name für das Fence virt Fencing-Gerät. |
| IP Address or Hostname | ipaddr | Die IP-Adresse oder der Hostname des Geräts. |
| IP-Port (optional) | ipport | Der zur Verbindung mit diesem Gerät zu verwendende TCP-Port. |
| Login | login | Der Login-Name für den Zugriff auf das Gerät. |
| Password | passwd | Das Passwort zur Authentifizierung der Verbindung mit dem Gerät. |
| Password Script (optional) | passwd_script | Das Skript, das ein Passwort zum Zugriff auf das Fencing-Gerät liefert. Dies ersetzt den Parameter. |
| Power Wait (seconds) | power_wait | Anzahl von Sekunden, die nach einem Befehl zum Ein- oder Ausschalten gewartet werden soll. |
| Power Timeout (seconds) | power_timeout | Anzahl von Sekunden, die nach einem Befehl zum Ein- oder Ausschalten gewartet werden soll, bevor auf eine Statusänderung hin überprüft wird. Der Standardwert ist 20. |
| Shell Timeout (seconds) | shell_timeout | Anzahl von Sekunden, die nach Eingabe eines Befehl auf die Eingabeaufforderung gewartet werden soll. Der Standardwert ist 3. |
| Login Timeout (seconds) | login_timeout | Anzahl von Sekunden, die nach der Anmeldung auf die Eingabeaufforderung gewartet werden soll. Der Standardwert ist 5. |
| Times to Retry Power On Operation | retry_on | Anzahl von Neuversuchen für einen Befehl zum Anschalten. Der Standardwert ist 1. |
| VM name | port | Name der virtuellen Maschine im Inventarpfad-Format (z.B. /datacenter/vm/Discovered_virtual_machine/myMachine). |
| VM UUID | uuid | Die UUID der abzugrenzenden virtuellen Maschine. |
| Delay (optional) | delay | Anzahl von Sekunden, die gewartet werden soll, bevor die Abgrenzung gestartet wird. Der Standardwert ist 0. |
| Use SSL | ssl | SSL-Verbindungen zur Kommunikation mit dem Gerät verwenden. |
fence_wti - dem Fencing-Agenten für den WTI Network Power Switch - verwendet werden.
| luci-Feld | cluster.conf Parameter | Beschreibung |
|---|---|---|
| Name | name | Ein Name für den mit dem Cluster verbundenen WTI Power Switch. |
| IP Address or Hostname | ipaddr | Die IP-Adresse oder der Hostname des Geräts. |
| IP-Port (optional) | ipport | Der zur Verbindung mit diesem Gerät zu verwendende TCP-Port. |
| Login | login | Der Login-Name für den Zugriff auf das Gerät. |
| Password | passwd | Das Passwort zur Authentifizierung der Verbindung mit dem Gerät. |
| Password Script (optional) | passwd_script | Das Skript, das ein Passwort zum Zugriff auf das Fencing-Gerät liefert. Dies ersetzt den Parameter. |
| Force command prompt | cmd_prompt | Die zu verwendende Eingabeaufforderung. Der Standardwert ist [’RSM>’, ’>MPC’, ’IPS>’, ’TPS>’, ’NBB>’, ’NPS>’, ’VMR>’] |
| Power Wait (seconds) | power_wait | Anzahl von Sekunden, die nach einem Befehl zum Ein- oder Ausschalten gewartet werden soll. |
| Power Timeout (seconds) | power_timeout | Anzahl von Sekunden, die nach einem Befehl zum Ein- oder Ausschalten gewartet werden soll, bevor auf eine Statusänderung hin überprüft wird. Der Standardwert ist 20. |
| Shell Timeout (seconds) | shell_timeout | Anzahl von Sekunden, die nach Eingabe eines Befehl auf die Eingabeaufforderung gewartet werden soll. Der Standardwert ist 3. |
| Login Timeout (seconds) | login_timeout | Anzahl von Sekunden, die nach der Anmeldung auf die Eingabeaufforderung gewartet werden soll. Der Standardwert ist 5. |
| Times to Retry Power On Operation | retry_on | Anzahl von Neuversuchen für einen Befehl zum Anschalten. Der Standardwert ist 1. |
| Use SSH | secure | Zeigt an, dass das System SSH zum Zugriff auf das Gerät verwendet. Bei der Verwendung von SSH müssen Sie entweder ein Passwort, ein Passwortskript oder eine Identitätsdatei angeben. |
| Path to SSH Identity File | identity_file | Die Identitätsdatei für SSH. |
| Port | port | Physische Anschlussnummer oder Name der virtuellen Maschine. |
Anhang B. Parameter der Hochverfügbarkeitsressourcen Link kopierenLink in die Zwischenablage kopiert!
ccs Befehls konfigurieren, oder indem Sie die etc/cluster/cluster.conf Datei bearbeiten. Tabelle B.1, »Übersicht über Hochverfügbarkeitsressourcen« listet die Ressourcen, ihre zugehörigen Ressourcen-Agenten, sowie Verweise auf andere Tabellen mit Parameterbeschreibungen. Für ein besseres Verständnis von Ressourcen-Agenten können Sie sich diese in /usr/share/cluster in jedem beliebigen Cluster-Knoten ansehen.
/usr/share/cluster Verzeichnis auch eine OCF-Skriptvorlage für eine Ressourcen-Gruppe service.sh. Weitere Informationen über die in diesem Skript enthaltenen Parameter finden Sie im service.sh Skript selbst.
cluster.conf Elemente und Parameter finden Sie im Cluster-Schema unter /usr/share/cluster/cluster.rng und im kommentierten Schema unter /usr/share/doc/cman-X.Y.ZZ/cluster_conf.html (zum Beispiel /usr/share/doc/cman-3.0.12/cluster_conf.html).
| luci-Feld | cluster.conf Parameter | Beschreibung |
|---|---|---|
| Name | name | Der Name des Apache-Dienstes. |
| Server Root | server_root | Der Standardwert ist /etc/httpd. |
| Config File | config_file | Spezifiziert die Apache-Konfigurationsdatei. Der Standardwert ist /etc/httpd/conf. |
| httpd Options | httpd_options | Weitere Befehlszeilenoptionen für httpd. |
| Shutdown Wait (seconds) | shutdown_wait | Spezifiziert die Anzahl von Sekunden, die auf das korrekte Beenden eines Dienstes gewartet wird. |
| Feld | luci-Feld | cluster.conf Parameter |
|---|---|---|
| Instance Name | name | Spezifiziert einen eindeutigen Namen für die Condor-Instanz. |
| Condor Subsystem Type | type | Spezifiziert den Typ des Condor-Subsystems für diese Instanz: schedd, job_server oder query_server. |
| luci-Feld | cluster.conf Parameter | Beschreibung |
|---|---|---|
| Name | name | Spezifiziert einen Namen für die Dateisystemressource. |
| Filesystem Type | fstype | Falls nicht angegeben, versucht mount, den Dateisystemtyp zu bestimmen. |
| Mount Point | mountpoint | Pfad in der Dateisystemhierarchie, unter dem dieses Dateisystem eingehängt wird. |
| Device, FS Label, or UUID | device | Spezifiziert das Gerät, das mit der Dateisystemressource verknüpft ist. Dabei kann es sich um ein Blockgerät, eine Dateisystemkennung, oder eine UUID eines Dateisystems handeln. |
| Mount Options | options | Einhängeoptionen; also Optionen, die beim Einhängen des Dateisystems angewendet werden. Diese können dateisystemspezifisch sein. Siehe mount(8) Handbuchseite für die unterstützten Einhängeoptionen. |
| File System ID (optional) | fsid | Anmerkung File System ID wird nur von NFS-Diensten verwendet.
Beim Erstellen einer neuen Dateisystemressource können Sie dieses Feld leer lassen. Wenn Sie dieses Feld leer lassen, wird automatisch eine Dateisystem-ID zugewiesen, nachdem Sie den Parameter während der Konfiguration übergeben. Wenn Sie explizit eine Dateisystem-ID zuweisen müssen, geben Sie den gewünschten Wert in diesem Feld an.
|
| Force Unmount | force_unmount | Falls aktiviert, wird das Dateisystem zum Aushängen gezwungen. Die Standardeinstellung ist disabled. Force Unmount vernichtet dabei sämtliche Prozesse, die den Einhängepunkt verwenden, damit das eingehängte Dateisystem beim Aushängen nicht mehr verwendet wird. |
| Force fsck | force_fsck | Falls aktiviert, wird fsck auf dem Dateisystem ausgeführt, bevor es eingehängt wird. Die Standardeinstellung ist disabled. |
| Enable NFS daemon and lockd workaround (Red Hat Enterprise Linux 6.4 oder höher) | nfsrestart | Wenn Ihr Dateisystem über NFS exportiert wird und manchmal nicht ausgehängt werden kann (entweder beim Herunterfahren oder bei Verlegung des Dienstes), werden durch diese Option alle Dateisystemreferenzen vor dem Aushängen verworfen. Der Einsatz dieser Option erfordert, dass Sie die Option aktivieren und darf nicht zusammen mit der NFS Server Ressource verwendet werden. Sie sollten diese Option nur als letztes Mittel einsetzen, denn dies ist ein vehementer Versuch, ein Dateisystem aushängen. |
| Use Quick Status Checks | quick_status | Falls aktiviert, werden schnelle Statusprüfungen durchgeführt. |
| Reboot Host Node if Unmount Fails | self_fence | Wenn aktiviert, startet den Knoten neu, wenn das Aushängen dieses Dateisystems misslingt. Der filesystem Ressourcen-Agent akzeptiert die Werte 1, yes, on oder true, um diesen Parameter zu aktivieren, und die Werte 0, no, off oder false, um ihn zu deaktivieren. Der Standard ist disabled. |
| luci-Feld | cluster.conf Parameter | Beschreibung |
|---|---|---|
| Name | name | Der Name der Dateisystemressource. |
| Mount Point | mountpoint | Der Pfad, unter dem diese Dateisystemressource eingehängt wird. |
| Device, FS Label, or UUID | device | Die Gerätedatei, die mit der Dateisystemressource verknüpft ist. |
| Filesystem Type | fstype | Setzen Sie dies auf GFS2 in luci |
| Mount Options | options | Einhängeoptionen. |
| File System ID (optional) | fsid | Anmerkung File System ID wird nur von NFS-Diensten verwendet.
Beim Erstellen einer neuen GFS2-Ressource können Sie dieses Feld leer lassen. Wenn Sie dieses Feld leer lassen, wird automatisch eine Dateisystem-ID zugewiesen, nachdem Sie den Parameter während der Konfiguration übergeben. Wenn Sie explizit eine Dateisystem-ID zuweisen müssen, geben Sie den gewünschten Wert in diesem Feld an.
|
| Force Unmount | force_unmount | Falls aktiviert, wird das Dateisystem zum Aushängen gezwungen. Die Standardeinstellung ist disabled. Force Unmount vernichtet dabei sämtliche Prozesse, die den Einhängepunkt verwenden, damit das eingehängte Dateisystem beim Aushängen nicht mehr verwendet wird. Bei GFS2-Ressourcen wird der Einhängepunkt beim Beenden eines Dienstes nicht ausgehängt, es sei denn, der Force Unmount ist enabled. |
| Enable NFS daemon and lockd workaround (Red Hat Enterprise Linux 6.4 oder höher) | nfsrestart | Wenn Ihr Dateisystem über NFS exportiert wird und manchmal nicht ausgehängt werden kann (entweder beim Herunterfahren oder bei Verlegung des Dienstes), werden durch diese Option alle Dateisystemreferenzen vor dem Aushängen verworfen. Der Einsatz dieser Option erfordert, dass Sie die Option aktivieren und darf nicht zusammen mit der NFS Server Ressource verwendet werden. Sie sollten diese Option nur als letztes Mittel einsetzen, denn dies ist ein vehementer Versuch, ein Dateisystem aushängen. |
| Reboot Host Node if Unmount Fails | self_fence | Wenn diese Option aktiviert ist und das Aushängen des Dateisystems fehlschlägt, wird der Knoten sofort neu starten. Im Allgemeinen wird dies in Verbindung mit Force-Unmount Unterstützung verwendet, aber es ist nicht erforderlich. Der GFS2 Ressourcen-Agent akzeptiert die Werte 1, yes, on oder true, um diesen Parameter zu aktivieren, und die Werte 0, no, off oder false, um ihn zu deaktivieren. |
| luci-Feld | cluster.conf Parameter | Beschreibung |
|---|---|---|
| IP Address, Netmask Bits | address | Die IP-Adresse (und optionale Netzmaskenbits) für die Ressource. Netzmaskenbits, oder Netzwerk-Präfixlänge, kann nach der Adresse selbst kommen, mit einem Schrägstrich als Trennzeichen, damit die CIDR-Notation (z. B. 10.1.1.1 / 8) eingehalten wird. Dies ist eine virtuelle IP-Adresse. IPv4-und IPv6-Adressen werden unterstützt, sowie NIC Link-Überwachung für jede IP-Adresse. |
| Monitor Link | monitor_link | Ist dies aktiviert, schlägt die Statusüberprüfung fehl, falls der Link auf der NIC, an die diese IP-Adresse gebunden ist, nicht vorhanden ist. |
| Disable Updates to Static Routes | disable_rdisc | Deaktiviert das Aktualisieren vom Routing mithilfe des RDISC-Protokolls. |
| Number of Seconds to Sleep After Removing an IP Address | sleeptime | Spezifiziert die Zeitspanne (in Sekunden) der Inaktivität. |
| luci-Feld | cluster.conf Parameter | Beschreibung |
|---|---|---|
| Name | name | Ein eindeutiger Name für diese LVM-Ressource. |
| Volume Group Name | vg_name | Ein beschreibender Name der verwalteten Datenträgergruppe. |
| Logical Volume Name | lv_name | Name des verwalteten logischen Datenträgers. Dieser Parameter ist optional, falls es mehr als einen logischen Datenträger in der verwalteten Datenträgergruppe gibt. |
| Fencing des Knotens, wenn er nicht in der Lage ist, LVM-Tags zu bereinigen | self_fence | Fencing des Knotens, wenn er nicht in der Lage ist, LVM-Tags zu bereinigen. Der LVM-Ressourcen-Agent akzeptiert die Werte 1 oder yes, um diesen Parameter zu aktivieren, und die Werte 0 oder no, um ihn zu deaktivieren. |
| luci-Feld | cluster.conf Parameter | Beschreibung |
|---|---|---|
| Name | name | Spezifiziert einen Namen für die MySQL-Serverressource. |
| Config File | config_file | Spezifiziert die Konfigurationsdatei. Der Standardwert ist /etc/my.cnf. |
| Listen Address | listen_address | Spezifiziert eine IP-Adresse für MySQL-Server. Wird keine IP-Adresse angegeben, wird die erste IP-Adresse des Dienstes verwendet. |
| mysqld Options | mysqld_options | Weitere Befehlszeilenoptionen für mysqld. |
| Startup Wait (seconds) | startup_wait | Spezifiziert die Anzahl von Sekunden, die auf das korrekte Starten eines Dienstes gewartet wird. |
| Shutdown Wait (seconds) | shutdown_wait | Spezifiziert die Anzahl von Sekunden, die auf das korrekte Beenden eines Dienstes gewartet wird. |
| luci-Feld | cluster.conf Parameter | Beschreibung |
|---|---|---|
| Name | name |
Symbolischer Name für den NFS- oder CIFS-Mount.
Anmerkung
Diese Ressource ist nur dann nötig, wenn ein Cluster-Dienst als NFS-Client konfiguriert wird.
|
| Mount Point | mountpoint | Der Pfad, unter dem diese Dateisystemressource eingehängt wird. |
| Host | host | IP-Adresse oder Hostname des NFS/CIFS-Servers. |
| Name des NFS-Export-Verzeichnisses oder CIFS-Shares. | export | Name des NFS-Export-Verzeichnisses oder CIFS-Shares. |
| Filesystem Type | fstype |
Dateisystemtyp:
|
| Do Not Unmount the Filesystem During a Stop of Relocation Operation. | no_unmount | Falls aktiviert, wird das Dateisystem während einer Stopp- oder Verlegungs-Operation nicht ausgehängt. |
| Force Unmount | force_unmount | Falls Force Unmount aktiviert ist, vernichtet der Cluster beim Stoppen des Dienstes sämtliche Prozesse, die den Einhängepunkt verwenden, damit das eingehängte Dateisystem beim Aushängen nicht mehr verwendet wird. Andernfalls würde das Aushängen fehlschlagen und der Dienst würde neu gestartet werden. |
| Options | options | Einhängeoptionen. Spezifiziert eine Liste mit Einhängeoptionen. Werden keine angegeben, wird das Dateisystem mit -o sync eingehängt. |
| luci-Feld | cluster.conf Parameter | Beschreibung |
|---|---|---|
| Name | name | Dies ist ein symbolischer Name für einen Client, der zur Referenzierung im Ressourcenbaum verwendet wird. Dies ist nicht dasselbe wie die Target Option. |
| Target Hostname, Wildcard, or Netgroup | target | Dies ist der Server von dem aus Sie einhängen. Er kann mittels Hostname, Platzhalter (basierend auf IP-Adresse oder Hostname) oder einer Netzgruppe spezifiziert werden, um Hosts zu definieren, auf die exportiert wird. |
| Allow Recovery of This NFS Client | allow_recover | Erlaubt die Wiederherstellung. |
| Options | options | Definiert eine Liste von Optionen für diesen Client — z.B. zusätzliche Client-Zugriffsrechte. Für weitere Informationen siehe die exports (5) Handbuchseite, General Options. |
| luci-Feld | cluster.conf Parameter | Beschreibung |
|---|---|---|
| Name | name |
Beschreibender Name der Ressource. Die NFS-Export-Ressource gewährleistet, dass NFS-Daemons laufen. Sie ist voll wiederverwendbar; normalerweise ist nur eine NFS-Export-Ressource nötig. Weitere Informationen über die Konfiguration der
nfsexport-Ressource finden Sie in Abschnitt 7.8, »Konfiguration von nfsexport- und nfsserver-Ressourcen«.
Anmerkung
Benennen Sie die NFS-Export-Ressource so, dass sie deutlich von anderen NFS-Ressourcen zu unterscheiden ist.
|
| luci-Feld | cluster.conf Parameter | Beschreibung |
|---|---|---|
| Name | name |
Beschreibender Name der NFS-Server-Ressource. Die NFS-Server-Ressource ist nützlich für den Export von NFSv4-Dateisystemen zu Kunden. Aufgrund der Art und Weise, wie NFSv4 funktioniert, kann nicht mehr als eine NFSv4-Ressource auf einem Server gleichzeitig existieren. Darüber hinaus ist es nicht möglich, die NFS-Server-Ressource zu benutzen, wenn gleichzeitig lokale Instanzen von NFS auf jedem Cluster-Knoten verwendet werden. Weitere Informationen über die Konfiguration der
nfsserver-Ressource finden Sie in Abschnitt 7.8, »Konfiguration von nfsexport- und nfsserver-Ressourcen«.
|
| luci-Feld | cluster.conf Parameter | Beschreibung |
|---|---|---|
| Name | name | Spezifiziert einen Dienstnamen zur Protokollierung und zu anderen Zwecken. |
| Config File | config_file | Spezifiziert einen absoluten Pfad zu einer Konfigurationsdatei. Der Standardwert ist /etc/openldap/slapd.conf. |
| URL List | url_list | Der Standardwert ist ldap:///. |
slapd Options | slapd_options | Weitere Befehlszeilenoptionen für slapd. |
| Shutdown Wait (seconds) | shutdown_wait | Spezifiziert die Anzahl von Sekunden, die auf das korrekte Beenden eines Dienstes gewartet wird. |
| luci-Feld | cluster.conf Parameter | Beschreibung |
|---|---|---|
| Instance Name (SID) of Oracle Instance | name | Instanzenname. |
| Oracle Listener Instance Name | listener_name | Oracle-Listener-Instanzenname. Falls Sie mehrere Oracle-Instanzen ausführen, kann es nötig sein, mehrere Listeners mit verschiedenen Namen auf demselben Rechner auszuführen. |
| Oracle User Name | user | Dies ist der Benutzername des Oracle-Benutzers, in dessen Namen die Oracle AS-Instanz ausgeführt wird. |
| Oracle Application Home Directory | home | Dies ist das Benutzerverzeichnis von Oracle (der Applikation, nicht des Benutzers). Es wird bei der Installation von Oracle konfiguriert. |
| Oracle Installation Type | type |
Der Oracle-Installationstyp.
|
| Virtual Hostname (optional) | vhost | Der virtuelle Hostname, der dem Installations-Hostnamen von Oracle 10g entspricht. Beachten Sie, dass Ihr Hostname beim Start/Stopp einer oracledb-Ressource vorübergehend auf diesen Hostnamen geändert wird. Deshalb sollten Sie eine oracledb-Ressource nur als Teil eines exklusiven Dienstes konfigurieren. |
| TNS_ADMIN (optional) | tns_admin | Pfad zur spezifischen Listener-Konfigurationsdatei |
| luci-Feld | cluster.conf Parameter | Beschreibung |
|---|---|---|
| Instance name (SID) of Oracle instance | name | Instanzenname. |
| Oracle User Name | user | Dies ist der Benutzername des Oracle-Benutzers, in dessen Namen die Oracle-Instanz ausgeführt wird. |
| Oracle Application Home Directory | home | Dies ist das Benutzerverzeichnis von Oracle (der Applikation, nicht des Benutzers). Es wird bei der Installation von Oracle konfiguriert. |
| List of Oracle Listeners (optional, durch Leerzeichen getrennt) | listeners | Liste der Oracle-Listeners, die mit der Datenbankinstanz gestartet werden. Listener-Namen werden durch Leerzeichen voneinander getrennt. |
| Path to Lock File (optional) | lockfile | Speicherort der Sperrdatei, anhand derer festgestellt wird, ob Oracle laufen soll oder nicht. Standardmäßig ein Speicherort unter /tmp. |
| TNS_ADMIN (optional) | tns_admin | Pfad zur spezifischen Listener-Konfigurationsdatei |
| luci-Feld | cluster.conf Parameter | Beschreibung |
|---|---|---|
| Listener Name | name | Listener-Name. |
| Oracle User Name | user | Dies ist der Benutzername des Oracle-Benutzers, in dessen Namen die Oracle-Instanz ausgeführt wird. |
| Oracle Application Home Directory | home | Dies ist das Benutzerverzeichnis von Oracle (der Applikation, nicht des Benutzers). Es wird bei der Installation von Oracle konfiguriert. |
| TNS_ADMIN (optional) | tns_admin | Pfad zur spezifischen Listener-Konfigurationsdatei |
| luci-Feld | cluster.conf Parameter | Beschreibung |
|---|---|---|
| Name | name | Spezifiziert einen Dienstnamen zur Protokollierung und zu anderen Zwecken. |
| Config File | config_file | Definiert einen absoluten Pfad zur Konfigurationsdatei. Der Standardwert ist /var/lib/pgsql/data/postgresql.conf. |
| Postmaster User | postmaster_user | Benutzer, der den Datenbank-Server ausführt, da dieser nicht von Root ausgeführt werden kann. Der Standardwert ist postgres. |
| Postmaster Options | postmaster_options | Weitere Befehlszeilenoptionen für Postmaster. |
| Shutdown Wait (seconds) | shutdown_wait | Spezifiziert die Anzahl von Sekunden, die auf das korrekte Beenden eines Dienstes gewartet wird. |
| luci-Feld | cluster.conf Parameter | Beschreibung |
|---|---|---|
| SAP Database Name | SID | Spezifiziert eine eindeutige SAP-Systemkennung, z.B. P01. |
| SAP Executable Directory | DIR_EXECUTABLE | Spezifiziert den voll qualifizierten Pfad zu sapstartsrv und sapcontrol. |
| Database Type | DBTYPE | Spezifiziert eine der folgenden Datenbanktypen: Oracle, DB6 oder ADA. |
| Oracle Listener Name | NETSERVICENAME | Spezifiziert den Oracle TNS Listener-Name. |
| ABAP Stack is Not Installed, Only Java Stack is Installed | DBJ2EE_ONLY | Falls Sie keinen ABAP-Stapel in der SAP-Datenbank installiert haben, aktivieren Sie diesen Parameter. |
| Application Level Monitoring | STRICT_MONITORING | Aktiviert die Überwachung auf Applikationsebene. |
| Automatic Startup Recovery | AUTOMATIC_RECOVER | Aktiviert bzw. deaktiviert automatische Startup-Recovery. |
| Path to Java SDK | JAVE_HOME | Pfad zur Java SDK. |
| File Name of the JDBC Driver | DB_JARS | Dateiname des JDBC-Treibers. |
| Path to a Pre-Start Script | PRE_START_USEREXIT | Pfad zu einem Prä-Start-Skript. |
| Path to a Post-Start Script | POST_START_USEREXIT | Pfad zu einem Post-Start-Skript. |
| Path to a Pre-Stop Script | PRE_STOP_USEREXIT | Pfad zu einem Prä-Stop-Skript. |
| Path to a Post-Stop Script | POST_STOP_USEREXIT | Pfad zu einem Post-Stop-Skript. |
| J2EE Instance Bootstrap Directory | DIR_BOOTSTRAP | Der voll qualifizierte Pfad des Bootstrap-Verzeichnisses der J2EE-Instanz, z.B. /usr/sap/P01/J00/j2ee/cluster/bootstrap. |
| J2EE Security Store Path | DIR_SECSTORE | Der voll qualifizierte Pfad des J2EE-Sicherheitsspeicher-Verzeichnisses, z.B. /usr/sap/P01/SYS/global/security/lib/tools. |
| luci-Feld | cluster.conf Parameter | Beschreibung |
|---|---|---|
| SAP Instance Name | InstanceName | Der vollqualifizierte Name der SAP-Instanz, z.B. P01_DVEBMGS00_sapp01ci. |
| SAP Executable Directory | DIR_EXECUTABLE | Der vollqualifizierte Pfad zu sapstartsrv und sapcontrol. |
| Directory Containing the SAP START Profile | DIR_PROFILE | Der vollqualifizierte Pfad zum SAP START Profil. |
| Name of the SAP START Profile | START_PROFILE | Spezifiziert den Namen des SAP START Profils. |
| Number of Seconds to Wait Before Checking Startup Status | START_WAITTIME | Spezifiziert die Anzahl von Sekunden, bevor der Status des Starts überprüft wird (nicht auf J2EE-Addin warten). |
| Enable Automatic Startup Recovery | AUTOMATIC_RECOVER | Aktiviert bzw. deaktiviert automatische Startup-Recovery. |
| Path to a Pre-Start Script | PRE_START_USEREXIT | Pfad zu einem Prä-Start-Skript. |
| Path to a Post-Start Script | POST_START_USEREXIT | Pfad zu einem Post-Start-Skript. |
| Path to a Pre-Stop Script | PRE_STOP_USEREXIT | Pfad zu einem Prä-Stop-Skript. |
| Path to a Post-Stop Script | POST_STOP_USEREXIT | Pfad zu einem Post-Stop-Skript. |
Anmerkung
samba-Ressource)«: Beim Erstellen oder Ändern eines Cluster-Dienstes sollten Sie eine Samba-Dienst Ressource direkt mit dem Dienst verbinden, nicht mit einer Ressource innerhalb eines Dienstes.
| luci-Feld | cluster.conf Parameter | Beschreibung |
|---|---|---|
| Name | name | Spezifiziert den Namen des Samba-Servers. |
| Config File | config_file | Die Samba-Konfigurationsdatei |
| Other Command-Line Options for smbd | smbd_options | Andere Befehlszeilenoptionen für smbd. |
| Other Command-Line Options for nmbd | nmbd_options | Andere Befehlszeilenoptionen für nmbd. |
| Shutdown Wait (seconds) | shutdown_wait | Spezifiziert die Anzahl von Sekunden, die auf das korrekte Beenden eines Dienstes gewartet wird. |
| luci-Feld | cluster.conf Parameter | Beschreibung |
|---|---|---|
| Name | name | Spezifiziert einen Namen für das benutzerdefinierte Benutzerskript. Die Skriptressource ermöglicht es Ihnen, für den Start eines geclusterten Dienstes ein standardmäßiges, LSB-konformes init-Skript zu verwenden. |
| Full Path to Script File | file | Geben Sie den Pfad an, auf dem sich dieses benutzerdefinierte Skript befindet (z.B. /etc/init.d/userscript). |
| luci-Feld | cluster.conf Parameter | Beschreibung |
|---|---|---|
| Instance Name | name | Spezifiziert den Instanzennamen der Sybase ASE-Ressource. |
| ASE Server Name | server_name | Der ASE-Servername, der für den Hochverfügbarkeitsdienst konfiguriert ist. |
| SYBASE Home directory | sybase_home | Das Benutzerverzeichnis für Sybase-Produkte. |
| Login File | login_file | Der vollständige Pfad zur Login-Datei, die das Login-Passwort-Paar enthält. |
| Interfaces File | interfaces_file | Der vollständige Pfad zur Schnittstellendatei, die zum Starten und zum Zugriff auf den ASE-Server verwendet wird. |
| SYBASE_ASE Directory Name | sybase_ase | Der Verzeichnisname unter sybase_home, wo ASE-Produkte installiert werden. |
| SYBASE_OCS Directory Name | sybase_ocs | Der Verzeichnisname unter sybase_home, wo OCS-Produkte installiert werden, z.B. ASE-15_0. |
| Sybase User | sybase_user | Der Benutzer, der den ASE-Server ausführen kann. |
| Start Timeout (seconds) | start_timeout | Der Start-Timeoutwert. |
| Shutdown Timeout (seconds) | shutdown_timeout | Der Beenden-Timoutwert. |
| Deep Probe Timeout | deep_probe_timeout | Die maximale Anzahl von Sekunden, die auf eine Antwort vom ASE-Server gewartet wird, bevor davon ausgegangen wird, dass der Server während der Deep-Probe keine Antwort erhalten hat. |
| luci-Feld | cluster.conf Parameter | Beschreibung |
|---|---|---|
| Name | name | Spezifiziert einen Dienstnamen zur Protokollierung und zu anderen Zwecken. |
| Config File | config_file | Spezifiziert den absoluten Pfad zu einer Konfigurationsdatei. Der Standardwert lautet /etc/tomcat6/tomcat6.conf. |
| Shutdown Wait (seconds) | shutdown_wait | Spezifiziert die Anzahl von Sekunden, die auf das korrekte Beenden eines Dienstes gewartet wird. Der Standardwert ist 30. |
Wichtig
vm-Ressource)«: Wenn Sie Ihren Cluster mit virtuellen Maschinen-Ressourcen konfigurieren, sollten Sie die rgmanager Tools benutzen, um die virtuellen Maschinen zu starten und zu stoppen. Wenn Sie dagegen virsh zum Starten der Maschine benutzen, kann es passieren, dass die virtuelle Maschine an mehr als einem Ort ausgeführt wird, was wiederum zur Beschädigung von Daten in der virtuellen Maschine führen kann. Siehe Abschnitt 2.14, »Konfiguration von virtuellen Maschinen in einer Cluster-Umgebung« für Informationen darüber, wie Ihr System konfiguriert werden kann, um die Wahrscheinlichkeit zu verringern, dass Administratoren versehentlich virtuelle Maschinen mehrfach mit Cluster- und Non-Cluster-Tools starten.
Anmerkung
Virtual Machine als Ressourcentyp wählen, und geben Sie die Parameter der virtuellen Maschinen-Ressource an. Für Informationen über das Konfigurieren einer virtuellen Maschine mit ccs siehe Abschnitt 5.12, »Virtuelle Maschinen-Ressourcen« .
| luci-Feld | cluster.conf Parameter | Beschreibung |
|---|---|---|
| Service Name | name | Spezifiziert den Namen der virtuellen Maschine. Wenn Sie die Luci Oberfläche verwenden, spezifizieren Sie dies als den Dienstnamen. |
| Automatically Start This Service | autostart | Falls aktiviert, wird diese virtuelle Maschine automatisch gestartet, sobald der Cluster ein Quorum bildet. Ist dieser Parameter disabled, startet diese virtuelle Maschine nicht automatisch, sobald der Cluster ein Quorum bildet; die virtuelle Maschine wird in den disabled Status versetzt. |
| Run Exclusive | exclusive | Falls aktiviert, kann diese virtuelle Maschine nur verlegt werden, wenn sie auf dem anderen Knoten exklusiv läuft; sie kann also nur auf einen Knoten verlegt werden, auf dem keine anderen virtuellen Maschinen ausgeführt werden. Falls keine Knoten zur Verfügung stehen, die eine virtuelle Maschine exklusiv ausführen könnten, wird diese virtuelle Maschine nach einem Ausfall nicht wieder gestartet. Außerdem werden andere virtuelle Maschinen nicht automatisch auf einen Knoten verlegt, der diese virtuelle Maschine als Run exclusive ausführt. Sie können diese Option mithilfe manueller Start- oder Verlegungsoperationen außer Kraft setzen. |
| Failover Domain | domain | Definiert eine Liste mit Cluster-Mitgliedern, die im Falle eines Ausfalls der virtuellen Maschine ersatzweise versucht werden sollen. |
| Recovery Policy | recovery | Recovery policy bietet die folgenden Optionen:
|
| Restart Options | max_restarts, restart_expire_time | Falls Sie oder als Wiederherstellungsrichtlinie für einen Dienst auswählen, können Sie die maximale Anzahl an Neustartfehlschlägen festlegen, bevor der Dienst verlegt oder deaktiviert wird, sowie die Zeitspanne in Sekunden, nach der ein Neustart nicht weiter versucht werden soll. |
| Migration Type | migrate | Spezifiziert den Migrationstyp live oder pause. Die Standardeinstellung ist live. |
| Migration Mapping | migration_mapping |
Spezifiziert eine alternative Schnittstelle für die Migration. Sie können dies beispielsweise festlegen, wenn sich die Netzwerkadresse für die Migration der virtuellen Maschine eines Knotens von der Adresse des Knotens für die Cluster-Kommunikation unterscheidet.
Folgende Angaben führen dazu, dass Sie beim Migrieren einer virtuellen Maschine von
member nach member2 tatsächlich nach target2 migrieren. Wenn Sie von member2 nach member migrieren, wird target zur Migration verwendet.
member:target,member2:target2
|
| Status Program | status_program |
Das auszuführende Statusprogramm, zusätzlich zur standardmäßigen Überprüfung auf virtuelle Maschinen. Falls spezifiziert, wird das Statusprogramm einmal pro Minute ausgeführt. Dies erlaubt Ihnen, den Status kritischer Dienste innerhalb einer virtuellen Maschine zu bestimmen. Wenn Ihre virtuelle Maschine beispielsweise einen Webserver ausführt, sollte Ihr Statusprogramm überprüfen, ob ein Webserver läuft; falls die Statusüberprüfung fehlschlägt (gekennzeichnet durch eine nicht-Null Ausgabe), wird die virtuelle Maschine wiederhergestellt.
Nachdem eine virtuelle Maschine gestartet wurde, wird der Ressourcen-Agent der virtuellen Maschine regelmäßig das Statusprogramm ausführen und auf einen erfolgreichen Antwort-Code (Null) warten, bevor er zurückkehrt. Nach fünf Minuten erfolgt eine Zeitüberschreitung.
|
| Path to xmlfile Used to Create the VM | xmlfile | Vollständiger Pfad zur libvirt XML-Datei, welche die libvirt Domain-Definition enthält. |
| VM Configuration File Path | path |
Eine durch Doppelpunkt getrennte Pfadspezifikation, die der Ressourcen-Agent der virtuellen Maschine (
vm.sh) nach der Konfigurationsdatei der virtuellen Maschine durchsucht. Zum Beispiel: /mnt/guests/config:/etc/libvirt/qemu.
Wichtig
Der Pfad sollte nie direkt auf eine Konfigurationsdatei einer virtuellen Maschine verweisen.
|
| Path to the VM Snapshot Directory | snapshot | Pfad zum Snapshot-Verzeichnis, in dem das Image der virtuellen Maschinen gespeichert wird. |
| Hypervisor URI | hypervisor_uri | Hypervisor-URI (normalerweise automatisch). |
| Migration URI | migration_uri | Migrations-URI (normalerweise automatisch). |
| Tunnel data over ssh during migration | tunnelled | Daten bei der Migration über SSH tunneln. |
Anhang C. Verhalten der Hochverfügbarkeitsressourcen Link kopierenLink in die Zwischenablage kopiert!
/etc/cluster/cluster.conf bearbeiten. Beschreibungen der Parameter der Hochverfügbarkeitsressourcen finden Sie in Anhang B, Parameter der Hochverfügbarkeitsressourcen. Für ein besseres Verständnis von Ressourcen-Agenten können Sie sich diese in /usr/share/cluster in jedem beliebigen Cluster-Knoten ansehen.
Anmerkung
/etc/cluster/cluster.conf.
/etc/cluster/cluster.conf dargestellt (in jedem Cluster-Knoten). In der Cluster-Konfigurationsdatei ist jeder Ressourcenbaum eine XML-Darstellung, die jede Ressource spezifiziert, deren Parameter, sowie ihre Relationen zu anderen Ressourcen im Ressourcenbaum (Eltern-, Kind-, Geschwisterrelationen).
Anmerkung
Anmerkung
/etc/cluster/cluster.conf, die jedoch nur der Veranschaulichung dienen sollen.
C.1. Eltern-, Kind- und Geschwisterrelationen zwischen den Ressourcen Link kopierenLink in die Zwischenablage kopiert!
rgmanager läuft. Alle Ressourcen in einem Dienst laufen auf demselben Knoten. Aus Sicht des rgmanager ist ein Cluster-Dienst eine Einheit, die gestartet, gestoppt oder verlegt werden kann. Innerhalb eines Cluster-Dienstes bestimmt jedoch die Hierarchie der Ressourcen, in welcher Reihenfolge die Ressourcen gestartet und gestoppt werden. Die Hierarchie-Ebenen sind Eltern, Kinder und Geschwister.
fs:myfs(<fs name="myfs" ...>) undip:10.1.1.2(<ip address="10.1.1.2 .../>) sind Geschwister.fs:myfs(<fs name="myfs" ...>) sind die Eltern vonscript:script_child(<script name="script_child"/>).script:script_child(<script name="script_child"/>) ist das Kind vonfs:myfs(<fs name="myfs" ...>).
Beispiel C.1. Ressourcenhierarchie des Dienstes foo
<service name="foo" ...>
<fs name="myfs" ...>
<script name="script_child"/>
</fs>
<ip address="10.1.1.2" .../>
</service>
- Eltern werden vor ihren Kindern gestartet.
- Kinder müssen alle sauber gestoppt worden sein, bevor die Eltern gestoppt werden dürfen.
- Damit eine Ressource als "gesund" betrachtet wird, müssen alle ihre Kinder ebenfalls "gesund" sein.
Anmerkung
C.2. Start-Reihenfolge von Kind- und Geschwisterressourcen Link kopierenLink in die Zwischenablage kopiert!
- Gekennzeichnet mit dem Kind-Typ-Parameter (typisiert als Kindressource) — Falls die Dienstressource eine Kindressource mit dem Kind-Typ-Parameter kennzeichnet, ist die Kindressource typisiert. Der Kind-Typ-Parameter bestimmt explizit die Start- und Stopp-Reihenfolge der Kindressource.
- Nicht gekennzeichnet mit dem Kind-Typ-Parameter (nicht typisiert als Kindressource) — Falls die Dienstressource eine Kindressource nicht mit dem Kind-Typ-Parameter kennzeichnet, ist die Kindressource nicht typisiert. Die Dienstressource steuert nicht explizit die Start- und Stopp-Reihenfolge einer nicht typisierten Kindressource. Allerdings wird eine nicht typisierte Kindressource gemäß der Reihenfolge in
/etc/cluster/cluster.confgestartet und gestoppt. Zudem werden nicht typisierte Kindressourcen gestartet, nachdem alle typisierten Kindressourcen gestartet wurden, und sie werden gestoppt, bevor jegliche typisierten Kindressourcen gestoppt werden.
Anmerkung
C.2.1. Start-/Stopp-Reihenfolge von typisierten Kindressourcen Link kopierenLink in die Zwischenablage kopiert!
service.sh« zeigt die Start- und Stopp-Werte, wie sie im Dienstressourcen-Agenten, service.sh, erscheinen. Für die Dienstressource werden alle LVM-Kinder zuerst gestartet, gefolgt von allen Dateisystem-Kindern, wiederum gefolgt von allen Skript-Kindern, usw.
| Ressource | Kindtyp | Start-Reihenfolge | Stopp-Reihenfolge |
|---|---|---|---|
| LVM | lvm | 1 | 9 |
| Dateisystem | fs | 2 | 8 |
| GFS2-Dateisystem | clusterfs | 3 | 7 |
| NFS-Mount | netfs | 4 | 6 |
| NFS-Export | nfsexport | 5 | 5 |
| NFS-Client | nfsclient | 6 | 4 |
| IP-Adresse | ip | 7 | 2 |
| Samba | smb | 8 | 3 |
| Skript | script | 9 | 1 |
Beispiel C.2. Start und Stopp-Werte der Ressourcen: Auszug aus dem Dienstressourcen-Agent, service.sh
<special tag="rgmanager">
<attributes root="1" maxinstances="1"/>
<child type="lvm" start="1" stop="9"/>
<child type="fs" start="2" stop="8"/>
<child type="clusterfs" start="3" stop="7"/>
<child type="netfs" start="4" stop="6"/>
<child type="nfsexport" start="5" stop="5"/>
<child type="nfsclient" start="6" stop="4"/>
<child type="ip" start="7" stop="2"/>
<child type="smb" start="8" stop="3"/>
<child type="script" start="9" stop="1"/>
</special>
/etc/cluster/cluster.conf gespeichert wird. Sehen Sie sich zum Beispiel die Start- und Stopp-Reihenfolge der typisierten Kindressourcen in Beispiel C.3, »Reihenfolge innerhalb eines Ressourcentyps« an.
Beispiel C.3. Reihenfolge innerhalb eines Ressourcentyps
<service name="foo">
<script name="1" .../>
<lvm name="1" .../>
<ip address="10.1.1.1" .../>
<fs name="1" .../>
<lvm name="2" .../>
</service>
C.2.1.1. Start-Reihenfolge von typisierten Kindressourcen Link kopierenLink in die Zwischenablage kopiert!
lvm:1— Dies ist eine LVM-Ressource. Alle LVM-Ressourcen werden zuerst gestartet.lvm:1(<lvm name="1" .../>) ist die erste LVM-Ressource, die von allen LVM-Ressourcen als Erste gestartet wird, da dies die erste LVM-Ressource ist, die im foo Dienstabschnitt von/etc/cluster/cluster.confaufgeführt wird.lvm:2— Dies ist eine LVM-Ressource. Alle LVM-Ressourcen werden zuerst gestartet.lvm:2(<lvm name="2" .../>) wird nachlvm:1gestartet, da sie im foo Dienstabschnitt von/etc/cluster/cluster.confnachlvm:1aufgeführt wird.fs:1— Dies ist eine Dateisystem-Ressource. Falls es noch weitere Dateisystem-Ressourcen im Dienst foo gibt, so starten diese in der Reihenfolge, in der Sie im foo Dienstabschnitt von/etc/cluster/cluster.confaufgeführt werden.ip:10.1.1.1— Dies ist eine IP-Adress-Ressource. Falls es noch weitere IP-Adress-Ressourcen im Dienst foo gibt, so starten diese in der Reihenfolge, in der Sie im foo Dienstabschnitt von/etc/cluster/cluster.confaufgeführt werden.script:1— Dies ist eine Skriptressource. Falls es noch weitere Skriptressourcen im Dienst foo gibt, so starten diese in der Reihenfolge, in der Sie im foo Dienstabschnitt von/etc/cluster/cluster.confaufgeführt werden.
C.2.1.2. Stopp-Reihenfolge von typisierten Kindressourcen Link kopierenLink in die Zwischenablage kopiert!
script:1— Dies ist eine Skriptressource. Falls es noch weitere Skriptressourcen im Dienst foo gibt, so werden diese in der umgekehrten Reihenfolge gestoppt, in der Sie im foo Dienstabschnitt von/etc/cluster/cluster.confaufgeführt werden.ip:10.1.1.1— Dies ist eine IP-Adress-Ressource. Falls es noch weitere IP-Adress-Ressourcen im Dienst foo gibt, so werden diese in der umgekehrten Reihenfolge gestoppt, in der Sie im foo Dienstabschnitt von/etc/cluster/cluster.confaufgeführt werden.fs:1— Dies ist eine Dateisystem-Ressource. Falls es noch weitere Dateisystem Ressourcen im foo gibt, so werden diese in der umgekehrten Reihenfolge gestoppt, in der Sie im foo Dienstabschnitt von/etc/cluster/cluster.confaufgeführt werden.lvm:2— Dies ist eine LVM-Ressource. Alle LVM-Ressourcen werden zuletzt gestoppt.lvm:2(<lvm name="2" .../>) wird vorlvm:1gestoppt; Ressourcen innerhalb einer Ressourcentyp-Gruppe werden in der umgekehrten Reihenfolge, in der Sie im foo Dienstabschnitt von/etc/cluster/cluster.confaufgeführt werden, gestoppt.lvm:1— Dies ist eine LVM-Ressource. Alle LVM-Ressourcen werden zuletzt gestoppt.lvm:1(<lvm name="1" .../>) wird nachlvm:2gestoppt; Ressourcen innerhalb einer Ressourcentyp-Gruppe werden in der umgekehrten Reihenfolge, in der Sie im foo Dienstabschnitt von/etc/cluster/cluster.confaufgeführt werden, gestoppt.
C.2.2. Start- und Stopp-Reihenfolge von nicht typisierten Kindressourcen Link kopierenLink in die Zwischenablage kopiert!
/etc/cluster/cluster.conf bestimmt. Darüber hinaus werden nicht typisierte Kindressourcen nach allen typisierten Kindressourcen gestartet und vor jeder typisierten Kindressourcen gestoppt.
Beispiel C.4. Nicht typisierte und typisierte Kindressource in einem Dienst
<service name="foo">
<script name="1" .../>
<nontypedresource name="foo"/>
<lvm name="1" .../>
<nontypedresourcetwo name="bar"/>
<ip address="10.1.1.1" .../>
<fs name="1" .../>
<lvm name="2" .../>
</service>
C.2.2.1. Start-Reihenfolge von nicht typisierten Kindressourcen Link kopierenLink in die Zwischenablage kopiert!
lvm:1— Dies ist eine LVM-Ressource. Alle LVM-Ressourcen werden zuerst gestartet.lvm:1(<lvm name="1" .../>) ist die erste LVM-Ressource, die von allen LVM-Ressourcen als Erste gestartet wird, da dies die erste LVM-Ressource ist, die im foo Dienstabschnitt von/etc/cluster/cluster.confaufgeführt wird.lvm:2— Dies ist eine LVM-Ressource. Alle LVM-Ressourcen werden zuerst gestartet.lvm:2(<lvm name="2" .../>) wird nachlvm:1gestartet, da sie im foo Dienstabschnitt von/etc/cluster/cluster.confnachlvm:1aufgeführt wird.fs:1— Dies ist eine Dateisystem-Ressource. Falls es noch weitere Dateisystem-Ressourcen im Dienst foo gibt, so starten diese in der Reihenfolge, in der Sie im foo Dienstabschnitt von/etc/cluster/cluster.confaufgeführt werden.ip:10.1.1.1— Dies ist eine IP-Adress-Ressource. Falls es noch weitere IP-Adress-Ressourcen im Dienst foo gibt, so starten diese in der Reihenfolge, in der Sie im foo Dienstabschnitt von/etc/cluster/cluster.confaufgeführt werden.script:1— Dies ist eine Skriptressource. Falls es noch weitere Skriptressourcen im Dienst foo gibt, so starten diese in der Reihenfolge, in der Sie im foo Dienstabschnitt von/etc/cluster/cluster.confaufgeführt werden.nontypedresource:foo— Dies ist eine nicht typisierte Ressource. Da es sich um eine nicht typisierte Ressource handelt, wird sie erst nach den typisierten Ressourcen gestartet. Zudem ist ihre Position in der Dienstressource vor der anderen nicht typisierten Ressource,nontypedresourcetwo:bar; daher wird sie noch vornontypedresourcetwo:bargestartet. (Nicht typisierte Ressourcen werden in der Reihenfolge gestartet, in der sie in der Dienstressource aufgeführt werden.)nontypedresourcetwo:bar— Dies ist eine nicht typisierte Ressource. Da es sich um eine nicht typisierte Ressource handelt, wird sie erst nach den typisierten Ressourcen gestartet. Zudem ist ihre Position in der Dienstressource nach der anderen nicht typisierten Ressource,nontypedresource:foo; daher wird sie nachnontypedresource:foogestartet. (Nicht typisierte Ressourcen werden in der Reihenfolge gestartet, in der sie in der Dienstressource aufgeführt werden.)
C.2.2.2. Stopp-Reihenfolge von nicht typisierten Kindressourcen Link kopierenLink in die Zwischenablage kopiert!
nontypedresourcetwo:bar— Dies ist eine nicht typisierte Ressource. Da es sich um eine nicht typisierte Ressource handelt, wird sie vor den typisierten Ressourcen gestoppt. Zudem ist ihre Position in der Dienstressource nach der anderen nicht typisierten Ressource,nontypedresource:foo; daher wird sie vornontypedresource:foogestoppt. (Nicht typisierte Ressourcen werden in der umgekehrten Reihenfolge gestoppt, in der sie in der Dienstressource aufgeführt werden.)nontypedresource:foo— Dies ist eine nicht typisierte Ressource. Da es sich um eine nicht typisierte Ressource handelt, wird sie vor den typisierten Ressourcen gestoppt. Zudem ist ihre Position in der Dienstressource vor der anderen nicht typisierten Ressource,nontypedresourcetwo:bar; daher wird sie nachnontypedresourcetwo:bargestoppt. (Nicht typisierte Ressourcen werden in der umgekehrten Reihenfolge gestoppt, in der sie in der Dienstressource aufgeführt werden.)script:1— Dies ist eine Skriptressource. Falls es noch weitere Skriptressourcen im Dienst foo gibt, so werden diese in der umgekehrten Reihenfolge gestoppt, in der Sie im foo Dienstabschnitt von/etc/cluster/cluster.confaufgeführt werden.ip:10.1.1.1— Dies ist eine IP-Adress-Ressource. Falls es noch weitere IP-Adress-Ressourcen im Dienst foo gibt, so werden diese in der umgekehrten Reihenfolge gestoppt, in der Sie im foo Dienstabschnitt von/etc/cluster/cluster.confaufgeführt werden.fs:1— Dies ist eine Dateisystem-Ressource. Falls es noch weitere Dateisystem Ressourcen im foo gibt, so werden diese in der umgekehrten Reihenfolge gestoppt, in der Sie im foo Dienstabschnitt von/etc/cluster/cluster.confaufgeführt werden.lvm:2— Dies ist eine LVM-Ressource. Alle LVM-Ressourcen werden zuletzt gestoppt.lvm:2(<lvm name="2" .../>) wird vorlvm:1gestoppt; Ressourcen innerhalb einer Ressourcentyp-Gruppe werden in der umgekehrten Reihenfolge, in der Sie im foo Dienstabschnitt von/etc/cluster/cluster.confaufgeführt werden, gestoppt.lvm:1— Dies ist eine LVM-Ressource. Alle LVM-Ressourcen werden zuletzt gestoppt.lvm:1(<lvm name="1" .../>) wird nachlvm:2gestoppt; Ressourcen innerhalb einer Ressourcentyp-Gruppe werden in der umgekehrten Reihenfolge, in der Sie im foo Dienstabschnitt von/etc/cluster/cluster.confaufgeführt werden, gestoppt.
C.3. Vererbung, der Block, und Wiederverwendung von Ressourcen Link kopierenLink in die Zwischenablage kopiert!
Beispiel C.5. NFS-Dienst eingerichtet zur Ressourcen-Wiederverwendung und -Vererbung
<resources>
<nfsclient name="bob" target="bob.example.com" options="rw,no_root_squash"/>
<nfsclient name="jim" target="jim.example.com" options="rw,no_root_squash"/>
<nfsexport name="exports"/>
</resources>
<service name="foo">
<fs name="1" mountpoint="/mnt/foo" device="/dev/sdb1" fsid="12344">
<nfsexport ref="exports"> <!-- nfsexport's path and fsid attributes
are inherited from the mountpoint &
fsid attribute of the parent fs
resource -->
<nfsclient ref="bob"/> <!-- nfsclient's path is inherited from the
mountpoint and the fsid is added to the
options string during export -->
<nfsclient ref="jim"/>
</nfsexport>
</fs>
<fs name="2" mountpoint="/mnt/bar" device="/dev/sdb2" fsid="12345">
<nfsexport ref="exports">
<nfsclient ref="bob"/> <!-- Because all of the critical data for this
resource is either defined in the
resources block or inherited, we can
reference it again! -->
<nfsclient ref="jim"/>
</nfsexport>
</fs>
<ip address="10.2.13.20"/>
</service>
- Der Dienst benötigte vier nfsclient-Ressourcen — eine pro Dateisystem (insgesamt zwei für Dateisysteme), und eine pro Zielrechner (insgesamt zwei für Zielrechner).
- Der Dienst müsste den Exportpfad und die Dateisystem-ID für jeden nfsclient spezifizieren, was mögliche Fehlerquellen in die Konfiguration einbringt.
C.4. Wiederherstellung nach Ausfall und unabhängige Unterbäume Link kopierenLink in die Zwischenablage kopiert!
__independent_subtree Parameter verwenden. In Beispiel C.7, »Dienst foo - Wiederherstellung nach Ausfall mit __independent_subtree Parameter« wird der __independent_subtree Parameter verwendet, um die folgenden Aktionen durchzuführen:
- Falls script:script_one fehlschlägt, werden script:script_one, script:script_two und script:script_three neu gestartet.
- Falls script:script_two fehlschlägt, wird nur script:script_two neu gestartet.
- Falls script:script_three fehlschlägt, werden script:script_one, script:script_two und script:script_three neu gestartet.
- Falls script:script_four fehlschlägt, wird der gesamte Dienst neu gestartet.
Beispiel C.6. Dienst foo - Normale Wiederherstellung nach Ausfall
<service name="foo">
<script name="script_one" ...>
<script name="script_two" .../>
</script>
<script name="script_three" .../>
</service>
Beispiel C.7. Dienst foo - Wiederherstellung nach Ausfall mit __independent_subtree Parameter
<service name="foo">
<script name="script_one" __independent_subtree="1" ...>
<script name="script_two" __independent_subtree="1" .../>
<script name="script_three" .../>
</script>
<script name="script_four" .../>
</service>
__independent_subtree="2" Parameter nutzen, der den unabhängigen Unterbaum als unkritisch kennzeichnet.
Anmerkung
__max_restartskonfiguriert die Höchstanzahl der erlaubten Neustarts, bevor abgebrochen wird.__restart_expire_timekonfiguriert die Zeitspanne in Sekunden, nach der kein Neustart mehr versucht wird.
C.5. Testen und Fehlerbehebung von Diensten und der Ressourcenreihenfolge Link kopierenLink in die Zwischenablage kopiert!
rg_test Dienstprogramms die Dienste und die Ressourcenreihenfolge testen und ggf. korrigieren. Bei rg_test handelt es sich um ein Befehlszeilen-Tool, das vom rgmanager Paket bereitgestellt wird, und von einer Shell oder einem Terminal ausgeführt wird (es ist nicht in Conga verfügbar). Tabelle C.2, »Übersicht über das rg_test Dienstprogramm« fasst die Aktionen und die Syntax für das rg_test Dienstprogramm zusammen.
| Aktion | Syntax |
|---|---|
Zeigt die Ressourcenregeln an, die rg_test versteht. | rg_test rules |
| Überprüft eine Konfiguration (und /usr/share/cluster) auf Fehler oder redundante Ressourcen-Agenten. | rg_test test /etc/cluster/cluster.conf |
| Zeigt die Start- und Stopp-Reihenfolge eines Dienstes. |
Anzeige der Start-Reihenfolge:
rg_test noop /etc/cluster/cluster.conf start service
Anzeige der Stopp-Reihenfolge:
rg_test noop /etc/cluster/cluster.conf stop service
|
| Startet oder stoppt einen Dienst explizit. | Wichtig
Führen Sie dies nur auf einem Knoten aus und deaktivieren Sie den Dienst vorher grundsätzlich in rgmanager.
Starten eines Dienstes:
rg_test test /etc/cluster/cluster.conf start service
Stoppen eines Dienstes:
rg_test test /etc/cluster/cluster.conf stop service
|
| Berechnet und zeigt das Ressourcenbaum-Delta zwischen zwei cluster.conf-Dateien. | rg_test delta
Zum Beispiel:
rg_test delta /etc/cluster/cluster.conf.bak /etc/cluster/cluster.conf
|
Anhang D. Prüfung der Cluster-Dienstressource und Zeitüberschreitung der Ausfallsicherung Link kopierenLink in die Zwischenablage kopiert!
rgmanager den Status von Cluster-Ressourcen überwacht und wie die Zeitabstände der Statusprüfungen verändert werden können. Der Anhang beschreibt außerdem den __enforce_timeouts Dienstparameter, der festlegt, dass eine Zeitüberschreitung für eine Operation zum Fehlschlagen des Dienstes führen soll.
Anmerkung
/etc/cluster/cluster.conf. Eine vollständige Liste samt Beschreibung aller cluster.conf-Elemente und -Parameter finden Sie im Cluster-Schema unter /usr/share/cluster/cluster.rng und das kommentierte Schema unter /usr/share/doc/cman-X.Y.ZZ/cluster_conf.html (zum Beispiel /usr/share/doc/cman-3.0.12/cluster_conf.html).
D.1. Ändern des Intervalls zur Statusprüfung der Ressourcen Link kopierenLink in die Zwischenablage kopiert!
rgmanager prüft den Status einzelner Ressourcen, nicht ganzer Dienste. Alle 10 Sekunden prüft rgmanager den Ressourcenbaum und such nach Ressourcen, die ihren Intervall zur Statusprüfung überschritten haben.
cluster.conf Datei mit dem speziellen <action> Tag außer Kraft gesetzt werden:
<action name="status" depth="*" interval="10" />
cluster.conf Datei. Falls Sie beispielsweise eine Dateisystemressource haben, für die Sie den Statusprüfintervall ändern möchten, so können Sie die Dateisystemressource in der cluster.conf Datei wie folgt spezifizieren:
<fs name="test" device="/dev/sdb3">
<action name="status" depth="*" interval="10" />
<nfsexport...>
</nfsexport>
</fs>
depth (Tiefe) auf * gesetzt, was bedeutet, dass diese Werte für alle Tiefen verwendet werden sollen. Infolgedessen wird das test-Dateisystem alle 10 Sekunden mit der höchsten definierten Tiefe des Ressourcen-Agenten geprüft (in diesem Fall 20).
D.2. Erzwingen von Ressourcen-Timeouts Link kopierenLink in die Zwischenablage kopiert!
__enforce_timeouts="1" zur Referenz in der cluster.conf-Datei hinzufügen.
__enforce_timeouts Parameter für die netfs Ressource konfiguriert wurde. Ist dieser Parameter gesetzt und das Aushängen des NFS-Dateisystems während eines Wiederherstellungsprozesses dauert mehr als 30 Sekunden, so erfolgt eine Zeitüberschreitung dieser Operation, wodurch der Dienst in den Status "fehlgeschlagen" eintritt.
</screen>
<rm>
<failoverdomains/>
<resources>
<netfs export="/nfstest" force_unmount="1" fstype="nfs" host="10.65.48.65"
mountpoint="/data/nfstest" name="nfstest_data" options="rw,sync,soft"/>
</resources>
<service autostart="1" exclusive="0" name="nfs_client_test" recovery="relocate">
<netfs ref="nfstest_data" __enforce_timeouts="1"/>
</service>
</rm>
Anhang E. Überblick über Befehlszeilen-Tools Link kopierenLink in die Zwischenablage kopiert!
| Befehlszeilen-Tool | Verwendet mit | Zweck |
|---|---|---|
ccs_config_dump — Tool zum Erstellen von Speicherauszügen der Cluster-Konfiguration | Cluster-Infrastruktur | ccs_config_dump generiert eine XML-Ausgabe der laufenden Konfiguration. Die laufende Konfiguration kann sich unter Umständen von der gespeicherten Konfiguration unterscheiden, da einige Untersysteme bestimmte Standardinformationen in der Konfiguration ablegen oder erstellen. Diese Werte sind in der Regel nicht in der auf der Festplatte gespeicherten Version der Konfiguration vorhanden, sind jedoch zur Laufzeit nötig, damit der Cluster ordnungsgemäß funktionieren kann. Weitere Informationen über dieses Tool finden Sie auf der ccs_config_dump(8) Handbuchseite. |
ccs_config_validate — Tool zur Überprüfung der Cluster-Konfiguration | Cluster-Infrastruktur | ccs_config_validate überprüft cluster.conf anhand des Schemas cluster.rng (befindet sich in /usr/share/cluster/cluster.rng auf jedem Knoten). Weitere Informationen über dieses Tool finden Sie auf der ccs_config_validate(8) Handbuchseite. |
clustat — Dienstprogramm zum Cluster-Status | Komponenten zur Verwaltung von Hochverfügbarkeitsdiensten | Der clustat Befehl zeigt den Status des Clusters an, einschließlich Mitgliedschaftsinformationen, Quorum-Ansicht, und dem Status aller konfigurierten Benutzerdienste. Weitere Informationen über dieses Tool finden Sie auf der clustat(8) Handbuchseite. |
clusvcadm — Dienstprogramm zur Cluster-Benutzerdienstverwaltung | Komponenten zur Verwaltung von Hochverfügbarkeitsdiensten | Der clusvcadm Befehl ermöglicht Ihnen das Aktivieren, Deaktivieren, Verlegen und Neustarten von Hochverfügbarkeitsdiensten in einem Cluster. Weitere Informationen über dieses Tool finden Sie auf der clusvcadm(8) Handbuchseite. |
cman_tool — Tool zur Cluster-Verwaltung | Cluster-Infrastruktur | cman_tool ist ein Programm, das den CMAN Cluster-Manager verwaltet. Es bietet die Funktionalität, um einem Cluster beizutreten, einen Cluster zu verlassen, einen Knoten abzubrechen, oder die erwarteten Quorum-Stimmen in einem Cluster zu ändern. Weitere Informationen über dieses Tool finden Sie auf der cman_tool(8) Handbuchseite. |
fence_tool — Fencing-Tool | Cluster-Infrastruktur | fence_tool ist ein Programm, das zum Beitreten oder Verlassen einer Fencing-Domain verwendet wird. Weitere Informationen über dieses Tool finden Sie auf der fence_tool(8) Handbuchseite. |
Anhang F. High Availability LVM (HA-LVM) Link kopierenLink in die Zwischenablage kopiert!
- Falls die Applikationen clusterfähig sind und zur simultanen Ausführung auf mehreren Rechnern optimiert wurden, dann sollte CLVM verwendet werden. Insbesondere müssen Sie CLVM einsetzen, falls mehr als ein Knoten in Ihrem Cluster Zugriff auf den Speicher benötigt, der somit also von den aktiven Knoten gemeinsam verwendet wird. CLVM ermöglicht einem Benutzer die Konfiguration von logischen Datenträgern auf gemeinsam genutztem Speicher, indem der Zugriff auf den physischen Speicher während der Konfiguration des logischen Datenträgers gesperrt wird, und verwendet geclusterte Sperrdienste, um den gemeinsam verwendeten Speicher zu verwalten. Für weitere Informationen über CLVM und über die LVM-Konfiguration im Allgemeinen siehe Logical Volume Manager Administration.
- Falls die Applikationen optimal in active/passive-Konfigurationen (Ausfallsicherung) laufen, in denen zu jeder Zeit nur ein Knoten aktiv ist, der auf den Speicher zugreift, sollten Sie High Availability Logical Volume Management Agenten (HA-LVM) einsetzen.
- Die bevorzugte Methode benutzt CLVM, aktiviert die logischen Datenträger jedoch immer nur exklusiv. Dies hat den Vorteil, dass es einfacher einzurichten ist und dass administrative Fehler (wie das Entfernen eines derzeit verwendeten logischen Datenträgers) vermieden werden. Um CLVM zu verwenden, muss die Hochverfügbarkeits-Add-On und Resilient Storage Add-On Software einschließlich des
clvmdDaemons laufen.Das Verfahren zur Konfiguration von HA-LVM mithilfe dieser Methode wird in Abschnitt F.1, »Konfiguration von HA-LVM-Ausfallsicherung mit CLVM (bevorzugt)« beschrieben. - Die zweite Methode benutzt lokale Rechnersperren und LVM-"Tags". Diese Methode hat den Vorteil, dass keine LVM-Clusterpakete erforderlich sind. Allerdings sind mehr Schritte zur Einrichtung nötig und ein Administrator wird nicht daran gehindert, versehentlich einen logischen Datenträger von einem Knoten im Cluster zu entfernen, auf dem es nicht aktiv ist. Das Verfahren zur Konfiguration von HA-LVM mithilfe dieser Methode wird in Abschnitt F.2, »Konfiguration von HA-LVM-Ausfallsicherung mit Tagging« beschrieben.
F.1. Konfiguration von HA-LVM-Ausfallsicherung mit CLVM (bevorzugt) Link kopierenLink in die Zwischenablage kopiert!
- Vergewissern Sie sich, dass Ihr System zur Unterstützung von CLVM konfiguriert ist. Dazu ist Folgendes erforderlich:
- Das Hochverfügbarkeits-Add-On und das Resilient Storage Add-On sind installiert, einschließlich des
cmirrorPakets, falls die CLVM logischen Datenträger gespiegelt werden sollen. - Der
locking_typeParameter im globalen Abschnitt der/etc/lvm/lvm.confDatei ist auf den Wert '3' gesetzt. - Die Hochverfügbarkeits-Add-On und Resilient Storage Add-On Software, einschließlich des
clvmdDaemons, müssen laufen. Für CLVM-Spiegelung muss zudem dercmirrordDienst gestartet sein.
- Erstellen Sie den logischen Datenträger und das Dateisystem mithilfe der standardmäßigen LVM- und Dateisystem-Befehle, wie im folgenden Beispiel veranschaulicht.
# pvcreate /dev/sd[cde]1 # vgcreate -cy shared_vg /dev/sd[cde]1 # lvcreate -L 10G -n ha_lv shared_vg # mkfs.ext4 /dev/shared_vg/ha_lv # lvchange -an shared_vg/ha_lvInformationen über das Anlegen von LVM logischen Datenträgern finden Sie im Handbuch Administration des Logical Volume Manager. - Bearbeiten Sie die
/etc/cluster/cluster.confDatei, um den neu erstellten logischen Datenträger in einem Ihrer Dienste als Ressource hinzuzufügen. Alternativ können Sie Conga oder denccsBefehl verwenden, um LVM- und Dateisystem-Ressourcen für den Cluster zu konfigurieren. Nachfolgend sehen Sie einen beispielhaften Ressourcen-Manager Abschnitt aus der/etc/cluster/cluster.confDatei, der einen CLVM logischen Datenträger als Cluster-Ressource konfiguriert:<rm> <failoverdomains> <failoverdomain name="FD" ordered="1" restricted="0"> <failoverdomainnode name="neo-01" priority="1"/> <failoverdomainnode name="neo-02" priority="2"/> </failoverdomain> </failoverdomains> <resources> <lvm name="lvm" vg_name="shared_vg" lv_name="ha-lv"/> <fs name="FS" device="/dev/shared_vg/ha-lv" force_fsck="0" force_unmount="1" fsid="64050" fstype="ext4" mountpoint="/mnt" options="" self_fence="0"/> </resources> <service autostart="1" domain="FD" name="serv" recovery="relocate"> <lvm ref="lvm"/> <fs ref="FS"/> </service> </rm>
F.2. Konfiguration von HA-LVM-Ausfallsicherung mit Tagging Link kopierenLink in die Zwischenablage kopiert!
/etc/lvm/lvm.conf Datei einzurichten, führen Sie die folgenden Schritte aus:
- Vergewissern Sie sich, dass der
locking_typeParameter im globalen Abschnitt der/etc/lvm/lvm.confDatei auf den Wert '1' gesetzt ist. - Erstellen Sie den logischen Datenträger und das Dateisystem mithilfe der standardmäßigen LVM- und Dateisystem-Befehle, wie im folgenden Beispiel veranschaulicht.
# pvcreate /dev/sd[cde]1 # vgcreate shared_vg /dev/sd[cde]1 # lvcreate -L 10G -n ha_lv shared_vg # mkfs.ext4 /dev/shared_vg/ha_lvInformationen über das Anlegen von LVM logischen Datenträgern finden Sie im Handbuch Administration des Logical Volume Manager. - Bearbeiten Sie die
/etc/cluster/cluster.confDatei, um den neu erstellten logischen Datenträger in einem Ihrer Dienste als Ressource hinzuzufügen. Alternativ können Sie Conga oder denccsBefehl verwenden, um LVM- und Dateisystem-Ressourcen für den Cluster zu konfigurieren. Nachfolgend sehen Sie einen beispielhaften Ressourcen-Manager Abschnitt aus der/etc/cluster/cluster.confDatei, der einen CLVM logischen Datenträger als Cluster-Ressource konfiguriert:<rm> <failoverdomains> <failoverdomain name="FD" ordered="1" restricted="0"> <failoverdomainnode name="neo-01" priority="1"/> <failoverdomainnode name="neo-02" priority="2"/> </failoverdomain> </failoverdomains> <resources> <lvm name="lvm" vg_name="shared_vg" lv_name="ha_lv"/> <fs name="FS" device="/dev/shared_vg/ha_lv" force_fsck="0" force_unmount="1" fsid="64050" fstype="ext4" mountpoint="/mnt" options="" self_fence="0"/> </resources> <service autostart="1" domain="FD" name="serv" recovery="relocate"> <lvm ref="lvm"/> <fs ref="FS"/> </service> </rm>Anmerkung
Falls es mehrere logische Datenträger in der Datenträgergruppe gibt, sollte der Name des logischen Datenträgers (lv_name) in derlvmRessource leer bleiben oder nicht spezifiziert werden. Beachten Sie außerdem, dass eine Datenträgergruppe in einer HA-LVM-Konfiguration nur von einem einzigen Dienst verwendet werden darf. - Bearbeiten Sie das
volume_listFeld in der/etc/lvm/lvm.confDatei. Fügen Sie den Namen Ihrer Basis-Datenträgergruppe und Ihren Hostnamen gemäß/etc/cluster/cluster.confDatei mit vorangestelltem @ ein. Der Hostname, den Sie hier einfügen, ist der Hostname des Rechners, auf dem Sie dielvm.confDatei bearbeiten, kein externer Hostname. Beachten Sie, dass diese Zeichenkette mit dem Knotennamen übereinstimmen MUSS, der in dercluster.confDatei angegeben ist. Sehen Sie nachfolgend einen Beispieleintrag für die/etc/lvm/lvm.confDatei:volume_list = [ "VolGroup00", "@neo-01" ]Dieser Tag wird verwendet, um gemeinsam verwendete Datenträgergruppen oder logische Datenträger zu aktivieren. Fügen Sie KEINE Namen von Datenträgergruppen ein, die mittels HA-LVM gemeinsam verwendet werden sollen. - Aktivieren Sie das
initrdGerät auf allen Ihren Cluster-Knoten:# dracut -H -f /boot/initramfs-$(uname -r).img $(uname -r) - Starten Sie alle Knoten neu, um sicherzustellen, dass das korrekte
initrdGerät verwendet wird.
Anhang G. Versionsgeschichte Link kopierenLink in die Zwischenablage kopiert!
| Versionsgeschichte | |||||||||||||||||||||||||||||||
|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
| Version 6.0-21.2 | Thu Feb 27 2014 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
| Version 6.0-21.1 | Thu Feb 27 2014 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
| Version 6.0-21 | Wed Nov 13 2013 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
| Version 6.0-20 | Wed Nov 6 2013 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
| Version 6.0-16 | Tue Oct 29 2013 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
| Version 6.0-15 | Fri Sep 27 2013 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
| Version 6.0-12 | Thu Sep 26 2013 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
| Version 6.0-3 | Thu Sep 05 2013 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
| Version 6.0-2 | Fri Jun 14 2013 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
| Version 6.0-1 | Thu Jun 13 2013 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
| Version 5.0-25 | Mon Feb 18 2013 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
| Version 5.0-23 | Wed Jan 30 2013 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
| Version 5.0-22 | Tue Jan 29 2013 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
| Version 5.0-20 | Fri Jan 18 2013 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
| Version 5.0-19 | Thu Jan 17 2013 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
| Version 5.0-16 | Mon Nov 26 2012 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
| Version 5.0-15 | Wed Nov 20 2012 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
| Version 5.0-12 | Thu Nov 1 2012 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
| Version 5.0-7 | Thu Oct 25 2012 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
| Version 5.0-6 | Tue Oct 23 2012 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
| Version 5.0-4 | Tue Oct 16 2012 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
| Version 5.0-2 | Thu Oct 11 2012 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
| Version 5.0-1 | Mon Oct 8 2012 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
| Version 4.0-5 | Fri Jun 15 2012 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
| Version 4.0-4 | Tue Jun 12 2012 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
| Version 4.0-3 | Tue May 21 2012 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
| Version 4.0-2 | Wed Apr 25 2012 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
| Version 4.0-1 | Fri Mar 30 2012 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
| Version 3.0-5 | Thu Dec 1 2011 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
| Version 3.0-4 | Mon Nov 7 2011 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
| Version 3.0-3 | Fri Oct 21 2011 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
| Version 3.0-2 | Fri Oct 7 2011 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
| Version 3.0-1 | Wed Sep 28 2011 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
| Version 2.0-1 | Thu May 19 2011 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
| Version 1.0-1 | Wed Nov 10 2010 | ||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||
Stichwortverzeichnis
A
- ACPI
- allgemein
- Überlegungen zur Cluster-Administration, Allgemeine Überlegungen zur Konfiguration
- Arten
- Cluster-Ressource, Überlegungen zur Konfiguration von Hochverfügbarkeitsdiensten
- Ausfallsicherung, Zeitüberschreitung, Prüfung der Cluster-Dienstressource und Zeitüberschreitung der Ausfallsicherung
B
- Brocade Fabric Switch Fencing-Gerät, Parameter der Fencing-Geräte
C
- CISCO MDS Fencing-Gerät, Parameter der Fencing-Geräte
- Cisco UCS Fencing-Gerät, Parameter der Fencing-Geräte
- Cluster
- Administration, Vor der Konfiguration des Hochverfügbarkeits-Add-Ons, Verwaltung des Red Hat Hochverfügbarkeits-Add-Ons mit Conga, Verwaltung des Red Hat Hochverfügbarkeits-Add-Ons mit ccs, Verwaltung des Red Hat Hochverfügbarkeits-Add-Ons mit Befehlszeilen-Tools
- Fehlerdiagnose und -behebung, Fehlerdiagnose und -behebung in einem Cluster, Fehlerdiagnose und -behebung in einem Cluster
- Starten, Stoppen und Neustarten, Starten und Stoppen der Cluster-Software
- Cluster-Administration, Vor der Konfiguration des Hochverfügbarkeits-Add-Ons, Verwaltung des Red Hat Hochverfügbarkeits-Add-Ons mit Conga, Verwaltung des Red Hat Hochverfügbarkeits-Add-Ons mit ccs, Verwaltung des Red Hat Hochverfügbarkeits-Add-Ons mit Befehlszeilen-Tools
- Aktivieren von IP-Ports, Aktivieren von IP-Ports
- Aktualisieren der Cluster-Konfiguration mittels cman_tool version -r, Aktualisieren der Konfiguration mittels cman_tool version -r
- Aktualisieren der Cluster-Konfiguration mittels scp, Aktualisieren der Konfiguration mittels scp
- Aktualisieren einer Konfiguration, Aktualisieren einer Konfiguration
- Allgemeine Überlegungen, Allgemeine Überlegungen zur Konfiguration
- Anzeige von Hochverfügbarkeitsdiensten mit clustat, Anzeige des Hochverfügbarkeitsdienst-Status mit clustat
- Cluster-Knoten entfernen, Ein Mitglied aus einem Cluster löschen
- Cluster-Knoten hinzufügen, Ein Mitglied zu einem laufenden Cluster hinzufügen, Ein Mitglied zu einem laufenden Cluster hinzufügen
- Cluster-Knoten neu starten, Einen Cluster-Knoten neu starten
- Einem Cluster beitreten, Einen Knoten zum Verlassen oder Beitreten eines Clusters veranlassen, Einen Knoten zum Verlassen oder Beitreten eines Clusters veranlassen
- Einen Cluster verlassen, Einen Knoten zum Verlassen oder Beitreten eines Clusters veranlassen, Einen Knoten zum Verlassen oder Beitreten eines Clusters veranlassen
- Einen Knoten aus der Konfiguration löschen; Einen Knoten zur Konfiguration hinzufügen, Hinzufügen oder Löschen eines Knotens
- Fehlerdiagnose und -behebung in einem Cluster, Fehlerdiagnose und -behebung in einem Cluster, Fehlerdiagnose und -behebung in einem Cluster
- kompatible Hardware, Kompatible Hardware
- Konfiguration iptables, Aktivieren von IP-Ports
- Konfiguration von ACPI, Konfiguration von ACPI zur Verwendung mit integrierten Fencing-Geräten
- Löschen eines Clusters, Starten, Stoppen, Neustarten und Löschen von Clustern
- NetworkManager, Überlegungen zum NetworkManager
- Netzwerk-Switches und Multicast-Adressen, Multicast-Adressen
- Neustarten eines Clusters, Starten, Stoppen, Neustarten und Löschen von Clustern
- ricci Überlegungen, Überlegungen zu ricci
- SELinux, Red Hat Hochverfügbarkeits-Add-On und SELinux
- Starten eines Clusters, Starten, Stoppen, Neustarten und Löschen von Clustern, Starten und Stoppen eines Clusters
- Starten, Stoppen und Neustarten eines Clusters, Starten und Stoppen der Cluster-Software
- Stoppen eines Clusters, Starten, Stoppen, Neustarten und Löschen von Clustern, Starten und Stoppen eines Clusters
- Überlegungen zur Verwendung von qdisk, Überlegungen zur Verwendung von Quorum Disk
- Überlegungen zur Verwendung von Quorum Disk, Überlegungen zur Verwendung von Quorum Disk
- Überprüfung der Konfiguration, Überprüfung der Konfiguration
- Verwaltung von Cluster-Knoten, Verwaltung von Cluster-Knoten, Verwaltung von Cluster-Knoten
- Verwaltung von Hochverfügbarkeitsdiensten, Verwaltung von Hochverfügbarkeitsdiensten, Verwaltung von Hochverfügbarkeitsdiensten
- Verwaltung von Hochverfügbarkeitsdiensten, freeze und unfreeze, Verwaltung von Hochverfügbarkeitsdiensten mit clusvcadm, Überlegungen zur Verwendung der Freeze- und Unfreeze-Operationen
- Virtuelle Maschinen, Konfiguration von virtuellen Maschinen in einer Cluster-Umgebung
- Cluster-Dienst-Verwaltung
- Cluster-Dienste, Hinzufügen eines Cluster-Dienstes zum Cluster, Hinzufügen eines Cluster-Dienstes zum Cluster, Hinzufügen eines Cluster-Dienstes zum Cluster
- (Siehe auch zur Cluster-Konfiguration hinzufügen)
- Cluster-Konfiguration, Konfiguration des Red Hat Hochverfügbarkeits-Add-Ons mit Conga, Konfiguration des Red Hat Hochverfügbarkeits-Add-Ons mit dem ccs Befehl, Manuelle Konfiguration von Red Hat Hochverfügbarkeit
- aktualisieren, Aktualisieren einer Konfiguration
- Hinzufügen oder Löschen eines Knotens, Hinzufügen oder Löschen eines Knotens
- Cluster-Ressource, Statusprüfung, Prüfung der Cluster-Dienstressource und Zeitüberschreitung der Ausfallsicherung
- Cluster-Ressourcenarten, Überlegungen zur Konfiguration von Hochverfügbarkeitsdiensten
- Cluster-Ressourcenrelationen, Eltern-, Kind- und Geschwisterrelationen zwischen den Ressourcen
- Cluster-Software
- Conga
- consensus-Wert, Der consensus Wert für totem in einen Zwei-Knoten-Cluster
D
- Dell DRAC 5 Fencing-Gerät, Parameter der Fencing-Geräte
- Dell iDRAC Fencing-Gerät, Parameter der Fencing-Geräte
E
- Eaton Network Power Switch, Parameter der Fencing-Geräte
- Egenera SAN-Controller Fencing-Gerät, Parameter der Fencing-Geräte
- Einführung, Einführung
- weitere Red Hat Enterprise Linux Dokumente, Einführung
- ePowerSwitch Fencing-Gerät, Parameter der Fencing-Geräte
F
- Feedback, Feedback
- fence agent
- fence_eaton_snmp, Parameter der Fencing-Geräte
- fence_hpblade, Parameter der Fencing-Geräte
- fence_ipdu, Parameter der Fencing-Geräte
- Fence virt Fencing-Gerät, Parameter der Fencing-Geräte
- fence_apc Fencing-Agent, Parameter der Fencing-Geräte
- fence_apc_snmp Fencing-Agent, Parameter der Fencing-Geräte
- fence_bladecenter Fencing-Agent, Parameter der Fencing-Geräte
- fence_brocade Fencing-Agent, Parameter der Fencing-Geräte
- fence_cisco_mds Fencing-Agent, Parameter der Fencing-Geräte
- fence_cisco_ucs Fencing-Agent, Parameter der Fencing-Geräte
- fence_drac5 Fencing-Agent, Parameter der Fencing-Geräte
- fence_eaton_snmp fence agent, Parameter der Fencing-Geräte
- fence_egenera Fencing-Agent, Parameter der Fencing-Geräte
- fence_eps Fencing-Agent, Parameter der Fencing-Geräte
- fence_hpblade fence agent, Parameter der Fencing-Geräte
- fence_ibmblade Fencing-Agent, Parameter der Fencing-Geräte
- fence_idrac Fencing-Agent, Parameter der Fencing-Geräte
- fence_ifmib Fencing-Agent, Parameter der Fencing-Geräte
- fence_ilo Fencing-Agent, Parameter der Fencing-Geräte
- fence_ilo2 Fencing-Agent, Parameter der Fencing-Geräte
- fence_ilo3 Fencing-Agent, Parameter der Fencing-Geräte
- fence_ilo4 Fencing-Agent, Parameter der Fencing-Geräte
- fence_ilo_mp Fencing-Agent, Parameter der Fencing-Geräte
- fence_imm Fencing-Agent, Parameter der Fencing-Geräte
- fence_intelmodular Fencing-Agent, Parameter der Fencing-Geräte
- fence_ipdu fence agent, Parameter der Fencing-Geräte
- fence_ipmilan Fencing-Agent, Parameter der Fencing-Geräte
- fence_rhevm Fencing-Agent, Parameter der Fencing-Geräte
- fence_rsb Fencing-Agent, Parameter der Fencing-Geräte
- fence_scsi Fencing-Agent, Parameter der Fencing-Geräte
- fence_virt Fencing-Agent, Parameter der Fencing-Geräte
- fence_vmware_soap Fencing-Agent, Parameter der Fencing-Geräte
- fence_wti Fencing-Agent, Parameter der Fencing-Geräte
- Fencing-Agent
- fence_apc, Parameter der Fencing-Geräte
- fence_apc_snmp, Parameter der Fencing-Geräte
- fence_bladecenter, Parameter der Fencing-Geräte
- fence_brocade, Parameter der Fencing-Geräte
- fence_cisco_mds, Parameter der Fencing-Geräte
- fence_cisco_ucs, Parameter der Fencing-Geräte
- fence_drac5, Parameter der Fencing-Geräte
- fence_egenera, Parameter der Fencing-Geräte
- fence_eps, Parameter der Fencing-Geräte
- fence_ibmblade, Parameter der Fencing-Geräte
- fence_idrac, Parameter der Fencing-Geräte
- fence_ifmib, Parameter der Fencing-Geräte
- fence_ilo, Parameter der Fencing-Geräte
- fence_ilo2, Parameter der Fencing-Geräte
- fence_ilo3, Parameter der Fencing-Geräte
- fence_ilo4, Parameter der Fencing-Geräte
- fence_ilo_mp, Parameter der Fencing-Geräte
- fence_imm, Parameter der Fencing-Geräte
- fence_intelmodular, Parameter der Fencing-Geräte
- fence_ipmilan, Parameter der Fencing-Geräte
- fence_rhevm, Parameter der Fencing-Geräte
- fence_rsb, Parameter der Fencing-Geräte
- fence_scsi, Parameter der Fencing-Geräte
- fence_virt, Parameter der Fencing-Geräte
- fence_vmware_soap, Parameter der Fencing-Geräte
- fence_wti, Parameter der Fencing-Geräte
- Fencing-Gerät
- APC Power Switch über SNMP, Parameter der Fencing-Geräte
- APC Power Switch über Telnet/SSH, Parameter der Fencing-Geräte
- Brocade Fabric Switch, Parameter der Fencing-Geräte
- Cisco MDS, Parameter der Fencing-Geräte
- Cisco UCS, Parameter der Fencing-Geräte
- Dell DRAC 5, Parameter der Fencing-Geräte
- Dell iDRAC, Parameter der Fencing-Geräte
- Eaton Network Power Switch, Parameter der Fencing-Geräte
- Egenera SAN-Controller, Parameter der Fencing-Geräte
- ePowerSwitch, Parameter der Fencing-Geräte
- Fence virt, Parameter der Fencing-Geräte
- Fujitsu Siemens Remoteview Service Board (RSB), Parameter der Fencing-Geräte
- HP BladeSystem, Parameter der Fencing-Geräte
- HP iLO, Parameter der Fencing-Geräte
- HP iLO MP, Parameter der Fencing-Geräte
- HP iLO2, Parameter der Fencing-Geräte
- HP iLO3, Parameter der Fencing-Geräte
- HP iLO4, Parameter der Fencing-Geräte
- IBM BladeCenter, Parameter der Fencing-Geräte
- IBM BladeCenter SNMP, Parameter der Fencing-Geräte
- IBM Integriertes Managementmodul, Parameter der Fencing-Geräte
- IBM iPDU, Parameter der Fencing-Geräte
- IF MIB, Parameter der Fencing-Geräte
- Intel Modular, Parameter der Fencing-Geräte
- IPMI LAN, Parameter der Fencing-Geräte
- RHEV-M REST API, Parameter der Fencing-Geräte
- SCSI-Fencing, Parameter der Fencing-Geräte
- VMware (SOAP-Schnittstelle), Parameter der Fencing-Geräte
- WTI Power Switch, Parameter der Fencing-Geräte
- Fencing-Gerät APC Power Switch über SNMP, Parameter der Fencing-Geräte
- Fencing-Gerät APC Power Switch über Telnet/SSH, Parameter der Fencing-Geräte
- Fujitsu Siemens Remoteview Service Board (RSB) Fencing-Gerät, Parameter der Fencing-Geräte
H
- Hardware
- kompatibel, Kompatible Hardware
- Hochverfügbarkeitsdienst, Konfiguration
- HP Bladesystem Fencing-Gerät, Parameter der Fencing-Geräte
- HP iLO Fencing-Gerät, Parameter der Fencing-Geräte
- HP iLO MP Fencing-Gerät, Parameter der Fencing-Geräte
- HP iLO2 Fencing-Gerät, Parameter der Fencing-Geräte
- HP iLO3 Fencing-Gerät, Parameter der Fencing-Geräte
- HP iLO4 Fencing-Gerät, Parameter der Fencing-Geräte
I
- IBM BladeCenter Fencing-Gerät, Parameter der Fencing-Geräte
- IBM BladeCenter SNMP Fencing-Gerät, Parameter der Fencing-Geräte
- IBM Integriertes Managementmodul Fencing-Gerät, Parameter der Fencing-Geräte
- IBM iPDU Fencing-Gerät, Parameter der Fencing-Geräte
- IF MIB Fencing-Gerät, Parameter der Fencing-Geräte
- integrierte Fencing-Geräte
- Konfiguration von ACPI, Konfiguration von ACPI zur Verwendung mit integrierten Fencing-Geräten
- Intel Modular Fencing-Gerät, Parameter der Fencing-Geräte
- IP-Ports
- aktivieren, Aktivieren von IP-Ports
- IPMI LAN Fencing-Gerät, Parameter der Fencing-Geräte
- iptables
- Konfiguration, Aktivieren von IP-Ports
- iptables-Firewall, Konfiguration der iptables-Firewall zum Erlauben von Cluster-Komponenten
K
- Konfiguration
- Hochverfügbarkeitsdienst, Überlegungen zur Konfiguration von Hochverfügbarkeitsdiensten
- Konfiguration von High Availability LVM, High Availability LVM (HA-LVM)
L
- LVM, High Availability, High Availability LVM (HA-LVM)
M
- Multicast-Adressen
- Überlegungen zur Verwendung mit Netzwerk-Switches und Multicast-Adressen, Multicast-Adressen
- Multicast-Datenverkehr aktivieren, Konfiguration der iptables-Firewall zum Erlauben von Cluster-Komponenten
N
- NetworkManager
- deaktivieren beim Einsatz eines Clusters, Überlegungen zum NetworkManager
- Neue und veränderte Features, Neue und veränderte Features
- nfsexport-Ressource, Konfiguration, Konfiguration von nfsexport- und nfsserver-Ressourcen
- nfsserver-Ressource, Konfiguration, Konfiguration von nfsexport- und nfsserver-Ressourcen
P
- Parameter, Fencing-Gerät, Parameter der Fencing-Geräte
- Parameter, Hochverfügbarkeitsressourcen, Parameter der Hochverfügbarkeitsressourcen
Q
- qdisk
- Überlegungen zur Verwendung, Überlegungen zur Verwendung von Quorum Disk
- Quorum Disk
- Überlegungen zur Verwendung, Überlegungen zur Verwendung von Quorum Disk
R
- Relationen
- Cluster-Ressource, Eltern-, Kind- und Geschwisterrelationen zwischen den Ressourcen
- RHEV-M REST API Fencing-Gerät, Parameter der Fencing-Geräte
- ricci
- Überlegungen zur Cluster-Administration, Überlegungen zu ricci
S
- SCSI-Fencing, Parameter der Fencing-Geräte
- SELinux
- Konfiguration, Red Hat Hochverfügbarkeits-Add-On und SELinux
- Statusprüfung, Cluster-Ressource, Prüfung der Cluster-Dienstressource und Zeitüberschreitung der Ausfallsicherung
- Suche und Beseitigung von Fehlern
- Fehlerdiagnose und -behebung in einem Cluster, Fehlerdiagnose und -behebung in einem Cluster, Fehlerdiagnose und -behebung in einem Cluster
T
- Tabellen
- Fencing-Geräte, Parameter, Parameter der Fencing-Geräte
- Hochverfügbarkeitsressourcen, Parameter, Parameter der Hochverfügbarkeitsressourcen
- Tools, Befehlszeile, Überblick über Befehlszeilen-Tools
- Totem-Tag
- consensus-Wert, Der consensus Wert für totem in einen Zwei-Knoten-Cluster
U
- Überblick
- Neue und veränderte Features, Neue und veränderte Features
- Überprüfung
- Cluster-Konfiguration, Überprüfung der Konfiguration
V
- Verhalten, Hochverfügbarkeitsressourcen, Verhalten der Hochverfügbarkeitsressourcen
- Virtuelle Maschinen in einem Cluster, Konfiguration von virtuellen Maschinen in einer Cluster-Umgebung
- VMware (SOAP-Schnittstelle) Fencing-Gerät, Parameter der Fencing-Geräte
W
- WTI Power Switch Fencing-Gerät, Parameter der Fencing-Geräte
Z
- Zeitüberschreitung, Ausfallsicherung, Prüfung der Cluster-Dienstressource und Zeitüberschreitung der Ausfallsicherung