F.2. Konfiguration von HA-LVM-Ausfallsicherung mit Tagging


Um HA-LVM-Ausfallsicherung unter Verwendung von Tags in der /etc/lvm/lvm.conf Datei einzurichten, führen Sie die folgenden Schritte aus:
  1. Vergewissern Sie sich, dass der locking_type Parameter im globalen Abschnitt der /etc/lvm/lvm.conf Datei auf den Wert '1' gesetzt ist.
  2. Erstellen Sie den logischen Datenträger und das Dateisystem mithilfe der standardmäßigen LVM- und Dateisystem-Befehle, wie im folgenden Beispiel veranschaulicht.
    # pvcreate /dev/sd[cde]1
    
    # vgcreate shared_vg /dev/sd[cde]1
    
    # lvcreate -L 10G -n ha_lv shared_vg
    
    # mkfs.ext4 /dev/shared_vg/ha_lv
    Informationen über das Anlegen von LVM logischen Datenträgern finden Sie im Handbuch Administration des Logical Volume Manager.
  3. Bearbeiten Sie die /etc/cluster/cluster.conf Datei, um den neu erstellten logischen Datenträger in einem Ihrer Dienste als Ressource hinzuzufügen. Alternativ können Sie Conga oder den ccs Befehl verwenden, um LVM- und Dateisystem-Ressourcen für den Cluster zu konfigurieren. Nachfolgend sehen Sie einen beispielhaften Ressourcen-Manager Abschnitt aus der /etc/cluster/cluster.conf Datei, der einen CLVM logischen Datenträger als Cluster-Ressource konfiguriert:
    
    <rm>  
       <failoverdomains>
           <failoverdomain name="FD" ordered="1" restricted="0">
              <failoverdomainnode name="neo-01" priority="1"/>
              <failoverdomainnode name="neo-02" priority="2"/>
           </failoverdomain>
       </failoverdomains>
       <resources>
           <lvm name="lvm" vg_name="shared_vg" lv_name="ha_lv"/>
           <fs name="FS" device="/dev/shared_vg/ha_lv" force_fsck="0" force_unmount="1" fsid="64050" fstype="ext4" mountpoint="/mnt" options="" self_fence="0"/>
       </resources>
       <service autostart="1" domain="FD" name="serv" recovery="relocate">
           <lvm ref="lvm"/>
           <fs ref="FS"/>
       </service>
    </rm>
    
    

    Anmerkung

    Falls es mehrere logische Datenträger in der Datenträgergruppe gibt, sollte der Name des logischen Datenträgers (lv_name) in der lvm Ressource leer bleiben oder nicht spezifiziert werden. Beachten Sie außerdem, dass eine Datenträgergruppe in einer HA-LVM-Konfiguration nur von einem einzigen Dienst verwendet werden darf.
  4. Bearbeiten Sie das volume_list Feld in der /etc/lvm/lvm.conf Datei. Fügen Sie den Namen Ihrer Basis-Datenträgergruppe und Ihren Hostnamen gemäß /etc/cluster/cluster.conf Datei mit vorangestelltem @ ein. Der Hostname, den Sie hier einfügen, ist der Hostname des Rechners, auf dem Sie die lvm.conf Datei bearbeiten, kein externer Hostname. Beachten Sie, dass diese Zeichenkette mit dem Knotennamen übereinstimmen MUSS, der in der cluster.conf Datei angegeben ist. Sehen Sie nachfolgend einen Beispieleintrag für die /etc/lvm/lvm.conf Datei:
    volume_list = [ "VolGroup00", "@neo-01" ]
    
    Dieser Tag wird verwendet, um gemeinsam verwendete Datenträgergruppen oder logische Datenträger zu aktivieren. Fügen Sie KEINE Namen von Datenträgergruppen ein, die mittels HA-LVM gemeinsam verwendet werden sollen.
  5. Aktivieren Sie das initrd Gerät auf allen Ihren Cluster-Knoten:
    # dracut -H -f /boot/initramfs-$(uname -r).img $(uname -r)
  6. Starten Sie alle Knoten neu, um sicherzustellen, dass das korrekte initrd Gerät verwendet wird.
Red Hat logoGithubRedditYoutubeTwitter

Lernen

Testen, kaufen und verkaufen

Communitys

Über Red Hat Dokumentation

Wir helfen Red Hat Benutzern, mit unseren Produkten und Diensten innovativ zu sein und ihre Ziele zu erreichen – mit Inhalten, denen sie vertrauen können. Entdecken Sie unsere neuesten Updates.

Mehr Inklusion in Open Source

Red Hat hat sich verpflichtet, problematische Sprache in unserem Code, unserer Dokumentation und unseren Web-Eigenschaften zu ersetzen. Weitere Einzelheiten finden Sie in Red Hat Blog.

Über Red Hat

Wir liefern gehärtete Lösungen, die es Unternehmen leichter machen, plattform- und umgebungsübergreifend zu arbeiten, vom zentralen Rechenzentrum bis zum Netzwerkrand.

© 2024 Red Hat, Inc.