Ricerca

Panoramica sul Cluster Suite

download PDF
Red Hat Enterprise Linux 5

Red Hat Cluster Suite per Red Hat Enterprise Linux 5

Edizione 3

Logo

Sommario

La Panoramica su Red Hat Cluster Suite fornisce una panoramica del Red Hat Cluster Suite per Red Hat Enterprise Linux 5.

Introduzione

Questo documento fornisce una buona panoramica sul Red Hat Cluster Suite per Red Hat Enterprise Linux 5, ed è organizzato nel modo seguente:
Anche se le informazioni presenti in questo documento sono generali, l'utente dovrebbe essere in possesso di una conoscenza pratica avanzata con Red Hat Enterprise Linux, e capire i concetti di computazione del server, in modo da comprendere correttamente le informazioni presenti.
Per maggiori informazioni su come utilizzare Red Hat Enterprise Linux, consultate le seguenti risorse:
  • Red Hat Enterprise Linux Installation Guide — Fornisce tutte le informazioni necessarie per l'installazione di Red Hat Enterprise Linux 5.
  • Red Hat Enterprise Linux Deployment Guide — Fornisce tutte le informazioni necessarie per l'impiego, la configurazione e l'amministrazione di Red Hat Enterprise Linux 5.
Per maggiori informazioni su Red Hat Cluster Suite per Red Hat Enterprise Linux 5, consultate le seguenti risorse:
  • Configurazione e gestione di un Red Hat Cluster — Contiene informazioni sull'installazione, configurazione e gestione dei componenti del Red Hat Cluster.
  • LVM Administrator's Guide: Configuration and Administration — Provides a description of the Logical Volume Manager (LVM), including information on running LVM in a clustered environment.
  • Global File System: Configurazione e Amministrazione — Contiene informazioni su come installare, configurare e gestire il Red Hat GFS (Red Hat Global File System).
  • Global File System 2: Configurazione e Amministrazione — Contiene informazioni su come installare, configurare e gestire il Red Hat GFS (Red Hat Global File System 2).
  • Utilizzo del Device-Mapper Multipath — Fornisce tutte le informazioni necessarie per l'impiego del Device-Mapper Multipath di Red Hat Enterprise Linux 5.
  • Utilizzo di GNBD con il Global File System — Fornisce una panoramica su come usare il Global Network Block Device (GNBD) con Red Hat GFS.
  • Amministrazione del server virtuale di Linux — Fornisce le informazioni su come configurare i servizi ed i sistemi ad alte prestazioni con il Linux Virtual Server (LVS).
  • Note di rilascio di Red Hat Cluster Suite — Fornisce informazioni sulla release corrente del Red Hat Cluster Suite.
La documentazione di Red Hat Cluster Suite ed altri documenti di Red Hat sono disponibili nelle versioni HTML, PDF, e RPM sul CD di documentazione di Red Hat Enterprise Linux, e online su http://www.redhat.com/docs/.

1. Commenti

Se individuate degli errori, o pensate di poter contribuire al miglioramento di questa guida, contattateci subito! Vi preghiamo di inviare un report in Bugzilla (http://bugzilla.redhat.com/bugzilla/) contro il componente Documentazione-cluster.
Be sure to mention the document's identifier:
Cluster_Suite_Overview(EN)-5 (2008-12-11T15:49)
By mentioning this document's identifier, we know exactly which version of the guide you have.
Se avete dei suggerimenti per migliorare la documentazione, cercate di essere il più specifici possibile. Se avete trovato un errore, vi preghiamo di includere il numero della sezione, e alcune righe di testo, in modo da agevolare le ricerca dell'errore stesso.

Capitolo 1. Panoramica su Red Hat Cluster Suite

I sistemi clusterizzati forniscono affidabilità, scalabilità e disponibilità ai i servizi critici di produzione. Utilizzando Red Hat Cluster Suite, è possibile creare un cluster in grado di far fronte alle vostre esigenze di prestazione, high availability, di bilanciamento del carico, scalabilità, file sharing e di risparmio. Questo capitolo fornisce una panoramica sui componenti di Red Hat Cluster Suite e le sue funzioni, e consiste nelle seguenti sezioni:

1.1. Concetti di base del cluster

Un cluster è costituito da due i più computer (chiamati nodi o membri), che operano insieme per eseguire un compito. Sono presenti quattro tipi principali di cluster:
  • Storage
  • High availability
  • Bilanciamento del carico
  • Elevate prestazioni
I cluster storage forniscono una immagine coerente del file system sui server presenti in un cluster, permettendo ai server stessi di leggere e scrivere simultaneamente su di un file system condiviso singolo. Un cluster storage semplifica l'amministrazione dello storage, limitando l'installazione ed il patching di applicazioni su di un file system. Altresì, con un file system cluster-wide, un cluster storage elimina la necessità di copie ridondanti di dati dell'applicazione, semplificando il processo di backup e di disaster recovery. Red Hat Cluster Suite fornisce uno storage clustering attraverso Red Hat GFS.
I cluster High-availability forniscono una disponibilità continua dei servizi tramite l'eliminazione dei così detti single points of failure, e tramite l'esecuzione del failover dei servizi da un nodo del cluster ad un altro nel caso in cui il nodo diventi non operativo. Generalmente i servizi presenti in un cluster high-availability leggono e scrivono i dati (tramite un file system montato in modalità di lettura-scrittura). Per questo motivo un cluster high-availability deve essere in grado di garantire l'integrità dei dati, poichè un nodo del cluster può assumere il controllo di un servizio da un altro nodo. La presenza di errori in un cluster high-availability non risulta essere visibile da parte di client esterni al cluster. (I cluster high-availability sono talvolta indicati come cluster di failover.) Red Hat Cluster Suite fornisce un clustering high-availability attraverso il proprio componente High-availability Service Management.
I cluster a bilanciamento del carico 'cluster load-balancing' inviano le richieste del servizio di rete a nodi multipli del cluster, in modo da bilanciare il carico richiesto tra i nodi del cluster. Il bilanciamento del carico fornisce una scalabilità molto economica, poichè è possibile corrispondere il numero di nodi in base ai requisiti del carico. Se un nodo all'interno del cluster risulta essere non operativo, il software per il bilanciamento del carico rileva l'errore e ridireziona le richieste ad altri nodi del cluster. Il fallimento di un nodo nel cluster load-balancing non risulta essere visibile da parte dei client esterni al cluster. Red Hat Cluster Suite fornisce un bilanciamento del carico attraverso LVS (Linux Virtual Server).
I cluster High-performance utilizzano i nodi del cluster per eseguire processi di calcolo simultanei. Un cluster high-performance permette alle applicazioni di lavorare in parallelo aumentando così la prestazione delle applicazioni. (I cluster High performance vengono anche identificati come cluster computational o grid computing.)

Nota

I cluster sopra citati rappresentano le configurazioni di base; in base alle vostre esigenze potreste aver bisogno di una combinazione dei tipi di cluster appena descritti.

1.2. Red Hat Cluster Suite Introduction

Il Red Hat Cluster Suite (RHCS) è un set integrato di componenti software il quale può essere impiegato in una varietà di configurazioni idonee per far fronte alle vostre esigenze di prestazione, high-availability, di bilanciamento del carico, scalabilità, file sharing e di risparmio.
RHCS consists of the following major components (refer to Figura 1.1, «Red Hat Cluster Suite Introduction»):
  • Infrastruttura del cluster — Fornisce le funzioni fondamentali per i nodi in modo che gli stessi possano operare insieme come un cluster: gestione della configurazione-file, gestione appartenenza, lock management, e fencing.
  • High-availability Service Management — Fornisce il failover dei servizi da un nodo del cluster ad un altro, in caso in cui il nodo non è più operativo.
  • Tool di amministrazione del cluster — Tool di gestione e configurazione per l'impostazione, la configurazione e la gestione di un cluster di Red Hat. È possibile utilizzare i suddetti tool con i componenti dell'infrastruttura del cluster, e con componenti per la Gestione del servizio, High availability e storage.
  • Linux Virtual Server (LVS) — Software di instradamento che fornisce l'IP-Load-balancing. LVM viene eseguito su di una coppia di server ridondanti, che distribuisce le richieste del client in modo omogeneo ai real server dietro i server LVS.
È possibile integrare con Red Hat Cluster Suite i seguenti componenti facenti parte di un pacchetto opzionale (e non parte di Red Hat Cluster Suite):
  • Red Hat GFS (Global File System) — Fornisce il file system del cluster per un utilizzo con Red Hat Cluster Suite. GFS permette ai nodi multipli di condividere lo storage ad un livello del blocco, come se lo storage fosse collegato localmente ad ogni nodo del cluster.
  • Cluster Logical Volume Manager (CLVM) — Fornisce la gestione del volume del cluster storage.

    Nota

    When you create or modify a CLVM volume for a clustered environment, you must ensure that you are running the clvmd daemon. For further information, refer to Sezione 1.6, «Cluster Logical Volume Manager».
  • Global Network Block Device (GNBD) — Un componente ausiliario di GFS in grado di esportare uno storage del livello del blocco su Ethernet. Esso rappresenta un modo molto economico per rendere disponibile il suddetto storage a Red Hat GFS.
For a lower level summary of Red Hat Cluster Suite components and optional software, refer to Capitolo 2, Sommario dei componenti di Red Hat Cluster Suite.
Red Hat Cluster Suite Introduction

Figura 1.1. Red Hat Cluster Suite Introduction

Nota

Figura 1.1, «Red Hat Cluster Suite Introduction» includes GFS, CLVM, and GNBD, which are components that are part of an optional package and not part of Red Hat Cluster Suite.

1.3. Cluster Infrastructure

L'infrastruttura del cluster di Red Hat Cluster Suite fornisce le funzioni di base per un gruppo di computer (chiamati nodi o membri), in modo da poter operare insieme come un cluster. Una volta formato il cluster utilizzando l'infrastruttura del cluster stesso, è possibile utilizzare altri componenti del Red Hat Cluster Suite, in modo da far fronte alle esigenze del proprio cluster (per esempio per l'impostazione di un cluster per la condivisione dei file su di un file system GFS, oppure per l'impostazione del servizio di failover). L'infrastruttura del cluster esegue le seguenti funzioni:
  • Cluster management
  • Lock management
  • Fencing
  • Gestione configurazione del cluster

1.3.1. Cluster Management

Cluster management manages cluster quorum and cluster membership. CMAN (an abbreviation for cluster manager) performs cluster management in Red Hat Cluster Suite for Red Hat Enterprise Linux 5. CMAN is a distributed cluster manager and runs in each cluster node; cluster management is distributed across all nodes in the cluster (refer to Figura 1.2, «CMAN/DLM Overview»).
CMAN keeps track of cluster quorum by monitoring the count of cluster nodes. If more than half the nodes are active, the cluster has quorum. If half the nodes (or fewer) are active, the cluster does not have quorum, and all cluster activity is stopped. Cluster quorum prevents the occurrence of a "split-brain" condition — a condition where two instances of the same cluster are running. A split-brain condition would allow each cluster instance to access cluster resources without knowledge of the other cluster instance, resulting in corrupted cluster integrity.
Il quorum viene determinato tramite la presenza di messaggi inviati tra i nodi del cluster via Ethernet. Facoltativamente il quorum può essere anche determinato da una combinazione di messaggi via Ethernet e attraverso un quorum disk. Per il quorum via Ethernet, esso consiste nel 50 per cento dei voti del nodo più 1. Invece per un quorum tramite il quorum disk, esso consiste nelle condizioni specificate dall'utente.

Nota

Per default ogni nodo possiede un voto. Facoltativamente è possibile configurare ogni nodo in modo da avere più di un voto.
CMAN controlla l'appartenenza tramite il monitoraggio dei messaggi provenienti da altri nodi del cluster. Quando l'appartenenza del cluster cambia, il cluster manager invia una notifica agli altri componenti dell'infrastruttura, i quali a loro volta intraprendono l'azione appropriata. Per esempio, se il nodo A si unisce al cluster e monta un file system GFS già montato sui nodi B e C, allora sarà necessario per il nodo A un journal ed un lock management aggiuntivi per poter utilizzare il file system GFS in questione. Se il nodo non trasmette alcun messaggio entro un ammontare di tempo prestabilito il cluster manager rimuove il nodo dal cluster, e comunica agli altri componenti dell'infrastruttura del cluster che il nodo in questione non risulta più essere un membro. Ancora, altri componenti dell'infrastruttura del cluster determinano le azioni da intraprendere, previa notifica, poichè il nodo non è più un membro del cluster. Per esempio, il fencing potrebbe isolare il nodo non più membro.
CMAN/DLM Overview

Figura 1.2. CMAN/DLM Overview

1.3.2. Lock Management

Lock management is a common cluster-infrastructure service that provides a mechanism for other cluster infrastructure components to synchronize their access to shared resources. In a Red Hat cluster, DLM (Distributed Lock Manager) is the lock manager. As implied in its name, DLM is a distributed lock manager and runs in each cluster node; lock management is distributed across all nodes in the cluster (refer to Figura 1.2, «CMAN/DLM Overview»). GFS and CLVM use locks from the lock manager. GFS uses locks from the lock manager to synchronize access to file system metadata (on shared storage). CLVM uses locks from the lock manager to synchronize updates to LVM volumes and volume groups (also on shared storage).

1.3.3. Fencing

Fencing is the disconnection of a node from the cluster's shared storage. Fencing cuts off I/O from shared storage, thus ensuring data integrity. The cluster infrastructure performs fencing through the fence daemon, fenced.
Quando CMAN determina la presenza di un nodo fallito, esso lo comunica agli altri componenti dell'infrastruttura del cluster. fenced, una volta notificata la presenza di un errore, isola il nodo in questione. Successivamente gli altri componenti dell'infrastruttura del cluster determinano le azioni da intraprendere — essi eseguiranno qualsiasi processo necessario per il ripristino. Per esempio, subito dopo la notificata di un errore a DLM e GFS, essi sospendono l'attività fino a quando non accerteranno il completamento del processo di fencing da parte di fenced. Previa conferma del completamento di tale operazione, DLM e GFS eseguono l'azione di ripristino. A questo punto DLM rilascia i blocchi del nodo fallito e GFS ripristina il jounal del suddetto nodo.
Fencing determina dal file di configurazione del cluster il metodo da utilizzare. Per la definizione del suddetto metodo è necessario prendere in considerazione due elementi principali: il dispositivo fencing ed il fencing agent. Questo programma esegue una chiamata nei confronti di un fencing agent specificato nel file di configurazione del cluster. Il fencing agent a sua volta, isola il nodo tramite un dispositivo di fencing. Una volta completato, il programma esegue la notifica al cluster manager.
Red Hat Cluster Suite fornisce una varietà di metodi usati per il fencing:
  • Power fencing — Esso è il metodo utilizzato da un controllore di alimentazione per disalimentare il nodo non utilizzabile.
  • Fibre Channel switch fencing — Rappresenta il metodo attraverso il quale viene disabilitata la porta del Fibre Channel la quale collega lo storage ad un nodo non utilizzabile.
  • GNBD fencing — A fencing method that disables an inoperable node's access to a GNBD server.
  • Altri tipi di fencing — Diversi metodi per il fencing che disabilitano l'I/O o l'alimentazione di un nodo non utilizzabile, incluso gli IBM Bladecenters, PAP, DRAC/MC, HP ILO, IPMI, IBM RSA II, ed altro ancora.
Figura 1.3, «Power Fencing Example» shows an example of power fencing. In the example, the fencing program in node A causes the power controller to power off node D. Figura 1.4, «Fibre Channel Switch Fencing Example» shows an example of Fibre Channel switch fencing. In the example, the fencing program in node A causes the Fibre Channel switch to disable the port for node D, disconnecting node D from storage.
Power Fencing Example

Figura 1.3. Power Fencing Example

Fibre Channel Switch Fencing Example

Figura 1.4. Fibre Channel Switch Fencing Example

Specificare un metodo significa modificare il file di configurazione del cluster in modo da assegnare un nome per il metodo di fencing desiderato, il fencing agent, ed il dispositivo di fencing per ogni nodo nel cluster.
The way in which a fencing method is specified depends on if a node has either dual power supplies or multiple paths to storage. If a node has dual power supplies, then the fencing method for the node must specify at least two fencing devices — one fencing device for each power supply (refer to Figura 1.5, «Fencing a Node with Dual Power Supplies»). Similarly, if a node has multiple paths to Fibre Channel storage, then the fencing method for the node must specify one fencing device for each path to Fibre Channel storage. For example, if a node has two paths to Fibre Channel storage, the fencing method should specify two fencing devices — one for each path to Fibre Channel storage (refer to Figura 1.6, «Fencing a Node with Dual Fibre Channel Connections»).
Fencing a Node with Dual Power Supplies

Figura 1.5. Fencing a Node with Dual Power Supplies

Fencing a Node with Dual Fibre Channel Connections

Figura 1.6. Fencing a Node with Dual Fibre Channel Connections

È possibile configurare un nodo con uno o più metodi di fencing. Quando configurate un nodo per un determinato metodo di fencing, tale metodo risulterà l'unico perseguibile per eseguire il fencing del nodo in questione. Se configurate invece un nodo con metodi di fencing multipli, i suddetti metodi seguiranno una determinata sequenza, da un metodo ad un altro seguendo l'ordine riportato nel file di configurazione del cluster. Se un nodo fallisce, esso viene isolato utilizzando il primo metodo specificato nel file di configurazione del cluster. Se il primo metodo fallisce, verrà utilizzato il metodo successivo per quel nodo. Se nessun metodo è riuscito ad isolare il nodo, allora il processo di fencing inizierà nuovamente seguendo l'ordine appena descritto e specificato nel file di configurazione del cluster, fino a quando il nodo non verrà isolato con successo.

1.3.4. Il Cluster Configuration System

The Cluster Configuration System (CCS) manages the cluster configuration and provides configuration information to other cluster components in a Red Hat cluster. CCS runs in each cluster node and makes sure that the cluster configuration file in each cluster node is up to date. For example, if a cluster system administrator updates the configuration file in Node A, CCS propagates the update from Node A to the other nodes in the cluster (refer to Figura 1.7, «CCS Overview»).
CCS Overview

Figura 1.7. CCS Overview

Other cluster components (for example, CMAN) access configuration information from the configuration file through CCS (refer to Figura 1.7, «CCS Overview»).
Accessing Configuration Information

Figura 1.8. Accessing Configuration Information

Il file di configurazione del cluster (/etc/cluster/cluster.conf) è un file XML che descrive le seguenti caratteristiche:
  • Nome del cluster — Mostra il nome del cluster, il livello della revisione del file di configurazione, e le proprietà di base sul tempo necessario per l'esecuzione del fencing, usate quando un nodo si unisce al cluster o viene isolato.
  • Cluster — Mostra ogni nodo del cluster, specificandone il nome, l'ID ed il numero di voti del quorum del cluster insieme al metodo per il fencing corrispondente.
  • Fence Device — Mostra i dispositivi per il fencing nel cluster. I parametri variano a seconda del tipo di dispositivo. Per esempio, per un controllore dell'alimentazione usato come un dispositivo per il fencing, la configurazione del cluster definisce il nome del controllore dell'alimentazione, l'indirizzo IP relativo, il login e la password.
  • Risorse gestite — Mostrano le risorse necessarie per creare i servizi del cluster. Le risorse gestite includono la definizione dei domini di failover, delle risorse (per esempio un indirizzo IP), e dei servizi. Insieme, le risorse gestite definiscono i servizi del cluster ed il comportamento del failover dei servizi del cluster.

1.4. Gestione dei servizi High-availability

La gestione del servizio High-availability fornisce la possibilità di creare e gestire servizi cluster high-availability in un cluster Red Hat. Il componente principale per la gestione di un servizio high-availability in un cluster Red Hat, rgmanager, implementa un cold failover per applicazioni commerciali. In un cluster di Red Hat un'applicazione viene configurata con altre risorse del cluster in modo da formare un servizio high-availability. È possibile eseguire un failover nei confronti di tale servizio da un nodo del cluster ad un altro, senza interruzione apparente per i client. Il failover del servizio può verificarsi se un nodo fallisce o se un amministratore di sistema del cluster muove il servizio da un nodo ad un altro (per esempio, per una interruzione pianificata di un nodo).
Per creare un servizio high-availability, è necessario prima configurarlo all'interno del file di configurazione del cluster. Un servizio è composto da svariate risorse. Le suddette risorse sono costituite da blocchi di costruzione da voi creati e gestiti nel file di configurazione del cluster — per esempio, un indirizzo IP, uno script di inizializzazione dell'applicazione, o una partizione condivisa di Red Hat GFS.
You can associate a cluster service with a failover domain. A failover domain is a subset of cluster nodes that are eligible to run a particular cluster service (refer to Figura 1.9, «Domini di failover»).

Nota

I domini di failover non sono necessari per questa operazione.
Il servizio può essere eseguito su di un nodo per volta in modo da garantire l'integrità dei dati. È possibile specificare la priorità di failover in un dominio di failover. Tale priorità consiste in una assegnazione di un livello di priorità ad ogni nodo in un dominio di failover. Il suddetto livello determina l'ordine di failover — determinando così il nodo sul quale un servizio del cluster deve essere eseguito in presenza di un failover. Se non specificate alcuna priorità, allora sarà possibile eseguire il failover del servizio su qualsiasi nodo presente nel proprio dominio di failover. Altresì, è possibile specificare se un servizio sia limitato durante la sua esecuzione, e quindi eseguibile solo su nodi presenti nel dominio di failover associato. (Quando associato con un dominio di failover non limitato, il servizio del cluster può essere eseguito su qualsiasi nodo, nel caso in cui nessun membro del dominio di failover risulti disponibile.)
In Figura 1.9, «Domini di failover», Failover Domain 1 is configured to restrict failover within that domain; therefore, Cluster Service X can only fail over between Node A and Node B. Failover Domain 2 is also configured to restrict failover with its domain; additionally, it is configured for failover priority. Failover Domain 2 priority is configured with Node C as priority 1, Node B as priority 2, and Node D as priority 3. If Node C fails, Cluster Service Y fails over to Node B next. If it cannot fail over to Node B, it tries failing over to Node D. Failover Domain 3 is configured with no priority and no restrictions. If the node that Cluster Service Z is running on fails, Cluster Service Z tries failing over to one of the nodes in Failover Domain 3. However, if none of those nodes is available, Cluster Service Z can fail over to any node in the cluster.
Domini di failover

Figura 1.9. Domini di failover

Figura 1.10, «Web Server Cluster Service Example» shows an example of a high-availability cluster service that is a web server named "content-webserver". It is running in cluster node B and is in a failover domain that consists of nodes A, B, and D. In addition, the failover domain is configured with a failover priority to fail over to node D before node A and to restrict failover to nodes only in that failover domain. The cluster service comprises these cluster resources:
  • Risorsa indirizzo IP — Indirizzo IP 10.10.10.201.
  • An application resource named "httpd-content" — a web server application init script /etc/init.d/httpd (specifying httpd).
  • A file system resource — Red Hat GFS named "gfs-content-webserver".
Web Server Cluster Service Example

Figura 1.10. Web Server Cluster Service Example

I client sono in grado di accedere al servizio del cluster tramite l'indirizzo IP 10.10.10.201, permettendo una interazione con l'applicazione del web server, httpd-content. L'applicazione httpd-content utilizza il file system gfs-content-webserver. Se il nodo B fallisce, il servizio del cluster content-webserver eseguirà il failover sul nodo D. Se il nodo D non risulta disponibile o se fallito, è possibile eseguire il failover sul nodo A. Il processo di failover si verificherà con nesuna interruzione apparente al client del cluster. Il servizio del cluster sarà accessibile da un altro nodo tramite lo stesso indirizzo IP prima del verificarsi del processo di failover.

1.5. Red Hat GFS

Red Hat GFS è un file system del cluster che permette ad un cluster di nodi di accedere simultaneamente ad un dispositivo a blocchi condiviso tra i nodi. GFS è un file system nativo che interfaccia con il livello VFS dell'interfaccia del file system del kernel di Linux. GFS impiega i metadata distribuiti e journal multipli, per operare in maniera ottimale all'interno di un cluster. Per mantenere l'integrità del file system, GFS utilizza un lock manager per coordinare l'I/O. Quando un nodo modifica i dati su di un file system GFS, tale modifica sarà visibile immediatamente da parte di altri nodi del cluster che utilizzano quel file system.
Utilizzando Red Hat GFS, è possibile ottenere l'uptime massimo dell'applicazione attraverso i seguenti benefici:
  • Semplificazione della vostra infrastruttura dei dati
    • Installazione e aggiornamenti eseguiti una sola volta per l'intero cluster.
    • Elimina la necessità di copie ridondanti dei dati (duplicazione).
    • Abilita un accesso lettura /scrittura simultaneo dei dati da parte di numerosi client.
    • Semplifica il backup ed il disaster recovery (backup o ripristino di un solo file system)
  • Massimizza l'utilizzo delle risorse dello storage, e minimizza i costi di amministrazione.
    • Gestisce lo storage nella sua totalità invece di gestirlo tramite ogni singola partizione.
    • Diminuisce le necessità di spazio, eliminando la necessita di replicare i dati.
  • Varia la dimensione del cluster aggiungendo server o storage, durante il suo normale funzionamento.
    • Non è più necessario il partizionamento dello storage con tecniche complicate.
    • Aggiunge il server al cluster semplicemente montandoli al file system comune
I nodi che eseguono il Red Hat GFS sono configurati e gestiti tramite i tool di configurazione e gestione del Red Hat Cluster Suite. Il Volume management viene gestito attraverso il CLVM (Cluster Logical Volume Manager). Red Hat GFS permette una condivisione dei dati tra i nodi del GFS all'interno di un cluster di Red Hat. GFS fornisce una panoramica singola ed uniforme sullo spazio del nome del file system, attraverso i nodi del GFS in un cluster di Red Hat. GFS permette l'installazione e l'esecuzione delle applicazioni senza avere una conoscenza dettagliata dell'infrastruttura dello storage. Altresì, GFS fornisce alcune caratteristiche spesso necessarie in ambienti enterprise, come ad esempio i quota, journal multipli ed il supporto multipath.
GFS fornisce un metodo versatile per lo storage networking basato sulle prestazioni, sulla scalabilità e sulle esigenze economiche del vostro ambiente storage. Questo capitolo fornisce alcune informazioni di base abbreviate come background, per aiutarvi a comprendere il GFS.
You can deploy GFS in a variety of configurations to suit your needs for performance, scalability, and economy. For superior performance and scalability, you can deploy GFS in a cluster that is connected directly to a SAN. For more economical needs, you can deploy GFS in a cluster that is connected to a LAN with servers that use GNBD (Global Network Block Device) or to iSCSI (Internet Small Computer System Interface) devices. (For more information about GNBD, refer to Sezione 1.7, «Global Network Block Device».)
Le seguenti sezioni forniscono alcuni esempi su come implementare GFS in modo da soddisfare le vostre esigenze di prestazione, scalabilità e di risparmio:

Nota

Gli esempi relativi all'implementazione del GFS riflettono le configurazioni di base; nel vostro caso potreste richiedere una combinazione di configurazioni riportate con i seguenti esempi.

1.5.1. Prestazione e scalabilità superiori

You can obtain the highest shared-file performance when applications access storage directly. The GFS SAN configuration in Figura 1.11, «GFS with a SAN» provides superior file performance for shared files and file systems. Linux applications run directly on cluster nodes using GFS. Without file protocols or storage servers to slow data access, performance is similar to individual Linux servers with directly connected storage; yet, each GFS application node has equal access to all data files. GFS supports over 300 GFS nodes.
GFS with a SAN

Figura 1.11. GFS with a SAN

1.5.2. Prestazione, scalabilità e prezzo moderato

Multiple Linux client applications on a LAN can share the same SAN-based data as shown in Figura 1.12, «GFS and GNBD with a SAN». SAN block storage is presented to network clients as block storage devices by GNBD servers. From the perspective of a client application, storage is accessed as if it were directly attached to the server in which the application is running. Stored data is actually on the SAN. Storage devices and data can be equally shared by network client applications. File locking and sharing functions are handled by GFS for each network client.
GFS and GNBD with a SAN

Figura 1.12. GFS and GNBD with a SAN

1.5.3. Risparmio e prestazione

Figura 1.13, «GFS e GNBD con uno storage collegato direttamente» shows how Linux client applications can take advantage of an existing Ethernet topology to gain shared access to all block storage devices. Client data files and file systems can be shared with GFS on each client. Application failover can be fully automated with Red Hat Cluster Suite.
GFS e GNBD con uno storage collegato direttamente

Figura 1.13. GFS e GNBD con uno storage collegato direttamente

1.6. Cluster Logical Volume Manager

Il Cluster Logical Volume Manager (CLVM) fornisce una versione cluster-wide di LVM2. CLVM fornisce le stesse caratteristiche di LVM2 su di un nodo singolo, rendendo i volumi disponibili su tutti i nodi in un cluster di Red Hat. I volumi logici creati con CLVM, rende gli stessi disponibili a tutti i nodi presenti in un cluster.
The key component in CLVM is clvmd. clvmd is a daemon that provides clustering extensions to the standard LVM2 tool set and allows LVM2 commands to manage shared storage. clvmd runs in each cluster node and distributes LVM metadata updates in a cluster, thereby presenting each cluster node with the same view of the logical volumes (refer to Figura 1.14, «CLVM Overview»). Logical volumes created with CLVM on shared storage are visible to all nodes that have access to the shared storage. CLVM allows a user to configure logical volumes on shared storage by locking access to physical storage while a logical volume is being configured. CLVM uses the lock-management service provided by the cluster infrastructure (refer to Sezione 1.3, «Cluster Infrastructure»).

Nota

Lo storage condiviso con Red Hat Cluster Suite necessita di una esecuzione del cluster logical volume manager daemon (clvmd) o degli High Availability Logical Volume Management agent (HA-LVM). Se non siete in grado di utilizzare il demone clvmd o HA-LVM per ragioni operative, o perchè non siete in possesso degli entitlement corretti, è consigliato non usare il single-instance LVM sul disco condiviso, poichè tale utilizzo potrebbe risultare in una corruzione dei dati. Per qualsiasi problema si prega di consultare un rappresentante per la gestione dei servizi di Red Hat.

Nota

L'utilizzo di CLVM richiede piccole modifiche di /etc/lvm/lvm.conf per il cluster-wide locking.
CLVM Overview

Figura 1.14. CLVM Overview

You can configure CLVM using the same commands as LVM2, using the LVM graphical user interface (refer to Figura 1.15, «LVM Graphical User Interface»), or using the storage configuration function of the Conga cluster configuration graphical user interface (refer to Figura 1.16, «Conga LVM Graphical User Interface») . Figura 1.17, «Creating Logical Volumes» shows the basic concept of creating logical volumes from Linux partitions and shows the commands used to create logical volumes.
LVM Graphical User Interface

Figura 1.15. LVM Graphical User Interface

Conga LVM Graphical User Interface

Figura 1.16. Conga LVM Graphical User Interface

Creating Logical Volumes

Figura 1.17. Creating Logical Volumes

1.7. Global Network Block Device

Il Global Network Block Device (GNBD) fornisce un accesso ai dispositivi a blocchi per Red Hat GFS attraverso TCP/IP. GNBD è simile nel concetto a NBD; tuttavia GNBD è specifico al GFS, e viene regolato solo per un suo utilizzo con il GFS. GNBD è utile se è necessario utilizzare tecnologie più robuste, il Fibre Channel o lo SCSI single-initiator non sono necessari o presentano costi proibitivi.
GNBD consists of two major components: a GNBD client and a GNBD server. A GNBD client runs in a node with GFS and imports a block device exported by a GNBD server. A GNBD server runs in another node and exports block-level storage from its local storage (either directly attached storage or SAN storage). Refer to Figura 1.18, «Panoramica di GNBD». Multiple GNBD clients can access a device exported by a GNBD server, thus making a GNBD suitable for use by a group of nodes running GFS.
Panoramica di GNBD

Figura 1.18. Panoramica di GNBD

1.8. Linux Virtual Server

Il Linux Virtual Server (LVS) è un insieme di componenti software integrati per il bilanciamento del carico IP attraverso un set di real server. LVS viene eseguito su di una coppia di computer configurati in modo simile: un router LVS attivo ed un router LVS di backup. Il router LVS attivo viene utilizzato per:
  • Bilanciare il carico attraverso i real server.
  • Controllare l'integrità dei servizi su ogni real server.
Il router LVS di backup monitorizza il router LVS attivo, sostituendolo nel caso in cui il router LVS attivo fallisce.
Figura 1.19, «Components of a Running LVS Cluster» provides an overview of the LVS components and their interrelationship.
Components of a Running LVS Cluster

Figura 1.19. Components of a Running LVS Cluster

Il demone pulse viene eseguito sia sul router LVS attivo che su quello passivo. Sul router LVS di backup, pulse invia un heartbeat all'interfaccia pubblica del router attivo, in modo da assicurarsi che il router LVS attivo funzioni correttamente. Sul router LVS attivo, pulse avvia il demone lvs, e risponde alle interrogazioni heartbeat provenienti dal router LVS di backup.
Una volta avviato, il demone lvs chiama l'utilità ipvsadm per configurare e gestire la tabella d'instradamento IPVS (IP Virtual Server) nel kernel, e successivamente avvia un processo nanny per ogni server virtuale configurato su ogni real server. Ogni processo nanny controlla lo stato di un servizio configurato su di un real server, ed indica al demone lvs se è presente un malfunzionamento del servizio su quel real server. Se tale malfunzionamento viene rilevato, il demone lvs indica a ipvsadm di rimuovere il real server in questione dalla tabella d'instradamento di IPVS.
Se il router LVS di backup non riceve alcuna risposta dal router LVS attivo, esso inizia un processo di failover attraverso la chiamata send_arp, riassegnando tutti gli indirizzi IP virtuali agli indirizzi hardware NIC (indirizzo MAC) del router LVS di backup, ed inviando un comando al router LVS attivo tramite l'interfaccia di rete privata e quella pubblica in modo da interrompere il demone lvs sul router LVS attivo. A questo punto verrà avviato il demone lvs sul router LVS di backup ed accettate tutte le richieste per i server virtuali configurati.
Per un utente esterno che accede ad un servizio hosted (come ad esempio le applicazioni databese o website), LVS può apparire come un unico server. Tuttavia l'utente accede ai real server situati oltre i router LVS.
Poichè non è presente alcun componente interno a LVS per condividere i dati tra i server reali, sono disponibili due opzioni di base:
  • La sincronizzazione dei dati attraverso i real server.
  • L'aggiunta di un terzo livello alla topologia per l'accesso dei dati condivisi.
Verrà utilizzata la prima opzione per i server che non permettono un numero di utenti molto grande per caricare o modificare i dati sui real server. Se i real server permettono un numero esteso di utenti per la modifica dei dati, come ad esempio un sito web e-commerce, allora sarà preferita l'aggiunta di un terzo livello.
Sono disponibili diverse modalità per la sincronizzazione dei dati tra i real server. Per esempio è possibile utilizzare gli script della shell per postare simultaneamente le pagine web aggiornate sui real server. Altresì è possibile utilizzare programmi come rsync, per replicare i dati modificati attraverso tutti i nodi in un intervallo di tempo determinato. Tuttavia in ambienti dove gli utenti caricano spesso file o emettono transazioni del database, l'utilizzo di script o del comando rsync per la sincronizzazione dei dati, non funzionerà in maniera ottimale. Per questo motivo per real server con un numero di upload molto elevato, e per transazioni del database o di traffico simile, una topologia three-tiered risulta essere più appropriata se desiderate sincronizzare i dati.

1.8.1. Two-Tier LVS Topology

Figura 1.20, «Two-Tier LVS Topology» shows a simple LVS configuration consisting of two tiers: LVS routers and real servers. The LVS-router tier consists of one active LVS router and one backup LVS router. The real-server tier consists of real servers connected to the private network. Each LVS router has two network interfaces: one connected to a public network (Internet) and one connected to a private network. A network interface connected to each network allows the LVS routers to regulate traffic between clients on the public network and the real servers on the private network. In Figura 1.20, «Two-Tier LVS Topology», the active LVS router uses Network Address Translation (NAT) to direct traffic from the public network to real servers on the private network, which in turn provide services as requested. The real servers pass all public traffic through the active LVS router. From the perspective of clients on the public network, the LVS router appears as one entity.
Two-Tier LVS Topology

Figura 1.20. Two-Tier LVS Topology

Le richieste del servizio che arrivano ad un router LVS vengono indirizzate ad un indirizzo IP virtuale o VIP. Esso rappresenta un indirizzo instradabile pubblicamente che l'amministratore del sito associa con un fully-qualified domain name, come ad esempio www.example.com, e assegnato ad uno o più server virtuali[1]. Nota bene che un indirizzo IP migra da un router LVS ad un altro durante un failover, mantenendo così una presenza in quel indirizzo IP, conosciuto anche come Indirizzi IP floating.
È possibile eseguire l'alias degli indirizzi VIP, sullo stesso dispositivo che esegue il collegamento del router LVS con la rete pubblica. Per esempio, se eth0 è collegato ad internet, allora sarà possibile eseguire l'alias dei server virtuali multipli su eth0:1. Alternativamente ogni server virtuale può essere associato con un dispositivo separato per servizio. Per esempio, il traffico HTTP può essere gestito su eth0:1, ed il traffico FTP gestito su eth0:2.
Solo un router LVS alla volta può essere attivo. Il ruolo del router LVS attivo è quello di ridirezionare le richieste di servizio dagli indirizzi IP virtuali ai real server. Questo processo si basa su uno degli otto algoritmi per il bilanciamento del carico:
  • Round-Robin Scheduling — Distribuisce ogni richiesta in successione all'interno di un gruppo di real server. Utilizzando questo algoritmo, tutti i real server vengono trattati allo stesso modo, senza considerare la loro capacità o il loro carico.
  • Weighted Round-Robin Scheduling — Distribuisce ogni richiesta in successione all'interno di un gruppo di real server, dando un carico di lavoro maggiore ai server con maggiore capacità. La capacità viene indicata da un fattore di peso assegnato dall'utente, e viene modificata in base alle informazioni sul carico dinamico. Essa rappresenta la scelta preferita se sono presenti differenze sostanziali di capacità dei real server all'interno di un gruppo di server. Tuttavia se la richiesta di carico varia sensibilmente, un server con un carico di lavoro molto elevato potrebbe operare oltre ai propri limiti.
  • Least-Connection — Distribuisce un numero maggiore di richieste ai real server con un numero minore di collegamenti attivi. Questo è un tipo di algoritmo di programmazione dinamico, il quale rappresenta la scelta migliore se siete in presenza di una elevata variazione nelle richieste di carico. Offre il meglio di se per un gruppo di real server dove ogni nodo del server presenta una capacità simile. Se i real server in questione hanno una gamma varia di capacità, allora il weighted least-connection scheduling rappresenta la scelta migliore.
  • Weighted Least-Connections (default) — Distribuisce un numero maggiore di richieste ai server con un numero minore di collegamenti attivi, in base alle proprie capacità. La capacità viene indicata da un peso assegnato dall'utente, e viene modificata in base alle informazioni relative al carico dinamico. L'aggiunta di peso rende questo algoritmo ideale quando il gruppo del real server contiene un hardware di varia capacità.
  • Locality-Based Least-Connection Scheduling — Distribuisce un numero maggiore di richieste ai server con un numero minore di collegamenti attivi, in base ai propri IP di destinazione. Questo algoritmo viene utilizzato in un cluster di server proxy-cache. Esso indirizza i pacchetti per un indirizzo IP al server per quel indirizzo, a meno che il server in questione non abbia superato la sua capacità e sia presente al tempo stesso un server che utilizzi metà della propria capacità. In questo caso l'indirizzo IP verrà assegnato al real server con un carico minore.
  • Locality-Based Least-Connection Scheduling con Replication Scheduling — Distribuisce un numero maggiore di richieste ai server con un numero minore di collegamenti attivi, in base ai propri IP di destinazione. Questo algoritmo viene usato anche in un cluster di server proxy-cache. Esso differisce da Locality-Based Least-Connection Scheduling a causa della mappatura dell'indirizzo IP target su di un sottoinsieme di nodi del real server. Le richieste vengono indirizzate ad un server presente in questo sottoinsieme con il numero più basso di collegamenti. Se tutti i nodi per l'IP di destinazione sono al di sopra della propria capacità, esso sarà in grado di replicare un nuovo server per quel indirizzo IP di destinazione, aggiungendo il real server con un numero minore di collegamenti del gruppo di real server, al sottoinsieme di real server per quel IP di destinazione. Il nodo maggiormente carico verrà rilasciato dal sottoinsieme di real server in modo da evitare un processo di riproduzione non corretto.
  • Source Hash Scheduling — Distribuisce le richieste al gruppo di real server, cercando l'IP sorgente in una tabella hash statica. Questo algoritmo viene usato per i router LVS con firewall multipli.
Altresì, il router LVS attivo monitorizza dinamicamente lo stato generale dei servizi specifici sui real server, attraverso semplici script send/expect. Per assistervi nella rilevazione dello stato dei servizi che richiedono dati dinamici, come ad esempio HTTPS o SSL, è possibile richiamare gli eseguibili esterni. Se un servizio non funziona correttamente su di un real server, il router LVS attivo interrompe l'invio di lavori al server interessato, fino a quando non vengono ripristinate le normali funzioni.
Il router LVS di backup esegue il ruolo di un sistema in standby 'attesa'. I router LVS scambiano periodicamente messaggi heartbeat attraverso l'interfaccia pubblica esterna primaria e, in una situazione di failover, attraverso l'interfaccia privata. Se il router LVS di backup non riceve un messaggio heartbeat entro un intervallo di tempo determinato, esso inizierà un processo di failover assumendo così il ruolo di router LVS attivo. Durante il processo di failover, il router LVS di backup prende a carico gli indirizzi VIP serviti dal router fallito utilizzando una tecnica conosciuta come ARP spoofing — con questa tecnica il router LVS di backup si presenta come destinazione per i pacchetti IP indirizzati al nodo fallito. Quando il nodo in questione ritorna in uno stato di servizio attivo, il router LVS di backup assume il proprio ruolo di backup.
The simple, two-tier configuration in Figura 1.20, «Two-Tier LVS Topology» is suited best for clusters serving data that does not change very frequently — such as static web pages — because the individual real servers do not automatically synchronize data among themselves.

1.8.2. Three-Tier LVS Topology

Figura 1.21, «Three-Tier LVS Topology» shows a typical three-tier LVS configuration. In the example, the active LVS router routes the requests from the public network (Internet) to the second tier — real servers. Each real server then accesses a shared data source of a Red Hat cluster in the third tier over the private network.
Three-Tier LVS Topology

Figura 1.21. Three-Tier LVS Topology

Questa topologia è ideale per server FTP molto occupati, dove i dati accessibili vengono conservati in un server highly available centrale, accessibili da ogni real server tramite una directory NFS esportata o una condivisione Samba. Questa topologia è anche consigliata per siti web in grado di accedere ad un database high-availability centrale per le loro transazioni. In aggiunta, utilizzando una configurazione attiva-attiva con un cluster Red Hat, è possibile configurare un cluster high-availability, in modo da servire simultaneamente entrambi i ruoli.

1.8.3. Metodi di instradamento

È possibile utilizzare con LVS il Network Address Translation (NAT) routing oppure l'instradamento diretto. Le seguenti sezioni descrivono brevemente il NAT routing e quello diretto con LVS.

1.8.3.1. NAT Routing

Figura 1.22, «LVS Implemented with NAT Routing», illustrates LVS using NAT routing to move requests between the Internet and a private network.
LVS Implemented with NAT Routing

Figura 1.22. LVS Implemented with NAT Routing

In questo esempio sono presenti due NIC all'interno del router LVS attivo. Il NIC per Internet presenta un indirizzo IP reale su eth0, con un indirizzo IP floating come alias su eth0:1. Il NIC per l'interfaccia di rete privata possiede un indirizzo IP reale su eth1 ed un indirizzo IP floating come alias su eth1:1. Nell'evento di un failover, l'interfaccia virtuale che interessa internet e quella privata che interessa l'interfaccia virtuale, vengono controllate simultaneamente dal router LVS di backup. Tutti i real server presenti sulla rete privata, utilizzano l'IP floating per il router NAT come rotta predefinita per comunicare con il router LVS attivo, in modo tale da non limitare le proprie capacità di rispondere alle richieste provenienti da internet.
In the example, the LVS router's public LVS floating IP address and private NAT floating IP address are aliased to two physical NICs. While it is possible to associate each floating IP address to its physical device on the LVS router nodes, having more than two NICs is not a requirement.
Utilizzando questa topologia il router LVS attivo riceve la richiesta e la direziona al server appropriato. Successivamente, il real server processa la richiesta e ritorna i pacchetti al router LVS. Il router LVS utilizza la traduzione dell'indirizzo di rete per sostituire l'indirizzo del real server nei pacchetti, con l'indirizzo VIP pubblico dei router LVS. Questo processo viene chiamato IP masquerading poichè gli indirizzi IP correnti dei real server vengono nascosti ai client richiedenti.
Utilizzando il NAT routing i real server possono essere rappresentati da ogni tipo di computer sui quali viene eseguito una verietà di sistemi operativi. Il router LVS può rappresentare lo svantaggio del NAT routing, infatti con implementazioni molto grandi esso deve processare richieste sia in entrata che in uscita.

1.8.3.2. Instradamento diretto

L'instradamento diretto fornisce maggiori benefici per quanto riguarda le prestazioni rispetto al NAT routing. Esso permette ai real server di processare e direzionare i pacchetti direttamente ad un richiedente, invece di passare i pacchetti in uscita attraverso il router LVS. L'instradamento diretto riduce i problemi di prestazione della rete, relegando il compito del router LVS alla sola processazione dei pacchetti in entrata.
LVS Implemented with Direct Routing

Figura 1.23. LVS Implemented with Direct Routing

In una configurazione LVS direct-routing tipica, un router LVS riceve le richieste in entrata del server attraverso un IP virtuale (VIP), ed utilizza un algoritmo di programmazione per direzionare la richiesta al real server. Ogni real server processa le richieste ed invia le risposte direttamente ai client, bypassando i router LVS. L'instradamento diretto permette di avere una certa scalabilità, e quindi aggiungere real server senza aver bisogno che il router LVS direzioni i pacchetti in uscita dal real server al client, evitando un potenziale problema in presenza di carichi di rete maggiori.
Anche se sono presenti numerosi vantaggi nell'utilizzo dell'instradamento diretto in LVS, sono presenti alcune limitazioni. Il problema più comune tra l'instradamento diretto e LVS è rappresentato dall'Address Resolution Protocol (ARP).
In typical situations, a client on the Internet sends a request to an IP address. Network routers typically send requests to their destination by relating IP addresses to a machine's MAC address with ARP. ARP requests are broadcast to all connected machines on a network, and the machine with the correct IP/MAC address combination receives the packet. The IP/MAC associations are stored in an ARP cache, which is cleared periodically (usually every 15 minutes) and refilled with IP/MAC associations.
Il problema esistente con le richieste ARP in una configurazione LVS con instradamento diretto, è dovuto alla necessità di associare una richiesta del client fatta ad un indirizzo IP, con l'indirizzo MAC per la richiesta da gestire, l'indirizzo IP virtuale del router LVS deve anch'esso essere associato ad un MAC. Tuttavia, poichè sia il router LVS che i real server possiedono lo stesso VIP, la richiesta ARP viene trasmessa a tutti i nodi associati con il VIP. Tale operazione potrebbe causare diversi problemi come ad esempio la possibilità di associare il VIP direttamente ad uno dei real server, e processare la richiesta direttamente bypassando completamente il router LVS, ed annullando lo scopo della configurazione LVS. L'utilizzo di un router LVS con una CPU molto potente in grado di rispondere rapidamente alle richieste del client, porebbe non risolvere questo problema. Se il router LVS presenta un carico molto elevato, esso potrebbe rispondere alle richieste ARP molto più lentamente di un real server con un carico di lavoro normale, il quale sarà in grado di rispondere più velocemente e al quale verrà assegnato il VIP nella cache ARP del client richiedente.
Per risolvere questo problema le richieste in entrata dovrebbero solo associare il VIP al router LVS, il quale processerà correttamente le richieste, inviandole al gruppo di real server. È possibile eseguire questo processo utilizzando il tool arptables di filtraggio del pacchetto.

1.8.4. Persistenza e Firewall Mark

In alcune situazioni potrebbe essere più semplice per un client ricollegarsi ripetutamente allo stesso real server, invece di avere un algoritmo di bilanciamento del carico di LVS per l'invio della richiesta al server migliore disponibile. Esempi di quanto detto includono forme web multi-screen, cookies, SSL, e collegamenti FTP. In questi casi un client potrebbe non funzionare correttamente a meno che le transazioni non vengono gestite dallo stesso server che ne mantiene il contesto. LVS fornisce due diverse funzioni in grado di gestire quanto detto: persistenza e firewall mark.

1.8.4.1. Persistence

Quando abilitata, la persistenza funziona come un timer. Quando un client esegue il collegamento ad un servizio, LVS ricorda l'ultimo collegamento effettuato dal client stesso per un periodo di tempo specificato. Se lo stesso indirizzo IP del client si collega entro un determinato periodo, esso verrà inviato allo stesso server al quale si è precedentemente collegato — bypassando così i meccanismi di bilanciamento del carico. Se si verifica invece al di fuori del suddetto periodo, tale processo viene gestito in base alle regole in corso.
La persistenza vi permette altresì di specificare una maschera di sottorete da applicare al test dell'indirizzo IP del client, come tool per il controllo degli indirizzi che possiedono un elevato livello di persistenza, e quindi raggruppando i collegamenti a quella sottorete.
Il raggruppamento dei collegamenti destinati a porte diverse, può essere importante per protocolli che utilizzano più di una porta per le loro comunicazioni, come ad esempio FTP. Tuttavia la persistenza non rappresenta il metodo più efficace per affrontare il problema del raggruppamento dei collegamenti destinati a porte diverse. Per queste situazioni, è consigliato utilizzare firewall mark.

1.8.4.2. Firewall Mark

I firewall mark rappresentano un modo semplice ed efficiente per le porte di un gruppo, usate per un protocollo o gruppo di protocolli relativi. Per esempio, se LVS viene implementato su di un sito e-commerce, i firewall mark possono essere usati per raggruppare i collegamenti HTTP sulla porta 80, e rendere i collegamenti HTTPS sicuri sulla porta 443. Assegnando lo stesso firewall mark al server virtuale per ogni protocollo, le informazioni sullo stato per ogni transazione possono essere preservate, poichè il router LVS inoltra tutte le richieste allo stesso real server dopo aver aperto un collegamento.
A causa della sua efficienza e facilità d'uso, è consigliato agli amministratori di LVS l'utilizzo, quando possibile, dei firewall mark invece della persistenza per raggruppare i collegamenti. Tuttavia è consigliato aggiungere la persistenza sui server virtuali insieme ai firewall mark, in modo da assicurarsi che i client possono essere ricollegati allo stesso server per un periodo di tempo adeguato.

1.9. Tool di amministrazione del cluster

Red Hat Cluster Suite fornisce una varietà di tool per configurare e gestire il vostro cluster di Red Hat. Qusta sezione fornisce una panoramica dei tool di amministrazione disponibili con Red Hat Cluster Suite:

1.9.1. Conga

Conga è un set di componenti software in grado di fornire una gestione ed una configurazione centralizzata dello storage e dei cluster di Red Hat. Conga fornisce le seguenti funzioni:
  • Una interfaccia web per la gestione dello storage e del cluster
  • Implementazione automatizzata dei dati del cluster e pacchetti di supporto
  • Integrazione semplice con i cluster esistenti
  • Nessuna necessità di eseguire la riautenticazione
  • Integrazione dello stato del cluster e dei log
  • Controllo più meticoloso sui permessi dell'utente
I componenti primari di Conga sono luci e ricci, i quali non possono essere installati separatamente. luci è un server eseguito su di un computer in grado di comunicare con cluster multipli e computer tramite ricci. ricci è un agent eseguito su ogni computer (un membro del cluster o un computer standalone) gestito da Conga.
luci è accessibile tramite un web browser e fornisce le tre funzioni più importanti accessibili attraverso le seguenti schede:
  • homebase — Fornisce i tool usati per aggiungere e cancellare i computer, gli utenti e per la configurazione dei privilegi dell'utente. Solo un amministratore di sistema è in grado di accedere a questa scheda.
  • cluster — Fornisce i tool usati per la creazione e la configurazione dei cluster. Ogni istanza di luci elenca i cluster impostati con quel luci. Un amministratore del sistema può gestire tutti i cluster presenti su questa scheda. Altri utenti potranno amministrare solo i cluster verso i quali l'utente avrà i permessi per la gestione (conferiti da un amministratore).
  • storage — Fornisce i tool per l'amministrazione remota dello storage. Con i tool presenti su questa scheda, sarete in grado di gestire lo storage sui computer, senza considerare se essi appartengono o meno ad un cluster.
Per amministrare un cluster o uno storage, un amministratore deve aggiungere (o registrare) un cluster o un computer su di un server luci. Quando un cluster o un computer risultano registrati con luci, l'hostname FQDN o indirizzo IP di ogni computer, viene conservato in un database luci.
Potete popolare il database di una istanza luci tramite un'altra istanza luci. Questa capacità fornisce un mezzo per la replica di una istanza del server luci, e fornisce un aggiornamento efficiente insieme ad un percorso di prova. Quando installate una istanza di luci, il suo database risulta vuoto. Tuttavia è possibile importare parte o tutto il database luci da un server luci esistente, quando implementate un nuovo server luci.
Ogni istanza di luci presenta un utente al momento dell'installazione iniziale — admin. Solo l'utente admin è in grado di aggiungere i sistemi ad un server luci. Altresì il suddetto utente può creare account aggiuntivi e determinare quali utenti sono in grado di accedere ai cluster ed ai computer registrati nel database di luci. È possibile importare gli utenti a gruppi in un nuovo server di luci, in modo simile al processo d'importazione dei cluster e dei computer.
Quando un computer viene aggiunto ad un server luci per essere amministrato, l'autenticazione viene eseguita solo una volta. Per questo motivo non è necessario alcun processo di autenticazione supplementare (a meno che il certificato usato non venga annullato da un CA). Successivamente è possibile configurare e gestire in modo remoto i cluster e lo storage attraverso l'interfaccia utente di luci. luci e ricci comunicano tra loro attraverso XML.
Le seguenti figure mostrano esempi delle tre schede più importanti di luci: homebase, cluster, e storage.
Per maggiori informazioni su Conga, consultate la Configurazione e gestione di un Red Hat Cluster, e l'aiuto disponibile online con il server di luci.
Scheda homebase di luci

Figura 1.24. Scheda homebase di luci

Scheda cluster di luci

Figura 1.25. Scheda cluster di luci

Scheda storage di luci

Figura 1.26. Scheda storage di luci

1.9.2. GUI di amministrazione del cluster

This section provides an overview of the system-config-cluster cluster administration graphical user interface (GUI) available with Red Hat Cluster Suite. The GUI is for use with the cluster infrastructure and the high-availability service management components (refer to Sezione 1.3, «Cluster Infrastructure» and Sezione 1.4, «Gestione dei servizi High-availability»). The GUI consists of two major functions: the Cluster Configuration Tool and the Cluster Status Tool. The Cluster Configuration Tool provides the capability to create, edit, and propagate the cluster configuration file (/etc/cluster/cluster.conf). The Cluster Status Tool provides the capability to manage high-availability services. The following sections summarize those functions.

1.9.2.1. Cluster Configuration Tool

You can access the Cluster Configuration Tool (Figura 1.27, «Cluster Configuration Tool») through the Cluster Configuration tab in the Cluster Administration GUI.
Cluster Configuration Tool

Figura 1.27. Cluster Configuration Tool

Il Cluster Configuration Tool rappresenta i componenti di configurazione del cluster nel file di configurazione (/etc/cluster/cluster.conf), con un display grafico gerarchico nel pannello di sinistra. Una icona triangolare a sinistra del nome del componente, indica che il componente stesso possiede uno o due componenti subordinati assegnati. Facendo clic sull'icona triangolare sarete in grado di espandere o comprimere la porzione d'albero situata sotto un componente. I componenti visualizzati nella GUI vengono riassunti nel seguente modo:
  • Nodi del Cluster — Visualizza i nodi del cluster. I nodi vengono rappresentati per nome come elementi subordinati sotto Nodi del Cluster. Utilizzando i pulsanti per la configurazione della struttura (sotto Proprietà), sarà possibile aggiungere, cancellare i nodi e modificare le loro proprietà, configurando anche i metodi di fencing per ogni nodo.
  • Dispositivi Fence — Mostra i dispositivi Fence. I suddetti dispositivi vengono rappresentati come elementi subordinati sotto Dispositivi Fence. Utilizzando i pulsanti di configurazione nella parte inferiore della struttura (sotto Proprietà), sarà possibile aggiungere e cancellare i dispositivi Fence, e modificarne le loro proprietà. È necessario definire questi dispositivi prima di configurare il processo di fencing (tramite il pulsante Gestisci il fencing per questo nodo) per ogni nodo.
  • Risorse gestite — Visualizza i domini di failover, le risorse ed i servizi.
    • Domini di Failover — Per la configurazione di uno o più sottoinsiemi dei nodi del cluster usati per eseguire un servizio high-availability nell'evento del fallimento di un nodo. I domini di failover sono rappresentati come elementi subordinati sotto i Domini di Failover. Utilizzando i pulsanti per la configurazione nella parte bassa della struttura (sotto Proprietà), è possibile creare i domini di failover (quando viene selezionato Domini di Failover, oppure modificare le proprietà del dominio di failover (quando è stato selezionato un dominio di failover).
    • Risorse — Per la configurazione delle risorse condivise utilizzate dai servizi high-availability. Le risorse condivise consistono in file system, indirizzi IP, esportazioni e montaggi NFS e script creati dall'utente disponibili per qualsiasi servizio high-availability nel cluster. Le risorse vengono rappresentate come elementi subordinati sotto Risorse. Utilizzando i pulsanti di configurazione nella parte bassa della struttura (sotto Proprietà), è possibile creare le risorse (se Risorse è stato selezionato), oppure modificare la proprietà di una risorsa (se avete selezionato una risorsa).

      Nota

      Il Cluster Configuration Tool fornisce la capacità di configurare le risorse private. Una risorsa privata è una risorsa configurata per l'utilizzo con un solo servizio. È possibile configurare una risorsa privata all'interno di un componente di Service tramite la GUI.
    • Servizi — Per la creazione e la configurazione di servizi high-availability. Un servizio viene configurato attraverso l'assegnazione delle risorse (condivise o private), assegnando un dominio di failover, e definendo una policy di ripristino per il servizio. I servizi vengono rappresentati come elementi subordinati sotto Servizi. Utilizzando i pulsanti di configurazione nella parte bassa della struttura (sotto Proprietà), è possibile creare i servizi (se Servizi è stato selezionato), oppure modificare le proprietà di un servizio (se avete selezionato un servizio).

1.9.2.2. Cluster Status Tool

You can access the Cluster Status Tool (Figura 1.28, «Cluster Status Tool») through the Cluster Management tab in Cluster Administration GUI.
Cluster Status Tool

Figura 1.28. Cluster Status Tool

I nodi ed i servizi visualizzati nel Cluster Status Tool vengono determinati dal file di configurazione del cluster (/etc/cluster/cluster.conf). È possibile utilizzare il Cluster Status Tool per abilitare, disabilitare, riavviare o riposizionare un servizio high-availability.

1.9.3. Tool di amministrazione della linea di comando

In addition to Conga and the system-config-cluster Cluster Administration GUI, command line tools are available for administering the cluster infrastructure and the high-availability service management components. The command line tools are used by the Cluster Administration GUI and init scripts supplied by Red Hat. Tabella 1.1, «Tool della linea di comando» summarizes the command line tools.
Tabella 1.1. Tool della linea di comando
Tool della linea di comando Usato con Scopo
ccs_tool — Tool del sistema di configurazione del cluster Cluster Infrastructure ccs_tool è un programma usato per creare aggiornamenti online per il file di configurazione del cluster. Esso conferisce la capacità di creare e modificare i componenti dell'infrastruttura del cluster (per esempio creare un cluster, o aggiungere e rimuovere un nodo). Per maggiori informazioni su questo tool, consultate la pagina man di ccs_tool(8).
cman_tool — Tool di gestione del cluster Cluster Infrastructure cman_tool è un programma che gestisce il CMAN cluster manager. Esso fornisce la possibilità di unirsi o abbandonare un cluster, di terminare un nodo, o di modificare i voti del quorum previsti di un nodo in un cluster. Per maggiori informazioni su questo tool, consultate la pagina man di cman_tool(8).
fence_tool — Tool di Fence Cluster Infrastructure fence_tool è un programma usato per unirsi o abbandonare il dominio predefinito di fence. In modo specifico, avviare il demone di fence (fenced), unirsi al dominio, terminare fenced, e per abbandonare il dominio in questione. Per maggiori informazioni su questo tool consultate la pagina man di fence_tool(8).
clustat — Utilità dello stato del cluster Componenti di gestione del servizio High-availability Il comando clustat visualizza lo status del cluster. Esso mostra le informazioni sull'appartenenza, la vista sul quorum e lo stato di tutti i servizi utente configurati. Per maggiori informazioni su questo tool, consultate la pagina man di clustat(8).
clusvcadm — Utilità di amministrazione del servizio utente del cluster Componenti di gestione del servizio High-availability Il comando clusvcadm vi permette di abilitare, disabilitare, riposizionare e riavviare i servizi high-availability in un cluster. Per maggiori informazioni su questo tool, consultate la pagina man di clusvcadm(8).

1.10. GUI di amministrazione del server virtuale di Linux

Questa sezione fornisce una panoramica del tool di configurazione LVS disponibile con il Red Hat Cluster Suite — il Piranha Configuration Tool. Il Piranha Configuration Tool è una interfaccia utente grafica GUI del web browser, in grado di fornire un approccio strutturato per la creazione del file di configurazione per LVS — /etc/sysconfig/ha/lvs.cf.
Per poter accedere al Piranha Configuration Tool è necessario eseguire il servizio piranha-gui sul router LVS attivo. È possibile accedere al Piranha Configuration Tool in modo locale o remoto tramite un web browser. Per l'accesso locale è possibile utilizzare il seguente URL: http://localhost:3636. Per un accesso remoto è possibile utilizzare un hostname o l'indirizzo IP reale seguito da :3636. Se state per accedere al Piranha Configuration Tool in modo remoto, allora avrete bisogno di un collegamento ssh per il router LVS attivo come utente root.
Starting the Piranha Configuration Tool causes the Piranha Configuration Tool welcome page to be displayed (refer to Figura 1.29, «The Welcome Panel»). Logging in to the welcome page provides access to the four main screens or panels: CONTROL/MONITORING, GLOBAL SETTINGS, REDUNDANCY, and VIRTUAL SERVERS. In addition, the VIRTUAL SERVERS panel contains four subsections. The CONTROL/MONITORING panel is the first panel displayed after you log in at the welcome screen.
The Welcome Panel

Figura 1.29. The Welcome Panel

Le seguenti sezioni forniscono una breve descrizione sulle pagine di configurazione del Piranha Configuration Tool.

1.10.1. CONTROL/MONITORING

Il pannello CONTROLLO/MONITORAGGIO visualizza lo stato del runtime. Inoltre, è in grado di visualizzare lo stato del demone di pulse, la tabella d'instradamento LVS, ed i processi nanny generati da LVS.
The CONTROL/MONITORING Panel

Figura 1.30. The CONTROL/MONITORING Panel

Auto update
Permette l'aggiornamento automatico del display dello stato, ad un intervallo configurato dall'utente all'interno della casella Frequenza di aggiornamento in secondi (il valore predefinito è 10 secondi).
Non è consigliato impostare l'aggiornamento automatico ad un intervallo di tempo inferiore a 10 secondi, poichè così facendo sarà difficile riconfigurare l'intervallo di Aggiornamento automatico poichè la pagina verrà aggiornata troppo frequentemente. Se incontrate questo problema fate clic su di un altro pannello e successivamente su CONTROLLO/MONITORAGGIO.
Update information now
Fornisce l'aggiornamento manuale delle informazioni sullo stato.
CHANGE PASSWORD
Facendo clic su questo pulsante verrete direzionati su di una schermata d'aiuto, contenente le informazioni su come modificare la password amministrativa per il Piranha Configuration Tool.

1.10.2. GLOBAL SETTINGS

The GLOBAL SETTINGS panel is where the LVS administrator defines the networking details for the primary LVS router's public and private network interfaces.
The GLOBAL SETTINGS Panel

Figura 1.31. The GLOBAL SETTINGS Panel

The top half of this panel sets up the primary LVS router's public and private network interfaces.
Primary server public IP
Indirizzo IP reale pubblicamente instradabile per il nodo LVS primario.
Primary server private IP
L'indirizzo IP reale per una interfaccia di rete alternativa sul nodo LVS primario. Questo indirizzo viene utilizzato solo come canale heartbeat alternativo per il router di backup.
Use network type
Seleziona scegli NAT routing.
The next three fields are specifically for the NAT router's virtual network interface connected the private network with the real servers.
NAT Router IP
L'IP floating privato in questo campo di testo. Il suddetto IP floating deve essere usato come gateway per i real server.
NAT Router netmask
If the NAT router's floating IP needs a particular netmask, select it from drop-down list.
NAT Router device
Definisce il nome del dispositivo dell'interfaccia di rete per l'indirizzo IP floating, come ad esempio eth1:1.

1.10.3. REDUNDANCY

Il pannello RIDONDANZA vi permette di configurare il nodo del router LVS di backup, ed impostare le varie opzioni per il monitoraggio dell' heartbeat.
The REDUNDANCY Panel

Figura 1.32. The REDUNDANCY Panel

Redundant server public IP
Indirizzo IP reale pubblico per il router LVS di backup.
Redundant server private IP
The backup router's private real IP address.
Il resto del pannello viene utilizzato per la configurazione del canale heartbeat, il quale a sua volta viene usato dal nodo di backup per monitorare la presenza di errori nel nodo primario.
Heartbeat Interval (seconds)
Imposta il numero di secondi tra gli heartbeat — l'intervallo entro il quale il nodo di backup controllerà la funzionalità dello stato del nodo LVS primario.
Assume dead after (seconds)
Se il nodo LVS primario non risponde dopo il suddetto numero di secondi, allora il nodo del router LVS di backup inizierà un processo di failover.
Heartbeat runs on port
Imposta la porta sulla quale l'heartbeat comunica con il nodo LVS primario. Il default viene impostato su 539 se questo campo viene lasciato vuoto.

1.10.4. VIRTUAL SERVERS

Il pannello SERVER VIRTUALI visualizza le informazioni relative ad ogni server virtuale corrente definito. Ogni voce presente nella tabella mostra lo stato del server virtuale, il nome del server, l'IP virtuale assegnato al server, la maschera di rete dell'IP virtuale, il numero della porta usata dal servizio per comunicare, il protocollo usato e l'interfaccia del dispositivo virtuale.
The VIRTUAL SERVERS Panel

Figura 1.33. The VIRTUAL SERVERS Panel

Ogni server presente nel pannello SERVER VIRTUALI può essere configurato sulle schermate successive o sulle sottosezioni.
Per aggiungere un dispositivo fate clic sul pulsante AGGIUNGI. Per rimuovere un servizio, selezionatelo tramite il pulsante situato accanto al server virtuale, e successivamente sul pulsante CANCELLA.
Per abilitare o disabilitare un server virtuale nella tabella, fate clic sul pulsante corrispondente e successivamente sul pulsante (DIS.)ABILITA.
Dopo aver aggiunto un server virtuale, sarà possibile configurarlo facendo clic sul pulsante corrispondente sulla sinistra, e successivamente il pulsante MODIFICA per visualizzare la sottosezione SERVER VIRTUALE.

1.10.4.1. Sottosezione SERVER VIRTUALE

The VIRTUAL SERVER subsection panel shown in Figura 1.34, «The VIRTUAL SERVERS Subsection» allows you to configure an individual virtual server. Links to subsections related specifically to this virtual server are located along the top of the page. But before configuring any of the subsections related to this virtual server, complete this page and click on the ACCEPT button.
The VIRTUAL SERVERS Subsection

Figura 1.34. The VIRTUAL SERVERS Subsection

Name
Un nome descrittivo per identificare il server virtuale. Questo nome non è l'hostname per la macchina, quindi rendetelo descrittivo e facilmente identificabile. Potrete altresì riferirvi al protocollo usato dal server virtuale, come ad esempio HTTP.
Application port
Il numero della porta attraverso la quale il service application sarà in ascolto.
Protocol
Fornisce una scelta di UDP o TCP, in un menu a tendina.
Virtual IP Address
The virtual server's floating IP address.
Virtual IP Network Mask
La maschera di rete per questo server virtuale nel menu a tendina.
Firewall Mark
Usato per inserire un valore intero di un firewall mark durante l'unione di protocolli multi-port, o per la creazione di un server virtuale multi-port per protocolli relativi ma separati.
Device
Il nome del dispositivo di rete al quale desiderate unire l'indirizzo IP floating definito nel campo Indirizzo IP virtuale.
È consigliato l'alias dell'indirizzo IP floating pubblico sull'interfaccia Ethernet collegata alla rete pubblica.
Re-entry Time
Un valore intero che definisce il numero di secondi prima che il router LVS attivo possa cercare di utilizzare un real server dopo il suo fallimento.
Service Timeout
Un valore intero che definisce il numero di secondi prima che un real server venga considerato morto e quindi non disponibile.
Quiesce server
Quando un nodo del real server è online, dopo aver selezionato il pulsante radio server Quiesce la tabella delle least-connection viene azzerata. Così facendo il router LVS attivo indirizza le richieste come se i real server fossero stati appena aggiunti al cluster. Questa opzione impedisce ad un nuovo server di saturarsi a causa di un numero elevato di collegamenti al momento dell'ingresso nel cluster.
Load monitoring tool
Il router LVS è in grado di monitorare il carico sui vari real server tramite l'utilizzo sia di rup che di ruptime. Se selezionate rup dal menu a tendina, ogni real server deve eseguire il servizio rstatd. Se invece selezionate ruptime, ogni real server deve eseguire il servizio rwhod.
Scheduling
L'algoritmo preferito per la programmazione dal menu a tendina. Il default è Weighted least-connection.
Persistenza
Utilizzato se avete bisogno di collegamenti persistenti per il server virtuale durante le transazioni del client. Specifica in questo campo il numero di secondi di inattività prima che un collegamento possa scadere.
Persistence Network Mask
Per poter limitare la persistenza di una particolare sottorete, selezionate la maschera di rete appropriata dal menu a tendina.

1.10.4.2. Sottosezione REAL SERVER

Facendo clic sul link della sottosezione REAL SERVER nella parte alta del pannello, sarete in grado di visualizzare la sottosezione MODIFICA REAL SERVER. Essa mostra lo stato degli host del server fisico per un servizio virtuale specifico.
The REAL SERVER Subsection

Figura 1.35. The REAL SERVER Subsection

Click the ADD button to add a new server. To delete an existing server, select the radio button beside it and click the DELETE button. Click the EDIT button to load the EDIT REAL SERVER panel, as seen in Figura 1.36, «The REAL SERVER Configuration Panel».
The REAL SERVER Configuration Panel

Figura 1.36. The REAL SERVER Configuration Panel

Questo pannello consiste in tre campi:
Name
Un nome descrittivo per il real server.

Nota

Questo nome non è l'hostname per la macchina, quindi rendetelo descrittivo e facilmente identificabile.
Address
The real server's IP address. Since the listening port is already specified for the associated virtual server, do not add a port number.
Weight
An integer value indicating this host's capacity relative to that of other hosts in the pool. The value can be arbitrary, but treat it as a ratio in relation to other real servers.

1.10.4.3. EDIT MONITORING SCRIPTS Subsection

Fate clic sul link SCRIPT DI MONITORAGGIO nella parte alta della pagina. La sottosezione MODIFICA SCRIPT DI MONITORAGGIO permette all'amministratore di specificare una sequenza della stringa del tipo send/expect, per verificare che il servizio per il server virtuale funzioni correttamente su ogni real server. Esso rappresenta anche il luogo dove l'amministratore può specificare script personalizzati per il controllo dei servizi che richiedono una modifica dinamica dei dati.
The EDIT MONITORING SCRIPTS Subsection

Figura 1.37. The EDIT MONITORING SCRIPTS Subsection

Sending Program
Per una verifica dei servizi molto più avanzata è possibile utilizzare questo campo per specificare il percorso per uno script di controllo del servizio. Questa funzione è particolarmente utile per servizi che richiedono una modifica dinamica dei dati, come ad esempio HTTPS o SSL.
Per utilizzare questa funzione è necessario scrivere uno script il quale ritorna una risposta testuale, impostatela in modo da essere eseguibile e digitate il percorso relativo nel campo Programma mittente.

Nota

Se viene inserito nel campo Programma mittente un programma esterno, allora il campo Invio viene ignorato.
Send
Una stringa per il demone nanny da inviare ad ogni real server in questo campo. Per default il campo relativo a HTTP è stato completato. È possibile alterare questo valore a seconda delle vostre esigenze. Se lasciate questo campo vuoto, il demone nanny cerca di aprire la porta, e se ha successo assume che il servizio è in esecuzione.
In questo campo è permesso solo una sola sequenza d'invio, e può contenere solo caratteri ASCII stampabili insieme ai seguenti caratteri:
  • \n per una nuova riga.
  • \r per il ritorno a capo del cursore.
  • \t per tab.
  • \ escape del carattere successivo che lo segue.
Expect
La risposta testuale che il server dovrebbe ritornare se funziona correttamente. Se avete scritto il vostro programma mittente, inserite la risposta da inviare in caso di successo.


[1] Un server virtuale è un servizio configurato in ascolto su di un IP virtuale specifico.

Capitolo 2. Sommario dei componenti di Red Hat Cluster Suite

Questo capitolo fornisce un sommario dei componenti di Red Hat Cluster Suite e consiste nelle seguenti sezioni:

2.1. Componenti del cluster

Tabella 2.1. Componenti del sottosistema software di Red Hat Cluster Suite
Funzione Componenti Descrizione
Conga luci Sistema di gestione remoto - Stazione di gestione.
ricci Sistema di gestione remoto - Stazione gestita.
Cluster Configuration Tool system-config-cluster Comando usato per gestire la configurazione del cluster in una impostazione grafica.
Cluster Logical Volume Manager (CLVM) clvmd Il demone che distribuisce gli aggiornamenti dei metadata LVM in un cluster. Esso deve essere in esecuzione su tutti i nodi nel cluster, ed emetterà un errore se è presente un nodo in un cluster il quale non possiederà un demone in esecuzione.
lvm Tool LVM2. Fornisce i tool della linea di comando per LVM2.
system-config-lvm Fornisce l'interfaccia utente grafica per LVM2.
lvm.conf Il file di configurazione LVM. Il percorso completo è /etc/lvm/lvm.conf.
Cluster Configuration System (CCS) ccs_tool ccs_tool fà parte di un Cluster Configuration System (CCS). Viene utilizzato per creare aggiornamenti online dei file di configurazione CCS. È possibile usarlo anche per aggiornare i file di configurazione del cluster dagli archivi CCS creati con GFS 6.0 (e versioni precedenti) al formato della configurazione del formato XML usato con questa release di Red Hat Cluster Suite.
ccs_test Comando diagnostico e di prova usato per ripristinare le informazioni dai file di configurazione attraverso ccsd.
ccsd Demone CCS eseguito su tutti i nodi del cluster, che fornisce i dati del file di configurazione al software del cluster.
cluster.conf Questo è il file di configurazione del cluster. Il percorso completo è /etc/cluster/cluster.conf.
Cluster Manager (CMAN) cman.ko Il modulo del kernel per CMAN.
cman_tool Rappresenta il front end amministrativo per CMAN. Esso è in grado di avviare ed arrestare CMAN e modificare alcuni parametri interni come ad esempio i voti.
dlm_controld Demone avviato dallo script init cman per gestire dlm nel kernel; non usato dall'utente.
gfs_controld Demone avviato dallo script init cman per gestire gfs nel kernel; non usato dall'utente.
group_tool Usato per ottenere un elenco di gruppi relativi al fencing, DLM, GFS, e per ottenere le informazioni di debug; include ciò che viene fornito da cman_tool services in RHEL 4.
groupd Demone avviato dallo script init cman per interfacciare openais/cman e dlm_controld/gfs_controld/fenced; non usato dall'utente.
libcman.so.<version number> Librerie per programmi che devono interagire con cman.ko.
Resource Group Manager (rgmanager) clusvcadm Comando usato per abilitare, disabilitare, riposizionare e riavviare manualmente i servizi dell'utente in un cluster.
clustat Comando usato per visualizzare lo stato del cluster, inclusa l'appartenenza del nodo ed i servizi in esecuzione.
clurgmgrd Demone usato per gestire le richieste del servizio dell'utente incluso service start, service disable, service relocate, e service restart.
clurmtabd Demone usato per gestire le tabelle NFS mount clusterizzate.
Fence fence_apc Fence agent per l'interrutore di alimentazione APC.
fence_bladecenter Fence agent per IBM Bladecenters con interfacia Telnet.
fence_bullpap Fence agent per l'interfaccia Bull Novascale Platform Administration Processor (PAP).
fence_drac Fencing agent per la scheda d'accesso remoto Dell.
fence_ipmilan Fence agent per macchine controllate da IPMI (Intelligent Platform Management Interface) attraverso la LAN.
fence_wti Fence agent per l'interruttore di alimentazione WTI.
fence_brocade Fence agent per l'interruttore del Brocade Fibre Channel.
fence_mcdata Fence agent per l'interruttore del McData Fibre Channel.
fence_vixel Fence agent per l'interruttore del Vixel Fibre Channel.
fence_sanbox2 Fence agent per l'interruttore del SANBox2 Fibre Channel.
fence_ilo Fence agent per le interfacce ILO di HP (chiamate precedentemente fence_rib).
fence_rsa I/O Fencing agent per IBM RSA II.
fence_gnbd Fence agent usato con lo storage GNBD.
fence_scsi I/O fencing agent per le prenotazioni persistenti di SCSI.
fence_egenera Fence agent usato con il sistema Egenera BladeFrame.
fence_manual Fence agent per una interazione manuale. NOTA BENE Questo componente non è supportato per ambienti di produzione.
fence_ack_manual Interfaccia utente per fence_manual agent.
fence_node Un programma che esegue I/O fencing su di un nodo singolo.
fence_xvm I/O Fencing agent per macchine virtuali Xen.
fence_xvmd I/O Fencing agent host per macchine virtuali Xen.
fence_tool Un programma utilizzato per entrare ed uscire dal dominio fence.
fenced Il demone Fencing I/O.
DLM libdlm.so.<version number> Libreria per il supporto del Distributed Lock Manager (DLM).
GFS gfs.ko Modulo del kernel che implementa il file system GFS caricato sui nodi del cluster GFS.
gfs_fsck Comando che ripara un file system GFS non montato.
gfs_grow Comando usato per espandere un file system GFS montato.
gfs_jadd Comando che aggiunge i journal ad un file system GFS montato.
gfs_mkfs Comando che crea un file system GFS su di un dispositivo di storage.
gfs_quota Comando che gestisce i quota su di un file system GFS montato.
gfs_tool Comando che configura o regola un file system GFS. Questo comando è in grado di raccogliere una varietà di informazioni sul file system.
mount.gfs Icona d'aiuto di mount chiamata da mount(8); non usato dall'utente.
GNBD gnbd.ko Modulo del kernel che implementa il driver del dispositivo GNBD sui client.
gnbd_export Comando usato per creare, esportare e gestire GNBD, su di un server GNBD.
gnbd_import Comando usato per importare e gestire GNBD su di un client GNBD.
gnbd_serv Un demone del server che permette ad un nodo di esportare lo storage locale attraverso la rete.
LVS pulse This is the controlling process which starts all other daemons related to LVS routers. At boot time, the daemon is started by the /etc/rc.d/init.d/pulse script. It then reads the configuration file /etc/sysconfig/ha/lvs.cf. On the active LVS router, pulse starts the LVS daemon. On the backup router, pulse determines the health of the active router by executing a simple heartbeat at a user-configurable interval. If the active LVS router fails to respond after a user-configurable interval, it initiates failover. During failover, pulse on the backup LVS router instructs the pulse daemon on the active LVS router to shut down all LVS services, starts the send_arp program to reassign the floating IP addresses to the backup LVS router's MAC address, and starts the lvs daemon.
lvsd Il demone lvs viene eseguito sul router LVS attivo una volta chiamato da pulse. Esso legge il file di configurazione /etc/sysconfig/ha/lvs.cf, chiama l'utilità ipvsadm per compilare e gestire la tabella di routing IPVS, e assegna un processo nanny per ogni servizio LVS configurato. Se nanny riporta la presenza di un real server inattivo, lvs indica alla utilità ipvsadm di rimuovere il real server in questione dalla tabella di routing IPVS.
ipvsadm Questo servizio aggiorna la tabella del routing IPVS nel kernel. Il demone lvs imposta e gestisce LVS, chiamando ipvsadm in modo da aggiungere, modificare o cancellare le voci presenti nella tabella del routing IPVS.
nanny Il demone di controllo nanny viene eseguito sul router LVS attivo. Attraverso questo demone, il router LVS attivo determina lo stato di ogni real server, e facoltativamente, controlla il carico di lavoro relativo. Viene eseguito un processo separato per ogni servizio definito su ogni real server.
lvs.cf Questo è il file di configurazione di LVS. Il percorso completo per il file è /etc/sysconfig/ha/lvs.cf. Direttamente o indirettamente tutti i demoni ottengono le proprie informazioni sulla configurazione da questo file.
Piranha Configuration Tool Questo è il tool basato sul web per il monitoraggio, configurazione e gestione di LVS. Esso rappresenta il tool predefinito per gestire il file di configurazione di LVS /etc/sysconfig/ha/lvs.cf.
send_arp Questo programma invia i broadcast ARP quando l'indirizzo IP floating cambia da un nodo ad un altro durante un failover.
Quorum Disk qdisk Un demone del quorum basato sul disco per CMAN / Linux-Cluster.
mkqdisk Utilità disco quorum del cluster.
qdiskd Demone disco quorum del cluster.

2.2. Pagine man

Questa sezione elenca le pagine man pertinenti al Red Hat Cluster Suite, come risorsa aggiuntiva.
  • Infrastruttura del cluster
    • ccs_tool (8) - Il tool usato per creare aggiornamenti online dei file di configurazione CCS
    • ccs_test (8) - Il tool diagnostico per un Cluster Configuration System
    • ccsd (8) - Il demone usato per accedere al file di configurazione del cluster di CCS
    • ccs (7) - Cluster Configuration System
    • cman_tool (8) - Cluster Management Tool
    • cluster.conf [cluster] (5) - Il file di configurazione per i prodotti del cluster
    • qdisk (5) - un demone del quorum basato sul disco per CMAN / Linux-Cluster
    • mkqdisk (8) - Cluster Quorum Disk Utility
    • qdiskd (8) - Cluster Quorum Disk Daemon
    • fence_ack_manual (8) - programma eseguito da un operatore come parte di un I/O Fencing manuale
    • fence_apc (8) - I/O Fencing agent per APC MasterSwitch
    • fence_bladecenter (8) - I/O Fencing agent per IBM Bladecenter
    • fence_brocade (8) - I/O Fencing agent per interruttori Brocade FC
    • fence_bullpap (8) - I/O Fencing agent per l'architettura Bull FAME controllata da una console di gestione PAP
    • fence_drac (8) - fencing agent per il Dell Remote Access Card
    • fence_egenera (8) - I/O Fencing agent per Egenera BladeFrame
    • fence_gnbd (8) - I/O Fencing agent per cluster GFS basati su GNBD
    • fence_ilo (8) - I/O Fencing agent per HP Integrated Lights Out card
    • fence_ipmilan (8) - I/O Fencing agent per macchine controllate da IPMI tramite LAN
    • fence_manual (8) - programma eseguita da fenced come parte del manuale I/O Fencing
    • fence_mcdata (8) - I/O Fencing agent per interruttori McData FC
    • fence_node (8) - Un programma che esegue I/O fencing su di un nodo singolo
    • fence_rib (8) - I/O Fencing agent per Compaq Remote Insight Lights Out card
    • fence_rsa (8) - I/O Fencing agent per IBM RSA II
    • fence_sanbox2 (8) - I/O Fencing agent per interruttori QLogic SANBox2 FC
    • fence_scsi (8) - I/O fencing agent per SCSI persistent reservations
    • fence_tool (8) - Un programma utilizzato per entrare ed uscire dal dominio fence
    • fence_vixel (8) - I/O Fencing agent per interruttori Vixel FC
    • fence_wti (8) - I/O Fencing agent per WTI Network Power Switch
    • fence_xvm (8) - I/O Fencing agent per macchine virtuali Xen
    • fence_xvmd (8) - I/O Fencing agent host per macchine virtuali Xen
    • fenced (8) - Il demone I/O Fencing
  • High-availability Service Management
    • clusvcadm (8) - Utilità Cluster User Service Administration
    • clustat (8) - Utilità Cluster Status
    • Clurgmgrd [clurgmgrd] (8) - Resource Group (Cluster Service) Manager Daemon
    • clurmtabd (8) - Cluster NFS Remote Mount Table Daemon
  • GFS
    • gfs_fsck (8) - Controllore file system GFS Offline
    • gfs_grow (8) - Espande un file system GFS
    • gfs_jadd (8) - Aggiunge i journal ad un file system GFS
    • gfs_mount (8) - opzioni di montaggio GFS
    • gfs_quota (8) - Manipola i disk quotas del GFS
    • gfs_tool (8) - interfaccia per le chiamate gfs ioctl
  • Cluster Logical Volume Manager
    • clvmd (8) - Demone LVM del cluster
    • lvm (8) - Tool LVM2
    • lvm.conf [lvm] (5) - File di configurazione per LVM2
    • lvmchange (8) - modifica gli attributi del logical volume manager
    • pvcreate (8) - inizializza un disco o una partizione per un utilizzo da parte di LVM
    • lvs (8) - riporta informazioni sui volumi logici
  • Global Network Block Device
    • gnbd_export (8) - l'interfaccia per esportare GNBD
    • gnbd_import (8) - manipola i dispositivi a blocchi GNBD su di un client
    • gnbd_serv (8) - demone del server gnbd
  • LVS
    • pulse (8) - demone heartbeating per il monitoraggio della salute dei nodi del cluster
    • lvs.cf [lvs] (5) - file di configurazione per lvs
    • lvscan (8) - esegue la scansione (su tutti i dischi) per la presenza di volumi logici
    • lvsd (8) - demone per controllare i Red Hat clustering service
    • ipvsadm (8) - Amministrazione del server virtuale di Linux
    • ipvsadm-restore (8) - ripristina la tabella IPVS da stdin
    • ipvsadm-save (8) - salva la tabella IPVS su stdout
    • nanny (8) - tool per il monitoraggio dello stato dei servizi in un cluster
    • send_arp (8) - tool usato per notificare ad una rete la presenza di una nuova mappatura dell'indirizzo IP / MAC

2.3. Hardware compatibile

Per informazioni sull'hardware compatibile con i componenti Red Hat Cluster Suite (per esempio, dispositivi di fence supportati, dispositivi storage e switch del Fibre Channel), consultate le linee guida sulla configurazione hardware su http://www.redhat.com/cluster_suite/hardware/.

Appendice A. Cronologia della revisione

Diario delle Revisioni
Revisione 3-7.4002013-10-31Rüdiger Landmann
Rebuild with publican 4.0.0
Revisione 3-72012-07-18Anthony Towns
Rebuild for Publican 3.0
Revisione 1.0-0Tue Jan 20 2008Paul Kennedy
Consolidamento delle versioni

Indice analitico

C

cluster
displaying status, Cluster Status Tool
cluster administration
displaying cluster and service status, Cluster Status Tool
cluster component compatible hardware, Hardware compatibile
cluster component man pages, Pagine man
cluster components table, Componenti del cluster
Cluster Configuration Tool
accessing, Cluster Configuration Tool
cluster service
displaying status, Cluster Status Tool
command line tools table, Tool di amministrazione della linea di comando
compatible hardware
cluster components, Hardware compatibile
Conga
overview, Conga
Conga overview, Conga

F

feedback, Commenti

I

introduction, Introduzione
other Red Hat Enterprise Linux documents, Introduzione

L

LVS
direct routing
requirements, hardware, Instradamento diretto
requirements, network, Instradamento diretto
requirements, software, Instradamento diretto
routing methods
NAT, Metodi di instradamento
three tiered
high-availability cluster, Three-Tier LVS Topology

M

man pages
cluster components, Pagine man

N

NAT
routing methods, LVS, Metodi di instradamento
network address translation (vedi NAT)

O

overview
economy, Red Hat GFS
performance, Red Hat GFS
scalability, Red Hat GFS

P

Piranha Configuration Tool
CONTROL/MONITORING, CONTROL/MONITORING
EDIT MONITORING SCRIPTS Subsection, EDIT MONITORING SCRIPTS Subsection
GLOBAL SETTINGS, GLOBAL SETTINGS
login panel, GUI di amministrazione del server virtuale di Linux
necessary software, GUI di amministrazione del server virtuale di Linux
REAL SERVER subsection, Sottosezione REAL SERVER
REDUNDANCY, REDUNDANCY
VIRTUAL SERVER subsection, VIRTUAL SERVERS
Firewall Mark , Sottosezione SERVER VIRTUALE
Persistence , Sottosezione SERVER VIRTUALE
Scheduling , Sottosezione SERVER VIRTUALE
Virtual IP Address , Sottosezione SERVER VIRTUALE
VIRTUAL SERVERS, VIRTUAL SERVERS

R

Red Hat Cluster Suite
components, Componenti del cluster

T

table
cluster components, Componenti del cluster
command line tools, Tool di amministrazione della linea di comando

Nota Legale

Copyright © 2009 Red Hat, Inc.
This document is licensed by Red Hat under the Creative Commons Attribution-ShareAlike 3.0 Unported License. If you distribute this document, or a modified version of it, you must provide attribution to Red Hat, Inc. and provide a link to the original. If the document is modified, all Red Hat trademarks must be removed.
Red Hat, as the licensor of this document, waives the right to enforce, and agrees not to assert, Section 4d of CC-BY-SA to the fullest extent permitted by applicable law.
Red Hat, Red Hat Enterprise Linux, the Shadowman logo, JBoss, OpenShift, Fedora, the Infinity logo, and RHCE are trademarks of Red Hat, Inc., registered in the United States and other countries.
Linux® is the registered trademark of Linus Torvalds in the United States and other countries.
Java® is a registered trademark of Oracle and/or its affiliates.
XFS® is a trademark of Silicon Graphics International Corp. or its subsidiaries in the United States and/or other countries.
MySQL® is a registered trademark of MySQL AB in the United States, the European Union and other countries.
Node.js® is an official trademark of Joyent. Red Hat Software Collections is not formally related to or endorsed by the official Joyent Node.js open source or commercial project.
The OpenStack® Word Mark and OpenStack logo are either registered trademarks/service marks or trademarks/service marks of the OpenStack Foundation, in the United States and other countries and are used with the OpenStack Foundation's permission. We are not affiliated with, endorsed or sponsored by the OpenStack Foundation, or the OpenStack community.
All other trademarks are the property of their respective owners.
Red Hat logoGithubRedditYoutubeTwitter

Formazione

Prova, acquista e vendi

Community

Informazioni sulla documentazione di Red Hat

Aiutiamo gli utenti Red Hat a innovarsi e raggiungere i propri obiettivi con i nostri prodotti e servizi grazie a contenuti di cui possono fidarsi.

Rendiamo l’open source più inclusivo

Red Hat si impegna a sostituire il linguaggio problematico nel codice, nella documentazione e nelle proprietà web. Per maggiori dettagli, visita ilBlog di Red Hat.

Informazioni su Red Hat

Forniamo soluzioni consolidate che rendono più semplice per le aziende lavorare su piattaforme e ambienti diversi, dal datacenter centrale all'edge della rete.

© 2024 Red Hat, Inc.