27.2. Configuração de clusters de múltiplos locais com Pacemaker
O procedimento a seguir fornece um esboço dos passos a seguir para configurar uma configuração em vários locais que utiliza o gerente de bilhetes do estande.
Estes comandos de exemplo utilizam a seguinte disposição:
-
O Cluster 1 é composto pelos nós
cluster1-node1ecluster1-node2 - O Cluster 1 tem um endereço IP flutuante atribuído a ele de 192.168.11.100
-
O Cluster 2 consiste em
cluster2-node1ecluster2-node2 - O Cluster 2 tem um endereço IP flutuante atribuído a ele de 192.168.22.100
-
O nó árbitro é
arbitrator-nodecom um endereço ip de 192.168.99.100 -
O nome do bilhete do estande que esta configuração utiliza é
apacheticket
Estes comandos de exemplo assumem que os recursos de cluster para um serviço Apache foram configurados como parte do grupo de recursos apachegroup para cada cluster. Não é necessário que os recursos e grupos de recursos sejam os mesmos em cada cluster para configurar uma restrição de ingressos para esses recursos, já que a instância Pacemaker para cada cluster é independente, mas isso é um cenário de failover comum.
Observe que a qualquer momento no procedimento de configuração você pode entrar no comando pcs booth config para exibir a configuração do estande para o nó ou cluster atual ou o comando pcs booth status para exibir o status atual do estande no nó local.
Instale o pacote
booth-siteBooth ticket manager em cada nó de ambos os clusters.yum install -y booth-site yum install -y booth-site yum install -y booth-site yum install -y booth-site
[root@cluster1-node1 ~]# yum install -y booth-site [root@cluster1-node2 ~]# yum install -y booth-site [root@cluster2-node1 ~]# yum install -y booth-site [root@cluster2-node2 ~]# yum install -y booth-siteCopy to Clipboard Copied! Toggle word wrap Toggle overflow Instale os pacotes
pcs,booth-core, ebooth-arbitratorno nó árbitro.yum install -y pcs booth-core booth-arbitrator
[root@arbitrator-node ~]# yum install -y pcs booth-core booth-arbitratorCopy to Clipboard Copied! Toggle word wrap Toggle overflow Se você estiver executando o daemon
firewalld, execute os seguintes comandos em todos os nós em ambos os clusters, bem como no nó árbitro para habilitar as portas que são exigidas pelo Add-On de Alta Disponibilidade da Red Hat.firewall-cmd --permanent --add-service=high-availability` firewall-cmd --add-service=high-availability`
# firewall-cmd --permanent --add-service=high-availability` # firewall-cmd --add-service=high-availability`Copy to Clipboard Copied! Toggle word wrap Toggle overflow Talvez seja necessário modificar quais portos estão abertos para atender às condições locais. Para mais informações sobre as portas que são exigidas pelo suplemento de alta disponibilidade da Red Hat, veja Habilitação de portas para o suplemento de alta disponibilidade.
Criar uma configuração de estande em um nó de um cluster. Os endereços especificados para cada cluster e para o árbitro devem ser endereços IP. Para cada cluster, você especifica um endereço IP flutuante.
[cluster1-node1 ~] # pcs booth setup sites 192.168.11.100 192.168.22.100 arbitrators 192.168.99.100
[cluster1-node1 ~] # pcs booth setup sites 192.168.11.100 192.168.22.100 arbitrators 192.168.99.100Copy to Clipboard Copied! Toggle word wrap Toggle overflow Este comando cria os arquivos de configuração
/etc/booth/booth.confe/etc/booth/booth.keyno nó a partir do qual é executado.Criar um bilhete para a configuração do estande. Este é o bilhete que será usado para definir a restrição de recursos que permitirá que os recursos funcionem somente quando este bilhete tiver sido concedido ao conjunto.
Este procedimento básico de configuração de failover utiliza apenas um ticket, mas você pode criar tickets adicionais para cenários mais complicados onde cada ticket está associado a um recurso ou recursos diferentes.
[cluster1-node1 ~] # pcs booth ticket add apacheticket
[cluster1-node1 ~] # pcs booth ticket add apacheticketCopy to Clipboard Copied! Toggle word wrap Toggle overflow Sincronizar a configuração do estande com todos os nós do cluster atual.
[cluster1-node1 ~] # pcs booth sync
[cluster1-node1 ~] # pcs booth syncCopy to Clipboard Copied! Toggle word wrap Toggle overflow Do nó do árbitro, puxe a configuração do estande para o árbitro. Se você não o tiver feito anteriormente, deve primeiro autenticar
pcspara o nó do qual você está puxando a configuração.[arbitrator-node ~] # pcs host auth cluster1-node1 [arbitrator-node ~] # pcs booth pull cluster1-node1
[arbitrator-node ~] # pcs host auth cluster1-node1 [arbitrator-node ~] # pcs booth pull cluster1-node1Copy to Clipboard Copied! Toggle word wrap Toggle overflow Puxe a configuração da cabine para o outro conjunto e sincronize com todos os nós desse conjunto. Como no caso do nó árbitro, se você não o fez anteriormente, deve primeiro autenticar
pcspara o nó do qual você está puxando a configuração.[cluster2-node1 ~] # pcs host auth cluster1-node1 [cluster2-node1 ~] # pcs booth pull cluster1-node1 [cluster2-node1 ~] # pcs booth sync
[cluster2-node1 ~] # pcs host auth cluster1-node1 [cluster2-node1 ~] # pcs booth pull cluster1-node1 [cluster2-node1 ~] # pcs booth syncCopy to Clipboard Copied! Toggle word wrap Toggle overflow Comece e habilite Booth no árbitro.
NotaVocê não deve iniciar ou ativar manualmente Booth em nenhum dos nós dos agrupamentos, uma vez que Booth funciona como um recurso de Pacemaker nesses agrupamentos.
[arbitrator-node ~] # pcs booth start [arbitrator-node ~] # pcs booth enable
[arbitrator-node ~] # pcs booth start [arbitrator-node ~] # pcs booth enableCopy to Clipboard Copied! Toggle word wrap Toggle overflow Configure Booth para funcionar como um recurso de cluster em ambos os locais de cluster. Isto cria um grupo de recursos com
booth-ipebooth-servicecomo membros desse grupo.[cluster1-node1 ~] # pcs booth create ip 192.168.11.100 [cluster2-node1 ~] # pcs booth create ip 192.168.22.100
[cluster1-node1 ~] # pcs booth create ip 192.168.11.100 [cluster2-node1 ~] # pcs booth create ip 192.168.22.100Copy to Clipboard Copied! Toggle word wrap Toggle overflow Adicione uma restrição de bilhetes ao grupo de recursos que você definiu para cada grupo.
[cluster1-node1 ~] # pcs constraint ticket add apacheticket apachegroup [cluster2-node1 ~] # pcs constraint ticket add apacheticket apachegroup
[cluster1-node1 ~] # pcs constraint ticket add apacheticket apachegroup [cluster2-node1 ~] # pcs constraint ticket add apacheticket apachegroupCopy to Clipboard Copied! Toggle word wrap Toggle overflow Você pode digitar o seguinte comando para exibir as restrições de bilhetes atualmente configuradas.
pcs constraint ticket [show]
pcs constraint ticket [show]Copy to Clipboard Copied! Toggle word wrap Toggle overflow Conceda o bilhete que você criou para esta configuração ao primeiro grupo.
Note que não é necessário ter restrições de ingressos definidas antes de conceder um bilhete. Uma vez que você tenha inicialmente concedido um bilhete para um agrupamento, então Booth assume o gerenciamento de bilhetes, a menos que você anule isto manualmente com o comando
pcs booth ticket revoke. Para obter informações sobre os comandos de administraçãopcs booth, consulte a tela de ajuda do PCS para o comandopcs booth.[cluster1-node1 ~] # pcs booth ticket grant apacheticket
[cluster1-node1 ~] # pcs booth ticket grant apacheticketCopy to Clipboard Copied! Toggle word wrap Toggle overflow
É possível adicionar ou remover bilhetes a qualquer momento, mesmo após a conclusão deste procedimento. Após adicionar ou remover um bilhete, entretanto, deve-se sincronizar os arquivos de configuração com os outros nós e clusters, bem como com o árbitro e conceder o bilhete, como é mostrado neste procedimento.
Para informações sobre comandos adicionais de administração de estandes que você pode usar para limpar e remover arquivos de configuração de estandes, ingressos e recursos, consulte a tela de ajuda do PCS para o comando pcs booth.