27.2. Configuração de clusters de múltiplos locais com Pacemaker
O procedimento a seguir fornece um esboço dos passos a seguir para configurar uma configuração em vários locais que utiliza o gerente de bilhetes do estande.
Estes comandos de exemplo utilizam a seguinte disposição:
-
O Cluster 1 é composto pelos nós
cluster1-node1
ecluster1-node2
- O Cluster 1 tem um endereço IP flutuante atribuído a ele de 192.168.11.100
-
O Cluster 2 consiste em
cluster2-node1
ecluster2-node2
- O Cluster 2 tem um endereço IP flutuante atribuído a ele de 192.168.22.100
-
O nó árbitro é
arbitrator-node
com um endereço ip de 192.168.99.100 -
O nome do bilhete do estande que esta configuração utiliza é
apacheticket
Estes comandos de exemplo assumem que os recursos de cluster para um serviço Apache foram configurados como parte do grupo de recursos apachegroup
para cada cluster. Não é necessário que os recursos e grupos de recursos sejam os mesmos em cada cluster para configurar uma restrição de ingressos para esses recursos, já que a instância Pacemaker para cada cluster é independente, mas isso é um cenário de failover comum.
Observe que a qualquer momento no procedimento de configuração você pode entrar no comando pcs booth config
para exibir a configuração do estande para o nó ou cluster atual ou o comando pcs booth status
para exibir o status atual do estande no nó local.
Instale o pacote
booth-site
Booth ticket manager em cada nó de ambos os clusters.[root@cluster1-node1 ~]#
yum install -y booth-site
[root@cluster1-node2 ~]#yum install -y booth-site
[root@cluster2-node1 ~]#yum install -y booth-site
[root@cluster2-node2 ~]#yum install -y booth-site
Instale os pacotes
pcs
,booth-core
, ebooth-arbitrator
no nó árbitro.[root@arbitrator-node ~]#
yum install -y pcs booth-core booth-arbitrator
Se você estiver executando o daemon
firewalld
, execute os seguintes comandos em todos os nós em ambos os clusters, bem como no nó árbitro para habilitar as portas que são exigidas pelo Add-On de Alta Disponibilidade da Red Hat.#
firewall-cmd --permanent --add-service=high-availability
` #firewall-cmd --add-service=high-availability
`Talvez seja necessário modificar quais portos estão abertos para atender às condições locais. Para mais informações sobre as portas que são exigidas pelo suplemento de alta disponibilidade da Red Hat, veja Habilitação de portas para o suplemento de alta disponibilidade.
Criar uma configuração de estande em um nó de um cluster. Os endereços especificados para cada cluster e para o árbitro devem ser endereços IP. Para cada cluster, você especifica um endereço IP flutuante.
[cluster1-node1 ~] #
pcs booth setup sites 192.168.11.100 192.168.22.100 arbitrators 192.168.99.100
Este comando cria os arquivos de configuração
/etc/booth/booth.conf
e/etc/booth/booth.key
no nó a partir do qual é executado.Criar um bilhete para a configuração do estande. Este é o bilhete que será usado para definir a restrição de recursos que permitirá que os recursos funcionem somente quando este bilhete tiver sido concedido ao conjunto.
Este procedimento básico de configuração de failover utiliza apenas um ticket, mas você pode criar tickets adicionais para cenários mais complicados onde cada ticket está associado a um recurso ou recursos diferentes.
[cluster1-node1 ~] #
pcs booth ticket add apacheticket
Sincronizar a configuração do estande com todos os nós do cluster atual.
[cluster1-node1 ~] #
pcs booth sync
Do nó do árbitro, puxe a configuração do estande para o árbitro. Se você não o tiver feito anteriormente, deve primeiro autenticar
pcs
para o nó do qual você está puxando a configuração.[arbitrator-node ~] #
pcs host auth cluster1-node1
[arbitrator-node ~] #pcs booth pull cluster1-node1
Puxe a configuração da cabine para o outro conjunto e sincronize com todos os nós desse conjunto. Como no caso do nó árbitro, se você não o fez anteriormente, deve primeiro autenticar
pcs
para o nó do qual você está puxando a configuração.[cluster2-node1 ~] #
pcs host auth cluster1-node1
[cluster2-node1 ~] #pcs booth pull cluster1-node1
[cluster2-node1 ~] #pcs booth sync
Comece e habilite Booth no árbitro.
NotaVocê não deve iniciar ou ativar manualmente Booth em nenhum dos nós dos agrupamentos, uma vez que Booth funciona como um recurso de Pacemaker nesses agrupamentos.
[arbitrator-node ~] #
pcs booth start
[arbitrator-node ~] #pcs booth enable
Configure Booth para funcionar como um recurso de cluster em ambos os locais de cluster. Isto cria um grupo de recursos com
booth-ip
ebooth-service
como membros desse grupo.[cluster1-node1 ~] #
pcs booth create ip 192.168.11.100
[cluster2-node1 ~] #pcs booth create ip 192.168.22.100
Adicione uma restrição de bilhetes ao grupo de recursos que você definiu para cada grupo.
[cluster1-node1 ~] #
pcs constraint ticket add apacheticket apachegroup
[cluster2-node1 ~] #pcs constraint ticket add apacheticket apachegroup
Você pode digitar o seguinte comando para exibir as restrições de bilhetes atualmente configuradas.
pcs constraint ticket [show]
Conceda o bilhete que você criou para esta configuração ao primeiro grupo.
Note que não é necessário ter restrições de ingressos definidas antes de conceder um bilhete. Uma vez que você tenha inicialmente concedido um bilhete para um agrupamento, então Booth assume o gerenciamento de bilhetes, a menos que você anule isto manualmente com o comando
pcs booth ticket revoke
. Para obter informações sobre os comandos de administraçãopcs booth
, consulte a tela de ajuda do PCS para o comandopcs booth
.[cluster1-node1 ~] #
pcs booth ticket grant apacheticket
É possível adicionar ou remover bilhetes a qualquer momento, mesmo após a conclusão deste procedimento. Após adicionar ou remover um bilhete, entretanto, deve-se sincronizar os arquivos de configuração com os outros nós e clusters, bem como com o árbitro e conceder o bilhete, como é mostrado neste procedimento.
Para informações sobre comandos adicionais de administração de estandes que você pode usar para limpar e remover arquivos de configuração de estandes, ingressos e recursos, consulte a tela de ajuda do PCS para o comando pcs booth
.