Administración de clúster
Cómo configurar y administrar adiciones de alta disponibilidad
Edición 0
Resumen
Introducción
- Guía de instalación de Red Hat Enterprise Linux — Proporciona información sobre instalación de Red Hat Enterprise Linux 6.
- Guía de implementación de Red Hat Enterprise Linux — Proporciona información sobre la implementación, configuración y administración de Red Hat Enterprise Linux 6.
- Visión general de adicón de alta disponibilidad — Proporciona una descripción general de la adición de alta disponibilidad de Red Hat.
- Gestión del administrador de volúmenes lógicos — Proporciona una descripción del Administrador de volúmenes lógicos (LVM), incluyendo información sobre LVM en ejecución en un entorno de clúster.
- Sistemas de archivos global 2: Configuración y administración — Proporciona información sobre instalación, configuración, y mantenimiento de Red Hat GFS2 (Red Hat Global File System 2), el cual está incluido en la adición del almacenamiento resistente.
- DM Multirutas — Proporciona información sobre la función del dispositivo mapeador multirutas de Red Hat Enterprise Linux 6.
- Administración de equilibrador de cargas — Proporciona información sobre configuración de sistemas y servicios de alto rendimiento con la adición del equilibrador de cargas de Red Hat, un conjunto de componentes de software integrados que proporcionan Servidores virtuales de Linux (LVS) para equilibrar cargas IP a través de un conjunto de servidores reales.
- Notas de lanzamiento — Proporciona información sobre el lanzamiento actual de productos de Red Hat.
1. Comentarios
Cluster_Administration(EN)-6 (2013-2-15T16:26)
Capítulo 1. Configuración de adición de alta disponibilidad y visión general de administración de Red Hat
Nota
1.1. Funcionalidades nuevas y cambiadas
1.1.1. Funcionalidades nuevas y cambiadas para Red Hat Enterprise Linux 6.1
- A partir del lanzamiento de Red Hat Enterprise Linux 6.1, la adición de alta disponibilidad de Red Hat proporciona soporte para capturas SNMP. Para información sobre configuración de capturas SNMP con la adición de alta disponibilidad de Red Hat, consulte el Capítulo 10, Configuración de SNMP con adición de alta disponibilidad de Red Hat.
- A partir del lanzamiento de Red Hat Enterprise Linux 6.1, la adición de alta disponibilidad de Red Hat provee el soporte para el comando de configuración de clúster
ccs
. Para obtener mayor información sobre el comandoccs
, consulte el Capítulo 5, Configuración de adición de alta disponibilidad de Red Hat con el comando ccs y el Capítulo 6, Administración de adición de alta disponibilidad de Red Hat con ccs. - La documentación de configuración y manejo de adición de Alta disponibilidad de Red Hat mediante Conga ha sido actualizado para reflejar las pantallas de de Conga actualizadas y el soporte de funcionalidades.
- Para el lanzamiento de Red Hat Enterprise Linux 6.1 y posterior, el uso de
ricci
requiere una contraseña la primera vez que usted propaga la configuración de clúster desde un nodo determinado. Para obtener información sobrericci
, consulte la Sección 2.13, “Consideraciones pararicci
”. - Puede especificar una política de falla de Restart-Disable para un servicio, indicando que el sistema debe intentar reiniciar el servicio en el sitio si se produce un error, pero si al reiniciar el servicio falla, el servicio se inhabilitará en lugar de ser desplazado a otro host en el clúster. Esta funcionalidad se documenta en la Sección 3.10, “Adición de un servicio de clúster al clúster” y en el Apéndice B, Parámetros de recursos de alta disponibilidad.
- Ahora puede configurar un subárbol independiente como no-crítico, indicando que si el recurso falla, entonces solo ese recurso se inhabilitará. Para obtener información sobre esta funcionalidad, consulte la Sección 3.10, “Adición de un servicio de clúster al clúster” y la Sección C.4, “Recuperación de fallas y subárboles independientes”.
- Este documento ahora incluye el nuevo capítulo Capítulo 9, Cómo diagnosticar y corregir problemas en un clúster.
1.1.2. Funcionalidades nuevas y cambiadas para Red Hat Enterprise Linux 6.2
- Red Hat Enterprise Linux ahora proporciona soporte para ejecutar Samba en clúster en una configuración activa/activa. Para obtener información sobre configuración de Samba en clúster, consulte el Capítulo 11, Configuraciones de Samba en clúster.
- Aunque cualquier usuario capaz de autenticarse en el sistema que alberga luci puede ingresar a luci, a partir del lanzamiento de Red Hat Enterprise Linux 6.2 solo el usuario root en el sistema que esté ejecutando luci puede acceder a cualquiera de los componentes de luci hasta que un administrador (el usuario root u otro usuario con permisos de administrador) establezca los permisos para ese usuario. Para obtener información sobre cómo establecer permisos de luci para usuarios, consulte la Sección 3.3, “Cómo controlar el acceso a luci”.
- Los nodos en un clúster se pueden comunicar entre sí mediante el mecanismo de transporte unidifusión UDP. Para obtener información sobre cómo configurar unidifusión UDP, consulte la Sección 2.12, “Tráfico unidifusión UDP”.
- Puede configurar algunos aspectos de la conducta de luci mediante el archivo
/etc/sysconfig/luci
. Por ejemplo, puede específicamente configurar la única dirección IP en la que luci se sirve. Para obtener información sobre configuración de la única dirección IP en la que luci se sirve, consulte la Tabla 2.2, “Puertos IP habilitados en un computador que ejecuta luci”. Para obtener información sobre el archivo/etc/sysconfig/luci
en general, consulte la Sección 2.4, “Configuración de luci con/etc/sysconfig/luci
”. - Ahora, el comando
ccs
incluye la opción--lsfenceopts
, la cual escribe en pantalla una lista de los dispositivos de valla disponibles, y la opción--lsfenceopts
fence_type que imprime cada tipo de valla disponible. Para obtener información sobre estas opciones, consulte la Sección 5.6, “Cómo listar dispositivos de vallas y opciones de dispositivos de vallas ”. - Ahora el comando
ccs
incluye la opción--lsserviceopts
que imprime en pantala una lista de los servicios de clúster actualmente disponibles para su clúster y la opción--lsserviceopts
service_type, la cual imprime una lista de las opciones que puede especificar para un tipo de servicion particular. Para obtener información sobre dichas opciones, consulte la Sección 5.11, “Listado de cluster disponibles ”. - El lanzamiento de Red Hat Enterprise Linux 6.2 provee soporte para el agente de valla de VMware (Interfaz SOAP). Para obtener información sobre los parámetros de dispositivos de vallas, consulte el Apéndice A, Parámetros de dispositivos de valla.
- El lanzamiento de Red Hat Enterprise Linux 6.2 provee soporte para el agente de valla de RHEV-M REST API, con RHEV 3.0 y posterior. Para obtener información sobre parámetros de dispositivos, consulte el Apéndice A, Parámetros de dispositivos de valla.
- A partir de Red Hat Enterprise Linux 6.2 release, usted configura la máquina virtual en un clúster con el comando
ccs
usted puede usar la opción--addvm
(en lugar de la opciónaddservice
). Así garantiza que el recurso devm
se defina directamente bajo el nodo de configuraciónrm
en el archivo de configuración de clúster. Para obtener información sobre recursos de máquina virtual con el comandoccs
consulte la Sección 5.12, “Recursos de máquinas virtuales”. - Este documento incluye el nuevo apéndice Apéndice D, Revisión de recursos de servicios de clúster y tiempo de espera de conmutación, el cual describe cómo
rgmanager
monitoriza el estatus de recursos de cĺúster y cómo modificar el intervalo de revisión de estatus. El apéndice también describe el parámetro de servicio__enforce_timeouts
, el cual indica que un tiempo de espera para una operación puede hacer que un servicio falle. - Este documento incluye una nueva sección, la Sección 2.3.3, “Cómo configurar el cortafuegos de iptables para permitir componentes de clúster”. Esta sección muestra el filtraje que puede utilizar para permitir el tráfico multidifusión a través del cortafuegos
iptables
para varios componentes de clúster.
1.1.3. Funcionalidades nuevas y cambiadas para Red Hat Enterprise Linux 6.3
- El lanzamiento de Red Hat Enterprise Linux 6.3 provee soporte par el agente de recursos
condor
. Para obtener información sobre los parámetros de recursos de alta disponibilidad, consulte el Apéndice B, Parámetros de recursos de alta disponibilidad. - Este documento ahora incluye un nuevo apéndice, Apéndice F, Alta disponibilidad de LVM (HA-LVM).
- La información a través de este documento aclara los cambios de configuración requeridos para reiniciar un clúster. Para obtener un resumen de dichos cambios, consulte la Sección 9.1, “Los cambios de configuración no se efectúan”.
- la documentación ahora anota que hay un tiempo de espera inactivo para luci que lo saca después de 15 minutos de inactividad. Para obtener mayor información sobre cómo iniciar a luci, consulte la Sección 3.2, “Inicio de luci”.
- El dispositivo de valla
fence_ipmilan
soporta un parámetro de nivel de privilegio. Para obtener información sobre parámetros de dispositivos de valla, consulte el Apéndice A, Parámetros de dispositivos de valla. - Este documento ahora incluye una nueva sección, la Sección 2.14, “Configuración de las máquinas virtuales en un entorno en clúster.”.
- Este documento ahora incluye una nueva sección, la Sección 4.6, “Cómo hacer una copia de seguridad y restaurar la configuración de luci”.
- Este documento ahora incluye una nueva sección, laSección 9.4, “El daemon de clúster se bloquea”.
- Este documento provee información sobre cómo configurar la opción de depuración en las secciones Sección 5.14.4, “Registro”, Sección 7.7, “Configuración de opciones de depuración” y Sección 9.13, “El registro de depuración para el Gestor de bloqueo distribuido (DLM) necesita estar habilitado.”.
- A partir de Red Hat Enterprise Linux 6.3, el usuario root o aquel a quien se le han otorgado permisos administrativos de luci también puede usar la interfaz de luci para añadir usuarios al sistema, así como se describe en la Sección 3.3, “Cómo controlar el acceso a luci”.
- A partir de Red Hat Enterprise Linux 6.3, el comando
ccs
valida la configuración según el esquema de clúster en/usr/share/cluster/cluster.rng
en el nodo que especifica con la opción-h
. Anteriormente el comandoccs
siempre utilizaba el esquema de clúster que era empaquetado con el propio comandoccs
command itself,/usr/share/ccs/cluster.rng
en el sistema local. Para obtener información sobre validación de configuración, consulte la Sección 5.1.6, “Validación de configuración”. - Las tablas que describen los parámetros de dispositivos de valla en el Apéndice A, Parámetros de dispositivos de valla y las que describen los recursos de alta disponibilidad en el Apéndice B, Parámetros de recursos de alta disponibilidad, ahora incluyen los nombres de los parámetros como aparecen en el archivo
cluster.conf
.
1.1.4. Funcionalidades nuevas y cambiadas para Red Hat Enterprise Linux 6.4
- El lanzamiento de Red Hat Enterprise Linux 6.4 provee soporte para el agente de valla del Controlador de energía de red Eaton, (interfaz SNMP), el agente HP Bladesystem y el agente de vallas IBM IPDU. Para obtener mayor información sobre los parámetros de dispositivos de valla, consulte el Apéndice A, Parámetros de dispositivos de valla.
- Ahora Apéndice B, Parámetros de recursos de alta disponibilidad proporciona una descripción del agente de recursos de servidor NFS.
- A partir de Red Hat Enterprise Linux 6.4, el usuario root o aquel a quien se le han otorgado permisos administrativos de luci también puede usar la interfaz de luci para borrar usuarios del sistema, así como se describe en la Sección 3.3, “Cómo controlar el acceso a luci”.
- El Apéndice B, Parámetros de recursos de alta disponibilidad proporciona una descripción del nuevo parámetro
nfsrestart
para el sistema de archivos y los recursos de alta disponibilidad GFS2. - Este documento incluye una nueva sección, la Sección 5.1.5, “Comandos que sobrescriben los parámetros anteriores”.
- La Sección 2.3, “Cómo habilitar puertos IP” ahora incluye información sobre filtraje del cortafuegos de
iptables
paraigmp
. - El agente de valla IPMI LAN soporta un parámetro para configurar el nivel de privilegios sobre el dispositivo IPMI, como se documenta en el Apéndice A, Parámetros de dispositivos de valla.
- Aparte del modo de enlace 1 Ethernet, los modos de enlace 0 y 2 ahora tienen soporte para comunicación internodos en un clúster. El aviso de Detección y corrección de errores en este documento,que sugiere verificar si se están utilizando únicamente modos de enlace, ahora toma nota de esto.
- Los dispositivos etiquetados de VLAN ahora tienen soporte para comunicación de clúster heartbeat. El aviso de Detección y corrección de errores que indicaba que no tenían soporte, ha sido retirado de este documento.
- La adición de alta disponibilidad de Red Hat ahora soporta la configuración de protocolo de anillos redundantes. Para obtener información general sobre el uso de esta funcionalidad y de la configuración del archivo de configuración
cluster.conf
, consulte la Sección 7.6, “Cómo configura el protocolo de anillos redundantes”. Para obtener información sobre protocolo de anillos redundantes con luci, consulte la Sección 3.5.4, “Cómo configura el protocolo de anillos redundantes”. Para obtener información sobre cómo configurar protocolo de anillos redundantes con el comandoccs
, consulte la Sección 5.14.5, “Cómo configurar el protocolo de anillo redundante”.
1.2. Fundamentos de configuración
- Configuración de hardware. Consulte la Sección 1.3, “Cómo configurar hardware”.
- Instalación y software de adición de alta disponibilidad Red Hat. Consulte la Sección 1.4, “Cómo instalar adición de software de Alta disponibilidad de Red Hat”.
- Configuración de adición de software de alta disponibilidad de Red Hat. Consulte la Sección 1.5, “Configuración de software de adición de Alta disponibilidad de Red Hat”.
1.3. Cómo configurar hardware
- Nodos de clúster — Computadores que ahora pueden ejecutar el software de Red Hat Enterprise Linux 6 con al menos 1GB de RAM.
- Interruptor de Ethernet o concentrador para redes públicas — Requerido para acceso de clientes al clúster.
- Interruptor Ethernet o concentrador para redes privadas — Requerido para comunicación entre nodos de clúster y otro hardware de clúster, tal como interruptores de redes y de canal de fibra.
- Interruptores de redes — Se recomienda un interruptor de alimentación de redes para realizar el cercado en un clúster de nivel empresarial.
- Interruptor de canal de fibra — Un interruptor de canal de fibra proporciona acceso a almacenaje de canal de fibra. Otras opciones están disponibles para almacenaje según el tipo de interfaz de almacenaje; por ejemplo, iSCSI. Un interruptor de canal de fibra puede ser configurado para realizar vallas.
- Almacenaje — Algún tipo de almacenaje se requiere para un clúster. El tipo requerido depende del propósito del clúster.
Figura 1.1. Vista general de hardware de adición de Alta disponibilidad de Red Hat
1.4. Cómo instalar adición de software de Alta disponibilidad de Red Hat
yum install
para instalar los paquetes de software de alta disponibilidad de Red Hat:
# yum install rgmanager lvm2-cluster gfs2-utils
rgmanager
extraerá todas las dependencias necesarias para crear un clúster de alta disponibilidad (HA) desde el canal de alta disponibilidad. Los paquetes lvm2-cluster
y gfs2-utils
son parte del canal ResilientStorage y pueden no necesitarse en su sitio.
Actualización de software de adición de Alta disponibilidad de Red Hat
- Apague todos los servicios de clúster en un nodo de clúster único. Para obtener instrucciones sobre cómo detener software de clúster en un nodo, consulte la Sección 8.1.2, “Cómo detener el software de clúster”. Puede ser conveniente reubicar manualmente los servicios administrados de clúster y apagar las máquinas virtuales del host antes de detener
rgmanager
. - Ejecute el comando
yum update
para actualizar los paquetes instalados. - Rearranque el nodo de clúster o reinicie manualmente los servicios de clúster. Para obtener información sobre cómo iniciar software de clúster, consulte la Sección 8.1.1, “Cómo iniciar software de clúster”.
1.5. Configuración de software de adición de Alta disponibilidad de Red Hat
- Conga — Esta es una interfaz de usuario global para instalar, configurar y administrar Red Hat adición de Alta disponibilidad. Consulte el Capítulo 3, Configuración de adición de alta disponibilidad de Red Hat con Conga y el Capítulo 4, Administración de adición de alta disponibilidad de Red Hat con Conga para obtener información acerca de cómo configurar y administrar la adición de Alta disponibilidad con Conga.
- El comando
ccs
— Este comando configura y administra adición de Alta disponibilidad de Red Hat. Consulte el Capítulo 5, Configuración de adición de alta disponibilidad de Red Hat con el comando ccs y el Capítulo 6, Administración de adición de alta disponibilidad de Red Hat con ccs para obtener información sobre configuración y administración de adición de Alta disponiblidad con el comandoccs
. - Herramientas de línea de comandos — Es un set de herramientas de línea de comandos para configurar y administrar la adición de Alta disponibilidad de Red Hat. Consulte el Capítulo 7, Configuración de adición de alta disponibilidad de Red Hat con herramientas de línea de comandos y el Capítulo 8, Administración de adición de alta disponibilidad de Red Hat con herramientas de línea de comandos para obtener información sobre configurar y administrar un clúster con herramientas de línea de comandos. Consulte el Apéndice E, Resumen de herramientas de línea de comandos para obtener un resumen de las herramientas de línea de comandos preferidas.
Nota
system-config-cluster
no está disponible en Red Hat Enterprise Linux 6.
Capítulo 2. Antes de configurar la adición de alta disponibilidad de Red Hat
Importante
2.1. Consideraciones generales de configuración
- Número de nodos de clúster soportados
- El número máximo de nodos de clúster soportados por la adición de alta disponibilidad es 16.
- Clústeres de un solo sitio
- Únicamente los clústeres de un solo sitio son compatibles en este momento. Los clústeres esparcidos a través de varios lugares físicos no tienen soporte formal. Si desea obtener mayor información sobre clústeres multi-sitios, por favor contacte a su representante de soporte técnico de Red Hat.
- GFS2
- Aunque un sistema de archivos de GFS2 puede ser implementado en un sistema autónomo o como parte de una configuración de clúster, Red Hat no admite el uso de GFS2 como un sistema de archivos de nodo único. Red Hat es compatible con una serie de sistemas de archivos de nodo único de alto rendimiento que están optimizados para un solo nodo y por lo tanto, tienen generalmente menor sobrecarga que un sistema de archivos de clúster. Red Hat recomienda el uso de esos sistemas de archivos en lugar de GFS2 donde solo un nodo único se necesita montarse al sistema de archivos. Red Hat seguirá apoyando a los sistemas de archivos de GFS2 de nodo único para los clientes existentes.Al configurar un sistema de archivos de GFS2 como un sistema de archivos de clúster, asegúrese de que todos los nodos del clúster tengan acceso al sistema de archivos compartidos. Las configuraciones de clúster asimétrico en las que algunos nodos tienen acceso al sistema de archivos y otros no, no tienen soporte. No se requiere en realidad que todos los nodos monten el sistema de archivos de GFS2.
- Configuración de hardware de puntos únicos de falla
- Los clústeres pueden incluir una matriz doble de controladores RAID, varios canales de red en condiciones de servidumbre, múltiples rutas entre los miembros del clúster y almacenaje y, sistemas de fuentes de alimentación ininterrumpibles y redundantes (UPS) para asegurarse de que no resulte ningún fallo en tiempo de inactividad de aplicaciones o pérdida de datos.Como alternativa, se puede configurar un clúster de baja disponibilidad para proporcionar menos disponibilidad que la de un clúster de falla sin punto único. Por ejemplo, puede configurar un clúster con una matriz de discos RAID de controlador único y solamente un canal de Ethernet único.Algunas alternativas de bajo costo, tales como controladores de RAID de host, RAID de software sin soporte de clúster y configuraciones SCSI paralelas de iniciador múltiple, no son compatibles o apropiadas para usar como almacenaje de clúster compartido.
- Garantía de integridad de datos
- Para garantizar la integridad de los datos, solo un nodo puede ejecutar un servicio de clúster y acceder a datos de servicio de clúster a la vez. El uso de interruptores en la configuración de hardware de clúster permite que un nodo alimente en ciclos a otro nodo antes de reiniciar los servicios de alta disponibilidad de ese nodo durante un proceso de conmutación. Esto impide que dos nodos accedan a los mismos datos de forma simultánea y los corrompan. Los dispositivos de valla (soluciones de hardware o software que encienden, apagan o reinician los nodos del clúster) se utilizan para garantizar la integridad de los datos en todas las condiciones de error.
- Vinculación de canal Ethernet
- El cuórum y la salud de nodo están determinados por la comunicación de mensajes entre nodos de clúster a través de Ethernet. Además, los nodos del clúster utilizan Ethernet para una variedad de funciones críticas del clúster (por ejemplo, cercado). Con el enlace de canal de Ethernet, múltiples interfaces Ethernet están configuradas para comportarse como una sola interfaz, lo cual reduce el riesgo de un único punto-de-falla en la conexión de Ethernet típica conectada entre nodos del clúster y otro hardware de clúster.A partir de Red Hat Enterprise Linux 6.4, los modos de enlace 0, 1,y 2 tienen soporte.
- IPv4 e IPv6
- La adición de alta disponibilidad es compatible con protocolos IPv4 e IPv6 de Internet. El soporte de IPv6 en la adición de alta disponibilidad es nuevo para Red Hat Enterprise Linux 6.
2.2. Hardware compatible
2.3. Cómo habilitar puertos IP
iptables
para habilitar los puertos que la adición de Alta disponibilidad de Red Hat necesita:
2.3.1. Cómo habilitar puertos IP en nodos de clúster
system-config-firewall
para activar los puertos IP.
Número de puerto IP | Protocolo | Componente |
---|---|---|
5404, 5405 | UDP | corosync/cman (Gestor de clúster) |
11111 | TCP | ricci (propaga información de clúster actualizada) |
21064 | TCP | dlm (Gestor de bloqueo distribuido) |
16851 | TCP | modclusterd |
2.3.2. Activación del puerto IP para luci
Nota
Número de puerto IP | Protocolo | Componente |
---|---|---|
8084 | TCP | luci (servidor de interfaz de usuario Conga) |
/etc/sysconfig/luci
, puede especificamente configurar la dirección IP única en la que se sirve luci. Puede usar esta funcionalidad si su infraestructura incorpora más de una red y si desea acceder a luci desde la red interna únicamente. Para esto, descomente y modifique la línea en el archivo que especifica host
. Por ejemplo, para cambiar la configuración de host
en el archivo a 10.10.10.10, modifique la línea de host
así:
host = 10.10.10.10
/etc/sysconfig/luci
, consulte la Sección 2.4, “Configuración de luci con /etc/sysconfig/luci
”.
2.3.3. Cómo configurar el cortafuegos de iptables para permitir componentes de clúster
cman
(Gestor de clúster), use el siguiente filtraje.
$iptables -I INPUT -m state --state NEW -m multiport -p udp -s 192.168.1.0/24 -d 192.168.1.0/24 --dports 5404,5405 -j ACCEPT
$iptables -I INPUT -m addrtype --dst-type MULTICAST -m state --state NEW -m multiport -p udp -s 192.168.1.0/24 --dports 5404,5405 -j ACCEPT
dlm
(Gestor de bloqueo distribuido):
$ iptables -I INPUT -m state --state NEW -p tcp -s 192.168.1.0/24 -d 192.168.1.0/24 --dport 21064 -j ACCEPT
ricci
(parte del agente remoto Conga):
$ iptables -I INPUT -m state --state NEW -p tcp -s 192.168.1.0/24 -d 192.168.1.0/24 --dport 11111 -j ACCEPT
modclusterd
(parte del agente remoto de Conga):
$ iptables -I INPUT -m state --state NEW -p tcp -s 192.168.1.0/24 -d 192.168.1.0/24 --dport 16851 -j ACCEPT
luci
(Servidor de interfaz de usuario de Conga):
$ iptables -I INPUT -m state --state NEW -p tcp -s 192.168.1.0/24 -d 192.168.1.0/24 --dport 16851 -j ACCEPT
igmp
(Protocolo de administración de grupos en Internet):
$ iptables -I INPUT -p igmp -j ACCEPT
$ service iptables save ; service iptables restart
2.4. Configuración de luci con /etc/sysconfig/luci
/etc/sysconfig/luci
. Los parámetros que puede cambiar con este archivo incluyen los parámetros auxiliares del entorno en ejecución utilizados por el script init y la configuración de servidor. Además, puede modificar este archivo para ajustar algunos parámetros de configuración. Hay instrucciones dentro del archivo mismo que describen los parámetros de configuración que usted puede cambiar al modificar este archivo.
/etc/sysconfig/luci
. Además, tenga cuidado al seguir la sintaxis requerida para este archivo, en particular para la sección INITSCRIPT
, la cual no permite espacios en blanco alrededor del signo igual y requiere el uso de comillas para cerrar las cadenas que contienen espacios en blanco.
/etc/sysconfig/luci
.
- Descomente la siguiente línea en el archivo
/etc/cluster/cluster.conf
.#port = 4443
- Remplace 4443 por el número del puerto deseado, el cual debe ser mayor que o igual a 1024 (no un puerto privilegiado). Por ejemplo, puede modificar esa línea del archivo como sigue para establecer el puerto a 8084 en el que se sirve luci.
port = 8084
- Reinicie el servicio de luci para que los cambios se efectúen.
Importante
/etc/sysconfig/luci
para redefinir un valor predeterminado, tenga cuidado al usar el nuevo valor en lugar del predeterminado descrito. Por ejemplo, si modifica el puerto que sirve a luci, asegúrese de haber especificado el valor que modificó al habilitar un puerto IP para luci, como se describe en la Sección 2.3.2, “Activación del puerto IP para luci”.
/etc/sysconfig/luci
, consulte la documentación dentro del propio archivo.
2.5. Cómo configurar ACPI para usar con dispositivos de valla integrados
Nota
shutdown -h now
). De otro modo, si ACPI soft-off, está habilitado, un dispositivo de valla integrado puede tardarse cuatro o más segundos para desactivar un nodo (por favor, consulte la siguiente nota). Además, si ACPI soft-off está activada y un nodo entra en pánico o se congela durante el cierre, el dispositivo de valla integrado no podrá desactivar el nodo. En esas circunstancias, el cercado se retarda o no se realiza. En consecuencia, cuando un nodo está cercado con un dispositivo de valla integrado y ACPI soft-off está activada, un clúster se recupera lentamente o requiere intervención administrativa para recuperarse.
Nota
chkconfig
y verifique si el nodo se apaga inmediatamente después de que sea cercado. La forma preferida de desactivar ACPI Soft-Off es con administración chkconfig
, sin embargo, si ese método no es satisfactorio para su clúster, puede desactivar ACPI Soft-Off con alguno de los métodos alternos dados a continuación:
- Cambiar la configuración de BIOS a "instant-off" o una configuración equivalente que apague el nodo sin demora
Nota
Desactivar ACPI Soft-Off con el BIOS no es posible en algunos computadores. - Adición de
acpi=off
a la línea de comandos de arranque del kernel del archivo/boot/grub/grub.conf
Importante
Este método inhabilita completamente a ACPI; algunos computadores no arrancan correctamente si ACPI se inhabilita totalmente. Use este método solamente si otros métodos no son efectivos para su clúster.
- La Sección 2.5.1, “Desactivar ACPI Soft-Off con administración de
chkconfig
” — Método preferido - La Sección 2.5.2, “Desactivar ACPI Soft-Off con el BIOS” — Primer método alterno
- La Sección 2.5.3, “Desactivar completamente a ACPI en el archivo
grub.conf
” — Segundo método alterno
2.5.1. Desactivar ACPI Soft-Off con administración de chkconfig
chkconfig
para desactivar ACPI Soft-Off ya sea quitando el daemon ACPI (acpid
) de la administración de chkconfig
o apagando acpid
.
Nota
chkconfig
en cada nodo de clúster así:
- Ejecute alguno de los comandos a continuación:
chkconfig --del acpid
— Este comando remueve aacpid
de la administración dechkconfig
.— O —chkconfig --level 2345 acpid off
— Este comando apaga aacpid
.
- Reinicie el nodo.
- Cuando el clúster esté configurado y ejecutándose, verifique si el nodo se apaga inmediatamente cuando está cercado.
Nota
Puede cercar al nodo con el comandofence_node
o Conga.
2.5.2. Desactivar ACPI Soft-Off con el BIOS
chkconfig
(Sección 2.5.1, “Desactivar ACPI Soft-Off con administración de chkconfig
”), es el método preferido de desactivación de ACPI Soft-Off. Sin embargo, si el método preferido no es efectivo para su clúster, siga el procedimiento en esta sección.
Nota
- Reinicie el nodo e inicie el programa
BIOS CMOS Setup Utility
. - Navegue al menú de(o el equivalente al menú de administración de energía).
- En el menú de Ejemplo 2.1, “, configure la función (o equivalente) a (o configuración equivalente que apague el nodo con el botón de energía sin demora). El
BIOS CMOS Setup Utility
: se establece a ” muestra el menú con la establecida a y establecida a .Nota
Los equivalentes a la, ,y pueden variar entre computadores. Sin embargo, el objetivo de este procedimiento es el de configurar el BIOS para que el computador sea apagado a través del botón de energía sin demora. - Salga del programa
BIOS CMOS Setup Utility
, guardando la configuración de BIOS. - Cuando el clúster esté configurado y ejecutándose, verifique si el nodo se apaga inmediatamente cuando está cercado.
Nota
Puede cercar al nodo con el comandofence_node
o Conga.
Ejemplo 2.1. BIOS CMOS Setup Utility
: se establece a
+---------------------------------------------|-------------------+ | ACPI Function [Enabled] | Item Help | | ACPI Suspend Type [S1(POS)] |-------------------| | x Run VGABIOS if S3 Resume Auto | Menu Level * | | Suspend Mode [Disabled] | | | HDD Power Down [Disabled] | | | Soft-Off by PWR-BTTN [Instant-Off | | | CPU THRM-Throttling [50.0%] | | | Wake-Up by PCI card [Enabled] | | | Power On by Ring [Enabled] | | | Wake Up On LAN [Enabled] | | | x USB KB Wake-Up From S3 Disabled | | | Resume by Alarm [Disabled] | | | x Date(of Month) Alarm 0 | | | x Time(hh:mm:ss) Alarm 0 : 0 : | | | POWER ON Function [BUTTON ONLY | | | x KB Power ON Password Enter | | | x Hot Key Power ON Ctrl-F1 | | | | | | | | +---------------------------------------------|-------------------+
2.5.3. Desactivar completamente a ACPI en el archivo grub.conf
chkconfig
(Sección 2.5.1, “Desactivar ACPI Soft-Off con administración de chkconfig
”), es el método preferido para desactivar ACPI Soft-Off. Si el método preferido no es efectivo para su clúster, puede desactivar ACPI Soft-Off con la administración de energía BIOS (Sección 2.5.2, “Desactivar ACPI Soft-Off con el BIOS”). Si ninguno de los dos métodos es efectivo para su clúster, puede desactivar ACPI completamente al añadir acpi=off
a la línea de comandos de arranque de kernel en el archivo grub.conf
.
Importante
grub.conf
de cada nodo de clúster así:
- Abra
/boot/grub/grub.conf
con el editor de textos. - Añada
acpi=off
a la línea de comandos de inicio del kernel en/boot/grub/grub.conf
(consulte el Ejemplo 2.2, “Línea de comandos de arranque de Kernel conacpi=off
añadida”). - Reinicie el nodo.
- Cuando el clúster esté configurado y ejecutándose, verifique si el nodo se apaga inmediatamente cuando está cercado.
Nota
Puede cercar al nodo con el comandofence_node
o Conga.
Ejemplo 2.2. Línea de comandos de arranque de Kernel con acpi=off
añadida
# grub.conf generated by anaconda # # Note that you do not have to rerun grub after making changes to this file # NOTICE: You have a /boot partition. This means that # all kernel and initrd paths are relative to /boot/, eg. # root (hd0,0) # kernel /vmlinuz-version ro root=/dev/mapper/vg_doc01-lv_root # initrd /initrd-[generic-]version.img #boot=/dev/hda default=0 timeout=5 serial --unit=0 --speed=115200 terminal --timeout=5 serial console title Red Hat Enterprise Linux Server (2.6.32-193.el6.x86_64) root (hd0,0) kernel /vmlinuz-2.6.32-193.el6.x86_64 ro root=/dev/mapper/vg_doc01-lv_root console=ttyS0,115200n8 acpi=off initrd /initramrs-2.6.32-131.0.15.el6.x86_64.img
acpi=off
ha sido añadido a la línea de comandos de arranque del kernel — la línea que comienza por "kernel /vmlinuz-2.6.32-193.el6.x86_64.img".
2.6. Consideraciones para configurar servicios de alta disponibilidad
rgmanager
, implementa conmutación en frío para aplicaciones fuera de la plataforma. En la adición de alta disponibilidad de Red Hat, se configura una aplicación con otros recursos de clúster para formar un servicio de alta disponibilidad que puede conmutar de un nodo del clúster a otro sin interrupción aparente a los clientes de clúster. Puede presentarse conmutación de Servicio de alta disponibilidad, si se presenta error en un nodo de clúster o si el administrador de sistema de clúster traslada el servicio de un nodo del clúster a otro (por ejemplo, para un corte de energía planeado de un nodo del clúster).
- Recurso de dirección IP — Dirección IP 10.10.10.201.
- Un recurso de aplicación llamado "httpd-content" — una aplicación de servidor de red init script
/etc/init.d/httpd
(especificandohttpd
). - Un recurso de sistema de archivos — Red Hat GFS2 llamado "gfs2-content-webserver".
Figura 2.1. Ejemplo de servicio de clúster de servidor de red
Nota
/etc/cluster/cluster.conf
(en cada nodo de cluster). En el archivo de configuración de clúster, cada árbol de recursos es una representación XML que especifica cada recurso, sus atributos y su relación con otros recursos en el árbol de recursos (relación de padre, hijos y hermanos).
Nota
- Los tipos de recursos necesarios para crear un servicio
- Relaciones padre, hijo y hermanos entre recursos
2.7. Validación de configuración
/usr/share/cluster/cluster.rng
durante el tiempo de inicio y al recargar la configuración. También, puede validar una configuración de clúster en cualquier momento con el comando ccs_config_validate
. Para obtener mayor información sobre validación de configuración al usar el comando ccs
, consulte la Sección 5.1.6, “Validación de configuración”.
/usr/share/doc/cman-X.Y.ZZ/cluster_conf.html
(por ejemplo /usr/share/doc/cman-3.0.12/cluster_conf.html
).
- Validez XML — Verifica si archivo de configuración es un archivo XML válido.
- Opciones de configuración — Verifica si las opciones (elementos XML y atributos) son válidas.
- Valores de opción — Verifica si las opciones contienen datos válidos (limitados).
- Configuración válida — Ejemplo 2.3, “Configuración de muestra
cluster.conf
: Archivo válido” - Opción inválida — Ejemplo 2.5, “Configuración de muestra
cluster.conf
: Opción inválida” - Valor de opción inválido — Ejemplo 2.6, “
cluster.conf
Configuración de muestra: valor de opción inválido ”
Ejemplo 2.3. Configuración de muestra cluster.conf
: Archivo válido
<cluster name="mycluster" config_version="1"> <logging debug="off"/> <clusternodes> <clusternode name="node-01.example.com" nodeid="1"> <fence> </fence> </clusternode> <clusternode name="node-02.example.com" nodeid="2"> <fence> </fence> </clusternode> <clusternode name="node-03.example.com" nodeid="3"> <fence> </fence> </clusternode> </clusternodes> <fencedevices> </fencedevices> <rm> </rm> </cluster>
Ejemplo 2.4. Configuración de muestra cluster.conf
: XML inválido
<cluster name="mycluster" config_version="1"> <logging debug="off"/> <clusternodes> <clusternode name="node-01.example.com" nodeid="1"> <fence> </fence> </clusternode> <clusternode name="node-02.example.com" nodeid="2"> <fence> </fence> </clusternode> <clusternode name="node-03.example.com" nodeid="3"> <fence> </fence> </clusternode> </clusternodes> <fencedevices> </fencedevices> <rm> </rm> <cluster> <----------------INVALID
<cluster>
en lugar de </cluster>
.
Ejemplo 2.5. Configuración de muestra cluster.conf
: Opción inválida
<cluster name="mycluster" config_version="1"> <loging debug="off"/> <----------------INVALID <clusternodes> <clusternode name="node-01.example.com" nodeid="1"> <fence> </fence> </clusternode> <clusternode name="node-02.example.com" nodeid="2"> <fence> </fence> </clusternode> <clusternode name="node-03.example.com" nodeid="3"> <fence> </fence> </clusternode> </clusternodes> <fencedevices> </fencedevices> <rm> </rm> <cluster>
loging
en lugar de logging
.
Ejemplo 2.6. cluster.conf
Configuración de muestra: valor de opción inválido
<cluster name="mycluster" config_version="1"> <loging debug="off"/> <clusternodes> <clusternode name="node-01.example.com" nodeid="-1"> <--------INVALID <fence> </fence> </clusternode> <clusternode name="node-02.example.com" nodeid="2"> <fence> </fence> </clusternode> <clusternode name="node-03.example.com" nodeid="3"> <fence> </fence> </clusternode> </clusternodes> <fencedevices> </fencedevices> <rm> </rm> <cluster>
nodeid
en la línea clusternode
para node-01.example.com
. El valor es un valor negativo ("-1") en lugar de un valor positivo ("1"). Para el atributo nodeid
, el valor debe ser un valor positivo.
2.8. Consideraciones para NetworkManager
Nota
cman
no iniciará si NetworkManager
está ejecutándose o ha sido configurado para ser ejecutado con el comando chkconfig
.
2.9. Consideraciones para usar disco de cuórum
qdiskd
, proporciona heurística adicional para determinar el estado de nodo. Con heurística puede determinar los factores que son importantes para la operación del nodo en el caso de una partición de red. Por ejemplo, en un clúster de cuatro nodos con una división de 3: 1, normalmente, los tres nodos "ganan" por mayoría de tres a uno. Bajo esas circunstancias, el nodo es cercado. No obstante, con qdiskd
, puede configurar heurística que permita al nodo ganar en función de acceso a un recurso crítico (por ejemplo, una ruta de red crítica). Si el clúster requiere métodos adicionales para determinar la salud de nodo, debe configurar qdiskd
para satisfacer esas necesidades.
Nota
qdiskd
no se requiere a menos que tenga los requerimientos especiales para salud de nodo. Un ejemplo de un requerimiento especial es una configuración "todo-menos-uno". En una configuración todo menos uno, qdiskd
está configurado para proporcionar votos de cuórum suficientes para mantener cuórum a pesar de que solamente un nodo está funcionando.
Importante
qdiskd
para su implementación dependen del entorno de sitio y requisitos especiales. Para entender el uso de la heurística y otros parámetros qdiskd
, consulte la página de manual qdisk(5). Si necesita ayuda para entender y usar qdiskd
para su sitio, contacte a un representante de soporte técnico autorizado de Red Hat.
qdiskd
, debe tener en cuenta lo siguiente:
- Votos de nodo de clúster
- Cuando utilice Quorum Disk, cada nodo de clúster debe tener un voto.
- Valor de tiempo de espera de membresía de CMAN
- El valor de tiempo de espera de membresía de CMAN (el tiempo que un nodo requiere para no responder antes de que CMAN lo considere muerto y no miembro) debe ser al menos el doble del valor de tiempo de espera de membresía de
qdiskd
. Esto se debe a que el daemon de cuórum debe detectar nodos fallidos por cuenta propia y puede tomar mucho más tiempo en hacerlo que CMAN. El valor predeterminado de tiempo de espera de membresía de CMAN es de 10 segundos. Otras condiciones específicas del sitio pueden afectar la relación entre los valores de tiempo de espera de CMAN yqdiskd
. Para obtener ayuda sobre cómo ajustar el valor de tiempo de espera de membresía de CMAN, contacte a un representante de soporte técnico autorizado de Red Hat. - Valla
- Para garantizar un cercado confiable al usar
qdiskd
, use valla de poder. Aunque otros tipos de vallas pueden ser fiables para cluster no configurados conqdiskd
, no lo son para un cluster configurado conqdiskd
. - Nodos máximos
- Un clúster configurado con
qdiskd
soporta un máximo de 16 nodos. La razón de este límite es la escalabilidad; al aumentar el número de nodos, aumenta la cantidad de contención de E/S sincrónica en un dispositivo de disco de cuórum compartido. - Dispositivo de cuórum compartido
- Un dispositivo de disco de cuórum debe ser un dispositivo de bloque compartido con acceso de lectura y escritura simultáneos por todos los nodos en un clúster. El tamaño mínimo del dispositivo de bloque es de 10 MB. Ejemplos de dispositivos de bloque compartido que pueden ser usados por
qdiskd
son matriz RAID SCSI multipuertos, un SAN de RAID de canal de fibra o un destino iSCSI de RAID configurado. Puede crear un dispositivo de disco de cuórum conmkqdisk
, la herramienta de disco de cuórum de clúster. Para obtener información acerca de cómo usar la herramienta, consulte la página de manual (8) mkqdisk.Nota
No se recomienda el uso de JBOD como un disco de cuórum. Un JBOD no puede proporcionar un rendimiento fiable y por lo tanto, no puede permitir que un nodo escriba en él con la suficiente rapidez. Si un nodo no puede escribir en un dispositivo de disco de cuórum con la suficiente rapidez, el nodo erróneamente es expulsado de un clúster.
2.10. Adición de alta disponibilidad de Red Hat y SELinux
impositivo
con el tipo de política de SELinux establecido a targeted
.
2.11. Direcciones de multidifusión
Nota
2.12. Tráfico unidifusión UDP
cman transport="udpu"
en el archivo de configuración cluster.conf
. También puede especificar unidifusión desde la página de de la interfaz de usuario Conga como se describe en la Sección 3.5.3, “Configuración de red”.
2.13. Consideraciones para ricci
ricci
, remplaza a ccsd
. Por lo tanto, es necesario que ricci
esté ejecutándose en cada nodo de clúster para poder propagar información actualizada de configuración de clúster, ya sea a través del comando cman_tool version -r
, el comando ccs
, o el servidor de interfaz de usuario luci. Puede iniciar ricci
mediante service ricci start
o habilitándolo para que inicie en tiempo de arranque vía chkconfig
. Para obtener información sobre cómo habilitar puertos IP para ricci
, consulte la Sección 2.3.1, “Cómo habilitar puertos IP en nodos de clúster”.
ricci
requiere una contraseña la primera vez que usted propaga configuración de clúster actualizada desde cualquier nodo. Configure su contraseña de ricci
como root después de instalar ricci
en su sistema con el comando passwd ricci
, para usuario ricci
.
2.14. Configuración de las máquinas virtuales en un entorno en clúster.
rgmanager
para iniciar y detener las máquinas virtuales. Si usa virsh
para iniciar la máquina puede que la máquina virtual resulte en más de un sitio, lo cual puede causar daño de los datos en una máquina virtual.
virsh
, ya que el archivo de configuración será desconocido para virsh
fuera de la caja.
path
de un recurso de máquina virtual. Observe que el atributo path
es un directorio o set de directorios separados por el caracter de dos puntos ':' no una ruta a un archivo.
Aviso
libvirt-guests
debe estar desactivado en todos los nodos que están ejecutando rgmanager
. Si se autoinicia o reanuda una máquina virtual, puede que la máquina virtual resulte en más de un sitio, el cual puede hacer que los datos se dañen en la máquina virtual.
Capítulo 3. Configuración de adición de alta disponibilidad de Red Hat con Conga
Nota
3.1. Tareas de configuración
- Configuración y ejecución de la interfaz de usuario de configuración de Conga — el servidor luci. Consulte la Sección 3.2, “Inicio de luci”.
- Creación de un clúster. Consulte la Sección 3.4, “Cómo crear un clúster”.
- Configuración de propiedades de clúster globales. Consulte la Sección 3.5, “Propiedades globales de clúster”.
- Configuración de dispositivos de valla. Consulte la Sección 3.6, “Configuración de dispositivos de valla”.
- Configuración de cercado para miembros de clúster. Consulte la Sección 3.7, “Configuración de cercado para miembros de clúster”.
- Creación de dominios de conmutación. Consulte la Sección 3.8, “Configuración de dominio de conmutación”.
- Creación de recursos. Consulte la Sección 3.9, “Configuración de recursos de clúster globales”.
- Creación de servicios de clúster. Consulte la Sección 3.10, “Adición de un servicio de clúster al clúster”.
3.2. Inicio de luci
Nota
luci
para configurar un clúster requiere que ricci
esté instalado y en ejecución en los nodos de clúster como se describe en la Sección 2.13, “Consideraciones para ricci
”. Como se anota en esa sección, al usar ricci
requerirá la contraseña que luci
le pide que ingrese para cada nodo cuando usted crea un clúster, descrito en la Sección 3.4, “Cómo crear un clúster”.
- Seleccione un computador para albergar a luci e instale el software de luci es ese equipo. Por ejemplo:
#
yum install luci
Nota
Por lo general, un computador en una jaula de servidor o un centro de datos alberga a luci; no obstante, un computador de clúster también puede albergar a luci. - Inicie a luci mediante
service luci start
. Por ejemplo:#
service luci start
Starting luci: generating https SSL certificates... done [ OK ] Please, point your web browser to https://nano-01:8084 to access luciNota
A partir del lanzamiento de Red Hat Enterprise Linux 6.1, usted puede configurar algunos aspectos de la conducta de luci mediante el archivo/etc/sysconfig/luci
, que incluye los parámetros de puerto y host, así como se describe en la Sección 2.4, “Configuración de luci con/etc/sysconfig/luci
”. Los parámetros de puerto y host modificados se reflejarán en la URL cuando inicie el servicio luci. - En un navegador, escriba la URL del servidor luci en la cajilla de dirección de URL y haga clic en
Ir
(o el equivalente). La sintaxis de URL para el servidor luci eshttps://luci_server_hostname:luci_server_port
. El valor predeterminado de luci_server_port es8084
.La primera vez que usted acceda a luci, se desplegará un indicador específico de navegador de red sobre el Certificado SSL autofirmado (del servidor de luci). Tras reconocer el cuadro de diálogo o cuadros, su navegador desplegará la página de inicio de sesión de luci. - Aunque cualquier usuario capaz de autenticarse en el sistema que alberga luci puede ingresar a luci, a partir del lanzamiento de Red Hat Enterprise Linux 6.2 solo el usuario root en el sistema que esté ejecutando luci puede acceder a cualquiera de los componentes de luci hasta que un administrador (el usuario root u otro usuario con permisos de administrador) establezca los permisos para ese usuario. Para obtener información sobre cómo establecer permisos de luci para usuarios, consulte la Sección 3.3, “Cómo controlar el acceso a luci”.Al ingresar a luci se despliega la página de de luci, como se muestra en la Figura 3.1, “Página de base de origen de luci”.
Figura 3.1. Página de base de origen de luci
Nota
3.3. Cómo controlar el acceso a luci
- A partir de Red Hat Enterprise Linux 6.3, el usuario root o a quien se le hayan otorgado permisos administrativos de luci en un sistema que ejecute luci puede controlar el acceso a varios componentes de luci al establecer los permisos para usuarios individuales en un sistema.
- A partir de Red Hat Enterprise Linux 6.3, el usuario root o aquel a quien se le han otorgado permisos administrativos de luci también puede usar la interfaz de luci para añadir usuarios al sistema.
- A partir de Red Hat Enterprise Linux 6.4, el usuario root o aquel a quien se le hayan otorgado permisos administrativos de luci también puede usar la interfaz de luci para borrar usuarios del sistema.
root
o como el usuario a quien se la hayan otorgado permisos administrativos y haga clic en en la esquina superior derecha de la pantalla de luci. y así desplegará la página de , la cual muestra los usuarios existentes.
- Otorga al usuario los mismos permisos que tiene el usuario root, con todos los permisos en todos los clúster y la capacidad de dar o quitar permisos de los otros usuarios a excepción de root, cuyos permisos no se pueden limitar.
- Permite al usuario crear nuevos clústeres, como se describe en la Sección 3.4, “Cómo crear un clúster”.
- Permite al usuario añadir un clúster existente a la interfaz de luci como se describe en la Sección 4.1, “Añadir un clúster existente a la interfaz luci”.
- Permite al usuario ver el clúster especificado.
- Permite al usuario modificar la configuración para el clúster especificado, a excepción de la adicionar o retirar nodos de clúster.
- Permite al usuario manejar servicios de alta disponibilidad, como se describe en la Sección 4.5, “Administrar servicios de alta disponibilidad”.
- Permite al usuario administrar nodos individuales de un clúster, como se describe en la Sección 4.3, “Administrar nodos de clúster”.
- Permite al usuario añadir o borrar nodos de un clúster, como se describe en la Sección 3.4, “Cómo crear un clúster”.
- Permite al usuario quitar y borrar un clúster desde la interfaz luci, como se describe en la Sección 4.4, “Iniciar, parar, reiniciar, y borrar clústeres”.
3.4. Cómo crear un clúster
- Haga clic en luci, a la izquierda de la página de . La pantalla de aparecerá, como se muestra en la Figura 3.2, “Página de administración de clúster de luci”.del menú de
Figura 3.2. Página de administración de clúster de luci
- . La pantalla de aparecerá, como se muestra en la
Figura 3.3. Cuadro de diálogo de creación de clúster luci
- Ingrese los siguientes parámetros en el cuadro de diálogo, si es necesario:
- En la casilla de texto, ingrese un nombre de clúster. El nombre de clúster no puede exceder 15 caracteres.
- Si cada nodo en el clúster tiene la misma contraseña de ricci, puede marcar para autocompletar el campo de al añadir nodos.
- Ingrese el nombre de nodo para un nodo en el clúster en la columna ricci para el nodo en la columna de .e ingrese la contraseña de
- Si su sistema está configurado con una red privada dedicada que es utilizada únicamente por el tráfico del clúster, puede configurar luci para que se comunique con ricci en una dirección diferente a la cual el nombre de nodo de clúster se resuelve. Puede hacerlo si ingresa la dirección como .
- Si está utilizando un puerto para el agente ricci diferente al predeterminado 11111, puede cambiar ese parámetro.
- Haga clic en ricci para cada nodo adicional en el clúster.e ingrese el nombre de nodo y la contraseña de
- Si no desea actualizar los paquetes de software que ya están instalados en los nodos cuando crea el clúster, deje la opciónseleccionada. Si desea actualizar todos los paquetes de software de clúster, seleccione la opción .
Nota
Si al seleccionar la opcióno , alguno de los componentes de clúster básicos faltan (cman
,rgmanager
,modcluster
y todas sus dependencias), serán instalados. Si no pueden ser instalados, la creación de nodo fallará. - Seleccionesi se desea.
- Seleccionesi el almacenamiento en clúster se requiere. Así, descarga los paquetes para soporte de almacenamiento en clúster y activa LVM en clúster. Debe seleccionarlo solamente cuando tenga acceso a la adición de almacenamiento resistente o a la adición de sistema de archivos escalables.
- Haga clic en. Al hacer clic en se producen las siguientes acciones:
- Si ha seleccionado, los paquetes de software de clúster se descargarán en los nodos.
- El software de clúster se instala en los nodos (o se verifica que los paquetes de software instalados sean apropiados).
- El archivo de configuración de clúster se actualiza y propaga para cada nodo en el clúster.
- Los nodos añadidos se conectan al clúster.
Aparece un mensaje que dice que se está creando el clúster. Cuando el clúster está listo, la pantalla muestra el estatus del clúster recién creado, como se muestra en la Figura 3.4, “Pantalla de nodo de clúster”. Observe que si ricci no se está ejecutando en ninguno de los nodos, la creación de clúster fallará.Figura 3.4. Pantalla de nodo de clúster
- Después de hacer clic en Sección 4.3.4, “Borrado de un miembro de un clúster”., puede añadir o borrar nodos del clúster haciendo clic en la función o desde el menú en la parte superior de la página de pantalla de nodo de clúster. A menos que usted esté borrando un nodo completo, se deben detener los nodos antes de borrarlos. Para obtener mayor información sobre cómo borrar un nodo de un clúster existente que está en ejecución, consulte la
Nota
El retiro de un nodo de clúster del clúster es una operación destructiva que no puede deshacerse.
3.5. Propiedades globales de clúster
3.5.1. Propiedades generales de configuración
- La casilla de textomuestra el nombre de clúster; no acepta un cambio de nombre de clúster. La única forma de cambiar el nombre de un clúster es crear una nueva configuración de clúster con el nuevo nombre.
- El valor dese establece a
1
y aumenta automáticamente cada vez que usted modifica la configuración de clúster. Sin embargo, si necesita establecerlo a otro valor, puede especificarlo en la casilla de texto de .
3.5.2. Configuración de propiedades de daemon de valla
- El parámetro dees el número de segundos que un daemon de valla (
fenced
) espera antes de cercar un nodo (un miembro de dominio de valla) después de que el nodo ha fallado. El es0
. Su valor puede cambiarse para ajustarse al clúster y al rendimiento de red. - El parámetro dees el número de segundos que el daemon de valla (
fenced
) espera antes de cercar un nodo después de que el nodo se enlace al dominio. El valor predeterminado del es6
. Un parámetro típico para está entre 20 y 30 segundos, pero puede variar según el rendimiento del clúster y de la red.
Nota
3.5.3. Configuración de red
- Esta es una configuración predeterminada. Con esta opción seleccionada, el software de adición de alta disponibilidad de Red Hat crea una dirección multidifusión basada en el identificador de clúster. Genera los 16 bits inferiores de la dirección y los agrega a la parte superior de la dirección dependiendo de si el protocolo IP es IPv4 o IPv6:
- Para IPV4 — La dirección formada es 239.192. más los 16 bits inferiores generados por el software de adición de alta disponibilidad de Red Hat.
- Para IPV6 — La dirección formada es FF15:: más los 16 bits inferiores generados por el software de adición de alta disponibilidad de Red Hat.
Nota
El identificador de clúster es un identificador único quecman
genera para cada clúster. Para ver el ID de clúster, ejecute el comandocman_tool status
en el nodo de clúster. - Si necesita usar la dirección específica de multidifusión, seleccione esta opción para ingresar a una dirección multidifusión en el cuadro de texto.Si usted sí especifica una dirección de multidifusión, deberá usar las series 239.192.x.x (o FF15:: para IPv6) que emplea
cman
. De lo contrario, el uso de dirección de multidifusión fuera de este rango puede producir resultados impredecibles. Por ejemplo, con 224.0.0.x (el cual es "Todos los hosts en la red") no se pueden poner en la ruta de forma correcta o incluso,de ninguna forma por algún hardware.Si especifica o modifica una dirección multidifusión, debe reiniciar el clúster para que el cambio se efectúe. Para obtener mayor información sobre cómo iniciar y detener un clúster con Conga, consulte la Sección 4.4, “Iniciar, parar, reiniciar, y borrar clústeres”.Nota
Si especifica una dirección de multidifusión, asegúrese de comprobar la configuración de enrutadores que pasan los paquetes de clúster. Algunos enrutadores pueden tardar mucho tiempo en aprender direcciones, lo cual afecta seriamente el rendimiento del clúster. - A partir del lanzamiento de Red Hat Enterprise Linux 6.2, los nodos en un clúster pueden comunicarse entre sí mediante el mecanismo de transporte de unidifusión UDP. Se recomienda, sin embargo, el uso de multidifusión IP para red de clúster. Unidifusión UDP es una alternativa que puede servir cuando multidifusión IP no está disponible. No se recomienda para implementaciones de GFS2 mediante unidifusión UDP.
3.5.4. Cómo configura el protocolo de anillos redundantes
3.5.5. Configuración de disco de cuórum
Nota
Parámetro | Descripción | ||||
---|---|---|---|---|---|
Especifica la etiqueta de disco de cuórum por la herramienta mkqdisk . Si este campo se utiliza, el daemon de cuórum lee el archivo /proc/partitions y verifica las firmas de qdisk en cada bloque hallado con la etiqueta especificada. Esto es útil en configuraciones en las que el nombre de dispositivo de cuórum difiere entre nodos. | |||||
| |||||
El puntaje mínimo para que un nodo sea considerado "vivo". Si se omite o establece a 0, la función predeterminada, floor((n+1)/2) , se utiliza, donde n es la suma de puntajes de heurística. El valor de nunca debe exceder la suma de los puntajes de heurística; de lo contrario, el disco de cuórum no puede estar disponible. |
Nota
/etc/cluster/cluster.conf
) en cada nodo de clúster. Sin embargo, para que el disco de cuórum funcione o para hacer algunas modificaciones (consulte la Sección 4.4, “Iniciar, parar, reiniciar, y borrar clústeres”), asegurándose de haber reiniciado el daemon qdiskd
en cada nodo.
3.5.6. Configuración de registro
- La revisión delhabilita mensajes de depuración en el archivo de registro.
- La revisión dehabilita los mensajes a
syslog
. Puede seleccionar y . La configuración de indica que los mensajes en el nivel seleccionado y superior se envían asyslog
. - La revisión dehabilita los mensajes para el archivo de registro. Usted puede especificar el nombre de . El parámetro indica que los mensajes en el nivel seleccionado y superior se guardan en el archivo de registro.
syslog
y los parámetros de archivo de registro para ese daemon.
3.6. Configuración de dispositivos de valla
- La creación de dispositivos de valla — Consulte la Sección 3.6.1, “Cómo crear un dispositivo de valla”. Cuando haya creado y nombrado un dispositivo de valla, puede configurar los dispositivos de valla para cada nodo en el clúster, así como se describe en la Sección 3.7, “Configuración de cercado para miembros de clúster”.
- Actualización de dispositivos de valla — Consulte la Sección 3.6.2, “Modificación de un dispositivo de valla”.
- Borrado de servicios de valla — Consulte la Sección 3.6.3, “Borrado de un dispositivo de valla”.
Nota
Figura 3.5. Página de configuración de dispositivos de valla de luci
3.6.1. Cómo crear un dispositivo de valla
- Desde la página de configuración Añadir dispositivo de valla (instancia). Desde este cuadro de diálogo, seleccione el tipo de dispositivo de valla a configurar., haga clic en . Al hacer clic en aparece el cuadro de diálogo
- Especifique la información en el cuadro de diálogo Añadir un dispositivo de valla (instancia) según el tipo de dispositivo de valla. Para obtener mayor información sobre parámetros de dispositivos de valla, consulte el Apéndice A, Parámetros de dispositivos de valla. En algunos casos se necesitarán especificar parámetros específicos de nodos adicionales para el dispositivo de valla al configurar el cercado para nodos individuales, como se describe en la Sección 3.7, “Configuración de cercado para miembros de clúster”.
- Haga clic en.
3.6.2. Modificación de un dispositivo de valla
- Desde la página de configuración, haga clic en el nombre de dispositivo de valla a modificar. Este muestra el cuadro de diálogo para el dispositivo de valla, con los valores que han sido configurados para el dispositivo.
- Para modificar el dispositivo de valla, ingrese los cambios para los parámetros desplegados. Para obtener mayor información, consulte, el Apéndice A, Parámetros de dispositivos de valla.
- Haga clic eny espere a que la configuración se actualice.
3.6.3. Borrado de un dispositivo de valla
Nota
- Desde la página de configuración de, haga clic en la casilla a la izquierda del dispositivo o dispositivos de valla para seleccionar los dispositivos a borrar.
- Haga clic eny espere que la configuración se actualice. Aparece un mensaje que indica los dispositivos que se están eliminando.
3.7. Configuración de cercado para miembros de clúster
3.7.1. Configuración de un dispositivo de vallas único para un nodo
- Desde la página específica de clúster, puede configurar el cercado de nodos en el clúster. Haga clic en luci en la página de .en la parte superior de la pantalla de clúster. Así visualizará los nodos que constituyen el clúster. También es la página predeterminada que aparece al hacer clic en el nombre de clúster debajo de del menú a la izquierda de
- Haga clic en el nombre de nodo. Al hacer clic en un enlace para un nodo aparece la página para ese enlace que muestra cómo se configura ese nodo.La página específica de nodo muestra los servicios que están actualmente ejecutándose en el nodo, así como también los dominios de conmutación de los cuales este nodo es un miembro. Puede modificar un dominio de conmutación al hacer clic en su nombre. Para obtener mayor información sobre configuración de dominios de conmutación, consulte la Sección 3.8, “Configuración de dominio de conmutación”.
- En la página específica de nodo, bajo, haga clic en . Este desplegará el cuadro de diálogo .
- Ingrese elpara el método de cercado que está configurando para este nodo. Es un nombre arbitrario que será utilizado por la adición de alta disponibilidad de Red Hat. No es lo mismo que el nombre de DNS para el dispositivo.
- Haga clic en. Así aparece una pantalla específica de nodo que ahora despliega el método que acaba de añadir bajo .
- Configure una instancia de valla para este método al hacer clic en el botón Sección 3.6.1, “Cómo crear un dispositivo de valla”.. De esta manera se muestra el menú desplegable desde el cual puede seleccionar un dispositivo de valla que anteriormente haya configurado, como se describe en la
- Seleccione un dispositivo para este método. Si el dispositivo de valla requiere que usted configure los parámetros de nodos específicos, la pantalla muestra los parámetros a configurar. Para obtener mayor información sobre parámetros de cercado, consulte el Apéndice A, Parámetros de dispositivos de valla.
Nota
Para métodos de valla sin-energía (es decir, SAN/cercado de almacenamiento), se predetermina aen la pantalla de parámetros específicos de nodos. Esto garantiza que el acceso del nodo cercado al almacenaje no se reactive, sino hasta que el nodo haya sido reiniciado. Para obtener mayor información sobre quitar la valla a un nodo, consulte la página de manualfence_node
(8). - Haga clic en. Así lo devuelve a la pantalla de nodo específico con el método de vallas e instancia de vallas desplegada.
3.7.2. Configuración de un dispositivo de vallas de respaldo
- Siga el procedimiento provisto en la Sección 3.7.1, “Configuración de un dispositivo de vallas único para un nodo” para configurar el método de cercado primario para un nodo.
- Debajo de la pantalla del método primario que definió, haga clic en.
- Ingrese el método de cercado de respaldo que usted esté configurando para este nodo y haga clic en. De esta manera, muestra la pantalla específica de nodo que ahora despliega el método que ha acabado de añadir, debajo del método de vallas primario.
- Configure una instancia de valla para este método al hacer clic en Sección 3.6.1, “Cómo crear un dispositivo de valla”.. De esta manera se muestra un menú desplegable desde el cual puede seleccionar un dispositivo de valla que anteriormente ha configurado, como se describe en la
- Seleccione un dispositivo para este método. Si el dispositivo de valla requiere que usted configure los parámetros de nodos específicos, la pantalla muestra los parámetros a configurar. Para obtener mayor información sobre parámetros de cercado, consulte el Apéndice A, Parámetros de dispositivos de valla.
- Haga clic en. Así lo devuelve a la pantalla de nodo específico con el método de vallas e instancia de vallas desplegada.
3.7.3. Configuración de un nodo con energía redundante
- Antes de poder configurar el cercado para un nodo con energía redundante, debe configurar cada uno de los interruptores como un dispositivo de valla para el clúster. Para obtener mayor información sobre parámetros, consulte la Sección 3.6, “Configuración de dispositivos de valla”.
- Desde la página específica de clúster, haga clic en luci.en la parte superior de la pantalla del clúster. Así muestra los nodos que constituyen el clúster. Esta es también la página predeterminada que aparece cuando hace clic en el nombre de clúster debajo de del ménú a la izquierda de la página de
- Haga clic en el nombre de nodo. Al hacer clic en un enlace para un nodo aparece la página para ese enlace que muestra cómo se configura ese nodo.
- En la página específica de nodo, haga clic en.
- Ingrese el nombre para el método de cercado que usted está configurando para este nodo.
- Haga clic en. Así aparece una pantalla específica de nodo que ahora despliega el método que acaba de añadir bajo .
- Configure la primera fuente de energía como una instancia de valla para este método, haciendo clic en Sección 3.6.1, “Cómo crear un dispositivo de valla”.. Así, muestra un menú desplegable desde el cual puede seleccionar uno de los dispositivos de cercado de energía que anteriormente ha configurado, como se describe en la
- Seleccione un de los dispositivos de vallas de energía para este método e ingrese los parámetros apropiados para este dispositivo.
- Haga clic en. Así lo devuelve a la pantalla de nodo específico con el método de vallas e instancia de vallas desplegada.
- Bajo el mismo método de vallas para el cual ha configurado el primer dispositivo de cercado de energía, haga clic en Sección 3.6.1, “Cómo crear un dispositivo de valla”.. De esta manera, muestra un menú desplegable desde el cual puede seleccionar el segundo dispositivo de cercado de energía que anteriormente ha configurado, como se describió en la
- Seleccione el segundo de los dispositivos de valla de energía para este método e ingrese los parámetros apropiados para este dispositivo.
- Haga clic en Figura 3.6, “Configuración de cercado de doble energía”.. Esto lo devuelve a la pantalla específica de nodo con los métodos de valla e instancias de valla desplegadas, mostrando que cada dispositivo apagará el sistema en secuencia y encenderá el sistema en secuencias. Esto se muestra en la
Figura 3.6. Configuración de cercado de doble energía
3.8. Configuración de dominio de conmutación
- Sin restricciones — Le permite especificar que un subconjunto de miembros se prefiera, pero que el servicio de clúster asignado a este dominio pueda ejecutarse en cualquier miembro disponible.
- Restringido — Le permite restringir los miembros que pueden ejecutar un servicio de clúster particular. Si ninguno de los miembros en un dominio de conmutación restringido está disponible, el servicio de clúster no puede iniciarse (ya sea en forma manual o por el software de clúster).
- Desordenado — Cuando el servicio de clúster se asigna a un dominio de conmutación desordenado, el miembro en el que se ejecuta el servicio de clúster es elegido entre los miembros de dominio de conmutación sin ningún orden de prioridad.
- Ordenado — Le permite especificar un orden de preferencia entre los miembros del dominio de conmutación. El miembro en la parte superior de la lista es el preferido, seguido del segundo miembro en la lista, y así sucesivamente.
- Recuperación — Le permite especificar si un servicio en el dominio de conmutación debe recuperar al nodo que originalmente estaba ejecutándose antes de que ese nodo falle. La configuración de esta característica es útil en circunstancias donde un nodo repetidamente falla y hace parte de un dominio de conmutación ordenado. En esas circunstancias, si un nodo es el nodo preferido en un dominio de conmutación, es posible que un servicio se conmute o se recupere repetidas veces entre el nodo preferido y otro nodo, lo cual repercute gravemente en el rendimiento.
Nota
La característica de recuperación de fallos se aplica únicamente si la configuración de fallos ordenada está configurada.
Nota
Nota
httpd
), el cual requiere que establezca la configuración idéntica en todos los miembros que ejecuten el servicio de clúster. En lugar de configurar todo el clúster para que ejecute el servicio de clúster, únicamente configure los miembros del dominio de conmutación restringido asociados con el servicio de clúster.
Nota
3.8.1. Adición de un dominio de conmutación
- Desde la página específica de clúster, puede configurar dominios de conmutación para ese clúster al hacer clic enen la parte superior de la pantalla de clúster. Así despliega los dominios de conmutación que han sido configurados para este clúster.
- Haga clic en Añadir un dominio al clúster, como se muestra en la Figura 3.7, “Cuadro de diálogo de configuración de dominio de conmutación de luci”.. Al hacer clic en aparece la ventana de
Figura 3.7. Cuadro de diálogo de configuración de dominio de conmutación de luci
- En el cuadro de diálogo Añadir un dominio de conmutación al clúster, especifique un nombre de dominio de conmutación en la casilla de texto .
Nota
El nombre debe ser bastante descriptivo para distinguir su propósito relativo a otros nombres utilizados en su clúster. - Para activar la configuración de prioridad de conmutación de los miembros en el dominio de conmutación, haga clic en la casilla de verificación. Cuando haya activado , puede establecer el valor de prioridad, , para cada nodo seleccionado como miembro del dominio de conmutación.
- Para restringir a miembros en el dominio de conmutación, haga clic en la casilla de verificación. Cuando haya activado , los servicios asignados a este dominio de conmutación recuperan solamente los nodos en este dominio de conmutación.
- Para especificar que un nodo no se recupere en este dominio de conmutación, haga clic en la casilla de verificación. Cuando haya activado , si el servicio se conmuta desde un nodo preferido, el servicio no se recuperará a su nodo original una vez se haya recuperado.
- Configure los miembros para este dominio de conmutación. Haga clic en la casilla de verificación depara cada nodo que vaya a ser miembro del dominio de conmutación. Si marca , establezca la prioridad en la casilla de texto para cada miembro de dominio de conmutación.
- Haga clic en Dominios de conmutación con el dominio de conmutación recién creado. Un mensaje indica que el nuevo dominio está siendo creado. Actualice la página para obtener un estatus actualizado.. Así, muestra la página de
3.8.2. Modificación de un dominio de conmutación
- Desde la página específica de clúster, haga clic enen la parte superior de la pantalla de clúster para configurar dominios de conmutación para ese clúster.
- Haga clic en el nombre del dominio de conmutación. Así aparece la página de configuración para ese dominio de conmutación.
- Para modificar las propiedades, , o para el dominio de conmutación, active o desactive la casilla de verificación cerca de la propiedad y haga clic en .
- Pare modificar la membresía de dominio de conmutación, active o desactive la casilla de verificación cerca del miembro de clúster. Si el dominio de conmutación tiene prioridad, también puede establecer la prioridad para el miembro de clúster. Haga clic en.
3.8.3. Borrado de un dominio de conmutación
- Desde la página específica de clúster, haga clic enen la parte superior de la pantalla de clúster para configurar dominios de conmutación para ese clúster.
- Seleccione la casilla de verificación para borrar un dominio de conmutación.
- Haga clic en.
3.9. Configuración de recursos de clúster globales
- Desde la página específica de clúster, puede añadir recursos a ese clúster haciendo clic enen la parte superior de la pantalla de clúster. De esta manera, muestra los recursos que han sido configurados para ese clúster.
- Haga clic en. De esta manera, muestra el menú desplegable de .
- Haga clic en la casilla desplegable bajoy seleccione el tipo de recurso a configurar.
- Ingrese los parámetros de recursos para el recurso que está añadiendo. El Apéndice B, Parámetros de recursos de alta disponibilidad describe los parámetros de recursos.
- Haga clic en Recursos, la cual muestra los recursos añadidos (y otros más).. Al hacer clic en retorna a la página de recursos que muestra la pantalla de
- Desde la página luci , haga clic en el nombre del recurso a modificar. Así muestra los parámetros para ese recurso.
- Edite los parámetros de recursos.
- Haga clic en.
- Desde la página luci , haga clic en la casilla de verificación para borrar cualquier recurso.
- Haga clic en.
3.10. Adición de un servicio de clúster al clúster
- Desde la página específica de clúster, puede añadir servicios a ese clúster al hacer clic en Sección 4.5, “Administrar servicios de alta disponibilidad”).en la parte superior de la pantalla de clúster. Así despliega los servicios que han sido configurados para ese clúster. (Desde la página , puede también iniciar, reiniciar, e inhabilitar un servicio, como se describe en la
- Haga clic en. Así, despliega el cuadro de diálogo .
- En el cuadro de diálogo Añadir un grupo de servicio al clúster, en la caja de texto de , escriba el nombre del servicio.
Nota
Use un nombre descriptivo que distinga claramente el servicio de otros servicios en el clúster. - Marque la casilla de verificación no se marca, el servicio debe ser iniciado de forma manual en cualquier momento que el clúster salga del estado parado.si desea que el servicio inicie automáticamente cuando un clúster se inicie y se ejecute. Si la casilla de verificación
- Marque la casilla de verificaciónpara establecer una política donde el servicio solamente se ejecuta en nodos que no tienen otros servicios ejecutándose en ellos.
- Si ha configurado los dominios de conmutación para el cluster, use el menú desplegable del parámetro Sección 3.8, “Configuración de dominio de conmutación”.para seleccionar un dominio de conmutación para este servicio. Para obtener mayor información sobre cómo configurar dominios de conmutación, consulte la
- Use la caja desplegablepara seleccionar una política de recuperación para el servicio. Las opciones son para , , , o el servicio.Al seleccionar la opciónindica que el sistema debe intentar reiniciar el servicio que falló antes de reasignar el servicio. Si selecciona la opción indica que el sistema debe intentar reiniciar el servicio en un nodo diferente. Si selecciona la opción indica que el sistema debe desactivar el grupo de recursos si algún componente falla. Al seleccionar la opción indica que el sistema debe intentar reiniciar el servicio en su lugar si el servicio falla, pero si en el reinicio el servicio falla, el servicio se desactivará en lugar de desplazarse a otro host en el clúster.Si seleccionao como política de recuperación para el servicio, puede especificar el número máximo de fallas de reinicio antes de reubicar o desactivar el servicio y el tiempo en segundos después del cual olvida reiniciar.
- Para añadir un recurso al servicio, haga clic en solamente está disponible para este servicio.. Al hacer clic en se muestra una casilla desplegable que permite añadir un recurso global existente o añadir un nuevo recurso que
- Para añadir un recurso global, haga clic en el nombre del recurso existente desde la casilla desplegable Sección 3.9, “Configuración de recursos de clúster globales”).. De esta manera muestra el recurso y sus parámetros en la página para el servicio que usted está configurando. Para obtener mayor información sobre adición y modificación de recursos globales, consulte la
- Para añadir un nuevo recurso que esté disponible únicamente para este servicio, seleccione el tipo de recursos a configurar desde la casilla desplegable de Apéndice B, Parámetros de recursos de alta disponibilidad describe los parámetros de recursos.e ingrese los parámetros de recursos para el recurso que usted está añadiendo.
- Al añadir un recurso al servicio, ya sea un recurso global existente o un recurso disponible solamente para este servicio, puede especificar si el recurso es uno un .Si especifica que ese un recurso es un subárbol independiente, entonces si ese recurso falla solo se reiniciará ese recurso antes de que el sistema intente la recuperación normal. Puede especificar el número máximo de reinicios para intentar en un nodo antes de implementar la política de recuperación para ese servicio. También puede especificar el tiempo en segundos después del cual el sistema implementará la política de recuperación para el servicio.Si especifica el recurso como no-crítico, entonces si ese recurso falla únicamente ese recurso se reiniciará y si el recurso sigue fallando entonces solamente ese recurso se inhabilitará, en lugar de todo el servicio. Puede especificar un número máximo de reinicios para intentar especificar el tiempo en segundos después del cual se desactivará el recurso.
- Si desea añadir recursos de hijo al recurso que usted está definiendo, haga clic en. Al hacer clic en se despliega la pantalla de la cajilla desplegable , desde la cual puede añadir un recurso global existente o añadir un nuevo recurso que esté disponible únicamente para este servicio. Puede continuar añadiendo recursos de hijos al recurso para ajustar sus requerimientos.
Nota
Si está añadiendo un recurso de servicio Samba, añádalo directamente al servicio, no como un hijo de otro recurso. - Cuando haya terminado de añadir recursos al servicio y de añadir recursos de hijos a recursos, haga clic en. Al hacer clic en vuelve a la página de que muestra el servicio añadido (y otros servicios).
Nota
/sbin/ip addr show
en un nodo de clúster (en lugar del comando obsoleto ifconfig
). La siguiente salida muestra el comando /sbin/ip addr show
ejecutado en un nodo que ejecuta un servicio de clúster:
1: lo: <LOOPBACK,UP> mtu 16436 qdisc noqueue link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00 inet 127.0.0.1/8 scope host lo inet6 ::1/128 scope host valid_lft forever preferred_lft forever 2: eth0: <BROADCAST,MULTICAST,UP> mtu 1356 qdisc pfifo_fast qlen 1000 link/ether 00:05:5d:9a:d8:91 brd ff:ff:ff:ff:ff:ff inet 10.11.4.31/22 brd 10.11.7.255 scope global eth0 inet6 fe80::205:5dff:fe9a:d891/64 scope link inet 10.11.4.240/22 scope global secondary eth0 valid_lft forever preferred_lft forever
- Desde la página de, haga clic en el nombre del servicio a modificar. Así muestra los parámetros y recursos que han sido configurados para ese servicio.
- Edite los parámetros de servicios.
- Haga clic en.
- Desde la página luci , haga clic en la casilla de verificación para borrar cualquier servicio.
- Haga clic en.
- A partir del lanzamiento de Red Hat Enterprise Linux 6.3, antes de que luci borre los servicios, aparecerá un mensaje preguntándole si desea confirmar su intención de borrar los grupos de servicios o grupos, lo cual detiene los recursos que lo comprenden. Haga clic en para cerrar el cuadro de diálogo sin borrar ningún servicio, o haga clic en para retirar el servicio o los servicios seleccionados.
Capítulo 4. Administración de adición de alta disponibilidad de Red Hat con Conga
4.1. Añadir un clúster existente a la interfaz luci
- Al hacer clic en luci . Aparecerá la pantalla de .desde el menú en la parte izquierda de la página de
- Al hacer clic en, aparecerá la pantalla .
- Ingrese el nombre de host de nodo y la contraseña de ricci para cualquiera de los nodos en el clúster existente. Puesto que cada nodo en el clúster contiene toda la información para el clúster, se debe proporcionar suficiente información para añadir el clúster a la interfaz de luci.
- Al hacer clic en, aparecerá la pantalla luego aparecerá el nombre de clúster y los nodos restantes en el clúster.
- Ingrese las contraseñas individuales de ricci para cada nodo en el clúster, o ingrese una contraseña y seleccione .
- Haga clic en. El clúster anteriormente configurado ahora se muestra en la pantalla .
4.2. Retirar un clúster existente a la interfaz luci
- Al hacer clic en luci . Aparecerá la pantalla de .desde el menú en la parte izquierda de la página de
- Seleccione el clúster o los clústeres que desea retirar.
- Haga clic en.
4.3. Administrar nodos de clúster
4.3.1. Reinicio de un nodo de clúster
- Desde la página específica de clúster, haga clic en luci .en la parte superior de la pantalla del clúster. Así muestra los nodos que constituyen el clúster. También es la página predeterminada que aparece cuando hace clic en el nombre de clúster bajo del menú a la izquierda de la página de
- Haga clic en la casilla de verificación del nodo a reiniciar.
- Seleccione la funcióndesde el menú en la parte superior de la página. Así, el nodo seleccionado reinicia y aparece un mensaje en la parte superior de la página que el nodo está reiniciando.
- Actualice la página para ver el estatus actualizado del nodo.
4.3.2. Hacer que un nodo abandone o se una a un clúster
No miembro de clúster
. Para obtener mayor información sobre borrado total de la configuración de clúster, consulte la Sección 4.3.4, “Borrado de un miembro de un clúster”.
- Desde la página específica de clúster, haga clic en luci .en la parte superior de la pantalla del clúster. Así muestra los nodos que constituyen el clúster. También es la página predeterminada que aparece cuando hace clic en el nombre de clúster bajo del menú a la izquierda de la página de
- Haga clic en la casilla de verificación del nodo que desea abandonar el clúster.
- Seleccione la funcióndesde el menú en la parte superior de la página. Esto hace que aparezca un mensaje en la parte superior de la página indicando que el nodo está siendo detenido.
- Actualice la página para ver el estatus actualizado del nodo.
4.3.3. Añadir un miembro a un clúster en ejecución
- Desde la página específica de clúster, haga clic en luci .en la parte superior de la pantalla de clúster. Así muestra los nodos que constituyen el clúster. También es la página predeterminada que aparece cuando hace clic en el nombre del clúster debajo de desde el menú a la izquierda de la página de
- Haga clic en Añadir nodos al clúster.. Al hacer clic en se muestra la ventana de diálogo
- Ingrese el nombre de nodo en la cajilla de texto ricci en la cajilla de texto de . Si está utilizando un puerto para el agente ricci, diferente al predeterminado 11111, puede cambiar ese parámetro al puerto que está utilizando.e ingrese la contraseña de
- Seleccionesi el almacenamiento en clúster se requiere para descargar los paquetes que soportan almacenamiento en clúster y activar LVM en clúster. Debe seleccionarlo solamente cuando tenga acceso a la adición de almacenamiento resistente o a la adición del sistema de archivos escalable.
- Si desea añadir más nodos, haga clic ene ingrese el nombre de nodo y contraseña para cada nodo adicional.
- Haga clic en. Al hacer clic en se produce lo siguiente:
- Si ha seleccionado, los paquetes de software de clúster se descargarán en los nodos.
- El software de clúster se instala en los nodos (o se verifica que los paquetes de software instalados sean apropiados).
- El archivo de configuración de clúster se actualiza y propaga para cada nodo en el clúster — incluyendo el nodo añadido.
- El nodo añadido se une al clúster.
La páginaaparece con un mensaje indicando que el nodo está siendo utilizado para el clúster. Actualice la página para actualizar el estatus. - Cuando el proceso de añadir un nodo se complete, haga clic en el nombre de nodo para el nodo recién añadido a fin de configurar vallas para este nodo, como se describe en la Sección 3.6, “Configuración de dispositivos de valla”.
4.3.4. Borrado de un miembro de un clúster
- Desde la página específica de clúster, haga clic en luci .en la parte superior de la pantalla de clúster. Así muestra los nodos que constituyen el clúster. También es la página predeterminada que aparece cuando hace clic en el nombre del clúster debajo de desde el menú a la izquierda de la página de
Nota
Para permitir que los servicios que se ejecutan en un nodo se conmuten cuando se elimine el nodo, ignore este paso. - Inhabilitar o reubicar cada servicio que esté ejecutándose en el nodo que va a ser borrado. Para obtener información sobre cómo desactivar y reubicar servicios, consulte la Sección 4.5, “Administrar servicios de alta disponibilidad”.
- Seleccione el nodo o nodos a borrar.
- Haga clic en Nodos indica que el nodo está siendo eliminado. Actualice la página para ver el estatus actual.. La página de
Importante
4.4. Iniciar, parar, reiniciar, y borrar clústeres
No miembro de clúster
.
- Haga clic en la cajilla de verificación cerca de cada nodo para seleccionar todos los nodos en el clúster.
- Seleccione la funcióndesde el menú en la parte superior de la página. Así, el mensaje aparece en la parte superior de la página indicando que se ha detenido cada nodo.
- Actualice la página para ver el estatus actualizado de los nodos.
- Haga clic en la cajilla de verificación cerca de cada nodo para seleccionar todos los nodos en el clúster.
- Seleccione la funcióndesde el menú en la parte superior de la página.
- Actualice la página para ver el estatus actualizado de los nodos.
Importante
- Haga clic en la cajilla de verificación cerca de cada nodo para seleccionar todos los nodos en el clúster.
- Seleccione la funcióndesde el menú en la parte superior de la página.
4.5. Administrar servicios de alta disponibilidad
- Iniciar un servicio
- Reiniciar un servicio
- Inhabilitar un servicio
- Borrar un servicio
- Reubicar un servicio
- Desde la casilla desplegable de Iniciar en nodo..., seleccione el nodo en el cual desea reiniciar el servicio y haga clic en el icono . Un mensaje aparece en la parte superior de la pantalla indicando que el servicio se ha iniciado. Debe actualizar la pantalla para ver la nueva pantalla indicando que el servicio está ejecutándose en el nodo que ha seleccionado.
Nota
Si el servicio que está ejecutando es un servicio devm
, la cajilla desplegable mostrará una opciónmigrate
en lugar de una opciónrelocate
.
Nota
4.6. Cómo hacer una copia de seguridad y restaurar la configuración de luci
/var/lib/luci/data/luci.db
. Esta no es la configuración de cluster que se almacena en el archivo cluster.conf
. En su lugar, contiene la lista de usuarios, clústeres y propiedades relacionadas que luci mantiene. Por defecto, la copia de seguridad que se crea, será escrita en el mismo directorio como el archivo luci.db
.
- Ejecute
service luci stop
. - Ejecute
service luci backup-db
.También, puede especificar un nombre de archivo como un parámetro para el comandobackup-db
, el cual escribirá la base de datos luci a ese archivo. Por ejemplo, escriba la base de archivos de luci al archivo/root/luci.db.backup
, ejecute el comandoservice luci backup-db /root/luci.db.backup
. Observe que los archivos de respaldo que se escriben en sitios diferentes a/var/lib/luci/data/
(para copias de seguridad cuyos nombres de archivos especifique cuando useservice luci backup-db
) no aparecerán en la salida del comandolist-backups
. - Ejecute
service luci start
.
- Ejecute
service luci stop
. - Ejecute
service luci list-backups
y observe el nombre de archivo a restaurar. - Ejecute
service luci restore-db /var/lib/luci/data/lucibackupfile
donde lucibackupfile es el archivo de respaldo a restaurar.Por ejemplo, el siguiente comando restaura la información de configuración de luci que estaba almacenada en el archivo de respaldoluci-backup20110923062526.db
:service luci restore-db /var/lib/luci/data/luci-backup20110923062526.db
- Ejecute
service luci start
.
host.pem
de la máquina en que usted creó la copia de seguridad debido a una reinstalación completa, por ejemplo, necesitará añadir otra vez de forma manual sus clústeres a luci para reautenticar los nodos de clúster.
luci1
y la copia de seguridad se restaura en la máquina luci2
.
- Ejecute la siguiente secuencia de comandos para crear una copia de seguridad de luci en
luci1
y una copia del archivo de certificado SSL y la copia de seguridad de and luci enluci2
.[root@luci1 ~]#
service luci stop
[root@luci1 ~]#service luci backup-db
[root@luci1 ~]#service luci list-backups
/var/lib/luci/data/luci-backup20120504134051.db [root@luci1 ~]#scp /var/lib/luci/certs/host.pem /var/lib/luci/data/luci-backup20120504134051.db root@luci2:
- En la máquina
luci2
asegúrese de que luci haya sido instalada y no esté en ejecución. Instale el paquete si no todavía no está instalado todavía. - Ejecute la siguiente secuencia de comandos para asegurarse que las auteticaciones estén en su lugar y para restaurar la base de datos de luci de
luci1
aluci2
.[root@luci2 ~]#
cp host.pem /var/lib/luci/certs/
[root@luci2 ~]#chown luci: /var/lib/luci/certs/host.pem
[root@luci2 ~]#/etc/init.d/luci restore-db ~/luci-backup20120504134051.db
[root@luci2 ~]#shred -u ~/host.pem ~/luci-backup20120504134051.db
[root@luci2 ~]#service luci start
Capítulo 5. Configuración de adición de alta disponibilidad de Red Hat con el comando ccs
ccs
. El comando ccs
permite al administrador crear, modificar, y ver el archivo de configuración de clúster cluster.conf
. Puede usar el comando ccs
para configurar un archivo de configuración de clúster en un sistema de archivos local o un nodo remoto. Un administrador también puede iniciar o detener los servicios de clúster con ccs
en uno o todos los nodos en un clúster configurado.
ccs
. Para obtener información sobre el uso del comando ccs
para administrar un clúster, consulte el Capítulo 6, Administración de adición de alta disponibilidad de Red Hat con ccs.
Nota
Nota
cluster.conf
más utilizados. Para obtener una lista y descripción completa de cluster.conf
, consulte el esquema de clústeren /usr/share/cluster/cluster.rng
, y el esquema anotado en /usr/share/doc/cman-X.Y.ZZ/cluster_conf.html
(por ejemplo, /usr/share/doc/cman-3.0.12/cluster_conf.html
).
5.1. Visión general operativa
ccs
para configurar un clúster:
5.1.1. Cómo crear un archivo de configuración de clúster en un sistema local
ccs
, puede crear un archivo de configuración de clúster en un nodo de clúster o puede crear un archivo de configuración de clúster en un sistema de archivos local y luego enviar ese archivo al host en un clúster. Esto le permite trabajar en un archivo desde una máquina local en donde puede mantenerlo bajo control de versión o de otra forma etiquetarlo de acuerdo con sus necesidades. El uso del comando ccs
no requiere privilegios de root.
ccs
, use la opción -h
para especificar el nombre del host. Así crea y edita el archivo cluster.conf
en el host:
ccs -h host [opciones]
-f
del comando ccs
para especificar el nombre del archivo de configuración al realizar una operación de clúster. Puede nombrar este archivo como lo desee.
ccs -f file [opciones]
--setconf
del comando ccs
. En una máquina de host en un clúster, el archivo que usted envíe se denominará cluster.conf
y será situado en el directorio /etc/cluster
.
ccs -h host -f archivo --setconf
--setconf
del comando ccs
, consulte la Sección 5.15, “Cómo propagar el archivo de configuración a los nodos de clúster”.
5.1.2. Cómo ver la configuración de clúster actual
ccs -h host --getconf
-f
en lugar de la opción -h
, como se describión en la Sección 5.1.1, “Cómo crear un archivo de configuración de clúster en un sistema local”.
5.1.3. Cómo especificar contraseñas ricci con el comando ccs
ccs
que distribuyen copias del archivo cluster.conf
a los nodos de un clúster requiere que ricci esté instalado y en ejecución en los nodos del clúster, tal como se describió en la Sección 2.13, “Consideraciones para ricci
”. Para usar ricci requiere una contraseña la primera vez que interactúe con ricci desde una determinada máquina .
ccs
lo requiera. Igualmente, puede usar la opción -p
para especificar una contraseña de ricci en la línea de comandos.
ccs -h host -p password --sync --activate
cluster.conf
a todos los nodos en el clúster con la opción --sync
del comando ccs
y especifica una contraseña para ricci para el comando, el comando ccs
usará esa contraseña para cada nodo en el clúster.\n Si necesita establecer diferentes contraseñas para ricci en nodos individuales, puede usar la opción --setconf
con la opción -p
para distribuir el archivo de configuración a un nodo a la vez.
5.1.4. Cómo modificar componentes de configuración de clúster
ccs
para configurar componentes de clúster y sus atributos en el archivo de configuración de clúster. Tras agregar el componente de clúster al archivo, con el fin de modificar los atributos de ese componente debe retirar el componente que ha definido y añadir el componente de nuevo con los atributos modificados. Encontrará información sobre cómo hacer esto con cada componente en las secciones individuales de este capítulo.
cman
proporcionan una excepción a este procedimiento para modificar los componentes de clúster. Para modificar dichos atributos, ejecute la opción --setcman
del comando ccs
, especificando los nuevos atributos. Observe que esta opción restablece todos los valores que usted no especifica explícitamente como predeterminados, así como se describe en la Sección 5.1.5, “Comandos que sobrescriben los parámetros anteriores”.
5.1.5. Comandos que sobrescriben los parámetros anteriores
ccs
que implementan la semántica de sobrescritura al configurar las propiedades. Es decir, que usted puede emitir el comando ccs
con una de estas opciones sin especificar ningún parámetro y restablecerá todos los parámetros a sus valores predeterminados. Estas opciones son las siguientes:
--settotem
--setdlm
--setrm
--setcman
--setmulticast
--setaltmulticast
--setfencedaemon
--setlogging
--setquorumd
# ccs -h hostname --setfencedaemon
post_fail_delay
a 5:
# ccs -h hostname --setfencedaemon post_fail_delay=5
post_join_delay
a 10, la propiedad de post_fail_delay
se restaurará su valor predeterminado:
# ccs -h hostname --setfencedaemon post_join_delay=10
post_fail_delay
y post_join_delay
, indíquelas en el mismo comando, como en el siguiente ejemplo:
# ccs -h hostname --setfencedaemon post_fail_delay=5 post_join_delay=10
5.1.6. Validación de configuración
ccs
para crear y modificar el archivo de configuración de clúster, la configuración se valida automáticamente según el esquema del clúster. A partir del lanzamiento de Red Hat Enterprise Linux 6.3, el comando ccs
valida la configuración según el esquema de clúster en /usr/share/cluster/cluster.rng
en el nodo que usted especifique con la opción -h
. Anteriormente el comando ccs
utilizaba el esquema que era empaquetado con el mismo comando ccs
, /usr/share/ccs/cluster.rng
en el sistema local. Si usa la opción -f
para especificar el sistema local, el comando ccs
aún usará el esquema de clúster /usr/share/ccs/cluster.rng
que fue empaquetado con el propio comando ccs
en ese sistema.
5.2. Tareas de configuración
ccs
consta de los siguientes pasos:
- Cómo asegurarse que ricci está ejecutándose en todos los nodos en el clúster. Consulte la Sección 5.3, “Cómo iniciar ricci”.
- Cómo crear un clúster. Consulte la Sección 5.4, “Cómo crear un clúster”.
- Cómo configurar dispositivos de valla. Consulte la Sección 5.5, “Cómo configurar dispositivos de valla”.
- Configuración de cercado para miembros de clúster. Consulte la Sección 5.7, “Cómo configurar cercado para miembros de clúster”.
- Cómo crear dominios de conmutación. Consulte la Sección 5.8, “Cómo configurar un dominio de conmutación”.
- Cómo crear recursos. Consulte la Sección 5.9, “Cómo configurar recursos de clúster global”.
- Cómo crear servicios de clúster. Consulte la Sección 5.10, “Adición de un servicio de clúster al clúster”.
- Cómo configurar un disco de cuórum, si es necesario. Consulte la Sección 5.13, “Cómo configurar un disco de cuórum”.
- Cómo configurar propiedades de clúster global. Consulte la Sección 5.14, “Varios de configuración de clúster”.
- Cómo propagar el archivo de configuración de clúster para todos los nodos de clúster. Consulte la Sección 5.15, “Cómo propagar el archivo de configuración a los nodos de clúster”.
5.3. Cómo iniciar ricci
- Los puertos IP en sus nodos de clúster deben habilitarse para ricci. Para obtener mayor información sobre cómo habilitar los puertos IP en nodos de clúster, consulte la Sección 2.3.1, “Cómo habilitar puertos IP en nodos de clúster”.
- El servicio ricci se instala en todos los nodos en el clúster y asigna una contraseña ricci, como se describe en la Sección 2.13, “Consideraciones para
ricci
”.
# service ricci start
Starting ricci: [ OK ]
5.4. Cómo crear un clúster
ccs
sin dominios de conmutación de cercado y servicios de alta disponibilidad. Las siguientes secciones describen cómo establecer esas partes de la configuración.
- Crear un archivo de configuración de clúster en uno de los nodos en el clúster al ejecutar el comando
ccs
mediante el parámetro-h
para especificar el nodo en el cual crear el archivo y la opcióncreatecluster
para especificar un nombre para el clúster:ccs -h host --createcluster clustername
Por ejemplo, el siguiente comando crea un archivo de configuración ennode-01.example.com
llamadomycluster
:ccs -h node-01.example.com --createcluster mycluster
usterEl nombre de clúster no puede exceder a 15 caracteres.Si un archivocluster.conf
ya existe en el host que usted especificó, ejecute este comando para remplazar el archivo existente.Si desea crear un archivo de configuración de clúster en su sistema local, puede especificar la opción-f
en lugar de la opción-h
. Para obtener mayor información sobre cómo crar el archivo de forma local, consulte la Sección 5.1.1, “Cómo crear un archivo de configuración de clúster en un sistema local”. - Para configurar los nodos que contiene el clúster, ejecute el siguiente comando para cada nodo en el clúster.
ccs -h host --addnode nodo
Por ejemplo, los siguientes tres comandos añaden los nodosnode-01.example.com
,node-02.example.com
, ynode-03.example.com
al archivo de configuración ennode-01.example.com
:ccs -h node-01.example.com --addnode node-01.example.com ccs -h node-01.example.com --addnode node-02.example.com ccs -h node-01.example.com --addnode node-03.example.com
Para ver una lista de los nodos que han sido configurados para un clúster, ejecute el siguiente comando:ccs -h host --lsnodes
Ejemplo 5.1, “Archivocluster.conf
después de añadir tres nodos” muestra un archivo de configuracióncluster.conf
después de haber creado clústermycluster
que contiene los nodosnode-01.example.com
,node-02.example.com
, ynode-03.example.com
.Ejemplo 5.1. Archivo
cluster.conf
después de añadir tres nodos<cluster name="mycluster" config_version="2"> <clusternodes> <clusternode name="node-01.example.com" nodeid="1"> <fence> </fence> </clusternode> <clusternode name="node-02.example.com" nodeid="2"> <fence> </fence> </clusternode> <clusternode name="node-03.example.com" nodeid="3"> <fence> </fence> </clusternode> </clusternodes> <fencedevices> </fencedevices> <rm> </rm> </cluster>
Cuando usted añade un nodo al clúster, puede especificar el nombre de votos que el nodo aporta para determinar si hay cuórum. Para establecer el número de votos para un nodo de clúster, use el siguiente comando:ccs -h host --addnode host --votes votos
Cuando usted añade un nodo,ccs
asigna al nodo un número entero único que sirve de identificador de nodo. Si desea especificar el nodo de forma manual cuando cree un nodo, use el siguiente comando:ccs -h host --addnode host --nodeid nodeid
Para retirar un nodo de un clúster, ejecute el siguiente comando:ccs -h host --rmnode nodo
5.5. Cómo configurar dispositivos de valla
- El atributo
post_fail_delay
es el número de segundos que el daemon de valla (fenced
) espera antes de cercar un nodo (un miembro de un dominio de valla) después de que el nodo haya fallado. El valor predeterminadopost_fail_delay
es0
. Su valor puede variar para ajustarse al rendimiento de clúster y red. - El atributo
post-join_delay
es el número de segundos que el daemon de valla (fenced
) espera antes de cercar un nodo después de que el nodo se enlace al dominio. El valor predeterminado depost_join_delay
es6
. El parámetro típico parapost_join_delay
está entre 20 y 30 segundos, pero puede variar según el rendimiento del clúster y de la red.
post_fail_delay
y post_join_delay
con la opción --setfencedaemon
del comando ccs
. Sin embargo, observe que la ejecución del comando ccs --setfencedaemon
sobrescribe todas las propiedades del daemon de vallas existente que han sido establecidas y los restaura a sus valore predeterminados.
post_fail_delay
, ejecute el siguiente comando. Este comando sobrescribirá los valores de las demás propiedades del daemon de valla existentes que usted haya establecido con este comando y los restaurará a sus valores predeterminados.
ccs -h host --setfencedaemon post_fail_delay=value
post_join_delay
, ejecute el siguiente comando. Este comando sobrescribirá los valores de las demás propiedades del daemon de valla existentes que usted haya establecido con este comando y los restaurará a sus valores predeterminados.
ccs -h host --setfencedaemon post_join_delay=value
post_join_delay
y post_fail_delay
, ejecute el siguiente comando:
ccs -h host --setfencedaemon post_fail_delay=valor post_join_delay=valor
Nota
post_join_delay
y post_fail_delay
y de las propiedades del daemon de valla adicionales que usted puede modificar, consulte la página de manual fenced(8) y vaya al esquema de cluster en /usr/share/cluster/cluster.rng
, y al esquema anotado en /usr/share/doc/cman-X.Y.ZZ/cluster_conf.html
.
ccs -h host --addfencedev devicename [fencedeviceoptions]
node1
llamado myfence
con una dirección IP de apc_ip_example
, un nombre de inicio de login_example
, y una contraseña de password_example
, ejecute el siguiente comando:
ccs -h node1 --addfencedev myfence agent=fence_apc ipaddr=apc_ip_example login=login_example passwd=password_example
fencedevices
del archivo de configuración cluster.conf
después de que le ha añadido este dispositivo de valla APC:
<fencedevices> <fencedevice agent="fence_apc" ipaddr="apc_ip_example" login="login_example" name="myfence" passwd="password_example"/> </fencedevices>
ccs
para imprimir una lista de dispositivos de vallas disponibles y opciones o para imprimir una lista de los dispositivos de vallas configurados actualmente, consulte la Sección 5.6, “Cómo listar dispositivos de vallas y opciones de dispositivos de vallas ”.
ccs -h host --rmfencedev fence_device_name
myfence
del archivo de configuración de clúster en un nodo de clúster node1
, ejecute el siguiente comando:
ccs -h node1 --rmfencedev myfence
5.6. Cómo listar dispositivos de vallas y opciones de dispositivos de vallas
ccs
para imprimir una lista de los dispositivos de vallas disponibles e imprimir una lista de opciones para cada tipo de valla disponible. También puede usar el comando ccs
para imprimir una lista de los dispositivos de vallas actualmente configurados para su clúster.
ccs -h host --lsfenceopts
node1
, el cual muestra la salida de ejemplo.
[root@ask-03 ~]# ccs -h node1 --lsfenceopts
fence_rps10 - RPS10 Serial Switch
fence_vixel - No description available
fence_egenera - No description available
fence_xcat - No description available
fence_na - Node Assassin
fence_apc - Fence agent for APC over telnet/ssh
fence_apc_snmp - Fence agent for APC over SNMP
fence_bladecenter - Fence agent for IBM BladeCenter
fence_bladecenter_snmp - Fence agent for IBM BladeCenter over SNMP
fence_cisco_mds - Fence agent for Cisco MDS
fence_cisco_ucs - Fence agent for Cisco UCS
fence_drac5 - Fence agent for Dell DRAC CMC/5
fence_eps - Fence agent for ePowerSwitch
fence_ibmblade - Fence agent for IBM BladeCenter over SNMP
fence_ifmib - Fence agent for IF MIB
fence_ilo - Fence agent for HP iLO
fence_ilo_mp - Fence agent for HP iLO MP
fence_intelmodular - Fence agent for Intel Modular
fence_ipmilan - Fence agent for IPMI over LAN
fence_kdump - Fence agent for use with kdump
fence_rhevm - Fence agent for RHEV-M REST API
fence_rsa - Fence agent for IBM RSA
fence_sanbox2 - Fence agent for QLogic SANBox2 FC switches
fence_scsi - fence agent for SCSI-3 persistent reservations
fence_virsh - Fence agent for virsh
fence_virt - Fence agent for virtual machines
fence_vmware - Fence agent for VMware
fence_vmware_soap - Fence agent for VMware over SOAP API
fence_wti - Fence agent for WTI
fence_xvm - Fence agent for virtual machines
ccs -h host --lsfenceopts tipo_valla
fence_wti
.
[root@ask-03 ~]# ccs -h node1 --lsfenceopts fence_wti
fence_wti - Fence agent for WTI
Required Options:
Optional Options:
option: No description available
action: Fencing Action
ipaddr: IP Address or Hostname
login: Login Name
passwd: Login password or passphrase
passwd_script: Script to retrieve password
cmd_prompt: Force command prompt
secure: SSH connection
identity_file: Identity file for ssh
port: Physical plug number or name of virtual machine
inet4_only: Forces agent to use IPv4 addresses only
inet6_only: Forces agent to use IPv6 addresses only
ipport: TCP port to use for connection with device
verbose: Verbose mode
debug: Write debug information to given file
version: Display version information and exit
help: Display help and exit
separator: Separator for CSV created by operation list
power_timeout: Test X seconds for status change after ON/OFF
shell_timeout: Wait X seconds for cmd prompt after issuing command
login_timeout: Wait X seconds for cmd prompt after login
power_wait: Wait X seconds after issuing ON/OFF
delay: Wait X seconds before fencing is started
retry_on: Count of attempts to retry power on
ccs -h host --lsfencedev
5.7. Cómo configurar cercado para miembros de clúster
5.7.1. Cómo configurar un dispositivo de valla basado en energía simple para un nodo
apc
, el cual usa el agente de cercado fence_apc
.
- Añada un método de valla para el nodo y proporciónele un nombre.
ccs -h host --addmethod method node
Por ejemplo, para configurar un método de valla denominadoAPC
para el nodonode-01.example.com
en el archivo de configuración en el nodo de clusternode-01.example.com
, ejecute el siguiente comando:ccs -h node01.example.com --addmethod APC node01.example.com
- Añada una instancia de cercado para el método. Especifique el dispositivo de valla a usar para el nodo, el nodo al que aplica esta instancia, el nombre del método y las opciones para este método que son específicas a este nodo.
ccs -h host --addfenceinst nombredispositivoconmutación nodo método [opciones]
Por ejemplo, para configurar una instancia de valla en el archivo de configuración en el nodo de clusternode-01.example.com
que usa el puerto de alimentación 1 de interruptor APC en el dispositivo de valla llamadoapc
para nodo de cluster de vallanode-01.example.com
mediante el método denominadoAPC
, ejecute el siguiente comando:ccs -h node01.example.com --addfenceinst apc node01.example.com APC port=1
APC
. El dispositivo para el método de valla especifica apc
como el nombre de dispositivo, el cual es un dispositivo que ha sido previamente configurado con la opción --addfencedev
, como se describió en la Sección 5.5, “Cómo configurar dispositivos de valla”. Cada nodo es configurado con un número único de puerto de alimentación de interruptor APC: El número del puerto para node-01.example.com
es 1
, el número de puerto para node-02.example.com
es 2
, y el número de puerto para node-03.example.com
es 3
.
ccs -h node01.example.com --addmethod APC node01.example.com ccs -h node01.example.com --addmethod APC node02.example.com ccs -h node01.example.com --addmethod APC node03.example.com ccs -h node01.example.com --addfenceinst apc node01.example.com APC port=1 ccs -h node01.example.com --addfenceinst apc node02.example.com APC port=2 ccs -h node01.example.com --addfenceinst apc node03.example.com APC port=3
cluster.conf
después de añadir métodos de valla basados en energía” muestra un archivo de configuración cluster.conf
después de haber añadido estos métodos de cercado e instancias a cada nodo en el cluster.
Ejemplo 5.2. cluster.conf
después de añadir métodos de valla basados en energía
<cluster name="mycluster" config_version="3"> <clusternodes> <clusternode name="node-01.example.com" nodeid="1"> <fence> <method name="APC"> <device name="apc" port="1"/> </method> </fence> </clusternode> <clusternode name="node-02.example.com" nodeid="2"> <fence> <method name="APC"> <device name="apc" port="2"/> </method> </fence> </clusternode> <clusternode name="node-03.example.com" nodeid="3"> <fence> <method name="APC"> <device name="apc" port="3"/> </method> </fence> </clusternode> </clusternodes> <fencedevices> <fencedevice agent="fence_apc" ipaddr="apc_ip_example" login="login_example" name="apc" passwd="password_example"/> </fencedevices> <rm> </rm> </cluster>
5.7.2. Cómo configurar un dispositivo de valla basado en almacenamiento simple para un nodo
on
o enable
.
fence_node
(8).
sanswitch1
, el cual usa el agente de cercado fence_sanbox2
.
- Añada un método de valla para el nodo y proporciónele un nombre.
ccs -h host --addmethod method node
Por ejemplo, para configurar un método de valla denominadoSAN
para el nodonode-01.example.com
en el archivo de configuración en el nodo de clusternode-01.example.com
, ejecute el siguiente comando:ccs -h node01.example.com --addmethod SAN node01.example.com
- Añada una instancia de cercado para el método. Especifique el dispositivo de valla a usar para el nodo, el nodo al que aplica esta instancia, el nombre del método y las opciones para este método que son específicas a este nodo.
ccs -h host --addfenceinst nombredispositivoconmutación nodo método [opciones]
Por ejemplo, para configurar una instancia de valla en el archivo de configuración en el nodo de clusternode-01.example.com
que usa el puerto 11 de interruptor SAN en el dispositivo de valla llamadosanswitch1
para nodo de cluster de vallanode-01.example.com
mediante el método llamadoSAN
, ejecute el siguiente comando:ccs -h node01.example.com --addfenceinst sanswitch1 node01.example.com SAN port=11
- Para configurar la apertura para el dispositivo de vallas basado en almacenamiento en este nodo, ejecute el siguiente comando:
ccs -h host --addunfence nombredispositivoconmutación nodo action=on|off
SAN
. El dispositivo para método de vallas especifica sanswitch
como nombre de dispositivo, el cual es un dispositivo configurado anteriormente con la opción --addfencedev, como se describió en la Sección 5.5, “Cómo configurar dispositivos de valla”. Cada nodo se configura con un número de puerto físico SAN único: El número de puerto para node-01.example.com
es 11
, el número de puerto para node-02.example.com
es 12
, y el número de puerto para node-03.example.com
es 13
.
ccs -h node01.example.com --addmethod SAN node01.example.com ccs -h node01.example.com --addmethod SAN node02.example.com ccs -h node01.example.com --addmethod SAN node03.example.com ccs -h node01.example.com --addfenceinst sanswitch1 node01.example.com SAN port=11 ccs -h node01.example.com --addfenceinst sanswitch1 node02.example.com SAN port=12 ccs -h node01.example.com --addfenceinst sanswitch1 node03.example.com SAN port=13 ccs -h node01.example.com --addunfence sanswitch1 node01.example.com port=11 action=on ccs -h node01.example.com --addunfence sanswitch1 node02.example.com port=12 action=on ccs -h node01.example.com --addunfence sanswitch1 node03.example.com port=13 action=on
cluster.conf
Después de adicionar métodos de valla basados en almacenamientos” muestra un archivo de configuración cluster.conf
después de haber añadido métodos de cercado, instancias de cercado, para cada nodo en el cluster.
Ejemplo 5.3. cluster.conf
Después de adicionar métodos de valla basados en almacenamientos
<cluster name="mycluster" config_version="3"> <clusternodes> <clusternode name="node-01.example.com" nodeid="1"> <fence> <method name="SAN"> <device name="sanswitch1" port="11"/> </method> </fence> <unfence> <device name="sanswitch1" port="11" action="on"/> </unfence> </clusternode> <clusternode name="node-02.example.com" nodeid="2"> <fence> <method name="SAN"> <device name="sanswitch1" port="12"/> </method> </fence> <unfence> <device name="sanswitch1" port="12" action="on"/> </unfence> </clusternode> <clusternode name="node-03.example.com" nodeid="3"> <fence> <method name="SAN"> <device name="sanswitch1" port="13"/> </method> </fence> <unfence> <device name="sanswitch1" port="13" action="on"/> </unfence> </clusternode> </clusternodes> <fencedevices> <fencedevice agent="fence_sanbox2" ipaddr="san_ip_example" login="login_example" name="sanswitch1" passwd="password_example"/> </fencedevices> <rm> </rm> </cluster>
5.7.3. Cómo configurar un dispositivo de valla de respaldo
Nota
ccs
es el método de cercado primario y el segundo método que usted configure es el método de cercado de respaldo. Para cambiar el orden, debe retirar el método de cercado primario del archivo de configuración y luego añadirlo de nuevo.
ccs -h host --lsfenceinst [node]
apc
, el cual usa el agente de valla fence_apc
y un dispositivo de cercado de respaldo con un dispositivo de valla llamado sanswitch1
, el cual emplea el agente de cercado fence_sanbox2
. Puesto que el dispositivo sanswitch1
es un agente de cercado basado en almacenamiento, usted necesitará configurar la apertura de la valla para ese dispositivo.
- Añada el método de valla primario para el nodo, proporcionando un nombre para el método de valla.
ccs -h host --addmethod method node
Por ejemplo, para configurar un método de valla llamadoAPC
como el método primario para el nodonode-01.example.com
en el archivo de configuración en el nodo de clusternode-01.example.com
, ejecute el siguiente comando:ccs -h node01.example.com --addmethod APC node01.example.com
- Añada una instancia de valla para método primario. Debe especificar el dispositivo de valla a usar para el nodo, el nodo al que esta instancia aplica, el nombre del método y cualquier otra opción para este método que sea específica a este nodo:
ccs -h host --addfenceinst nombredispositivoconmutación nodo método [opciones]
Por ejemplo, para configurar una instancia de valla en el archivo de configuración en el nodo de clusternode-01.example.com
que usa el puerto de alimentación 1 de interruptor APC en el dispositivo de valla llamadoapc
para nodo de cluster de vallanode-01.example.com
mediante el método denominadoAPC
, ejecute el siguiente comando:ccs -h node01.example.com --addfenceinst apc node01.example.com APC port=1
- Añada un métod de valla de respaldo para el nodo, proporcionando un nombre para el método de valla.
ccs -h host --addmethod method node
Por ejemplo, para configurar un método de valla de respaldo llamadoSAN
para el nodonode-01.example.com
en el archivo de configuración en el nodo de clusternode-01.example.com
, ejecute el siguiente comando:ccs -h node01.example.com --addmethod SAN node01.example.com
- Añada una instancia de valla para el método de respaldo. Debe especificar el dispositivo de valla a usar para el nodo, el nodo al que se aplica esta instancia, el nombre del método y las opciones para este método que son específicas a este nodo:
ccs -h host --addfenceinst nombredispositivoconmutación nodo método [opciones]
Por ejemplo, para configurar una instancia de valla en el archivo de configuración en el nodo de clusternode-01.example.com
que usa el puerto 11 de interruptor SAN en el dispositivo de valla llamadosanswitch1
para nodo de cluster de vallanode-01.example.com
mediante el método llamadoSAN
, ejecute el siguiente comando:ccs -h node01.example.com --addfenceinst sanswitch1 node01.example.com SAN port=11
- Puesto que el dispositivo
sanswitch1
es un dispositivo basado en almacenamiento, debe configurar el sin-cercado para este dispositivo.ccs -h node01.example.com --addunfence sanswitch1 node01.example.com port=11 action=on
cluster.conf
Después de añadir métodos de valla de respaldo” muestra un archivo de configuración cluster.conf
tras haber añadido un método de respaldo primario basado en energía y un método de cercado basado en almacenaje para cada nodo en el cluster.
Ejemplo 5.4. cluster.conf
Después de añadir métodos de valla de respaldo
<cluster name="mycluster" config_version="3"> <clusternodes> <clusternode name="node-01.example.com" nodeid="1"> <fence> <method name="APC"> <device name="apc" port="1"/> </method> <method name="SAN"> <device name="sanswitch1" port="11"/> </method> </fence> <unfence> <device name="sanswitch1" port="11" action="on"/> </unfence </clusternode> <clusternode name="node-02.example.com" nodeid="2"> <fence> <method name="APC"> <device name="apc" port="2"/> </method> <method name="SAN"> <device name="sanswitch1" port="12"/> </method> </fence> <unfence> <device name="sanswitch1" port="12" action="on"/> </unfence </clusternode> <clusternode name="node-03.example.com" nodeid="3"> <fence> <method name="APC"> <device name="apc" port="3"/> </method> <method name="SAN"> <device name="sanswitch1" port="13"/> </method> </fence> <unfence> <device name="sanswitch1" port="13" action="on"/> </unfence </clusternode> </clusternodes> <fencedevices> <fencedevice agent="fence_apc" ipaddr="apc_ip_example" login="login_example" name="apc" passwd="password_example"/> <fencedevice agent="fence_sanbox2" ipaddr="san_ip_example" login="login_example" name="sanswitch1" passwd="password_example"/> </fencedevices> <rm> </rm> </cluster>
Nota
5.7.4. Cómo configurar un nodo con energía redundante
action
de off
antes de configurar cada uno de los dispositivos con un atributo de action
on
.
- Antes de configurar el cercado para un nodo con energía redundante, debe configurar cada uno de los interrruptores como un dispositivo de valla para el cluster. Para obtener mayor información sobre cómo configurar dispositivos de valla, consulte la Sección 5.5, “Cómo configurar dispositivos de valla”.Para imprimir una lista de dispositivos de valla actualmente configurados para su clúster, ejecute el siguiente comando:
ccs -h host --lsfencedev
- Añada un método de valla para el nodo y proporciónele un nombre.
ccs -h host --addmethod method node
Por ejemplo, para configurar un método de valla llamadoAPC-dual
para el nodonode-01.example.com
en el archivo de configuración en el nodo de clusternode-01.example.com
, ejecute el siguiente comando:ccs -h node01.example.com --addmethod APC-dual node01.example.com
- Añada una instancia de valla para la primera fuente de alimentación a un método de valla. Debe especificar el dispositivo de valla a usar para el nodo, el nodo al que esta instancia se aplica, el nombre del método y las opciones para este método que son específicas a este nodo. En este mometo configure el atributo
action
comooff
.ccs -h host --addfenceinst fencedevicename node method [options] action=off
Por ejemplo, para configurar una instancia de valla en el archivo de configuración en el nodo de clusternode-01.example.com
que utiliza el puerto1 de interruptor APC denominadoapc1
para cercar el nodo de clusternode-01.example.com
mediante el método denominadoAPC-dual
, y establecer el atributoaction
aoff
, ejecute el siguiente comando:ccs -h node01.example.com --addfenceinst apc1 node01.example.com APC-dual port=1 action=off
- Añada una instancia de valla para la segunda fuente de alimentación al método de valla. Debe especificar el dispositivo de valla a usar para el nodo, el nodo al que esta instancia se aplica, el nombre del método y las opciones para este método que sean específicas para este nodo. En este momento configure el atributo
action
comooff
para esta instancia también:ccs -h host --addfenceinst fencedevicename node method [options] action=off
Por ejemplo, para configurar una segunda instancia de valla en el archivo de configuración en el nodo de clusternode-01.example.com
que utiliza el puerto1 de interruptor APC en el dispositivo de valla denominadoapc2
para nodo de cluster de vallanode-01.example.com
con el mismo método que usted especificó para la primera instancia denominadoAPC-dual
, y configurando el atributoaction
aoff
, ejecute el siguiente comando:ccs -h node01.example.com --addfenceinst apc2 node01.example.com APC-dual port=1 action=off
- Añada otra instancia para primera fuente de alimentación para el método de valla, configurando el atributo
action
comoon
. Debe especificar el dispositivo de valla a usar para el nodo, el nodo al que se aplica esta instancia, el nombre del método y las opciones para este método que son específicas para dicho nodo y especificando el atributoaction
comoon
:ccs -h host --addfenceinst fencedevicename node method [options] action=on
Por ejemplo, para configurar una instancia de valla en el archivo de configuración en el nodo del clústernode-01.example.com
que utiliza el puerto 1 del interruptor APC en el dispositivo de valla denominadoapc1
para cercar nodo de clústernode-01.example.com
mediante el mismo método llamadoAPC-dual
, y estableciendo el atributoaction
aon
, ejecute el siguiente comando:ccs -h node01.example.com --addfenceinst apc1 node01.example.com APC-dual port=1 action=on
- Añada otra instancia para segunda fuente de alimentación para el método de valla especificando el atributo
action
comoon
para esta instancia. Debe especificar el dispositivo de valla a usar para el nodo, el nodo a la que se aplica esta instancia, el nombre del método y las opciones para este método que son específicas para este nodo como también el atributoaction
deon
.ccs -h host --addfenceinst fencedevicename node method [options] action=on
Por ejemplo, para configurar una segunda instancia de valla en el archivo de configuración en el nodo de clústernode-01.example.com
que utiliza el puerto 1 del interruptor APC en el dispositivo de valla denominadoapc2
para nodo de clúster de vallanode-01.example.com
con el mismo método que especificó para la primera instancia denominadoAPC-dual
y configurando el atributoaction
aon
, ejecute el siguiente comando:ccs -h node01.example.com --addfenceinst apc2 node01.example.com APC-dual port=1 action=on
cluster.conf
Después de añadir cercado de energía dual” muestra un archivo de configuración cluster.conf
después de haber añadido cercado para dos fuentes de alimentación a cada nodo en un clúster.
Ejemplo 5.5. cluster.conf
Después de añadir cercado de energía dual
<cluster name="mycluster" config_version="3"> <clusternodes> <clusternode name="node-01.example.com" nodeid="1"> <fence> <method name="APC-dual"> <device name="apc1" port="1"action="off"/> <device name="apc2" port="1"action="off"/> <device name="apc1" port="1"action="on"/> <device name="apc2" port="1"action="on"/> </method> </fence> </clusternode> <clusternode name="node-02.example.com" nodeid="2"> <fence> <method name="APC-dual"> <device name="apc1" port="2"action="off"/> <device name="apc2" port="2"action="off"/> <device name="apc1" port="2"action="on"/> <device name="apc2" port="2"action="on"/> </method> </fence> </clusternode> <clusternode name="node-03.example.com" nodeid="3"> <fence> <method name="APC-dual"> <device name="apc1" port="3"action="off"/> <device name="apc2" port="3"action="off"/> <device name="apc1" port="3"action="on"/> <device name="apc2" port="3"action="on"/> </method> </fence> </clusternode> </clusternodes> <fencedevices> <fencedevice agent="fence_apc" ipaddr="apc_ip_example" login="login_example" name="apc1" passwd="password_example"/> <fencedevice agent="fence_apc" ipaddr="apc_ip_example" login="login_example" name="apc2" passwd="password_example"/> </fencedevices> <rm> </rm> </cluster>
5.7.5. Cómo retirar métodos de valla e instancias de valla
ccs -h host --rmmethod método nodo
APC
y configurado para node01.example.com
del archivo de configuración de clúster en el nodo de clúster node01.example.com
, ejecute el siguiente comando:
ccs -h node01.example.com --rmmethod APC node01.example.com
ccs -h host --rmfenceinst nombredispositivodevalla nodo método
apc1
del método llamado APC-dual
configurado para node01.example.com
desde el archivo de configuración en el nodo de clúster node01.example.com
, ejecute el siguiente comando:
ccs -h node01.example.com --rmfenceinst apc1 node01.example.com APC-dual
5.8. Cómo configurar un dominio de conmutación
- Sin restricciones — Le permite especificar que un subconjunto de miembros es preferido, pero que un servicio de clúster asignado a este dominio puede ejecutarse en cualquier miembro disponible.
- Restringido — Le permite restringir los miembros que pueden ejecutar un determinado servicio de clúster. Si ninguno de los miembros en un dominio de conmutación está disponible, el servicio de clúster no puede ser iniciado (ya sea manualmente o por el software de clúster).
- Desordenado — Cuando un servicio de clúster es asignado a un dominio de conmutación desordenado, el miembro en el cual el servicio de clúster se ejecuta es seleccionado de los miembros de dominio de conmutación disponibles sin ningún orden de prioridad.
- Ordenado — Le permite especificar un orden de preferencia entre los miembros de dominio de conmutación. El miembro en la parte superior de la lista es el preferido, seguido del segundo en la lista y así sucesivamente.
- Recuperación — Le permite especificar si un servicio en dominio de conmutación debe conmutar al nodo que originalmente se está ejecutando antes de que el nodo falle. La configuración de esta característica es útil en las circunstancias en las que un nodo repetidamente falla y es parte de un dominio de de recuperación ordenado. En esas circunstancias, si el nodo es el nodo preferido en un dominio de conmutación, es posible que un servicio se recupere y conmute repetidamente entre el nodo preferido y otro nodo, causando un grave impacto en el rendimiento.
Nota
La característica de conmutación se aplica solamente si la conmutación ordenada está configurada.
Nota
Nota
httpd
), el cual requiere que establezca de forma idéntica la configuración en todos los miembros que ejecutan el servicio de clúster. En lugar de configurar todo el clúster para que ejecute el servicio de clúster, puede configurar únicamente los miembros en un dominio de conmutación restringido que usted asocie con el servicio de clúster.
Nota
- Para añadir un dominio de conmutación, ejecute el siguiente comando:
ccs -h host --addfailoverdomain nombre [restringido] [ordenado] [sinrecuperación]
Nota
El nombre debe ser lo suficientemente descriptivo para distinguir su propósito relativo a otros nombres usados en su clúster.Por ejemplo, el siguiente comando configura el dominio de conmutación denominadoexample_pri
ennode-01.example.com
sin restricciones, ordenado y que permite la recuperación:ccs -h node-01.example.com --addfailoverdomain example_pri ordered
- Para añadir un nodo a un dominio de conmutación, ejecute el siguiente comando:
ccs -h host --addfailoverdomainnode dominiodeconmutación nodo prioridad
Por ejemplo, para configurar el dominio de conmutaciónexample_pri
en el archivo de configuración ennode-01.example.com
para que contenganode-01.example.com
con una prioridad de 1,node-02.example.com
con una prioridad de 2, ynode-03.example.com
con una prioridad de 3, ejecute los siguientes comandos:ccs -h node-01.example.com --addfailoverdomainnode example_pri node-01.example.com 1 ccs -h node-01.example.com --addfailoverdomainnode example_pri node-02.example.com 2 ccs -h node-01.example.com --addfailoverdomainnode example_pri node-03.example.com 3
ccs -h host --lsfailoverdomain
ccs -h host --rmfailoverdomain nombre
ccs -h host --rmfailoverdomainnode dominiodeconmutación nodo
5.9. Cómo configurar recursos de clúster global
- Global — Recursos que están disponibles para cualquier servicio en el clúster.
- Específico-servicios — Recursos que están disponibles únicamente para un servicio.
ccs -h host --lsservices
ccs -h host --addresource resourcetype [resource options]
node01.example.com
. El nombre del recurso es web_fs
, el dispositivo de sistema de archivos es /dev/sdd2
, el punto de montaje del sistema de archivos es /var/www
, y el tipo de sistema de archivos es ext3
.
ccs -h node01.example.com --addresource fs name=web_fs device=/dev/sdd2 mountpoint=/var/www fstype=ext3
ccs -h host --rmresource tipoderecurso [opciones de recursos]
5.10. Adición de un servicio de clúster al clúster
- Añadir un servicio del clúster con el siguiente comando:
ccs -h host --addservice servicename [service options]
Nota
Use un nombre descriptivo que distinga claramente el servicio de otros servicios en el clúster.Al añadir un servicio a la configuración de un clúster, puede configurar los siguientes atributos:autostart
— Especifica si debe autoiniciar el servicio o no, cuando el clúster inicia. Use "1" para habilitar y "0" para inhabilitar; el predeterminado es habilitado.domain
— Especifica un dominio de conmutación (si se requiere).exclusive
— Especifica una política en la que el servicio solamente se ejecuta en nodos que no tienen otros servicios ejecutándose en ellos.recovery
— Especifica una política de recuperación para el servicio. Las opciones son reubicar, reiniciar, inhabilitar, o reiniciar-inhabilitar el servicio. La política de recuperación indica que el sistema debe intentar reiniciar el servicio fallido antes de tratar de reubicar el servicio a otro nodo. La política de reubicación indica que el sistema debe intentar reiniciar el servicio en un nodo diferente. La política indica que el sistema debe inhabilitar el grupo de recursos si algún componente falla. La política reiniciar-inhabilitar indica que el servicio debe intentar reiniciar el servicio en su lugar si falla, pero si al reiniciar el servicio falla, el servicio se inhabilitará en lugar de ser desplazado a otro host en el clúster.Si seleccionao como política de recuperación para el servicio, puede especificar el número máximo de fallas de reinicio antes de reubicar o desactivar el servicio y el tiempo en segundos después del cual olvida reiniciar.
Por ejemplo, para añadir al archivo de configuración en un nodo de clusternode-01.example.com
denominadoexample_apache
que utiliza el dominio de conmutación por errorexample_pri
, y tiene una directiva de recuperación derelocate
, ejecute el siguiente comando:ccs -h node-01.example.com --addservice example_apache domain=example_pri recovery=relocate
Al configurar servicios para un clúster, puede hallar útil ver un listado de servicios disponibles para su clúster y las opciones disponibles para cada servicio. Para obtener mayor información sobre cómo usar el comandoccs
para imprimir una lista de los servicios y opciones disponibles, consulte la Sección 5.11, “Listado de cluster disponibles ”. - Añadir recursos al servicio con el siguiente comando:
ccs -h host --addsubservice servicename subservice [service options]
Según el tipo de recursos que usted desee utilizar, rellene el servicio con recursos globales o específicos del servicio. Para añadir un recurso global, use la opción--addsubservice
deccs
para añadir un recurso. Por ejemplo, para añadir un recurso de sistema de archivos global llamadoweb_fs
al servicio llamadoexample_apache
en el archivo de configuración de clusternode-01.example.com
, ejecute el siguiente comando:ccs -h node01.example.com --addsubservice example_apache fs ref=web_fs
Para añadir un recurso específico del servicio para el servicio, necesita especificar todas las opciones del servicio. Por ejemplo, si no lo ha definido previamenteweb_fs
como un servicio global, podría añadirlo como un recurso específico del servicio con el siguiente comando:ccs -h node01.example.com --addsubservice example_apache fs name=web_fs device=/dev/sdd2 mountpoint=/var/www fstype=ext3
- Para añadir un servicio hijo al servicio, debe usar la opción
--addsubservice
del comandoccs
, especificando las opciones de servicio.Si necesita añadir servicios dentro de una estructura de árbol de dependencias, use dos puntos (":") para separar elementos y paréntesis para identificar subservicios del mismo tipo. El siguiente ejemplo añade un tercer servicionfsclient
de un servicionfsclient
es en sí mismo un subservicio de un servicionfsclient
el cual es un subservicio de un servicio llamadoservice_a
:ccs -h node01.example.com --addsubservice service_a nfsclient[1]:nfsclient[2]:nfsclient
Nota
Si está añadiendo un recurso de servicio de Samba, añádalo directamente al servicio, no como un hijo de otro recurso.
Nota
/sbin/ip addr show
en un nodo de clúster (en lugar del comando obsoleto ifconfig
). La siguiente salida muestra el comando /sbin/ip addr show
ejecutado en un nodo que ejecuta un servicio de clúster:
1: lo: <LOOPBACK,UP> mtu 16436 qdisc noqueue link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00 inet 127.0.0.1/8 scope host lo inet6 ::1/128 scope host valid_lft forever preferred_lft forever 2: eth0: <BROADCAST,MULTICAST,UP> mtu 1356 qdisc pfifo_fast qlen 1000 link/ether 00:05:5d:9a:d8:91 brd ff:ff:ff:ff:ff:ff inet 10.11.4.31/22 brd 10.11.7.255 scope global eth0 inet6 fe80::205:5dff:fe9a:d891/64 scope link inet 10.11.4.240/22 scope global secondary eth0 valid_lft forever preferred_lft forever
ccs -h host --rmservice servicename
ccs -h host --rmsubservice servicename subservice [service options]
5.11. Listado de cluster disponibles
ccs
para imprimir una lista de servicios que están disponibles para un cluster. Puede también usar el comando ccs
para imprimir una lista de las opciones que puede especificar para un servicio específico.
ccs -h host --lsserviceopts
node1
, que muestra la salida de ejemplo.
[root@ask-03 ~]# ccs -h node1 --lsserviceopts
service - Defines a service (resource group).
ASEHAagent - Sybase ASE Failover Instance
SAPDatabase - SAP database resource agent
SAPInstance - SAP instance resource agent
apache - Defines an Apache web server
clusterfs - Defines a cluster file system mount.
fs - Defines a file system mount.
ip - This is an IP address.
lvm - LVM Failover script
mysql - Defines a MySQL database server
named - Defines an instance of named server
netfs - Defines an NFS/CIFS file system mount.
nfsclient - Defines an NFS client.
nfsexport - This defines an NFS export.
nfsserver - This defines an NFS server resource.
openldap - Defines an Open LDAP server
oracledb - Oracle 10g Failover Instance
orainstance - Oracle 10g Failover Instance
oralistener - Oracle 10g Listener Instance
postgres-8 - Defines a PostgreSQL server
samba - Dynamic smbd/nmbd resource agent
script - LSB-compliant init script as a clustered resource.
tomcat-6 - Defines a Tomcat server
vm - Defines a Virtual Machine
action - Overrides resource action timings for a resource instance.
ccs -h host --lsserviceopts tipo_servicio
vm
.
[root@ask-03 ~]# ccs -f node1 --lsserviceopts vm
vm - Defines a Virtual Machine
Required Options:
name: Name
Optional Options:
domain: Cluster failover Domain
autostart: Automatic start after quorum formation
exclusive: Exclusive resource group
recovery: Failure recovery policy
migration_mapping: memberhost:targethost,memberhost:targethost ..
use_virsh: If set to 1, vm.sh will use the virsh command to manage virtual machines instead of xm. This is required when using non-Xen virtual machines (e.g. qemu / KVM).
xmlfile: Full path to libvirt XML file describing the domain.
migrate: Migration type (live or pause, default = live).
path: Path to virtual machine configuration files.
snapshot: Path to the snapshot directory where the virtual machine image will be stored.
depend: Top-level service this depends on, in service:name format.
depend_mode: Service dependency mode (soft or hard).
max_restarts: Maximum restarts for this service.
restart_expire_time: Restart expiration time; amount of time before a restart is forgotten.
status_program: Additional status check program
hypervisor: Hypervisor
hypervisor_uri: Hypervisor URI (normally automatic).
migration_uri: Migration URI (normally automatic).
__independent_subtree: Treat this and all children as an independent subtree.
__enforce_timeouts: Consider a timeout for operations as fatal.
__max_failures: Maximum number of failures before returning a failure to a status check.
__failure_expire_time: Amount of time before a failure is forgotten.
__max_restarts: Maximum number restarts for an independent subtree before giving up.
__restart_expire_time: Amount of time before a failure is forgotten for an independent subtree.
5.12. Recursos de máquinas virtuales
ccs
, puede usar la opción --addvm
(en lugar de la opción addservice
). Así garantiza que el recurso de vm
se defina directamente bajo el nodo de configuración rm
en el archivo de configuración de clúster.
name
y un atributo path
. El atributo name
debe coincidir con el nombre del dominio libvirt
y el atributo path
debe especificar el directorio donde se almacenan las definiciones de máquina virtual compartidas .
Nota
path
en el archivo de configuración de clúster es una especificación de ruta o nombre de directorio, no una ruta a un archivo individual.
/mnt/vm_defs
, el siguiente comando definirá una máquina virtual denominada guest1
:
# ccs -h node1.example.com --addvm guest1 path=/mnt/vm_defs
rm
en el archivo cluster.conf
:
<vm name="guest1" path="/mnt/vm_defs"/>
5.13. Cómo configurar un disco de cuórum
Nota
ccs -h host --setquorumd [quorumd options]
--setquorumd
a sus valores predeterminados, así como se describe en la Sección 5.1.5, “Comandos que sobrescriben los parámetros anteriores”.
/usr/share/cluster/cluster.rng
, y el esquema anotado en /usr/share/doc/cman-X.Y.ZZ/cluster_conf.html
.
Parámetro | Descripción |
---|---|
La frecuencia de ciclos de lectura/escritura, en segundos. | |
El número de votos de daemon de cuórum se anuncia a cman cuando tiene un puntaje suficientemente alto. | |
El número de ciclos que un nodo debe perder para ser declarado muerto. | |
El puntaje mínimo para considerar 'vivo' a un nodo. Si se omite o establece a 0, la función predeterminada, floor((n+1)/2) , se utiliza, donde n es la suma de puntajes de heurística. El valor de nunca debe exceder la suma de los puntajes heurísticos; de lo contrario, el disco de cuórum no puede estar disponible. | |
El dispositivo de almacenamiento que el daemon de cuórum utiliza. El dispositivo debe ser el mismo en todos los nodos. | |
Especifica la etiqueta de disco de cuórum creado por la herramienta mkqdisk . Si este campo contiene una entrada, la etiqueta sobrescribe el campo de . Si el campo es utilizado, el daemon de cuórum lee /proc/partitions y chequea las firmas de qdisk en cada bloque de dispositivo encontrado, comparando las etiquetas con la etiqueta especificada. Esto es muy útil en configuraciones en las que el nombre de dispositivo de cuórum difiere entre nodos. |
ccs -h host --addheuristic [heuristic options]
Parámetro | Descripción |
---|---|
La ruta al programa utilizado para determinar si esta heurística está disponible. Puede ser cualquiera que pueda ser ejecutada por /bin/sh -c . Un valor de retorno de 0 indica éxito; cualquier otro indica falla. Este parámetro es obligatorio para usar un disco de cuórum. | |
La frecuencia (en segundos) en la cual se sondea la heurística. El intervalo predeterminado para cada heurística es de 2 segundos. | |
El peso de esta heurística. Tenga cuidado al determinar el puntaje para heurística. El puntaje predeterminado para cada heurística es de 1. | |
El número de fallas consecutivas antes de que esta heurística sea declarada no disponible. |
ccs -h host --lsquorum
ccs -h host rmheuristic [opciones de heurística]
Nota
qdiskd
en cada nodo.
5.14. Varios de configuración de clúster
ccs
para configurar lo siguiente:
ccs
para establecer los parámetros de configuración de clúster avanzados, incluyendo las opciones de totem
, dlm
, rm
y cman
. Para obtener información sobre configuración de estos parámetros, consulte la página de manual ccs
(8) y el esquema de archivo de configuración de clúster en /usr/share/doc/cman-X.Y.ZZ/cluster_conf.html
.
ccs -h host --lsmisc
5.14.1. Versión de configuración de clúster
1
cuando usted crea un archivo de configuración de clúster. Sin embargo, si necesita establecerlo a otro valor, puede especificarlo con el siguiente comando:
ccs -h host --setversion n
ccs -h host --getversion
ccs -h host --incversion
5.14.2. Configuración de multidifusión
- Para IPV4 — La dirección formada es 239.192. más los 16 bits inferiores generados por el software de adición de alta disponibilidad de Red Hat.
- Para IPV6 — La dirección formada es FF15:: más la inferior de 16 bits generada por software de adición de alta disponibilidad de Red Hat.
Nota
cman
genera para cada clúster. Para ver el ID de clúster, ejecute el comando cman_tool status
en un nodo de clúster.
ccs -h host --setmulticast direcciónmultidifusión
--setmulticast
a sus valores predeterminados, así como se describe en la Sección 5.1.5, “Comandos que sobrescriben los parámetros anteriores”.
cman
. De lo contrario, el uso de una dirección de multidifusión fuera de ese rango puede causar resultados impredecibles. Por ejemplo, el uso de 224.0.0.x (la cual es "Todos los hosts en la red") puede que no se pueda dirigir correctamente, o incluso que no se pueda dirigir en absoluto por ningún hardware.
ccs
, consulte la Sección 6.2, “Cómo iniciar y detener un clúster”.
Nota
--setmulticast
de ccs
pero no especifique una dirección de multidifusión:
ccs -h host --setmulticast
5.14.3. Cómo configurar un clúster de dos nodos
ccs -h host --setcman two_node=1 expected_votes=1
--setcman
a sus valores predeterminados, así como se describe en la Sección 5.1.5, “Comandos que sobrescriben los parámetros anteriores”.
ccs --setcman
para añadir, retirar o modificar la opción two_node
, debe reiniciar el cluster para que este cambio se efectúe. Para obtener información sobre cómo iniciar o detener un clúster con el comando ccs
consulte, Sección 6.2, “Cómo iniciar y detener un clúster”.
5.14.4. Registro
/var/log/cluster/daemon.log
.
ccs -h host --setlogging [opciones de registro]
# ccs -h node1.example.com --setlogging debug=on
--setlogging
a sus valores predeterminados, así como se describe en la Sección 5.1.5, “Comandos que sobrescriben los parámetros anteriores”.
ccs -h host --addlogging [logging daemon options]
corosync
y fenced
.
#ccs -h node1.example.com --addlogging name=corosync debug=on
#ccs -h node1.example.com --addlogging name=fenced debug=on
ccs -h host --rmlogging name=clusterprocess
fenced
.
ccs -h host --rmlogging name=fenced
cluster.conf
(5).
5.14.5. Cómo configurar el protocolo de anillo redundante
--addalt
del comando ccs
:
ccs -h host --addalt nombre_nodo nombre_alt
clusternet-node1-eth2
para el nodo de clúster clusternet-node1-eth1
:
# ccs -h clusternet-node1-eth1 --addalt clusternet-node1-eth1 clusternet-node1-eth2
--setaltmulticast
del comando ccs
:
ccs -h host --setaltmulticast [dirección_multidifusión_alt] [opciones_multidifusión_alt].
cluster.conf
en nodo clusternet-node1-eth1
:
ccs -h clusternet-node1-eth1 --setaltmulticast 239.192.99.88 port=888 ttl=3
--setaltmulticast
del comando ccs
pero no especifique una dirección multidifusión. Observe que al ejecutar este comando restablece las demás propiedades que usted puede establecer a sus valores predeterminados con la opción --setaltmulticast
, así como se describe en la Sección 5.1.5, “Comandos que sobrescriben los parámetros anteriores”.
5.15. Cómo propagar el archivo de configuración a los nodos de clúster
ccs -h host --sync --activate
ccs -h host --checkconf
ccs -f archivo -h host --setconf
ccs -f file --checkconf
Capítulo 6. Administración de adición de alta disponibilidad de Red Hat con ccs
ccs
, el cual está soportado a partir del lanzamiento de Red Hat Enterprise Linux 6.1 y posterior. Este capítulo consta de las siguientes secciones:
6.1. Administrar nodos de clúster
ccs
:
6.1.1. Hacer que un nodo abandone o se una a un clúster
ccs
para hacer que el nodo abandone el clúster deteniendo los servicios de clúster en ese nodo. Para que un nodo abandone un clúster no se necesita retirar del nodo la información de configuración de clúster. Al hacer que el nodo abandone el clúster evitará que el nodo se conecte automáticamente al clúster en el rearranque.
-h
:
ccs -h host --stop
--rmnode
del comando ccs
, como se describión en Sección 5.4, “Cómo crear un clúster”.
-h
:
ccs -h host --start
6.1.2. Añadir un miembro a un clúster en ejecución
6.2. Cómo iniciar y detener un clúster
ccs
para detener un clúster con el siguiente comando para detener los servicios de clúster en todos los nodos en el clúster:
ccs -h host --stopall
ccs
para iniciar un clúster que no está ejecutándose mediante el siguiente comando para iniciar servicios de clúster en todos los nodos en el clúster:
ccs -h host --startall
6.3. Cómo diagnosticar y corregir problemas en un clúster
ccs
.
ccs -h host --checkconf
ccs -f file --checkconf
Capítulo 7. Configuración de adición de alta disponibilidad de Red Hat con herramientas de línea de comandos
/etc/cluster/cluster.conf
) y usar las herramientas de la línea de comandos. El capítulo proporciona procedimientos sobre la creación de una sola sección de archivo de configuración a la vez, iniciando por un archivo de muestra provisto en el capítulo. Como alternativa para iniciar con el archivo de muestra provisto aquí, puede copiar un archivo de configuración de esqueleto de la página de manual cluster.conf
. No obstante, al hacerlo no se alinearía necesariamente con información provista en los procedimientos subsiguientes a este capítulo. Hay otras formas de crear y configurar un archivo de configuración de clúster: este capítulo provee procedimientos para la creación de un archivo de configuración de una sección a la vez. Tenga en cuenta que se trata solo del inicio para desarrollar un archivo de configuración que se ajuste a sus necesidades de agrupamiento.
Importante
Importante
cluster.conf
más utilizados. Para obtener una lista y descripción completa de cluster.conf
, consulte el esquema de cluster en /usr/share/cluster/cluster.rng
, y el esquema anotado en /usr/share/doc/cman-X.Y.ZZ/cluster_conf.html
(por ejemplo, /usr/share/doc/cman-3.0.12/cluster_conf.html
).
Importante
cman_tool version-r
para propagar un clúster a través de un clúster. El uso de ese comando requiere que ricci
se esté ejecutando. El uso de ricci requiere una contraseña la primera vez que usted interactúa con ricci desde una máquina específica. Para obtener información sobre el servicio de ricci
, consulte la Sección 2.13, “Consideraciones para ricci
”.
Nota
7.1. Tareas de configuración
- Creación de un clúster. Consulte la Sección 7.2, “Creación de un archivo de configuración de clúster básico”.
- Configuración de vallas. Consulte la Sección 7.3, “Configuración de vallas”.
- Configuración de dominios de conmutación. Consulte la Sección 7.4, “Configuración de dominios de conmutación”.
- Configuración de servicios de alta disponibilidad. Consulte la Sección 7.5, “Configuración de servicios de alta disponibilidad”.
- Verificación de una configuración. Consulte la Sección 7.8, “Verificación de una configuración”.
7.2. Creación de un archivo de configuración de clúster básico
/etc/cluster/cluster.conf
) y empezar a ejecutar la adición de alta disponibilidad. Como punto de partida únicamente, esta sección describe cómo crear un archivo de configuración de clúster de esqueleto sin cercado, dominios de conmutación y servicios de alta disponibilidad. Las siguientes secciones describen cómo configurar esas partes del archivo de configuración.
Importante
- En cualquier nodo en el clúster, cree
/etc/cluster/cluster.conf
, mediante la plantilla del ejemplo en Ejemplo 7.1, “Muestra decluster.conf
: Configuración básica”. - (Opcional) Si está configurando un clúster de dos nodos, puede adicionar la línea al archivo de configuración para que un nodo único pueda mantener cuórum (por ejemplo, si un nodo falla):
<cman two_node="1" expected_votes="1"/>
Cuando añada o retire la opcióntwo_node
del archivocluster.conf
, debe reiniciar el clúster para que el cambio se efectúe al actualizar la configuración. Para obtener información sobre cómo actualizar y configurar un clúster, consulte la Sección 8.4, “Cómo actualizar una configuración”. Para ver un ejemplo de especificación de la opcióntwo_node
, consulte el Ejemplo 7.2, “Muestra decluster.conf
: Configuración básica de dos nodos”. - Especifique el nombre de clúster y el número de versión de configuración mediante los atributos de
cluster
:name
yconfig_version
(consulte el Ejemplo 7.1, “Muestra decluster.conf
: Configuración básica” o Ejemplo 7.2, “Muestra decluster.conf
: Configuración básica de dos nodos”). - En la sección
clusternodes
, especifique el nombre de nodos y el ID de nodo de cada nodo mediante los atributos declusternode
:name
ynodeid
. - Guarde
/etc/cluster/cluster.conf
. - Valide el archivo con el esquema de clúster (
cluster.rng
) mediante el comandoccs_config_validate
. Por ejemplo:[root@example-01 ~]#
ccs_config_validate
Configuration validates - Propague el archivo de configuración a
/etc/cluster/
en cada nodo de clúster. Por ejemplo, puede propagar el archivo a otros nodos de clúster mediante el comandoscp
.Nota
La propagación del archivo de configuración de clúster es necesaria de esta manera la primera vez que se cree el clúster. Una vez que el clúster esté instalado y ejecutándose, el archivo de configuración de clúster puede propagarse concman_tool version -r
. Se puede usar el comandoscp
para propagar un archivo de configuración actualizado; sin embargo, el software de clúster debe detenerse en todos los nodos mientras use el comandoscp
. Además, debe ejecutarccs_config_validate
si propaga un archivo de configuración actualizado a través descp
.Nota
Aunque hay otros elementos y atributos presentes en el archivo de configuración de muestra, por ejemplo,fence
yfencedevices
, no hay necesidad de poblarlos ahora. Procedimientos posteriores en este capítulo proporcionan información acerca de cómo especificar otros elementos y atributos. - Inicie el clúster. En cada nodo de clúster ejecute el siguiente comando:
service cman start
Por ejemplo:[root@example-01 ~]#
service cman start
Starting cluster: Checking Network Manager... [ OK ] Global setup... [ OK ] Loading kernel modules... [ OK ] Mounting configfs... [ OK ] Starting cman... [ OK ] Waiting for quorum... [ OK ] Starting fenced... [ OK ] Starting dlm_controld... [ OK ] Starting gfs_controld... [ OK ] Unfencing self... [ OK ] Joining fence domain... [ OK ] - En cualquier nodo de clúster, ejecute
cman_tool nodes
para verificar los nodos que funcionan como miembros en el clúster (representado como "M" en la columna de estatus, "Sts"). Por ejemplo:[root@example-01 ~]#
cman_tool nodes
Node Sts Inc Joined Name 1 M 548 2010-09-28 10:52:21 node-01.example.com 2 M 548 2010-09-28 10:52:21 node-02.example.com 3 M 544 2010-09-28 10:52:21 node-03.example.com - Si el clúster está ejecutándose, prosiga a la Sección 7.3, “Configuración de vallas”.
Ejemplos de configuración básica
cluster.conf
: Configuración básica” y Ejemplo 7.2, “Muestra de cluster.conf
: Configuración básica de dos nodos” (para un clúster de dos nodos) cada uno proporciona una muestra básica de un archivo de configuración de clúster como un punto de inicio. Los procedimientos siguientes en este capítulo proporcionan información sobre configuración de cercado y servicios de alta disponibilidad.
Ejemplo 7.1. Muestra de cluster.conf
: Configuración básica
<cluster name="mycluster" config_version="2"> <clusternodes> <clusternode name="node-01.example.com" nodeid="1"> <fence> </fence> </clusternode> <clusternode name="node-02.example.com" nodeid="2"> <fence> </fence> </clusternode> <clusternode name="node-03.example.com" nodeid="3"> <fence> </fence> </clusternode> </clusternodes> <fencedevices> </fencedevices> <rm> </rm> </cluster>
Ejemplo 7.2. Muestra de cluster.conf
: Configuración básica de dos nodos
<cluster name="mycluster" config_version="2"> <cman two_node="1" expected_votes="1"/> <clusternodes> <clusternode name="node-01.example.com" nodeid="1"> <fence> </fence> </clusternode> <clusternode name="node-02.example.com" nodeid="2"> <fence> </fence> </clusternode> </clusternodes> <fencedevices> </fencedevices> <rm> </rm> </cluster>
El valor de consenso
para totem
en un clúster de dos nodos
consensus
en la pestaña totem
en el archivo cluster.conf
para que el valor de consensus
se calcule automáticamente. Cuando el valor de consensus
se calcula de esa forma, se aplican las siguientes reglas:
- Si hay dos nodos o menos, el valor de
consensus
será (símbolo * 0.2), con un techo de 2.000 ms y un piso de 200 ms. - Si hay tres o más nodos, el valor de
consensus
será (símbolo + 2.000 ms)
cman
configure su tiempo de espera de consenso en esta forma, entonces al mover de dos a tres (o más) nodos para más tarde, deberá reiniciar el clúster, ya que el tiempo de expiración necesitará cambiar a un valor mayor basado en el tiempo de espera del símbolo.
cluster.conf
así:
<totem token="X" consensus="X + 2000" />
cman
, el número de nodos físicos es lo que importa y no la presencia de la directiva de two_node=1
en el archivo cluster.conf
.
7.3. Configuración de vallas
cluster.conf
así:
- En la sección
fencedevices
, especifique cada dispositivo de vallas, mediante un elementofencedevice
y atributos dependientes de dispositivo de vallas. El Ejemplo 7.3, “Dispositivo de vallas APC añadido acluster.conf
” presenta un ejemplo de archivo de configuración con una valla APC añadida. - En la sección
clusternodes
, dentro del elementofence
de cada sección declusternode
, especifique cada método de valla del nodo. Especifique el nombre de método de valla, mediante el atributomethod
,name
. Especifique el dispositivo de vallas para cada método de valla, mediante el elementodevice
y sus atributos,name
y parámetros específicos de dispositivo de vallas. El Ejemplo 7.4, “Métodos de vallas añadidos acluster.conf
” muestra un método de vallas con un dispositivo de valla para cada nodo en el clúster. - Para métodos de valla sin energía (es decir, SAN/cercado de almacenamiento), en la sección
clusternodes
, añada una secciónunfence
. De esta manera, garantiza que el nodo cercado no sea reactivado hasta que haya sido reiniciado. Para obtener mayor información sobre cómo quitar la valla a un nodo, consulte la página de manualfence_node
(8).La secciónunfence
no contiene las seccionesmethod
como la sección defence
las contiene. Esta sección contiene referencias directamente dedevice
, las cuales copian en espejo las secciones de dispositivo correspondientes afence
, con la adición notable de la acción explícita (action
) de "on" (encendido) o "enable" (activado). El mismofencedevice
es referenciado por las líneas dedevice
fence
yunfence
y los mismos argumentos por nodo deben repetirse.Al especificar el atributoaction
como "encendido " o "habilitado", habilita al nodo durante el reinicio. Ejemplo 7.4, “Métodos de vallas añadidos acluster.conf
” y Ejemplo 7.5, “cluster.conf
: Métodos de vallas múltiples por nodo” incluyen ejemplos de elementos y atributosunfence
.Para obtener mayor información sobreunfence
, consulte la página de manualfence_node
. - Actualice el atributo
config_version
aumentando su valor (por ejemplo, cambiar deconfig_version="2"
aconfig_version="3">
). - Guarde
/etc/cluster/cluster.conf
. - (Opcional) Valide el archivo actualizado con el esquema de clúster (
cluster.rng
) ejecutando el comandoccs_config_validate
. Por ejemplo:[root@example-01 ~]#
ccs_config_validate
Configuration validates - Ejecute el comando
cman_tool version -r
para propagar la configuración a los nodos de clústeres restantes. Así también ejecutará la validación adicional. Es necesario quericci
esté en ejecución en cada nodo de clúster para que pueda propagar información actualizada de clúster. - Verifique si el archivo de configuración actualizado se ha propagado.
- Prosiga a la Sección 7.4, “Configuración de dominios de conmutación”.
fenced
, el daemon de valla, intentará el siguiente método y continúa desplazándose a través de métodos hasta que alguno lo logra.
fenced
ejecuta el agente una vez para cada línea de dispositivo de valla; todas deben lograrse para que se considere un cercado correcto.
fence_apc
). Además, puede obtener mayor información sobre parámetros de cercado en el Apéndice A, Parámetros de dispositivos de valla, los agentes de valla en /usr/sbin/
, el esquema de cluster en /usr/share/cluster/cluster.rng
, y el esquema anotado en /usr/share/doc/cman-X.Y.ZZ/cluster_conf.html
(por ejemplo, /usr/share/doc/cman-3.0.12/cluster_conf.html
).
Ejemplos de configuración de vallas
Nota
Ejemplo 7.3. Dispositivo de vallas APC añadido a cluster.conf
<cluster name="mycluster" config_version="3"> <clusternodes> <clusternode name="node-01.example.com" nodeid="1"> <fence> </fence> </clusternode> <clusternode name="node-02.example.com" nodeid="2"> <fence> </fence> </clusternode> <clusternode name="node-03.example.com" nodeid="3"> <fence> </fence> </clusternode> </clusternodes> <fencedevices> <fencedevice agent="fence_apc" ipaddr="apc_ip_example" login="login_example" name="apc" passwd="password_example"/> </fencedevices> <rm> </rm> </cluster>
fencedevice
) ha sido agregado al elemento fencedevices
, el cual especifica el agente de vallas (agent
) como fence_apc
, la dirección IP (ipaddr
) como apc_ip_example
, el ingreso (login
) como login_example
, el nombre de dispositivo de vallas (name
) como apc
, y la contraseña (passwd
) como password_example
.
Ejemplo 7.4. Métodos de vallas añadidos a cluster.conf
<cluster name="mycluster" config_version="3"> <clusternodes> <clusternode name="node-01.example.com" nodeid="1"> <fence> <method name="APC"> <device name="apc" port="1"/> </method> </fence> </clusternode> <clusternode name="node-02.example.com" nodeid="2"> <fence> <method name="APC"> <device name="apc" port="2"/> </method> </fence> </clusternode> <clusternode name="node-03.example.com" nodeid="3"> <fence> <method name="APC"> <device name="apc" port="3"/> </method> </fence> </clusternode> </clusternodes> <fencedevices> <fencedevice agent="fence_apc" ipaddr="apc_ip_example" login="login_example" name="apc" passwd="password_example"/> </fencedevices> <rm> </rm> </cluster>
method
) ha sido agregado a cada nodo. El nombre T del método de vallas (name
) para cada nodo es APC
. El dispositivo (device
) para el método de valla en cada nodo especifica el nombre (name
) como apc
y un único número de puerto de interruptor APC (port
) para cada nodo. Por ejemplo, el número de puerto para nodo-01.example.com es 1
(port="1"
). El nombre de dispositivo para nodo (device name="apc"
) señala al dispositivo de valla por el nombre (name
) de apc
en esta línea del elemento fencedevices
: fencedevice agent="fence_apc"
ipaddr="apc_ip_example" login="login_example"
name="apc" passwd="password_example"
.
Ejemplo 7.5. cluster.conf
: Métodos de vallas múltiples por nodo
<cluster name="mycluster" config_version="3"> <clusternodes> <clusternode name="node-01.example.com" nodeid="1"> <fence> <method name="APC"> <device name="apc" port="1"/> </method> <method name="SAN"> <device name="sanswitch1" port="11"/> </method> </fence> <unfence> <device name="sanswitch1" port="11" action="on"/> </unfence </clusternode> <clusternode name="node-02.example.com" nodeid="2"> <fence> <method name="APC"> <device name="apc" port="2"/> </method> <method name="SAN"> <device name="sanswitch1" port="12"/> </method> </fence> <unfence> <device name="sanswitch1" port="12" action="on"/> </unfence </clusternode> <clusternode name="node-03.example.com" nodeid="3"> <fence> <method name="APC"> <device name="apc" port="3"/> </method> <method name="SAN"> <device name="sanswitch1" port="13"/> </method> </fence> <unfence> <device name="sanswitch1" port="13" action="on"/> </unfence </clusternode> </clusternodes> <fencedevices> <fencedevice agent="fence_apc" ipaddr="apc_ip_example" login="login_example" name="apc" passwd="password_example"/> <fencedevice agent="fence_sanbox2" ipaddr="san_ip_example" login="login_example" name="sanswitch1" passwd="password_example"/> </fencedevices> <rm> </rm> </cluster>
Ejemplo 7.6. cluster.conf
: Cercado, múltiples puertos de multirutas
<cluster name="mycluster" config_version="3"> <clusternodes> <clusternode name="node-01.example.com" nodeid="1"> <fence> <method name="SAN-multi"> <device name="sanswitch1" port="11"/> <device name="sanswitch2" port="11"/> </method> </fence> <unfence> <device name="sanswitch1" port="11" action="on"/> <device name="sanswitch2" port="11" action="on"/> </unfence </clusternode> <clusternode name="node-02.example.com" nodeid="2"> <fence> <method name="SAN-multi"> <device name="sanswitch1" port="12"/> <device name="sanswitch2" port="12"/> </method> </fence> <unfence> <device name="sanswitch1" port="12" action="on"/> <device name="sanswitch2" port="12" action="on"/> </unfence </clusternode> <clusternode name="node-03.example.com" nodeid="3"> <fence> <method name="SAN-multi"> <device name="sanswitch1" port="13"/> <device name="sanswitch2" port="13"/> </method> </fence> <unfence> <device name="sanswitch1" port="13" action="on"/> <device name="sanswitch2" port="13" action="on"/> </unfence </clusternode> </clusternodes> <fencedevices> <fencedevice agent="fence_sanbox2" ipaddr="san_ip_example" login="login_example" name="sanswitch1" passwd="password_example"/> <fencedevice agent="fence_sanbox2" ipaddr="san_ip_example" login="login_example" name="sanswitch2" passwd="password_example"/> </fencedevices> <rm> </rm> </cluster>
Ejemplo 7.7. cluster.conf
: Nodos de vallas con dos fuentes de alimentación
<cluster name="mycluster" config_version="3"> <clusternodes> <clusternode name="node-01.example.com" nodeid="1"> <fence> <method name="APC-dual"> <device name="apc1" port="1"action="off"/> <device name="apc2" port="1"action="off"/> <device name="apc1" port="1"action="on"/> <device name="apc2" port="1"action="on"/> </method> </fence> </clusternode> <clusternode name="node-02.example.com" nodeid="2"> <fence> <method name="APC-dual"> <device name="apc1" port="2"action="off"/> <device name="apc2" port="2"action="off"/> <device name="apc1" port="2"action="on"/> <device name="apc2" port="2"action="on"/> </method> </fence> </clusternode> <clusternode name="node-03.example.com" nodeid="3"> <fence> <method name="APC-dual"> <device name="apc1" port="3"action="off"/> <device name="apc2" port="3"action="off"/> <device name="apc1" port="3"action="on"/> <device name="apc2" port="3"action="on"/> </method> </fence> </clusternode> </clusternodes> <fencedevices> <fencedevice agent="fence_apc" ipaddr="apc_ip_example" login="login_example" name="apc1" passwd="password_example"/> <fencedevice agent="fence_apc" ipaddr="apc_ip_example" login="login_example" name="apc2" passwd="password_example"/> </fencedevices> <rm> </rm> </cluster>
7.4. Configuración de dominios de conmutación
- Sin restricciones — Le permite especificar que un subconjunto de miembros se prefiera, pero que el servicio de clúster asignado a este dominio pueda ejecutarse en cualquier miembro disponible.
- Restringido — Le permite restringir los miembros que pueden ejecutar un servicio de clúster particular. Si ninguno de los miembros en un dominio de conmutación restringido está disponible, el servicio de clúster no puede iniciarse (ya sea en forma manual o por el software de clúster).
- Desordenado — Cuando el servicio de clúster se asigna a un dominio de conmutación desordenado, el miembro en el que se ejecuta el servicio de clúster es elegido entre los miembros de dominio de conmutación sin ningún orden de prioridad.
- Ordenado — Le permite especificar un orden de preferencia entre los miembros de un dominio de conmutación. Los dominios de conmutación seleccionan el nodo con el número de prioridad inferior en primer lugar. Es decir, el nodo en un dominio de conmutación con un número de prioridad de "1" especifica la máxima prioridad, y por lo tanto, es el nodo preferido en un dominio de conmutación. Después de ese nodo, el siguiente nodo preferido sería el nodo con el siguiente número de prioridad más alto y así sucesivamente.
- Recuperación — Le permite especificar si un servicio en el dominio de conmutación debe recuperar al nodo que originalmente estaba ejecutándose antes de que ese nodo falle. La configuración de esta característica es útil en circunstancias donde un nodo repetidamente falla y hace parte de un dominio de conmutación ordenado. En esas circunstancias, si un nodo es el nodo preferido en un dominio de conmutación, es posible que un servicio se conmute o se recupere repetidas veces entre el nodo preferido y otro nodo, lo cual repercute gravemente en el rendimiento.
Nota
La funcionalidad de recuperación de fallos se aplica únicamente si la configuración de conmutación ordenada está configurada.
Nota
Nota
httpd
), el cual requiere que establezca la configuración idéntica en todos los miembros que ejecuten el servicio de clúster. En lugar de configurar todo el clúster para que ejecute el servicio de clúster, únicamente configure los miembros del dominio de conmutación restringido asociados con el servicio de clúster.
Nota
- Abra
/etc/cluster/cluster.conf
en cualquier nodo en el clúster. - Añada la siguiente sección de estructura dentro del elemento
rm
para cada dominio de conmutación que se va a utilizar:<failoverdomains> <failoverdomain name="" nofailback="" ordered="" restricted=""> <failoverdomainnode name="" priority=""/> <failoverdomainnode name="" priority=""/> <failoverdomainnode name="" priority=""/> </failoverdomain> </failoverdomains>
Nota
El número de atributosfailoverdomainnode
depende del número de nodos en el dominio de conmutación. La estructura de la secciónfailoverdomain
en el texto anterior muestra tres elementosfailoverdomainnode
(sin nombres de nodos especificados), lo cual significa que hay tres nodos en el dominio de conmutación. - En la sección
failoverdomain
, proporcione los valores para los elementos y atributos. Para obtener descripciones de los elementos y atributos, consulte la sección failoverdomain del esquema de cluster anotado. El esquema de cluster anotado está disponible en/usr/share/doc/cman-X.Y.ZZ/cluster_conf.html
(por ejemplo,/usr/share/doc/cman-3.0.12/cluster_conf.html
) en cualquiera de los nodos de cluster. Para ver un ejemplo de una secciónfailoverdomains
, consulte el Ejemplo 7.8, “Un dominio de conmutación de fallas paracluster.conf
”. - Actualice el atributo
config_version
aumentando su valor (por ejemplo, cambiar deconfig_version="2"
aconfig_version="3">
). - Guarde
/etc/cluster/cluster.conf
. - (Opcional) Valide el archivo con el esquema de cluster (
cluster.rng
) al ejecutar el comandoccs_config_validate
. Por ejemplo:[root@example-01 ~]#
ccs_config_validate
Configuration validates - Ejecute el comando
cman_tool version -r
para propagar la configuración al resto de nodos de clúster.
cluster.conf
” muestra una configuración con un dominio de conmutación ordenado, sin restricciones.
Ejemplo 7.8. Un dominio de conmutación de fallas para cluster.conf
<cluster name="mycluster" config_version="3"> <clusternodes> <clusternode name="node-01.example.com" nodeid="1"> <fence> <method name="APC"> <device name="apc" port="1"/> </method> </fence> </clusternode> <clusternode name="node-02.example.com" nodeid="2"> <fence> <method name="APC"> <device name="apc" port="2"/> </method> </fence> </clusternode> <clusternode name="node-03.example.com" nodeid="3"> <fence> <method name="APC"> <device name="apc" port="3"/> </method> </fence> </clusternode> </clusternodes> <fencedevices> <fencedevice agent="fence_apc" ipaddr="apc_ip_example" login="login_example" name="apc" passwd="password_example"/> </fencedevices> <rm> <failoverdomains> <failoverdomain name="example_pri" nofailback="0" ordered="1" restricted="0"> <failoverdomainnode name="node-01.example.com" priority="1"/> <failoverdomainnode name="node-02.example.com" priority="2"/> <failoverdomainnode name="node-03.example.com" priority="3"/> </failoverdomain> </failoverdomains> </rm> </cluster>
failoverdomains
contiene una sección failoverdomain
para cada dominio de conmutación en el cluster. Este ejemplo tiene un dominio de conmutación . En la línea failoverdomain
, el nombre (name
) se especifica como example_pri
. Además, especifica sin recuperación (failback="0"
), esa conmutación es ordenada (ordered="1"
), y ese dominio de conmutación es sin restricciones (restricted="0"
).
7.5. Configuración de servicios de alta disponibilidad
/etc/cluster/cluster.conf
para añadir recursos y servicios.
Importante
7.5.1. Adición de recursos de clúster
- Globales — Recursos que están disponibles para cualquier servicio en el clúster. Estos recursos se configuran en la sección
resources
del archivo de configuración (dentro del elementorm
). - Servicio específico — Recursos que están disponibles para un servicio únicamente. Estos recursos se configuran en cada sección
service
del archivo de configuración (dentro del elementorm
).
- Abra
/etc/cluster/cluster.conf
en cualquier nodo en el clúster. - Añada una sección de
resources
dentro del elementorm
. Por ejemplo:<rm> <resources> </resources> </rm>
- Puéblelo con recursos de acuerdo con los servicios que desea crear. Por ejemplo, aquí están los recursos que se deben utilizar en un servicio de Apache. Ellos constan de un recurso de sistema de archivos (
fs
), un recurso de IP (ip
) y un recurso de Apache (apache
).<rm> <resources> <fs name="web_fs" device="/dev/sdd2" mountpoint="/var/www" fstype="ext3"/> <ip address="127.143.131.100" monitor_link="yes" sleeptime="10"/> <apache config_file="conf/httpd.conf" name="example_server" server_root="/etc/httpd" shutdown_wait="0"/> </resources> </rm>
Ejemplo 7.9, “Archivocluster.conf
con recursos agregados” muestra un archivocluster.conf
con la sección deresources
añadida. - Actualice el atributo de
config_version
al incrementar su valor (por ejemplo, cambiando deconfig_version="2"
aconfig_version="3"
). - Guarde
/etc/cluster/cluster.conf
. - (Opcional) Valide el archivo con el esquema de cluster (
cluster.rng
) al ejecutar el comandoccs_config_validate
. Por ejemplo:[root@example-01 ~]#
ccs_config_validate
Configuration validates - Ejecute el comando
cman_tool version -r
para propagar la configuración al resto de nodos de clúster. - Verifique si el archivo de configuración actualizado se ha propagado.
Ejemplo 7.9. Archivo cluster.conf
con recursos agregados
<cluster name="mycluster" config_version="3"> <clusternodes> <clusternode name="node-01.example.com" nodeid="1"> <fence> <method name="APC"> <device name="apc" port="1"/> </method> </fence> </clusternode> <clusternode name="node-02.example.com" nodeid="2"> <fence> <method name="APC"> <device name="apc" port="2"/> </method> </fence> </clusternode> <clusternode name="node-03.example.com" nodeid="3"> <fence> <method name="APC"> <device name="apc" port="3"/> </method> </fence> </clusternode> </clusternodes> <fencedevices> <fencedevice agent="fence_apc" ipaddr="apc_ip_example" login="login_example" name="apc" passwd="password_example"/> </fencedevices> <rm> <failoverdomains> <failoverdomain name="example_pri" nofailback="0" ordered="1" restricted="0"> <failoverdomainnode name="node-01.example.com" priority="1"/> <failoverdomainnode name="node-02.example.com" priority="2"/> <failoverdomainnode name="node-03.example.com" priority="3"/> </failoverdomain> </failoverdomains> <resources> <fs name="web_fs" device="/dev/sdd2" mountpoint="/var/www" fstype="ext3"/> <ip address="127.143.131.100" monitor_link="yes" sleeptime="10"/> <apache config_file="conf/httpd.conf" name="example_server" server_root="/etc/httpd" shutdown_wait="0"/> </resources> </rm> </cluster>
7.5.2. Adición de un servicio de clúster al clúster
- Abra
/etc/cluster/cluster.conf
en cualquier nodo en el clúster. - Añada la sección
service
dentro del elementorm
para cada servicio. Por ejemplo:<rm> <service autostart="1" domain="" exclusive="0" name="" recovery="restart"> </service> </rm>
- Configure los siguientes parámetros (atributos) en el elemento de
service
:autostart
— Especifica si autoinicia el servicio o no, cuando el clúster inicie. Use '1' para activar y '0' para desactivar; se predetermina como activado.domain
— Especifica un dominio de conmutación (si se requiere).exclusive
— Especifica una política en la que el servicio solamente se ejecuta en nodos que no tienen otros servicios ejecutándose en ellos.recovery
— Especifica una política de recuperación para el servicio. Las opciones deben reubicar, reiniciar, desactivar, o reiniciar-desactivar el servicio.
- Según el tipo de recursos que desee utilizar, pueble el servicio con servicio de recursos globales o específicosPor ejemplo, el siguiente es un servicio de Apache que usa recursos globales:
<rm> <resources> <fs name="web_fs" device="/dev/sdd2" mountpoint="/var/www" fstype="ext3"/> <ip address="127.143.131.100" monitor_link="on" sleeptime="10"/> <apache config_file="conf/httpd.conf" name="example_server" server_root="/etc/httpd" shutdown_wait="0"/> </resources> <service autostart="1" domain="example_pri" exclusive="0" name="example_apache" recovery="relocate"> <fs ref="web_fs"/> <ip ref="127.143.131.100"/> <apache ref="example_server"/> </service> </rm>
Por ejemplo, el siguiente es un servicio de Apache que utiliza un servicio de recursos específicos:<rm> <service autostart="0" domain="example_pri" exclusive="0" name="example_apache2" recovery="relocate"> <fs name="web_fs2" device="/dev/sdd3" mountpoint="/var/www2" fstype="ext3"/> <ip address="127.143.131.101" monitor_link="yes" sleeptime="10"/> <apache config_file="conf/httpd.conf" name="example_server2" server_root="/etc/httpd" shutdown_wait="0"/> </service> </rm>
El Ejemplo 7.10, “cluster.conf
con servicios añadidos: Uno mediante recursos globales y otro mediante recursos de servicio específico” muestra un archivocluster.conf
con dos servicios:example_apache
— Este servicio usa recursos globalesweb_fs
,127.143.131.100
, yexample_server
.example_apache2
— Este servicio usa servicio de recursos específicosweb_fs2
,127.143.131.101
, yexample_server2
.
- Actualice el atributo
config_version
aumentando su valor (por ejemplo, cambiar deconfig_version="2"
aconfig_version="3">
). - Guarde
/etc/cluster/cluster.conf
. - (Opcional) Valide el archivo actualizado con el esquema de clúster (
cluster.rng
) ejecutando el comandoccs_config_validate
. Por ejemplo:[root@example-01 ~]#
ccs_config_validate
Configuration validates - Ejecute el comando
cman_tool version -r
para propagar la configuración al resto de nodos de clúster. - Verifique si el archivo de configuración actualizado se ha propagado.
- Prosiga a la Sección 7.8, “Verificación de una configuración”.
Ejemplo 7.10. cluster.conf
con servicios añadidos: Uno mediante recursos globales y otro mediante recursos de servicio específico
<cluster name="mycluster" config_version="3"> <clusternodes> <clusternode name="node-01.example.com" nodeid="1"> <fence> <method name="APC"> <device name="apc" port="1"/> </method> </fence> </clusternode> <clusternode name="node-02.example.com" nodeid="2"> <fence> <method name="APC"> <device name="apc" port="2"/> </method> </fence> </clusternode> <clusternode name="node-03.example.com" nodeid="3"> <fence> <method name="APC"> <device name="apc" port="3"/> </method> </fence> </clusternode> </clusternodes> <fencedevices> <fencedevice agent="fence_apc" ipaddr="apc_ip_example" login="login_example" name="apc" passwd="password_example"/> </fencedevices> <rm> <failoverdomains> <failoverdomain name="example_pri" nofailback="0" ordered="1" restricted="0"> <failoverdomainnode name="node-01.example.com" priority="1"/> <failoverdomainnode name="node-02.example.com" priority="2"/> <failoverdomainnode name="node-03.example.com" priority="3"/> </failoverdomain> </failoverdomains> <resources> <fs name="web_fs" device="/dev/sdd2" mountpoint="/var/www" fstype="ext3"/> <ip address="127.143.131.100" monitor_link="yes" sleeptime="10"/> <apache config_file="conf/httpd.conf" name="example_server" server_root="/etc/httpd" shutdown_wait="0"/> </resources> <service autostart="1" domain="example_pri" exclusive="0" name="example_apache" recovery="relocate"> <fs ref="web_fs"/> <ip ref="127.143.131.100"/> <apache ref="example_server"/> </service> <service autostart="0" domain="example_pri" exclusive="0" name="example_apache2" recovery="relocate"> <fs name="web_fs2" device="/dev/sdd3" mountpoint="/var/www2" fstype="ext3"/> <ip address="127.143.131.101" monitor_link="yes" sleeptime="10"/> <apache config_file="conf/httpd.conf" name="example_server2" server_root="/etc/httpd" shutdown_wait="0"/> </service> </rm> </cluster>
7.6. Cómo configura el protocolo de anillos redundantes
- No especifique más de dos anillos.
- Cada anillo debe utilizar el mismo protocolo; no mezcle IPv4 con IPv6.
- Si es necesario, especifique manualmente una dirección mutidifusión para un segundo anillo. Si especifica una dirección multidifusión para el segundo anillo, ya sea la dirección multidifusión o el puerto alterno debe ser diferente a la dirección multidifusión para el primer anillo. Si usted no especifica una dirección multidifusión alterna, el sistema utilizará automáticamente una dirección multidifusión diferente para el segundo anillo.Si especifica un puerto alterno, los números de puerto del primer anillo y del segundo anillo deben diferir en al menos dos, ya que el sistema utiliza los puertos 'Port' y 'Port -1' para realizar operaciones.
- No utilice dos interfaces diferentes en la misma subred.
- En general, es una buena práctica configurar el protocolo de anillos redundantes en dos NIC y dos interruptores diferentes, en caso de que un NIC o interruptor falle.
- No use el comando
ifdown
ni el comandoservice network stop
para simular la interrupción de red. Al hacerlo destruirá todo el clúster y deberá reiniciar todos los nodos en el clúster que va a recuperar. - No utilice
NetworkManager
, ya que ejecutará el comandoifdown
si el cable está desconecto. - Cuando un nodo de un NIC falla, todo el anillo se marcará como errado.
- Ninguna intervención manual se requiere para recuperar un anillo que haya fallado. Para recuperar, solo necesita corregir la razón de origen de la falla, como por ejemplo, un NIC o un interruptor que hayan fallado.
altname
a la sección clusternode
del archivo de configuración cluster.conf
. Para configurar altname
, debe especificar un atributo name
para indicar un segundo nombre de host o dirección IP para el nodo.
clusternet-node1-eth2
como el nombre para el nodo de clúster alterno clusternet-node1-eth1
.
<cluster name="mycluster" config_version="3" > <logging debug="on"/> <clusternodes> <clusternode name="clusternet-node1-eth1" votes="1" nodeid="1"> <fence> <method name="single"> <device name="xvm" domain="clusternet-node1"/> </method> </fence> <altname name="clusternet-node1-eth2"/> </clusternode>
altname
dentro del bloque clusternode
no depende de la ubicación. Puede estar antes o después de la sección de fence
. No especifique más de un componente altname
para un nodo de clúster, de lo contrarió, el sistema fallará en el inicio.
altmulticast
en la sección cman
del archivo de configuración cluster.conf
. El componente altmulticast
acepta un parámetro addr
, un parámetro port
, y un parámetro ttl
.
cman
de un archivo de configuración de un clúster que establece una dirección multidifusión, un puerto y TTL para el segundo anillo.
<cman> <multicast addr="239.192.99.73" port="666" ttl="2"/> <altmulticast addr="239.192.99.88" port="888" ttl="3"/> </cman>
7.7. Configuración de opciones de depuración
/etc/cluster/cluster.conf
. Por defecto, el registro se dirige al archivo /var/log/cluster/daemon.log
.
<cluster config_version="7" name="rh6cluster"> <logging debug="on"/> ... </cluster>
/etc/cluster/cluster.conf
. La configuración de registro por daemon sobrescribe los parámetros globales.
<cluster config_version="7" name="rh6cluster"> ... <logging> <!-- turning on per-subsystem debug logging --> <logging_daemon name="corosync" debug="on" /> <logging_daemon name="fenced" debug="on" /> <logging_daemon name="qdiskd" debug="on" /> <logging_daemon name="rgmanager" debug="on" /> <logging_daemon name="dlm_controld" debug="on" /> <logging_daemon name="gfs_controld" debug="on" /> </logging> ... </cluster>
cluster.conf
(5).
7.8. Verificación de una configuración
- En cada nodo, reinicie el software de clúster. Esa acción asegura que cualquier adición de configuración que se verifica solamente en el tiempo de inicio se incluye en la configuración que está ejecutándose. Puede iniciar el software de clúster con
service cman restart
. Por ejemplo:[root@example-01 ~]#
service cman restart
Stopping cluster: Leaving fence domain... [ OK ] Stopping gfs_controld... [ OK ] Stopping dlm_controld... [ OK ] Stopping fenced... [ OK ] Stopping cman... [ OK ] Waiting for corosync to shutdown: [ OK ] Unloading kernel modules... [ OK ] Unmounting configfs... [ OK ] Starting cluster: Checking Network Manager... [ OK ] Global setup... [ OK ] Loading kernel modules... [ OK ] Mounting configfs... [ OK ] Starting cman... [ OK ] Waiting for quorum... [ OK ] Starting fenced... [ OK ] Starting dlm_controld... [ OK ] Starting gfs_controld... [ OK ] Unfencing self... [ OK ] Joining fence domain... [ OK ] - Ejecute
service clvmd start
, si CLVM está siendo utilizada para crear volúmenes de cluster. Por ejemplo:[root@example-01 ~]#
service clvmd start
Activating VGs: [ OK ] - Ejecute
service gfs2 start
, si está utilizando Red Hat GFS2. Por ejemplo:[root@example-01 ~]#
service gfs2 start
Mounting GFS2 filesystem (/mnt/gfsA): [ OK ] Mounting GFS2 filesystem (/mnt/gfsB): [ OK ] - Ejecute
service rgmanager start
mediante los servicios de alta disponibilidad (HA). Por ejemplo:[root@example-01 ~]#
service rgmanager start
Starting Cluster Service Manager: [ OK ] - En cualquier nodo de clúster, ejecute
cman_tool nodes
para verificar los nodos que funcionan como miembros en el clúster (representado como "M" en la columna de estatus, "Sts"). Por ejemplo:[root@example-01 ~]#
cman_tool nodes
Node Sts Inc Joined Name 1 M 548 2010-09-28 10:52:21 node-01.example.com 2 M 548 2010-09-28 10:52:21 node-02.example.com 3 M 544 2010-09-28 10:52:21 node-03.example.com - En cualquier nodo, con la herramienta
clustat
, verifique si los servicios de alta disponibilidad se están ejecutando como esperado. Además,clustat
muestra el estatus de los nodos de clúster. Por ejemplo:[root@example-01 ~]#
clustat
Cluster Status for mycluster @ Wed Nov 17 05:40:00 2010 Member Status: Quorate Member Name ID Status ------ ---- ---- ------ node-03.example.com 3 Online, rgmanager node-02.example.com 2 Online, rgmanager node-01.example.com 1 Online, Local, rgmanager Service Name Owner (Last) State ------- ---- ----- ------ ----- service:example_apache node-01.example.com started service:example_apache2 (none) disabled - Si el clúster está ejecutándose como se esperaba, habrá terminado de crear un archivo de configuración. Puede administrar el clúster con las herramientas de línea de comandos descritas en el Capítulo 8, Administración de adición de alta disponibilidad de Red Hat con herramientas de línea de comandos.
Capítulo 8. Administración de adición de alta disponibilidad de Red Hat con herramientas de línea de comandos
Importante
Importante
cluster.conf
más utilizados. Para obtener una lista y descripción completa de cluster.conf
, consulte el esquema de cluster en /usr/share/cluster/cluster.rng
, y el esquema anotado en /usr/share/doc/cman-X.Y.ZZ/cluster_conf.html
(por ejemplo, /usr/share/doc/cman-3.0.12/cluster_conf.html
).
Importante
cman_tool version -r
para propagar un clúster a través de un clúster. El uso de ese comando requiere que ricci
se esté ejecutando.
Nota
8.1. Iniciar y parar el software de clúster
8.1.1. Cómo iniciar software de clúster
service cman start
service clvmd start
, si se ha utilizado CLVM para crear volúmenes en clústerservice gfs2 start
, si está usando Red Hat GFS2service rgmanager start
, si está utilizando servicios de alta disponibilidad (rgmanager
).
[root@example-01 ~]#service cman start
Starting cluster: Checking Network Manager... [ OK ] Global setup... [ OK ] Loading kernel modules... [ OK ] Mounting configfs... [ OK ] Starting cman... [ OK ] Waiting for quorum... [ OK ] Starting fenced... [ OK ] Starting dlm_controld... [ OK ] Starting gfs_controld... [ OK ] Unfencing self... [ OK ] Joining fence domain... [ OK ] [root@example-01 ~]#service clvmd start
Starting clvmd: [ OK ] Activating VG(s): 2 logical volume(s) in volume group "vg_example" now active [ OK ] [root@example-01 ~]#service gfs2 start
Mounting GFS2 filesystem (/mnt/gfsA): [ OK ] Mounting GFS2 filesystem (/mnt/gfsB): [ OK ] [root@example-01 ~]#service rgmanager start
Starting Cluster Service Manager: [ OK ] [root@example-01 ~]#
8.1.2. Cómo detener el software de clúster
service rgmanager stop
, si está utilizando servicios de alta disponibilidad (rgmanager
).service gfs2 stop
, si está utilizando Red Hat GFS2umount -at gfs2
, si está utilizando Red Hat GFS2 junto conrgmanager
, para asegurarse que los archivos de GFS2 montados durante el inicio dergmanager
(pero no desmontados durante el apagado) sean también desmontados.service clvmd stop
, si CLVM se ha utilizado para crear volúmenes en clusterservice cman stop
[root@example-01 ~]#service rgmanager stop
Stopping Cluster Service Manager: [ OK ] [root@example-01 ~]#service gfs2 stop
Unmounting GFS2 filesystem (/mnt/gfsA): [ OK ] Unmounting GFS2 filesystem (/mnt/gfsB): [ OK ] [root@example-01 ~]#umount -at gfs2
[root@example-01 ~]#service clvmd stop
Signaling clvmd to exit [ OK ] clvmd terminated [ OK ] [root@example-01 ~]#service cman stop
Stopping cluster: Leaving fence domain... [ OK ] Stopping gfs_controld... [ OK ] Stopping dlm_controld... [ OK ] Stopping fenced... [ OK ] Stopping cman... [ OK ] Waiting for corosync to shutdown: [ OK ] Unloading kernel modules... [ OK ] Unmounting configfs... [ OK ] [root@example-01 ~]#
Nota
8.2. Borrar o añadir un nodo
8.2.1. Cómo borrar un nodo de un clúster
Importante
- En cualquier nodo, use la herramienta
clusvcadm
para reubicar, migrar, o parar cada servicio de alta disponibilidad que se esté ejecutando en el nodo que se está eliminando del clúster. Para obtener información sobre el uso declusvcadm
, consulte la Sección 8.3, “Administrar servicios de alta disponibilidad”. - En el nodo que va a ser eliminado del clúster, pare el software de clúster de acuerdo con la Sección 8.1.2, “Cómo detener el software de clúster”. Por ejemplo:
[root@example-01 ~]#
service rgmanager stop
Stopping Cluster Service Manager: [ OK ] [root@example-01 ~]#service gfs2 stop
Unmounting GFS2 filesystem (/mnt/gfsA): [ OK ] Unmounting GFS2 filesystem (/mnt/gfsB): [ OK ] [root@example-01 ~]#service clvmd stop
Signaling clvmd to exit [ OK ] clvmd terminated [ OK ] [root@example-01 ~]#service cman stop
Stopping cluster: Leaving fence domain... [ OK ] Stopping gfs_controld... [ OK ] Stopping dlm_controld... [ OK ] Stopping fenced... [ OK ] Stopping cman... [ OK ] Waiting for corosync to shutdown: [ OK ] Unloading kernel modules... [ OK ] Unmounting configfs... [ OK ] [root@example-01 ~]# - En cualquier nodo en el clúster, edite
/etc/cluster/cluster.conf
para eliminar la secciónclusternode
del nodo que va a ser seleccionado. En el Ejemplo 8.1, “Configuración de clúster de tres nodos”, si se supone que node-03.example.com va a ser eliminado, entonces borre la secciónclusternode
para ese nodo. Si al eliminar un nodo (o nodos) hace que el cluster tenga dos nodos, puede añadir la siguiente línea al archivo de configuración para permitir a un nodo único mantener cuórum (por ejemplo, si un nodo falla):<cman two_node="1" expected_votes="1"/>
Consulte la Sección 8.2.3, “Ejemplos de configuraciones de tres y dos nodos.” para comparar entre una configuración de tres nodos y una de dos nodos. - Actualice el atributo
config_version
aumentando su valor (por ejemplo, cambiar deconfig_version="2"
aconfig_version="3">
). - Guarde
/etc/cluster/cluster.conf
. - (Opcional) Valide el archivo actualizado con el esquema de clúster (
cluster.rng
) ejecutando el comandoccs_config_validate
. Por ejemplo:[root@example-01 ~]#
ccs_config_validate
Configuration validates - Ejecute el comando
cman_tool version -r
para propagar la configuración al resto de nodos de clúster. - Verifique si el archivo de configuración actualizado se ha propagado.
- Si la cuenta de nodo del clúster ha pasado de más de dos nodos a dos nodos, debe reiniciar el software de clúster así:
- En cada nodo, pare el software de clúster de acuerdo con la Sección 8.1.2, “Cómo detener el software de clúster”. Por ejemplo:
[root@example-01 ~]#
service rgmanager stop
Stopping Cluster Service Manager: [ OK ] [root@example-01 ~]#service gfs2 stop
Unmounting GFS2 filesystem (/mnt/gfsA): [ OK ] Unmounting GFS2 filesystem (/mnt/gfsB): [ OK ] [root@example-01 ~]#service clvmd stop
Signaling clvmd to exit [ OK ] clvmd terminated [ OK ] [root@example-01 ~]#service cman stop
Stopping cluster: Leaving fence domain... [ OK ] Stopping gfs_controld... [ OK ] Stopping dlm_controld... [ OK ] Stopping fenced... [ OK ] Stopping cman... [ OK ] Waiting for corosync to shutdown: [ OK ] Unloading kernel modules... [ OK ] Unmounting configfs... [ OK ] [root@example-01 ~]# - En cada nodo, inicie el software de clúster de acuerdo con la Sección 8.1.1, “Cómo iniciar software de clúster”. Por ejemplo:
[root@example-01 ~]#
service cman start
Starting cluster: Checking Network Manager... [ OK ] Global setup... [ OK ] Loading kernel modules... [ OK ] Mounting configfs... [ OK ] Starting cman... [ OK ] Waiting for quorum... [ OK ] Starting fenced... [ OK ] Starting dlm_controld... [ OK ] Starting gfs_controld... [ OK ] Unfencing self... [ OK ] Joining fence domain... [ OK ] [root@example-01 ~]#service clvmd start
Starting clvmd: [ OK ] Activating VG(s): 2 logical volume(s) in volume group "vg_example" now active [ OK ] [root@example-01 ~]#service gfs2 start
Mounting GFS2 filesystem (/mnt/gfsA): [ OK ] Mounting GFS2 filesystem (/mnt/gfsB): [ OK ] [root@example-01 ~]#service rgmanager start
Starting Cluster Service Manager: [ OK ] [root@example-01 ~]# - En cualquier nodo de clúster, ejecute
cman_tool nodes
para verificar los nodos que funcionan como miembros en el cluster (representado como "M" en la columna de estatus, "Sts"). Por ejemplo:[root@example-01 ~]#
cman_tool nodes
Node Sts Inc Joined Name 1 M 548 2010-09-28 10:52:21 node-01.example.com 2 M 548 2010-09-28 10:52:21 node-02.example.com - En cualquier nodo, mediante la herramienta
clustat
, verifique si los servicios de alta disponibilidad se están ejecutando como esperado. Además,clustat
muestra el estatus de los nodos de clúster. Por ejemplo:[root@example-01 ~]#
clustat
Cluster Status for mycluster @ Wed Nov 17 05:40:00 2010 Member Status: Quorate Member Name ID Status ------ ---- ---- ------ node-02.example.com 2 Online, rgmanager node-01.example.com 1 Online, Local, rgmanager Service Name Owner (Last) State ------- ---- ----- ------ ----- service:example_apache node-01.example.com started service:example_apache2 (none) disabled
8.2.2. Adición de un nodo a un cluster
- En cualquier nodo en el clúster, edite
/etc/cluster/cluster.conf
para añadir una secciónclusternode
para el nodo que se va a añadir. En el Ejemplo 8.2, “Configuración de clúster de dos nodos”, si node-03.example.com se supone que va a ser añadido, entonces añada una secciónclusternode
para ese nodo. Si al añadir un nodo (o nodos) el cluster pasa de un clúster de dos nodos a un clúster de tres nodos o más, elimine los siguientes atributoscman
de/etc/cluster/cluster.conf
:cman two_node="1"
expected_votes="1"
Consulte la Sección 8.2.3, “Ejemplos de configuraciones de tres y dos nodos.” para comparar entre una configuración de tres nodos y una de dos nodos. - Actualice el atributo
config_version
aumentando su valor (por ejemplo, cambiar deconfig_version="2"
aconfig_version="3">
). - Guarde
/etc/cluster/cluster.conf
. - (Opcional) Valide el archivo actualizado con el esquema de clúster (
cluster.rng
) ejecutando el comandoccs_config_validate
. Por ejemplo:[root@example-01 ~]#
ccs_config_validate
Configuration validates - Ejecute el comando
cman_tool version -r
para propagar la configuración al resto de nodos de clúster. - Verifique si el archivo de configuración actualizado se ha propagado.
- Propague el archivo de configuración a
/etc/cluster/
en cada nodo para que sea agregado al cluster. Por ejemplo, use el comandoscp
para enviar el archivo de configuración a cada nodo que va a ser añadido al cluster. - Si la cuenta de nodo del clúster ha pasado de dos nodos a más de dos nodos, debe reiniciar el software de clúster en los nodos de clúster existentes así:
- En cada nodo, pare el software de clúster de acuerdo con la Sección 8.1.2, “Cómo detener el software de clúster”. Por ejemplo:
[root@example-01 ~]#
service rgmanager stop
Stopping Cluster Service Manager: [ OK ] [root@example-01 ~]#service gfs2 stop
Unmounting GFS2 filesystem (/mnt/gfsA): [ OK ] Unmounting GFS2 filesystem (/mnt/gfsB): [ OK ] [root@example-01 ~]#service clvmd stop
Signaling clvmd to exit [ OK ] clvmd terminated [ OK ] [root@example-01 ~]#service cman stop
Stopping cluster: Leaving fence domain... [ OK ] Stopping gfs_controld... [ OK ] Stopping dlm_controld... [ OK ] Stopping fenced... [ OK ] Stopping cman... [ OK ] Waiting for corosync to shutdown: [ OK ] Unloading kernel modules... [ OK ] Unmounting configfs... [ OK ] [root@example-01 ~]# - En cada nodo, inicie el software de clúster de acuerdo con la Sección 8.1.1, “Cómo iniciar software de clúster”. Por ejemplo:
[root@example-01 ~]#
service cman start
Starting cluster: Checking Network Manager... [ OK ] Global setup... [ OK ] Loading kernel modules... [ OK ] Mounting configfs... [ OK ] Starting cman... [ OK ] Waiting for quorum... [ OK ] Starting fenced... [ OK ] Starting dlm_controld... [ OK ] Starting gfs_controld... [ OK ] Unfencing self... [ OK ] Joining fence domain... [ OK ] [root@example-01 ~]#service clvmd start
Starting clvmd: [ OK ] Activating VG(s): 2 logical volume(s) in volume group "vg_example" now active [ OK ] [root@example-01 ~]#service gfs2 start
Mounting GFS2 filesystem (/mnt/gfsA): [ OK ] Mounting GFS2 filesystem (/mnt/gfsB): [ OK ] [root@example-01 ~]#service rgmanager start
Starting Cluster Service Manager: [ OK ] [root@example-01 ~]#
- En cada nodo que va a ser agregado al clúster, inicie el software de clúster según la Sección 8.1.1, “Cómo iniciar software de clúster”. Por ejemplo:
[root@example-01 ~]#
service cman start
Starting cluster: Checking Network Manager... [ OK ] Global setup... [ OK ] Loading kernel modules... [ OK ] Mounting configfs... [ OK ] Starting cman... [ OK ] Waiting for quorum... [ OK ] Starting fenced... [ OK ] Starting dlm_controld... [ OK ] Starting gfs_controld... [ OK ] Unfencing self... [ OK ] Joining fence domain... [ OK ] [root@example-01 ~]#service clvmd start
Starting clvmd: [ OK ] Activating VG(s): 2 logical volume(s) in volume group "vg_example" now active [ OK ] [root@example-01 ~]#service gfs2 start
Mounting GFS2 filesystem (/mnt/gfsA): [ OK ] Mounting GFS2 filesystem (/mnt/gfsB): [ OK ] [root@example-01 ~]#service rgmanager start
Starting Cluster Service Manager: [ OK ] [root@example-01 ~]# - En cualquier nodo, al usar la herramienta
clustat
, verifique si cada nodo añadido está ejecutándose y parte del clúster. Por ejemplo:[root@example-01 ~]#
clustat
Cluster Status for mycluster @ Wed Nov 17 05:40:00 2010 Member Status: Quorate Member Name ID Status ------ ---- ---- ------ node-03.example.com 3 Online, rgmanager node-02.example.com 2 Online, rgmanager node-01.example.com 1 Online, Local, rgmanager Service Name Owner (Last) State ------- ---- ----- ------ ----- service:example_apache node-01.example.com started service:example_apache2 (none) disabledPara obtener información sobre el uso declustat
, consulte la Sección 8.3, “Administrar servicios de alta disponibilidad”.Además, puede usarcman_tool status
para verificar votos de nodos, cuenta de nodos y cuenta de cuórum.[root@example-01 ~]#
cman_tool status
Version: 6.2.0 Config Version: 19 Cluster Name: mycluster Cluster Id: 3794 Cluster Member: Yes Cluster Generation: 548 Membership state: Cluster-Member Nodes: 3 Expected votes: 3 Total votes: 3 Node votes: 1 Quorum: 2 Active subsystems: 9 Flags: Ports Bound: 0 11 177 Node name: node-01.example.com Node ID: 3 Multicast addresses: 239.192.14.224 Node addresses: 10.15.90.58 - En cualquier nodo, puede usar la herramienta
clusvcadm
para migrar o reubicar un servicio en ejecución para el nuevo nodo recién conectado. También, puede habilitar cualquier servicio inactivo. Para obtener información sobre el uso declusvcadm
, consulte la Sección 8.3, “Administrar servicios de alta disponibilidad”
8.2.3. Ejemplos de configuraciones de tres y dos nodos.
Ejemplo 8.1. Configuración de clúster de tres nodos
<cluster name="mycluster" config_version="3"> <cman/> <clusternodes> <clusternode name="node-01.example.com" nodeid="1"> <fence> <method name="APC"> <device name="apc" port="1"/> </method> </fence> </clusternode> <clusternode name="node-02.example.com" nodeid="2"> <fence> <method name="APC"> <device name="apc" port="2"/> </method> </fence> </clusternode> <clusternode name="node-03.example.com" nodeid="3"> <fence> <method name="APC"> <device name="apc" port="3"/> </method> </fence> </clusternode> </clusternodes> <fencedevices> <fencedevice agent="fence_apc" ipaddr="apc_ip_example" login="login_example" name="apc" passwd="password_example"/> </fencedevices> <rm> <failoverdomains> <failoverdomain name="example_pri" nofailback="0" ordered="1" restricted="0"> <failoverdomainnode name="node-01.example.com" priority="1"/> <failoverdomainnode name="node-02.example.com" priority="2"/> <failoverdomainnode name="node-03.example.com" priority="3"/> </failoverdomain> </failoverdomains> <resources> <fs name="web_fs" device="/dev/sdd2" mountpoint="/var/www" fstype="ext3"/> <ip address="127.143.131.100" monitor_link="yes" sleeptime="10"/> <apache config_file="conf/httpd.conf" name="example_server" server_root="/etc/httpd" shutdown_wait="0"/> </resources> <service autostart="0" domain="example_pri" exclusive="0" name="example_apache" recovery="relocate"> <fs ref="web_fs"/> <ip ref="127.143.131.100"/> <apache ref="example_server"/> </service> <service autostart="0" domain="example_pri" exclusive="0" name="example_apache2" recovery="relocate"> <fs name="web_fs2" device="/dev/sdd3" mountpoint="/var/www" fstype="ext3"/> <ip address="127.143.131.101" monitor_link="yes" sleeptime="10"/> <apache config_file="conf/httpd.conf" name="example_server2" server_root="/etc/httpd" shutdown_wait="0"/> </service> </rm> </cluster>
Ejemplo 8.2. Configuración de clúster de dos nodos
<cluster name="mycluster" config_version="3"> <cman two_node="1" expected_votes="1"/> <clusternodes> <clusternode name="node-01.example.com" nodeid="1"> <fence> <method name="APC"> <device name="apc" port="1"/> </method> </fence> </clusternode> <clusternode name="node-02.example.com" nodeid="2"> <fence> <method name="APC"> <device name="apc" port="2"/> </method> </fence> </clusternodes> <fencedevices> <fencedevice agent="fence_apc" ipaddr="apc_ip_example" login="login_example" name="apc" passwd="password_example"/> </fencedevices> <rm> <failoverdomains> <failoverdomain name="example_pri" nofailback="0" ordered="1" restricted="0"> <failoverdomainnode name="node-01.example.com" priority="1"/> <failoverdomainnode name="node-02.example.com" priority="2"/> </failoverdomain> </failoverdomains> <resources> <fs name="web_fs" device="/dev/sdd2" mountpoint="/var/www" fstype="ext3"/> <ip address="127.143.131.100" monitor_link="yes" sleeptime="10"/> <apache config_file="conf/httpd.conf" name="example_server" server_root="/etc/httpd" shutdown_wait="0"/> </resources> <service autostart="0" domain="example_pri" exclusive="0" name="example_apache" recovery="relocate"> <fs ref="web_fs"/> <ip ref="127.143.131.100"/> <apache ref="example_server"/> </service> <service autostart="0" domain="example_pri" exclusive="0" name="example_apache2" recovery="relocate"> <fs name="web_fs2" device="/dev/sdd3" mountpoint="/var/www" fstype="ext3"/> <ip address="127.143.131.101" monitor_link="yes" sleeptime="10"/> <apache config_file="conf/httpd.conf" name="example_server2" server_root="/etc/httpd" shutdown_wait="0"/> </service> </rm> </cluster>
8.3. Administrar servicios de alta disponibilidad
clustat
, y la Herramienta de administración de servicios de usuario de clúster, clusvcadm
. clustat
muestra el estatus de un clúster y clusvcadm
proporciona los medios para administrar los servicios de alta disponibilidad.
clustat
y clusvcadm
, consta de las siguientes subpartes:
8.3.1. Cómo desplegar el estatus de servicio de alta disponibilidad con clustat
clustat
muestra el estatus global de clúster. Muestra la información de membresía, vista de cuórum, el estado de todos los servicios de alta disponibilidad e indica el nodo en que clustat
se está ejecutando (Local). La Tabla 8.1, “Estatus de servicios” describe los estados de los servicios y se muestran al ejecutar clustat
. Ejemplo 8.3, “Pantalla clustat
” muestra un ejemplo de una pantalla de clustat
. Para obtener información más detallada sobre ejecución del comando clustat
, consulte la página de manual clustat
.
Estatus de servicios | Descripción |
---|---|
Los recursos del servicio están configurados y disponibles en el sistema de clúster que posee el servicio. | |
El servicio está pendiente de iniciar en otro nodo. | |
El servicio se ha inhabilitado y no tiene un propietario asignado. Un servicio inhabilitado nunca es reiniciado automáticamente por el clúster. | |
En este estado, se evaluará el servicio para iniciar después de la transición del próximo servicio o nodo. Se trata de un estado temporal. Puede inhabilitar o habilitar el servicio desde este estado. | |
El servicio se presume muerto. El servicio pasa a este estado cuando falla la operación de parar del recurso. Después de que pasa un servicio a este estado, debe verificar si no hay recursos asignados (sistemas de archivos montados, por ejemplo) antes de expedir una solicitud de disable . La única operación que puede llevarse a cabo cuando el servicio ha entrado en este estado es disable . | |
Este estado puede aparecer en algunos casos durante el inicio o ejecución de clustat -f . |
Ejemplo 8.3. Pantalla clustat
[root@example-01 ~]#clustat
Cluster Status for mycluster @ Wed Nov 17 05:40:15 2010
Member Status: Quorate
Member Name ID Status
------ ---- ---- ------
node-03.example.com 3 Online, rgmanager
node-02.example.com 2 Online, rgmanager
node-01.example.com 1 Online, Local, rgmanager
Service Name Owner (Last) State
------- ---- ----- ------ -----
service:example_apache node-01.example.com started
service:example_apache2 (none) disabled
8.3.2. Cómo administrar servicios de alta disponibilidad con clusvcadm
clusvcadm
. Con él puede realizar las siguientes operaciones:
- Habilitar e iniciar el servicio.
- Inhabilitar un servicio.
- Parar un servicio.
- Congelar un servicio
- Descongelar un servicio
- Migrar un servicio (para servicios de máquina virtual únicamente)
- Reubicar un servicio.
- Reiniciar un servicio.
clusvcadm
.
Operación de servicio | Descripción | Sintaxis de comandos |
---|---|---|
Inicia el servicio, opcionalmente en el destino preferido según las reglas de dominio de conmutación. En ausencia de un destino preferido o reglas de dominio de conmutación, el host local donde se ejecuta clusvcadm iniciará el servicio. Si el Iniciar falla, el servicio se comportará como si se hubiese solicitado una operación de reubicar (consulte en esta tabla). Si la operación tiene éxito, el servicio se localizará en el estado iniciado. | clusvcadm -e <service_name> o clusvcadm -e <service_name> -m <member> (Mediante la opción -m especifica el miembro de destino preferido en el cual iniciar el servicio). | |
Detiene el servicio y lo pasa al estado inhabilitado. Esto solamente se permite cuando el servicio está en un estado fallido. | clusvcadm -d <service_name> | |
Desplaza el servicio a otro nodo. También puede especificar un nodo preferido para recibir el servicio, pero la incapacidad del servicio para que se ejecute en ese host (por ejemplo, si no se puede iniciar el servicio o si el host está desconectado) no impide la reubicación, y se elige otro nodo. rgmanager intenta iniciar el servicio en cada nodo del clúster admisible. Si ningún nodo de destino admisible en el clúster comienza con éxito el servicio, se produce un error en el traslado y el servicio intenta reiniciarse al propietario original. Si el propietario original no puede reiniciar el servicio, el servicio pasa al estado Parado | clusvcadm -r <service_name> o clusvcadm -r <service_name> -m <member> (El uso de la opción -m especifica el miembro de destino preferido en el cual iniciar el servicio). | |
Detiene el servicio y lo pasa al estado Parado. | clusvcadm -s <service_name> | |
Congela el servicio en el nodo en que se esté ejecutando. Así evita que la verificación de estatus del servicio y la conmutación si el nodo falla o rgmanager se detiene. Se puede utilizar para suspender el servicio para permitir el mantenimiento de los recursos subyacentes. Consulte, “Consideraciones para el uso de las operaciones de congelar y descongelar” para obtener información importante sobre el uso de las operaciones congelar y descongelar. | clusvcadm -Z <service_name> | |
Saca un servicio del estado congelar. De esta manera, rehabilita las revisiones de estatus. Consulte “Consideraciones para el uso de las operaciones de congelar y descongelar” para obtener información importante sobre el uso de las operaciones congelar y descongelar. | clusvcadm -U <service_name> | |
Migra una máquina virtual a otro nodo. Debe especificar un nodo de destino. Según la falla, si no puede migrar, la máquina virtual puede resultar en el estado fallido o en el estado iniciado en el propietario original. | clusvcadm -M <service_name> -m <member> Importante
Para la operación de migrar, debe especificar un nodo de destino mediante la opción -m <member> .
| |
Reinicie el servicio en el nodo en el que se está ejecutando actualmente. | clusvcadm -R <service_name> |
Consideraciones para el uso de las operaciones de congelar y descongelar
rgmanager
. Por ejemplo, si tiene una base de datos y un servidor de Web en un servicio rgmanager
, puede congelar el servicio rgmanager
, detener la base de datos, realizar mantenimiento, reiniciar la base de datos, y descongelar el servicio.
- Las verificaciones de Estatus se desactivan.
- Las operaciones de Inicio se desactivan.
- Las operaciones de Parar se inhabilitan.
- La conmutación no ocurrirá (incluso si apaga al propietario del servicio).
Importante
- No debe parar todas las instancias de rgmanager cuando un servicio esté congelado a menos que planee reiniciar los hosts antes de reiniciar rgmanager.
- No debe descongelar un servicio hasta que el propietario reportado del servicio reconecte el clúster y reinicie el rgmanager.
8.4. Cómo actualizar una configuración
/etc/cluster/cluster.conf
) y propagarlo en cada nodo en el clúster. Puede actualizar la configuración mediante cualquiera de los siguientes procedimientos:
8.4.1. Cómo actualizar una configuración con cman_tool version -r
cman_tool version -r
, siga los siguientes pasos:
- En cualquier nodo en el clúster, edite el archivo
/etc/cluster/cluster.conf
- Actualice el atributo
config_version
aumentando su valor (por ejemplo, cambiar deconfig_version="2"
aconfig_version="3">
). - Guarde
/etc/cluster/cluster.conf
. - Ejecute el comando
cman_tool version -r
para propagar la configuración para los nodos de clúster restantes. Es necesario quericci
esté ejecutándose en cada nodo de clúster para que pueda propagar la información de configuración de clúster. - Verifique si el archivo de configuración actualizado se ha propagado.
- Puede obviar este paso (reiniciando el software de clúster) si ha hecho solamente los siguientes cambios de configuración:
- Borrado de un nodo de una configuración de cluster—excepto cuando la cuenta de nodos cambia de mayor de dos nodos a dos nodos. Para obtener información sobre borrar un nodo de un clúster y pasarlo de mayor de dos nodos a dos nodos, consulte la Sección 8.2, “Borrar o añadir un nodo”.
- Añadir un nodo a la configuración de cluster—excepto donde la cuenta de nodos cambia de dos nodos a más de dos nodos. Para obtener mayor información sobre la adición de un nodo a un clúster y la transición de dos nodos a más de dos nodos, consulte la Sección 8.2.2, “Adición de un nodo a un cluster”.
- Cambios de cómo los daemons registran información.
- Mantenimiento de Máquina virtual/servicio de alta disponiblidad (adición, edición o borrado).
- Mantenimiento de recursos (adición, edición o borrado).
- Mantenimiento de dominio de conmutación (adición, edición, o borrado).
De lo contrario, debe reiniciar el software de clúster así:- En cada nodo, pare el software de clúster de acuerdo con la Sección 8.1.2, “Cómo detener el software de clúster”. Por ejemplo:
[root@example-01 ~]#
service rgmanager stop
Stopping Cluster Service Manager: [ OK ] [root@example-01 ~]#service gfs2 stop
Unmounting GFS2 filesystem (/mnt/gfsA): [ OK ] Unmounting GFS2 filesystem (/mnt/gfsB): [ OK ] [root@example-01 ~]#service clvmd stop
Signaling clvmd to exit [ OK ] clvmd terminated [ OK ] [root@example-01 ~]#service cman stop
Stopping cluster: Leaving fence domain... [ OK ] Stopping gfs_controld... [ OK ] Stopping dlm_controld... [ OK ] Stopping fenced... [ OK ] Stopping cman... [ OK ] Waiting for corosync to shutdown: [ OK ] Unloading kernel modules... [ OK ] Unmounting configfs... [ OK ] [root@example-01 ~]# - En cada nodo, inicie el software de clúster de acuerdo con la Sección 8.1.1, “Cómo iniciar software de clúster”. Por ejemplo:
[root@example-01 ~]#
service cman start
Starting cluster: Checking Network Manager... [ OK ] Global setup... [ OK ] Loading kernel modules... [ OK ] Mounting configfs... [ OK ] Starting cman... [ OK ] Waiting for quorum... [ OK ] Starting fenced... [ OK ] Starting dlm_controld... [ OK ] Starting gfs_controld... [ OK ] Unfencing self... [ OK ] Joining fence domain... [ OK ] [root@example-01 ~]#service clvmd start
Starting clvmd: [ OK ] Activating VG(s): 2 logical volume(s) in volume group "vg_example" now active [ OK ] [root@example-01 ~]#service gfs2 start
Mounting GFS2 filesystem (/mnt/gfsA): [ OK ] Mounting GFS2 filesystem (/mnt/gfsB): [ OK ] [root@example-01 ~]#service rgmanager start
Starting Cluster Service Manager: [ OK ] [root@example-01 ~]#Parar e iniciar el software de clúster garantiza que los cambios de configuración que han sido revisados solamente al inicio se incluyan en la configuración que está ejecutándose.
- En cualquier nodo de clúster, ejecute
cman_tool nodes
para verificar los nodos que funcionan como miembros en el cluster (representado como "M" en la columna de estatus, "Sts"). Por ejemplo:[root@example-01 ~]#
cman_tool nodes
Node Sts Inc Joined Name 1 M 548 2010-09-28 10:52:21 node-01.example.com 2 M 548 2010-09-28 10:52:21 node-02.example.com 3 M 544 2010-09-28 10:52:21 node-03.example.com - En cualquier nodo, mediante la herramienta
clustat
, verifique si los servicios de alta disponibilidad se están ejecutando como esperado. Además,clustat
muestra el estatus de los nodos de clúster. Por ejemplo:[root@example-01 ~]#
clustat
Cluster Status for mycluster @ Wed Nov 17 05:40:00 2010 Member Status: Quorate Member Name ID Status ------ ---- ---- ------ node-03.example.com 3 Online, rgmanager node-02.example.com 2 Online, rgmanager node-01.example.com 1 Online, Local, rgmanager Service Name Owner (Last) State ------- ---- ----- ------ ----- service:example_apache node-01.example.com started service:example_apache2 (none) disabled - Si el clúster está ejecutándose como se espera, ya ha terminado de actualizar la configuración.
8.4.2. Actualizar y configurar mediante scp
scp
, siga los siguientes pasos:
- En cada nodo, pare el software de clúster de acuerdo con la Sección 8.1.2, “Cómo detener el software de clúster”. Por ejemplo:
[root@example-01 ~]#
service rgmanager stop
Stopping Cluster Service Manager: [ OK ] [root@example-01 ~]#service gfs2 stop
Unmounting GFS2 filesystem (/mnt/gfsA): [ OK ] Unmounting GFS2 filesystem (/mnt/gfsB): [ OK ] [root@example-01 ~]#service clvmd stop
Signaling clvmd to exit [ OK ] clvmd terminated [ OK ] [root@example-01 ~]#service cman stop
Stopping cluster: Leaving fence domain... [ OK ] Stopping gfs_controld... [ OK ] Stopping dlm_controld... [ OK ] Stopping fenced... [ OK ] Stopping cman... [ OK ] Waiting for corosync to shutdown: [ OK ] Unloading kernel modules... [ OK ] Unmounting configfs... [ OK ] [root@example-01 ~]# - En cualquier nodo en el clúster, edite el archivo
/etc/cluster/cluster.conf
- Actualice el atributo
config_version
aumentando su valor (por ejemplo, cambiar deconfig_version="2"
aconfig_version="3">
). - Guarde
/etc/cluster/cluster.conf
. - Valide y actualice el archivo con el esquema de clúster (
cluster.rng
) al ejecutar el comandoccs_config_validate
. Por ejemplo:[root@example-01 ~]#
ccs_config_validate
Configuration validates - Si el archivo actualizado es válido, use el comando
scp
para propagar a/etc/cluster/
en cada nodo de clúster. - Verifique si el archivo de configuración actualizado se ha propagado.
- En cada nodo, inicie el software de clúster de acuerdo con la Sección 8.1.1, “Cómo iniciar software de clúster”. Por ejemplo:
[root@example-01 ~]#
service cman start
Starting cluster: Checking Network Manager... [ OK ] Global setup... [ OK ] Loading kernel modules... [ OK ] Mounting configfs... [ OK ] Starting cman... [ OK ] Waiting for quorum... [ OK ] Starting fenced... [ OK ] Starting dlm_controld... [ OK ] Starting gfs_controld... [ OK ] Unfencing self... [ OK ] Joining fence domain... [ OK ] [root@example-01 ~]#service clvmd start
Starting clvmd: [ OK ] Activating VG(s): 2 logical volume(s) in volume group "vg_example" now active [ OK ] [root@example-01 ~]#service gfs2 start
Mounting GFS2 filesystem (/mnt/gfsA): [ OK ] Mounting GFS2 filesystem (/mnt/gfsB): [ OK ] [root@example-01 ~]#service rgmanager start
Starting Cluster Service Manager: [ OK ] [root@example-01 ~]# - En cualquier nodo de clúster, ejecute
cman_tool nodes
para verificar los nodos que funcionan como miembros en el cluster (representado como "M" en la columna de estatus, "Sts"). Por ejemplo:[root@example-01 ~]#
cman_tool nodes
Node Sts Inc Joined Name 1 M 548 2010-09-28 10:52:21 node-01.example.com 2 M 548 2010-09-28 10:52:21 node-02.example.com 3 M 544 2010-09-28 10:52:21 node-03.example.com - En cualquier nodo, mediante la herramienta
clustat
, verifique si los servicios de alta disponibilidad se están ejecutando como esperado. Además,clustat
muestra el estatus de los nodos de clúster. Por ejemplo:[root@example-01 ~]#
clustat
Cluster Status for mycluster @ Wed Nov 17 05:40:00 2010 Member Status: Quorate Member Name ID Status ------ ---- ---- ------ node-03.example.com 3 Online, rgmanager node-02.example.com 2 Online, rgmanager node-01.example.com 1 Online, Local, rgmanager Service Name Owner (Last) State ------- ---- ----- ------ ----- service:example_apache node-01.example.com started service:example_apache2 (none) disabled - Si el clúster está ejecutándose como se espera, ya ha terminado de actualizar la configuración.
Capítulo 9. Cómo diagnosticar y corregir problemas en un clúster
9.1. Los cambios de configuración no se efectúan
- Al configurar un clúster mediante Conga, Conga propaga los cambios de forma automática cuando aplica los cambios.
- Para obtener información sobre cómo propagar cambios al clúster con el comando
ccs
, consulte la Sección 5.15, “Cómo propagar el archivo de configuración a los nodos de clúster”. - Para obtener información sobre cómo propagar cambios al clúster con las herramientas de línea de comandos, consulte la Sección 8.4, “Cómo actualizar una configuración”.
- Borrado de un nodo de una configuración de clúster—excepto cuando la cuenta de nodos cambia de mayor de dos nodos a dos nodos.
- Adición de un nodo a la configuración de clúster—excepto cuando el conteo de nodos cambie de dos nodos a mayor de dos.
- Cambio de parámetros de registro.
- Adición, edición o borrado de servicios de alta disponibilidad o componentes de máquina virtual (VM).
- Adición, edición o borrado de recursos de clúster.
- Adición, edición o borrado de dominios de conmutación.
- Adición o retiro de la opción
two_node
del archivo de configuración de clúster. - Renombrar el clúster.
- Cambio de temporizadores
corosync
uopenais
. - Heurística de adición, cambio o borrado para disco de cuórum , para cambiar cualquier temporizador de disco de cuórum o cualquier dispositivo de disco de cuórum. Para que dichos cambios se efectúen, se requerirá un reinicio global del
qdiskd
. - Cambio del modo
central_processing
parargmanager
. Para que este cambio se efectúe se requiere un reinicio global dergmanager
. - Cambio de dirección multidifusión.
- Cambio del modo de transporte de multidifusión UDP a unidifusión UDP o cambio de unidifusión UDP a multidifusión UDP.
ccs
o la línea de comandos.
- Para obtener información sobre cómo reiniciar un clúster con Conga, consulte la Sección 4.4, “Iniciar, parar, reiniciar, y borrar clústeres”.
- Para obtener información sobre cómo reiniciar un clúster con el comando
ccs
, consulte la Sección 6.2, “Cómo iniciar y detener un clúster”. - Para obtener información sobre cómo reiniciar un clúster con las herramientas de línea de comandos, consulte la Sección 8.1, “Iniciar y parar el software de clúster”.
9.2. El clúster no se forma
- Asegúrese de establecer correctamente el nombre de resolución. El nombre de nodo de clúster en el archivo
cluster.conf
debe corresponder al nombre utilizado para resolver la dirección de cluster en la red que el clúster estará utilizando para comunicarse. Por ejemplo, si sus nombres de nodo de clúster sonnodea
ynodeb
asegúrese de que ambos nodos tengan entradas en el archivo/etc/cluster/cluster.conf
y/etc/hosts
que coincidan con esos nombres. - Puesto que el clúster usa multidifusión para la comunicación entre nodos, asegúrese de que el tráfico de multidifusión no esté bloqueado, retrasado o cruzado con la red que el clúster está utilizando para comunicarse. Observe que algunos interruptores de Cisco tienen funcionalidades que pueden causar retrasos en tráfico de multidifusión.
- Use
telnet
oSSH
para verificar si puede conectar nodos remotos. - Ejecute el comando
ethtool eth1 | grep link
para revisar si el enlace de Ethernet está activo. - Use el comando
tcpdump
en cada nodo para revisar el tráfico de redes. - Asegúrese de no tener reglas de cortafuegos bloqueando la comunicación entre sus nodos.
- Verifique si las interfaces que utiliza el clúster usan la comunicación internodos ahora utiliza el modo de enlace diferente a 0, 1, o 2. (los modos de enlace 0 y 2 tienen soporte a partir de Red Hat Enterprise Linux 6.4.)
9.3. Nodos que no pueden reconectar clúster tras un cercado o reinicio
- Los clústeres que están pasando su tráfico a través de un interruptor Cisco Catalyst pueden experimentar este problema.
- Asegúrese de que todos los nodos de clúster tengan la misma versión del archivo
cluster.conf
. Si el archivocluster.conf
es diferente a alguno de los nodos, entonces podrá conectar el clúster después de la valla.A partir del lanzamiento de Red Hat Enterprise 6.1, puede utilizar el siguiente comando para verificar que todos los nodos especificados en el archivo de configuración de clúster de host tengan el archivo de configuración de clúster idéntico:ccs -h host --checkconf
Par obtener mayor información sobre el comandoccs
, consulte Capítulo 5, Configuración de adición de alta disponibilidad de Red Hat con el comando ccs y Capítulo 6, Administración de adición de alta disponibilidad de Red Hat con ccs. - Asegúrese de haber configurado
chkconfig on
para servicios de clúster en el nodo que está intentando unirse al clúster. - Asegúrese de que las reglas de cortafuegos no estén impidiendo que el nodo se comunique con otros nodos en el clúster.
9.4. El daemon de clúster se bloquea
rgmanager
falla de repente. Esto hace que el nodo de clúster se cerque y rgmanager
recupere el servicio en otro host. Cuando el daemon detecta que el proceso principal rgmanager
se ha bloqueado, entonces reiniciará el nodo de clúster y los nodos de clúster activos detectarán que el nodo de clúster ha salido y lo sacarán del clúster.
gcore
puede ayudar durante la corrección de un daemon bloqueado.
rgmanager
como rgmanager-debuginfo
tengan la misma versión o si no, el núcleo de la aplicación capturado puede ser inservible.
$ yum -y --enablerepo=rhel-debuginfo install gdb rgmanager-debuginfo
9.4.1. Captura del núcleo rgmanager
en tiempo de ejecución
rgmanager
que están en ejecución cuando se inicia. Debe capturar el núcleo para el proceso rgmanager
con el PID más alto.
ps
que muestra dos procesos para rgmanager
.
$ ps aux | grep rgmanager | grep -v grep root 22482 0.0 0.5 23544 5136 ? S<Ls Dec01 0:00 rgmanager root 22483 0.0 0.2 78372 2060 ? S<l Dec01 0:47 rgmanager
pidof
sirve para determinar el número superior de PID, el cual es el PID apropiado para crear el núcleo. El comando completo captura el núcleo de la aplicación para el proceso 22483 que tiene el número más alto de PID.
$ gcore -o /tmp/rgmanager-$(date '+%F_%s').core $(pidof -s rgmanager)
9.4.2. Captura del núcleo cuando el daemon se bloquea
/etc/init.d/functions
bloquea, de forma predeterminada, los archivos de núcleo desde los daemons llamados /etc/init.d/rgmanager
. Para que el daemon cree núcleos de aplicaciones, debe habilitar esa opción. Este procedimiento debe realizarse en todos los nodos de clúster que necesitan una núcleo de aplicación capturado.
/etc/sysconfig/cluster
. El parámetro DAEMONCOREFILELIMIT
permite al núcleo del daemon la creación de archivos de núcleo si el proceso se bloquea. Existe una opción -w
que evita la ejecución del proceso de vigilancia. El daemon de vigilancia. El daemon de vigilancia es responsable del reinicio del nodo del clúster si rgmanager
se cuelga y algunos casos, si el daemon de vigilancia está ejecutándose entonces el archivo de núcleo no se generará, por lo tanto debe inhabilitarse para capturar archivos de núcleo.
DAEMONCOREFILELIMIT="unlimited" RGMGR_OPTS="-w"
service rgmanager restart
Nota
rgmanager
.
ls /core*
/core.11926
rgmanager
para capturar el núcleo de aplicación. El nodo de clúster que experimentó el bloqueó de rgmanager
debe reiniciarse o cercarse después de que el núcleo sea capturado para garantizar que el proceso de vigilancia no esté en ejecución.
9.4.3. Registro de una sesión gdb
de seguimiento
gdb
, el depurador GNU. Para registrar una sesión de script del gdb
en el archivo de núcleo desde el sistema afectado, ejecute lo siguiente:
$ script /tmp/gdb-rgmanager.txt $ gdb /usr/sbin/rgmanager /tmp/rgmanager-.core.
gdb
, mientras que script
lo registra en el archivo de texto apropiado. Cuando esté en gdb
, ejecute los siguientes comandos:
(gdb) thread apply all bt full (gdb) quit
ctrl-D
para detener la sesión de script y guárdela en el archivo de texto.
9.5. Colgado de servicios de clúster
- El clúster puede haber intentado cercar un nodo y la operación de valla puede haber fallado.
- Observe en el archivo
/var/log/messages
en todos los nodos y vea si hay mensajes de vallas fallidos. Si los hay, reinicie los nodos en el clúster y configure correctamente el cercado. - Verifique que la partición de red no ocurrió, como se describe en la Sección 9.8, “Cada nodo en un reporte de clúster de dos nodos reporta el segundo nodo caído”. También verifique si la comunicación entre nodos es aún posible y si la red está activa.
- Si nodos abandonan el clúster, habrá falta de cuórum. El clúster necesita tener cuórum de nodos para funcionar. Si se retiran nodos de tal forma que el clúster ya no tiene cuórum, los servicios y el almacenamiento se colgarán. Puede ajustar los votos esperados o retornar al clúster la cantidad de nodos requerida.
Nota
fence_node
o con Conga. Para obtener información, consulte la página de manual fence_node
y la Sección 4.3.2, “Hacer que un nodo abandone o se una a un clúster”.
9.6. El servicio de clúster no iniciará
- Puede haber un error de sintaxis en el archivo
cluster.conf
. Use el comandorg_test
para validar la sintaxis en su configuración. Si hay fallas de configuración o sintaxis,rg_test
le dirá cual es el problema.$
rg_test test /etc/cluster/cluster.conf start service servicename
Para obtener mayor información sobre el comandorg_test
, consulte la Sección C.5, “Depuración y prueba de servicios y ordenamiento de recursos”.Si la configuración es válida, entonces el registro del gestor de grupo de recursos aumenta y lee los registros de mensajes para determinar lo que está haciendo que el inicio del servicio falle. Puede aumentar el nivel de registro al adicionar el parámetrologlevel="7"
a la etiquetarm
en el archivocluster.conf
. Luego obtendrá verbosidad en sus registros de mensajes respecto a iniciación, detención y migración de servicios en clúster.
9.7. Servicio controlado de clúster falla al migrar
- Asegúrese de que los recursos requeridos para ejecutar un servicio determinado estén presentes en todos los nodos en el clúster que pueden requerirse para ejecutar ese servicio. Por ejemplo, si su servicio de clúster asume que hay un archivo de script en una ubicación específica o un sistema de archivos montado en un punto de montaje específico, entonces debe asegurarse de que todos esos recursos estén disponibles en los lugares esperados en todos los nodos en el clúster.
- Asegúrese de que los dominios de conmutación, la dependencia del servicio y la exclusividad del servicio no estén configurados de tal forma que usted no pueda migrar servicios a nodos como lo esperaría.
- Si el servicio en cuestión es un recurso de máquina virtual, revise la documentación para asegurarse de que todo el trabajo de configuración ha sido completado.
- Aumente el registro de gestor de grupo de recursos, como se describe en la Sección 9.6, “El servicio de clúster no iniciará”, y luego lea los registros de mensajes para determinar lo que está ocasionando que el inicio del servicio falle al migrar.
9.8. Cada nodo en un reporte de clúster de dos nodos reporta el segundo nodo caído
9.9. Nodos se cercan en Falla de ruta LUN
9.10. El disco de cuórum no aparece como miembro de clúster
- Asegúrese de tener
chkconfig on
para el servicioqdisk
. - Asegúrese de haber iniciado el servicio
qdisk
. - Observe que puede tomar varios minutos para que el disco de cuórum se registre al clúster. Esta es una conducta normal y esperada.
9.11. Conducta de conmutación inusual
9.12. El cercado se presenta en forma aleatoria
- La causa de las vallas es siempre un nodo que pierde el símbolo, es decir que pierde la comunicación con el resto del clúster y se detiene retornando latidos.
- Cualquier situación que resulte en un sistema que no retorne latidos dentro de un intervalo de símbolo especificado puede conducir a una valla. El intervalo de símbolo predeterminado es de 10 segundos. Puede ser especificado al añadir el valor deseado (en ms) al parámetro de símbolo de la etiqueta de totem en el archivo
cluster.conf
(por ejemplo, si establece untotem token="30000"
para 30 segundos). - Verifique si la red es segura y está funcionando como se espera.
- Verifique si las interfaces que utiliza el clúster usan la comunicación internodos ahora utiliza el modo de enlace diferente a 0, 1, o 2. (los modos de enlace 0 y 2 tienen soporte a partir de Red Hat Enterprise Linux 6.4.)
- Tome medidas para determinar si el sistema se está "congelando" o si hay una emergencia de kernel. Configure la herramienta
kdump
y observe si obtiene un núcleo en una de esas vallas. - Asegúrese que no se esté presentando alguna situación en la que usted esté erróneamente atribuyendo al cercado, por ejemplo el disco de cuórum que expulsa un nodo debido a una falla o a un producto de terceros tales como reinicio de RAC Oracle debido a alguna condición externa. Los registros de mensajes siempre son muy útiles para determinar dichos problemas. Cuando se presentan reinicios de vallas o nodos debería ser una práctica común inspeccionar los registros de mensajes de todos los nodos en el clúster desde que se presentan el reinicio y el cercado.
- Revise detenidamente el sistema por si hay fallas de hardware que puedan hacer que el sistema no responda a los latidos cuando se espera.
9.13. El registro de depuración para el Gestor de bloqueo distribuido (DLM) necesita estar habilitado.
/etc/cluster/cluster.conf
para añadir opciones de configuración a la etiqueta dlm
. La opción log_debug
habilita los mensajes de depuración de kernel DLM y la opción plock_debug
habilita los mensajes de depuración de bloqueo POSIX.
/etc/cluster/cluster.conf
muestra la etiqueta de dlm
que activa ambas opciones de depuración DLM:
<cluster config_version="42" name="cluster1"> ... <dlm log_debug="1" plock_debug="1"/> ... </cluster>
/etc/cluster/cluster.conf
, ejecute el comando cman_tool version -r
para propagar la configuración al resto de los nodos de clúster.
Capítulo 10. Configuración de SNMP con adición de alta disponibilidad de Red Hat
10.1. SNMP y adición de alta disponibilidad de Red Hat
foghorn
, el cual emite las capturas SNMP. El subagente foghorn
se comunica con el daemon snmpd
mediante el protocolo AgentX. El subagente foghorn
solamente crea capturas SNMP; no soporta otras funciones de SNMP tales como get
o set
.
config
para el subagente foghorn
. No puede ser configurado para usar un socket específico; solamente el socket AgentX predeterminado es compatible en el momento.
10.2. Configuración SNMP con la adición de alta disponibilidad de Red Hat
- Para usar capturas SNMP con adiciones de alta disponibilidad de Red Hat, el servicio
snmpd
es requerido y actúa como el agente maestro. Puesto que el serviciofoghorn
es el subagente y utiliza el protocolo AgentX, debe añadir la siguiente línea al archivo/etc/snmp/snmpd.conf
para activar el soporte de AgentX:master agentx
- Para especificar a dónde se deben enviar las notificaciones de capturas SNMP, añada la siguiente línea al archivo
/etc/snmp/snmpd.conf
:trap2sink host
Para obtener mayor información sobre manejo de notificaciones, consulte la página de manualsnmpd.conf
. - Asegúrese de que el daemon
snmpd
esté activado y en ejecución mediante los siguientes comandos:#
chkconfig snmpd on
#service snmpd start
- Si el daemon
messagebus
no está activado aún y en ejecución, ejecute los siguientes comandos:#
chkconfig messagebus on
#service messagebus start
- Asegúrese de que el daemon
foghorn
esté activo y en ejecución mediante los siguientes comandos:#
chkconfig foghorn on
#service foghorn start
- Ejecute el siguiente comando para configurar su sistema con el fin de que
COROSYNC-MIB
genere capturas SNMP para garantizar que el daemoncorosync-notifyd
esté activo y en ejecución:$
echo "OPTIONS=\"-d\" " > /etc/sysconfig/corosync-notifyd
$chkconfig corosync-notifyd on
$service corosync-notifyd start
foghorn
y traducidas a capturas SNMPv2. Dichas capturas luego se pasan al hosta que usted definió con la entrada trapsink
para recibir capturas SNMPv2.
10.3. Cómo reenviar capturas SNMP
snmptrapd
en la máquina externa y personalizar cómo responder a esas notificaciones.
- Para cada nodo en el clúster, siga el procedimiento descrito en la Sección 10.2, “Configuración SNMP con la adición de alta disponibilidad de Red Hat”, estableciendo la entrada
trap2sink host
en el archivo/etc/snmp/snmpd.conf
para especificar el host externo que estará ejecutando el daemonsnmptrapd
. - En el host externo que recibirá las capturas, edite el archivo de configuración
/etc/snmp/snmptrapd.conf
para especificar sus cadenas comunitarias. Por ejemplo, puede usar la siguiente entrada para permitir que el daemonsnmptrapd
procese las notificaciones mediante la cadena comunitariapublic
.authCommunity log,execute,net public
- En el host externo que recibirá las capturas, asegúrese de que el daemon
snmptrapd
esté activado y en ejecución mediante los siguientes comandos.#
chkconfig snmptrapd on
#service snmptrapd start
snmptrapd.conf
.
10.4. Capturas SNMP producidas por la adición de alta disponibilidad de Red Hat
foghorn
genera las siguientes capturas:
fenceNotifyFenceNode
Esta captura se presenta cuando un nodo cercado intenta cercar otro nodo. Observe que esta captura solamente se genera en un nodo -- el nodo que intentó realizar esta operación de valla. La notificación incluye los siguientes campos:fenceNodeName
- nombre del nodo cercadofenceNodeID
- ID de nodo del nodo cercadofenceResult
- el resultado de la operación de valla (0 para correcto, -1 para cuando algo salió mal, -2 para métodos de cercado no definidos)
rgmanagerServiceStateChange
Esta captura se presenta cuando el estado de un servicio de clúster cambia. La notificación incluye los siguientes campos:rgmanagerServiceName
- el nombre del servicio, el cual incluye el tipo de servicio (por ejemplo,service:foo
ovm:foo
).rgmanagerServiceState
- el estado del servicio. Excluye los estados tales comostarting
ystopping
para reducir bloqueos en las capturas.rgmanagerServiceFlags
- los indicadores del servicio. Actualmente hay dos indicadores con soporte:frozen
, el cual indica un servicio que ha sido congelado medianteclusvcadm -Z
, ypartial
, indicando un servicio en el cual un recurso fallido ha sido marcado comonon-critical
para que el recurso falle y sus componentes reinicien en forma manual sin que todo el servicio se afecte.rgmanagerServiceCurrentOwner
- el propietario del servicio. Si el servicio no está en ejecución, será(none)
.rgmanagerServicePreviousOwner
- el último propietario del servicio conocido, si se conoce. Si el último propietario es desconocido, puede indicar(none)
.
corosync-nodifyd
genera las siguientes capturas:
corosyncNoticesNodeStatus
Esta captura se presenta cuando un nodo se conecta o abandona el clúster. La notificación incluye los siguientes campos:corosyncObjectsNodeName
- nombre de nodocorosyncObjectsNodeID
- ID de nodocorosyncObjectsNodeAddress
- dirección IP de nodocorosyncObjectsNodeStatus
- estatus de nodo (joined
oleft
)
corosyncNoticesQuorumStatus
Esta captura se presenta cuando el estado de cuórum cambia. La notificación incluye los siguientes campos:corosyncObjectsNodeName
- nombre de nodocorosyncObjectsNodeID
- ID de nodocorosyncObjectsQuorumStatus
- nuevo estado del cuórum (quorate
oNOT quorate
)
corosyncNoticesAppStatus
Esta captura se presenta cuando la aplicación de clientes se conecta o desconecta de Corosync.corosyncObjectsNodeName
- nombre de nodocorosyncObjectsNodeID
- ID de nodocorosyncObjectsAppName
- nombre de aplicacióncorosyncObjectsAppStatus
- nuevo estado de aplicación (connected
odisconnected
)
Capítulo 11. Configuraciones de Samba en clúster
Nota
11.1. Visión general de CTDB
11.2. Paquetes requeridos
ctdb
samba
samba-common
samba-winbind-clients
11.3. Configuración de GFS2
/dev/csmb_vg/csmb_lv
, el cual guarda los datos de usuario que serán exportados a través de un recurso compartido de Samba y debe ajustarse al tamaño correspondiente. Este ejemplo crea un volumen lógico que tiene un tamaño de 100 GB./dev/csmb_vg/ctdb_lv
, el cual almacenará la información del estado de CTDB y necesita un tamaño de 1 GB.
mkfs.gfs2
. Puede ejecutar este comando en un nodo de clúster únicamente.
/dev/csmb_vg/csmb_lv
, ejecute el siguiente comando:
[root@clusmb-01 ~]# mkfs.gfs2 -j3 -p lock_dlm -t csmb:gfs2 /dev/csmb_vg/csmb_lv
-j
- Especifica el número de diarios para crear en el sistema de archivos. Este ejemplo usa un clúster con tres nodos, por lo tanto creamos un diario por nodo.
-p
- Especifica el protocolo de cerrojo.
lock_dlm
es el protocolo de cerrojo que GFS2 usa para comunicación entre nodos. -t
- Especifica el nombre de tabla de cerrojo y tiene el formato nombre de clúster:nombre de sistema de archivos. En este ejemplo, el nombre del clúster como se especifica en el archivo
cluster.conf
es elcsmb
, y utilizamosgfs2
como el nombre para el sistema de archivos.
This will destroy any data on /dev/csmb_vg/csmb_lv.
It appears to contain a gfs2 filesystem.
Are you sure you want to proceed? [y/n] y
Device:
/dev/csmb_vg/csmb_lv
Blocksize: 4096
Device Size 100.00 GB (26214400 blocks)
Filesystem Size: 100.00 GB (26214398 blocks)
Journals: 3
Resource Groups: 400
Locking Protocol: "lock_dlm"
Lock Table: "csmb:gfs2"
UUID:
94297529-ABG3-7285-4B19-182F4F2DF2D7
/dev/csmb_vg/csmb_lv
se montará en /mnt/gfs2
sobre todos los nodos. Este punto de montaje debe coincidir con el valor que especifique como el sitio del directorio share
con la opción path =
en el archivo /etc/samba/smb.conf
, como se describe en la Sección 11.5, “Configuración de Samba”.
/dev/csmb_vg/ctdb_lv
, ejecute el siguiente comando:
[root@clusmb-01 ~]# mkfs.gfs2 -j3 -p lock_dlm -t csmb:ctdb_state /dev/csmb_vg/ctdb_lv
/dev/csmb_vg/csmb_lv
. Este distingue los nombres de tablas de cerrojo para los diferentes dispositivos utilizados para los sistemas de archivos.
mkfs.gfs2
es la siguiente:
This will destroy any data on /dev/csmb_vg/ctdb_lv.
It appears to contain a gfs2 filesystem.
Are you sure you want to proceed? [y/n] y
Device:
/dev/csmb_vg/ctdb_lv
Blocksize: 4096
Device Size 1.00 GB (262144 blocks)
Filesystem Size: 1.00 GB (262142 blocks)
Journals: 3
Resource Groups: 4
Locking Protocol: "lock_dlm"
Lock Table: "csmb:ctdb_state"
UUID:
BCDA8025-CAF3-85BB-B062-CC0AB8849A03
/dev/csmb_vg/ctdb_lv
se montará en /mnt/ctdb
sobre todos los nodos. Este punto de montaje coincide con el valor que especifique como sitio para el archivo .ctdb.lock
con la opción CTDB_RECOVERY_LOCK
en el archivo /etc/sysconfig/ctdb
, como se describe en la Sección 11.4, “Configuración de CTDB”.
11.4. Configuración de CTDB
/etc/sysconfig/ctdb
. Los campos obligatorios que deben configurarse para la operación de CTBD es la siguiente:
CTDB_NODES
CTDB_PUBLIC_ADDRESSES
CTDB_RECOVERY_LOCK
CTDB_MANAGES_SAMBA
(debe estar activado)CTDB_MANAGES_WINBIND
(debe estar activado si se ejecuta en un servidor miembro)
CTDB_NODES=/etc/ctdb/nodes CTDB_PUBLIC_ADDRESSES=/etc/ctdb/public_addresses CTDB_RECOVERY_LOCK="/mnt/ctdb/.ctdb.lock" CTDB_MANAGES_SAMBA=yes CTDB_MANAGES_WINBIND=yes
CTDB_NODES
- Especifica la ubicación del archivo que contiene la lista de nodos de clúster.El archivo
/etc/ctdb/nodes
que hace referencia aCTDB_NODES
simplemente enumera las direcciones IP de los nodos de clúster, así como en el siguiente ejemplo:192.168.1.151 192.168.1.152 192.168.1.153
En este ejemplo, hay únicamente una interfaz/IP en cada nodo que se utiliza para comunicación de clúster y CTDB y los clientes servidores. Sin embargo , se recomienda que cada nodo de usuario tenga dos interfaces de red para que una serie de interfaces pueda dedicarse al acceso de cliente público. Use las direcciones IP apropiadas de red de clúster aquí y asegúrese de que los nombres de host y direcciones IP utilizadas en el archivocluster.conf
sean las mismas. Igualmente, use las interfaces apropiadas de la red pública para acceder al cliente en el archivopublic_addresses
.Es crucial que el archivo/etc/ctdb/nodes
sea idéntico en todos los nodos porque el ordenamiento es importante y CTDB fallará si encuentra información diferente en nodos diferentes. CTDB_PUBLIC_ADDRESSES
- Especifica el sitio del archivo que lista las direcciones IP que pueden servir para acceder a los recursos compartidos de Samba exportados por este clúster. Se trata de direcciones IP que debe configurar en DNS para el nombre del servidor de Samba en clúster y de las direcciones a las que los clientes CIFS se conectarán. Configure el nombre del servidor de Samba en clúster como un registro de DNS tipo A con múltiples direcciones IP y permita que DNS round-robin distribuya los clientes a través de los nodos del clúster.Para este ejemplo, hemos configurado una entrada DNS round-robin
csmb-server
con todas las direcciones listadas en el archivo/etc/ctdb/public_addresses
. DNS distribuirá los clientes que usan dicha entrada a través del clúster a la manera de round-robin.El contenido del archivo/etc/ctdb/public_addresses
en cada nodo es el siguiente:192.168.1.201/0 eth0 192.168.1.202/0 eth0 192.168.1.203/0 eth0
Este ejemplo muestra tres direcciones que actualmente no se utilizan en la red. En su propia configuración, elija las direcciones que pueden acceder los presuntos clientes.Como otra alternativa, este ejemplo muestra el contenido de los archivos/etc/ctdb/public_addresses
en un clúster en el cual hay tres nodos, pero un total de cuatro direcciones públicas. En este ejemplo, la dirección IP 198.162.2.1 puede ser el nodo 0 o el nodo 1 y estará disponible para clientes siempre y cuando al menos uno de estos nodos esté disponible. Solo si ambos nodos 0 y 1 fallan, la dirección pública no estará disponible para clientes. Las demás direcciones públicas solo pueden ser servidas por un nodo individual respectivamente y, por lo tanto, solo estarán disponibles si el respectivo nodo lo está.El archivo/etc/ctdb/public_addresses
en nodo 0 incluye el siguiente contenido:198.162.1.1/24 eth0 198.162.2.1/24 eth1
El archivo/etc/ctdb/public_addresses
en el nodo 1 incluye el siguiente contenido:198.162.2.1/24 eth1 198.162.3.1/24 eth2
El archivo/etc/ctdb/public_addresses
en el nodo 2 incluye el siguiente contenido:198.162.3.2/24 eth2
CTDB_RECOVERY_LOCK
- Especifica un archivo de cerrojo que CTDB usa internamente para recuperación. Este archivo debe residir en almacenaje compartido de tal forma que todos los nodos de clúster tengan acceso a él. El ejemplo en esta sección usa el sistema de archivos GFS2 que se montará en
/mnt/ctdb
en todos los nodos. Es diferente al sistema de archivos GFS2, el cual albergará al recurso compartido de Samba que será exportado. Este archivo de cerrojo de recuperación sirve para evitar escenarios de cerebro divido. Con versiones más recientes de CTDB (1.0.112 y posteriores), la especificación de este archivo es opcional siempre y cuando se sustituya por otro mecanismo de prevención de cerebro dividido. CTDB_MANAGES_SAMBA
- Al activar con
yes
, especifica que CTDB puede iniciar y detener el servicio de Samba, ya que se hace necesario proveer el servicio de migración y conmutación.CuandoCTDB_MANAGES_SAMBA
está activada, debe desactivar el inicio automáticoinit
, de los daemonssmb
ynmb
con los siguientes comandos:[root@clusmb-01 ~]#
chkconfig snb off
[root@clusmb-01 ~]#chkconfig nmb off
CTDB_MANAGES_WINBIND
- SI lo habilita con
yes
, especifica que la CTDB puede iniciar o parar el daemonwinbind
como se requiere. Debe estar activa cuando utilice CTDB en un dominio de Windows o en un modo de seguridad de directorio activo.Cuando se habilitaCTDB_MANAGES_WINBIND
, deberá desactivar el inicio automáticoinit
del daemonwinbind
con el siguiente comando:[root@clusmb-01 ~]#
chkconfig windinbd off
11.5. Configuración de Samba
smb.conf
se localiza en /etc/samba/smb.conf
en este ejemplo. Contiene los siguientes parámetros::
[global] guest ok = yes clustering = yes netbios name = csmb-server [csmb] comment = Clustered Samba public = yes path = /mnt/gfs2/share writeable = yes ea support = yes
csmb
localizado en /mnt/gfs2/share
. Este difiere del sistema de archivos compartido GFS2 en /mnt/ctdb/.ctdb.lock
que especificamos como el parámetro CTDB_RECOVERY_LOCK
en el archivo de configuracióoon CTDB en /etc/sysconfig/ctdb
.
share
en /mnt/gfs2
al montarlo por primera vez. La entrada clustering = yes
le dice a Samba que utilice CTDB. La entrada netbios name = csmb-server
establece de forma explícita todos los nodos para que tengan un nombre NetBIOS común. El parámetro ea support
se requiere si planea usar atributos extendidos.
smb.conf
debe ser idéntico en todos los nodos del clúster.
net conf
para mantener sincronizada la configuración de forma automática entre los miembros de clúster sin necesidad de copiar manualmente los archivos de configuración entre los nodos de clúster. Para obtener información sobre el comando net conf
, consulte la página de manual net
(8).
11.6. Cómo iniciar CTDB y los servicios de Samba
share
y las cuentas de usuario en los nodos de clúster deben configurarse para acceso de cliente.
ctdbd
. Ya que este ejemplo configuró CTDB con CTDB_MANAGES_SAMBA=yes
, CTDB también iniciará el servicio Samba en todos los nodos y exportará todos los recursos compartidos de Samba configurados.
[root@clusmb-01 ~]# service ctdb start
ctdb status
muestra el estatus de CTDB, como en el siguiente ejemplo:
[root@clusmb-01 ~]# ctdb status
Number of nodes:3
pnn:0 192.168.1.151 OK (THIS NODE)
pnn:1 192.168.1.152 OK
pnn:2 192.168.1.153 OK
Generation:1410259202
Size:3
hash:0 lmaster:0
hash:1 lmaster:1
hash:2 lmaster:2
Recovery mode:NORMAL (0)
Recovery master:0
11.7. Cómo usar el servidor Samba en clúster
/etc/ctdb/public_addresses
o mediante la entrada de DNS csmb-server
que configuramos antes, como se muestra a continuación:
[root@clusmb-01 ~]# mount -t cifs //csmb-server/csmb /mnt/sambashare -o user=testmonkey
[user@clusmb-01 ~]$ smbclient //csmb-server/csmb
Apéndice A. Parámetros de dispositivos de valla
ccs
o al editar el archivo etc/cluster/cluster.conf
. Para obtener una lista y una descripción completa de los parámetros de valla para cada agente de valla, consulte la página de manual para dicho agente.
Nota
Nota
/etc/cluster/cluster.conf
).
fence_apc
, el agente de valla para APC en telnet/SSH.
Campo luci | Atributo cluster.conf | Descripción |
---|---|---|
Nombre | name | Un nombre para el dispositivo APC conectado al clúster dentro del cual el daemon de valla ingresa a través de telnet/ssh. |
Dirección IP o nombre de host | ipaddr | La dirección IP o nombre de host asignado al dispositivo. |
Puerto IP (opcional) | ipport | El puerto TCP a usar para conectar al dispositivo. |
El nombre de usuario | login | El nombre de usuario utilizado para acceder el dispositivo. |
Contraseña | passwd | La contraseña utilizada para autenticar la conexión al dispositivo. |
Script de contraseña (opcional) | passwd_script | El script que proporciona una contraseña para acceder al dispositivo de valla. Su uso remplaza el parámetro de | .
Espera de energía | power_wait | Número de segundos de espera después de expedir un comando de apagado o encendido. |
Puerto | port | El puerto. |
Interruptor (opcional) | switch | El número de interruptor para el interruptor APC que conecta al nodo cuando se tienen varios interruptores Daisy en cadena. |
Usa SSH | secure | Indica que el sistema utilizará SSH para acceder al dispositivo. |
Ruta al archivo de identidad SSH | identity_file | El archivo de identidad para SSH. |
fence_apc_snmp
, el agente de valla para APC que se registra en el dispositivo SNP a través del protocolo SNP.
Campo luci | Atributo cluster.conf | Descripción |
---|---|---|
Nombre | name | Un nombre para el dispositivo APC conectado al clúster dentro del cual el daemon de valla ingresa vía el protocolo SNMP. |
Dirección IP o nombre de host | ipaddr | La dirección IP o nombre de host asignado al dispositivo. |
Puerto UDP/TCP | udpport | El puerto UDP/TCP a usar para la conexión con el dispositivo, el valor predeterminado es 161. |
El nombre de usuario | login | El nombre de usuario utilizado para acceder el dispositivo. |
Contraseña | passwd | La contraseña utilizada para autenticar la conexión al dispositivo. |
Script de contraseña (opcional) | passwd_script | El script que proporciona una contraseña para acceder al dispositivo de valla. Su uso remplaza el parámetro de | .
Versión SNMP | snmp_version | La versión SNMP a usar (1, 2c, 3); el valor predeterminado es 1. |
Comunidad SNMP | community | La cadena de comunidad SNMP, el valor predeterminado es private . |
Nivel de seguridad SNMP | snmp_sec_level | El nivel de seguridad SNMP (noAuthNoPriv, authNoPriv, authPriv). |
Protocolo de autenticación SNMP | snmp_auth_prot | El protocolo de autenticación SNMP (MD5, SHA). |
Protocolo de privacidad SNMP | snmp_priv_prot | El protocolo de privacidad SNMP (DES, AES). |
Contraseña de protocolo de privacidad SNMP | snmp_priv_passwd | La contraseña de protocolo de privacidad SNMP. |
El script de protocolo de privacidad SNMP | snmp_priv_passwd_script | El script que proporciona una contraseña para el protocolo de privacidad SNMP. Su uso remplaza el parámetro | .
Espera de energía | power_wait | Número de segundos de espera después de expedir un comando de apagado o encendido. |
Número de puerto (salida) | port | El puerto. |
fence_brocade
, el agente de vallas para interruptores Brocade FC.
Campo luci | Atributo cluster.conf | Descripción |
---|---|---|
Nombre | name | Un nombre para el dispositivo Brocade conectado al clúster. |
Dirección IP o nombre de host | ipaddr | La dirección IP asignada al dispositivo. |
El nombre de usuario | login | El nombre de usuario utilizado para acceder el dispositivo. |
Contraseña | passwd | La contraseña utilizada para autenticar la conexión al dispositivo. |
Script de contraseña (opcional) | passwd_script | El script que proporciona una contraseña para acceder al dispositivo de valla. Su uso remplaza el parámetro de | .
Puerto | port | El número de salida de interruptor. |
fence_cisco_mds
, el agente de valla para Cisco MDS.
Campo luci | Atributo cluster.conf | Descripción |
---|---|---|
Nombre | name | Un nombre para el dispositivo series 9000 Cisco MDS con SNMP habilitado. |
Dirección IP o nombre de host | ipaddr | La dirección IP o nombre de host asignado al dispositivo. |
Puerto UDP/TCP | udpport | El puerto UDP/TCP a usar para la conexión con el dispositivo, el valor predeterminado es 161. |
El nombre de usuario | login | El nombre de usuario utilizado para acceder el dispositivo. |
Contraseña | passwd | La contraseña utilizada para autenticar la conexión al dispositivo. |
Script de contraseña (opcional) | passwd_script | El script que proporciona una contraseña para acceder al dispositivo de valla. Su uso remplaza el parámetro de | .
Número de puerto (salida) | port | El puerto. |
Versión SNMP | snmp_version | La versión SNMP a usar (1, 2c, 3). |
Comunidad SNMP | community | La cadena de comunidad SNMP. |
Nivel de seguridad SNMP | snmp_sec_level | El nivel de seguridad SNMP (noAuthNoPriv, authNoPriv, authPriv). |
Protocolo de autenticación SNMP | snmp_auth_prot | El protocolo de autenticación SNMP (MD5, SHA). |
Protocolo de privacidad SNMP | snmp_priv_prot | El protocolo de privacidad SNMP (DES, AES). |
Contraseña de protocolo de privacidad SNMP | snmp_priv_passwd | La contraseña de protocolo de privacidad SNMP. |
El script de protocolo de privacidad SNMP | snmp_priv_passwd_script | El script que proporciona una contraseña para el protocolo de privacidad SNMP. Su uso remplaza el parámetro | .
Espera de energía | power_wait | Número de segundos de espera después de expedir un comando de apagado o encendido. |
fence_cisco_ucs
, el agente de valla para Cisco UCS.
Campo luci | Atributo cluster.conf | Descripción |
---|---|---|
Nombre | name | Un nombre para el dispositivo Cisco UCS. |
Dirección IP o nombre de host | ipaddr | La dirección IP o nombre de host asignado al dispositivo. |
Puerto IP (opcional) | ipport | El puerto TCP a usar para conectar al dispositivo. |
El nombre de usuario | login | El nombre de usuario utilizado para acceder el dispositivo. |
Contraseña | passwd | La contraseña utilizada para autenticar la conexión al dispositivo. |
Script de contraseña (opcional) | passwd_script | El script que proporciona una contraseña para acceder al dispositivo de valla. Su uso remplaza el parámetro de | .
Usa SSL | ssl | Usa las conexiones SSL para comunicarse con el dispositivo. |
Suborganización | suborg | Ruta adicional necesario para acceder a la organización. |
Número de puerto (salida) | port | Nombre de la máquina virtual |
Espera de energía | power_wait | Número de segundos de espera después de expedir un comando de apagado o encendido. |
fence_drac5
, el agente de valla para Dell DRAC 5.
Campo luci | Atributo cluster.conf | Descripción |
---|---|---|
Nombre | name | El nombre asignado al DRAC. |
Dirección IP o nombre de host | ipaddr | La dirección IP o nombre de host asignado al DRAC. |
Puerto IP (opcional) | ipport | El puerto TCP a usar para conectar al dispositivo. |
El nombre de usuario | login | El nombre de usuario para acceder al DRAC |
Contraseña | passwd | La contraseña utilizada para autenticar la conexión al DRAC. |
Script de contraseña (opcional) | passwd_script | El script que proporciona una contraseña para acceder al dispositivo de valla. Su uso remplaza el parámetro de | .
Usa SSH | secure | Indica que el sistema usa SSH para acceder el dispositivo. |
Ruta al archivo de identidad SSH | identity_file | El archivo de identidad para SSH. |
Nombre de módulo | module_name | (opcional) El nombre de módulo para el DRAC cuando se tienen varios módulos DRAC. |
Forzar el indicador de comandos | cmd_prompt | El indicador de comandos a usar. El valor predeterminado es ’\$’. |
Espera de energía | power_wait | Número de segundos de espera después de expedir un comando de apagado o encendido. |
fence_eaton_snmp
, el agente de valla para Eaton en el interruptor de energía de red SNMP.
Campo luci | Atributo cluster.conf | Descripción |
---|---|---|
Nombre | name | Un nombre para el interruptor de red Eaton conectado al clúster. |
Dirección IP o nombre de host | ipaddr | La dirección IP o nombre de host asignado al dispositivo. |
Puerto UDP/TCP (opcional) | udpport | El puerto UDP/TCP a usar para la conexión con el dispositivo, el valor predeterminado es 161. |
El nombre de usuario | login | El nombre de usuario utilizado para acceder el dispositivo. |
Contraseña | passwd | La contraseña utilizada para autenticar la conexión al dispositivo. |
Script de contraseña (opcional) | passwd_script | El script que proporciona una contraseña para acceder al dispositivo de valla. Su uso remplaza el parámetro de | .
Versión SNMP | snmp_version | La versión SNMP a usar (1, 2c, 3); el valor predeterminado es 1. |
Comunidad SNMP | community | La cadena de comunidad SNMP, el valor predeterminado es private . |
Nivel de seguridad SNMP | snmp_sec_level | El nivel de seguridad SNMP (noAuthNoPriv, authNoPriv, authPriv). |
Protocolo de autenticación SNMP | snmp_auth_prot | El protocolo de autenticación SNMP (MD5, SHA). |
Protocolo de privacidad SNMP | snmp_priv_prot | El protocolo de privacidad SNMP (DES, AES). |
Contraseña de protocolo de privacidad SNMP | snmp_priv_passwd | La contraseña de protocolo de privacidad SNMP. |
El script de protocolo de privacidad SNMP | snmp_priv_passwd_script | El script que proporciona una contraseña para el protocolo de privacidad SNMP. Su uso remplaza el parámetro | .
Power wait (segundos) | power_wait | Número de segundos de espera después de expedir un comando de apagado o encendido. |
Número de puerto (salida) | port | El número de conexión física o nombre de la máquina virtual. El parámetro es obligatorio. |
fence_egenera
, el agente de vallas para Egenera BladeFrame.
Campo luci | Atributo cluster.conf | Descripción |
---|---|---|
Nombre | name | Un nombre para el dispositivo Egenera BladeFrame conectado al clúster. |
CServer | cserver | El nombre de host (y opcionalmente el nombre de usuario en la forma de username@hostname ) asignado al dispositivo. Consulte la página de manual fence_egenera(8) para obtener mayor información. |
Ruta ESH (opcional) | esh | La ruta al comando esh en el cserver (el predeterminado es /opt/pan- mgr/bin/esh) |
Nombre de host | user | El nombre de ingreso. El valor predeterminado es root . |
lpan | lpan | La red del área del proceso lógico (LPAN) del dispositivo. |
pserver | pserver | LA cuchilla de procesamiento (pserver) del nombre del dispositivo. |
fence_eps
, el agente de dispositivos para ePowerSwitch.
Campo luci | Atributo cluster.conf | Descripción |
---|---|---|
Nombre | name | Un nombre para el dispositivo ePowerSwitch conectado al clúster. |
Dirección IP o nombre de host | ipaddr | La dirección IP o nombre de host asignado al dispositivo. |
El nombre de usuario | login | El nombre de usuario utilizado para acceder el dispositivo. |
Contraseña | passwd | La contraseña utilizada para autenticar la conexión al dispositivo. |
Script de contraseña (opcional) | passwd_script | El script que proporciona una contraseña para acceder al dispositivo de valla. Su uso remplaza el parámetro de | .
Nombre de página oculta | hidden_page | El nombre de la página oculta para el dispositivo. |
Número de puerto (salida) | port | El número de conexión física o nombre de la máquina virtual. |
fence_virt
, el valor del agente de vallas para una dispositivo de vallas Fence virt.
Campo luci | Atributo cluster.conf | Descripción |
---|---|---|
Nombre | name | Un nombre para el dispositivo de valla Fence virt. |
Dispositivo serial | serial_device | En el host, el dispositivo serial debe ser asignado en cada archivo de configuración de dominio. Para obtener mayor información, consulte la página de manual fence_virt.conf . Si este campo se especifica, es el agente de valla fence_virt que debe operar en modo serial. Al no especificar el valor el agente de valla fence_virt operará en modo de canal VM. |
Parámetros seriales | serial_params | Los parámetros seriales. El predeterminado es 115200, 8N1. |
Dirección IP de Canal VM | channel_address | El canal IP. El valor predeterminado es 10.0.2.179. |
Puerto o Dominio (depreciado) | port | La máquina virtual (dominio UUID o nombre) para la valla. |
ipport | El puerto de canal. El valor predeterminado es 1229, el cual se utiliza para configurar el dispositivos de valla con luci. |
fence_rsb
, el agente de vallas para Fujitsu-Siemens RSB.
Campo luci | Atributo cluster.conf | Descripción |
---|---|---|
Nombre | name | Un nombre para el RSB a usar como dispositivo de valla. |
Dirección IP o nombre de host | ipaddr | El nombre de host asignado al dispositivo. |
El nombre de usuario | login | El nombre de usuario utilizado para acceder el dispositivo. |
Contraseña | passwd | La contraseña utilizada para autenticar la conexión al dispositivo. |
Script de contraseña (opcional) | passwd_script | El script que proporciona una contraseña para acceder al dispositivo de valla. Su uso remplaza el parámetro de | .
Puerto TCP | ipport | El número de puerto en el cual el servicio telnet escucha. El valor predeterminado es 3172. |
fence_hpblade
, el agente de vallas para HP BladeSystem.
Campo luci | Atributo cluster.conf | Descripción |
---|---|---|
Nombre | name | El nombre asignado al dispositivo HP Bladesystem conectado al clústerr. |
Dirección IP o nombre de host | ipaddr | La dirección IP o nombre de host address or hostname assigned to the HP BladeSystem device. |
Puerto IP (opcional) | ipport | El puerto TCP a usar para conectar al dispositivo. |
El nombre de usuario | login | El nombre de inicio de sesión utilizado para acceder al dispositivo HP BladeSystem. Este parámetro es obligatorio. |
Contraseña | passwd | La contraseña utilizada para autenticar la conexión al dispositivo de valla. |
Script de contraseña (opcional) | passwd_script | El script que proporciona una contraseña para acceder al dispositivo de valla. Su uso remplaza el parámetro de | .
Forzar el indicador de comandos | cmd_prompt | El indicador de comandos a usar. El valor predeterminado es ’\$’. |
Puerto faltante retorna OFF (apagado) en lugar de falla | missing_as_off | Puerto faltante retorna OFF (apagado) en lugar de falla. |
Power wait (segundos) | power_wait | Número de segundos de espera después de expedir un comando de apagado o encendido. |
Usa SSH | secure | Indica que el sistema usa SSH para acceder el dispositivo. |
Ruta al archivo de identidad SSH | identity_file | El archivo de identidad para SSH. |
fence_ilo
, el agente de vallas para dispositivos HP iLO.
Campo luci | Atributo cluster.conf | Descripción |
---|---|---|
Nombre | name | Un nombre para el servidor con soporte HP iLO. |
Dirección IP o nombre de host | ipaddr | La dirección IP o nombre de host asignado al dispositivo. |
Puerto IP (opcional) | ipport | Puerto TCP a usar para conectar con el dispositivo. |
El nombre de usuario | login | El nombre de usuario utilizado para acceder el dispositivo. |
Contraseña | passwd | La contraseña utilizada para autenticar la conexión al dispositivo. |
Script de contraseña (opcional) | passwd_script | El script que proporciona una contraseña para acceder al dispositivo de valla. Su uso remplaza el parámetro de | .
Espera de energía | power_wait | Número de segundos de espera después de expedir un comando de apagado o encendido. |
fence_ilo_mp
, el agente de vallas para dispositivos HP iLO MP.
Campo luci | Atributo cluster.conf | Descripción |
---|---|---|
Nombre | name | Un nombre para el servidor con soporte HP iLO. |
Dirección IP o nombre de host | ipaddr | La dirección IP o nombre de host asignado al dispositivo. |
Puerto IP (opcional) | ipport | Puerto TCP a usar para conectar con el dispositivo. |
El nombre de usuario | login | El nombre de usuario utilizado para acceder el dispositivo. |
Contraseña | passwd | La contraseña utilizada para autenticar la conexión al dispositivo. |
Script de contraseña (opcional) | passwd_script | El script que proporciona una contraseña para acceder al dispositivo de valla. Su uso remplaza el parámetro de | .
Usa SSH | secure | Indica que el sistema usa SSH para acceder el dispositivo. |
Ruta al archivo de identidad SSH | identity_file | El archivo de identidad para SSH. |
Forzar el indicador de comandos | cmd_prompt | El indicador de comandos a usar. El valor predeterminado es ’MP>’, ’hpiLO->’. |
Espera de energía | power_wait | Número de segundos de espera después de expedir un comando de apagado o encendido. |
fence_bladecenter
, el agente de vallas para IBM BladeCenter.
Campo luci | Atributo cluster.conf | Descripción |
---|---|---|
Nombre | name | Un nombre para el dispositivo IBM BladeCenter conectado al clúster. |
Dirección IP o nombre de host | ipaddr | La dirección IP o nombre de host asignado al dispositivo. |
Puerto IP (opcional) | ipport | Puerto TCP a usar para conectar con el dispositivo. |
El nombre de usuario | login | El nombre de usuario utilizado para acceder el dispositivo. |
Contraseña | passwd | La contraseña utilizada para autenticar la conexión al dispositivo. |
Script de contraseña (opcional) | passwd_script | El script que proporciona una contraseña para acceder al dispositivo de valla. Su uso remplaza el parámetro de | .
Espera de energía | power_wait | Número de segundos de espera después de expedir un comando de apagado o encendido. |
Usa SSH | secure | Indica que el sistema utilizará SSH para acceder al dispositivo. |
Ruta al archivo de identidad SSH | identity_file | El archivo de identidad para SSH. |
fence_ibmblade
, el agente de vallas para IBM BladeCenter en SNMP.
Campo luci | Atributo cluster.conf | Descripción |
---|---|---|
Nombre | name | Un nombre para el dispositivo IBM BladeCenter SNMP conectado al clúster. |
Dirección IP o nombre de host | ipaddr | La dirección IP o nombre de host asignado al dispositivo. |
Puerto UDP/TCP (opcional) | udpport | Puerto UDP/TCP a usar para conexiones con el dispositivo; el valor predeterminado es 161. |
El nombre de usuario | login | El nombre de usuario utilizado para acceder el dispositivo. |
Contraseña | passwd | La contraseña utilizada para autenticar la conexión al dispositivo. |
Script de contraseña (opcional) | passwd_script | El script que proporciona una contraseña para acceder al dispositivo de valla. Su uso remplaza el parámetro de | .
Versión SNMP | snmp_version | La versión SNMP a usar (1, 2c, 3); el valor predeterminado es 1. |
Comunidad SNMP | community | La cadena de comunidad SNMP. |
Nivel de seguridad SNMP | snmp_sec_level | El nivel de seguridad SNMP (noAuthNoPriv, authNoPriv, authPriv). |
Protocolo de autenticación SNMP | snmp_auth_prot | El protocolo de autenticación SNMP (MD5, SHA). |
Protocolo de privacidad SNMP | snmp_priv_prot | El protocolo de privacidad SNMP (DES, AES). |
Contraseña de protocolo de privacidad SNMP | snmp_priv_passwd | La contraseña de protocolo de privacidad SNMP |
El script de protocolo de privacidad SNMP | snmp_priv_passwd_script | El script que proporciona una contraseña para el protocolo de privacidad SNMP. Su uso remplaza el parámetro | .
Espera de energía | power_wait | Número de segundos de espera después de expedir un comando de apagado o encendido. |
Puerto | port | El número de conexión física o nombre de la máquina virtual. |
fence_ipdu
, el agente de valla para iPDU sobre dispositivos SNMP.
Campo luci | Atributo cluster.conf | Descripción |
---|---|---|
Nombre | name | Un nombre para el dispositivo IBM iPDU conectado al clúster dentro del cual el daemon de valla ingresa vía el protocolo SNMP. |
Dirección IP o nombre de host | ipaddr | La dirección IP o nombre de host asignado al dispositivo. |
Puerto UDP/TCP | udpport | El puerto UDP/TCP a usar para la conexión con el dispositivo, el valor predeterminado es 161. |
El nombre de usuario | login | El nombre de usuario utilizado para acceder el dispositivo. |
Contraseña | passwd | La contraseña utilizada para autenticar la conexión al dispositivo. |
Script de contraseña (opcional) | passwd_script | El script que proporciona una contraseña para acceder al dispositivo de valla. Su uso remplaza el parámetro de | .
Versión SNMP | snmp_version | La versión SNMP a usar (1, 2c, 3); el valor predeterminado es 1. |
Comunidad SNMP | community | La cadena de comunidad SNMP, el valor predeterminado es private . |
Nivel de seguridad SNMP | snmp_sec_level | El nivel de seguridad SNMP (noAuthNoPriv, authNoPriv, authPriv). |
Protocolo de autenticación SNMP | snmp_auth_prot | El protocolo de autenticación SNMP (MD5, SHA). |
Protocolo de privacidad SNMP | snmp_priv_prot | El protocolo de privacidad SNMP (DES, AES). |
Contraseña de protocolo de privacidad SNMP | snmp_priv_passwd | La contraseña de protocolo de privacidad SNMP. |
El script de protocolo de privacidad SNMP | snmp_priv_passwd_script | El script que proporciona una contraseña para el protocolo de privacidad SNMP. Su uso remplaza el parámetro | .
Espera de energía | power_wait | Número de segundos de espera después de expedir un comando de apagado o encendido. |
Puerto | port | El puerto. |
fence_ifmib
, el agente de vallas para dispositivos IF-MIB.
Campo luci | Atributo cluster.conf | Descripción |
---|---|---|
Nombre | name | Un nombre para el dispositivo IF MIB conectado al clúster. |
Dirección IP o nombre de host | ipaddr | La dirección IP o nombre de host asignado al dispositivo. |
Puerto UDP/TCP (opcional) | udpport | El puerto UDP/TCP a usar para la conexión con el dispositivo, el valor predeterminado es 161. |
El nombre de usuario | login | El nombre de usuario utilizado para acceder el dispositivo. |
Contraseña | passwd | La contraseña utilizada para autenticar la conexión al dispositivo. |
Script de contraseña (opcional) | passwd_script | El script que proporciona una contraseña para acceder al dispositivo de valla. Su uso remplaza el parámetro de | .
Versión SNMP | snmp_version | La versión SNMP a usar (1, 2c, 3); el valor predeterminado es 1. |
Comunidad SNMP | community | La cadena de comunidad SNMP. |
Nivel de seguridad SNMP | snmp_sec_level | El nivel de seguridad SNMP (noAuthNoPriv, authNoPriv, authPriv). |
Protocolo de autenticación SNMP | snmp_auth_prot | El protocolo de autenticación SNMP (MD5, SHA). |
Protocolo de privacidad SNMP | snmp_priv_prot | El protocolo de privacidad SNMP (DES, AES). |
Contraseña de protocolo de privacidad SNMP | snmp_priv_passwd | La contraseña de protocolo de privacidad SNMP. |
El script de protocolo de privacidad SNMP | snmp_priv_passwd_script | El script que proporciona una contraseña para el protocolo de privacidad SNMP. Su uso remplaza el parámetro | .
Espera de energía | power_wait | Número de segundos de espera después de expedir un comando de apagado o encendido. |
Puerto | port | El número de conexión física o nombre de la máquina virtual. |
fence_intelmodular
, el agente de vallas para Intel Modular.
Campo luci | Atributo cluster.conf | Descripción |
---|---|---|
Nombre | name | Un nombre para el dispositivo Intel Modular conectado al clúster. |
Dirección IP o nombre de host | ipaddr | La dirección IP o nombre de host asignado al dispositivo. |
El nombre de usuario | login | El nombre de usuario utilizado para acceder el dispositivo. |
Contraseña | passwd | La contraseña utilizada para autenticar la conexión al dispositivo. |
Script de contraseña (opcional) | passwd_script | El script que proporciona una contraseña para acceder al dispositivo de valla. Su uso remplaza el parámetro de | .
Versión SNMP | snmp_version | La versión SNMP a usar (1, 2c, 3); el valor predeterminado es 1. |
Comunidad SNMP | community | La cadena de comunidad SNMP, el valor predeterminado es private . |
Nivel de seguridad SNMP | snmp_sec_level | El nivel de seguridad SNMP (noAuthNoPriv, authNoPriv, authPriv). |
Protocolo de autenticación SNMP | snmp_auth_prot | El protocolo de autenticación SNMP (MD5, SHA). |
Protocolo de privacidad SNMP | snmp_priv_prot | El protocolo de privacidad SNMP (DES, AES). |
Contraseña de protocolo de privacidad SNMP | snmp_priv_passwd | La contraseña de protocolo de privacidad SNMP. |
El script de protocolo de privacidad SNMP | snmp_priv_passwd_script | El script que proporciona una contraseña para el protocolo de privacidad SNMP. Su uso remplaza el parámetro | .
Espera de energía | power_wait | Número de segundos de espera después de expedir un comando de apagado o encendido. |
Puerto | port | El número de conexión física o nombre de la máquina virtual. |
fence_ipmilan
, the fence agent for IPMI over LAN.
Campo luci | Atributo cluster.conf | Descripción |
---|---|---|
Nombre | name | Un nombre para un dispositivo LAN IPMI conectado al clúster. |
Dirección IP o nombre de host | ipaddr | La dirección IP o nombre de host asignado al dispositivo. |
El nombre de usuario | login | El nombre de inicio del usuario que puede expedir comandos de apagado/encendido al puerto IPMI. |
Contraseña | passwd | La contraseña para autenticar la conexión al puerto IPMI. |
Script de contraseña (opcional) | passwd_script | El script que proporciona una contraseña para acceder al dispositivo de valla. Su uso remplaza el parámetro de | .
Tipo de autenticación | auth | Tipo de autenticación IPMI LAN: none , password , o md5 . |
Use Lanplus | lanplus | True o 1 . Si está en blanco, entonces el valor es False . |
Ciphersuite a usar | cipher | El servidor remoto de autenticación, integridad y algoritmos de cifrado a usar para conexiones lanplus IPMIv2. |
Nivel de Privilegio | privlvl | El nivel de privilegio en el dispositivo IPMI. |
fence_rhevm
, el agente de vallas para RHEV-M REST API.
Campo luci | Atributo cluster.conf | Descripción |
---|---|---|
Nombre | name | Nombre del dispositivo de valla RHEV-M REST API. |
Dirección IP o nombre de host | ipaddr | La dirección IP o nombre de host asignado al dispositivo. |
Puerto IP (opcional) | ipport | Puerto TCP a usar para conectar con el dispositivo. |
El nombre de usuario | login | El nombre de usuario utilizado para acceder el dispositivo. |
Contraseña | passwd | La contraseña utilizada para autenticar la conexión al dispositivo. |
Script de contraseña (opcional) | passwd_script | El script que proporciona una contraseña para acceder al dispositivo de valla. Su uso remplaza el parámetro de | .
Usa SSL | ssl | Usa las conexiones SSL para comunicarse con el dispositivo. |
Espera de energía | power_wait | Número de segundos de espera después de expedir un comando de apagado o encendido. |
Puerto | port | El número de conexión física o nombre de la máquina virtual. |
fence_scsi
, el agente de vallas para reservaciones de SCSI persistente. reservations.
Nota
- Cuando se usa el cercado SCSI, todos los nodos en el clúster deben registrarse con los mismos dispositivos para que cada nodo pueda remover otra clave de registro de nodo desde todos los dispositivos con los que está registrado.
- Los dispositivos utilizados para los volúmenes de clúster deben ser un LUN completo, no particiones. Las reservaciones SCSI persistentes funcionan en un LUN entero, lo que significa que el acceso está controlado para cada LUN, no para particiones individuales.
Campo luci | Atributo cluster.conf | Descripción |
---|---|---|
Nombre | name | Un nombre para el dispositivo de vallas SCSI. |
Nombre de nodo | | |
Llave para la acción actual | | (anula nombre de nodo) |
fence_vmware_soap
, el agente de vallas para VMWare en SOAP API.
Campo luci | Atributo cluster.conf | Descripción |
---|---|---|
Nombre | name | Un nombre para el dispositivo de valla Fence virt. |
Dirección IP o nombre de host | ipaddr | La dirección IP o nombre de host asignado al dispositivo. |
Puerto IP (opcional) | ipport | Puerto TCP a usar para conectar con el dispositivo. |
El nombre de usuario | login | El nombre de usuario utilizado para acceder el dispositivo. |
Contraseña | passwd | La contraseña utilizada para autenticar la conexión al dispositivo. |
Script de contraseña (opcional) | passwd_script | El script que proporciona una contraseña para acceder al dispositivo de valla. Su uso remplaza el parámetro de | .
Separador | separator | Separador para CSV creado por lista de operación. El valor predeterminado es una coma(,). |
Espera de energía | power_wait | Número de segundos de espera después de expedir un comando de apagado o encendido. |
Nombre de VM | port | Nombre de máquina virtual en el formato de ruta de inventario (por ejemplo, /datacenter/vm/Discovered_virtual_machine/myMachine). |
VM UUID | uuid | El UUID de la máquina virtual para vallas. |
Usa SSL | ssl | Usa las conexiones SSL para comunicarse con el dispositivo. |
fence_wti
, el agente de vallas para el interruptor de energía de red WTI.
Campo luci | Atributo cluster.conf | Descripción |
---|---|---|
Nombre | name | Un nombre para el interruptor WTI conectado al clúster. |
Dirección IP o nombre de host | ipaddr | La dirección IP o nombre de host asignado al dispositivo. |
Puerto IP (opcional) | ipport | El puerto TCP a usar para conectar al dispositivo. |
El nombre de usuario | login | El nombre de usuario utilizado para acceder el dispositivo. |
Contraseña | passwd | La contraseña utilizada para autenticar la conexión al dispositivo. |
Script de contraseña (opcional) | passwd_script | El script que proporciona una contraseña para acceder al dispositivo de valla. Su uso remplaza el parámetro de | .
Puerto | port | El número de conexión física o nombre de la máquina virtual. |
Forzar el indicador de comandos | cmd_prompt | El indicador de comandos a utilizar. El valor predeterminado es [’RSM>’, ’>MPC’, ’IPS>’, ’TPS>’, ’NBB>’, ’NPS>’, ’VMR>’] |
Espera de energía | power_wait | Número de segundos de espera después de expedir un comando de apagado o encendido. |
Usa SSH | secure | Indica que el sistema utilizará SSH para acceder al dispositivo. |
Ruta al archivo de identidad SSH | identity_file | El archivo de identidad para SSH. |
Apéndice B. Parámetros de recursos de alta disponibilidad
ccs
o editando etc/cluster/cluster.conf
. La Tabla B.1, “Resumen de recursos de alta disponibilidad” lista los recursos, sus agentes de recursos correspondientes y referencias a otras tablas que contienen descripciones de parámetros. Para entender a los agentes de recursos en más detalle, puede verlos en /usr/share/cluster
de cualquier nodo de clúster.
/usr/share/cluster
incluye un script básico para un grupo de recursos, service.sh
. Para obtener mayor información sobre los parámetros incluidos en este script, consulte el propio script service.sh
.
cluster.conf
, consulte el esquema de cluster en /usr/share/cluster/cluster.rng
, y el esquema anotado en /usr/share/doc/cman-X.Y.ZZ/cluster_conf.html
(por ejemplo /usr/share/doc/cman-3.0.12/cluster_conf.html
).
Recursos | Agente de recursos | Referencia para descripción de parámetros |
---|---|---|
Apache | apache.sh | Tabla B.2, “Servidor Apache” |
Instancia de Condor | condor.sh | Tabla B.3, “Instancia de Condor” |
Sistema de archivos | fs.sh | Tabla B.4, “Sistema de archivos” |
Sistema de archivos GFS2 | clusterfs.sh | Tabla B.5, “GFS2” |
Dirección IP | ip.sh | Tabla B.6, “Dirección IP” |
HA LVM | lvm.sh | Tabla B.7, “HA LVM” |
MySQL | mysql.sh | Tabla B.8, “MySQL” |
Cliente NFS | nfsclient.sh | Tabla B.9, “Cliente NFS” |
NFS Export | nfsexport.sh | Tabla B.10, “NFS Export” |
Servidor NFS | nfsserver.sh | Tabla B.11, “Servidor NFS” |
Montaje NFS/CIFS | netfs.sh | Tabla B.12, “Montaje NFS/CIFS” |
Open LDAP | openldap.sh | Tabla B.13, “Open LDAP” |
Instancia de conmutación de Oracle 10g/11g | oracledb.sh | Tabla B.14, “Instancia de conmutación de Oracle 10g/11G” |
Instancia de conmutación de Oracle 10g | orainstance.sh | Tabla B.15, “Instancia de conmutación de Oracle 10g” |
Oyente de Oracle 10g | oralistener.sh | Tabla B.16, “Oyente de Oracle 10g” |
PostgreSQL 8 | postgres-8.sh | Tabla B.17, “PostgreSQL 8” |
Base de datos SAP | SAPDatabase | Tabla B.18, “Base de datos SAP” |
Instancia SAP | SAPInstance | Tabla B.19, “Instancia SAP” |
Samba | samba.sh | Tabla B.20, “Servidor Samba” |
Script | script.sh | Tabla B.21, “Script” |
Sybase ASE | ASEHAagent.sh | Tabla B.22, “Instancia de conmutación Sybase ASE ” |
Tomcat 6 | tomcat-6.sh | Tabla B.23, “Tomcat 6” |
Máquina virtual | vm.sh | Tabla B.24, “Máquina virtual”
NOTA: Luci lo presenta como un servicio virtual si el clúster de host puede soportar máquinas virtuales.
|
Campo luci | Atributo cluster.conf | Descripción |
---|---|---|
Nombre | name | El nombre del servicio Apache. |
Root de servidor | server_root | El predeterminado es /etc/httpd . |
Config File | config_file | Especifica el archivo de configuración Apache. El valor predeterminado /etc/httpd/conf . |
Opciones httpd | httpd_options | Otras opciones de línea de comandos para httpd . |
Espera de apagado (segundos) | shutdown_wait | Especifica el número de segundos de espera para el final correcto de apagado del servicio. |
Campo | Campo luci | Atributo cluster.conf |
---|---|---|
Nombre de instancia | name | Especifica un nombre único para la instancia de Condor. |
Tipo de subsistema de Condor | type | Especifica el tipo de subsistema de Condor para esta instancia: schedd , job_server , o query_server . |
Campo luci | Atributo cluster.conf | Descripción |
---|---|---|
Nombre | name | Especifica un nombre para el recurso de sistema de archivos. |
Tipo de sistema de archivos | fstype | Si no está especificado, mount intenta determinar el tipo de sistema de archivos. |
Punto de montaje | mountpoint | Ruta en jerarquía de sistema de archivos para montar este sistema de archivos. |
Dispositivo, etiqueta FS o UUID | device | Especifica el dispositivo asociado con el recurso del sistema de archivos. Este puede ser un dispositivo de bloque, una etiqueta de sistema de archivos o UUID del sistema de archivos. |
Opciones de montaje | options | Opciones de montaje; es decir, opciones utilizadas cuando se monta el sistema de archivos. Estas puede ser específicas al sistema de archivos. Consulte la página del manual mount (8) para ver las opciones de montaje soportadas. |
ID de sistema de archivos (opcional) | fsid | Nota ID de sistema de archivos utilizado únicamente por servicios NFS.
Al crear un nuevo recurso de sistema de archivos, puede dejar este campo en blanco. Si deja este campo en blanco, el ID del sistema de archivos será asignado automáticamente después de enviar el parámetro durante la configuración. Si necesita asignar un ID de sistema de archivos explícitamente, especifíquelo en este campo.
|
Forzar desmonte | force_unmount | Si está habilitado, obliga al sistema de archivos a desmontarse. La configuración predeterminada es desactivada . Forzar el desmonte mata todos los procesos con el punto de montaje para liberar el montaje cuando intenta desmontar. |
Forzar fsck | force_fsck | Si está habilitado, hace que fsck se ejecute en el sistema de archivos antes de montarlo. La configuración predeterminada es desactivado . |
Habilite el daemon NFS y la solución 'lockd' (Red Hat Enterprise Linux 6.4 y posterior) | nfsrestart | Si su sistema de archivos se exporta a través de NFS y en ocasiones no se puede desmontar (ya sea durante el apagado o la reubicación del servicio), esta opción bajará todas las referencias del sistema de archivos antes del desmontaje. Esta opción requiere que usted active la opción Servidor NFS . Se aconseja que establezca esta opción como último recurso, ya que es difícil intentar desmontar un sistema de archivos. | y no debe ser utilizada junto con el recurso del
Usa revisiones de estatus rápidas | quick_status | Si está activada, realiza revisiones de estatus rápidas. |
Reiniciar nodo de host si el desmonte falla | self_fence | SI está habilitado, reinicie el nodo en caso de que el desmontaje del sistema de archivos falle. El agente de recursos filesystem acepta un valor de 1, yes , on , o true para habilitar el parámetro y un valor de 0, no , off , o false para desactivarlo. El parámetro predeterminado es disabled . |
Campo luci | Atributo cluster.conf | Descripción |
---|---|---|
Nombre | name | El nombre del recurso del sistema de archivos. |
Punto de montaje | mountpoint | La ruta en la cual se monta el recurso del sistema de archivos |
Dispositivo, etiqueta FS o UUID | device | El archivo de dispositivo asociado con el recurso del sistema de archivos. |
Tipo de sistema de archivos | fstype | Establecer a GFS2 en luci |
Opciones de montaje | options | Opciones de montaje. |
ID de sistema de archivos (opcional) | fsid | Nota ID de sistema de archivos utilizado únicamente por servicios NFS.
Al crear un nuevo recurso GFS2, puede dejar este campo en blanco. Si deja el campo en blanco el ID del sistema de archivos se asigna automáticamente después de enviar el parámetro durante la configuración. Si necesita asignar un ID de sistema de archivos explícitamente, especifíquelo en este campo.
|
Forzar desmonte | force_unmount | Si está habilitado, obliga al sistema de archivos a desmontarse. El valor predeterminado es desactivado . El parámetro Forzar desmonte mata todos los procesos mediante un punto de montaje para liberar e montaje cuando trate de desmontarse. Con recurso GFS2, el punto de montaje no se desmonta en ruptura de servicio a menos que Forzar desmonte esté habilitado. |
Habilite el daemon NFS y la solución 'lockd' (Red Hat Enterprise Linux 6.4 y posterior) | nfsrestart | Si su sistema de archivos se exporta a través de NFS y en ocasiones no se puede desmontar (ya sea durante el apagado o la reubicación del servicio), esta opción bajará todas las referencias del sistema de archivos antes del desmontaje. Esta opción requiere que usted active la opción Servidor NFS . Se aconseja que establezca esta opción como último recurso, ya que es difícil intentar desmontar un sistema de archivos. | y no debe ser utilizada junto con el recurso del
Reiniciar nodo de host si el desmonte falla | self_fence | Si está habilitado, el desmontaje del sistema de archivos fallará, el nodo se reiniciará inmediatamente . Por lo general, se utiliza junto con el soporte de force-unmount, pero no se requiere. El agente de recursos GFS2 acepta un valor de 1, yes , on , o true para habilitar este parámetro, y un valor de 0, no , off , o false para inhabilitarlo. |
Campo luci | Atributo cluster.conf | Descripción |
---|---|---|
Dirección IP y bits de máscara de red (Netmask) | address | La dirección IP (y, opcionalmente, bits de Netmask) para el recurso. Bits de Netmask o longitud de prefijo de red, puede ir después de la dirección con una barra inclinada como separador, cumpliendo con la anotación CIDR (por ejemplo, 10.1.1.1/8). Esta es una dirección IP virtual. Las direcciones IPv4 e IPv6 tienen soporte, como en monitorización de enlaces NIC para cada dirección IP. |
Enlace de monitor | monitor_link | Al habilitarlo hace que el estatus falle si el enlace de la NIC, al cual está enlazado esta dirección IP, no está presente. |
Inhabilita actualizaciones para rutas estáticas | disable_rdisc | Inhabilita actualizaciones de rutas mediante protocolo RDISC. |
Número de segundos dormido tras retirar una dirección IP | sleeptime | Especifica la cantidad de tiempo (en segundos) para dormir. |
Campo luci | Atributo cluster.conf | Descripción |
---|---|---|
Nombre | name | Un nombre único para este recurso LVM. |
Nombre de grupo de volúmenes | vg_name | Un nombre descriptivo del grupo de volúmenes que está siendo administrado. |
Nombre de volumen lógico (opcional) | lv_name | Nombre del volumen lógico que está siendo administrado. Este parámetro es opcional, si hay más de un volumen lógico en el grupo de volúmenes que se está administrando. |
Cercar el nodo si está habilitado para etiquetas Clean UP LVM | self_fence | Cerque el nodo si no puede limpiar las etiquetas LVM. El agente de recursos LVM acepta un valor de 1 o yes para habilitar este parámetro, y un valor de 0 o no para desactivarlo. |
Campo luci | Atributo cluster.conf | Descripción |
---|---|---|
Nombre | name | Especifica un nombre de recurso de servidor MySQL. |
Config File | config_file | Especifica el archivo de configuración. El valor predeterminado es /etc/my.cnf . |
Dirección de escucha | listen_address | Especifica una dirección para el servicio MySQL. Si no se proporciona una dirección IP, se tomará la primera dirección IP del servicio. |
Opciones mysqld | mysqld_options | Otras opciones de línea de comandos para httpd . |
Espera de inicio (segundos) | startup_wait | Especifica el número de segundos de espera para el final correcto del inicio del servicio. |
Espera de apagado (segundos) | shutdown_wait | Especifica el número de segundos de espera para el final correcto de apagado del servicio. |
Campo luci | Atributo cluster.conf | Descripción |
---|---|---|
Nombre | name | Este es un nombre simbólico de un cliente utilizado para referirse al cliente en el árbol de recursos. No es lo mismo que la opción Target . |
Nombre de host de destino, comodín o Netgroup | target | Es el servidor desde el cual usted está montando. Puede especificarse mediante un nombre de host, un comodín (dirección IP o basado en nombre de host) o un grupo de red que define un host o hosts para exportarlos. |
Permitir recuperación de este cliente NFS | allow_recover | Permitir recuperación. |
Opciones | options | Define una lista de opciones para este cliente — por ejemplo, los derechos de acceso de cliente adicional. Para obtener mayor información, consulte la página del manual exports (5), General Options. |
Campo luci | Atributo cluster.conf | Descripción |
---|---|---|
Nombre | name |
Nombre descriptivo del recurso. El recurso de exportación de NFS asegura que todos los daemons NFS estén ejecutándose. Si son reutilizables completamente, solo se necesitará un recurso de exportación NFS.
Nota
Nombre de recurso de exportación de NFS para que puede distinguirse claramente desde otros recurso NFS.
|
Campo luci | Atributo cluster.conf | Descripción |
---|---|---|
Nombre | name |
Nombre descriptivo del recurso de servidor NFS. El recurso de servidor NFS sirve para exportar sistemas de archivos NFSv4 a los clientes. Debido a la forma como funciona NFSv4, únicamente el recurso NFSv4 puede existir en un servidor a la vez. Además, no es posible utilizar el recurso de servidor NFS cuando también se están utilizando las instancias locales de NFS en cada nodo de clúster.
|
Campo luci | Atributo cluster.conf | Descripción |
---|---|---|
Nombre | name |
Nombre simbólico para el montaje NFS o CIFS.
Nota
Este recurso se requiere solamente cuando se configura un servicio de clúster para que sea un cliente NFS.
|
Punto de montaje | mountpoint | Ruta en la cual el sistema de archivos será montado. |
Host | host | Dirección IP de servidor NFS/CIFS o nombre de host. |
Nombre de directorio de exportación de NFS o nombre de recurso compartido de CIFS. | export | Nombre de directorio de exportación de NFS o nombre de recurso compartido de CIFS. |
Tipo de sistema de archivos: | fstype |
Tipo de sistema de archivos:
|
Forzar desmonte | force_unmount | Si Forzar desmonte está habilitado, el clúster mata todos los procesos mediante este sistema de archivos cuando se detiene el servicio. Al matar todos los procesos mediante el sistema de archivos se libera el sistema de archivos. De lo contrario, el desmonte fallará, y se reiniciará el servicio. |
No desmonte el sistema de archivos durante una parada de la operación de reubicación. | no_unmount | Si está activado, especifica que el sistema de archivos no debe ser desmontado durante una operación de parada o reubicación. |
Opciones | options | Opciones de montaje. Especifica una lista de opciones de montaje. Si no se especifica ninguna, el sistema se monta -o sync . |
Campo luci | Atributo cluster.conf | Descripción |
---|---|---|
Nombre | name | Especifica un nombre de servicio para registro y otros propósitos. |
Config File | config_file | Especifica una ruta absoluta a un archivo de configuración. El valor predeterminado es /etc/openldap/slapd.conf . |
Lista URL | url_list | El valor predeterminado es ldap:/// . |
Opciones slapd | slapd_options | Otras opciones de línea de comandos para slapd . |
Espera de apagado (segundos) | shutdown_wait | Especifica el número de segundos de espera para el final correcto de apagado del servicio. |
Campo luci | Atributo cluster.conf | Descripción |
---|---|---|
Nombre de instancia (SID) de instancia de Oracle | name | Nombre de instancia. |
Nombre de usuario de Oracle | user | Este es el nombre de usuario del usuario de Oracle con el que la instancia AS de Oracle se ejecuta. |
Directorio principal de aplicación de Oracle | home | Este es el directorio principal de Oracle (aplicación, no usuario). Se configura durante la instalación de Oracle. |
Tipo de autenticación de Oracle | type | El tipo de instalación de Oracle. Predeterminado: 10g , Instancia de base de datos y base de Oyente únicamente , base de datos, Oyente, Gestor de empresas, e ISQL*Plus: base-em (o 10g ), o Servidor de aplicación de Internet (infraestructura): ias (o 10g-ias ). |
Nombre de host virtual (opcional) | vhost | El nombre de host virtual coincidente con el nombre de host de instalación de Oracle 10g. Observe que durante el inicio/parada de un recurso oracledb, su nombre de host se cambia temporalmente a este nombre de host. Por lo tanto, debe configurar un recurso oracledb como parte de un servicio exclusivo únicamente. |
Campo luci | Atributo cluster.conf | Descripción |
---|---|---|
Nombre de instancia (SID) de instancia de Oracle | name | Nombre de instancia. |
Nombre de usuario de Oracle | user | Este es el nombre de usuario del usuario de Oracle con el que la instancia de Oracle se ejecuta. |
Directorio principal de aplicación de Oracle | home | Este es el directorio principal de Oracle (aplicación, no usuario). Se configura durante la instalación de Oracle. |
Lista de los oyentes de Oracle (opcional, separados por espacios) | listeners | Lista de oyentes de Oracle que iniciarán con la instancia de base de datos. Los nombres de oyentes están separados por espacios en blanco. Se predetermina a vacío lo cual desactiva oyentes. |
Ruta para el archivo Lock (opcional) | lockfile | Sitio para lockfile que será utilizado para revisar si Oracle está ejecutándose o no. Se predetermina al sitio en /tmp . |
Campo luci | Atributo cluster.conf | Descripción |
---|---|---|
Nombre de oyente | name | Nombre de oyente |
Nombre de usuario de Oracle | user | Este es el nombre de usuario del usuario de Oracle con el que la instancia de Oracle se ejecuta. |
Directorio principal de aplicación de Oracle | home | Este es el directorio principal de Oracle (aplicación, no usuario). Se configura durante la instalación de Oracle. |
Campo luci | Atributo cluster.conf | Descripción |
---|---|---|
Nombre | name | Especifica un nombre de servicio para registro y otros propósitos. |
Config File | config_file | Definir ruta absoluta para archivo de configuración. El valor predeterminado es /var/lib/pgsql/data/postgresql.conf . |
Usuario Postmaster | postmaster_user | Usuario que ejecuta el servidor de base de datos porque puede ser ejecutado por root. El valor predeterminado es postgres. |
Opciones Postmaster | postmaster_options | Otras opciones de línea de comando para Postmaster. |
Espera de apagado (segundos) | shutdown_wait | Especifica el número de segundos de espera para el final correcto de apagado del servicio. |
Campo luci | Atributo cluster.conf | Descripción |
---|---|---|
Nombre de base de datos SAP | SID | Especifica un identificador de sistema único SAP. Por ejemplo, P01. |
Directorio ejecutable SAP | DIR_EXECUTABLE | Especifica la ruta totalmente calificada para sapstartsrv y sapcontrol . |
Tipo de base de datos | DBTYPE | Especifica uno de los siguientes tipos de base de datos: Oracle, DB6 o ADA. |
Nombre de oyente de Oracle | NETSERVICENAME | Especifica nombre de oyente TNS de Oracle. |
La pila ABAP no está instalada, solo la pila de Java lo está | DBJ2EE_ONLY | Si no tiene una pila de ABAP instalada en la base de datos SAP, habilite este parámetro. |
Monitorización de nivel de aplicación | STRICT_MONITORING | Activa monitorización del nivel de aplicación |
Inicia este servicio automáticamente | AUTOMATIC_RECOVER | Activa o desactiva la recuperación de inicio automática. |
Ruta a Java SDK | JAVE_HOME | Ruta a Java SDK. |
Nombre de archivo del controlador de JDBC | DB_JARS | Nombre de archivo del controlador JDBC. |
Ruta al script de preinicio | PRE_START_USEREXIT | Ruta al script de preinicio. |
Ruta al script de postinicio | POST_START_USEREXIT | Ruta al script de postinicio. |
Ruta al script de pre-parada | PRE_STOP_USEREXIT | Ruta al script de pre-parada |
Ruta al script de postparada | POST_STOP_USEREXIT | Ruta al script de postparada |
Directorio Bootstrap de Instancia J2EE | DIR_BOOTSTRAP | El directorio bootstrap de instancia J2EE de ruta totalmente calificada. Por ejemplo, /usr/sap/P01/J00/j2ee/cluster/bootstrap . |
Ruta de almacenaje de seguridad J2EE | DIR_SECSTORE | El directorio de la ruta de almacenaje de seguridad J2EE totalmente calificada. Por ejemplo, /usr/sap/P01/SYS/global/security/lib/tools . |
Campo luci | Atributo cluster.conf | Descripción |
---|---|---|
Nombre de instancia SAP | InstanceName | El nombre de instancia totalmente calificado. Por ejemplo, 01_DVEBMGS00_sapp01ci. |
Directorio ejecutable SAP | DIR_EXECUTABLE | La ruta totalmente calificada para sapstartsrv y sapcontrol . |
Directorio que contiene el perfil SAP START | DIR_PROFILE | La ruta totalmente calificada al perfil SAP START. |
Nombre del perfil SAP START | START_PROFILE | Especifica el nombre del perfil SAP START. |
Número de segundos de espera antes de revisar estatus de inicio | START_WAITTIME | Especifica el número de segundos de espera antes de revisar el estatus de inicio (no espere a J2EE-Addin). |
Activar recuperación de inicio automática | AUTOMATIC_RECOVER | Activa o desactiva la recuperación de inicio automática. |
Ruta al script de preinicio | PRE_START_USEREXIT | Ruta al script de preinicio. |
Ruta al script de postinicio | POST_START_USEREXIT | Ruta al script de postinicio. |
Ruta al script de pre-parada | PRE_STOP_USEREXIT | Ruta al script de pre-parada |
Ruta al script de postparada | POST_STOP_USEREXIT | Ruta al script de postparada |
Nota
Campo luci | Atributo cluster.conf | Descripción |
---|---|---|
Nombre | name | Especifica el nombre del servidor de Samba. |
Config File | config_file | Archivo de configuración de Samba |
Otras opciones de línea de comandos para smbd | smbd_options | Otras opciones de línea de comandos para smbd. |
Otras opciones de línea de comandos para nmbd. | nmbd_options | Otras opciones de línea de comandos para nmbd. |
Espera de apagado (segundos) | shutdown_wait | Especifica el número de segundos de espera para el final correcto de apagado del servicio. |
Campo luci | Atributo cluster.conf | Descripción |
---|---|---|
Nombre | name | Especifica un nombre para el script personalizado de usuario. El recurso de script permite que un script de inicio sea compatible con un LSB estándar que se utiliza para iniciar el servicio en clúster. |
Ruta completa al archivo de script | file | Ingrese la ruta donde este script personalizado se localiza (por ejemplo, /etc/init.d/userscript ). |
Campo luci | Atributo cluster.conf | Descripción |
---|---|---|
Nombre de instancia | name | Especifica el nombre de instancia del recurso Sybase ASE. |
Nombre de servidor ASE | server_name | El nombre de servidor ASE que está configurado para el servidor de alta disponibilidad. |
Directorio principal de SYBASE | sybase_home | El directorio principal de productos Sybase. |
Archivo de registro | login_file | La ruta completa del archivo de registro que contiene el par: nombre de usuario y contraseña. |
Archivo de interfaces | interfaces_file | La ruta completa de archivo de interfaces que se utiliza para iniciar o acceder el servido ASE. |
Nombre de directorio SYBASE_ASE | sybase_ase | El nombre de directorio bajo sybase_home donde los productos ASE están instalados. |
Nombre de directorio SYBASE_OCS | sybase_ocs | El nombre de directorio bajo sybase_home donde se instalan productos de OCS. Por ejemplo, ASE-15_0. |
Usuario Sybase | sybase_user | El usuario que puede ejecutar el servidor ASE. |
Iniciar tiempo de espera (segundos) | start_timeout | Valor de tiempo de espera de inicio. |
Tiempo de espera de apagado (segundos) | shutdown_timeout | Valor de tiempo de espera de apagado. |
Tiempo de espera de sondeo profundo | deep_probe_timeout | El máximo de segundos de espera para la respuesta del servidor ASE antes de determinar que el servidor no tuvo respuesta mientras se ejecuta un sondeo profundo. |
Campo luci | Atributo cluster.conf | Descripción |
---|---|---|
Nombre | name | Especifica un nombre de servicio para registro y otros propósitos. |
Config File | config_file | Especifica la ruta absoluta al archivo de configuración. El valor por defecto es /etc/tomcat6/tomcat6.conf . |
Espera de apagado (segundos) | shutdown_wait | Especifica el número de segundos de espera para que se termine correctamente el servicio de apagado. El valor predeterminado es 30. |
Importante
rgmanager
para iniciar y detener las máquinas virtuales. El uso de virsh
para iniciar la máquina puede hacer que la máquina virtual se ejecute en más de un sitio lo cual puede corromper los datos en la máquina virtual. Para obtener información sobre cómo configurar su sistema para reducir las posibilidades de que los administradores accidentalmente "inicien en doble" las máquinas virtuales al usar herramientas de clúster y no clúster, consulte la Sección 2.14, “Configuración de las máquinas virtuales en un entorno en clúster.”.
Nota
Virtual Machine
como el tipo de recursos e ingrese los parámetros de recursos de máquina virtual. Para obtener información sobre cómo configurar una máquina virtual con el comando ccs
, consulte la Sección 5.12, “Recursos de máquinas virtuales”.
Campo luci | Atributo cluster.conf | Descripción |
---|---|---|
Nombre de servicio | name | Especifica el nombre de la máquina virtual. Al usar la interfaz de luci, especifíquela como un nombre de servicio. |
Inicia este servicio automáticamente | autostart | Si está habilitada, esta máquina virtual se iniciará automáticamente después de que el clúster forme un cuórum. Si este parámetro está desactivado, esta máquina virtual no iniciará automáticamente después de que el clúster forme un cuórum. la máquina virtual es puesta en el estado desactivado . |
Ejecución exclusiva | exclusive | Si se habilita, esta máquina virtual solamente puede ser reubicada para ejecutarse en otro nodo de forma exclusiva; es decir, para que se ejecute en un nodo que no tenga otras máquinas virtuales ejecutándose en él. Si no hay nodos disponibles para que una máquina virtual se ejecuten exclusivamente, la máquina virtual no se reiniciará después de un fallo. Además, otras máquinas virtuales no se reubican automáticamente en un nodo que ejecute esta máquina virtual como Ejecutar exclusivo . Puede anular esta opción si inicia en forma manual o reubica operaciones. |
Dominio de conmutación | domain | Define listas de miembros de clúster para intentar en caso de que la máquina virtual falle. |
Política de recuperación. | recovery | Política de recuperación proporciona las opciones siguientes:
|
Opciones de reinicio | max_restarts , restart_expire_time | Si selecciona | o como política de recuperación para el servicio, especifique el número máximo de fallas de reinicio antes de reubicar o desactivar el servicio y especificar el tiempo en segundos después del cual olvida reiniciar.
Tipo de migración | migrate | Especifica un tipo de migración de viva o pausa . La configuración predeterminada en viva . |
Asignación de migración | migration_mapping |
Especifica una interfaz alternativa para migrar. Especifíquela cuando, por ejemplo, la dirección de red utilizada para migrar máquina virtual en un nodo difiere de la dirección del nodo utilizado para comunicación de clúster.
Especificar lo siguiente indica que cuando migra una máquina virtual de
member a member2 , en realidad migra a target2 . Igualmente, cuando migra de member2 a member , usted migra mediante target .
member:target,member2:target2
|
Programa de estatus |