Visión general de adición de alta disponibilidad
Sinopsis de la adición de alta disponibilidad para Red Hat Enterprise Linux
Edición 6
Resumen
Introducción
- Guía de instalación de Red Hat Enterprise Linux — Proporciona información sobre la instalación de Red Hat Enterprise Linux 6.
- Guía de implementación de Red Hat Enterprise Linux — Proporciona información sobre la implementación, configuración y administración de Red Hat Enterprise Linux 6.
- Cómo configurar y administrar la adición de alta disponibilidad Proporciona información sobre la configuración y manejo de la adición de alta disponibilidad (conocida también como Red Hat Cluster) para Red Hat Enterprise Linux 6.
- Administración del Gestor de volúmenes lógicos — Proporciona una descripción del Gestor de Volúmenes Lógicos (LVM) e incluye información sobre la ejecución de LVM en un entorno de clúster.
- Sistema de archivos global 2: Configuración y administración — Proporciona información sobre la instalación, configuración y mantenimiento de Red Hat GFS2 (Red Hat Global File System 2), el cual se incluye en la adición de almacenamiento resistente.
- DM Multipath — Proporciona información sobre el uso de la función Device-Mapper Multipath de Red Hat Enterprise Linux 6.
- Equilibrador de cargas de Red Hat — Proporciona información sobre cómo configurar sistemas y servicios de alto rendimiento con la adición del Equilibrador de cargas de Red Hat (Conocido anteriormente como Servidor Virtual de Linux [LVS]).
- Notas de lanzamiento — Proporciona información sobre el lanzamiento actual de productos Red Hat.
Nota
1. ¡Necesitamos sus comentarios! Copiar enlaceEnlace copiado en el portapapeles!
6.6
.
Capítulo 1. Visión general de adición de alta disponibilidad Copiar enlaceEnlace copiado en el portapapeles!
1.1. Fundamentos de clúster Copiar enlaceEnlace copiado en el portapapeles!
- Almacenamiento
- Alta disponibilidad
- Balance de carga
- Alto rendimiento
rgmanager
..
Nota
1.2. Introducción a la Adición de alta disponibilidad Copiar enlaceEnlace copiado en el portapapeles!
- Infraestructura de clúster — proporciona funciones fundamentales para que los nodos trabajen juntos como un clúster: administración del archivo de configuración, administración de membresías, administración de cierres de exclusión y cercado.
- La administración de servicios de alta disponibilidad — Proporciona la transferencia de servicios de un clúster a otro en caso de que un nodo falle.
- La herramientas de administración de clúster — Herramientas de configuración y administración para configurar y administrar una adición de alta disponibilidad. Las herramientas se utilizan con los componentes de infraestructura de clúster, los componentes de alta disponibilidad, de administración de servicios y de almacenamiento.
Nota
- Red Hat GFS2 (el sistema de archivos globales 2); Parte de la adición de almacenamiento resistentes, que provee un sistema de archivos de clúster para usar con la adición de alta disponibilidad. GFS2 acepta múltiples nodos para compartir almacenamiento en un nivel de bloque como si el almacenamiento estuviera conectado de forma local a un nodo de clúster . Un sistema de archivos de clúster GFS2 requiere una infraestructura de clúster.
- El Gestor de volúmenes lógicos de clúster (CLVM) — Parte de la adición de almacenamiento resistente, la cual proporciona administración de volúmenes de almacenamiento de clústeres. CLVM también soporta infraestructura de clúster.
- La adición del balanceador de carga — software de enrutamiento que proporciona balance de carga IP. La adición de balance de carga se ejecuta en un par de servidores virtuales redundantes que distribuye uniformemente las solicitudes de clientes a los servidores reales que están detrás de los servidores virtuales.
1.3. Infraestructura de clúster Copiar enlaceEnlace copiado en el portapapeles!
- Administración de cluster
- Administración de los cierres de exclusión
- Cercado
- Administración de la configuración de cluster
Capítulo 2. Administración de clúster con CMAN Copiar enlaceEnlace copiado en el portapapeles!
2.1. Cuórum de clúster Copiar enlaceEnlace copiado en el portapapeles!
Nota
2.1.1. Discos de cuórum Copiar enlaceEnlace copiado en el portapapeles!
ccs
en la guía Administración de clústeres.
2.1.2. Tie-breakers (Disyuntores) Copiar enlaceEnlace copiado en el portapapeles!
- Tiene una configuración de dos nodos con dispositivos de cercado en una ruta de red diferente a la ruta utilizada para comunicación de clúster.
- Tiene una configuración de dos nodos en donde el cercado está en el nivel de fábrica - especialmente para reservaciones SCSI.
Capítulo 3. RGManager Copiar enlaceEnlace copiado en el portapapeles!
httpd
a un grupo de nodos, mientras que mysql
puede restringirse a un conjunto independiente de nodos.
- Dominios de conmutación - Cómo funciona el sistema de dominio de conmutación de RGManager
- Políticas de servicios - Inicio de servicio de Rgmanager y políticas de recuperación
- Árboles de recursos - Cómo funcionan los árboles de recursos de rgmanager, incluidas órdenes de inicio/detención y herencia
- Conductas operativas de servicios - Cómo funcionan las operaciones de rgmanager y lo que significan los estados
- Conductas de máquinas virtuales - Cosas especiales para recordar al ejecutar máquinas virtuales en un clúster rgmanager
- Acciones de recursos - Las acciones que el agente RGManager utiliza y la forma de personalizar su conducta desde el archivo
cluster.conf
. - Scripting de eventos - Si las políticas de conmutación y recuperación no se ajustan a su entorno, usted puede personalizar su propio entorno mediante el subsistema de scripting.
3.1. Dominios de conmutación Copiar enlaceEnlace copiado en el portapapeles!
- El nodo o el miembro preferido: El nodo preferido era el miembro designado para ejecutar el servicio si el miembro estaba en línea. Podemos emular esta conducta al especificar un dominio de conmutación desordenado, irrestringido de un miembro.
- Dominio restringido: los servicios vinculados al dominio pueden ejecutarse únicamente en miembros de clúster que también son miembros de un dominio de conmutación. Si no hay miembros de conmutación disponibles, el servicio es puesto en el estado detenido. En un clúster con varios miembros, el uso de un dominio de conmutación restringido puede facilitar la configuración de un servicio de clúster (tal como un httpd), el cual requiere configuración idéntica en todos los miembros que ejecutan el servicio. En lugar de configurar el clúster completo para ejecutar el servicio de clúster, configure únicamente los miembros en el domino de conmutación restringido que usted asocia con el servicio de clúster.
- Dominio irrestringido: La conducta predeterminada, los servicios vinculados a este dominio pueden ejecutarse en todos los miembros de clúster, pero se ejecutan en un miembro de dominio siempre y cuando haya uno disponible. Esto significa que si un servicio está ejecutándose fuera del dominio y un miembro del dominio se conecta, el servicio migrará a ese miembro, a menos que se haya establecido la no recuperación.
- Dominio ordenado: El orden especificado en la configuración dicta el orden de preferencia de los miembros dentro del dominio. El miembro de más alto rango del dominio ejecutará el servicio cuando esté en línea. Esto significa que si el miembro A tiene un rango más alto respecto al miembro B, el servicio migrará a A si estaba ejecutándose en el miembro B, si el miembro A pasa de desconectado a conectado.
- Dominio desordenado: La conducta predeterminada, los miembros del dominio no tienen orden de preferencia; cualquier miembro puede ejecutar el servicio. Los servicios siempre migrarán a miembros del dominio de conmutación siempre que sea posible, no obstante, en un dominio desordenado.
- Recuperación: Los servicios en miembros de un dominio de conmutación ordenado deben volver al nodo que originalmente estaba ejecutándose antes de que el nodo fallara, lo cual es útil para evitar que los nodos que fallan con frecuencia eviten cambios de servicio frecuentes entre el nodo que falla y el nodo de conmutación.
3.1.1. Ejemplos de conductas Copiar enlaceEnlace copiado en el portapapeles!
- Dominio de conmutación ordenado, restringido {A, B, C}
- Con no recuperación desconectada: Un servicio 'S' siempre se ejecutará en el miembro 'A' siempre que el miembro 'A' esté en línea y haya cuórum. Si todos los miembros de {A, B, C} están fuera de línea, el servicio no se ejecutará. Si el servicio se ejecuta en 'C' y 'A' pasa a en línea, el servicio migrará a 'A'.Con no recuperación establecida: Un servicio 'S' se ejecutará en el miembro de clúster de prioridad más alta cuando se forme cuórum. Si todos los miembros de {A, B, C} están fuera de línea, el servicio no se ejecutará. Si el servicio se ejecuta en 'C' y 'A' pasa a en línea, el servicio permanecerá en 'C' a menos que 'C' falle, punto en el cual se recuperará a 'A'.
- Dominio de conmutación desordenado, restringido {A, B, C}
- Un servicio 'S' siempre se ejecutará si hay cuórum y si por lo menos un miembro de {A, B, C} está en línea. Si otro miembro del dominio pasa a en línea, el servicio no se reubicará.
- Dominio de conmutación ordenado, irrestringido {A, B, C}
- Con no recuperación sin configurar: Un servicio 'S' se ejecutará cuando haya cuórum. Si un miembro de dominio de conmutación está en línea, el servicio se ejecutará en el miembro de prioridad más alta, de lo contrario, se elegirá un miembro del clúster para ejecutar el servicio. Es decir, el servicio se ejecutará en 'A' siempre que 'A' esté en línea, seguido por 'B'.Con no recuperación configurada: Un servicio 'S' se ejecutará cuando haya cuórum. Si un miembro de dominio de conmutación está en línea en formación de cuórum, el servicio se ejecutará en el miembro de prioridad más alta del dominio de conmutación. Es decir que si 'B' está en línea (pero 'A' no lo está), el servicio se ejecutará en 'B'. Si en un punto más adelante, 'A' se une al clúster, el servicio no se reubicará en 'A''.
- Dominio de conmutación desordenado, irrestringido {A, B, C}
- También denominado como un "Conjunto de miembros preferido". cuando uno o más miebros del dominio de conmutación están en línea el servicio se ejecutará en un miembro en línea no específico del dominio de conmutación. Si otro miembro de dominio de conmutación se tranfiere a en línea, no se reubica el servicio.
3.2. Políticas de servicios Copiar enlaceEnlace copiado en el portapapeles!
Nota
3.2.1. Política de inicio Copiar enlaceEnlace copiado en el portapapeles!
- autostart (predeterminado) - inicia el servicio cuando rgmanager arranca y se forma un cuórum. Si se establece a '0', el clúster no iniciará el servicio y en su lugar lo dejará en estado inhabilitado.
3.2.2. Política de recuperación. Copiar enlaceEnlace copiado en el portapapeles!
- restart (predeterminado) - reinicia el servicio en el mismo nodo. Si no hay otra política de recuperación especificada, se utiliza la política de recuperación. Si el reinicio falla, rgmanager retrocede para reubicar el servicio.
- relocate - Trata de iniciar el servicio en otro nodo en el clúster. Si otros nodos no pueden reiniciar el servicio, el servicio será puesto en el estado detenido.
- disable - No hace nada. Establece el servicio a un estado inhabilitado.
- restart-disable - Intenta reiniciar el servicio, en su lugar. Si el reinicio falla, establece el servicio en estado inhabilitado.
3.2.3. Extensiones de políticas de reinicio Copiar enlaceEnlace copiado en el portapapeles!
<service name="myservice" max_restarts="3" restart_expire_time="300" ...> ... </service>
<service name="myservice" max_restarts="3" restart_expire_time="300" ...>
...
</service>
Nota
3.3. Árboles de recursos - Fundamentos/Definiciones Copiar enlaceEnlace copiado en el portapapeles!
- El árbol de recursos son representaciones XML de recursos, atributos, relaciones padre, hijo y hermanos. La raíz de un recurso es casi siempre un tipo especial de recursos llamado servicio. El árbol de recursos, el grupo de recursos, y el servicio suelen ser intercambiables en Wiki. Desde la perspectiva de rgmanager, un árbol de recursos es una unidad atómica. Todos los componentes de un árbol de recursos se inician en el mismo nodo de clúster.
- fs:myfs e ip:10.1.1.2 son hermanos
- fs:myfs es el padre del script:script_child
- script:script_child es el hijo de fs:myfs
3.3.1. Relaciones padre, hijo, dependencias y orden de inicio Copiar enlaceEnlace copiado en el portapapeles!
- Los padres se inician antes que los hijos
- Todos los hijos deben detenerse (limpiamente) para que el padre pueda parar.
- Se podría decir que el recurso de hijo depende del recurso del padre
- Para que un recurso pueda considerarse saludable, todos los hijos dependientes deben tener buena salud.
3.4. Operaciones de servicio y estados Copiar enlaceEnlace copiado en el portapapeles!
3.4.1. Operaciones de servicio Copiar enlaceEnlace copiado en el portapapeles!
- enable — Inicia el servicio, opcionalmente en el destino preferido según las reglas de dominio de conmutación. En ausencia de un host local en donde se ejecuta clusvcadm, iniciará el servicio. Si el inicio original falla, el servicio se comportará como si se hubiese solicitado una operación reubicada (Ver abajo). Si la operación tiene éxito, el servicio se establecerá en el estado iniciado.
- disable — Detiene el servicio y lo pasa al estado inhabilitado. Esto solamente se permite cuando el servicio está en el estado fallido.
- relocate — Desplaza el servicio a otro nodo. También puede especificar un nodo preferido para recibir el servicio, pero la incapacidad del servicio para que se ejecute en ese host (por ejemplo, si no se puede iniciar el servicio o si el host está desconectado) no impide la reubicación, y se elige otro nodo. Rgmanager intenta iniciar el servicio en cada nodo del clúster admisible. Si ningún nodo de destino admisible en el clúster inicia el servicio, la reubicación falla y el servicio intenta reiniciarse en el propietario original. Si el propietario original no puede reiniciar el servicio, el servicio pasa al estado Detenido.
- stop — Detiene el servicio y lo pasa al estado detenido.
- migrate — Migra una máquina virtual a otro nodo. El administrador debe especificar un nodo de destino. Según la falla, si no puede migrar, la máquina virtual puede resultar en el estado fallido o en el estado iniciado en el propietario original.
3.4.1.1. La operación freeze Copiar enlaceEnlace copiado en el portapapeles!
3.4.1.1.1. Conductas de servicios cuando están Congelados Copiar enlaceEnlace copiado en el portapapeles!
- Las verificaciones de estatus se desactivan.
- Las operaciones de inicio se desactivan.
- Las operaciones de detenido se inhabilitan.
- La conmutación no ocurrirá (incluso si apaga al propietario del servicio)
Importante
- No debe detener todas las instancias de rgmanager cuando un servicio esté congelado a menos que planee reiniciar los hosts antes de reiniciar rgmanager.
- No debe descongelar un servicio hasta que el propietario reportado del servicio reconecte el clúster y reinicie el rgmanager.
3.4.2. Estados de servicios Copiar enlaceEnlace copiado en el portapapeles!
- disabled — El servicio permanecerá en el estado inhabilitado hasta que un administrador reactive el servicio o el servicio o el clúster pierdan cuórum (en el momento en que el parámetro autostart sea evaluado). El administrador puede habilitar el servicio desde este estado.
- failed — el servicio se presume muerto. Este estado se presenta cuando falla la operación para detener el recurso. El administrador debe verificar si hay recursos sin asignar (sistemas de archivos montados, pro ejemplo) antes de emitir una petición de inhabilitar, La única acción que puede tomar lugar desde este estado es inhabilitado.
- stopped — Cuando está en estado Detenido, el servicio será evaluado para iniciar después del siguiente servicio o transición de nodo. Esta es una medida muy temporal. Un administrador puede inhabilitar o habilitar el servicio desde este estado.
- recovering — El clúster trata de recuperar el servicio. El administrador puede desactivar el servicio para evitar la recuperación si se desea.
- started — Si la verificación del estatus de un servicio falla, recupérelo según la política de servicios. Si el host que está ejecutando el servicio falla, recupérelo con el dominio de conmutación y las reglas de servicio exclusivo. El administrador puede reubicar, detener, inhabilitar y (con máquinas virtuales) migrar el servicio desde este estado.
Nota
starting
y stopping
son estados de transición del estado started
.
3.5. Conductas de máquinas virtuales Copiar enlaceEnlace copiado en el portapapeles!
3.5.1. Operaciones normales Copiar enlaceEnlace copiado en el portapapeles!
- Iniciando (habilitando)
- Deteniendo (inhabilitando)
- Monitorización de estatus
- Reubicación
- Recuperación
3.5.2. Migración Copiar enlaceEnlace copiado en el portapapeles!
- live (predeterminado) — la máquina virtual continúa ejecutándose mientras la mayoría de su contenido de memoria se copia al host de destino. Esto minimiza el inaccesibilidad de la máquina virtual (por lo general de menos de 1 segundo) a expensas del rendimiento de una MV y la cantidad total de tiempo durante la migración expense of performance of the VM during the migration and total amount of time it takes for the migration to complete.
- pause - la máquina virtual se congela en memoria cuando el contenido de memoria se copia al host de destino. Esto minimiza la cantidad de tiempo que toma una máquina virtual en en completar la migración.
Importante
3.5.3. Características de máquinas virtuales RGManager Copiar enlaceEnlace copiado en el portapapeles!
3.5.3.1. Seguimiento de máquina virtual Copiar enlaceEnlace copiado en el portapapeles!
clusvcadm
si la MV ya está ejecutándose, hará que rgmanager busque el clúster para la MV y la marque como started
siempre y cuando la encuentre.
virsh
harán que rgmanager busque el clúster para MV y marque la MV como started
siempre que se encuentre.
Nota
3.5.3.2. Soporte de dominio transitorio Copiar enlaceEnlace copiado en el portapapeles!
/etc/libvirt/qemu
en sincronía en todo el clúster.
3.5.3.2.1. Características de administración Copiar enlaceEnlace copiado en el portapapeles!
3.5.4. Conductas no manejables Copiar enlaceEnlace copiado en el portapapeles!
- El uso de herramientas non-cluster-aware (por ejemplo, virsh o xm) para manipular un estado o configuración de máquina virtual cuando el clúster administra la máquina virtual. Verificar el estado de la máquina, es buena idea. (ej. virsh list, virsh dumpxml).
- Migrar una máquina virtual administrada de clúster a un nodo non-cluster o un nodo en el clúster que no ejecute rgmanager. Rgmanager iniciará la máquina virtual en la ubicación anterior, haciendo que dos instancias de máquina virtual se ejecuten, lo cual resulta en la corrupción del sistema de archivos.
3.6. Acciones de recursos Copiar enlaceEnlace copiado en el portapapeles!
- start - iniciar el recurso
- stop - detener el recurso
- status - verificar el estatus del recurso
- metadata - reportar los metadatos OCF, RA y XML
3.6.1. Valores de retorno Copiar enlaceEnlace copiado en el portapapeles!
- 0 - éxito
- Se detiene tras varias paradas cuando no está ejecutándose debe retornar éxitoInicia tras varios inicios cuando se ejecuta debe retornar éxito
- no cero - falla
- Si la operación de detención nunca retorna un valor de no cero, el servicio entra en el estado fallido y debe ser recuperado manualmente.
Capítulo 4. Cercado Copiar enlaceEnlace copiado en el portapapeles!
fenced
.
fenced
, encierra el nodo que ha fallado. Otros componentes de infraestructura de clúster determinan las acciones a seguir — es decir, realizan cualquier recuperación que sea necesaria. Por ejemplo, cuando se notifica a DLM y GFS2 sobre la falla del nodo, suspenden la actividad hasta que detectan que el comando fenced
ha completado el cercado del nodo fallido. Tras confirmación de que el nodo fallido ha sido cercado, DLM y GFS2 realizan la recuperación. DLM abre cerrojos del nodo fallido y GFS2 recupera el diario del nodo fallido.
- Aislamiento de energía — Un método de cercado que utiliza un controlador de energía para apagar el nodo que no funciona.
- Cercado de almacenamiento — Un método de cercado que inhabilita el puerto de canal de fibra que conecta el almacenamiento a un nodo que no funciona.
- Otros métodos de cercado — Hay otros métodos de cercado que desactivan la E/S o apagan el nodo que no funciona; incluidos IBM Bladecenters, PAP, DRAC/MC, HP ILO, IPMI, IBM RSA II y otros.
Figura 4.1. Ejemplo de cercado de energía
Figura 4.2. Ejemplo de cercado de almacenamiento
Figura 4.3. Cercado de un nodo con abastecedores de energía doble
Figura 4.4. Cercado de un nodo con conexiones de canal de fibra doble
Capítulo 5. Administración de cerrojo Copiar enlaceEnlace copiado en el portapapeles!
rgmanager
usa DLM para sincronizar los estados de servicios.
5.1. Modelo de cerramiento de DLM Copiar enlaceEnlace copiado en el portapapeles!
- Seis modos de cerramiento que restringen en aumento el acceso a un recurso
- Promoción y degradación de cerrojos mediante conversión
- Terminación sincrónica
- Terminación asíncrona
- Datos globales mediante bloques de valor de cerrojo
- El nodo es una parte de un clúster.
- Todos los nodos concuerdan en membresía de clúster y cuórum.
- Una dirección IP debe comunicarse con el DLM en un nodo. Normalmente el DLM usa comunicaciones internodales de TCP/IP que la restringen a una sola dirección IP por nodo (aunque puede hacerse más redundante mediante el dispositivo de vinculación). El DLM puede ser configurado para usar SCTP como su transporte internodal que permite múltiples direcciones IP por nodo.
5.2. Estados de cerrojo Copiar enlaceEnlace copiado en el portapapeles!
- Aprobada — La solicitud de cerrojo fue aprobada y alcanzó el modo requerido.
- Convirtiendo — Un cliente intentó cambiar el modo de cerrojo y el nuevo modo no es compatible con el cerrojo existente.
- Bloqueado — La solicitud de un nuevo cerrojo podría no ser aprobada debido a que existen cerrojos en conflicto.
Capítulo 6. Herramientas de administración y configuración Copiar enlaceEnlace copiado en el portapapeles!
/etc/cluster/cluster.conf
especifica la configuración de la adición de alta disponibilidad. El archivo de configuración es un archivo XML que describe las siguientes características de clúster:
- Nombre de clúster — Especifica el nombre de clúster, el nivel de revisión de archivo de configuración de clúster y las propiedades de tiempo de cercado básicas utilizadas cuando un nodo se vincula a un clúster o es cercado desde el clúster.
- Clúster — Especifica cada nodo del clúster: nombre de nodo, ID de nodo, número de votos de cuórum y método de cercado para dicho nodo.
- Dispositivo de vallas — Especifica los dispositivos de vallas en el clúster. Los parámetros varían según el tipo de dispositivo de vallas. Por ejemplo, para un controlador de energía utilizado como un dispositivo de vallas, la configuración de clúster define el nombre del controlador de energía, la dirección IP, el nombre de usuario y la contraseña.
- Recursos administrados — Especifica los recursos requeridos para crear servicios de clúster. Los recursos administrados incluyen la definición de dominios de conmutación, los recursos (por ejemplo una dirección IP) y los servicios. Los recursos administrados definen los servicios de clúster y la conducta de conmutación de los servicios de clúster.
/usr/share/cluster/cluster.rng
durante el tiempo de inicio y cuando la configuración se vuelve a cargar. También, puede validar una configuración de clúster en cualquier momento con el comando ccs_config_validate
.
/usr/share/doc/cman-X.Y.ZZ/cluster_conf.html
(Por ejemplo: /usr/share/doc/cman-3.0.12/cluster_conf.html
).
- Validez XML — Verifica si archivo de configuración es un archivo XML válido.
- Opciones de configuración — Verifica si las opciones (elementos XML y atributos) son válidas.
- Valores de opción — Verifica si las opciones contienen datos válidos (limitados).
6.1. Herramientas de administración de clúster Copiar enlaceEnlace copiado en el portapapeles!
- Conga — Es una interfaz de usuario global para instalar, configurar y administrar Red Hat High Availability Add-On. Consulte Configuring and Managing the High Availability Add-On para obtener información acerca de cómo configurar y administrar la adición de alta disponibilidad con Conga.
- Luci — Es el servidor de aplicaciones que proporciona la interfaz de usuario para Conga. Permite a los usuarios manejar servicios de clúster y proporciona acceso a ayuda y documentación en línea cuando se necesite.
- Ricci — Es un demonio de servicios que maneja distribución de la configuración de clúster. Los usuarios pasan información de configuración mediante la interfaz Luci y la configuración se carga en corosync para distribución a nodos de clúster.
- A partir del lanzamiento de Red Hat Enterprise Linux 6.1, Red Hat High Availability Add-On ofrece soporte para el comando de configuración de clúster
ccs
, el cual permite al administrador crear, modificar, y ver el archivo de configuración de clúster cluster.conf. Consulte el manual de Administración de clúster, para obtener información sobre cómo configurar y administrar la Adición de alta disponibilidad con el comandoccs
.
Nota
system-config-cluster
no está disponible en RHEL 6.
Capítulo 7. Virtualización y alta disponibilidad Copiar enlaceEnlace copiado en el portapapeles!
- Máquinas virtuales como recursos o servicios disponibles
- Clústeres de huéspedes
7.1. Máquinas virtuales como recursos o servicios disponibles Copiar enlaceEnlace copiado en el portapapeles!
- Si un gran número de máquinas virtuales están hechas para alta disponibilidad de una cantidad grande de hosts físicos, el uso de RHEL puede ser la mejor solución, ya que tiene más algoritmos sofisticados para administrar la colocación de máquina virtual que tienen en cuenta cosas como CPU, memoria e información de carga.
- Si un pequeño número de máquinas virtuales está hecho para alta disponibilidad de un reducido número de hosts físicos, el uso de alta disponibilidad (HA) de RHEL, puede ser la mejor solución, ya que se requiere menos infraestructura adicional. La solución de RHEV más pequeña requiere 4 nodos: 2 para proporcionar alta disponibilidad para el servidor RHEVM y 2 para actuar como hosts de máquina virtual.
- No hay lineamientos estrictos para el número de hosts o máquinas virtuales que se considerarían como 'una gran cantidad'. Sin embargo, tenga en cuenta que el número máximo de hosts en un clúster de alta disponibilidad de RHEL es 16 y que ningún clúster con 8 o más hosts necesitará una revisión de arquitectura de Red Hat para determinar la compatibilidad.
- Si sus máquinas virtuales de alta disponibilidad (HA) que ofrecen servicios, proporcionan una infraestructura compartida, se puede utilizar HA RHEL o RHEV..
- Si necesita proporcionar alta disponibilidad (HA) para una pequeña serie de servicios importantes que se ejecutan dentro de máquinas virtuales, alta disponibilidad de RHEL o RHEV.
- Debería utilizar RHEV, si busca proporcionar infraestructura para aplicar un rápido aprovisionamiento de máquinas virtuales.
- La alta disponibilidad de máquina virtual RHEV debe ser dinámica. La adición de nuevas máquinas virtuales a un 'clúster' de RHEV es factible y tiene total soporte.
- La alta disponibilidad de máquina virtual RHEV no es para entornos altamente dinámicos. Un clúster con una serie de máquinas virtuales fijas, debe configurarse y luego para el tiempo de vida del clúster no se recomienda agregar o retirar máquinas virtuales adicionales.
- Alta disponibilidad de RHEL no debe ser utilizada para proporcionar infraestructura para la creación de entornos-similares a cloud debido a la naturaleza estática de configuración de clúster como también el conteo relativamente bajo de máximo de nodos físicos(16 nodos)
- RHEL 5.0+ ofrece soporte para Xen junto con RHEL AP Cluster
- RHEL 5.4 introdujo soporte para máquinas virtuales KVM como recursos administrados en RHEL AP Cluster como una muestra previa de tecnología.
- RHEL 5.5+ aumenta el soporte para que las máquinas virtuales tengan soporte completo.
- RHEL 6.0+ soporta máquinas virtuales KVM como recursos de alta disponibilidad en RHEL 6 High Availability Add-On.
- RHEL 6.0+ no ofrece soporte para máquinas virtuales Xen con RHEL 6 High Availability Add-On, a partir de RHEL 6 Xen ya no recibe soporte.
Nota
7.1.1. Recomendaciones generales Copiar enlaceEnlace copiado en el portapapeles!
- En RHEL 5.3 y anteriores, rgmanager utilizaba las interfaces Xen nativas para administrar los Xen domU (huéspedes). En RHEL 5.4 esto se cambió para usar libvirt para los hipervisores Xen y KVM a fin de proveer una interfaz consistente en ambos tipos de hipervisor. Aparte de este cambio de arquitectura hay numerosas correcciones de errores en RHEL 5.4 y 5.4.z, por lo tanto, antes de configurar los servicios administrados de Xen, se recomienda actualizar sus clústeres de host por lo menos a los paquetes RHEL 5.5 más recientes.
- Para servicios KVM administrados, actualícese a RHEL 5.5, ya que esta es la primera versión de RHEL en la que esta funcionalidad recibe soporte completo.
- Siempre verifique las erratas más recientes antes de implementar un clúster para asegurarse de que tiene las últimas correcciones para los problemas o errores conocidos.
- La mezcla de hosts de diferentes tipos de hipervisores no tiene soporte. El clúster de host debe ser todo Xen o basado en KVM.
- El hardware de hosts debe aprovisionarse de tal forma que pueda absorber los huéspedes reubicados desde otros hosts fallidos sin hacer que un host se exceda en memoria o CPU virtuales. Si hay fallas suficientes para producir exceso de memoria de las CPU virtuales, se puede producir una severa degradación del rendimiento y en potencia, una falla de clúster.
- El uso directo de herramientas XM o libvirt (virsh, virt-manager) para administrar máquinas virtuales (live migrate, stop. start) que están bajo el control de rgmanager no tienen soporte y no se recomienda debido a que evitaría la pila de administración de clúster.
- Cada MV debe ser de un ancho de clúster único, incluidas las MV locales únicamente o sin clúster. Libvirtd solo aplica los nombres únicos según el host. Si clona una MV a mano, debe cambiar el nombre del archivo de configuración de clon.
7.2. Clústeres de huéspedes Copiar enlaceEnlace copiado en el portapapeles!
- Hosts de RHEL 5.3+ Xen soportan totalmente los clústeres de huéspedes en ejecución donde los sistemas operativos de huéspedes también son RHEL 5.3 o superiores:
- Clústeres de huéspedes Xen pueden usar fence_xvm o fence_scsi para cercado de huéspedes.
- El uso de fence_xvm/fence_xvmd requiere que se esté ejecutando un clúster de hosts para ofrecer soporte. fence_xvmd y fence_xvm deben utilizarse como agentes de cercado en todos los huéspedes en clúster.
- El almacenamiento compartido puede ser provisto, ya sea por dispositivos de bloque compartidos respaldados por iSCSI o Xen o por el almacenamiento de archivos de respaldo (imágenes crudas).
- Hosts RHEL 5.5+ KVM no soportan clústeres de huéspedes en ejecución.
- Hosts RHEL 6.1+ KVM no soportan clústeres de huéspedes en ejecución donde los sistemas operativos de huésped son huéspedes RHEL 6.1+ o RHEL 5.6+. Los huéspedes de RHEL 4 no tienen soporte.
- La mezcla de nodos de clúster en vacío que están virtualizados es permitida.
- Clústeres de huéspedes RHEL 5.6+ pueden usar fence_xvm o fence_scsi para cercado de huéspedes.
- Clústeres de huéspedes RHEL 6.1+ pueden usar ya sea fence_xvm (en el paquete
fence-virt
package) o fence_scsi para cercado de huéspedes. - Los RHEL 6.1+ KVM Hosts deben usar fence_virtd si el clúster de huéspedes utiliza fence_virt o fence_xvm como el agente de vallas. Si el clúster de huéspedes utiliza fence_scsi, no requerirá fence_virtd en los hosts.
- fence_virtd puede operar en tres modos:
- No se permite el modo autónomo en el que el mapeo de host a huésped tiene codificación dura y migración en vivo de los huéspedes.
- Uso del servicio Openais Checkpoint para realizar el seguimiento a migraciones en vivo de huéspedes en clúster. Para ello, se requiere que un clúster de host esté ejecutándose.
- Uso de Infraestructura de administración Qpid (QMF) provista por el paquete libvirt-qpid. Utiliza QMF para hacer seguimiento a migraciones de huéspedes sin requerir que todo un clúster de host esté presente.
- El almacenamiento compartido puede ser provisto, ya sea por dispositivos de bloque compartidos respaldados por iSCSI o KVM o por el almacenamiento de archivos de respaldo (imágenes crudas).
- Las versiones 2.2+ y 3.0 de Red Hat Enterprise Virtualization Management (RHEV-M) soportan actualmente huéspedes en clúster RHEL 5.6+ y RHEL 6.1+ .
- Los clústeres de huéspedes deben ser homogéneos (ya sean todos los huéspedes RHEL 5.6+ o todos los huéspedes RHEL 6.1+).
- La mezcla de nodos de clúster en vacío que están virtualizados es permitida.
- El cercado es provisto por fence_scsi en RHEV-M 2.2+ y por fence_scsi y fence_rhevm en RHEV-M 3.0. El cercado recibe soporte mediante fence_scsi como se describe a continuación:
- El uso de _scsi con almacenamiento iSCSI es limitado para servidores iSCSI que soportan reservaciones persistentes SCSI 3 con los comandos preempt-y -abort. No todos los servidores iSCSI soportan esta funcionalidad. Verifique con el proveedor de almacenamiento si su servidor cumple con el soporte de reservaciones persistentes SCSI 3. Observe que el servidor iSCSI distribuido con Red Hat Enterprise Linux no soporta actualmente reservaciones persistentes SCSI 3 , por lo tanto, no es apto para usar con fence_scsi.
- VMware vSphere 4.1, VMware vCenter 4.1, VMware ESX y ESXi 4.1 soportan clústeres de huéspedes en ejecución cuando los sistemas operativos de huésped son RHEL 5.7+ o RHEL 6.2+. La versión 5.0 de VMware vSphere, vCenter, ESX y ESXi también tienen soporte; no obstante, debido al esquema incompleto de WDSL provisto en el lanzamiento inicial de Vmware vSphere 5.0, la herramienta fence_vmware_soap no funciona en la instalación predeterminada. Consulte nuestra base de conocimientos en https://access.redhat.com/knowledge/ para obtener el procedimiento actualizado para corregir este problema.
- Los clústeres de huéspedes deben ser homogéneos ( sean todos los huéspedes RHEL 5.7+ o todos los huéspedes RHEL 6.1+).
- La mezcla de nodos de clúster en vacío que están virtualizados es permitida.
- El agente fence_vmware_soap requiere VMware perl API de terceras partes. Este paquete de software debe descargarse desde el sitio de Web VMware e instalarse en los huéspedes en clúster de RHEL.
- De modo alternativo, fence_scsi puede utilizarse para proveer cercado como se describe a abajo.
- El almacenamiento compartido puede ser provisto por dispositivos de bloque compartidos crudos iSCSI o VMware.
- El uso de clústeres de huéspedes VMware ESX recibe soporte, sea con fence_vmware_so_ap o fence_scsi.
- El uso de clústeres de huéspedes Hyper-V no recibe soporte, en este momento.
7.2.1. El uso de fence-scsi y almacenamiento compartido iSCSI Copiar enlaceEnlace copiado en el portapapeles!
- En todos los entornos de virtualización de arriba, el almacenamiento de fence_scsi e iSCSI se pueden utilizar, en lugar del almacenamiento nativo compartido y los dispositivos nativos de vallas.
- fence_scsi se utiliza para proporcionar cercado de E/S para almacenamiento compartido provisto en iSCSI si el destino iSCSI soporta reservaciones persistentes SCSI 3 y los comandos preempt y abort. Verifique con el vendedor de almacenamiento para determinar si su solución iSCSI soporta la funcionalidad de arriba.
- El software de servidor iSCSI que se distribuye con RHEL no soporta reservaciones persistentes SCSI 3, por lo tanto, no puede utilizarse con fence_scsi. No obstante, es apto para ser utilizado como una solución de almacenamiento compartida junto con otros dispositivos de vallas tales como, fence_vmware o fence_rhevm.
- Para usar fence_scsi en todos los huéspedes, no se requiere un clúster de host (en RHEL 5 Xen/KVM y RHEL 6 KVM Host use casos)
- Si usa fence_scsi como agente de vallas, todo el almacenamiento compartido debe ser sobre iSCSI. No se permite la mezcla de iSCSI y almacenamiento compartido.
7.2.2. Recomendaciones generales Copiar enlaceEnlace copiado en el portapapeles!
- Como se indicó anteriormente, antes de usar funcionalidades de virtualización se recomienda actualizar el host y los huéspedes a los paquetes más recientes de RHEL, puesto que se han realizado muchas correcciones y mejoras.
- La mezcla de plataformas (hipervisores) subyacentes a los clústeres de huéspedes, no recibe soporte. Todos los hosts subyacentes deben usar la misma tecnología de virtualización.
- No se ofrece soporte si se ejecutan todos los huéspedes en un clúster de huésped en un host físico único, ya que no se proporciona alta disponibilidad en el evento de una falla de un host único. Sin embargo, esta configuración puede utilizarse para propósitos de desarrollo o prototipo.
- Las mejores prácticas se incluyen a continuación:
- No es necesario tener un host individual para cada huésped, pero esta configuración sí proporciona la más alta disponibilidad, puesto que una falla de host solamente afecta un nodo individual en el clúster. Si tiene asignados 2 por 1 (dos huéspedes en un clúster único por un host físico), significa que la falla de host individual, resulta en fallo de dos huéspedes. Por lo tanto, se recomienda que en lo posible, se esté cerca de la asignación 1 por 1.
- La mezcla de clústeres de huéspedes independientes en el mismo conjunto de hosts físicos, actualmente no recibe soporte cuando se usan los agentes de vallas fence_xvm/fence_xvmd o fence_virt/fence_virtd.
- La mezcla de clústeres de huéspedes independientes en el mismo set de hosts físicos funciona si se utiliza almacenamiento _scsi + iSCSI o fence_vmware + VMware (ESX/ESXi y vCenter).
- La ejecución de huéspedes sin clúster en el mismo set de hosts físicos como un clúster de huéspedes recibe soporte, pero, puesto que los hosts se cercarán físicamente entre sí cuando se configura un clúster de hosts, los demás huéspedes también se terminarán durante la operación de cercado de host.
- El hardware de hosts debe aprovisionarse para evitar el sobrenvío de memoria o de CPU virtual. El sobrenvío de memoria o de CPU virtual, resultará en degradación de rendimiento. Si la degradación de rendimiento se torna crítica, el latido de clúster, podría afectarse, lo cual puede producir un fallo de clúster.
Apéndice A. Historia de revisiones Copiar enlaceEnlace copiado en el portapapeles!
Historial de revisiones | ||||
---|---|---|---|---|
Revisión 1-15.3 | Mon Mar 2 2015 | |||
| ||||
Revisión 1-15.2 | Mon Mar 2 2015 | |||
| ||||
Revisión 1-15.1 | Mon Mar 2 2015 | |||
| ||||
Revisión 1-15 | Tue Dec 16 2014 | |||
| ||||
Revisión 1-13 | Wed Oct 8 2014 | |||
| ||||
Revisión 1-12 | Thu Aug 7 2014 | |||
| ||||
Revisión 1-11 | Fri Aug 1 2014 | |||
| ||||
Revisión 1-10 | Fri Jun 6 2014 | |||
| ||||
Revisión 1-7 | Wed Nov 20 2013 | |||
| ||||
Revisión 1-4 | Mon Feb 18 2013 | |||
| ||||
Revisión 1-3 | Mon Jun 18 2012 | |||
| ||||
Revisión 1-2 | Fri Aug 26 2011 | |||
| ||||
Revisión 1-1 | Wed Nov 10 2010 | |||
|