Buscar

2.3. Problemas de asignación de bloques

download PDF
Esta sección provee un resumen de los aspectos relacionados con la asignación de bloques en sistemas de archivos GFS2. Aunque las aplicaciones solo escriben datos, por lo general no se preocupan en cómo o dónde se asigna el bloque, un poco de conocimiento acerca de cómo funciona la asignación de bloques puede ayudar a optimizar el rendimiento.

2.3.1. Abandonar espacio libre en el sistema de archivos

Cuando un sistema de archivos GFS2 está casi lleno, el asignador de bloques comienza a tener dificultades para encontrar espacio para los nuevos bloques que van a ser asignados. Como resultado, los bloques entregados por el asignador tienden a comprimirse hasta el final del grupo de recursos o en partes diminutas donde la fragmentación de archivos es mucho más probable. Esta fragmentación puede causar problemas de rendimiento. Además, cuando un GFS2 está casi lleno, el asignador de bloques de GFS2 gasta más tiempo buscando a través de múltiples grupos de recursos y que añade competencia de cerrojo que no estaría necesariamente en un sistema de archivos, que tenga bastante espacio libre. Esto también puede causar problemas de rendimiento.
Por estas razones, se recomienda ejecutar un sistema de archivos que esté más del 85 por ciento lleno, aunque esta cantidad puede variar según la carga de trabajo.
Red Hat logoGithubRedditYoutubeTwitter

Aprender

Pruebe, compre y venda

Comunidades

Acerca de la documentación de Red Hat

Ayudamos a los usuarios de Red Hat a innovar y alcanzar sus objetivos con nuestros productos y servicios con contenido en el que pueden confiar.

Hacer que el código abierto sea más inclusivo

Red Hat se compromete a reemplazar el lenguaje problemático en nuestro código, documentación y propiedades web. Para más detalles, consulte el Blog de Red Hat.

Acerca de Red Hat

Ofrecemos soluciones reforzadas que facilitan a las empresas trabajar en plataformas y entornos, desde el centro de datos central hasta el perímetro de la red.

© 2024 Red Hat, Inc.