11장. 설치 중 스토리지 고려 사항
많은 스토리지 장치 및 파일 시스템 설정은 설치 시에만 구성할 수 있습니다. 파일 시스템 유형과 같은 다른 설정은 재포팅 없이 특정 시점까지만 수정할 수 있습니다. 따라서 Red Hat Enterprise Linux 7을 설치하기 전에 스토리지 구성을 적절하게 계획하는 것이 좋습니다.
이 장에서는 시스템의 스토리지 구성을 계획할 때 몇 가지 고려 사항에 대해 설명합니다. 설치 지침(설치 중 스토리지 구성 포함)은 Red Hat에서 제공하는 설치 가이드 를 참조하십시오.
크기 및 스토리지 제한과 관련하여 공식적으로 지원하는 Red Hat의 지원에 대한 자세한 내용은 다음 문서 http://www.redhat.com/resourcelibrary/articles/articles-red-hat-enterprise-linux-6-technology-capabilities-and-limits 를 참조하십시오.
11.1. 특수 고려 사항
이 섹션에서는 특정 스토리지 구성에 대해 고려해야 할 몇 가지 문제와 요소를 열거합니다.
11.1.1. /home, /opt, /usr/local에 대한 개별 파티션
나중에 시스템을 업그레이드할 가능성이 있는 경우
/home
,/opt
, /usr/local
을 별도의 장치에 업그레이드합니다. 이를 통해 사용자 및 애플리케이션 데이터를 유지하면서 운영 체제가 포함된 장치 또는 파일 시스템을 다시 포맷할 수 있습니다.
11.1.2. IBM System Z의 DASD 및 zFCP 장치
IBM System Z 플랫폼에서 DASD 및 zFCP 장치는 CCO( Channel Command Word ) 메커니즘을 통해 구성됩니다. CCW 경로를 시스템에 명시적으로 추가한 다음 온라인 상태로 만들어야 합니다. DASD 장치의 경우 부팅 명령줄 또는 CMS 구성 파일에 있는
DASD=
매개 변수로 장치 번호(또는 장치 번호 범위)를 나열합니다.
zFCP 장치의 경우 장치 번호, LUN(Logical Unit Number ) 및 WWPN(WWPN)을 나열해야 합니다. zFCP 장치가 초기화되면 CCW 경로에 매핑됩니다. 부팅 명령줄(또는 CMS 구성 파일)의
FCP_x=
줄을 사용하면 설치 프로그램에 대해 이 정보를 지정할 수 있습니다.
11.1.3. LUKS를 사용하여 블록 장치 암호화
LUKS/dm-crypt 를 사용하여 암호화용 블록 장치를 포맷하면 해당 장치의 기존 포맷이 삭제됩니다. 따라서 새 시스템의 스토리지 구성이 설치 프로세스의 일부로 활성화되기 전에 암호화할 장치를 결정해야 합니다.
11.1.4. 오래된 BIOS RAID 메타데이터
RAID 메타데이터를 디스크에서 제거하지 않고 펌웨어 RAID용으로 구성된 시스템에서 디스크를 이동하면 Anaconda 가 디스크를 올바르게 감지하지 못할 수 있습니다.
주의
디스크에서 RAID 메타데이터를 제거/삭제하면 저장된 데이터가 손상될 수 있습니다. Red Hat은 진행하기 전에 데이터를 백업할 것을 권장합니다.
참고
이제 더 이상 사용되지 않는 dmraid 를 사용하여 RAID 볼륨을 생성한 경우 dmraid 유틸리티를 사용하여 삭제합니다.
#
dmraid -r -E /device/
RAID 장치 관리에 대한 자세한 내용은 man dmraid 및 18장. 중복 개별 디스크(RAID) 을 참조하십시오.
11.1.5. iSCSI 탐지 및 설정
iSCSI 드라이브의 플러그 및 재생 감지의 경우 iBFT 부팅 가능 네트워크 인터페이스 카드 (NIC)의 펌웨어에서 구성합니다. iSCSI 대상의 CHAP 인증이 설치 중에 지원됩니다. 그러나 설치 중에 iSNS 검색은 지원되지 않습니다.
11.1.6. FCoE Detection and Configuration
FFCOE( Fibre Channel over Ethernet ) 드라이브의 플러그 앤 플레이 감지의 경우 EDD 부팅 가능 NIC의 펌웨어에서 구성합니다.
11.1.7. DASD
직접 액세스 스토리지 장치 (DASD)는 설치 중에 추가하거나 구성할 수 없습니다. 이러한 장치는 CMS 설정 파일에 지정됩니다.
11.1.8. DIF/DIX가 활성화된 블록 장치
DIF/DIX는 특정 SCSI 호스트 버스 어댑터 및 블록 장치에서 제공하는 하드웨어 체크섬 기능입니다. DIF/DIX가 활성화되면 블록 장치를 범용 블록 장치로 사용하면 오류가 발생합니다. 버퍼링된 I/O 또는 mmap(2)- 기반 I/O는 버퍼링된 쓰기 경로에 interlocks가 존재하지 않으므로 DIF/DIX 체크섬을 계산한 후 버퍼링된 데이터가 덮어쓰지 않도록 안정적으로 작동하지 않습니다.
이로 인해 I/O가 나중에 체크섬 오류와 함께 실패합니다. 이 문제는 모든 블록 장치 (또는 파일 시스템 기반) 버퍼링 I/O 또는 mmap(2) I/O에 일반적이므로 덮어 쓰기로 인해 발생하는 이러한 오류를 해결할 수 없습니다.
따라서 DIF/DIX가 활성화된 블록 장치는 O_DIRECT 를 사용하는 애플리케이션과만 사용해야 합니다. 이러한 애플리케이션은 원시 블록 장치를 사용해야 합니다. 또는 파일 시스템을 통해 O_DIRECT I/O를 발급하는 한 DIF/DIX가 활성화된 블록 장치에서 XFS 파일 시스템을 사용하는 것도 안전합니다. XFS는 특정 할당 작업을 수행할 때 버퍼링된 I/O로 대체하지 않는 유일한 파일 시스템입니다.
DIF/DIX 체크섬을 항상 계산한 후에는 I/O 데이터가 변경되지 않으므로 O_DIRECT I/O 및 DIF/DIX 하드웨어에서 사용하도록 설계된 애플리케이션만 DIF/DIX를 사용해야 합니다.