Global Network Block Device


Red Hat Enterprise Linux 5

Red Hat Global File System과 함께 GNBD 사용

엮음 3

초록

이 문서는 Red Hat Enterprise Linux 5 용 Red Hat GFS와 함께 GNBD (Global Network Block Device)를 사용하는 방법에 대한 개요를 다루고 있습니다.

소개

1. 가이드 설명

다음 부분에서는 장치 매퍼 멀티패스, GNDB 드라이버 및 명령 사용법, GNBD 서버 노드에서 GFS 실행을 포함하여 GFS (Global File System)와 함께 GNDB (Global Network Block Device)를 사용하는 방법에 대해 설명합니다.

2. 대상

이 문서는 Linux 운영 체제에서 시스템을 관리하고 있는 시스템 관리자를 위한 것입니다. 따라서 Red Hat Enterprise Linux 5 및 GFS 파일 시스템 관리에 능숙해야 합니다.

3. 소프트웨어 버전

Expand
표 1. 소프트웨어 버전
소프트웨어 설명
RHEL5
RHEL5 이상 버전을 다루고 있음
GFS
RHEL5 이상 버전의 GFS를 다루고 있음

5. 피드백

문서 내용 개선을 위한 제안이 있거나 오자를 발견했을 경우 언제든지 알려 주시기 바랍니다. rh-cs에 대한 리포트를 버그질라(Bugzilla)에 제출해 주시면 됩니다. (http://bugzilla.redhat.com/bugzilla/)
Be sure to mention the manual's identifier:
Bugzilla component: Documentation-cluster
Book identifier: Global_Network_Block_Device(EN)-5 (2009-01-05T15:25)
Copy to Clipboard Toggle word wrap
By mentioning this manual's identifier, we know exactly which version of the guide you have.
문서 내용 개선을 위한 제안이 있으실 경우, 최대한 명확히 설명해 주시기 바랍니다. 오류를 발견하셨다면 저희가 쉽게 식별할 수 있도록 섹션 번호와 주위의 문장들을 함께 보내주시기 바랍니다.

1장. Red Hat GFS와 함께 GNBD 사용

GNBD (Global Network Block Device)는 이더넷 LAN을 통해 블록-레벨 스토리지 액세스를 제공합니다. GNBD 구성 요소는 GFS 노드에서는 클라이언트로 작동하고 GNBD 서버 노드에서는 서버로 작동합니다. GNBD 서버 노드는 로컬 스토리지 (직접 연결된 스토리지 또는 SAN 스토리지)에서 GFS 노드로 블록-레벨 스토리지를 내보내기합니다.
표 1.1. “GNBD 소프트웨어 하부 시스템 구성 요소 ” summarizes the GNBD software subsystems components.
Expand
표 1.1. GNBD 소프트웨어 하부 시스템 구성 요소
소프트웨어 하부시스템 구성 요소 설명
GNBD gnbd.ko 클라이언트에서 GNBD 장치 드라이버를 구현하는 커널 모듈
gnbd_export GNBD 서버에서 GNBD를 생성, 내보내기 및 관리하기 위한 명령
gnbd_import GNBD 클라이언트에서 GNBD를 가져오기 및 관리하기 위한 명령
gnbd_serv 노드가 네트워크를 통해 로컬 스토리지를 내보내기할 수 있도록 하는 서버 데몬
GNBD 서버가 장치-매퍼 멀티패스와 함께 작동하도록 설정할 수 있습니다. 장치-매퍼 멀티패스가 있는 GNBD는 여러 GNBD 서버 노드를 설정하게 하여 저장 장치로의 이중 경로를 제공합니다. GNBD 서버는 이중 GNBD를 통해 GFS 노드로의 여러 저장 장치 경로가 차례로 나타나게 합니다. 장치-매퍼 멀티패스와 함께 GNBD를 사용할 때, GNBD 서버 노드가 사용 불가능하게 될 경우, 다른 GNBD 서버 노드는 저장 장치로의 액세스가 있는 GFS 노드를 제공할 수 있습니다.
다음 부분에서는 Red Hat GFS과 함께 GNBD를 사용하는 방법에 대한 내용을 다루고 있으며 이는 다음과 같은 내용으 구성되어 있습니다:

2장. Device-Mapper Multipath와 함께 GNBD 사용을 위한 고려 사항

장치-매퍼 멀티패스와 함께 GNBD는 여러 GNBD 서버 노드 (GNBD를 GFS 노드로 내보내기 하는 노드)를 설정하게 하여 저장 장치에 이중 경로를 제공합니다. GNBD 서버 노드는 이중 GNBD를 통해 GFS 노드에 여러 저장 장치 경로가 차례로 나타나게 합니다. 장치-매퍼 멀티패스와 함께 GNBD를 사용할 때, GNBD 서버 노드가 사용 불가능하게된 경우, 다른 GNBD 서버 노드는 저장 장치로의 액세스를 갖는 GFS 노드를 제공할 수 있습니다.
장치-매퍼 멀티패스와 함께 GNBD를 사용할 경우, 다음과 같은 사항을 고려하셔야 합니다:

2.1. Linux 페이지 캐싱

For GNBD with device-mapper multipath, do not specify Linux page caching (the -c option of the gnbd_export command). All GNBDs that are part of a logical volume must run with caching disabled. Data corruption occurs if the GNBDs are run with caching enabled. Refer to 3.1절. “서버에서 GNBD 내보내기 ” for more information about using the gnbd_export command for GNBD with device-mapper multipath.

2.2. GNBD 서버 노드 Fencing

GNBD 서버 노드는 네트워크에서 물리적으로 노드를 제거하는 fencing 방식을 사용하여 차단되어야 합니다. 물리적으로 GNBD 서버 노드를 제거하려면, 다음을 제외한 fencing 장치를 사용할 수 있습니다: fence_brocade fence 에이전트, fence_vixel fence 에이전트, fence_mcdata fence 에이전트, fence_sanbox2 fence 에이전트, fence_scsi fence 에이전트. 또한, GNBD 서버 노드를 차단하기 위해 GNBD fencing 장치 (fence_gnbd fence 에이전트)를 사용할 수 없습니다. GNBD 서버 노드에 대해 fencing을 설정하는 방법에 대한 자세한 내용은 Global File System 메뉴얼을 참조하십시오.

3장. GNBD 드라이버 및 명령 사용법

GNBD (Global Network Block Device) 드라이버는 노드가 네트워크를 통해 GNBD로 로컬 스토리지를 내보내기할 수 있도록 하여 해당 네트워크에 있는 다른 노드가 스토리지를 공유할 수 있게 합니다. GNBD를 가져오기한 클라이언트 노드는 이를 다른 블록 장치 처럼 사용합니다. 여러 클라이언트에서 GNBD를 가져오기하는 것은 GFS를 사용할 수 있도록 하여 공유 스토리지 설정을 형성합니다.
GNBD 드라이버는 다음과 같은 구성 요소를 통해 실행됩니다.
  • gnbd_serv — GNBD 서버를 구현합니다. 이는 노드가 네트워크를 통해 로컬 스토리지를 내보내기할 수 있게 하는 user-space 데몬입니다.
  • gnbd.ko — GNBD 클라이언트 (GNBD 장치를 사용하는 노드)에서 GNBD 장치 드라이버를 구현합니다.
다음 두 개의 사용자 명령을 사용하여 GNBD를 설정할 수 있습니다:
  • gnbd_export (for servers) — User program for creating, exporting, and managing GNBDs on a GNBD server.
  • gnbd_import (클라이언트 용) — GNBD 클라이언트에서 GNBD를 가져오기 및 관리를 위한 사용자 프로그램입니다.

3.1. 서버에서 GNBD 내보내기

gnbd_serv 데몬은 GNBD로 스토리지를 내보내기할 수 있게 되기 전에 노드에서 실행되고 있어야 합니다. 다음과 같이 gnbd_serv 명령을 실행하여 gnbd_serv 데몬을 시작할 수 있습니다:
#gnbd_serv
gnbd_serv: startup succeeded
Copy to Clipboard Toggle word wrap
내보내기할 로컬 스토리지가 확인되면, gnbd_export 명령을 사용하여 이를 내보내기합니다.

참고

장치-매퍼 멀티패스가 있는 GNBD 서버를 설정할 때, 페이지 캐싱을 사용하지 않습니다. 논리 볼륨의 일부인 모든 GNBD는 캐싱을 비활성화하고 실행해야 합니다. 기본값으로 gnbd_export 명령은 캐싱을 비활성화하고 내보내기합니다.

참고

클라이언트로 사용하기 위해 서버는 GNBD를 가져오기하지 않습니다. 서버가 캐시되지 않은 장치를 내보내기할 경우, 기본 장치도 gfs에 의해 사용될 수 있습니다.

3.1.1. 사용법

gnbd_export -d pathname -e gnbdname [-c][-u][-U
Copy to Clipboard Toggle word wrap
pathname
내보내기할 스토리지 장치를 지정합니다.
gnbdname
GNBD를 위해 선택한 임의의 이름을 지정합니다. 이는 GNBD 클라이언트에서 장치 이름으로 사용됩니다. 이는 네트워크에 있는 내보내기한 모든 GNBD 사이에서 고유한 이름이어야 합니다.
-o
읽기-전용으로 장치를 내보내기합니다.
-c
캐싱을 활성화합니다. 내보내기한 GNBD에서 읽어와서 Linux 페이지 캐싱의 장점을 취합니다.
기본값으로 gnbd_export 명령은 캐싱을 활성화하지 않습니다.

참고

장치-매퍼 멀티패스와 함께 GNBD 서버를 설정할 때, -c 옵션을 지정하지 않습니다. 논리 볼륨의 일부분인 모든 GNBD는 캐싱을 비활성화하고 실행되어야 합니다.

참고

GFS 5.2 또는 이전 버전을 사용하고 GNBD 설정을 변경하지 않으려는 경우에는 -c 옵션을 지정해야 합니다. GFS 릴리즈 5.2.1 이전 버전에서는 Linux 캐싱이 gnbd_export에 대해 기본값으로 활성화되어 있었습니다. -c 옵션이 지정되지 않은 경우, GNBD는 현저하게 성능이 저하되어 실행됩니다. 또한, -c 옵션이 지정되지 않은 경우, 내보내기된 GNBD는 시간 제한 기본값 (-t 옵션)을 사용하여 시간 제한 모드에서 실행됩니다. gnbd_export 명령 및 해당 옵션에 대한 자세한 내용은 gnbd_export 맨 페이지를 참조하십시오.
-u uid
내보내기한 장치에 수동으로 범용 식별자 (Universal Identifier)를 설정합니다. 이러한 옵션은 -e와 함께 사용됩니다. UID는 장치-매퍼 멀티패스에 의해 사용되어 멀티패스 맵에 속한 장치를 결정합니다. 장치는 멀티패스된 UID를 반드시 가지고 있어야 합니다. 하지만, 대부분의 SCSI 장치의 경우 Get UID 기본값 명령 /usr/sbin/gnbd_get_uid이 적절한 값을 반환합니다.

참고

UID는 GNBD 자체가 아니라 내보내기된 장치를 참조합니다. 두 개의 GNBD 장치의 UID는 같은 기본 장치를 내보내기할 경우에만 동일해야 합니다. 이는 두 GNBD 서버가 동일한 물리적 장치에 연결됨을 의미합니다.

참고

-U command 옵션이 작동하지 않을 경우, 이 옵션은 공유 스토리지 장치를 내보내기할 때에만 사용해야 합니다. 이러한 상황은 SCSI 장치에서는 거의 발생하지 않습니다. 두 개의 GNBD 장치가 동일한 기본 장치를 내보내기하지 않더라도 동일한 UID가 주어졌다면 데이터가 손상될 수 있습니다.
-U Command
UID 명령을 취합니다. UID 명령은 gnbd_export 명령이 내보내기한 장치의 범용 식별자(Universal Identifier)를 알아내기 위해 실행되는 명령입니다. UID는 GNBD와 함께 장치-매퍼 멀티패스를 사용하기 위해 필요합니다. 이 명령은 실행하고자 하는 실행 파일의 전체 경로를 사용해야 합니다. 명령에는 %M, %m, %n 같은 확장 문자열을 포함시킬 수 있습니다. %M은 내보내기된 장치의 메이저 번호로 확장되며, %m은 내보내기된 장치의 마이너 번호로 확장되고, %n 은 장치의 sysfs 이름으로 확장됩니다. 명령이 주어지지 않은 경우, GNBD는 기본값 명령 /usr/sbin/gnbd_get_uid을 사용하게 됩니다. 이러한 명령은 대부분의 SCSI 장치에 대해 작동하게 됩니다.

3.1.2. 예제

다음 예제는 GNBD 멀티패스로 설정된 GNBD 서버를 위한 것입니다. 이는 GNBD gamma/dev/sdc2 장치를 내보내기합니다. 캐시는 기본값으로 비활성화되어 있습니다.
gnbd_export -d /dev/sdc2 -e gamma -U
Copy to Clipboard Toggle word wrap
다음 예제는 GNBD 멀티패스로 설정되지 않은 GNBD 서버를 위한 것입니다. 이는 캐시 활성화하여 GNBD delta/dev/sdb2 장치를 내보내기합니다.
gnbd_export -d /dev/sdb1 -e delta -c
Copy to Clipboard Toggle word wrap
다음 예제에서는 활성화된 캐시와 함께 GNBD delta로서 /dev/sdb2 장치를 내보내기하고 있습니다.
gnbd_export -d /dev/sdb2 -e delta -c
Copy to Clipboard Toggle word wrap

3.2. 클라이언트에서 GNBD 가져오기

gnbd.ko 커널 모듈은 GNBD를 가져오기 전 노드에서 불러와야 합니다. GNBD를 가져오게 되면, 장치 노드는 내보내기할 때 할당된 이름과 함께 /dev/gnbd/에 생성됩니다.

3.2.1. 사용법

gnbd_import -i Server
Copy to Clipboard Toggle word wrap
Server
GNBD를 가져오기한 호스트 이름 또는 IP 주소를 통해 GNBD 서버를 지정합니다. 서버에서 내보내어진 모든 GNBD는 이러한 명령을 실행하고 있는 클라이어트에서 가져오기됩니다.

3.2.2. 예제

다음 예제에서는 nodeA라는 서버에서 모든 GNBD를 가져오기하고 있습니다.
gnbd_import -i nodeA
Copy to Clipboard Toggle word wrap

4장. GNBD 서버 노드에서 GFS 실행

일부 제한 사항이 있는 GNBD 서버 노드에서 GFS를 실행하실 수 있습니다. 또한, GNBD 노드에서 GFS를 실행하면 성능이 저하됩니다. GNBD 서버 노드에서 GFS를 실행할 경우 다음과 같은 제한 사항이 적용됩니다.

중요

GNBD 서버 노드에서 GFS를 실행할 경우 반드시 다음과 같은 제한 사항을 따라야 합니다; 그렇지 않을 경우, GNBD 서버 노드는 실패하게 됩니다.
  1. GNBD 서버 노드는 GFS 파일 시스템을 마운트하는데 필요한 모든 저장 장치로 로컬 액세스할 수 있어야 합니다. GNBD 서버 노드는 파일 시스템을 실행하기 위해 기타 다른 GNBD 장치를 가져올 수 (gnbd_import 명령) 없습니다.
  2. GNBD 서버는 캐시되지 않은 모드에서 모든 GNBD를 내보내기해야 하며, 논리 볼륨 장치가 아닌 원시 (raw) 장치를 내보내기 해야 합니다.
  3. GFS는 원시 (raw) 장치가 아니라 논리 볼륨 장치에서 실행해야 합니다.

참고

성능 저하에 부합하기 위해 내보내기된 GNBD에서 제한 시간을 연장해야 할 수 있습니다. 제한 시간을 연장하기 위한 필요성은 하드웨어 품질에 따라 결정됩니다.

부록 A. 개정 내역

고친 과정
고침 3-6.4002013-10-31Rüdiger Landmann
Rebuild with publican 4.0.0
고침 3-62012-07-18Anthony Towns
Rebuild for Publican 3.0
고침 1.0-0Thu Jan 29 2009

법적 공지

Copyright © 2009 Red Hat, Inc.
This document is licensed by Red Hat under the Creative Commons Attribution-ShareAlike 3.0 Unported License. If you distribute this document, or a modified version of it, you must provide attribution to Red Hat, Inc. and provide a link to the original. If the document is modified, all Red Hat trademarks must be removed.
Red Hat, as the licensor of this document, waives the right to enforce, and agrees not to assert, Section 4d of CC-BY-SA to the fullest extent permitted by applicable law.
Red Hat, Red Hat Enterprise Linux, the Shadowman logo, JBoss, OpenShift, Fedora, the Infinity logo, and RHCE are trademarks of Red Hat, Inc., registered in the United States and other countries.
Linux® is the registered trademark of Linus Torvalds in the United States and other countries.
Java® is a registered trademark of Oracle and/or its affiliates.
XFS® is a trademark of Silicon Graphics International Corp. or its subsidiaries in the United States and/or other countries.
MySQL® is a registered trademark of MySQL AB in the United States, the European Union and other countries.
Node.js® is an official trademark of Joyent. Red Hat Software Collections is not formally related to or endorsed by the official Joyent Node.js open source or commercial project.
The OpenStack® Word Mark and OpenStack logo are either registered trademarks/service marks or trademarks/service marks of the OpenStack Foundation, in the United States and other countries and are used with the OpenStack Foundation's permission. We are not affiliated with, endorsed or sponsored by the OpenStack Foundation, or the OpenStack community.
All other trademarks are the property of their respective owners.
맨 위로 이동
Red Hat logoGithubredditYoutubeTwitter

자세한 정보

평가판, 구매 및 판매

커뮤니티

Red Hat 문서 정보

Red Hat을 사용하는 고객은 신뢰할 수 있는 콘텐츠가 포함된 제품과 서비스를 통해 혁신하고 목표를 달성할 수 있습니다. 최신 업데이트를 확인하세요.

보다 포괄적 수용을 위한 오픈 소스 용어 교체

Red Hat은 코드, 문서, 웹 속성에서 문제가 있는 언어를 교체하기 위해 최선을 다하고 있습니다. 자세한 내용은 다음을 참조하세요.Red Hat 블로그.

Red Hat 소개

Red Hat은 기업이 핵심 데이터 센터에서 네트워크 에지에 이르기까지 플랫폼과 환경 전반에서 더 쉽게 작업할 수 있도록 강화된 솔루션을 제공합니다.

Theme

© 2025 Red Hat