검색

15장. Ceph를 사용하여 다중 사이트 내결함성 메시징 시스템 구성

download PDF

대규모 엔터프라이즈 메시징 시스템에는 일반적으로 지리적으로 분산된 데이터 센터에 있는 별도의 브로커 클러스터가 있습니다. 데이터 센터 중단 시 시스템 관리자는 기존 메시징 데이터를 보존하고 클라이언트 애플리케이션이 메시지를 계속 생성하고 사용할 수 있도록 해야 할 수 있습니다. 특정 브로커 토폴로지 및 소프트웨어 정의 스토리지 플랫폼인 Red Hat Ceph Storage를 사용하여 데이터 센터 중단 중에 메시징 시스템의 연속성을 보장할 수 있습니다. 이러한 유형의 솔루션을 다중 사이트 내결함성 아키텍처 라고 합니다.

참고

AMQP 프로토콜 지원만 필요한 경우 16장. 브로커 연결을 사용하여 다중 사이트 내결함성 메시징 시스템 구성 을/를 고려하십시오.

다음 섹션에서는 Red Hat Ceph Storage를 사용하여 데이터 센터 중단으로부터 메시징 시스템을 보호하는 방법을 설명합니다.

참고

다중 사이트 내결함성은 데이터 센터 내에서 HA(고가용성) 브로커 중복을 대체하지 않습니다. 라이브 백업 그룹을 기반으로 하는 브로커 중복성은 단일 클러스터 내의 단일 브로커 오류에 대한 자동 보호 기능을 제공합니다. 반면 다중 사이트 내결함성은 대규모 데이터 센터 중단을 방지합니다.

참고

메시징 시스템의 연속성을 보장하기 위해 Red Hat Ceph Storage를 사용하려면 공유 저장소 HA(고가용성) 정책을 사용하도록 브로커를 구성해야 합니다. 복제 HA 정책을 사용하도록 브로커를 구성할 수 없습니다. 이러한 정책에 대한 자세한 내용은 고가용성 구현을 참조하십시오.

15.1. Red Hat Ceph Storage 클러스터 작동 방식

Red Hat Ceph Storage는 클러스터형 오브젝트 스토리지 시스템입니다. Red Hat Ceph Storage는 오브젝트 및 정책 기반 복제의 데이터 분할을 사용하여 데이터 무결성 및 시스템 가용성을 보장합니다.

Red Hat Ceph Storage는 CRUSH(Controlled Replication Under Scalable Hashing)라는 알고리즘을 사용하여 자동으로 데이터 스토리지 위치를 저장하고 검색하는 방법을 결정합니다. CRUSH 맵 이라는 Ceph 항목을 구성하여 클러스터 토폴로지를 자세히 설명하고 스토리지 클러스터 간에 데이터를 복제하는 방법을 지정합니다.

CRUSH 맵에는 OSD(오브젝트 스토리지 장치) 목록, 장치를 장애 도메인 계층 구조로 집계하는 'buckets' 목록, CRUSH에 Ceph 클러스터의 풀에서 데이터를 복제하는 방법을 알려주는 규칙이 포함되어 있습니다.

설치의 기본 물리적 조직을 반영하여 CRUSH 맵은 모델링할 수 있으므로 물리적 근접성, 공유 전원 소스 및 공유 네트워크와 같은 관련 장치 오류의 잠재적 소스를 모델링할 수 있습니다. 이 정보를 클러스터 맵에 인코딩하여 CRUSH는 스토리지 클러스터에서 데이터의 의사 무작위 배포를 유지 관리하면서 다양한 장애 도메인(예: 데이터 센터) 간에 오브젝트 복제본을 분리할 수 있습니다. 이렇게 하면 데이터 손실을 방지하고 클러스터가 성능 저하된 상태로 작동할 수 있습니다.

Red Hat Ceph Storage 클러스터에는 다양한 노드(실제 또는 가상)가 필요합니다. 클러스터에는 다음 유형의 노드가 포함되어야 합니다.

노드 모니터링

각 모니터(MON) 노드는 클러스터 맵의 마스터 복사본을 유지 관리하는 모니터 데몬(ceph-mon)을 실행합니다. 클러스터 맵에는 클러스터 토폴로지가 포함됩니다. Ceph 클러스터에 연결하는 클라이언트는 Monitor에서 클러스터 맵의 현재 사본을 검색하여 클라이언트가 클러스터에서 데이터를 읽고 쓸 수 있습니다.

중요

Red Hat Ceph Storage 클러스터는 하나의 모니터 노드로 실행할 수 있지만 프로덕션 클러스터에서 고가용성을 보장하기 위해 Red Hat은 모니터 노드가 3개 이상인 배포만 지원합니다. 최소 3개의 모니터 노드는 하나의 Monitor가 실패하거나 사용할 수 없는 경우 클러스터의 나머지 모니터 노드에서 새 리더를 선택할 수 있도록 쿼럼이 존재합니다.

관리자 노드

각 Manager(MGR) 노드는 Ceph Manager 데몬(ceph-mgr)을 실행합니다. 이 데몬은 런타임 지표 및 스토리지 사용률, 현재 성능 지표, 시스템 로드를 포함하여 Ceph 클러스터의 현재 상태를 추적합니다. 일반적으로 Manager 노드는 모니터 노드와 함께 배치됩니다(즉, 동일한 호스트 시스템에서).

Object Storage 장치 노드

각 OSD(오브젝트 스토리지 장치) 노드는 Ceph OSD 데몬(ceph-osd)을 실행하여 노드에 연결된 논리 디스크와 상호 작용합니다. Ceph는 OSD 노드에 데이터를 저장합니다. Ceph는 매우 적은 수의 OSD 노드로 실행할 수 있지만(기본값은 3개) 프로덕션 클러스터는 모드 확장 시 성능이 향상됩니다(예: 스토리지 클러스터에 50개의 OSD 사용). 스토리지 클러스터에 여러 OSD가 있으면 시스템 관리자가 CRUSH 맵 내에서 격리된 장애 도메인을 정의할 수 있습니다.

메타데이터 서버 노드

각 메타데이터 서버(MDS) 노드는 MDS 데몬(ceph-mds)을 실행하여 Ceph 파일 시스템(CephFS)에 저장된 파일과 관련된 메타데이터를 관리합니다. MDS 데몬은 공유 클러스터에 대한 액세스도 조정합니다.

추가 리소스

Red Hat Ceph Storage에 대한 자세한 내용은 Red Hat Ceph Storage를 참조하십시오.

Red Hat logoGithubRedditYoutubeTwitter

자세한 정보

평가판, 구매 및 판매

커뮤니티

Red Hat 문서 정보

Red Hat을 사용하는 고객은 신뢰할 수 있는 콘텐츠가 포함된 제품과 서비스를 통해 혁신하고 목표를 달성할 수 있습니다.

보다 포괄적 수용을 위한 오픈 소스 용어 교체

Red Hat은 코드, 문서, 웹 속성에서 문제가 있는 언어를 교체하기 위해 최선을 다하고 있습니다. 자세한 내용은 다음을 참조하세요.Red Hat 블로그.

Red Hat 소개

Red Hat은 기업이 핵심 데이터 센터에서 네트워크 에지에 이르기까지 플랫폼과 환경 전반에서 더 쉽게 작업할 수 있도록 강화된 솔루션을 제공합니다.

© 2024 Red Hat, Inc.