15장. Ceph를 사용하여 다중 사이트 내결함성 메시징 시스템 구성
대규모 엔터프라이즈 메시징 시스템에는 일반적으로 지리적으로 분산된 데이터 센터에 있는 개별 브로커 클러스터가 있습니다. 데이터 센터 중단 시 시스템 관리자는 기존 메시징 데이터를 유지하고 클라이언트 애플리케이션이 계속 메시지를 생성 및 사용할 수 있도록 해야 할 수도 있습니다. 특정 브로커 토폴로지 및 소프트웨어 정의 스토리지 플랫폼인 Red Hat Ceph Storage를 사용하여 데이터 센터 중단 중에 메시징 시스템의 연속성을 보장할 수 있습니다. 이러한 유형의 솔루션을 다중 사이트 내결함성 아키텍처라고 합니다.
AMQP 프로토콜 지원만 필요한 경우 16장. 브로커 연결을 사용하여 다중 사이트 내결함성 메시징 시스템 구성 을 고려하십시오.
다음 섹션에서는 Red Hat Ceph Storage를 사용하여 데이터 센터 중단으로부터 메시징 시스템을 보호하는 방법에 대해 설명합니다.
다중 사이트 내결함성은 데이터 센터 내에서 HA(고가용성) 브로커 중복을 대체하지 않습니다. 실시간 백업 그룹을 기반으로 하는 브로커 중복은 단일 클러스터 내에서 단일 브로커 실패에 대한 자동 보호를 제공합니다. 반면 다중 사이트 내결함성은 대규모 데이터 센터 중단으로부터 보호합니다.
Red Hat Ceph Storage를 사용하여 메시징 시스템의 지속성을 보장하려면 공유 저장소 HA(고가용성) 정책을 사용하도록 브로커를 구성해야 합니다. 복제 HA 정책을 사용하도록 브로커를 구성할 수 없습니다. 이러한 정책에 대한 자세한 내용은 고가용성 구현을 참조하십시오.
15.1. Red Hat Ceph Storage 클러스터의 작동 방식
Red Hat Ceph Storage는 클러스터형 오브젝트 스토리지 시스템입니다. Red Hat Ceph Storage는 개체 및 정책 기반 복제의 데이터 분할을 사용하여 데이터 무결성 및 시스템 가용성을 보장합니다.
Red Hat Ceph Storage는 CRUSH(Controlled Replication Under scalable Hashing)라는 알고리즘을 사용하여 데이터 스토리지 위치를 자동으로 계산하여 데이터를 저장하고 검색하는 방법을 결정합니다. CRUSH 맵 이라는 Ceph 항목을 구성합니다. 이 항목은 클러스터의 정보를 자세히 설명하고 스토리지 클러스터에서 데이터가 복제되는 방식을 지정합니다.
CRUSH 맵에는 장치를 장애 도메인 계층 구조로 집계하기 위한 'buckets' 목록, CRUSH가 Ceph 클러스터의 풀에서 데이터를 복제할 수 있는 규칙 목록이 포함되어 있습니다.
설치의 기본 물리적 조직을 반영함으로써 CRUSH 맵은 모델링할 수 있으며 이를 통해 물리적 근접성, 공유 전원 소스 및 공유 네트워크와 같은 상관 관계가 있는 장치 오류의 잠재적인 소스를 처리할 수 있습니다. CRUSH는 이 정보를 클러스터 맵으로 인코딩하여 서로 다른 장애 도메인(예: 데이터 센터)에서 개체 복제본을 분리할 수 있으며 스토리지 클러스터에서 데이터의 의사 임의 배포를 유지 관리할 수 있습니다. 이를 통해 데이터 손실을 방지하고 클러스터가 성능이 저하된 상태에서 작동할 수 있습니다.
Red Hat Ceph Storage 클러스터에는 여러 노드(실제 또는 가상)가 필요합니다. 클러스터에는 다음 유형의 노드가 포함되어야 합니다.
노드 모니터링
각 모니터(MON) 노드는 모니터 데몬(ceph-mon
)을 실행하여 클러스터 맵의 마스터 사본을 유지 관리합니다. 클러스터 맵에는 클러스터 토폴로지가 포함됩니다. Ceph 클러스터에 연결하는 클라이언트는 모니터에서 클러스터 맵의 현재 사본을 검색하므로 클라이언트가 클러스터에서 데이터를 읽고 쓸 수 있습니다.
Red Hat Ceph Storage 클러스터는 모니터 노드 1개로 실행될 수 있지만 프로덕션 클러스터에서 고가용성을 보장하기 위해 Red Hat은 모니터 노드가 3개 이상 있는 배포만 지원합니다. 최소 3개의 모니터 노드는 하나의 모니터가 실패하거나 하나만 사용할 수 없는 경우 클러스터의 나머지 모니터 노드에 쿼럼이 존재하여 새 리더를 선택합니다.
Manager 노드
각 Manager(MGR) 노드는 Ceph Manager 데몬(ceph-mgr
)을 실행하여 스토리지 사용률, 현재 성능 지표 및 시스템 로드를 포함하여 런타임 지표 및 Ceph 클러스터의 현재 상태를 추적합니다. 일반적으로 Manager 노드는 모니터 노드와 함께 동일한 호스트 시스템에 배치(즉, 동일한 호스트 시스템에) 배치됩니다.
Object Storage 장치 노드
각 OSD(오브젝트 스토리지 장치) 노드는 노드에 연결된 논리 디스크와 상호 작용하는 Ceph OSD 데몬(ceph-osd
)을 실행합니다. Ceph는 OSD 노드에 데이터를 저장합니다. Ceph는 매우 적은 수의 OSD 노드(기본값은 3개임)로 실행할 수 있지만, 스토리지 클러스터에서는 스토리지 클러스터에서 OSD가 50개인 모드 확장 시 성능이 향상됩니다. 스토리지 클러스터에 여러 개의 OSD가 있으면 시스템 관리자가 CRUSH 맵 내에서 격리된 장애 도메인을 정의할 수 있습니다.
메타데이터 서버 노드
각 메타데이터 서버(MDS) 노드는 MDS 데몬(ceph-mds
)을 실행하여 Ceph 파일 시스템(CephFS)에 저장된 파일과 관련된 메타데이터를 관리합니다. MDS 데몬은 공유 클러스터에 대한 액세스도 조정합니다.
추가 리소스
Red Hat Ceph Storage에 대한 자세한 내용은 Red Hat Ceph Storage란 무엇입니까?