15장. Ceph를 사용하여 다중 사이트 내결함성 메시징 시스템 구성
대규모 엔터프라이즈 메시징 시스템에는 일반적으로 지리적으로 분산된 데이터 센터에 별도의 브로커 클러스터가 있습니다. 데이터 센터 중단이 발생하는 경우 시스템 관리자는 기존 메시징 데이터를 보존하고 클라이언트 애플리케이션이 메시지를 계속 생성하고 사용할 수 있는지 확인해야 할 수 있습니다. 특정 브로커 토폴로지 및 소프트웨어 정의 스토리지 플랫폼인 Red Hat Ceph Storage를 사용하여 데이터 센터 중단 시 메시징 시스템의 연속성을 보장할 수 있습니다. 이러한 유형의 솔루션을 내결함성의 다중 아키텍처 라고 합니다.
AMQP 프로토콜 지원만 필요한 경우 16장. 브로커 연결을 사용하여 다중 사이트 내결함성 메시징 시스템 구성 을 고려하십시오.
다음 섹션에서는 Red Hat Ceph Storage를 사용하여 데이터 센터 중단으로부터 메시징 시스템을 보호하는 방법을 설명합니다.
다중 사이트 내결함성은 데이터 센터 내에서 HA(고가용성) 브로커 중복을 대체하지 않습니다. 실시간 백업 그룹을 기반으로 하는 브로커 중복은 단일 클러스터 내의 단일 브로커 장애에 대한 자동 보호 기능을 제공합니다. 반면 다중 사이트 내결함성은 대규모 데이터 센터 중단으로부터 보호합니다.
Red Hat Ceph Storage를 사용하여 메시징 시스템의 연속성을 보장하려면 공유 저장소 HA(고가용성) 정책을 사용하도록 브로커를 구성해야 합니다. 복제 HA 정책을 사용하도록 브로커를 구성할 수 없습니다. 이러한 정책에 대한 자세한 내용은 고가용성을 참조하십시오.
15.1. Red Hat Ceph Storage 클러스터 작동 방식
Red Hat Ceph Storage는 클러스터된 오브젝트 스토리지 시스템입니다. Red Hat Ceph Storage는 개체 및 정책 기반 복제의 데이터 분할을 사용하여 데이터 무결성 및 시스템 가용성을 보장합니다.
Red Hat Ceph Storage는 CloudEvent(Controlled Replication Under Scalable Hashing)라는 알고리즘을 사용하여 데이터 스토리지 위치를 자동으로 컴퓨팅하여 데이터를 저장하고 검색하는 방법을 결정합니다. 클러스터 토폴로지를 자세히 설명하고 스토리지 클러스터 전체에서 데이터를 복제하는 방법을 지정하는 CloudEvent 맵 이라는 Ceph 항목을 구성합니다.
CloudEvent 맵에는 장치를 장애 도메인 계층 구조로 집계하기 위한 'buckets' 목록, Ceph 클러스터 풀에서 데이터를 복제해야 하는 규칙을 설명하는 OSD(Object Storage Devices) 목록이 포함되어 있습니다.
설치의 기본 물리적 조직을 반영하여 CloudEvent 맵을 모델링할 수 있으므로 물리적 근접성, 공유 전원 소스 및 공유 네트워크와 같은 관련 장치 실패의 잠재적 소스도 해결할 수 있습니다. 이 정보를 클러스터 맵으로 인코딩하면 CloudEvent는 다른 장애 도메인(예: 데이터 센터)에서 오브젝트 복제본을 분리하여 스토리지 클러스터 전체에서 데이터의 의사 무작위 배포를 유지 관리할 수 있습니다. 이를 통해 데이터 손실을 방지하고 클러스터의 성능이 저하된 상태로 작동할 수 있습니다.
Red Hat Ceph Storage 클러스터에 작동하려면 다수의 노드(실제 또는 가상)가 필요합니다. 클러스터에는 다음 유형의 노드가 포함되어야 합니다.
노드 모니터링
각 모니터(MON) 노드는 모니터 데몬(ceph-mon
)을 실행하여 클러스터 맵의 마스터 복사본을 유지합니다. 클러스터 맵에는 클러스터 토폴로지가 포함됩니다. Ceph 클러스터에 연결하는 클라이언트는 모니터에서 클러스터 맵의 현재 사본을 검색하므로 클라이언트가 데이터를 읽고 클러스터에 데이터를 쓸 수 있습니다.
Red Hat Ceph Storage 클러스터는 하나의 Monitor 노드에서 실행할 수 있지만 프로덕션 클러스터에서 고가용성을 보장하기 위해 Red Hat은 3개 이상의 Monitor 노드가 있는 배포만 지원합니다. 최소 3개의 모니터 노드가 실패하거나 하나의 모니터를 사용할 수 없는 경우 클러스터의 나머지 모니터 노드에 새 리더를 선택하는 데 쿼럼이 존재합니다.
Manager 노드
각 Manager(MGR) 노드는 Ceph Manager 데몬(ceph-mgr
)을 실행합니다. 이 데몬은 스토리지 사용률, 현재 성능 지표, 시스템 로드를 포함하여 런타임 지표 및 Ceph 클러스터의 현재 상태를 추적합니다. 일반적으로 Manager 노드는 Monitor 노드와 함께 배치됩니다(즉, 동일한 호스트 시스템에 있음).
Object Storage 장치 노드
각 OSD(Object Storage Device) 노드는 노드에 연결된 논리 디스크와 상호 작용하는 Ceph OSD 데몬(ceph-osd
)을 실행합니다. Ceph는 OSD 노드에 데이터를 저장합니다. Ceph는 매우 적은 수의 OSD 노드(기본값: 3개)로 실행할 수 있지만 프로덕션 클러스터는 스토리지 클러스터에서 50개의 OSD를 사용하는 모드로 확장 가능한 성능을 실현합니다. 스토리지 클러스터에 여러 개의 OSD가 있으면 시스템 관리자가 CloudEvent 맵 내에서 격리된 장애 도메인을 정의할 수 있습니다.
metadata Server 노드
각 메타데이터 서버(MDS) 노드는 MDS 데몬(ceph-mds
)을 실행하여 Ceph 파일 시스템(CephFS)에 저장된 파일과 관련된 메타데이터를 관리합니다. MDS 데몬은 공유 클러스터에 대한 액세스도 조정합니다.
추가 리소스
Red Hat Ceph Storage에 대한 자세한 내용은 What is Red Hat Ceph Storage?