검색

2장. 배포 예: Compute 및 Ceph가 있는 고가용성 클러스터

download PDF

다음 예제 시나리오에서는 OpenStack Compute 서비스 및 Red Hat Ceph Storage를 사용하는 고가용성 배포에 필요한 아키텍처, 하드웨어 및 네트워크 사양과 언더클라우드 및 오버클라우드 구성 파일을 보여줍니다.

중요

이 배포는 테스트 환경에 대한 참조로 사용하기 위한 것이며 프로덕션 환경에서 지원되지 않습니다.

그림 2.1. 고가용성 배포 아키텍처 예

컴퓨터 네트워크 osp7 ha 4

Red Hat Ceph Storage 클러스터 배포에 대한 자세한 내용은 Deploying an Overcloud with Containerized Red Hat Ceph 를 참조하십시오.

director를 사용하여 Red Hat OpenStack Platform을 배포하는 방법에 대한 자세한 내용은 Director Installation and Usage 를 참조하십시오.

2.1. 하드웨어 사양

다음 표는 예제 배포에 사용된 하드웨어를 보여줍니다. 자체 테스트 배포에서 필요에 따라 CPU, 메모리, 스토리지 또는 NIC를 조정할 수 있습니다.

표 2.1. 물리적 컴퓨터
컴퓨터 수목적CPU메모리디스크 공간전원 관리nics

1

언더클라우드 노드

4

6144 MB

40GB

IPMI

2 (1 외부; 프로비저닝 시 1개 + 1 IPMI)

3

컨트롤러 노드

4

6144 MB

40GB

IPMI

3 (2개 오버클라우드에서 결합됨, 프로비저닝 시 1개) + 1 IPMI

3

Ceph Storage 노드

4

6144 MB

40GB

IPMI

3 (2개 오버클라우드에서 결합됨, 프로비저닝 시 1개) + 1 IPMI

2

컴퓨팅 노드(필요한 추가)

4

6144 MB

40GB

IPMI

3 (2개 오버클라우드에서 결합됨, 프로비저닝 시 1개) + 1 IPMI

하드웨어 할당을 계획할 때 다음 지침을 검토하십시오.

컨트롤러 노드
대부분의 비스토리지 서비스는 컨트롤러 노드에서 실행됩니다. 모든 서비스는 세 개의 노드에 복제되며 활성-활성 또는 활성-수동 서비스로 구성됩니다. HA 환경에는 최소 3개의 노드가 필요합니다.
Red Hat Ceph Storage 노드
스토리지 서비스는 이러한 노드에서 실행되며 Red Hat Ceph Storage 영역 풀을 컴퓨팅 노드에 제공합니다. 최소 3개의 노드가 필요합니다.
컴퓨팅 노드
VM(가상 머신) 인스턴스는 컴퓨팅 노드에서 실행됩니다. 용량 요구 사항과 마이그레이션 및 재부팅 작업을 충족하기 위해 필요한 만큼 컴퓨팅 노드를 배포할 수 있습니다. VM이 스토리지 노드, 다른 컴퓨팅 노드의 VM 및 공용 네트워크에 액세스할 수 있도록 컴퓨팅 노드를 스토리지 네트워크 및 테넌트 네트워크에 연결해야 합니다.
STONITH
고가용성 오버클라우드에서 Pacemaker 클러스터의 일부인 각 노드에 대해 STONITH 장치를 설정해야 합니다. STONITH를 사용하지 않는 고가용성 오버클라우드 배포는 지원되지 않습니다. STONITH 및 Pacemaker에 관한 자세한 내용은 Fencing in a Red Hat High Availability ClusterSupport Policies for RHEL High Availability Clusters를 참조하십시오.
Red Hat logoGithubRedditYoutubeTwitter

자세한 정보

평가판, 구매 및 판매

커뮤니티

Red Hat 문서 정보

Red Hat을 사용하는 고객은 신뢰할 수 있는 콘텐츠가 포함된 제품과 서비스를 통해 혁신하고 목표를 달성할 수 있습니다.

보다 포괄적 수용을 위한 오픈 소스 용어 교체

Red Hat은 코드, 문서, 웹 속성에서 문제가 있는 언어를 교체하기 위해 최선을 다하고 있습니다. 자세한 내용은 다음을 참조하세요.Red Hat 블로그.

Red Hat 소개

Red Hat은 기업이 핵심 데이터 센터에서 네트워크 에지에 이르기까지 플랫폼과 환경 전반에서 더 쉽게 작업할 수 있도록 강화된 솔루션을 제공합니다.

© 2024 Red Hat, Inc.