1.3. 요구 사항 설정
이 안내서에는 Director 설치 및 사용 가이드에 대한 정보가 포함되어 있습니다.
Red Hat OpenStack Platform director를 사용하여 Ceph Storage 노드를 생성하는 경우 다음 노드에 대한 요구 사항에 유의하십시오.
- 배치 그룹
- Ceph는 배치 그룹을 사용하여 대규모의 효율적인 동적 오브젝트 추적을 지원합니다. OSD 오류가 발생하거나 클러스터를 재조정하는 경우 Ceph에서 배치 그룹 및 해당 컨텐츠를 이동하거나 복제할 수 있으므로, Ceph 클러스터의 효율적인 재조정 및 복구가 가능합니다. Director가 생성하는 기본 배치 그룹 수가 항상 최적의 개수는 아니므로 요구 사항에 따라 올바른 배치 그룹 수를 계산하는 것이 중요합니다. 배치 그룹 계산기를 사용하여 올바른 개수를 계산할 수 있습니다 . 풀당 PG(배치 그룹) 계산기
- 프로세서
- Intel 64 또는 AMD64 CPU 확장을 지원하는 64비트 x86 프로세서입니다.
- 메모리
- 일반적으로 OSD 호스트당 16GB의 RAM과 OSD 데몬당 추가 2GB의 RAM으로 기준선을 정하는 것이 좋습니다.
- 디스크 레이아웃
크기 조정은 스토리지 요구 사항에 따라 다릅니다. 권장되는 Red Hat Ceph Storage 노드 구성에는 다음과 유사한 레이아웃에 3개 이상의 디스크가 필요합니다.
-
/dev/sda
- root 디스크입니다. director가 주요 Overcloud 이미지를 디스크에 복사합니다. 최소 50GB의 사용 가능한 디스크 공간이어야 합니다. -
/dev/sdb
- 저널 디스크입니다. 이 디스크는 Ceph OSD 저널용 파티션으로 나뉩니다. 예를 들어/dev/sdb1
,/dev/sdb2
,/dev/sdb3
등입니다. 저널 디스크는 일반적으로 시스템 성능을 지원하기 위한 SSD(솔리드 스테이트 드라이브)입니다. /dev/sdc
이후 - OSD 디스크입니다. 스토리지 요구 사항에 따라 필요한 개수만큼 디스크를 사용합니다.참고Red Hat OpenStack Platform director는
ceph-ansible
을 사용하지만 Ceph Storage 노드의 root 디스크에 OSD 설치를 지원하지 않습니다. 즉, 지원되는 Ceph Storage 노드에 대해 두 개 이상의 디스크가 필요합니다.
-
- 네트워크 인터페이스 카드
- 최소 1개의 1Gbps 네트워크 인터페이스 카드가 필요합니다. 프로덕션 환경에서는 적어도 두 개 이상의 NIC를 사용하는 것이 좋습니다. 본딩된 인터페이스나 태그된 VLAN 트래픽 위임에는 추가 네트워크 인터페이스 카드를 사용하십시오. 대량의 트래픽에 서비스를 제공하는 OpenStack Platform 환경을 구축하는 경우 특히 스토리지 노드에 10Gbps 인터페이스를 사용하는 것이 좋습니다.
- 전원 관리
- 각 컨트롤러 노드에는 서버의 마더보드에서 IPMI(Intelligent Platform Management Interface) 기능과 같은 지원되는 전원 관리 인터페이스가 필요합니다.
- 이미지 속성
-
Red Hat Ceph Storage 블록 장치 성능을 개선하기 위해
virtio-scsi
드라이버를 사용하도록 Glance 이미지를 구성할 수 있습니다. 이미지의 권장 이미지 속성에 대한 자세한 내용은 Red Hat Ceph Storage 설명서의 Glance 연결을 참조하십시오.
이 가이드에는 다음이 필요합니다.
- Red Hat OpenStack Platform director가 설치된 Undercloud 호스트. Director 설치 및 사용 가이드의 언더클라우드 설치를 참조하십시오.
- Red Hat Ceph Storage에 대한 추가 하드웨어 권장 사항. Red Hat Ceph Storage Hardware selection 가이드를 참조하십시오.
Ceph Monitor 서비스가 오버클라우드 컨트롤러 노드에 설치됩니다. 즉, 성능 문제를 완화하기 위해 적절한 리소스를 제공해야 합니다. 환경의 컨트롤러 노드가 Ceph 모니터 데이터를 위해 메모리 및 SSD(Solid-State Drive) 스토리지에 16GB 이상의 RAM을 사용하는지 확인합니다. 중간 규모의 Ceph 설치에서는 최소 500GB의 Ceph 모니터 데이터를 제공합니다. 클러스터가 불안정할 경우 levelDB 증가를 피하기 위해 이 공간이 필요합니다.