1.5. Ceph Storage
OpenStack을 사용하는 대규모 조직에서는 일반적으로 수많은 클라이언트를 지원합니다. 각 OpenStack 클라이언트에는 블록 스토리지 리소스 사용에 대한 자체 요구 사항이 있습니다. glance(images), cinder(volumes) 및/또는 nova(Compute)를 단일 노드에 배포할 경우 수많은 클라이언트를 포함하는 대규모 배포에서 관리가 불가능해질 수 있습니다. OpenStack을 확장하면 이 문제가 해결됩니다.
하지만 실질적으로는 Red Hat OpenStack Platform 스토리지 계층을 수십 테라바이트에서 펩타바이트(또는 엑사바이트) 스토리지로 확장할 수 있도록 Red Hat Ceph Storage와 같은 솔루션을 사용하여 스토리지 계층을 가상화해야 하는 요구 사항도 존재합니다. Red Hat Ceph Storage는 상용 하드웨어에서 실행되는 동안 이 스토리지 가상화 계층에 고가용성 및 고성능을 제공합니다. 가상화로 인해 성능이 저하되는 것처럼 보일 수도 있지만, Ceph 스트라이프는 클러스터에서 오브젝트인 장치 이미지를 차단하므로 큰 Ceph 블록 장치 이미지가 독립 실행형 디스크보다 성능이 뛰어납니다. 또한 Ceph 블록 장치는 성능 향상을 위해 캐싱, copy-on-write 복제 및 copy-on-read 복제를 지원합니다.
Red Hat Ceph Storage에 대한 자세한 내용은 Red Hat Ceph Storage를 참조하십시오.
멀티 아키텍처 클라우드의 경우 Red Hat에서 사전 설치 또는 외부 Ceph 구현만 지원합니다. 자세한 내용은 Integrating an Overcloud with an Existing Red Hat Ceph Cluster 및 부록 B. Red Hat OpenStack Platform for POWER를 참조하십시오.