12.3. 성능 고려 사항


일반적으로 Ceph OSD 노드를 추가하거나 제거할 때 스토리지 클러스터의 성능에 영향을 미치는 요인은 다음과 같습니다.

  • Ceph 클라이언트는 I/O 인터페이스에 로드를 Ceph에 배치합니다. 즉, 클라이언트가 풀에 로드를 배치합니다. 풀은 ruleset에 매핑됩니다. 기본 DestinationRule 계층을 사용하면 Ceph에서 장애 도메인에 데이터를 배치할 수 있습니다. 기본 Ceph OSD 노드에 클라이언트 부하가 높은 풀이 필요한 경우 클라이언트 로드가 복구 시간에 크게 영향을 미치고 성능을 줄일 수 있습니다. 쓰기 작업에는 데이터 복제가 필요하므로 특히 쓰기 집약적인 클라이언트 로드는 스토리지 클러스터가 복구할 시간을 늘릴 수 있습니다.
  • 일반적으로 추가하거나 제거하는 용량은 스토리지 클러스터의 복구 시간에 영향을 미칩니다. 또한 추가하거나 제거하는 노드의 스토리지 밀도도 복구 시간에 영향을 줄 수 있습니다. 예를 들어 OSD가 36개인 노드는 일반적으로 OSD가 12개인 노드보다 복구하는 데 시간이 오래 걸립니다.
  • 노드를 제거할 때 충분한 예비 용량이 있는지 확인하여 전체 비율 또는 거의 전체 비율에 도달하지 않도록 합니다. 스토리지 클러스터가 가득 차 있는 비율에 도달하면 데이터 손실을 방지하기 위해 Ceph에서 쓰기 작업을 일시 중지합니다.
  • Ceph OSD 노드는 하나 이상의 CephECDHE 계층 구조에 매핑되며, 계층 구조는 하나 이상의 풀에 매핑됩니다. FlexVolume 규칙 세트를 사용하는 각 풀은 Ceph OSD 노드를 추가하거나 제거할 때 성능에 영향을 미칩니다.
  • 복제 풀은 더 많은 네트워크 대역폭을 사용하여 데이터 복사본을 복제하는 경향이 있지만, 기간 초과된 풀은 k+m 코딩 청크를 계산하기 위해 더 많은 CPU를 사용하는 경향이 있습니다. 데이터가 더 많이 복사될수록 스토리지 클러스터를 복구하는 데 시간이 더 오래 걸립니다. 예를 들어, 동일한 데이터의 복사본 수가 적은 복제 풀보다 많은 k+m 청크가 있는 풀이 더 오래 걸립니다.
  • 드라이브, 컨트롤러 및 네트워크 인터페이스 카드에는 모두 복구 시간에 영향을 줄 수 있는 처리량 기능이 있습니다. 일반적으로 10Gbps 및 SSD와 같이 처리량이 높은 노드가 1Gbps 및 SATA 드라이브와 같이 처리량이 낮은 노드보다 더 빠르게 복구됩니다.
Red Hat logoGithubRedditYoutubeTwitter

자세한 정보

평가판, 구매 및 판매

커뮤니티

Red Hat 문서 정보

Red Hat을 사용하는 고객은 신뢰할 수 있는 콘텐츠가 포함된 제품과 서비스를 통해 혁신하고 목표를 달성할 수 있습니다.

보다 포괄적 수용을 위한 오픈 소스 용어 교체

Red Hat은 코드, 문서, 웹 속성에서 문제가 있는 언어를 교체하기 위해 최선을 다하고 있습니다. 자세한 내용은 다음을 참조하세요.Red Hat 블로그.

Red Hat 소개

Red Hat은 기업이 핵심 데이터 센터에서 네트워크 에지에 이르기까지 플랫폼과 환경 전반에서 더 쉽게 작업할 수 있도록 강화된 솔루션을 제공합니다.

© 2024 Red Hat, Inc.