10.3. Cluster Monitoring Operator의 용량 플래닝
다양한 스케일링 크기에 대해 다양한 테스트가 수행되었습니다. 아래 표에 반영된 Prometheus 데이터베이스 증가.
아래 Prometheus 스토리지 요구 사항은 규정되어 있지 않습니다. 워크로드 활동 및 리소스 사용량에 따라 클러스터에서 리소스 사용량이 높아질 수 있습니다.
노드 수 | Pod 수 | Prometheus 스토리지 증가(1일당) | Prometheus 스토리지 증가(15일당) | RAM 공간(스케일링 크기당) | 네트워크(tsdb 청크당) |
---|---|---|---|---|---|
50 | 1800 | 6.3GB | 94GB | 6GB | 16MB |
100 | 3600 | 13GB | 195GB | 10GB | 26MB |
150 | 5400 | 19GB | 283GB | 12GB | 36MB |
200 | 7200 | 25GB | 375GB | 14GB | 46MB |
위의 계산에서 스토리지 요구 사항이 계산된 값을 초과하지 않도록 예상 크기의 약 20%가 오버헤드로 추가되었습니다.
위의 계산은 기본 OpenShift Container Platform cluster-monitoring-operator 를 위해 개발되었습니다. 더 높은 규모의 경우 Ansible 인벤토리 파일에서 openshift_cluster_monitoring_operator_prometheus_storage_capacity
변수를 편집합니다. 기본값은 50Gi
입니다.
CPU 사용률은 약간의 영향을 미칩니다. 50개 노드 및 1,800개 Pod당 비율이 약 40개 중 1개 코어입니다.
10.3.1. 랩 환경
모든 실험은 OpenStack 환경의 OpenShift Container Platform에서 수행되었습니다.
- 인프라 노드(VM) - 40개 코어, 157GB RAM
- CNS 노드(VM) - 16개 코어, 62GB RAM, NVMe 드라이브