10.3. Cluster Monitoring Operator 的容量规划
对不同的扩展大小执行各种测试。Prometheus 数据库会增加,如下表中所示。
以下 Prometheus 存储要求并不具有规定性。取决于工作负载活动和资源使用情况,集群中可能会观察到更高资源消耗。
节点数量 | Pod 数 | 每天增加的 Prometheus 存储 | 每 15 天增加的 Prometheus 存储 | RAM 空间(每个缩放大小) | 网络(每个 tsdb 块) |
---|---|---|---|---|---|
50 | 1800 | 6.3 GB | 94 GB | 6 GB | 16 MB |
100 | 3600 | 13 GB | 195 GB | 10 GB | 26 MB |
150 | 5400 | 19 GB | 283 GB | 12 GB | 36 MB |
200 | 7200 | 25 GB | 375 GB | 14 GB | 46 MB |
在上个计算中,预计大小大约有 20% 增加了开销,以确保存储要求不会超过计算的值。
以上计算是为默认的 OpenShift Container Platform cluster-monitoring-operator 开发的。为实现更高的扩展,编辑 Ansible 清单文件中的 openshift_cluster_monitoring_operator_prometheus_storage_capacity
变量,默认值为 50Gi
。
CPU 利用率会有轻微影响。这个比例为在每 50 个节点和 1800 个 pod 的 40 个内核中大约有 1 个。
10.3.1. 实验室环境
所有实验都是在 OpenStack 环境中的 OpenShift Container Platform 中进行的:
- infra nodes (VM) - 40 个内核,157 GB RAM。
- CNS 节点 (VM) - 16 个内核、62GB RAM 、nvme 驱动。