3.4. 使用 OpenShift Cluster Manager 的集群自动扩展设置


表解释了在使用带有 OpenShift Cluster Manager 的集群自动扩展时,所有可配置的 UI 设置。

3.4.1. 常规设置

表 3.1. 使用 OpenShift Cluster Manager 时为集群自动扩展配置常规设置
设置描述类型或范围Default(默认)

log-verbosity

设置自动扩展日志级别。默认值为 1。建议使用 4 级进行调试。级别 6 可实现几乎所有的一切。

整数

1

skip-nodes-with-local-storage

如果为 true,集群自动扩展永远不会删除带有本地存储的 pod 的节点,如 EmptyDir 或 HostPath。

布尔值

true

max-pod-grace-period

为 pod 提供安全终止时间(以秒为单位)。

整数

600

max-node-provision-time

集群自动扩展等待置备节点的最长时间。

字符串

15m

pod-priority-threshold

允许用户调度 "best-effort" pod,这些 pod 不应该触发集群自动扩展操作。这些 pod 仅在备用资源可用时运行。

整数

-10

ignore-daemonsets-utilization

决定集群自动扩展在计算资源利用率时是否忽略守护进程集 pod。

布尔值

false

balance-similar-node-groups

如果为 true,则此设置会自动识别具有相同实例类型和同一组标签的节点组,并尝试保持这些节点组的相应大小平衡。

布尔值

false

balancing-ignored-labels

这个选项指定集群自动扩展在考虑节点组相似时应该忽略的标签。这个选项不能包含空格。

数组(字符串)

格式应该是以逗号分隔的标签列表。

3.4.2. 资源限值

表 3.2. 使用 OpenShift Cluster Manager 时,为集群自动扩展配置资源限制设置
设置描述类型或范围Default(默认)

cores-total-min

集群中的最低内核数。集群自动扩展不会扩展集群小于这个数字。

object

0

cores-total-max

集群中内核的最大数量。集群自动扩展不会扩展集群大于这个数字。

object

180 * 64 (11520)

memory-total-min

集群中最少的 GB 内存数。集群自动扩展不会扩展集群小于这个数字。

object

0

memory-total-max

集群中内存的最大数量。集群自动扩展不会扩展集群大于这个数字。

object

180 * 64 * 20 (230400)

max-nodes-total

所有节点组中的节点数。包括所有节点,而不只是自动扩展节点。集群自动扩展不会增加大于这个数字的集群。

整数

180

GPU

集群中不同 GPU 的最小和最大数量。集群自动扩展不会缩放集群小于这些数字。

数组

格式应是一个用逗号分开的 "{p>:<min>:<max>"。

3.4.3. 缩减配置

表 3.3. 使用 OpenShift Cluster Manager 时配置集群自动扩展设置
设置描述类型或范围Default(默认)

scale-down-enabled

集群自动扩展是否应该缩减集群。

布尔值

true

scale-down-utilization-threshold

节点使用率级别被定义为请求的资源的总和(根据容量划分),可考虑节点缩减。

浮点值

0.5

scale-down-unneeded-time

在节点有资格缩减前,应该不需要多久。

字符串

10m

scale-down-delay-after-add

扩展后扩展该缩减评估的时长。

字符串

10m

scale-down-delay-after-delete

删除节点后扩展评估的时长。

字符串

0s

scale-down-delay-after-failure

缩减缩减故障后的时长,用于缩减评估恢复。

字符串

3m

Red Hat logoGithubRedditYoutubeTwitter

学习

尝试、购买和销售

社区

关于红帽文档

通过我们的产品和服务,以及可以信赖的内容,帮助红帽用户创新并实现他们的目标。

让开源更具包容性

红帽致力于替换我们的代码、文档和 Web 属性中存在问题的语言。欲了解更多详情,请参阅红帽博客.

關於紅帽

我们提供强化的解决方案,使企业能够更轻松地跨平台和环境(从核心数据中心到网络边缘)工作。

© 2024 Red Hat, Inc.