5.5. 配置更高的虚拟机工作负载密度
您可以通过过量使用内存(RAM)来增加节点上的虚拟机(VM)的数量。在以下情况下,增加虚拟机工作负载密度非常有用:
- 您有许多类似的工作负载。
- 您有没有被充分利用的工作负载。
内存过量使用可能会在高度使用的系统中降低工作负载性能。
5.5.1. 使用 wasp-agent 来提高虚拟机工作负载密度
wasp-agent
组件通过将交换资源分配给 worker 节点来实现内存过量使用。它还管理节点因高交换 I/O 流量或高利用率而面临风险时进行 pod 驱除。
交换资源只能分配给 Burstable
服务质量 (QoS) 类的虚拟机工作负载 (VM pod)。属于虚拟机的 Guaranteed
QoS 类和任何 QoS 类的 pod 不能交换资源。
有关 QoS 类的描述,请参阅为 Pod 配置服务质量 (Kubernetes 文档)。
先决条件
-
已安装 OpenShift CLI(
oc
)。 -
使用
cluster-admin
角色登录到集群。 - 定义内存过量使用比率。
- 节点属于 worker 池。
wasp-agent
组件部署开放容器项目 (OCI) hook,以启用节点级别上容器的交换使用情况。低级性质要求 DaemonSet
对象具有特权。
流程
将
kubelet
服务配置为允许交换使用:使用以下示例中显示的参数创建或编辑
KubeletConfig
文件:KubeletConfig
文件示例apiVersion: machineconfiguration.openshift.io/v1 kind: KubeletConfig metadata: name: custom-config spec: machineConfigPoolSelector: matchLabels: pools.operator.machineconfiguration.openshift.io/worker: '' # MCP #machine.openshift.io/cluster-api-machine-role: worker # machine #node-role.kubernetes.io/worker: '' # node kubeletConfig: failSwapOn: false
运行以下命令,等待 worker 节点与新配置同步:
$ oc wait mcp worker --for condition=Updated=True --timeout=-1s
通过创建
MachineConfig
对象来置备 swap。例如:apiVersion: machineconfiguration.openshift.io/v1 kind: MachineConfig metadata: labels: machineconfiguration.openshift.io/role: worker name: 90-worker-swap spec: config: ignition: version: 3.4.0 systemd: units: - contents: | [Unit] Description=Provision and enable swap ConditionFirstBoot=no [Service] Type=oneshot Environment=SWAP_SIZE_MB=5000 ExecStart=/bin/sh -c "sudo dd if=/dev/zero of=/var/tmp/swapfile count=${SWAP_SIZE_MB} bs=1M && \ sudo chmod 600 /var/tmp/swapfile && \ sudo mkswap /var/tmp/swapfile && \ sudo swapon /var/tmp/swapfile && \ free -h && \ sudo systemctl set-property --runtime system.slice MemorySwapMax=0 IODeviceLatencyTargetSec=\"/ 50ms\"" [Install] RequiredBy=kubelet-dependencies.target enabled: true name: swap-provision.service
为了在出现最糟糕的情况时有足够的交换空间,请确保置备的交换空间的数量最少与过量使用 RAM 相同。使用以下公式计算节点上置备的 swap 空间量:
NODE_SWAP_SPACE = NODE_RAM * (MEMORY_OVER_COMMIT_PERCENT / 100% - 1)
Example
NODE_SWAP_SPACE = 16 GB * (150% / 100% - 1) = 16 GB * (1.5 - 1) = 16 GB * (0.5) = 8 GB
运行以下命令来创建特权服务帐户:
$ oc adm new-project wasp
$ oc create sa -n wasp wasp
$ oc create clusterrolebinding wasp --clusterrole=cluster-admin --serviceaccount=wasp:wasp
$ oc adm policy add-scc-to-user -n wasp privileged -z wasp
运行以下命令,等待 worker 节点与新配置同步:
$ oc wait mcp worker --for condition=Updated=True --timeout=-1s
运行以下命令,确定 wasp 代理镜像的 pull URL:
$ oc get csv -n openshift-cnv -l=operators.coreos.com/kubevirt-hyperconverged.openshift-cnv -ojson | jq '.items[0].spec.relatedImages[] | select(.name|test(".*wasp-agent.*")) | .image'
通过创建一个
DaemonSet
对象来部署wasp-agent
,如下例所示:kind: DaemonSet apiVersion: apps/v1 metadata: name: wasp-agent namespace: wasp labels: app: wasp tier: node spec: selector: matchLabels: name: wasp template: metadata: annotations: description: >- Configures swap for workloads labels: name: wasp spec: containers: - env: - name: SWAP_UTILIZATION_THRESHOLD_FACTOR value: "0.8" - name: MAX_AVERAGE_SWAP_IN_PAGES_PER_SECOND value: "1000" - name: MAX_AVERAGE_SWAP_OUT_PAGES_PER_SECOND value: "1000" - name: AVERAGE_WINDOW_SIZE_SECONDS value: "30" - name: VERBOSITY value: "1" - name: FSROOT value: /host - name: NODE_NAME valueFrom: fieldRef: fieldPath: spec.nodeName image: >- quay.io/openshift-virtualization/wasp-agent:v4.17 1 imagePullPolicy: Always name: wasp-agent resources: requests: cpu: 100m memory: 50M securityContext: privileged: true volumeMounts: - mountPath: /host name: host - mountPath: /rootfs name: rootfs hostPID: true hostUsers: true priorityClassName: system-node-critical serviceAccountName: wasp terminationGracePeriodSeconds: 5 volumes: - hostPath: path: / name: host - hostPath: path: / name: rootfs updateStrategy: type: RollingUpdate rollingUpdate: maxUnavailable: 10% maxSurge: 0
- 1
- 将
image
值替换为上一步中的镜像 URL
通过创建
PrometheusRule
对象来部署警报规则。例如:apiVersion: monitoring.coreos.com/v1 kind: PrometheusRule metadata: labels: tier: node wasp.io: "" name: wasp-rules namespace: wasp spec: groups: - name: alerts.rules rules: - alert: NodeHighSwapActivity annotations: description: High swap activity detected at {{ $labels.instance }}. The rate of swap out and swap in exceeds 200 in both operations in the last minute. This could indicate memory pressure and may affect system performance. runbook_url: https://github.com/openshift-virtualization/wasp-agent/tree/main/docs/runbooks/NodeHighSwapActivity.md summary: High swap activity detected at {{ $labels.instance }}. expr: rate(node_vmstat_pswpout[1m]) > 200 and rate(node_vmstat_pswpin[1m]) > 200 for: 1m labels: kubernetes_operator_component: kubevirt kubernetes_operator_part_of: kubevirt operator_health_impact: warning severity: warning
运行以下命令,将
cluster-monitoring
标签添加到wasp
命名空间中:$ oc label namespace wasp openshift.io/cluster-monitoring="true"
使用 Web 控制台或 CLI 在 OpenShift Virtualization 中启用内存过量使用。
Web 控制台
-
在 OpenShift Container Platform web 控制台中,进入 Virtualization
Overview Settings General settings Memory density。 - 将 Enable memory density 设置为 on。
-
在 OpenShift Container Platform web 控制台中,进入 Virtualization
CLI
配置 OpenShift Virtualization 以启用更高的内存密度并设置过量使用率:
$ oc -n openshift-cnv patch HyperConverged/kubevirt-hyperconverged --type='json' -p='[ \ { \ "op": "replace", \ "path": "/spec/higherWorkloadDensity/memoryOvercommitPercentage", \ "value": 150 \ } \ ]'
成功输出
hyperconverged.hco.kubevirt.io/kubevirt-hyperconverged patched
验证
要验证
wasp-agent
的部署,请运行以下命令:$ oc rollout status ds wasp-agent -n wasp
如果部署成功,则会显示以下信息:
输出示例
daemon set "wasp-agent" successfully rolled out
要验证是否正确置备了 swap,请完成以下步骤:
运行以下命令,查看 worker 节点列表:
$ oc get nodes -l node-role.kubernetes.io/worker
运行以下命令,从列表中选择节点并显示其内存用量:
$ oc debug node/<selected_node> -- free -m 1
- 1
- 将
<selected_node>
替换为节点名称。
如果置备了交换,则
Swap:
行会显示大于零的数量。表 5.1. 输出示例 total
使用的
free
shared
buff/cache
可用
Mem:
31846
23155
1044
6014
14483
8690
Swap:
8191
2337
5854
运行以下命令验证 OpenShift Virtualization 内存过量使用配置:
$ oc -n openshift-cnv get HyperConverged/kubevirt-hyperconverged -o jsonpath='{.spec.higherWorkloadDensity}{"\n"}'
输出示例
{"memoryOvercommitPercentage":150}
返回的值必须与之前配置的值匹配。
5.5.2. wasp-agent 使用的 Pod 驱除条件
当系统大量加载且节点面临风险时,wasp 代理会管理 pod 驱除。如果满足以下条件之一,则会触发驱除:
- 高交换 I/O 流量
当与交换相关的 I/O 流量过高时,会满足此条件。
状况
averageSwapInPerSecond > maxAverageSwapInPagesPerSecond && averageSwapOutPerSecond > maxAverageSwapOutPagesPerSecond
默认情况下,
maxAverageSwapInPagesPerSecond
和maxAverageSwapOutPagesPerSecond
设置为 1000 页。计算平均的默认时间间隔是 30 秒。- 高 swap 使用率
当交换利用率过高时满足此条件,导致当前虚拟内存用量超过因数的阈值。
MachineConfig
对象中的NODE_SWAP_SPACE
设置可能会影响这种情况。状况
nodeWorkingSet + nodeSwapUsage < totalNodeMemory + totalSwapMemory × thresholdFactor
5.5.2.1. 环境变量
您可以使用以下环境变量来调整用于计算驱除条件的值:
环境变量 | 功能 |
|
设置 |
|
设置 |
|
设置用于计算高 swap 使用率的 |
| 设置计算平均交换使用量的时间间隔。 |