6.4. 使用手动性能设置调度 NUMA 感知工作负载
运行对延迟敏感工作负载的集群通常具有性能配置集,以帮助最小化工作负载延迟并优化性能。但是,您可以在不功能性能配置集的 pristine 集群中调度 NUMA 感知工作负载。以下工作流带有一个 pristine 集群,您可以使用 KubeletConfig
资源手动配置性能。这不是调度 NUMA 感知工作负载的典型环境。
6.4.1. 使用手动性能设置创建 NUMAResourcesOperator 自定义资源 复制链接链接已复制到粘贴板!
安装 NUMA Resources Operator 后,创建 NUMAResourcesOperator
自定义资源 (CR) 来指示 NUMA Resources Operator 安装支持 NUMA 感知调度程序所需的所有集群基础架构,包括守护进程集和 API。
先决条件
-
安装 OpenShift CLI(
oc
)。 -
以具有
cluster-admin
特权的用户身份登录。 - 安装 NUMA Resources Operator。
流程
可选:创建
MachineConfigPool
自定义资源,为 worker 节点启用自定义 kubelet 配置:注意默认情况下,OpenShift Container Platform 为集群中的 worker 节点创建一个
MachineConfigPool
资源。如果需要,您可以创建自定义MachineConfigPool
资源。将以下 YAML 保存到
nro-machineconfig.yaml
文件中:Copy to Clipboard Copied! Toggle word wrap Toggle overflow 运行以下命令来创建
MachineConfigPool
CR:oc create -f nro-machineconfig.yaml
$ oc create -f nro-machineconfig.yaml
Copy to Clipboard Copied! Toggle word wrap Toggle overflow
创建
NUMAResourcesOperator
自定义资源:将以下 YAML 保存到
nrop.yaml
文件中:Copy to Clipboard Copied! Toggle word wrap Toggle overflow - 1
- 应该与相关
MachineConfigPool
CR 中的 worker 节点匹配。
运行以下命令来创建
NUMAResourcesOperator
CR:oc create -f nrop.yaml
$ oc create -f nrop.yaml
Copy to Clipboard Copied! Toggle word wrap Toggle overflow
验证
运行以下命令,验证 NUMA Resources Operator 是否已成功部署:
oc get numaresourcesoperators.nodetopology.openshift.io
$ oc get numaresourcesoperators.nodetopology.openshift.io
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 输出示例
NAME AGE numaresourcesoperator 10m
NAME AGE numaresourcesoperator 10m
Copy to Clipboard Copied! Toggle word wrap Toggle overflow
6.4.2. 使用手动性能设置部署 NUMA 感知辅助 pod 调度程序 复制链接链接已复制到粘贴板!
安装 NUMA Resources Operator 后,执行以下操作来部署 NUMA 感知辅助 pod 调度程序:
- 为所需机器配置集配置 pod admittance 策略。
- 创建所需的机器配置池。
- 部署 NUMA 感知辅助调度程序。
先决条件
-
安装 OpenShift CLI(
oc
)。 -
以具有
cluster-admin
特权的用户身份登录。 - 安装 NUMA Resources Operator。
流程
创建
KubeletConfig
自定义资源,为机器配置集配置 pod admittance 策略:将以下 YAML 保存到
nro-kubeletconfig.yaml
文件中:Copy to Clipboard Copied! Toggle word wrap Toggle overflow 运行以下命令来创建
KubeletConfig
自定义资源 (CR):oc create -f nro-kubeletconfig.yaml
$ oc create -f nro-kubeletconfig.yaml
Copy to Clipboard Copied! Toggle word wrap Toggle overflow
创建
NUMAResourcesScheduler
自定义资源来部署 NUMA 感知自定义 pod 调度程序:将以下 YAML 保存到
nro-scheduler.yaml
文件中:Copy to Clipboard Copied! Toggle word wrap Toggle overflow - 1
- 为调度程序缓存同步输入间隔值(以秒为单位)。值
5s
通常用于大多数实现。
注意-
启用
cacheResyncPeriod
规格,以帮助 NUMA Resource Operator 通过监控节点上的待处理资源,并在调度程序缓存中同步此信息,以帮助 NUMA Resource Operator 报告更准确的资源可用性。这也有助于减少Topology Affinity Error
错误,因为未优化调度决策。网络负载越低的时间间隔。cacheResyncPeriod
规格默认禁用。 -
为
NUMAResourcesOperator
CR 中的podsFingerprinting
规格设置Enabled
值是cacheResyncPeriod
规格的实施要求。
运行以下命令来创建
NUMAResourcesScheduler
CR:oc create -f nro-scheduler.yaml
$ oc create -f nro-scheduler.yaml
Copy to Clipboard Copied! Toggle word wrap Toggle overflow
验证
运行以下命令验证所需资源是否已成功部署:
oc get all -n openshift-numaresources
$ oc get all -n openshift-numaresources
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 输出示例
Copy to Clipboard Copied! Toggle word wrap Toggle overflow
6.4.3. 使用手动性能设置使用 NUMA 感知调度程序调度工作负载 复制链接链接已复制到粘贴板!
您可以使用 Deployment
CR 将工作负载调度到 NUMA 感知调度程序,该 CR 指定处理工作负载的最低所需资源。
以下示例部署使用 NUMA 感知调度示例工作负载。
先决条件
-
安装 OpenShift CLI(
oc
)。 -
以具有
cluster-admin
特权的用户身份登录。 - 安装 NUMA Resources Operator 并部署 NUMA 感知辅助调度程序。
流程
运行以下命令,获取集群中部署的 NUMA 感知调度程序名称:
oc get numaresourcesschedulers.nodetopology.openshift.io numaresourcesscheduler -o json | jq '.status.schedulerName'
$ oc get numaresourcesschedulers.nodetopology.openshift.io numaresourcesscheduler -o json | jq '.status.schedulerName'
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 输出示例
topo-aware-scheduler
topo-aware-scheduler
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 创建一个
Deployment
CR,它使用名为topo-aware-scheduler
的调度程序,例如:将以下 YAML 保存到
nro-deployment.yaml
文件中:Copy to Clipboard Copied! Toggle word wrap Toggle overflow - 1
schedulerName
必须与集群中部署的 NUMA 感知调度程序的名称匹配,如topo-aware-scheduler
。
运行以下命令来创建
Deployment
CR:oc create -f nro-deployment.yaml
$ oc create -f nro-deployment.yaml
Copy to Clipboard Copied! Toggle word wrap Toggle overflow
验证
验证部署是否成功:
oc get pods -n openshift-numaresources
$ oc get pods -n openshift-numaresources
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 输出示例
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 运行以下命令,验证
topo-aware-scheduler
是否在调度部署的 pod:oc describe pod numa-deployment-1-56954b7b46-pfgw8 -n openshift-numaresources
$ oc describe pod numa-deployment-1-56954b7b46-pfgw8 -n openshift-numaresources
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 输出示例
Events: Type Reason Age From Message ---- ------ ---- ---- ------- Normal Scheduled 130m topo-aware-scheduler Successfully assigned openshift-numaresources/numa-deployment-1-56954b7b46-pfgw8 to compute-0.example.com
Events: Type Reason Age From Message ---- ------ ---- ---- ------- Normal Scheduled 130m topo-aware-scheduler Successfully assigned openshift-numaresources/numa-deployment-1-56954b7b46-pfgw8 to compute-0.example.com
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 注意请求的资源超过可用于调度的部署将失败,并显示
MinimumReplicasUnavailable
错误。当所需资源可用时,部署会成功。Pod 会一直处于Pending
状态,直到所需资源可用。验证是否为节点列出了预期的分配资源。
运行以下命令识别运行部署 pod 的节点,将 <namespace> 替换为您在
Deployment
CR 中指定的命名空间:oc get pods -n <namespace> -o wide
$ oc get pods -n <namespace> -o wide
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 输出示例
NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES numa-deployment-1-65684f8fcc-bw4bw 0/2 Running 0 82m 10.128.2.50 worker-0 <none> <none>
NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES numa-deployment-1-65684f8fcc-bw4bw 0/2 Running 0 82m 10.128.2.50 worker-0 <none> <none>
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 运行以下命令,将 <node_name> 替换为运行部署 pod 的该节点的名称:
oc describe noderesourcetopologies.topology.node.k8s.io <node_name>
$ oc describe noderesourcetopologies.topology.node.k8s.io <node_name>
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 输出示例
Copy to Clipboard Copied! Toggle word wrap Toggle overflow - 1
- 由于已分配给有保证 pod 的资源,
可用的
容量会减少。
通过保证 pod 使用的资源从
noderesourcetopologies.topology.node.k8s.io
中列出的可用节点资源中减去。
对具有
Best-effort
或Burstable
服务质量 (qosClass
) 的pod 的资源分配不会反映在noderesourcetopologies.topology.node.k8s.io
下的 NUMA 节点资源中。如果 pod 消耗的资源没有反映在节点资源计算中,请验证 pod 的Guaranteed
具有qosClass
,且 CPU 请求是一个整数值,而不是十进制值。您可以运行以下命令来验证 pod 是否具有Guaranteed
的qosClass
:oc get pod <pod_name> -n <pod_namespace> -o jsonpath="{ .status.qosClass }"
$ oc get pod <pod_name> -n <pod_namespace> -o jsonpath="{ .status.qosClass }"
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 输出示例
Guaranteed
Guaranteed
Copy to Clipboard Copied! Toggle word wrap Toggle overflow