4.6. 查看云使用量措施
流程
查看每个项目所有实例的平均内存用量:
openstack metrics measures aggregation --resource-type instance --groupby project_id -m “memoryView L3” --resource-id UUID
4.6.1. 启用 L3 缓存监控
如果您的 Intel 硬件和 libvirt
版本支持缓存监控技术(CMT),您可以使用 cpu_l3_cache
量表来监控实例使用的 L3 缓存量。
要监控 L3 缓存,必须具有以下参数和文件:
-
LibvirtEnabledPerfEvents
参数中的 CMT。 -
gnocchi_resources.yaml
文件中的cpu_l3_cache
。 -
Ceilometer poll
.yaml
文件中的cpu_l3_cache
。
流程
-
为 Telemetry 创建一个 YAML 文件,如
ceilometer-environment.yaml
。 -
在
ceilometer-environment.yaml
文件中,将cmt
添加到LibvirtEnabledPerfEvents
参数。如需更多信息,请参阅/usr/share/openstack-triple-heat-templates/puppet/services/nova_libvirt.yaml
。 使用此 YAML 文件部署 overcloud。使用
<existing_overcloud_environment_files>
属于现有部署一部分的环境文件列表替换:#!/bin/bash openstack overcloud deploy \ --templates \ <existing_overcloud_environment_files> \ -e /home/stack/ceilometer-environment.yaml \ ...
验证 Compute 节点上的 Gnocchi 中是否启用了
cpu_l3_cache
。$ sudo -i # docker exec -ti ceilometer_agent_compute cat /etc/ceilometer/gnocchi_resources.yaml | grep cpu_l3_cache //Verify that cpu_l3_cache is enabled for Telemetry polling. # docker exec -ti ceilometer_agent_compute cat /etc/ceilometer/polling.yaml | grep cpu_l3_cache //If cpu_l3_cache is not enabled for Telemetry, enable it and restart the service. # docker exec -ti ceilometer_agent_compute echo " - cpu_l3_cache" >> /etc/ceilometer/polling.yaml # docker exec -ti ceilometer_agent_compute pkill -HUP -f "ceilometer.*master process"
注意更改容器镜像中的设置不会在重新引导后保留。
在此 Compute 节点上启动客户端实例后,监控
CMT
指标:(overcloud) [stack@undercloud-0 ~]$ openstack metric measures show --resource-id a6491d92-b2c8-4f6d-94ba-edc9dfde23ac cpu_l3_cache
---------------------------
------------------------
| timestamp | granularity | value |---------------------------
------------------------
| 2017-10-25T09:40:00+00:00 | 300.0 | 1966080.0 | | 2017-10-25T09:45:00+00:00 | 300.0 | 1933312.0 | | 2017-10-25T09:50:00+00:00 | 300.0 | 2129920.0 | | 2017-10-25T09:55:00+00:00 | 300.0 | 1966080.0 | | 2017-10-25T10:00:00+00:00 | 300.0 | 1933312.0 | | 2017-10-25T10:05:00+00:00 | 300.0 | 2195456.0 | | 2017-10-25T10:10:00+00:00 | 300.0 | 1933312.0 | | 2017-10-25T10:15:00+00:00 | 300.0 | 1998848.0 | | 2017-10-25T10:20:00+00:00 | 300.0 | 2097152.0 | | 2017-10-25T10:25:00+00:00 | 300.0 | 1933312.0 | | 2017-10-25T10:30:00+00:00 | 300.0 | 1966080.0 | | 2017-10-25T10:35:00+00:00 | 300.0 | 1933312.0 | | 2017-10-25T10:40:00+00:00 | 300.0 | 1933312.0 | | 2017-10-25T10:45:00+00:00 | 300.0 | 1933312.0 | | 2017-10-25T10:50:00+00:00 | 300.0 | 2850816.0 | | 2017-10-25T10:55:00+00:00 | 300.0 | 2359296.0 | | 2017-10-25T11:00:00+00:00 | 300.0 | 2293760.0 |---------------------------
------------------------