3.3.5.3. 管理 Prometheus 环境
若要使用 Prometheus 监控 Ceph 存储集群,您可以配置和启用 Prometheus 导出器,以便收集 Ceph 存储集群的元数据信息。
先决条件
- 正在运行的 Red Hat Ceph Storage 3.1 集群
- 安装 Red Hat Ceph Storage Dashboard
流程
以
root
用户身份,打开并编辑/etc/prometheus/prometheus.yml
文件。在
global
部分下,将scrape_interval
和evaluation_interval
选项设置为 15 秒。示例
global: scrape_interval: 15s evaluation_interval: 15s
在
scrape_configs
部分下,添加honor_labels: true
选项,并为每个ceph-mgr
节点编辑targets
和instance
选项。示例
scrape_configs: - job_name: 'node' honor_labels: true static_configs: - targets: [ 'node1.example.com:9100' ] labels: instance: "node1.example.com" - targets: ['node2.example.com:9100'] labels: instance: "node2.example.com"
注意利用
honor_labels
选项,Ceph 可以输出与 Ceph 存储集群中任何节点相关的正确标记数据。这使得 Ceph 可以在没有 Prometheus 覆盖的情况下导出正确的instance
标签。要添加新节点,只需使用以下格式添加
targets
和instance
选项:示例
- targets: [ 'new-node.example.com:9100' ] labels: instance: "new-node"
注意instance
标签必须与 Ceph OSD 元数据instance
字段中显示的内容匹配,这是节点的短主机名。这有助于将 Ceph 统计数据与节点的统计信息相关联。
以以下格式将 Ceph 目标添加到
/etc/prometheus/ceph_targets.yml
文件中:示例
[ { "targets": [ "cephnode1.example.com:9283" ], "labels": {} } ]
启用 Prometheus 模块:
# ceph mgr module enable prometheus