第 2 章 配置日志记录收集器
Red Hat OpenShift 的 logging 从集群中收集操作和应用程序日志,并使用 Kubernetes pod 和项目元数据丰富数据。所有支持的对日志收集器的修改均可通过 ClusterLogForwarder 自定义资源(CR)中的 spec.collection 小节来执行。
2.1. 创建 LogFileMetricExporter 资源 复制链接链接已复制到粘贴板!
您必须手动创建一个 LogFileMetricExporter 自定义资源(CR),以便从运行容器生成的日志生成指标,因为它默认不使用收集器部署。
如果没有创建 LogFileMetricExporter CR,您可能在 OpenShift Container Platform Web 控制台仪表板中看到 Produced Logs 字段的 No datapoints found 信息。
先决条件
- 有管理员权限。
- 已安装 Red Hat OpenShift Logging Operator。
-
已安装 OpenShift CLI(
oc)。
流程
创建一个
LogFileMetricExporterCR 作为 YAML 文件:LogFileMetricExporterCR 示例apiVersion: logging.openshift.io/v1alpha1 kind: LogFileMetricExporter metadata: name: instance namespace: openshift-logging spec: nodeSelector: {}1 resources:2 limits: cpu: 500m memory: 256Mi requests: cpu: 200m memory: 128Mi tolerations: []3 # ...运行以下命令来应用
LogFileMetricExporterCR:$ oc apply -f <filename>.yaml
验证
运行以下命令,验证
logfilesmetricexporterpod 是否在您创建LogFileMetricExporterCR 的命名空间中运行:$ oc get pods -l app.kubernetes.io/component=logfilesmetricexporter -n openshift-logging输出示例
NAME READY STATUS RESTARTS AGE logfilesmetricexporter-9qbjj 1/1 Running 0 2m46s logfilesmetricexporter-cbc4v 1/1 Running 0 2m46slogfilesmetricexporterpod 在每个节点上同时运行collectorpod。