4.2. 关于部署日志记录
管理员可以使用 OpenShift Dedicated Web 控制台或 OpenShift CLI (oc
) 来安装 logging Operator。Operator 负责部署、升级和维护日志记录。
管理员和应用程序开发人员可以查看他们具有查看访问权限的项目的日志。
4.2.1. 日志记录自定义资源
您可以使用每个 Operator 实施的自定义资源 (CR) YAML 文件配置日志记录部署。
Red Hat OpenShift Logging Operator :
-
ClusterLogging
(CL) - 安装 Operator 后,您可以创建一个ClusterLogging
自定义资源 (CR) 来调度 logging pod 和支持 logging 所需的其他资源。ClusterLogging
CR 部署收集器和转发器,当前都由每个节点上运行的 daemonset 实施。Red Hat OpenShift Logging Operator 会监视ClusterLogging
CR,并相应地调整日志记录部署。 -
ClusterLogForwarder
(CLF)- 生成收集器配置,以为每个用户配置转发日志。
Loki Operator :
-
LokiStack
- 将 Loki 集群控制为日志存储,以及带有 OpenShift Dedicated 身份验证集成的 Web 代理,以强制实施多租户。
OpenShift Elasticsearch Operator :
这些 CR 由 OpenShift Elasticsearch Operator 生成和管理。在 Operator 被覆盖的情况下,无法进行手动更改。
-
Elasticsearch
- 配置和部署 Elasticsearch 实例作为默认日志存储。 -
Kibana
- 配置和部署 Kibana 实例以搜索、查询和查看日志。
4.2.2. 日志记录要求
托管您自己的日志记录堆栈需要大量计算资源和存储,这可能取决于您的云服务配额。计算资源要求可以从 48 GB 或更多 GB 开始,而存储要求可能会为 1600 GB 或更多。日志记录堆栈在 worker 节点上运行,这可减少您的可用工作负载资源。考虑到这些注意事项,托管您自己的日志记录堆栈会增加集群操作成本。
如需更多信息,请参阅关于日志收集和转发。
4.2.3. 关于 JSON OpenShift Dedicated Logging
您可以使用 JSON 日志记录配置 Log Forwarding API,将 JSON 字符串解析为结构化对象。您可以执行以下任务:
- 解析 JSON 日志
- 为 Elasticsearch 配置 JSON 日志数据
- 将 JSON 日志转发到 Elasticsearch 日志存储
4.2.4. 关于收集并存储 Kubernetes 事件
OpenShift Dedicated 事件路由器是一个 pod,它监视 Kubernetes 事件,并通过 OpenShift Dedicated Logging 记录它们以收集。您必须手动部署 Event Router。
如需更多信息,请参阅关于收集和存储 Kubernetes 事件。
4.2.5. 关于 OpenShift Dedicated Logging 故障排除
您可以通过执行以下任务排除日志问题:
- 查看日志记录状态
- 查看日志存储的状态
- 了解日志记录警报
- 为红帽支持收集日志记录数据
- 关键警报故障排除
4.2.6. 关于导出字段
日志记录系统导出字段。导出的字段出现在日志记录中,可从 Elasticsearch 和 Kibana 搜索。
如需更多信息,请参阅关于导出字段。
4.2.7. 关于事件路由
Event Router 是一个 pod,它监视 OpenShift Dedicated 事件,以便通过日志记录来收集这些事件。Event Router 从所有项目收集事件,并将其写入 STDOUT
。Fluentd 收集这些事件并将其转发到 OpenShift Dedicated Elasticsearch 实例。Elasticsearch 将事件索引到 infra
索引。
您必须手动部署 Event Router。
如需更多信息,请参阅收集并存储 Kubernetes 事件。