11.2. 日志输出类型
ClusterLogForwarder CR 中指定的日志输出可以是以下任意类型:
defaultOn-cluster、Red Hat 管理的日志存储。您不需要配置默认输出。
注意如果您配置默认输出,您会收到错误消息,因为保留了
输出名称以引用 on-cluster,Red Hat managed log store。defaultloki- Loki,一个可横向扩展的、高可用性、多租户日志聚合系统。
kafka-
Kafka 代理。
kafka输出可以使用 TCP 或 TLS 连接。 elasticsearch-
一个外部 Elasticsearch 实例。
elasticsearch输出可以使用 TLS 连接。 fluentdForward一个支持 Fluentd 的外部日志聚合解决方案。这个选项使用 Fluentd 转发协议。
fluentForward输出可以使用 TCP 或 TLS 连接,并通过在 secret 中提供一个 shared_key 字段来支持共享密钥身份验证。共享密钥身份验证可在使用或不使用 TLS 的情况下使用。重要只有在使用 Fluentd 收集器时,才会支持
fluentdForward输出。如果您使用 Vector 收集器,则不支持它。如果使用 Vector 收集器,您可以使用http输出将日志转发到 Fluentd。syslog-
支持 syslog RFC3164 或 RFC5424 协议的外部日志聚合解决方案。
syslog输出可以使用 UDP、TCP 或 TLS 连接。 cloudwatch- Amazon CloudWatch,一种由 Amazon Web Services (AWS) 托管的监控和日志存储服务。
11.2.1. OpenShift Logging 5.7 中支持的日志数据输出类型 复制链接链接已复制到粘贴板!
Red Hat OpenShift Logging 5.7 提供了以下输出类型和协议,用于将日志数据发送到目标日志收集器。
红帽会测试下表中显示的每个组合。但是,您应该可以将日志数据发送到最接近这些协议的更广泛的目标日志收集器。
| 输出 | 协议 | 测试使用 | Fluentd | Vector |
|---|---|---|---|---|
| Cloudwatch | REST over HTTP(S) | ✓ | ✓ | |
| Elasticsearch v6 | v6.8.1 | ✓ | ✓ | |
| Elasticsearch v7 | v7.12.2, 7.17.7 | ✓ | ✓ | |
| Elasticsearch v8 | v8.4.3 | ✓ | ✓ | |
| Fluent Forward | Fluentd forward v1 | Fluentd 1.14.6, Logstash 7.10.1 | ✓ | |
| Google Cloud Logging | ✓ | |||
| HTTP | HTTP 1.1 | Fluentd 1.14.6, Vector 0.21 | ✓ | ✓ |
| Kafka | Kafka 0.11 | Kafka 2.4.1, 2.7.0, 3.3.1 | ✓ | ✓ |
| Loki | REST over HTTP(S) | Loki 2.3.0, 2.7 | ✓ | ✓ |
| Splunk | HEC | v8.2.9, 9.0.0 | ✓ | |
| Syslog | RFC3164, RFC5424 | Rsyslog 8.37.0-9.el7 | ✓ | ✓ |
11.2.2. OpenShift Logging 5.6 中支持的日志数据输出类型 复制链接链接已复制到粘贴板!
Red Hat OpenShift Logging 5.6 提供以下输出类型和协议,用于将日志数据发送到目标日志收集器。
红帽会测试下表中显示的每个组合。然而,您应该能够将日志数据发送到最接近这些协议的更大范围的目标日志收集器。
| 输出类型 | 协议 | 测试使用 |
|---|---|---|
| Amazon CloudWatch | 通过 HTTPS 的 REST | Amazon CloudWatch 的当前版本 |
| elasticsearch | elasticsearch | Elasticsearch 6.8.23 Elasticsearch 7.10.1 Elasticsearch 8.6.1 |
| fluentdForward | fluentd forward v1 | fluentd 1.14.6 logstash 7.10.1 |
| Loki | 使用 HTTP 和 HTTPS 的 REST | OCP 上部署的 Loki 2.5.0 |
| kafka | kafka 0.11 | kafka 2.7.0 |
| syslog | RFC-3164、RFC-5424 | rsyslog-8.39.0 |
从 5.6.2 开始,Fluentd 不支持 Elasticsearch 8。向量不支持 5.7.0 之前的 fluentd/logstash/rsyslog。
11.2.3. OpenShift Logging 5.5 中支持的日志数据输出类型 复制链接链接已复制到粘贴板!
Red Hat OpenShift Logging 5.5 提供以下输出类型和协议,用于将日志数据发送到目标日志收集器。
红帽会测试下表中显示的每个组合。然而,您应该能够将日志数据发送到最接近这些协议的更大范围的目标日志收集器。
| 输出类型 | 协议 | 测试使用 |
|---|---|---|
| Amazon CloudWatch | 通过 HTTPS 的 REST | Amazon CloudWatch 的当前版本 |
| elasticsearch | elasticsearch | Elasticsearch 7.10.1 |
| fluentdForward | fluentd forward v1 | fluentd 1.14.6 logstash 7.10.1 |
| Loki | 使用 HTTP 和 HTTPS 的 REST | OCP 上部署的 Loki 2.5.0 |
| kafka | kafka 0.11 | kafka 2.7.0 |
| syslog | RFC-3164、RFC-5424 | rsyslog-8.39.0 |
11.2.4. OpenShift Logging 5.4 中支持的日志数据输出类型 复制链接链接已复制到粘贴板!
Red Hat OpenShift Logging 5.4 提供以下输出类型和协议,用于将日志数据发送到目标日志收集器。
红帽会测试下表中显示的每个组合。然而,您应该能够将日志数据发送到最接近这些协议的更大范围的目标日志收集器。
| 输出类型 | 协议 | 测试使用 |
|---|---|---|
| Amazon CloudWatch | 通过 HTTPS 的 REST | Amazon CloudWatch 的当前版本 |
| elasticsearch | elasticsearch | Elasticsearch 7.10.1 |
| fluentdForward | fluentd forward v1 | fluentd 1.14.5 logstash 7.10.1 |
| Loki | 使用 HTTP 和 HTTPS 的 REST | OCP 上部署的 Loki 2.2.1 |
| kafka | kafka 0.11 | kafka 2.7.0 |
| syslog | RFC-3164、RFC-5424 | rsyslog-8.39.0 |
11.2.5. OpenShift Logging 5.3 中支持的日志数据输出类型 复制链接链接已复制到粘贴板!
Red Hat OpenShift Logging 5.3 提供以下输出类型和协议,用于将日志数据发送到目标日志收集器。
红帽会测试下表中显示的每个组合。然而,您应该能够将日志数据发送到最接近这些协议的更大范围的目标日志收集器。
| 输出类型 | 协议 | 测试使用 |
|---|---|---|
| Amazon CloudWatch | 通过 HTTPS 的 REST | Amazon CloudWatch 的当前版本 |
| elasticsearch | elasticsearch | Elasticsearch 7.10.1 |
| fluentdForward | fluentd forward v1 | fluentd 1.7.4 logstash 7.10.1 |
| Loki | 使用 HTTP 和 HTTPS 的 REST | OCP 上部署的 Loki 2.2.1 |
| kafka | kafka 0.11 | kafka 2.7.0 |
| syslog | RFC-3164、RFC-5424 | rsyslog-8.39.0 |
11.2.6. OpenShift Logging 5.2 中支持的日志数据输出类型 复制链接链接已复制到粘贴板!
Red Hat OpenShift Logging 5.2 提供了以下输出类型和协议,用于将日志数据发送到目标日志收集器。
红帽会测试下表中显示的每个组合。然而,您应该能够将日志数据发送到最接近这些协议的更大范围的目标日志收集器。
| 输出类型 | 协议 | 测试使用 |
|---|---|---|
| Amazon CloudWatch | 通过 HTTPS 的 REST | Amazon CloudWatch 的当前版本 |
| elasticsearch | elasticsearch | Elasticsearch 6.8.1 Elasticsearch 6.8.4 Elasticsearch 7.12.2 |
| fluentdForward | fluentd forward v1 | fluentd 1.7.4 logstash 7.10.1 |
| Loki | 使用 HTTP 和 HTTPS 的 REST | OCP 和 Grafana 实验中部署的 Loki 2.3.0 |
| kafka | kafka 0.11 | kafka 2.4.1 kafka 2.7.0 |
| syslog | RFC-3164、RFC-5424 | rsyslog-8.39.0 |
11.2.7. OpenShift Logging 5.1 中支持的日志数据输出类型 复制链接链接已复制到粘贴板!
Red Hat OpenShift Logging 5.1 提供以下输出类型和协议,用于将日志数据发送到目标日志收集器。
红帽会测试下表中显示的每个组合。然而,您应该能够将日志数据发送到最接近这些协议的更大范围的目标日志收集器。
| 输出类型 | 协议 | 测试使用 |
|---|---|---|
| elasticsearch | elasticsearch | Elasticsearch 6.8.1 Elasticsearch 6.8.4 Elasticsearch 7.12.2 |
| fluentdForward | fluentd forward v1 | fluentd 1.7.4 logstash 7.10.1 |
| kafka | kafka 0.11 | kafka 2.4.1 kafka 2.7.0 |
| syslog | RFC-3164、RFC-5424 | rsyslog-8.39.0 |
在以前的版本中,syslog 输出只支持 RFC-3164。当前的 syslog 输出添加了对 RFC-5424 的支持。