Network Observability(网络可观察性)


OpenShift Container Platform 4.17

在 OpenShift Container Platform 中配置和使用 Network Observability Operator

Red Hat OpenShift Documentation Team

摘要

使用 Network Observability Operator 观察和分析 OpenShift Container Platform 集群的网络流量流。

第 1 章 Network Observability Operator 发行注记

Network Observability Operator 可让管理员观察和分析 OpenShift Container Platform 集群的网络流量流。

本发行注记介绍了 OpenShift Container Platform 中 Network Observability Operator 的开发。

有关 Network Observability Operator 的概述,请参阅关于 Network Observability Operator

1.1. Network Observability Operator 1.7.0

以下公告可用于 Network Observability Operator 1.7.0:

1.1.1. 新功能及功能增强

1.1.1.1. OpenTelemetry 支持

现在,您可以将增强的网络流导出到兼容的 OpenTelemetry 端点,如红帽构建的 OpenTelemetry。如需更多信息,请参阅导出增强的网络流数据

1.1.1.2. Network Observability Developer 视角

现在,您可以在 Developer 视角中使用 Network Observability。如需更多信息,请参阅 OpenShift Container Platform 控制台集成

1.1.1.3. TCP 标记过滤

现在,您可以使用 tcpFlags 过滤器来限制 eBPF 程序处理的数据包卷。如需更多信息,请参阅流过滤器配置参数eBPF 流规则过滤器,以及使用 FlowMetric API 和 TCP 标记来检测 SYN 填充

1.1.1.4. OpenShift Virtualization 的网络可观察性

您可以通过识别来自连接到二级网络的虚拟机(如通过 Open Virtual Network (OVN)-Kubernetes)的 eBPF 增强网络流来观察 OpenShift Virtualization 设置中的网络模式。如需更多信息,请参阅为 Network Observability 配置虚拟机(VM)二级网络接口

1.1.1.5. 网络策略在 FlowCollector 自定义资源 (CR) 中部署

在这个版本中,您可以将 FlowCollector CR 配置为为 Network Observability 部署网络策略。在以前的版本中,如果需要网络策略,您必须手动创建一个。手动创建网络策略的选项仍然可用。如需更多信息,请参阅使用 FlowCollector 自定义资源配置入口网络策略

1.1.1.6. FIPS 合规性
  • 您可以在以 FIPS 模式运行的 OpenShift Container Platform 集群中安装和使用 Network Observability Operator。

    重要

    要为集群启用 FIPS 模式,您必须从配置为以 FIPS 模式操作的 Red Hat Enterprise Linux (RHEL) 计算机运行安装程序。有关在 RHEL 中配置 FIPS 模式的更多信息,请参阅将 RHEL 切换到 FIPS 模式

    当以 FIPS 模式运行 Red Hat Enterprise Linux (RHEL) 或 Red Hat Enterprise Linux CoreOS (RHCOS)时,OpenShift Container Platform 核心组件使用 RHEL 加密库,在 x86_64、ppc64le 和 s390x 架构上提交到 NIST FIPS 140-2/140-3 Validation。

1.1.1.7. eBPF 代理增强

eBPF 代理有以下改进:

  • 如果 DNS 服务映射到与 53 不同的端口,您可以使用 spec.agent.ebpf.advanced.env.DNS_TRACKING_PORT 指定此 DNS 跟踪端口。
  • 现在,您可以将两个端口用于传输协议(TCP、UDP 或 SCTP)过滤规则。
  • 现在,您可以通过将 protocol 字段留空来过滤带有通配符协议的传输端口。

如需更多信息,请参阅 FlowCollector API 规格

1.1.1.8. Network Observability CLI

Network Observability CLI (oc netobserv) 现已正式发布。自 1.6 技术预览版本开始进行了以下改进:* 现在提供了一个 eBPF 过滤器用于数据包捕获,与流捕获类似。现在,您可以在流和数据包捕获中使用过tcp_flags 过滤。* 当达到 max-bytes 或 max-time 时,auto-teardown 选项可用。如需更多信息,请参阅 Network Observability CLINetwork Observability CLI 1.7.0

1.1.2. 程序错误修复

  • 在以前的版本中,当使用 RHEL 9.2 实时内核时,一些 Webhook 无法正常工作。现在,提供了一个修复程序,用于检查是否使用了这个 RHEL 9.2 实时内核。如果使用内核,则会显示有关无法正常工作的功能的警告,如数据包丢弃,以及使用 s390x 架构时的 Round-trip Time。相关的修复包括在 OpenShift 4.16 及更高版本中。(NETOBSERV-1808)
  • 在以前的版本中,在 Overview 选项卡中的 Manage 面板 对话框中,根据 total, bar, donut, or line 过滤不会显示结果。现在,可以正确地过滤可用的面板。(NETOBSERV-1540)
  • 在以前的版本中,在高力下,eBPF 代理容易进入一个会生成大量小的流而几乎不聚合它们的状态。在这个版本中,在高压的情况下聚合过程仍然可以进行,因此会创建较少的流。在这个版本中,改进了在 eBPF 代理中,以及 flowlogs-pipeline 和 Loki 中的资源消耗。(NETOBSERV-1564)
  • 在以前的版本中,当启用了 workload_flows_total 指标而不是 namespace_flows_total 指标时,健康仪表板会停止显示 By namespace 流图表。在这个版本中,当启用了 workload_flows_total 时,健康仪表板会显示流图表。(NETOBSERV-1746)
  • 在以前的版本中,当您使用 FlowMetrics API 生成自定义指标并稍后修改其标签时,指标会停止填充,并在 flowlogs-pipeline 日志中显示错误。在这个版本中,您可以修改标签,在 flowlogs-pipeline 日志中不再引发错误。(NETOBSERV-1748)
  • 在以前的版本中,默认的 Loki WriteBatchSize 配置不一致:在 FlowCollector CRD 中被设置为 100 KB,在 OLM 示例或默认配置中被设置为 10 MB。现在,它们都一致地设置为 10,这通常会提供更好的性能并减少资源占用量。(NETOBSERV-1766)
  • 在以前的版本中,如果您没有指定协议,则端口上的 eBPF 流过滤器会被忽略。在这个版本中,您可以独立于端口和或协议设置 eBPF 流过滤器。(NETOBSERV-1779)
  • 在以前的版本中,Topology 视图中隐藏了从 Pod 到服务的流量。只有从 Services 到 Pod 的返回流量才可见。在这个版本中,流量会被正确显示。(NETOBSERV-1788)
  • 在以前的版本中,当具有 Network Observability 访问权限的非集群管理员用户试图过滤触发自动完成的内容(如命名空间)时,控制台插件中的错误会在控制台插件中看到一个错误。在这个版本中,不会显示错误,自动完成会返回预期的结果。( NETOBSERV-1798)
  • 当添加二级接口支持时,您必须多次使用 netlink 注册每个网络命名空间,以了解接口通知。同时,因为使用 TCX hook,不成功的处理程序会导致泄漏文件描述符。这与 TC 不同,在接口停止时需要显式删除处理程序。另外,当删除网络命名空间时,没有 Go 关闭频道事件来终止 netlink goroutine 套接字,这会导致 go 线程泄漏。现在,在创建和删除 pod 时,不会再泄漏文件描述符或 go 线程。(NETOBSERV-1805)
  • 在以前的版本中,即使流 JSON 中相关的数据可用,ICMP 类型和值在流量流表中显示 'n/a'。在这个版本中,ICMP 列在流表中按预期显示相关值。(NETOBSERV-1806)
  • 在以前的版本中,在控制台插件中,无法为未设置的字段过滤,如取消设置 DNS 延迟。在这个版本中,可以对未设置的字段进行过滤。(NETOBSERV-1816)
  • 在以前的版本中,当您在 OpenShift Web 控制台插件中清除过滤器时,有时会在进入另一个页面后重新应用过滤器,并返回带有过滤器的页面。在这个版本中,过滤器在清除后不会意外地重新显示它们。(NETOBSERV-1733)

1.1.3. 已知问题

  • 在 Network Observability 中使用 must-gather 工具时,当集群启用了 FIPS 时不会收集日志。(NETOBSERV-1830)
  • 当在 FlowCollector 中启用 spec.networkPolicy 时,它会在 netobserv 命名空间中安装网络策略,无法使用 FlowMetrics API。网络策略块调用验证 Webhook。作为临时解决方案,请使用以下网络策略:

    kind: NetworkPolicy
    apiVersion: networking.k8s.io/v1
    metadata:
      name: allow-from-hostnetwork
      namespace: netobserv
    spec:
      podSelector:
        matchLabels:
          app: netobserv-operator
      ingress:
        - from:
            - namespaceSelector:
                matchLabels:
                  policy-group.network.openshift.io/host-network: ''
      policyTypes:
        - Ingress

    (NETOBSERV-193)

1.2. Network Observability Operator 1.6.2

以下公告可用于 Network Observability Operator 1.6.2:

1.2.1. CVE

1.2.2. 程序错误修复

  • 当添加了二级接口支持时,需要多次使用 netlink 注册每个网络命名空间,以了解接口通知。同时,因为使用 TCX hook,不成功的处理程序会导致泄漏文件描述符。这与 TC 不同,在接口停止时需要显式删除处理程序。现在,创建和删除 pod 时不再泄漏文件描述符。(NETOBSERV-1805)

1.2.3. 已知问题

与控制台插件存在兼容性问题,导致无法在 OpenShift Container Platform 集群以后的版本上安装 Network Observability。通过升级到 1.6.2,可以解决这个兼容性问题,Network Observability 可以按预期安装。(NETOBSERV-1737)

1.3. Network Observability Operator 1.6.1

以下公告可用于 Network Observability Operator 1.6.1 :

1.3.1. CVE

1.3.2. 程序错误修复

  • 在以前的版本中,关于数据包丢弃的信息(如原因和 TCP 状态)仅在 Loki 数据存储中提供,而不是在 Prometheus 中提供。因此,OpenShift Web 控制台插件 Overview 中的丢弃统计信息仅适用于 Loki。在这个版本中,有关数据包丢弃的信息也添加到指标中,因此您可以在禁用 Loki 时查看丢弃统计信息。(NETOBSERV-1649)
  • 当 eBPF 代理 PacketDrop 功能被启用,并抽样被配置为一个大于 1 的值时,报告的丢弃的字节并丢弃数据包会忽略抽样配置。虽然这样做的目的为了不遗漏任何数据丢弃,但这样做的一个副作用是报告的丢弃数据与非丢弃数据的比例变得有倾向性。例如,对于一个非常高的抽样率(如 1:1000)中,在控制台插件中观察到的情况是,几乎所有流量都被丢弃。在这个版本中,抽样配置会正确处理丢弃的字节和数据包。(NETOBSERV-1676)
  • 在以前的版本中,如果首先创建了接口,然后才部署 eBPF 代理,则不会检测到这个 SR-IOV 二级接口。只有在先部署了代理,然后再创建 SR-IOV 接口时,才会检测到它。在这个版本中,无论部署序列是什么,都会检测到 SR-IOV 二级接口。(NETOBSERV-1697)
  • 在以前的版本中,当禁用 Loki 时,OpenShift Web 控制台中的 Topology 视图始终会在网络拓扑图旁边的滑块中显示集群区域聚合选项,即使未启用相关的功能。在这个版本中,滑块只根据启用的功能显示选项。(NETOBSERV-1705)
  • 在以前的版本中,当 Loki 被禁用时,OpenShift Web 控制台第一次加载时,可能会显示错误:Request failed with status code 400 Loki is disabled。在这个版本中,不再会出现错误。(NETOBSERV-1706)
  • 在以前的版本中,在 OpenShift Web 控制台的 Topology 视图中,当点击任何图形节点旁边的 Step into 图标时,过滤器不会根据需要应用,从而将重点设置为所选图形节点,从而导致在 OpenShift Web 控制台中显示 Topology 视图的广泛视图。在这个版本中,正确设置了过滤,有效缩小 Topology 的范围。作为此更改的一部分,点节点上的 Step into 图标进入 Resource 范围而不是 Namespaces 范围。(NETOBSERV-1720)
  • 在以前的版本中,当 Loki 被禁用时,在 OpenShift Web 控制台的 Topology 视图中,将 Scope 设置为 Owner,点任何图形节点旁的 Step into 图标会使 Scope 变为 Resource,在没有 Loki 的情况下不可用,因此会显示错误消息。在这个版本中,当 Loki 被禁用时,在 Owner 范围中会隐藏 Step into 图标,因此不再发生此场景。(NETOBSERV-1721)
  • 在以前的版本中,当禁用 Loki 时,当设置了一个组时,OpenShift Web 控制台的 Topology 视图中会显示一个错误,但会更改范围,以便组变得无效。在这个版本中,无效的组会被删除,从而导致错误。(NETOBSERV-1722)
  • 从 OpenShift web 控制台 Form view 创建 FlowCollector 资源时,与 YAML 视图 不同,以下设置被 web 控制台: agent.ebpf.metrics.enableprocessor.subnetLabels.openShiftAutoDetect 管理。这些设置只能在 YAML 视图中被禁用,不能在 Form 视图中禁用。为避免混淆,这些设置已从 Form 视图中删除。它们仍可在 YAML 视图中访问。(NETOBSERV-1731)
  • 在以前的版本中,eBPF 代理无法在非正常崩溃前清理安装的流量控制流,例如因为 SIGTERM 信号造成崩溃。这会导致使用相同名称创建多个流量控制流过滤,因为旧的流没有被删除。在这个版本中,在代理启动时,所有之前安装的流量控制流都会被清理。(NETOBSERV-1732)
  • 在以前的版本中,当配置自定义子网标签并保持 OpenShift 子网自动检测时,OpenShift 子网优先于自定义子网,从而导致在集群子网中定义自定义标签。在这个版本中,自定义的子网具有优先权,允许在集群子网中定义自定义标签。(NETOBSERV-1734)

1.4. Network Observability Operator 1.6.0

以下公告可用于 Network Observability Operator 1.6.0:

重要

在升级到 Network Observability Operator 的最新版本前,您必须迁移已删除的 FlowCollector CRD 版本NETOBSERV-1747 包括了对这个临时解决方案进行自动化的信息。

1.4.1. 新功能及功能增强

1.4.1.1. 增强了在没有 Loki 的情况下 Network Observability Operator 的使用

现在,在使用 Network Observability Operator 时,您可以使用 Prometheus 指标并依赖 Loki 进行存储。如需更多信息,请参阅没有 Loki 的网络可观察性

1.4.1.2. 自定义 metrics API

您可以使用 FlowMetrics API 从 flowlogs 数据中创建自定义指标。flowlogs 数据可用于 Prometheus 标签,以便在仪表板上自定义集群信息。您可以为要在流和指标中识别的任何子网添加自定义标签。此功能增强还可用于使用新标签 SrcSubnetLabelDstSubnetLabel 来更轻松地识别外部流量,它们同时存在于流日志和指标中。当存在外部流量时,这些字段为空,它提供了一种方法来识别它。如需更多信息,请参阅 自定义指标FlowMetric API 参考

1.4.1.3. eBPF 性能增强

提高了 eBPF 代理的性能,在 CPU 和内存方面有以下更新:

  • eBPF 代理现在使用 TCX Webhook 而不是 TC。
  • NetObserv / Health 仪表板有一个新的部分,显示 eBPF 指标。

    • 根据新的 eBPF 指标,当 eBPF 代理丢弃流时,会向您发送警报。
  • 现在,因为删除了重复的流,Loki 存储需求会显著减少。现在,使用一个带有相关网络接口列表的非重复的流,而不是使用多个流,每个网络接口都带有独立重复的流。
重要

通过对重复流机制的更新,网络流量表中的InterfaceInterface Direction 字段被重命名为 InterfacesInterface Directions,任何使用这些字段的 快速过滤查询都需要更新为使用新的 interfacesifdirections

如需更多信息,请参阅使用 eBPF 代理警报快速过滤器

1.4.1.4. 基于 eBPF 集合规则的过滤

您可以使用基于规则的过滤来减少创建的流的数量。启用这个选项后,eBPF 代理统计的 Netobserv / Health 仪表板会提供一个过滤的流速率视图。如需更多信息,请参阅 eBPF 流规则过滤器

1.4.2. 技术预览功能

这个版本中的一些功能当前还处于技术预览状态。它们并不适用于在生产环境中使用。请参阅红帽门户网站中关于对技术预览功能支持范围的信息:

技术预览功能支持范围

1.4.2.1. Network Observability CLI

您可以使用 Network Observability CLI 调试网络流量问题并进行故障排除,而无需安装 Network Observability Operator。实时捕获和视觉化流和数据包数据,在捕获过程中不需要持久性存储。如需更多信息,请参阅 Network Observability CLINetwork Observability CLI 1.6.0

1.4.3. 程序错误修复

  • 在以前的版本中,Operator Lifecycle Manager (OLM) 表单中会显示到 OpenShift 的死链接,用于创建 FlowMetrics API。现在,链接已被更新以指向有效的页面。(NETOBSERV-1607)
  • 在以前的版本中,Operator Hub 中的 Network Observability Operator 描述信息中显示的一个到文档的链接有问题。在这个版本中,这个链接也被修正。(NETOBSERV-1544)
  • 在以前的版本中,如果 Loki 被禁用,且 Loki Mode 被设置为 LokiStack,或者配置了 Loki manual TLS 配置,Network Observability Operator 仍然会尝试读取 Loki CA 证书。在这个版本中,当 Loki 被禁用时,即使在 Loki 配置中有设置,也不会读 Loki 证书。(NETOBSERV-1647)
  • 在以前的版本中,Network Observability Operator 的 oc must-gather 插件只适用于 amd64 架构,并在所有其他架构上都会失败,这是因为对于 oc,插件使用了 amd64。现在,Network Observability Operator oc must-gather 插件会在任何架构平台上收集日志。
  • 在以前的版本中,当使用 不等于 逻辑过滤 IP 地址时,Network Observability Operator 会返回请求错误。现在,对于 IP 地址和范围的 IP 过滤,可以正常使用等于不等于逻辑。(NETOBSERV-1630)
  • 在以前的版本中,当用户不是管理员时,错误消息与 web 控制台中的 Network Traffic 视图的所选标签页不一致。现在,user not admin 错误可以正确地在任何标签页中显示。(NETOBSERV-1621)

1.4.4. 已知问题

  • 当 eBPF 代理 PacketDrop 功能被启用,并抽样被配置为一个大于 1 的值时,报告的丢弃的字节并丢弃数据包会忽略抽样配置。虽然这样做的目的为了不遗漏任何数据丢弃,但这样做的一个副作用是报告的丢弃数据与非丢弃数据的比例变得有倾向性。例如,对于一个非常高的抽样率(如 1:1000 )中,在控制台插件中观察到的情况是,几乎所有流量都被丢弃。(NETOBSERV-1676)
  • Overview 选项卡中的 Manage panels 弹出窗口中,根据 total, bar, donut, 或 line 不会显示任何结果。(NETOBSERV-1540)
  • 如果首先创建了接口,然后才部署 eBPF 代理,则不会检测到这个 SR-IOV 二级接口。只有在先部署了代理,然后再创建 SR-IOV 接口时,才会检测到它。(NETOBSERV-1697)
  • 当禁用 Loki 时,OpenShift Web 控制台中的 Topology 视图始终会在网络拓扑图旁边的滑块中显示集群区域聚合选项,即使未启用相关的功能。现在还没有可以解决这个问题的临时解决方案,只能忽略这些滑块选项。(NETOBSERV-1705)
  • 当 Loki 被禁用时,OpenShift Web 控制台第一次加载时,可能会显示错误:Request failed with status code 400 Loki is disabled。作为临时解决方案,您可以继续在 Network Traffic 页面中切换内容,如点 TopologyOverview 选项卡。这个错误应该会消失。(NETOBSERV-1706)

1.5. Network Observability Operator 1.5.0

以下公告可用于 Network Observability Operator 1.5.0:

1.5.1. 新功能及功能增强

1.5.1.1. DNS 跟踪增强

在 1.5 中,除了 UDP 外,还支持 TCP 协议。在 Network Traffic 页面的 Overview 视图中添加了新的仪表板。如需更多信息,请参阅配置 DNS 跟踪使用 DNS 跟踪

1.5.1.2. 往返时间 (RTT)

您可以使用从 fentry/tcp_rcv_ established Extended Berkeley Packet Filter (eBPF) hookpoint 中捕获的 TCP 握手 Round-Trip Time (RTT) 来读取平稳的往返时间(SRTT) 并分析网络流。在 web 控制台中的 OverviewNetwork Traffic、和 Topology 页面中,您可以监控网络流量,并使用 RTT 指标、过滤和边缘标记进行故障排除。如需更多信息,请参阅 RTT 概述使用 RTT

1.5.1.3. 指标、仪表板和警报增强

ObserveDashboardsNetObserv 中的 Network Observability 指标仪表板具有可用于创建 Prometheus 警报的新指标类型。现在,您可以在 includeList 规格中定义可用指标。在以前的版本中,这些指标在 ignoreTags 规格中定义。有关这些指标的完整列表,请参阅 Network Observability Metrics

1.5.1.4. 没有 Loki 的 Network Observability 的改进

您可以使用 DNS、Packet drop 和 RTT 指标为 Netobserv 仪表板创建 Prometheus 警报,即使您不使用 Loki。在以前的 Network Observability 版本 1.4 中,这些指标仅适用于 Network TrafficOverviewTopology 视图中查询和分析,这些指标在没有 Loki 的情况下不可用。如需更多信息,请参阅 Network Observability Metrics

1.5.1.5. 可用区

您可以配置 FlowCollector 资源来收集有关集群可用区的信息。此配置增强了使用应用到节点的 topology.kubernetes.io/zone 标签值的网络流数据。如需更多信息,请参阅使用可用区

1.5.1.6. 主要改进

Network Observability Operator 的 1.5 发行版本为 OpenShift Container Platform Web 控制台插件和 Operator 配置添加了改进和新功能。

性能增强
  • spec.agent.ebpf.kafkaBatchSize 的默认设置从 10MB 改为 1MB,以便在使用 Kafka 时增强 eBPF 性能。

    重要

    当从现有安装升级时,不会在配置中自动设置这个新值。如果您在升级后发现 eBPF 代理内存消耗的性能出现回归的问题,您可以考虑将 kafkaBatchSize 减少为一个新值。

Web 控制台增强:
  • 在 DNS 和 RTT 的 Overview 视图中添加了新的面板:Min、Max、P90、P99。
  • 添加了新的面板显示选项:

    • 专注于一个面板,同时保持其他面板可查看但没有主要关注。
    • 切换图形类型。
    • 显示 TopOverall
  • 自定义时间范围弹出窗口中会显示集合延迟警告。
  • 增强了管理面板管理列弹出窗口内容的可见性。
  • 在 web 控制台的 Network Traffic 页面中,可以使用 egress QoS 的 Differentiated Services Code Point (DSCP) 字段来对 QoS DSCP 进行过滤。
配置增强:
  • spec.loki.mode 规格中的 LokiStack 模式会自动设置 URL、TLS、集群角色和集群角色绑定,以及 authToken 值,来简化安装。Manual 模式允许对这些设置进行更多控制。
  • API 版本从 flows.netobserv.io/v1beta1 更新到 flows.netobserv.io/v1beta2

1.5.2. 程序错误修复

  • 在以前的版本中,如果禁用了 console 插件的自动注册功能,则无法在 web 控制台界面中手动注册 console 插件。如果在 FlowCollector 资源中将 spec.console.register 值设置为 false,Operator 会覆盖并清除插件注册。在这个版本中,将 spec.console.register 值设置为 false 不会影响控制台插件注册或删除。因此,可以安全地手动注册插件。(NETOBSERV-1134)
  • 在以前的版本中,使用默认指标设置,NetObserv/Health 仪表板显示一个名为 Flows Overhead 的空图形。这个指标只能通过从 ignoreTags 列表中删除 "namespaces-flows" 和 "namespaces" 时才可用。在这个版本中,在使用默认指标设置时,此指标可见。(NETOBSERV-1351)
  • 在以前的版本中,运行 eBPF 代理的节点无法使用一个特定的集群配置解析。这会导致一连串的后果,并导致无法提供一些流量指标。在这个版本中,eBPF 代理的节点 IP 由 Operator 安全提供,从 pod 状态推断出。现在,缺少的指标会被恢复。(NETOBSERV-1430)
  • 在以前的版本中,Loki Operator 的 Loki 错误 'Input size too long' 错误中没有包括可以帮助进行故障排除的额外信息。在这个版本中,帮助信息在 web 控制台中的错误旁显示,并带有直接链接来获得更详细的信息。(NETOBSERV-1464)
  • 在以前的版本中,控制台插件读取超时被强制为 30s。使用 FlowCollector v1beta2 API 更新,您可以配置 spec.loki.readTimeout 规格来根据 Loki Operator queryTimeout 限制更新这个值。(NETOBSERV-1443)
  • 在以前的版本中,Operator 捆绑包不会按预期显示 CSV 注解的一些支持功能,如 features.operators.openshift.io/…​。在这个版本中,这些注解会在 CSV 中按预期设置。(NETOBSERV-1305)
  • 在以前的版本中,在协调过程中,FlowCollector 状态有时会在 DeploymentInProgressReady 状态之间转换。在这个版本中,只有在所有底层组件都完全就绪时,状态才会变为 Ready。(NETOBSERV-1293)

1.5.3. 已知问题

  • 当尝试访问 web 控制台时,OCP 4.14.10 上的缓存问题会阻止访问 Observe 视图。Web 控制台显示错误消息:Failed to get a valid plugin manifest from /api/plugins/monitoring-plugin/.推荐的解决方法是,把集群升级到最新的次版本。如果这无法解决问题,请参阅红帽知识库文章。(NETOBSERV-1493)
  • 由于 Network Observability Operator 的 1.3.0 发行版本,安装 Operator 会导致出现警告内核污点。此错误的原因是,Network Observability eBPF 代理具有内存限制,可防止预分配整个 hashmap 表。Operator eBPF 代理设置 BPF_F_NO_PREALLOC 标志,以便在 hashmap 过内存扩展时禁用预分配。

1.6. Network Observability Operator 1.4.2

以下公告可用于 Network Observability Operator 1.4.2:

1.6.1. CVE

1.7. Network Observability Operator 1.4.1

以下公告可用于 Network Observability Operator 1.4.1:

1.7.1. CVE

1.7.2. 程序错误修复

  • 在 1.4 中,向 Kafka 发送网络流数据时存在一个已知问题。Kafka 消息密钥被忽略,从而导致带有连接跟踪的错误。现在,密钥用于分区,因此来自同一连接的每个流都会发送到同一处理器。(NETOBSERV-926)
  • 在 1.4 中,引入了 Inner 流方向,以考虑在同一节点上运行的 pod 间的流。在生成的 Prometheus 指标中不会考虑从流派生的 Prometheus 指标中的带有 Inner 方向的流,从而导致出现以下字节和数据包率。现在,派生的指标包括带有 Inner 方向的流,提供正确的字节和数据包率。(NETOBSERV-1344)

1.8. Network Observability Operator 1.4.0

以下公告可用于 Network Observability Operator 1.4.0:

1.8.1. 频道删除

您必须将频道从 v1.0.x 切换到 stable,以接收最新的 Operator 更新。v1.0.x 频道现已被删除。

1.8.2. 新功能及功能增强

1.8.2.1. 主要改进

Network Observability Operator 的 1.4 发行版本为 OpenShift Container Platform Web 控制台插件和 Operator 配置添加了改进和新功能。

Web 控制台增强:
  • Query Options 中,添加了 Duplicate 流 复选框,以选择要显示重复流。
  • 现在您可以使用 arrow up long solid One-way, arrow up long solid arrow down long solid Back-and-forth, 和 Swap 过滤器过滤源和目标流。
  • ObserveDashboardsNetObservNetObserv / Health 中的 Network Observability 指标仪表板被修改,如下所示:

    • NetObserv 仪表板显示顶级字节、数据包发送、每个节点、命名空间和工作负载接收的数据包。流图从此仪表板中删除。
    • NetObserv / Health 仪表板显示流开销,以及每个节点的流率、命名空间和工作负载。
    • 基础架构和应用程序指标显示在命名空间和工作负载的 split-view 中。

如需更多信息,请参阅 Network Observability 指标快速过滤器

配置增强:
  • 现在,您可以选择为任何配置的 ConfigMap 或 Secret 引用指定不同的命名空间,如证书配置中。
  • 添加 spec.processor.clusterName 参数,以便集群名称出现在流数据中。这在多集群上下文中很有用。使用 OpenShift Container Platform 时,留空,使其自动决定。

如需更多信息,请参阅 流收集器示例资源流收集器 API 参考

1.8.2.2. 没有 Loki 的 Network Observability

Network Observability Operator 现在可以在没有 Loki 的情况下正常工作。如果没有安装 Loki,它只能将流导出到 KAFKA 或 IPFIX 格式,并在 Network Observability 指标仪表板中提供指标。如需更多信息,请参阅没有 Loki 的网络可观察性

1.8.2.3. DNS 跟踪

在 1.4 中,Network Observability Operator 使用 eBPF 追踪点 hook 启用 DNS 跟踪。您可以监控网络,执行安全分析,并对 web 控制台中的 Network TrafficOverview 页面中的 DNS 问题进行故障排除。

如需更多信息,请参阅配置 DNS 跟踪使用 DNS 跟踪

1.8.2.4. SR-IOV 支持

现在,您可以使用单根 I/O 虚拟化(SR-IOV)设备从集群收集流量。如需更多信息,请参阅配置 SR-IOV 接口流量的监控

1.8.2.5. 支持 IPFIX exporter

现在,您可以将 eBPF 丰富的网络流导出到 IPFIX 收集器。如需更多信息,请参阅导出增强的网络流数据

1.8.2.6. 数据包丢弃

在 Network Observability Operator 的 1.4 发行版本中,eBPF 追踪点 hook 用于启用数据包丢弃跟踪。现在,您可以检测和分析数据包丢弃的原因,并做出决策来优化网络性能。在 OpenShift Container Platform 4.14 及更高版本中,会检测主机丢弃和 OVS 丢弃。在 OpenShift Container Platform 4.13 中,只检测主机丢弃。如需更多信息,请参阅配置数据包丢弃跟踪使用数据包丢弃

1.8.2.7. s390x 架构支持

Network Observability Operator 现在可在 s390x 构架中运行。以前,它在 amd64ppc64learm64 上运行。

1.8.3. 程序错误修复

  • 在以前的版本中,被 Network Observability 导出的 Prometheus 指标会忽略潜在的重复网络流。在相关的仪表板中,在 ObserveDashboards 中,这可能会导致潜在的双倍率。请注意,来自 Network Traffic 视图中的仪表板不会受到影响。现在,会过滤网络流以消除指标计算前的重复项,仪表板中会显示正确的流量率。(NETOBSERV-1131)
  • 在以前的版本中,当使用 Multus 或 SR-IOV (非默认网络命名空间)配置时,Network Observability Operator 代理无法捕获网络接口上的流量。现在,所有可用的网络命名空间都会被识别并用于捕获 SR-IOV 的流量。FlowCollectorSRIOVnetwork 自定义资源收集流量需要的配置。(NETOBSERV-1283)
  • 在以前的版本中,在 OperatorsInstalled Operators 的 Network Observability Operator 详情中,FlowCollector Status 字段可能会报告有关部署状态的错误信息。现在,status 字段会显示正确的信息。保持的事件历史记录,按事件日期排序。(NETOBSERV-1224)
  • 在以前的版本中,在网络流量负载激增时,某些 eBPF pod 被 OOM 终止,并进入 CrashLoopBackOff 状态。现在,eBPF 代理内存占用率有所改进,因此 pod 不会被 OOM 终止,并进入 CrashLoopBackOff 状态。(NETOBSERV-975)
  • 在以前的版本中,当 processor.metrics.tls 设置为 PROVIDED 时,insecureSkipVerify 选项值被强制为 true。现在,您可以将 insecureSkipVerify 设置为 truefalse,并在需要时提供 CA 证书。(NETOBSERV-1087)

1.8.4. 已知问题

  • 由于 Network Observability Operator 的 1.2.0 发行版本使用 Loki Operator 5.6,Loki 证书更改会定期影响 flowlogs-pipeline pod,并导致丢弃流而不是写入 Loki 的流。一段时间后,问题会自行修正,但它仍然会在 Loki 证书更改过程中导致临时流数据丢失。此问题仅在有 120 个节点或更多节点的大型环境中观察到。(NETOBSERV-980)
  • 目前,当 spec.agent.ebpf.features 包括 DNSTracking 时,更大的 DNS 数据包需要 eBPF 代理在第一套接字缓冲区(SKB)网段外查找 DNS 标头。需要实施新的 eBPF 代理帮助程序功能来支持它。目前,这个问题还没有临时解决方案。(NETOBSERV-1304)
  • 目前,当 spec.agent.ebpf.features 包括 DNSTracking 时,通过 TCP 数据包的 DNS 需要 eBPF 代理在 1st SKB 段外查找 DNS 标头。需要实施新的 eBPF 代理帮助程序功能来支持它。目前,这个问题还没有临时解决方案。(NETOBSERV-1245)
  • 目前,在使用 KAFKA 部署模型时,如果配置了对话跟踪,则对话事件可能会在 Kafka 用户间重复,导致跟踪对话不一致和不正确的 volumetric 数据。因此,不建议在 deploymentModel 设置为 KAFKA 时配置对话跟踪。(NETOBSERV-926)
  • 目前,当 processor.metrics.server.tls.type 配置为使用 PROVIDED 证书时,Operator 会进入一个没有就绪的状态,该状态可能会影响其性能和资源消耗。在解决此问题解决前,建议不要使用 PROVIDED 证书,而是使用自动生成的证书,将 processor.metrics.server.tls.type 设置为 AUTO。(NETOBSERV-1293
  • 由于 Network Observability Operator 的 1.3.0 发行版本,安装 Operator 会导致出现警告内核污点。此错误的原因是,Network Observability eBPF 代理具有内存限制,可防止预分配整个 hashmap 表。Operator eBPF 代理设置 BPF_F_NO_PREALLOC 标志,以便在 hashmap 过内存扩展时禁用预分配。

1.9. Network Observability Operator 1.3.0

以下公告可用于 Network Observability Operator 1.3.0 :

1.9.1. 频道弃用

您必须将频道从 v1.0.x 切换到 stable,以接收将来的 Operator 更新。v1.0.x 频道已弃用,计划在以后的发行版本中删除。

1.9.2. 新功能及功能增强

1.9.2.1. Network Observability 中的多租户
1.9.2.2. 基于流的指标仪表板
  • 此发行版本添加了一个新的仪表板,它概述了 OpenShift Container Platform 集群中的网络流。如需更多信息,请参阅 Network Observability 指标
1.9.2.3. 使用 must-gather 工具进行故障排除
  • 有关 Network Observability Operator 的信息现在可以包含在 must-gather 数据中以进行故障排除。如需更多信息,请参阅 Network Observability must-gather
1.9.2.4. 现在支持多个构架
  • Network Observability Operator 现在可在 amd64ppc64learm64 架构上运行。在以前的版本中,它只在 amd64 上运行。

1.9.3. 已弃用的功能

1.9.3.1. 弃用的配置参数设置

Network Observability Operator 1.3 发行版本弃用了 spec.Loki.authToken HOST 设置。使用 Loki Operator 时,现在必须使用 FORWARD 设置。

1.9.4. 程序错误修复

  • 在以前的版本中,当通过 CLI 安装 Operator 时,Cluster Monitoring Operator 所需的 RoleRoleBinding 不会按预期安装。从 Web 控制台安装 Operator 时,不会出现这个问题。现在,安装 Operator 的任何方法都会安装所需的 RoleRoleBinding。(NETOBSERV-1003)
  • 自版本 1.2 起,Network Observability Operator 可以在流集合出现问题时引发警报。在以前的版本中,由于一个程序错误,用于禁用警报的相关配置,spec.processor.metrics.disableAlerts 无法正常工作,有时无效。现在,此配置已被修复,可以禁用警报。(NETOBSERV-976)
  • 在以前的版本中,当 Network Observability 被配置为 spec.loki.authTokenDISABLED 时,只有 kubeadmin 集群管理员才能查看网络流。其他类型的集群管理员收到授权失败。现在,任何集群管理员都可以查看网络流。(NETOBSERV-972)
  • 在以前的版本中,一个 bug 会阻止用户将 spec.consolePlugin.portNaming.enable 设置为 false。现在,此设置可以设置为 false 来禁用端口到服务名称转换。(NETOBSERV-971)
  • 在以前的版本中,Cluster Monitoring Operator (Prometheus) 不会收集由 console 插件公开的指标,因为配置不正确。现在,配置已被修复,控制台插件指标可以被正确收集并从 OpenShift Container Platform Web 控制台访问。(NETOBSERV-765)
  • 在以前的版本中,当在 FlowCollector 中将 processor.metrics.tls 设置为 AUTO 时,flowlogs-pipeline servicemonitor 不会适应适当的 TLS 方案,且指标在 web 控制台中不可见。现在,这个问题已针对 AUTO 模式解决。(NETOBSERV-1070)
  • 在以前的版本中,证书配置(如 Kafka 和 Loki)不允许指定 namespace 字段,这意味着证书必须位于部署 Network Observability 的同一命名空间中。另外,当在 TLS/mTLS 中使用 Kafka 时,用户必须手动将证书复制到部署 eBPF 代理 pod 的特权命名空间,并手动管理证书更新,如证书轮转时。现在,通过在 FlowCollector 资源中为证书添加 namespace 字段来简化 Network Observability 设置。现在,用户可以在不同的命名空间中安装 Loki 或 Kafka,而无需在 Network Observability 命名空间中手动复制其证书。原始证书会被监视,以便在需要时自动更新副本。(NETOBSERV-773)
  • 在以前的版本中,Network Observability 代理没有涵盖 SCTP、ICMPv4 和 ICMPv6 协议,从而导致较少的全面的网络流覆盖。现在,这些协议可以被识别以改进流覆盖。(NETOBSERV-934)

1.9.5. 已知问题

  • FlowCollector 中的 processor.metrics.tls 设置为 PROVIDED 时,flowlogs-pipeline servicemonitor 不会适应 TLS 方案。(NETOBSERV-1087)
  • 由于 Network Observability Operator 的 1.2.0 发行版本使用 Loki Operator 5.6,Loki 证书更改会定期影响 flowlogs-pipeline pod,并导致丢弃流而不是写入 Loki 的流。一段时间后,问题会自行修正,但它仍然会在 Loki 证书更改过程中导致临时流数据丢失。此问题仅在有 120 个节点或更多节点的大型环境中观察到。(NETOBSERV-980)
  • 安装 Operator 时,可能会出现警告内核污点。此错误的原因是,Network Observability eBPF 代理具有内存限制,可防止预分配整个 hashmap 表。Operator eBPF 代理设置 BPF_F_NO_PREALLOC 标志,以便在 hashmap 过内存扩展时禁用预分配。

1.10. Network Observability Operator 1.2.0

以下公告可用于 Network Observability Operator 1.2.0 :

1.10.1. 准备下一次更新

已安装的 Operator 的订阅指定一个更新频道,用于跟踪和接收 Operator 的更新。在 Network Observability Operator 的 1.2 发布前,唯一可用的频道为 v1.0.x。Network Observability Operator 的 1.2 发行版本引入了用于跟踪和接收更新的 stable 更新频道。您必须将频道从 v1.0.x 切换到 stable,以接收将来的 Operator 更新。v1.0.x 频道已弃用,计划在以后的发行版本中删除。

1.10.2. 新功能及功能增强

1.10.2.1. 流量流视图中的直方图
  • 现在,您可以选择显示一段时间内流的直方图表。histogram 可让您视觉化流历史记录,而不会达到 Loki 查询的限制。如需更多信息,请参阅使用直方图
1.10.2.2. 对话跟踪
  • 现在,您可以通过 Log Type 查询流,它允许对同一对话一部分的网络流进行分组。如需更多信息,请参阅使用对话
1.10.2.3. Network Observability 健康警报
  • 现在,如果因为写入阶段出现错误,或者达到 Loki ingestion 速率限制,Network Observability Operator 会在 flowlogs-pipeline 丢弃流时自动创建自动警报。如需更多信息,请参阅健康仪表板

1.10.3. 程序错误修复

  • 在以前的版本中,在更改 FlowCollector spec 中的 namespace 值后,在前一个命名空间中运行的 eBPF 代理 pod 没有被适当删除。现在,在上一个命名空间中运行的 pod 会被正确删除。(NETOBSERV-774)
  • 在以前的版本中,在更改 FlowCollector spec (如 Loki 部分)中的 caCert.name 值后,FlowLogs-Pipeline pod 和 Console 插件 pod 不会重启,因此它们不知道配置更改。现在,pod 被重启,因此它们会获得配置更改。(NETOBSERV-772)
  • 在以前的版本中,在不同节点上运行的 pod 间的网络流有时没有正确识别为重复,因为它们由不同的网络接口捕获。这会导致控制台插件中显示过量的指标。现在,流会被正确识别为重复,控制台插件会显示准确的指标。(NETOBSERV-755)
  • 控制台插件中的 "reporter" 选项用于根据源节点或目标节点的观察点过滤流。在以前的版本中,无论节点观察点是什么,这个选项都会混合流。这是因为在节点级别将网络流错误地报告为 Ingress 或 Egress。现在,网络流方向报告是正确的。源观察点的 "reporter" 选项过滤器,或目标观察点如预期。( NETOBSERV-696)
  • 在以前的版本中,对于配置为直接将流作为 gRPC+protobuf 请求发送的代理,提交的有效负载可能太大,并由处理器的 GRPC 服务器拒绝。这会在有非常高负载的场景中发生,且只会发生在一些代理配置中。代理记录错误消息,例如:grpc: received message larger than max。因此,缺少有关这些流的信息丢失。现在,当大小超过阈值时,gRPC 有效负载被分成多个信息。因此,服务器可以维护连接状态。(NETOBSERV-617)

1.10.4. 已知问题

  • 在 Network Observability Operator 的 1.2.0 发行版本中,使用 Loki Operator 5.6,Loki 证书转换会定期影响 flowlogs-pipeline pod,并导致丢弃流而不是写入 Loki 的流程。一段时间后,问题会自行修正,但它仍然会在 Loki 证书转换过程中导致临时流数据丢失。(NETOBSERV-980)

1.10.5. 主要的技术变化

  • 在以前的版本中,您可以使用自定义命名空间安装 Network Observability Operator。此发行版本引入了 转换 Webhook,它更改了 ClusterServiceVersion。由于这个变化,所有可用的命名空间不再被列出。另外,要启用 Operator 指标集合,无法使用与其他 Operator 共享的命名空间(如 openshift-operators 命名空间)。现在,Operator 必须安装在 openshift-netobserv-operator 命名空间中。如果您之前使用自定义命名空间安装 Network Observability Operator,则无法自动升级到新的 Operator 版本。如果您之前使用自定义命名空间安装 Operator,您必须删除已安装的 Operator 实例,并在 openshift-netobserv-operator 命名空间中重新安装 Operator。务必要注意,对于 FlowCollector、Loki、Kafka 和其他插件,仍可使用自定义命名空间(如常用的 netobserv 命名空间)。(NETOBSERV-907)(NETOBSERV-956)

1.11. Network Observability Operator 1.1.0

以下公告可用于 Network Observability Operator 1.1.0:

Network Observability Operator 现在稳定,发行频道已升级到 v1.1.0

1.11.1. 程序错误修复

  • 在以前的版本中,除非 Loki authToken 配置被设置为 FORWARD 模式,否则不再强制执行身份验证,允许任何可以在 OpenShift Container Platform 集群中连接到 OpenShift Container Platform 控制台的用户,在没有身份验证的情况下检索流。现在,无论 Loki authToken 模式如何,只有集群管理员才能检索流。(BZ#2169468)

第 2 章 关于网络可观察性

红帽为集群管理员和开发人员提供 Network Observability Operator,以观察 OpenShift Container Platform 集群的网络流量。Network Observability Operator 使用 eBPF 技术创建网络流。然后,网络流会包括 OpenShift Container Platform 的信息。它们以 Prometheus 指标或 Loki 中的日志的形式提供。您可以在 OpenShift Container Platform 控制台中查看和分析所存储的 netflow 信息,以进一步洞察和故障排除。

2.1. Network Observability Operator 的可选依赖项

  • Loki Operator:Loki 是后端,可用于存储所有收集的流(最大的详细级别)。您可以选择 在没有 Loki 的情况下使用 Network Observability,但有一些注意事项,如链接部分所述。如果您选择安装 Loki,建议使用红帽支持的 Loki Operator。
  • AMQ Streams Operator:Kafka 在 OpenShift Container Platform 集群中为大规模部署提供可扩展性、弹性和高可用性。如果您选择使用 Kafka,建议使用 AMQ Streams Operator,因为红帽支持它。

2.2. Network Observability Operator

Network Observability Operator 提供 Flow Collector API 自定义资源定义。Flow Collector 实例是一个集群范围的资源,它允许配置网络流集合。Flow Collector 实例部署 pod 和服务,它组成一个监控管道,然后收集网络流并与 Kubernetes 元数据增强,然后再存储在 Loki 中或生成 Prometheus 指标。eBPF 代理作为 daemonset 对象部署,会创建网络流。

2.3. OpenShift Container Platform 控制台集成

OpenShift Container Platform 控制台集成在 AdministratorDeveloper 视角中提供概述、拓扑视图和流量流表。

Administrator 视角中,您可以通过点 ObserveNetwork Traffic 来查找 Network Observability Overview, Traffic flows, 和 Topology。在 Developer 视角中,您可以点 Observe 来查看此信息。ObserveDashboards 中的 Network Observability 指标仪表板只能供管理员使用。

注意

要为开发者视角以及带有有限权限的管理员启用多租户,需要通过定义角色来指定权限。如需更多信息,请参阅在 Network Observability 中启用多租户

2.3.1. Network Observability 指标仪表板

在 OpenShift Container Platform 控制台中的 Overview 选项卡中,您可以查看集群中网络流量流的整体聚合指标。您可以选择按区、节点、命名空间、所有者、pod 和服务显示信息。过滤器和显示选项可以进一步优化指标。如需更多信息,请参阅从 Overview 视图中获取网络流量

ObserveDashboards 中,Netobserv 仪表板可让您快速了解 OpenShift Container Platform 集群中的网络流。Netobserv/Health 仪表板提供有关 Operator 健康状况的指标。如需更多信息,请参阅 Network Observability Metrics查看健康信息

2.3.2. Network Observability 拓扑视图

OpenShift Container Platform 控制台提供 Topology 选项卡,显示网络流的图形表示和流量数量。拓扑视图代表 OpenShift Container Platform 组件之间的流量,作为网络图。您可以使用过滤器和显示选项重新定义图形。您可以访问区、节点、命名空间、所有者、pod 和服务的信息。

2.3.3. 流量流表

流量流表视图为原始流、非聚合过滤选项和可配置列提供视图。OpenShift Container Platform 控制台提供 流量流 标签页,显示网络流的数据和流量数量。

2.4. Network Observability CLI

您可以使用 Network Observability CLI (oc netobserv)快速调试并排除 Network Observability 的网络问题。Network Observability CLI 是一个流和数据包视觉化工具,它依赖于 eBPF 代理将收集的数据流传输到临时收集器 pod。在捕获过程中不需要持久性存储。运行后,输出将传输到您的本地计算机。这可以实现快速了解数据包和流数据,而无需安装 Network Observability Operator。

第 3 章 安装 Network Observability Operator

安装 Loki 是使用 Network Observability Operator 的建议前提条件。您可以选择在没有 Loki 的情况下使用 Network Observability,但有一些注意事项。

Loki Operator 集成了通过 Loki 实现多租户和身份验证的网关,以进行数据流存储。LokiStack 资源管理 Loki,它是一个可扩展、高度可用、多租户日志聚合系统和使用 OpenShift Container Platform 身份验证的 Web 代理。LokiStack 代理使用 OpenShift Container Platform 身份验证来强制实施多租户,并方便在 Loki 日志存储中保存和索引数据。

注意

Loki Operator 也可用于配置 LokiStack 日志存储]。Network Observability Operator 需要一个专用的、与日志分开的 LokiStack。

3.1. 没有 Loki 的 Network Observability

您可以通过不执行 Loki 安装步骤,直接跳过至"安装 Network Observability Operator",来使用没有 Loki 的 Network Observability。如果您只想将流导出到 Kafka 消费者或 IPFIX 收集器,或者您只需要仪表板指标,则不需要为 Loki 安装 Loki 或为 Loki 提供存储。下表比较了在使用和没有使用 Loki 时的功能比较。

表 3.1. 功能可用性与没有 Loki 的功能的比较
 带有 Loki没有 Loki

Exporters

check solid

check solid

多租户

check solid

check solid

完整的过滤和聚合功能 [1]

check solid

x solid

部分过滤和聚合功能 [2]

check solid

check solid

基于流的指标和仪表板

check solid

check solid

流量流视图概述 [3]

check solid

check solid

流量流视图表

check solid

x solid

拓扑视图

check solid

check solid

OpenShift Container Platform 控制台 Network Traffic 标签页集成

check solid

check solid

  1. 例如,每个 pod。
  2. 例如,每个工作负载或命名空间。
  3. 使用在使用 Loki 时才可以获得数据包丢弃的统计信息。

3.2. 安装 Loki Operator

Loki Operator 版本 5.7+ 是 Network Observabilty 支持的 Loki Operator 版本。这些版本提供了使用 openshift-network 租户配置模式创建 LokiStack 实例的功能,并为 Network Observability 提供完全自动的、集群内身份验证和授权支持。您可以通过几种方法安装 Loki。其中一种方法是使用 OpenShift Container Platform Web 控制台 Operator Hub。

先决条件

  • 支持的日志存储(AWS S3、Google Cloud Storage、Azure、Swift、Minio、OpenShift Data Foundation)
  • OpenShift Container Platform 4.10+
  • Linux Kernel 4.18+

流程

  1. 在 OpenShift Container Platform Web 控制台中,点击 OperatorsOperatorHub
  2. 从可用的 Operator 列表中选择 Loki Operator,然后点 Install
  3. Installation Mode 下,选择 All namespaces on the cluster

验证

  1. 验证您安装了 Loki Operator。访问 OperatorsInstalled Operators 页面,并查找 Loki Operator
  2. 验证 Loki Operator 是否在所有项目中 StatusSucceeded
重要

要卸载 Loki,请参考与用来安装 Loki 的方法相关的卸载过程。您可能会有剩余的 ClusterRoleClusterRoleBindings、存储在对象存储中的数据,以及需要被删除的持久性卷。

3.2.1. 为 Loki 存储创建 secret

Loki Operator 支持几个日志存储选项,如 AWS S3、Google Cloud Storage、Azure、Swift、Minio、OpenShift Data Foundation。以下示例演示了如何为 AWS S3 存储创建 secret。本例中创建的 secret loki-s3 在"Creating a LokiStack resource"中引用。您可以通过 web 控制台或 CLI 中创建此 secret。

  1. 使用 Web 控制台,进入到 ProjectAll Projects 下拉菜单,再选择 Create Project。将项目命名为 netobserv,再点 Create
  2. 使用右上角的 Import 图标 +。将 YAML 文件粘贴到编辑器中。

    下面显示了一个 S3 存储的 secret YAML 文件示例:

    apiVersion: v1
    kind: Secret
    metadata:
      name: loki-s3
      namespace: netobserv   1
    stringData:
      access_key_id: QUtJQUlPU0ZPRE5ON0VYQU1QTEUK
      access_key_secret: d0phbHJYVXRuRkVNSS9LN01ERU5HL2JQeFJmaUNZRVhBTVBMRUtFWQo=
      bucketnames: s3-bucket-name
      endpoint: https://s3.eu-central-1.amazonaws.com
      region: eu-central-1
    1
    本文档中的安装示例在所有组件中使用相同的命名空间 netobserv。您可以选择将不同的命名空间用于不同的组件

验证

  • 创建 secret 后,您应该会在 web 控制台的 WorkloadsSecrets 下看到它。

3.2.2. 创建 LokiStack 自定义资源

您可以使用 Web 控制台或 OpenShift CLI (oc) 部署 LokiStack 自定义资源(CR)来创建命名空间或新项目。

流程

  1. 进入到 OperatorsInstalled Operators,从 Project 下拉菜单查看 All projects
  2. 查找 Loki Operator。在详情的 Provided APIs 下,选择 LokiStack
  3. Create LokiStack
  4. 确保在 Form ViewYAML 视图中指定以下字段:

    apiVersion: loki.grafana.com/v1
    kind: LokiStack
    metadata:
      name: loki
      namespace: netobserv 1
    spec:
      size: 1x.small 2
      storage:
        schemas:
        - version: v12
          effectiveDate: '2022-06-01'
        secret:
          name: loki-s3
          type: s3
      storageClassName: gp3 3
      tenants:
        mode: openshift-network
    1
    本文档中的安装示例在所有组件中使用相同的命名空间 netobserv。您可以选择使用不同的命名空间。
    2
    指定部署大小。在 Loki Operator 5.8 及更新的版本中,Loki 实例支持的大小选项为 1x.extra-small1x.small1x.medium
    重要

    对于部署大小,无法更改 1x 值。

    3
    使用集群中可用于 ReadWriteOnce 访问模式的存储类名称。您可以使用 oc get storageclasses 查看集群中的可用内容。
    重要

    您不能重复使用用于日志的相同 LokiStack CR。

  5. Create

3.2.3. 为 cluster-admin 用户角色创建新组

重要

cluster-admin 用户身份查询多个命名空间的应用程序日志,其中集群中所有命名空间的字符总和大于 5120,会导致错误 Parse error: input size too long (XXXX > 5120)。为了更好地控制 LokiStack 中日志的访问,请使 cluster-admin 用户成为 cluster-admin 组的成员。如果 cluster-admin 组不存在,请创建它并将所需的用户添加到其中。

使用以下步骤为具有 cluster-admin 权限的用户创建新组。

流程

  1. 输入以下命令创建新组:

    $ oc adm groups new cluster-admin
  2. 输入以下命令将所需的用户添加到 cluster-admin 组中:

    $ oc adm groups add-users cluster-admin <username>
  3. 输入以下命令在组中添加 cluster-admin 用户角色:

    $ oc adm policy add-cluster-role-to-group cluster-admin cluster-admin

3.2.4. 自定义 admin 组访问

如果您需要看到集群范围的日志,而不一定是管理员,或者已经定义了想要使用的组,您可以使用 adminGroup 字段指定自定义组。属于 LokiStack 自定义资源(CR) 的 adminGroups 字段中指定的组成员的用户,具有与管理员相同的读取访问权限。

如果管理员还分配了 cluster-logging-application-view 角色,则管理员用户可以访问所有命名空间中的所有应用程序日志。

管理员用户有权访问整个集群中的所有网络日志。

LokiStack CR 示例

apiVersion: loki.grafana.com/v1
kind: LokiStack
metadata:
  name: loki
  namespace: netobserv
spec:
  tenants:
    mode: openshift-network 1
    openshift:
      adminGroups: 2
      - cluster-admin
      - custom-admin-group 3

1
自定义管理组仅在此模式中可用。
2
为此字段输入空 list [] 值会禁用 admin 组。
3
覆盖默认组(system:cluster-admins,cluster-admin,dedicated-admin)

3.2.5. Loki 部署大小

Loki 的大小使用 1x.<size> 格式,其中值 1x 是实例数量,<size> 指定性能功能。

重要

对于部署大小,无法更改 1x 值。

表 3.2. Loki 大小
 1x.demo1x.extra-small1x.small1x.medium

数据传输

仅用于演示

100GB/day

500GB/day

2TB/day

每秒查询数 (QPS)

仅用于演示

1-25 QPS at 200ms

25-50 QPS at 200ms

25-75 QPS at 200ms

复制因子

2

2

2

总 CPU 请求

None

14 个 vCPU

34 个 vCPU

54 个 vCPU

内存请求总数

None

31Gi

67Gi

139Gi

磁盘请求总数

40Gi

430Gi

430Gi

590Gi

3.2.6. LokiStack ingestion 限制和健康警报

LokiStack 实例会根据配置的大小带有默认设置。您可以覆盖其中的一些设置,如 ingestion 和查询限制。如果您在 Console 插件中或 flowlogs-pipeline 日志中发现 Loki 错误,则可能需要更新它们。Web 控制台中的自动警报会在达到这些限制时通知您。

以下是配置的限制示例:

spec:
  limits:
    global:
      ingestion:
        ingestionBurstSize: 40
        ingestionRate: 20
        maxGlobalStreamsPerTenant: 25000
      queries:
        maxChunksPerQuery: 2000000
        maxEntriesLimitPerQuery: 10000
        maxQuerySeries: 3000

有关这些设置的更多信息,请参阅 LokiStack API 参考

3.3. 安装 Network Observability Operator

您可以使用 OpenShift Container Platform Web 控制台 Operator Hub 安装 Network Observability Operator。安装 Operator 时,它提供 FlowCollector 自定义资源定义 (CRD)。在创建 FlowCollector 时,您可以在 web 控制台中设置规格。

重要

Operator 的实际内存消耗取决于集群大小和部署的资源数量。可能需要调整内存消耗。如需更多信息,请参阅"重要流收集器配置注意事项"部分中的"网络 Observability 控制器管理器 pod 内存不足"。

先决条件

  • 如果您选择使用 Loki,请安装 Loki Operator 版本 5.7+
  • 您必须具有 cluster-admin 权限。
  • 需要以下支持的架构之一:amd64, ppc64le, arm64, 或 s390x
  • Red Hat Enterprise Linux (RHEL) 9 支持的任何 CPU。
  • 必须将 OVN-Kubernetes 配置为主网络插件,并选择性地将二级接口与 Multus 和 SR-IOV 搭配使用。
注意

另外,这个安装示例使用 netobserv 命名空间,该命名空间在所有组件中使用。您可以选择使用不同的命名空间。

流程

  1. 在 OpenShift Container Platform Web 控制台中,点击 OperatorsOperatorHub
  2. OperatorHub 中的可用 Operator 列表中选择 Network Observability Operator,然后点 Install
  3. 选中 Enable Operator recommended cluster monitoring on this Namespace 的复选框。
  4. 导航到 OperatorsInstalled Operators。在 Provided APIs for Network Observability 下, 选择 Flow Collector 链接。
  5. 进入 Flow Collector 选项卡,然后点 Create FlowCollector。在表单视图中进行以下选择:

    1. spec.agent.ebpf.Sampling :指定流的抽样大小。较低的抽样大小会对资源利用率造成负面影响。如需更多信息,请参阅 "FlowCollector API 参考", spec.agent.ebpf
    2. 如果您没有使用 Loki,点 Loki 客户端设置并将 Enable 改为 False。默认设置为 True
    3. 如果使用 Loki,请设置以下规格:

      1. spec.loki.mode:将其设置为 LokiStack 模式,它会自动设置 URL、TLS、集群角色和集群角色绑定,以及 authToken 值。或者,使用 Manual 模式对这些设置的配置进行更多控制。
      2. spec.loki.lokistack.name :将其设置为您的 LokiStack 资源的名称。在本文档中,我们使用 loki
    4. 可选: 如果您在大型环境中,请考虑使用 Kafka 配置 FlowCollector 以更具弹性且可扩展的方式转发数据。请参阅"Important Flow Collector 配置注意事项"部分的"使用 Kafka 存储配置流收集器资源"。
    5. 可选:在创建 FlowCollector 前配置其他可选设置。例如,如果您选择不使用 Loki,您可以将导出流配置为 Kafka 或 IPFIX。请参阅"重要流收集器配置注意事项"一节中的"导出增强的网络流数据到 Kafka 和 IPFIX"。
  6. Create

验证

要确认这一点,当您进入到 Observe 时,您应该看到选项中列出的 Network Traffic

如果 OpenShift Container Platform 集群中没有应用程序流量,默认过滤器可能会显示"No results",这会导致没有视觉流。在过滤器选择旁边,选择 Clear all filters 来查看流。

3.4. 在网络可观察性中启用多租户

Network Observability Operator 中的多租户允许限制单个用户访问或组访问权限,到 Loki 和 或 Prometheus 中存储的流。为项目管理员启用访问权限。对某些命名空间具有有限访问权限的项目管理员只能访问这些命名空间的流。

对于开发人员,多租户可用于 Loki 和 Prometheus,但需要不同的访问权限。

前提条件

流程

  • 对于每个租户访问权限,您必须具有 netobserv-reader 集群角色和 netobserv-metrics-reader 命名空间角色才能使用 Developer 视角。对这个访问级别运行以下命令:

    $ oc adm policy add-cluster-role-to-user netobserv-reader <user_group_or_name>
    $ oc adm policy add-role-to-user netobserv-metrics-reader <user_group_or_name> -n <namespace>
  • 对于集群范围的访问权限,非集群管理员必须具有 netobserv-readercluster-monitoring-viewnetobserv-metrics-reader 集群角色。在这种情况下,您可以使用 admin 视角或开发者视角。对这个访问级别运行以下命令:

    $ oc adm policy add-cluster-role-to-user netobserv-reader <user_group_or_name>
    $ oc adm policy add-cluster-role-to-user cluster-monitoring-view <user_group_or_name>
    $ oc adm policy add-cluster-role-to-user netobserv-metrics-reader <user_group_or_name>

3.5. 重要的流收集器配置注意事项

创建 FlowCollector 实例后,您可以重新配置它,但 pod 被终止并重新创建,这可能会具有破坏性。因此,您可以考虑在第一次创建 FlowCollector 时配置以下选项:

其他资源

有关流收集器规格和 Network Observability Operator 架构和资源使用的常规信息,请参阅以下资源:

3.5.1. 迁移删除了 FlowCollector CRD 的存储版本

Network Observability Operator 版本 1.6 会删除 FlowCollector API 的旧和已弃用的 v1alpha1 版本。如果您之前在集群中安装此版本,它可能仍然在 FlowCollector CRD 的 storedVersion 中被引用,即使它已从 etcd 存储中删除,这会阻止升级过程。这些引用需要手动删除。

删除存储版本有两个选项:

  1. 使用 Storage Version Migrator Operator。
  2. 卸载并重新安装 Network Observability Operator,确保安装处于干净的状态。

先决条件

  • 已安装旧版本的 Operator,并希望准备集群来安装最新版本的 Operator。或者您试图安装 Network Observability Operator 1.6 并遇到错误:Failed risk of data loss updating "flowcollectors.flows.netobserv.io": new CRD removes version v1alpha1 that is listed as a stored version on the existing CRD

流程

  1. 验证旧的 FlowCollector CRD 版本仍然在 storedVersion 中被引用:

    $ oc get crd flowcollectors.flows.netobserv.io -ojsonpath='{.status.storedVersions}'
  2. 如果 v1alpha1 出现在结果列表中,请按照以下步骤 a 使用 Kubernetes Storage Version Migrator 或 Step b 来卸载并重新安装 CRD 和 Operator。

    1. 选项 1: Kubernetes Storage Version Migrator: 创建一个 YAML 来定义 StorageVersionMigration 对象,如 migrate-flowcollector-v1alpha1.yaml

      apiVersion: migration.k8s.io/v1alpha1
      kind: StorageVersionMigration
      metadata:
        name: migrate-flowcollector-v1alpha1
      spec:
        resource:
          group: flows.netobserv.io
          resource: flowcollectors
          version: v1alpha1
      1. 保存该文件。
      2. 运行以下命令来应用 StorageVersionMigration

        $ oc apply -f migrate-flowcollector-v1alpha1.yaml
      3. 更新 FlowCollector CRD,以从 storedVersion 中手动删除 v1alpha1

        $ oc edit crd flowcollectors.flows.netobserv.io
    2. 选项 2:FlowCollector CR 的 Network Observability Operator 1.5 版本保存到文件中,如 flowcollector-1.5.yaml

      $ oc get flowcollector cluster -o yaml > flowcollector-1.5.yaml
      1. 按照"卸载 Network Observability Operator"中的步骤,它会卸载 Operator 并删除现有的 FlowCollector CRD。
      2. 安装 Network Observability Operator 最新版本 1.6.0。
      3. 使用在第 b 步中保存的备份创建 FlowCollector

验证

  • 运行以下命令:

    $ oc get crd flowcollectors.flows.netobserv.io -ojsonpath='{.status.storedVersions}'

    结果列表应该不再显示 v1alpha1,仅显示最新版本 v1beta1

3.6. 安装 Kafka (可选)

Kafka Operator 支持大规模环境。Kafka 提供高吞吐量和低延迟数据源,以便以更具弹性且可扩展的方式转发网络流数据。您可以从 Operator Hub 将 Kafka Operator 作为 Red Hat AMQ Streams 安装,就像 Loki Operator 和 Network Observability Operator 安装一样。请参阅"使用 Kafka 配置 FlowCollector 资源"以将 Kafka 配置为存储选项。

注意

要卸载 Kafka,请参考与用来安装的方法对应的卸载过程。

3.7. 卸载 Network Observability Operator

您可以使用 OpenShift Container Platform Web 控制台 Operator Hub 来卸载 Network Observability Operator,在 OperatorsInstalled Operators 区域中工作。

流程

  1. 删除 FlowCollector 自定义资源。

    1. Provided APIs 列中的 Network Observability Operator 旁边的 Flow Collector
    2. 集群点选项菜单 kebab ,然后选择 Delete FlowCollector
  2. 卸载 Network Observability Operator。

    1. 返回到 OperatorsInstalled Operators 区。
    2. Network Observability Operator 旁边的选项菜单 kebab 并选择 Uninstall Operator
    3. HomeProjects 并选择 openshift-netobserv-operator
    4. 进入到 Actions,再选择 Delete Project
  3. 删除 FlowCollector 自定义资源定义 (CRD)。

    1. 进入到 AdministrationCustomResourceDefinitions
    2. 查找 FlowCollector 并点选项菜单 kebab
    3. 选择 Delete CustomResourceDefinition

      重要

      如果已安装,Loki Operator 和 Kafka 会保留,需要被独立删除。另外,在一个对象存储中可能会有剩余的数据,以及持久性卷,这需要被删除。

第 4 章 OpenShift Container Platform 中的 Cluster Network Operator

Network Observability 是一个 OpenShift 操作器,它部署一个监控管道,以收集并增强网络流量流,由 Network Observability eBPF 代理生成。

4.1. 查看状态

Network Observability Operator 提供 Flow Collector API。创建 Flow Collector 资源时,它会部署 pod 和服务,以在 Loki 日志存储中创建和存储网络流,并在 OpenShift Container Platform Web 控制台中显示仪表板、指标和流。

流程

  1. 运行以下命令来查看 Flowcollector 的状态:

    $ oc get flowcollector/cluster

    输出示例

    NAME      AGENT   SAMPLING (EBPF)   DEPLOYMENT MODEL   STATUS
    cluster   EBPF    50                DIRECT             Ready

  2. 输入以下命令检查在 netobserv 命名空间中运行的 pod 状态:

    $ oc get pods -n netobserv

    输出示例

    NAME                              READY   STATUS    RESTARTS   AGE
    flowlogs-pipeline-56hbp           1/1     Running   0          147m
    flowlogs-pipeline-9plvv           1/1     Running   0          147m
    flowlogs-pipeline-h5gkb           1/1     Running   0          147m
    flowlogs-pipeline-hh6kf           1/1     Running   0          147m
    flowlogs-pipeline-w7vv5           1/1     Running   0          147m
    netobserv-plugin-cdd7dc6c-j8ggp   1/1     Running   0          147m

flowlogs-pipeline pod 收集流,增强收集的流,然后将流发送到 Loki 存储。netobserv-plugin pod 为 OpenShift Container Platform 控制台创建一个视觉化插件。

  1. 输入以下命令检查在 netobserv-privileged 命名空间中运行的 pod 状态:

    $ oc get pods -n netobserv-privileged

    输出示例

    NAME                         READY   STATUS    RESTARTS   AGE
    netobserv-ebpf-agent-4lpp6   1/1     Running   0          151m
    netobserv-ebpf-agent-6gbrk   1/1     Running   0          151m
    netobserv-ebpf-agent-klpl9   1/1     Running   0          151m
    netobserv-ebpf-agent-vrcnf   1/1     Running   0          151m
    netobserv-ebpf-agent-xf5jh   1/1     Running   0          151m

netobserv-ebpf-agent pod 监控节点的网络接口以获取流并将其发送到 flowlogs-pipeline pod。

  1. 如果使用 Loki Operator,请输入以下命令检查在 openshift-operators-redhat 命名空间中运行的 pod 状态:

    $ oc get pods -n openshift-operators-redhat

    输出示例

    NAME                                                READY   STATUS    RESTARTS   AGE
    loki-operator-controller-manager-5f6cff4f9d-jq25h   2/2     Running   0          18h
    lokistack-compactor-0                               1/1     Running   0          18h
    lokistack-distributor-654f87c5bc-qhkhv              1/1     Running   0          18h
    lokistack-distributor-654f87c5bc-skxgm              1/1     Running   0          18h
    lokistack-gateway-796dc6ff7-c54gz                   2/2     Running   0          18h
    lokistack-index-gateway-0                           1/1     Running   0          18h
    lokistack-index-gateway-1                           1/1     Running   0          18h
    lokistack-ingester-0                                1/1     Running   0          18h
    lokistack-ingester-1                                1/1     Running   0          18h
    lokistack-ingester-2                                1/1     Running   0          18h
    lokistack-querier-66747dc666-6vh5x                  1/1     Running   0          18h
    lokistack-querier-66747dc666-cjr45                  1/1     Running   0          18h
    lokistack-querier-66747dc666-xh8rq                  1/1     Running   0          18h
    lokistack-query-frontend-85c6db4fbd-b2xfb           1/1     Running   0          18h
    lokistack-query-frontend-85c6db4fbd-jm94f           1/1     Running   0          18h

4.2. Network Observablity Operator 架构

Network Observability Operator 提供 FlowCollector API,它在安装时实例化,并配置为协调 eBPF 代理flowlogs-pipelinenetobserv-plugin 组件。只支持每个集群有一个 FlowCollector

eBPF 代理 在每个集群节点上运行,具有一些特权来收集网络流。flowlogs-pipeline 接收网络流数据,并使用 Kubernetes 标识符增强数据。如果您选择使用 Loki,flowlogs-pipeline 会将流日志数据发送到 Loki 用于存储和索引。netobserv-plugin,它是一个动态 OpenShift Container Platform Web 控制台插件,查询 Loki 来获取网络流数据。Cluster-admins 可以在 web 控制台中查看数据。

如果不使用 Loki,您可以使用 Prometheus 生成指标。这些指标及其关联的仪表板可在 web 控制台中访问。如需更多信息,请参阅"没有 Loki 的 Network Observability"。

Network Observability eBPF 导出架构

如果您使用 Kafka 选项,eBPF 代理将网络流数据发送到 Kafka,并且 flowlogs-pipeline 在发送到 Loki 前从 Kafka 主题读取,如下图所示。

使用 Kafka 的网络可观察性

4.3. 查看 Network Observability Operator 的状态和配置

您可以使用 oc describe 命令来检查 FlowCollector 的状态并查看其详情。

流程

  1. 运行以下命令,以查看 Network Observability Operator 的状态和配置:

    $ oc describe flowcollector/cluster

第 5 章 配置 Network Observability Operator

您可以更新 FlowCollector API 资源来配置 Network Observability Operator 及其受管组件。FlowCollector 在安装过程中明确创建。由于此资源在集群范围内运行,因此只允许单个 FlowCollector,且必须命名为 cluster。如需更多信息,请参阅 FlowCollector API 参考

5.1. 查看 FlowCollector 资源

您可以在 OpenShift Container Platform Web 控制台中直接查看和编辑 YAML。

流程

  1. 在 Web 控制台中,进入到 OperatorsInstalled Operators
  2. NetObserv OperatorProvided APIs 标题下,选择 Flow Collector
  3. 选择 cluster,然后选择 YAML 选项卡。在这里,您可以修改 FlowCollector 资源来配置 Network Observability operator。

以下示例显示了 OpenShift Container Platform Network Observability operator 的 FlowCollector 资源示例:

抽样 FlowCollector 资源

apiVersion: flows.netobserv.io/v1beta2
kind: FlowCollector
metadata:
  name: cluster
spec:
  namespace: netobserv
  deploymentModel: Direct
  agent:
    type: eBPF                                1
    ebpf:
      sampling: 50                            2
      logLevel: info
      privileged: false
      resources:
        requests:
          memory: 50Mi
          cpu: 100m
        limits:
          memory: 800Mi
  processor:               3
    logLevel: info
    resources:
      requests:
        memory: 100Mi
        cpu: 100m
      limits:
        memory: 800Mi
    logTypes: Flows
    advanced:
      conversationEndTimeout: 10s
      conversationHeartbeatInterval: 30s
  loki:                     4
    mode: LokiStack         5
  consolePlugin:
    register: true
    logLevel: info
    portNaming:
      enable: true
      portNames:
        "3100": loki
    quickFilters:            6
    - name: Applications
      filter:
        src_namespace!: 'openshift-,netobserv'
        dst_namespace!: 'openshift-,netobserv'
      default: true
    - name: Infrastructure
      filter:
        src_namespace: 'openshift-,netobserv'
        dst_namespace: 'openshift-,netobserv'
    - name: Pods network
      filter:
        src_kind: 'Pod'
        dst_kind: 'Pod'
      default: true
    - name: Services network
      filter:
        dst_kind: 'Service'

1
Agent 规格 spec.agent.type 必须是 EBPF。eBPF 是唯一的 OpenShift Container Platform 支持的选项。
2
您可以设置 Sampling 规格 spec.agent.ebpf.sampling,以管理资源。低抽样值可能会消耗大量计算、内存和存储资源。您可以通过指定一个抽样比率值来缓解这个问题。100 表示每 100 个流进行 1 个抽样。值 0 或 1 表示捕获所有流。数值越低,返回的流和派生指标的准确性会增加。默认情况下,eBPF 抽样设置为 50,因此每 50 个流抽样 1 个。请注意,更多抽样流也意味着需要更多存储。建议以默认值开始,并逐渐进行调整,以决定您的集群可以管理哪些设置。
3
Processor 规格 spec.processor. 可以设置为启用对话跟踪。启用后,可在 web 控制台中查询对话事件。spec.processor.logTypes 的值为 Flowsspec.processor.advanced 的值为 Conversations, EndedConversations, 或 ALLAll 对于存储的请求最高,EndedConversations 对于存储的要求最低。
4
Loki 规格 spec.loki 指定 Loki 客户端。默认值与安装 Loki Operator 部分中提到的 Loki 安装路径匹配。如果您为 Loki 使用另一个安装方法,请为安装指定适当的客户端信息。
5
LokiStack 模式会自动设置几个配置:querierUrl, ingesterUrlstatusUrl, tenantID,以及对应的 TLS 配置。创建集群角色和集群角色绑定用于读取和写入日志到 Loki。将 authToken 设置为 Forward。您可以使用 Manual 模式手动设置它们。
6
spec.quickFilters 规范定义了在 web 控制台中显示的过滤器。Application 过滤器键 src_namespacedst_namespace 是负的 (!),因此 Application 过滤器显示不是来自、或目的地是 openshift-netobserv 命名空间的所有流量。如需更多信息,请参阅配置快速过滤器。

5.2. 使用 Kafka 配置流收集器资源

您可以将 FlowCollector 资源配置为使用 Kafka 进行高吞吐量和低延迟数据源。需要运行一个 Kafka 实例,并在该实例中创建专用于 OpenShift Container Platform Network Observability 的 Kafka 主题。如需更多信息,请参阅 AMQ Streams 的 Kafka 文档

先决条件

  • Kafka 已安装。红帽支持使用 AMQ Streams Operator 的 Kafka。

流程

  1. 在 Web 控制台中,进入到 OperatorsInstalled Operators
  2. 在 Network Observability Operator 的 Provided APIs 标题下,选择 Flow Collector
  3. 选择集群,然后点 YAML 选项卡。
  4. 修改 OpenShift Container Platform Network Observability Operator 的 FlowCollector 资源以使用 Kafka,如下例所示:

FlowCollector 资源中的 Kafka 配置示例

apiVersion: flows.netobserv.io/v1beta2
kind: FlowCollector
metadata:
  name: cluster
spec:
  deploymentModel: Kafka                                    1
  kafka:
    address: "kafka-cluster-kafka-bootstrap.netobserv"      2
    topic: network-flows                                    3
    tls:
      enable: false                                         4

1
spec.deploymentModel 设置为 Kafka,而不是 Direct 来启用 Kafka 部署模型。
2
spec.kafka.address 是指 Kafka bootstrap 服务器地址。如果需要,您可以指定一个端口,如 kafka-cluster-kafka-bootstrap.netobserv:9093,以便在端口 9093 上使用 TLS。
3
spec.kafka.topic 应与 Kafka 中创建的主题名称匹配。
4
spec.kafka.tls 可用于加密所有与带有 TLS 或 mTLS 的 Kafka 的通信。启用后,Kafka CA 证书必须作为 ConfigMap 或 Secret 提供,两者都位于部署了 flowlogs-pipeline 处理器组件的命名空间中(默认为 netobserv)以及 eBPF 代理被部署的位置(默认为 netobserv-privileged)。它必须通过 spec.kafka.tls.caCert 引用。使用 mTLS 时,客户端 secret 还必须在这些命名空间中可用(它们也可以使用 AMQ Streams User Operator 生成并使用 spec.kafka.tls.userCert )。

5.3. 导出增强的网络流数据

您可以将网络流发送到 Kafka、IPFIX、Red Hat build of OpenTelemetry 或所有三个版本。对于 Kafka 或 IPFIX,支持这些输入的任何处理器或存储(如 Splunk、Elasticsearch 或 Fluentd)都可以使用增强的网络流数据。对于 OpenTelemetry,网络流数据和指标可以导出到兼容的 OpenTelemetry 端点,如红帽构建的 OpenTelemetry、Jaeger 或 Prometheus。

先决条件

  • 您的 Kafka、IPFIX 或 OpenTelemetry 收集器端点可从 Network Observability flowlogs-pipeline pod 中提供。

流程

  1. 在 Web 控制台中,进入到 OperatorsInstalled Operators
  2. NetObserv OperatorProvided APIs 标题下,选择 Flow Collector
  3. 选择 cluster,然后选择 YAML 选项卡。
  4. 编辑 FlowCollector 以配置 spec.exporters,如下所示:

    apiVersion: flows.netobserv.io/v1beta2
    kind: FlowCollector
    metadata:
      name: cluster
    spec:
      exporters:
      - type: Kafka                         1
          kafka:
            address: "kafka-cluster-kafka-bootstrap.netobserv"
            topic: netobserv-flows-export   2
            tls:
              enable: false                 3
      - type: IPFIX                         4
          ipfix:
            targetHost: "ipfix-collector.ipfix.svc.cluster.local"
            targetPort: 4739
            transport: tcp or udp           5
     -  type: OpenTelemetry                 6
          openTelemetry:
            targetHost: my-otelcol-collector-headless.otlp.svc
            targetPort: 4317
            type: grpc                      7
            logs:                           8
              enable: true
            metrics:                        9
              enable: true
              prefix: netobserv
              pushTimeInterval: 20s         10
              expiryTime: 2m
       #    fieldsMapping:                  11
       #      input: SrcAddr
       #      output: source.address
    1 4 6
    您可以单独或同时将流导出到 IPFIX、OpenTelemetry 和 Kafka。
    2
    Network Observability Operator 将所有流导出到配置的 Kafka 主题。
    3
    您可以加密所有使用 SSL/TLS 或 mTLS 的 Kafka 的通信。启用后,Kafka CA 证书必须作为 ConfigMap 或 Secret 提供,两者都位于部署了 flowlogs-pipeline 处理器组件的命名空间中(默认为 netobserv)。它必须使用 spec.exporters.tls.caCert 引用。使用 mTLS 时,客户端 secret 还必须在这些命名空间中可用(它们也可以使用 AMQ Streams User Operator 生成并使用 spec.exporters.tls.userCert 引用)。
    5
    您可以选择指定传输。默认值为 tcp,但您也可以指定 udp
    7
    OpenTelemetry 连接的协议。可用的选项包括 httpgrpc
    8
    用于导出日志的 OpenTelemetry 配置,与为 Loki 创建的日志相同。
    9
    OpenTelemetry 用于导出指标,这与为 Prometheus 创建的指标相同。这些配置在 FlowCollector 自定义资源的 spec.processor.metrics.includeList 参数中指定,以及您使用 FlowMetrics 自定义资源定义的任何自定义指标。
    10
    指标被发送到 OpenTelemetry 收集器的时间间隔。
    11
    可选:Network Observability 网络流格式自动重命名为 OpenTelemetry 兼容格式。fieldsMapping 规格可让您自定义 OpenTelemetry 格式输出。例如,在 YAML 示例中,SrcAddr 是 Network Observability 输入字段,它会在 OpenTelemetry 输出中重命名 source.address。您可以在 "Network flow format reference" 中看到 Network Observability 和 OpenTelemetry 格式。

配置后,网络流数据可以以 JSON 格式发送到可用输出。如需更多信息,请参阅"网络流格式参考"。

其他资源

5.4. 更新流收集器资源

作为在 OpenShift Container Platform Web 控制台中编辑 YAML 的替代方法,您可以通过修补 flowcollector 自定义资源 (CR) 来配置规格,如 eBPF 抽样:

流程

  1. 运行以下命令来修补 flowcollector CR 并更新 spec.agent.ebpf.sampling 值:

    $ oc patch flowcollector cluster --type=json -p "[{"op": "replace", "path": "/spec/agent/ebpf/sampling", "value": <new value>}] -n netobserv"

5.5. 配置快速过滤器

您可以修改 FlowCollector 资源中的过滤器。可以使用双引号对值进行完全匹配。否则,会对文本值进行部分匹配。感叹号(!)字符放置在键的末尾,表示负效果。有关修改 YAML 的更多信息,请参阅示例 FlowCollector 资源。

注意

匹配类型"all"或"any of"的过滤器是用户可从查询选项进行修改的 UI 设置。它不是此资源配置的一部分。

以下是所有可用过滤器键的列表:

表 5.1. 过滤键
Universal*Source目的地描述

namespace

src_namespace

dst_namespace

过滤与特定命名空间相关的流量。

名称

src_name

dst_name

过滤与给定叶资源名称相关的流量,如特定 pod、服务或节点(用于 host-network 流量)。

kind

src_kind

dst_kind

过滤与给定资源类型相关的流量。资源类型包括叶资源 (Pod、Service 或 Node) 或所有者资源(Deployment 和 StatefulSet)。

owner_name

src_owner_name

dst_owner_name

过滤与给定资源所有者相关的流量;即工作负载或一组 pod。例如,它可以是 Deployment 名称、StatefulSet 名称等。

resource

src_resource

dst_resource

过滤与特定资源相关的流量,它们通过其规范名称表示,以唯一标识它。规范表示法是 kind.namespace.name 用于命名空间类型,或 node.name 用于节点。例如,Deployment.my-namespace.my-web-server

address

src_address

dst_address

过滤与 IP 地址相关的流量。支持 IPv4 和 IPv6。还支持 CIDR 范围。

mac

src_mac

dst_mac

过滤与 MAC 地址相关的流量。

port

src_port

dst_port

过滤与特定端口相关的流量。

host_address

src_host_address

dst_host_address

过滤与运行 pod 的主机 IP 地址相关的流量。

protocol

N/A

N/A

过滤与协议相关的流量,如 TCP 或 UDP。

  • 任何源或目的地的通用密钥过滤器。例如,过滤 name: 'my-pod' 表示从 my-pod 和所有流量到 my-pod 的所有流量,无论使用的匹配类型是什么,无论是 匹配所有 还是 匹配任何

5.6. 资源管理和性能注意事项

Network Observability 所需的资源量取决于集群的大小以及集群要存储可观察数据的要求。要管理集群的资源并设置性能标准,请考虑配置以下设置。配置这些设置可能会满足您的最佳设置和可观察性需求。

以下设置可帮助您管理 outset 中的资源和性能:

eBPF Sampling
您可以设置 Sampling 规格 spec.agent.ebpf.sampling,以管理资源。较小的抽样值可能会消耗大量计算、内存和存储资源。您可以通过指定一个抽样比率值来缓解这个问题。100 表示每 100 个流进行 1 个抽样。值 01 表示捕获所有流。较小的值会导致返回的流和派生指标的准确性增加。默认情况下,eBPF 抽样设置为 50,因此每 50 个流抽样 1 个。请注意,更多抽样流也意味着需要更多存储。考虑以默认值开始,并逐步优化,以确定您的集群可以管理哪些设置。
限制或排除接口
通过为 spec.agent.ebpf.interfacesspec.agent.ebpf.excludeInterfaces 设置值来减少观察到的流量。默认情况下,代理获取系统中的所有接口,但 excludeInterfaceslo (本地接口)中列出的接口除外。请注意,接口名称可能会因使用的 Container Network Interface (CNI) 而异。

以下设置可用于在 Network Observability 运行后对性能进行微调:

资源要求和限制
使用 spec.agent.ebpf.resourcesspec.processor.resources 规格,将资源要求和限制调整为集群中预期的负载和内存用量。800MB 的默认限制可能足以满足大多数中型集群。
缓存最大流超时
使用 eBPF 代理的 spec.agent.ebpf.cacheMaxFlowsspec.agent.ebpf.cacheActiveTimeout 规格来控制代理报告的频率。较大的值会导致代理生成较少的流量,与较低 CPU 负载相关联。但是,较大的值会导致内存消耗稍有更高的,并可能会在流集合中生成更多延迟。

5.6.1. 资源注意事项

下表概述了具有特定工作负载的集群的资源注意事项示例。

重要

表中概述的示例演示了为特定工作负载量身定制的场景。每个示例仅作为基准,可以进行调整以适应您的工作负载需求。

表 5.2. 资源建议
 Extra small (10 个节点)Small (25 个节点)Medium (65 个节点) [2]Large (120 个节点) [2]

Worker 节点 vCPU 和内存

4 个 vCPU| 16GiB 内存 [1]

16 个 vCPU| 64GiB 内存 [1]

16 个 vCPU| 64GiB 内存 [1]

16 个 vCPU| 64GiB Mem [1]

LokiStack 大小

1x.extra-small

1x.small

1x.small

1x.medium

Network Observability 控制器内存限值

400Mi (默认)

400Mi (默认)

400Mi (默认)

400Mi (默认)

eBPF 抽样率

50 (默认)

50 (默认)

50 (默认)

50 (默认)

eBPF 内存限值

800Mi (默认)

800Mi (默认)

800Mi (默认)

1600Mi

cacheMaxSize

50,000

100,000 (默认)

100,000 (默认)

100,000 (默认)

FLP 内存限制

800Mi (默认)

800Mi (默认)

800Mi (默认)

800Mi (默认)

FLP Kafka 分区

N/A

48

48

48

Kafka 消费者副本

N/A

6

12

18

Kafka 代理

N/A

3 (默认)

3 (默认)

3 (默认)

  1. 使用 AWS M6i 实例测试。
  2. 除了此 worker 及其控制器外,还会测试 3 infra 节点 (size M6i.12xlarge) 和 1 个工作负载节点 (size M6i.8xlarge)。

5.6.2. 总内存和 CPU 用量

下表包括了 3 个不同的测试(Test 1Test 2Test 3)的集群的总资源使用数据,抽样值为 1、50 和 400。这三个测试间的不同:

  • Test 1 考虑 OpenShift Container Platform 集群中的命名空间、Pod 和服务总数,将负载放置在 eBPF 代理中,它代表了一个具有特定集群大小的带有大量工作负载的用例。例如,Test 1 包括 76 个命名空间,5153 个 Pod 和 2305 个服务。
  • Test 2 考虑到具有高入口流量的环境。
  • Test 3 考虑 OpenShift Container Platform 集群中的命名空间、Pod 和服务总数,将负载放置在 eBPF 代理中,它代表了一个具有特定集群大小的带有比 Test 1 更大工作负载的用例。例如,Test 3 包括 553 个命名空间,6998 个 Pod 和 2508 个服务。

因为在不同的测试中的不同类型的集群用例只是一个示例,所以此表中的数字不能线性比较,它们旨在用作评估个人集群用途的基准测试。表中概述的示例演示了为特定工作负载量身定制的场景。每个示例仅作为基准,可以进行调整以适应您的工作负载需求。

注意

导出到 Prometheus 的指标可能会影响资源使用量。指标的 cardinality 值可帮助确定资源受到影响量。如需更多信息,请参阅附加资源部分中的"网络流格式"。

表 5.3. 总平均资源使用量
抽样值参数Test 1 (25 个节点)Test 2 (65 个节点)Test 3 (120 个节点)

sampling = 1

带有 Loki

 

总 NetObserv CPU 用量

3.24

3.42

7.30

总 NetObserv RSS (内存)用量

14.09 GB

22.56 GB

36.46 GB

没有 Loki

 

总 NetObserv CPU 用量

2.40

2.43

5.59

总 NetObserv RSS (内存)用量

6.85 GB

10.39 GB

13.92 GB

Sampling = 50

带有 Loki

 

总 NetObserv CPU 用量

2.04

2.36

3.31

总 NetObserv RSS (内存)用量

8.79 GB

19.14 GB

21.07 GB

没有 Loki

 

总 NetObserv CPU 用量

1.55

1.64

2.70

总 NetObserv RSS (内存)用量

6.71 GB

10.15 GB

14.82 GB

Sampling = 400

带有 Loki

 

总 NetObserv CPU 用量

1.71

1.44

2.36

总 NetObserv RSS (内存)用量

8.21 GB

16.02 GB

17.44 GB

没有 Loki

 

总 NetObserv CPU 用量

1.31

1.06

1.83

总 NetObserv RSS (内存)用量

7.01 GB

10.70 GB

13.26 GB

概述:此表显示 Network Observability 的平均资源使用量 (Agents+FLP+Kafka+Loki)。

其他资源

第 6 章 Network Policy

作为具有 admin 角色的用户,您可以为 netobserv 命名空间创建一个网络策略,以保护对 Network Observability Operator 的入站访问。

6.1. 使用 FlowCollector 自定义资源配置 ingress 网络策略

您可以通过将 spec.NetworkPolicy.enable 规格设置为 true,将 FlowCollector 自定义资源 (CR) 配置为 Network Observability 部署入口网络策略。默认情况下,规格为 false

如果您在具有网络策略的不同命名空间中安装 Loki、Kafka 或任何导出器,您必须确保 Network Observability 组件可以与它们通信。考虑以下有关您的设置的信息:

  • 到 Loki 的连接(由 FlowCollector CR 中的 spec.loki 参数定义)
  • 到 Kafka 的连接(由 FlowCollector CR 的 spec.kafka 参数定义)
  • 到任何导出器的连接(由 FlowCollector CR spec.exporters 参数定义)
  • 如果您使用 Loki 并将其包含在策略目标中,到外部对象存储的连接(在 LokiStack 相关的 secret 中定义的)

流程

  1. .在 Web 控制台中,进入 OperatorsInstalled Operators 页。
  2. Network ObservabilityProvided APIs 标题下,选择 Flow Collector
  3. 选择 cluster,然后选择 YAML 选项卡。
  4. 配置 FlowCollector CR。示例配置示例如下:

    网络策略的 FlowCollector CR 示例

    apiVersion: flows.netobserv.io/v1beta2
    kind: FlowCollector
    metadata:
      name: cluster
    spec:
      namespace: netobserv
      networkPolicy:
        enable: true   1
        additionalNamespaces: ["openshift-console", "openshift-monitoring"] 2
    # ...

    1
    默认情况下,enable 值为 false
    2
    默认值为 ["openshift-console", "openshift-monitoring"]

6.2. 为 Network Observability 创建网络策略

如果要进一步自定义 netobservnetobserv-privileged 命名空间的网络策略,您必须禁用来自 FlowCollector CR 的策略的受管安装,并创建自己的。您可以使用在 FlowCollector CR 中启用的网络策略资源作为以下流程的起点:

netobserv 网络策略示例

apiVersion: networking.k8s.io/v1
kind: NetworkPolicy
spec:
  ingress:
  - from:
    - podSelector: {}
    - namespaceSelector:
        matchLabels:
          kubernetes.io/metadata.name: netobserv-privileged
  - from:
    - namespaceSelector:
        matchLabels:
          kubernetes.io/metadata.name: openshift-console
    ports:
    - port: 9001
      protocol: TCP
  - from:
    - namespaceSelector:
        matchLabels:
          kubernetes.io/metadata.name: openshift-monitoring
  podSelector: {}
  policyTypes:
  - Ingress

netobserv-privileged 网络策略示例

apiVersion: networking.k8s.io/v1
kind: NetworkPolicy
metadata:
  name: netobserv
  namespace: netobserv-privileged
spec:
  ingress:
  - from:
    - namespaceSelector:
        matchLabels:
          kubernetes.io/metadata.name: openshift-monitoring
  podSelector: {}
  policyTypes:
  - Ingress

流程

  1. 进入到 NetworkingNetworkPolicies
  2. Project 下拉菜单中选择 netobserv 项目。
  3. 为策略命名。在本例中,策略名为 allow-ingress
  4. Add ingress rule 三次来创建三个入站规则。
  5. 指定以下内容:

    1. 对第一个 Ingress 规则设置以下规格:

      1. Add allowed source 下拉菜单中选择 Allow pods
    2. 为第二个 Ingress 规则设置以下规格 :

      1. Add allowed source 下拉菜单中选择 Allow pods
      2. + Add namespace selector
      3. 添加标签 kubernetes.io/metadata.name,以及选择器 openshift-console
    3. 为第三个 Ingress 规则设置以下规格 :

      1. Add allowed source 下拉菜单中选择 Allow pods
      2. + Add namespace selector
      3. 添加标签 kubernetes.io/metadata.name,和选择器 openshift-monitoring

验证

  1. 进入到 ObserveNetwork Traffic
  2. 查看 Traffic Flows 选项卡,或任何标签页,以验证是否显示数据。
  3. 进入到 ObserveDashboards。在 NetObserv/Health 选择中,验证流是否嵌套并发送到 Loki,这在第一个图形中表示。

第 7 章 观察网络流量

作为管理员,您可以观察 OpenShift Container Platform 控制台中的网络流量,以了解故障排除和分析的详细故障排除和分析。此功能帮助您从不同的流量流的图形表示获得见解。观察网络流量有几种可用的视图。

7.1. 从 Overview 视图观察网络流量

Overview 视图显示集群中网络流量流的整体聚合指标。作为管理员,您可以使用可用的显示选项监控统计信息。

7.1.1. 使用 Overview 视图

作为管理员,您可以进入到 Overview 视图来查看流速率统计的图形表示。

流程

  1. 进入到 ObserveNetwork Traffic
  2. Network Traffic 页面中,点 Overview 选项卡。

您可以通过点菜单图标来配置每个流速率数据的范围。

7.1.2. 为 Overview 视图配置高级选项

您可以使用高级选项自定义图形视图。要访问高级选项,点 Show advanced options。您可以使用 Display options 下拉菜单在图形中配置详情。可用的选项如下:

  • Scope :选择查看网络流量流在其中进行的组件。您可以将范围设置为 Node,Namespace,Owner,Zones,ClusterResourceOwner 是一个资源聚合。Resource 可以是一个 pod、服务、节点(主机网络流量),或未知 IP 地址。默认值为 Namespace
  • Truncate labels:从下拉列表中选择标签所需的宽度。默认值为 M
7.1.2.1. 管理面板和显示

您可以选择显示所需的面板,对它们进行重新排序,并专注于特定的面板。要添加或删除面板,请点 Manage panels

默认情况下会显示以下面板:

  • 顶级 X 平均字节率
  • 顶级 X 字节率堆栈总计

Manage panels 中可以添加其他面板:

  • 顶级 X 平均数据包率
  • 顶级 X 数据包速率堆栈总计

通过 查询选项,您可以选择是否显示 Top 5Top 10Top 15 率。

7.1.3. 数据包丢弃跟踪

您可以在 Overview 视图中使用数据包丢失来配置网络流记录的图形表示。通过使用 eBPF 追踪点 hook,您可以获得对 TCP、UDP、SCTP、ICMPv4 和 ICMPv6 协议的数据包丢弃的宝贵见解,这可能会导致以下操作:

  • 身份识别:指定发生数据包丢弃的确切位置和网络路径。确定特定设备、接口或路由是否更易于丢弃。
  • 根本原因分析:检查 eBPF 程序收集的数据,以了解数据包丢弃的原因。例如,它们是拥塞、缓冲区问题还是特定的网络事件的结果?
  • 性能优化:通过数据包丢弃的清晰了解,您可以采取步骤来优化网络性能,如调整缓冲区大小、重新配置路由路径或实施服务质量(QoS)测量。

启用数据包丢弃跟踪后,您可以在 Overview 中默认看到以下面板:

  • 顶级 X 数据包丢弃状态的堆栈为总计
  • 顶级 X 数据包丢弃会导致堆栈总计
  • 顶级 X 平均丢弃的数据包率
  • 顶级 X 丢弃的数据包速率堆栈为总计

可以在管理面板中添加其他数据包丢弃面板 :

  • 顶级 X 平均丢弃的字节率
  • 顶级 X 丢弃的字节速率堆栈为总计
7.1.3.1. 数据包丢弃的类型

Network Observability 检测到两种类型的数据包丢弃:host drops 和 OVS drops。主机丢弃的带有 SKB_DROP 前缀,OVS drops 带有 OVS_DROP 前缀。丢弃流在 流量流 表的侧面面板中显示,以及指向每个丢弃类型的描述的链接。主机丢弃原因示例如下:

  • SKB_DROP_REASON_NO_SOCKET :由于缺少套接字而丢弃数据包。
  • SKB_DROP_REASON_TCP_CSUM :由于 TCP checksum 错误而丢弃的数据包。

OVS 丢弃原因示例如下:

  • OVS_DROP_LAST_ACTION :OVS 数据包因为隐式丢弃操作而丢弃,例如因为配置了网络策略。
  • OVS_DROP_IP_TTL :由于 IP TTL 已过期的 OVS 数据包丢弃。

有关启用和使用数据包丢弃跟踪的更多信息,请参阅本节的附加资源

7.1.4. DNS 跟踪

您可以在 Overview 视图中配置对网络流的域名系统(DNS)跟踪的图形表示。使用带有扩展 Berkeley Packet Filter (eBPF)追踪点 hook 的 DNS 跟踪可以满足各种目的:

  • 网络监控 :深入了解 DNS 查询和响应,帮助网络管理员识别异常模式、潜在瓶颈或性能问题。
  • 安全分析:拒绝 DNS 活动,如恶意软件使用的域名生成算法(DGA),或者识别可能指示安全漏洞的未授权 DNS 解析。
  • 故障排除:通过追踪 DNS 解析步骤、跟踪延迟和识别错误配置来调试与 DNS 相关的问题。

默认情况下,当启用 DNS 跟踪时,您可以在 Overview 中的 donut 或 line chart 中看到以下非空指标:

  • 顶级 X DNS 响应代码
  • 顶级 X 平均 DNS 延迟数
  • 顶部 X 90th percentile DNS 延迟

可以在管理面板中添加其他 DNS 跟踪面板:

  • 底部 X 最小 DNS 延迟
  • 顶级 X 最大 DNS 延迟
  • 顶级 X 99th percentile DNS latencies

IPv4 和 IPv6 UDP 和 TCP 协议支持此功能。

有关启用和使用此视图的更多信息,请参阅本节中的 附加资源

7.1.5. 往返时间 (RTT)

您可以使用 TCP smoothed Round-Trip Time (sRTT) 来分析网络流延迟。您可以使用在 fentry/tcp_rcv_ established eBPF hookpoint 捕获的 RTT 来读取来自 TCP 套接字的 sRTT 来帮助实现:

  • 网络监控:深入了解 TCP 延迟,帮助网络管理员识别异常模式、潜在瓶颈或性能问题。
  • 故障排除:通过跟踪延迟和识别错误配置来调试与 TCP 相关的问题。

默认情况下,当启用 RTT 时,您可以看到 Overview 中代表的以下 TCP RTT 指标:

  • 总的 Top X 90th percentile TCP Round Trip Time
  • 总的 Top X average TCP Round Trip Time
  • 总的 Bottom X minimum TCP Round Trip Time

可以在管理面板中添加其他 RTT 面板:

  • 总的 Top X maximum TCP Round Trip Time
  • 总的 Top X 99th percentile TCP Round Trip Time

有关启用和使用此视图的更多信息,请参阅本节中的 附加资源

其他资源

7.1.6. eBPF 流规则过滤

您可以使用基于规则的过滤来控制缓存在 eBPF 流表中的数据包的数量。例如,可以指定一个过滤,只记录来自端口 100 的数据包。然后,只有与过滤匹配的数据包才会被缓存,不会缓存其他数据包。

7.1.6.1. 入口和出口流量过滤

CIDR 表示法通过将基本 IP 地址与前缀长度相结合来有效地表示 IP 地址范围。对于入口和出口流量,首先使用源 IP 地址来匹配使用 CIDR 表示法配置的过滤规则。如果存在匹配项,则过滤将继续。如果没有匹配项,则使用目标 IP 匹配使用 CIDR 表示法配置的过滤规则。

在匹配源 IP 或目标 IP CIDR 后,您可以使用 peerIP 找出特定的端点以区分数据包的目标 IP 地址。根据置备的操作,流数据会在 eBPF 流表中缓存,或者不缓存。

7.1.6.2. 仪表板和指标集成

启用这个选项后,eBPF 代理统计Netobserv/Health 仪表板会提供一个过滤的流速率视图。另外,在 ObserveMetrics 中,您可以查询 netobserv_agent_filtered_flows_total 来观察 FlowFilterAcceptCounter,FlowFilterNoMatchCounterFlowFilterRecjectCounter 的原因。

7.1.6.3. 流过滤配置参数

流过滤规则包括了必须的和可选的参数。

表 7.1. 所需的配置参数
参数描述

enable

enable 设置为 true 以启用 eBPF 流过滤功能。

cidr

为流过滤规则提供 IP 地址和 CIDR 掩码。支持 IPv4 和 IPv6 地址格式。如果要与任何 IP 匹配,可以使用 0.0.0.0/0(用于 IPv4),或 ::/0(用于 IPv6)。

action

描述为流过滤规则执行的操作。可能的值为 AcceptReject

  • 对于 Accept 操作匹配规则,流数据在 eBPF 表中缓存,并使用全局指标 FlowFilterAcceptCounter 更新。
  • 如果匹配规则的操作是 Reject,流数据将被丢弃,且不会在 eBPF 表中缓存。流数据使用全局指标 FlowFilterRejectCounter 更新。
  • 如果规则不匹配,流会在 eBPF 表中缓存,并使用全局指标 FlowFilterNoMatchCounter 更新。
表 7.2. 可选的配置参数
参数描述

direction

定义流过滤规则的方向。可能的值为 IngressEgress

protocol

定义流过滤规则的协议。可能的值有 TCPUDPSCTPICMPICMPv6

tcpFlags

定义用于过滤流的 TCP 标志。可能的值包括 SYN, SYN-ACK, ACK, FIN, RST, PSH, URG, ECE, CWR, FIN-ACK, 和 RST-ACK

ports

定义用于过滤流的端口。它可用于源或目标端口。要过滤一个单一端口,使用一个整数值。例如 ports: 80。要过滤一系列端口,使用"开始-结束"范围形式的字符串。例如 ports: "80-100"

sourcePorts

定义用于过滤流的源端口。要过滤一个单一端口,使用一个整数值。例如 sourcePorts: 80。要过滤一系列端口,使用"开始-结束"范围形式的字符串。例如 sourcePorts: "80-100"

destPorts

DestPorts 定义用于过滤流的目标端口。要过滤一个单一端口,使用一个整数值。例如 destPorts: 80。要过滤一系列端口,使用"开始-结束"范围形式的字符串。例如 destPorts: "80-100"

icmpType

定义用于过滤流的 ICMP 类型。

icmpCode

定义用于过滤流的 ICMP 代码。

peerIP

定义用于过滤流的 IP 地址,例如:10.10.10.10

7.2. 从流量流视图观察网络流量

流量流 视图显示网络流的数据以及表中的流量数量。作为管理员,您可以使用流量流表监控应用程序间的流量数量。

7.2.1. 使用流量流视图

作为管理员,您可以进入 流量流 表来查看网络流信息。

流程

  1. 进入到 ObserveNetwork Traffic
  2. Network Traffic 页面中,点 流量流 选项卡。

您可以点击每行来获取对应的流信息。

7.2.2. 为流量流视图配置高级选项

您可以使用 Show advanced options 自定义和导出视图。您可以使用 Display options 下拉菜单设置行大小。默认值为 Normal

7.2.2.1. 管理列

您可以选择显示所需的列,并对它们进行重新排序。若要管理列,可点 Manage 列

7.2.2.2. 导出流量流数据

您可以从流量流视图导出数据。

流程

  1. Export data
  2. 在弹出窗口中,您可以选择 Export all data 复选框,以导出所有数据,然后清除复选框以选择要导出的必填字段。
  3. 单击 Export

7.2.3. 使用对话跟踪

作为管理员,您可以对属于同一对话的网络流进行分组。对话被定义为一组由 IP 地址、端口和协议标识的对等点,从而产生唯一的 Conversation Id。您可以在 web 控制台中查询对话事件。这些事件在 web 控制台中表示,如下所示:

  • Conversation start :连接启动或 TCP 标记被截获时发生此事件
  • Conversation tick:此事件在连接处于活跃状态时根据 FlowCollector spec.processor.conversationHeartbeatInterval 参数中定义的每个指定间隔发生。
  • Conversation end :当达到 FlowCollector spec.processor.conversationEndTimeout 参数或 TCP 标志被截获时,会发生此事件。
  • Flow :这是在指定间隔内的网络流量流。

流程

  1. 在 Web 控制台中,进入到 OperatorsInstalled Operators
  2. NetObserv OperatorProvided APIs 标题下,选择 Flow Collector
  3. 选择 cluster,然后选择 YAML 选项卡。
  4. 配置 FlowCollector 自定义资源,以便根据您的观察需求设置 spec.processor.logTypes, conversationEndTimeout, 和 conversationHeartbeatInterval 参数。示例配置示例如下:

    配置 FlowCollector 以对话跟踪

    apiVersion: flows.netobserv.io/v1beta2
    kind: FlowCollector
    metadata:
      name: cluster
    spec:
     processor:
      logTypes: Flows                              1
      advanced:
       conversationEndTimeout: 10s                 2
       conversationHeartbeatInterval: 30s          3

    1
    logTypes 设置为 Flows 时,只会导出 Flow 事件。如果将值设为 All,则会在 Network Traffic 页面中导出并看到对话和流事件。要只专注于对话事件,您可以指定 Conversations,它会导出 Conversation start, Conversation tick and Conversation end 事件;或指定 EndedConversations,它只导出 Conversation end 事件。All 对于存储的请求最高,EndedConversations 对于存储的要求最低。
    2
    Conversation end 事件表示达到了 conversationEndTimeout,或 TCP 标志被截获。
    3
    Conversation tick 事件表示当网络连接活跃时,在 FlowCollector conversationHeartbeatInterval 参数中定义的每个指定间隔。
    注意

    如果您更新了 logType 选项,则之前选择中的流不会从控制台插件中清除。例如,如果您最初将 logType 设置为 Conversations,持续到 10 AM,然后移到 EndedConversations,控制台插件会显示 10 AM 之前的所有对话事件,且仅在 10 AM 后终止对话。

  5. 刷新 Traffic flows 标签页中的 Network Traffic。通知请注意,有两个新列: Event/TypeConversation Id。当 Flow 是所选查询选项时,所有 Event/Type 字段都是 Flow
  6. 选择 Query Options 并选择 Log Type,Conversation。现在,Event/Type 会显示所有所需的对话事件。
  7. 接下来,您可以过滤侧面板中的 Conversation 和 Flow 日志类型选项的特定 对话 ID 或切换。

7.2.4. 使用数据包丢弃

当网络流数据的一个或多个数据包无法访问其目的地时,会发生数据包丢失。您可以通过将 FlowCollector 编辑到以下 YAML 示例中的规格来跟踪这些丢弃。

重要

启用此功能时,CPU 和内存用量会增加。

流程

  1. 在 Web 控制台中,进入到 OperatorsInstalled Operators
  2. NetObserv OperatorProvided APIs 标题下,选择 Flow Collector
  3. 选择 集群,然后选择 YAML 选项卡。
  4. 为数据包丢弃配置 FlowCollector 自定义资源,例如:

    FlowCollector 配置示例

    apiVersion: flows.netobserv.io/v1beta2
    kind: FlowCollector
    metadata:
      name: cluster
    spec:
      namespace: netobserv
      agent:
        type: eBPF
        ebpf:
          features:
           - PacketDrop            1
          privileged: true         2

    1
    您可以通过列出 spec.agent.ebpf.features 规格列表中的 PacketDrop 参数开始报告每个网络流的数据包丢弃。
    2
    对于数据包丢弃跟踪,spec.agent.ebpf.privileged 规格值必须是 true

验证

  • 刷新 Network Traffic 页面时,OverviewTraffic FlowTopology 视图会显示有关数据包丢弃的新信息:

    1. Manage 面板中选择新选择,以选择要在 Overview 中显示的数据包丢弃的图形视觉化。
    2. Manage 列中选择新选择,以选择要在流量流表中显示哪些数据包丢弃信息。

      1. 流量流视图 中,您还可以展开侧面板来查看有关数据包丢弃的更多信息。主机丢弃的带有 SKB_DROP 前缀,OVS drops 带有 OVS_DROP 前缀。
    3. Topology 视图中,会显示红色的行,其中出现 drops。

7.2.5. 使用 DNS 跟踪

使用 DNS 跟踪,您可以监控网络、进行安全分析并对 DNS 问题进行故障排除。您可以通过将 FlowCollector 编辑到以下 YAML 示例中的规格来跟踪 DNS。

重要

启用这个功能时,在 eBPF 代理中观察到 CPU 和内存用量。

流程

  1. 在 Web 控制台中,进入到 OperatorsInstalled Operators
  2. Network ObservabilityProvided APIs 标题下,选择 Flow Collector
  3. 选择 cluster,然后选择 YAML 选项卡。
  4. 配置 FlowCollector 自定义资源。示例配置示例如下:

    为 DNS 跟踪配置 FlowCollector

    apiVersion: flows.netobserv.io/v1beta2
    kind: FlowCollector
    metadata:
      name: cluster
    spec:
      namespace: netobserv
      agent:
        type: eBPF
        ebpf:
          features:
           - DNSTracking           1
          sampling: 1              2

    1
    您可以设置 spec.agent.ebpf.features 参数列表,以便在 web 控制台中启用每个网络流的 DNS 跟踪。
    2
    您可以将 sampling 设置为 1,以获得更准确的指标并捕获 DNS 延迟。如果 sampling 的值大于 1,您可以使用 DNS Response CodeDNS Id 观察流,且不太可能观察 DNS 延迟
  5. 刷新 Network Traffic 页面时,您可以选择在 OverviewTraffic Flow 视图和可以应用的新过滤器中查看新的 DNS 表示。

    1. Manage 面板中选择新的 DNS 选项,在 Overview 中显示图形视觉化和 DNS 指标。
    2. Manage 列中选择新选择,将 DNS 列添加到 流量流视图 中。
    3. 过滤特定 DNS 指标,如 DNS IdDNS Error DNS LatencyDNS Response Code,并在侧面面板中查看更多信息。默认情况下会显示 DNS LatencyDNS Response Code 列。
注意

TCP 握手数据包没有 DNS 标头。在 DNS LatencyID响应代码 值 "n/a" 的流量流中会显示没有 DNS 标头的 TCP 协议流。您可以过滤掉流数据,以只查看使用通用过滤器 "DNSError" 等于 "0" 的 DNS 标头的流。

7.2.6. 使用 RTT 追踪

您可以通过将 FlowCollector 编辑到以下 YAML 示例中的规格来跟踪 RTT。

流程

  1. 在 Web 控制台中,进入到 OperatorsInstalled Operators
  2. NetObserv OperatorProvided APIs 标题中,选择 Flow Collector
  3. 选择 集群,然后选择 YAML 选项卡。
  4. 为 RTT 追踪配置 FlowCollector 自定义资源,例如:

    FlowCollector 配置示例

    apiVersion: flows.netobserv.io/v1beta2
    kind: FlowCollector
    metadata:
      name: cluster
    spec:
      namespace: netobserv
      agent:
        type: eBPF
        ebpf:
          features:
           - FlowRTT   1

    1
    您可以通过列出 spec.agent.ebpf.features 规格列表中的 FlowRTT 参数来启动追踪 RTT 网络流。

验证

刷新 Network Traffic 页面时,OverviewTraffic FlowTopology 视图会显示有关 RTT 的新信息:

  1. Overview 中,在 Manage 面板中选择新选择,以选择要显示的 RTT 的图形视觉化。
  2. Traffic flows 表中,可以看到 Flow RTT 列,您可以在 Manage 列中管理显示。
  3. 流量流视图 中,您还可以展开侧面板来查看有关 RTT 的更多信息。

    过滤示例

    1. Common 过滤 → Protocol
    2. 根据 TCPIngress 方向过滤网络流数据,并查找大于 10,000,000 纳秒(10ms)的 FlowRTT 值。
    3. 删除 Protocol 过滤。
    4. Common 过滤器中过滤大于 0 的 Flow RTT 值。
  4. Topology 视图中,点 Display 选项下拉菜单。然后点 edge labels 下拉列表中的 RTT
7.2.6.1. 使用直方图

您可以点 Show histogram 来显示工具栏视图,以使用栏图的形式可视化流历史记录。histogram 显示一段时间内的日志数量。您可以选择直方图的一部分在下面的工具栏中过滤网络流数据。

7.2.7. 使用可用区

您可以配置 FlowCollector 以收集有关集群可用区的信息。这可让您使用应用到节点的 topology.kubernetes.io/zone 标签值增强网络流数据。

流程

  1. 在 Web 控制台中,进入 OperatorsInstalled Operators
  2. NetObserv OperatorProvided APIs 标题下,选择 Flow Collector
  3. 选择 cluster,然后选择 YAML 选项卡。
  4. 配置 FlowCollector 自定义资源,使 spec.processor.addZone 参数设置为 true。示例配置示例如下:

    为可用区集合配置 FlowCollector

    apiVersion: flows.netobserv.io/v1beta2
    kind: FlowCollector
    metadata:
      name: cluster
    spec:
    # ...
     processor:
       addZone: true
    # ...

验证

刷新 Network Traffic 页面时,OverviewTraffic FlowTopology 视图会显示有关可用区的新信息:

  1. Overview 选项卡中,您可以将 Zones 视为可用 Scope
  2. Network TrafficTraffic flows 中,Zone 可以在 SrcK8S_Zone 和 DstK8S_Zone 字段下查看。
  3. Topology 视图中,您可以将 Zones 设置为 ScopeGroup

7.2.8. 使用全局规则过滤 eBPF 流数据

您可以使用全局规则配置 FlowCollector 来过滤 eBPF 流,以控制在 eBPF 流表中缓存的数据包流。

流程

  1. 在 Web 控制台中,进入到 OperatorsInstalled Operators
  2. Network ObservabilityProvided APIs 标题下,选择 Flow Collector
  3. 选择 集群,然后选择 YAML 选项卡。
  4. 配置 FlowCollector 自定义资源,类似以下示例配置:

    例 7.1. 过滤到特定 Pod IP 端点的 Kubernetes 服务流量

    apiVersion: flows.netobserv.io/v1beta2
    kind: FlowCollector
    metadata:
      name: cluster
    spec:
      namespace: netobserv
      deploymentModel: Direct
      agent:
        type: eBPF
        ebpf:
          flowFilter:
            action: Accept  1
            cidr: 172.210.150.1/24 2
            protocol: SCTP
            direction: Ingress
            destPortRange: 80-100
            peerIP: 10.10.10.10
            enable: true    3
    1
    必需的 action 参数描述了为流过滤规则执行的操作。可能的值有 AcceptReject
    2
    必需的 cidr 参数为流过滤规则提供 IP 地址和子网掩码,并支持 IPv4 和 IPv6 地址格式。如果要匹配任何 IP 地址,您可以使用 0.0.0.0/0(用于 IPv4),::/0(用于 IPv6)。
    3
    您必须将 spec.agent.ebpf.flowFilter.enable 设置为 true 才能启用此功能。

    例 7.2. 请参阅流到集群外的任何地址

    apiVersion: flows.netobserv.io/v1beta2
    kind: FlowCollector
    metadata:
      name: cluster
    spec:
      namespace: netobserv
      deploymentModel: Direct
      agent:
        type: eBPF
        ebpf:
          flowFilter:
            action: Accept  1
            cidr: 0.0.0.0/0 2
            protocol: TCP
            direction: Egress
            sourcePort: 100
            peerIP: 192.168.127.12 3
            enable: true    4
    1
    您可以根据 flowFilter 规格中的条件 Accept 流。
    2
    cidr0.0.0.0/0 匹配任何 IP 地址。
    3
    peerIP 被配置为 192.168.127.12 后的流。
    4
    您必须将 spec.agent.ebpf.flowFilter.enable 设置为 true 才能启用此功能。

7.3. 从 Topology 视图中观察网络流量

Topology 视图提供了网络流和流量数量的图形表示。作为管理员,您可以使用 Topology 视图监控应用程序间的流量数据。

7.3.1. 使用 Topology 视图

作为管理员,您可以进入到 Topology 视图来查看组件的详情和指标。

流程

  1. 进入到 ObserveNetwork Traffic
  2. Network Traffic 页面中,点 Topology 选项卡。

您可以点 Topology 中的每个组件来查看组件的详情和指标。

7.3.2. 为 Topology 视图配置高级选项

您可以使用 Show advanced options 自定义和导出视图。高级选项视图具有以下功能:

  • Find in view: 要在视图中搜索所需组件。
  • Display options :要配置以下选项:

    • Edge labels :将指定的测量显示为边缘标签。默认值为显示 Average rate(以 Bytes 为单位)。
    • Scope :选择网络流量流之间的组件范围。默认值为 Namespace
    • :通过对组件进行分组来充分了解所有权。默认值为 None
    • Layout:要选择图形表示的布局。默认值为 ColaNoForce
    • 显示 :要选择需要显示的详细信息。默认检查所有选项。可以选项为:Edges, Edges label, 和 Badges
    • Truncate labels:从下拉列表中选择标签所需的宽度。默认值为 M
    • 折叠组 :要展开或折叠组。默认会扩展组。如果 Groups 的值为 None,这个选项会被禁用。
7.3.2.1. 导出拓扑视图

要导出视图,点 Export topology view。该视图以 PNG 格式下载。

7.4. 过滤网络流量

默认情况下,Network Traffic 页面根据 FlowCollector 实例中配置的默认过滤器显示集群中的流量流数据。您可以通过更改 preset 过滤器,使用过滤器选项观察所需的数据。

查询选项

您可以使用 Query Options 来优化搜索结果,如下所示:

  • 日志类型 :可用选项 ConversationFlows 提供了按日志类型查询流的能力,如流日志、新对话、完成对话和心跳,这是长期对话的定期记录。对话是同一对等点之间的流聚合。
  • Match filters:您可以确定高级过滤器中选择的不同过滤器参数之间的关系。可用的选项包括 Match allMatch anyMatch all 提供与所有值都匹配的结果,而 Match any 则提供与输入的任何值匹配的结果。默认值为 Match all
  • DataSource :您可以选择用于查询的数据源: LokiPrometheusAuto。当使用 Prometheus 而不是 Loki 用作数据源 时,性能会有显著的提高,但 Prometheus 支持的过滤和聚合的功能有限。默认数据源是 Auto。如果查询支持,使用 Prometheus,如果查询不支持 Prometheus,则使用 Loki。
  • 丢弃过滤器 :您可以使用以下查询选项查看不同的丢弃数据包级别:

    • 完全丢弃 显示带有完全丢弃的数据包的流记录。
    • 包含丢弃 显示包含丢弃但可以发送的流记录。
    • 没有丢弃 显示包含已发送数据包的记录。
    • All 显示上述所有记录。
  • Limit:内部后端查询的数据限制。根据匹配和过滤器设置,流量流数据的数量显示在指定的限制中。
快速过滤器
Quick 过滤器 下拉菜单中的默认值在 FlowCollector 配置中定义。您可从控制台修改选项。
高级过滤器
您可以通过从下拉列表中选择要过滤的参数来设置高级过滤器、CommonSourceDestination。流数据根据选择进行过滤。要启用或禁用应用的过滤器,您可以点过滤器选项下面列出的应用过滤器。

您可以切换 arrow up long solid One way arrow up long solidarrow down long solid Back and forth 过滤。 arrow up long solid 单向过滤只根据过滤器选择显示 SourceDestination 流量。您可以使用 Swap 来更改 SourceDestination 流量的方向视图。 arrow up long solid arrow down long solid Back and forth 过滤器包括带有 SourceDestination 过滤器的返回流量。网络流量的方向流在流量流表中的 Direction 列中显示为 Ingress`or `Egress(对于不同节点间的流量)和 'Inner'(对于单一节点内的流量)。

您可以点 Reset default 删除现有过滤器,并应用 FlowCollector 配置中定义的过滤器。

注意

要了解指定文本值的规则,请点了解更多

另外,您也可以访问 Namespaces, Services, Routes, Nodes, and Workloads 页中的 Network Traffic 标签页,它们提供了相关部分的聚合过滤数据。

第 8 章 使用带有仪表板和警报的指标

Network Observability Operator 使用 flowlogs-pipeline 从流日志生成指标。您可以通过设置自定义警报和查看仪表板来使用这些指标。

8.1. 查看 Network Observability 指标仪表板

在 OpenShift Container Platform 控制台中的 Overview 选项卡中,您可以查看集群中网络流量流的整体聚合指标。您可以选择按节点、命名空间、所有者、pod 和服务显示信息。您还可以使用过滤器和显示选项来进一步优化指标。

流程

  1. 在 Web 控制台 ObserveDashboards 中,选择 Netobserv 仪表板。
  2. 查看以下类别中的网络流量指标,每个指标都有每个节点、命名空间、源和目标的子集:

    • 字节率
    • 数据包丢弃
    • DNS
    • RTT
  3. 选择 Netobserv/Health 仪表板。
  4. 在以下类别中查看有关 Operator 健康的指标,每个类别都有每个节点的子集、命名空间、源和目的地。

    • 流开销
    • 流率
    • 代理
    • 处理器
    • Operator

基础架构应用程序指标显示在命名空间和工作负载的 split-view 中。

8.2. 预定义的指标

flowlogs-pipeline 生成的指标可在 FlowCollector 自定义资源的 spec.processor.metrics.includeList 中进行配置,以添加或删除指标。

8.3. 网络 Observability 指标

您还可以使用 Prometheus 规则中的 includeList 指标创建警报,如"创建警报"所示。

在 Prometheus 中查找这些指标时,如通过 ObserveMetrics 或定义警报时,所有指标名称都有 netobserv_ 前缀。例如 netobserv_namespace_flows_total。可用的指标名称如下:

includeList 指标名称

默认情况下启用带有星号 * 的名称。

  • namespace_egress_bytes_total
  • namespace_egress_packets_total
  • namespace_ingress_bytes_total
  • namespace_ingress_packets_total
  • namespace_flows_total *
  • node_egress_bytes_total
  • node_egress_packets_total
  • node_ingress_bytes_total *
  • node_ingress_packets_total
  • node_flows_total
  • workload_egress_bytes_total
  • workload_egress_packets_total
  • workload_ingress_bytes_total *
  • workload_ingress_packets_total
  • workload_flows_total
PacketDrop 指标名称

当在 spec.agent.ebpf.features (具有 privileged 模式)中启用 PacketDrop 功能时,可以使用以下额外的指标:

  • namespace_drop_bytes_total
  • namespace_drop_packets_total *
  • node_drop_bytes_total
  • node_drop_packets_total
  • workload_drop_bytes_total
  • workload_drop_packets_total
DNS 指标名称

当在 spec.agent.ebpf.features 中启用了 DNSTracking 功能时,可以使用以下额外的指标:

  • namespace_dns_latency_seconds *
  • node_dns_latency_seconds
  • workload_dns_latency_seconds
FlowRTT 指标名称

当在 spec.agent.ebpf.features 中启用 FlowRTT 功能时,可以使用以下额外指标:

  • namespace_rtt_seconds *
  • node_rtt_seconds
  • workload_rtt_seconds

8.4. 创建警报

您可以为 Netobserv 仪表板指标创建自定义警报规则,以便在满足某些定义条件时触发警报。

先决条件

  • 您可以使用具有 cluster-admin 角色的用户访问集群,或者具有所有项目的查看权限。
  • 已安装 Network Observability Operator。

流程

  1. 点导入图标 + 创建 YAML 文件。
  2. 向 YAML 文件添加警报规则配置。在以下 YAML 示例中,当集群入口流量达到每个目标工作负载的指定阈值 10 MBps 时,会为警报创建一个警报。

    apiVersion: monitoring.openshift.io/v1
    kind: AlertingRule
    metadata:
      name: netobserv-alerts
      namespace: openshift-monitoring
    spec:
      groups:
      - name: NetObservAlerts
        rules:
        - alert: NetObservIncomingBandwidth
          annotations:
            message: |-
              {{ $labels.job }}: incoming traffic exceeding 10 MBps for 30s on {{ $labels.DstK8S_OwnerType }} {{ $labels.DstK8S_OwnerName }} ({{ $labels.DstK8S_Namespace }}).
            summary: "High incoming traffic."
          expr: sum(rate(netobserv_workload_ingress_bytes_total     {SrcK8S_Namespace="openshift-ingress"}[1m])) by (job, DstK8S_Namespace, DstK8S_OwnerName, DstK8S_OwnerType) > 10000000      1
          for: 30s
          labels:
            severity: warning
    1
    spec.processor.metrics.includeList 中默认启用 netobserv_workload_ingress_bytes_total 指标。
  3. Create 将配置文件应用到集群。

8.5. 自定义指标

您可以使用 FlowMetric API 从 flowlogs 数据中创建自定义指标。在收集的每个流日志数据中,每个日志都标记了多个字段,如源名称和目标名称。这些字段可以用作 Prometheus 标签,以便在仪表板上自定义集群信息。

8.6. 使用 FlowMetric API 配置自定义指标

您可以使用 flowlogs data 字段作为 Prometheus 标签,将 FlowMetric API 配置为创建自定义指标。您可以在项目中添加多个 FlowMetric 资源,以查看多个仪表板视图。

流程

  1. 在 Web 控制台中,进入到 OperatorsInstalled Operators
  2. NetObserv OperatorProvided APIs 标题中,选择 FlowMetric
  3. Project: 下拉列表中,选择 Network Observability Operator 实例的项目。
  4. Create FlowMetric
  5. 配置 FlowMetric 资源,类似于以下示例配置:

    例 8.1. 生成一个指标,用于跟踪从集群外部源接收的 ingress 字节

    apiVersion: flows.netobserv.io/v1alpha1
    kind: FlowMetric
    metadata:
      name: flowmetric-cluster-external-ingress-traffic
      namespace: netobserv                              1
    spec:
      metricName: cluster_external_ingress_bytes_total  2
      type: Counter                                     3
      valueField: Bytes
      direction: Ingress                                4
      labels: [DstK8S_HostName,DstK8S_Namespace,DstK8S_OwnerName,DstK8S_OwnerType] 5
      filters:                                          6
      - field: SrcSubnetLabel
        matchType: Absence
    1
    FlowMetric 资源需要在 FlowCollector spec.namespace 中定义的命名空间中创建,默认为 netobserv
    2
    Prometheus 指标的名称,它们在 web 控制台中的显示带有 netobserv-<metricName> 前缀。
    3
    type 指定指标类型。Counter type 有助于计算字节和数据包。
    4
    要捕获的流方向。如果没有指定,入口和出口数据都会捕获,这可能会导致重复计数。
    5
    标签定义了指标外,以及不同实体之间的关系,同时还定义了指标基数(cardinality)。例如,SrcK8S_Name 是一个高基数指标。
    6
    根据列出的标准进一步细化结果。在本例中,通过仅匹配没有 SrcSubnetLabel 的流来实现只选择集群外部流量的目的。这假设启用了子网标签功能(通过 spec.processor.subnetLabels),这是默认行为。

    验证

    1. pod 刷新后,进入 ObserveMetrics
    2. Expression 字段中,键入指标名称来查看对应的结果。您也可以输入一个表达式,如 topk(5, sum(rate(netobserv_cluster_external_ingress_bytes_total{DstK8S_Namespace="my-namespace"}[2m])) by (DstK8S_HostName, DstK8S_OwnerName, DstK8S_OwnerType))

    例 8.2. 显示集群外部入口流量的 RTT 延迟

    apiVersion: flows.netobserv.io/v1alpha1
    kind: FlowMetric
    metadata:
      name: flowmetric-cluster-external-ingress-rtt
      namespace: netobserv    1
    spec:
      metricName: cluster_external_ingress_rtt_seconds
      type: Histogram                 2
      valueField: TimeFlowRttNs
      direction: Ingress
      labels: [DstK8S_HostName,DstK8S_Namespace,DstK8S_OwnerName,DstK8S_OwnerType]
      filters:
      - field: SrcSubnetLabel
        matchType: Absence
      - field: TimeFlowRttNs
        matchType: Presence
      divider: "1000000000"      3
      buckets: [".001", ".005", ".01", ".02", ".03", ".04", ".05", ".075", ".1", ".25", "1"]  4
    1
    FlowMetric 资源需要在 FlowCollector spec.namespace 中定义的命名空间中创建,默认为 netobserv
    2
    type 指定指标类型。Histogram type 可用于延迟值 (TimeFlowRttNs)。
    3
    由于在流中 Round-trip time (RTT) 的单位为纳秒,需要将这个值除以十亿(1 billion)转换为秒,这是 Prometheus 指南中的标准。
    4
    自定义存储桶指定 RTT 的精度,其最佳精度范围介于 5ms 和 250ms 之间。

    验证

    1. pod 刷新后,进入 ObserveMetrics
    2. Expression 字段中,键入指标名称来查看对应的结果。
重要

高基数可能会影响 Prometheus 的内存用量。您可以检查特定标签是否以有高基数(Network Flows 格式参考)。

8.7. 使用 FlowMetric API 配置自定义 chart

您可以在 OpenShift Container Platform web 控制台中为仪表板生成图表,如果您是管理员,可以通过定义 FlowMetric 资源的 charts 部分在 Dashboard 菜单中查看。

流程

  1. 在 Web 控制台中,进入到 OperatorsInstalled Operators
  2. NetObserv OperatorProvided APIs 标题中,选择 FlowMetric
  3. Project: 下拉列表中,选择 Network Observability Operator 实例的项目。
  4. Create FlowMetric
  5. 配置 FlowMetric 资源,类似于以下示例配置:

例 8.3. 用于跟踪从集群外部源接收的 ingress 字节的图表

apiVersion: flows.netobserv.io/v1alpha1
kind: FlowMetric
metadata:
  name: flowmetric-cluster-external-ingress-traffic
  namespace: netobserv   1
# ...
  charts:
  - dashboardName: Main  2
    title: External ingress traffic
    unit: Bps
    type: SingleStat
    queries:
    - promQL: "sum(rate($METRIC[2m]))"
      legend: ""
  - dashboardName: Main  3
    sectionName: External
    title: Top external ingress traffic per workload
    unit: Bps
    type: StackArea
    queries:
    - promQL: "sum(rate($METRIC{DstK8S_Namespace!=\"\"}[2m])) by (DstK8S_Namespace, DstK8S_OwnerName)"
      legend: "{{DstK8S_Namespace}} / {{DstK8S_OwnerName}}"
# ...
1
FlowMetric 资源需要在 FlowCollector spec.namespace 中定义的命名空间中创建,默认为 netobserv

验证

  1. pod 刷新后,进入到 ObserveDashboards
  2. 搜索 NetObserv / Main 仪表板。查看 NetObserv / Main 仪表板下的两个面板,或您创建的仪表板名称(可选):

    • 一个静态的文本形式的统计数据,显示所有维度中的全局外部入口率总和
    • 一个时间序列图,为每个目标工作负载显示相同指标

有关查询语言的更多信息,请参阅 Prometheus 文档

例 8.4. 集群外部入口流量的 RTT 延迟的图表

apiVersion: flows.netobserv.io/v1alpha1
kind: FlowMetric
metadata:
  name: flowmetric-cluster-external-ingress-traffic
  namespace: netobserv   1
# ...
  charts:
  - dashboardName: Main  2
    title: External ingress TCP latency
    unit: seconds
    type: SingleStat
    queries:
    - promQL: "histogram_quantile(0.99, sum(rate($METRIC_bucket[2m])) by (le)) > 0"
      legend: "p99"
  - dashboardName: Main  3
    sectionName: External
    title: "Top external ingress sRTT per workload, p50 (ms)"
    unit: seconds
    type: Line
    queries:
    - promQL: "histogram_quantile(0.5, sum(rate($METRIC_bucket{DstK8S_Namespace!=\"\"}[2m])) by (le,DstK8S_Namespace,DstK8S_OwnerName))*1000 > 0"
      legend: "{{DstK8S_Namespace}} / {{DstK8S_OwnerName}}"
  - dashboardName: Main  4
    sectionName: External
    title: "Top external ingress sRTT per workload, p99 (ms)"
    unit: seconds
    type: Line
    queries:
    - promQL: "histogram_quantile(0.99, sum(rate($METRIC_bucket{DstK8S_Namespace!=\"\"}[2m])) by (le,DstK8S_Namespace,DstK8S_OwnerName))*1000 > 0"
      legend: "{{DstK8S_Namespace}} / {{DstK8S_OwnerName}}"
# ...
1
FlowMetric 资源需要在 FlowCollector spec.namespace 中定义的命名空间中创建,默认为 netobserv
2 3 4
使用不同的 dashboardName 创建一个前缀为 Netobserv 的新仪表板。例如,Netobserv / <dashboard_name>.

这个示例使用 histogram_quantile 函数来显示 p50p99

您可以通过将指标 $METRIC_sum 除以$METRIC_count 来显示平均直方图。它们在创建直方图时自动生成。在上例中,要执行此操作的 Prometheus 查询如下:

promQL: "(sum(rate($METRIC_sum{DstK8S_Namespace!=\"\"}[2m])) by (DstK8S_Namespace,DstK8S_OwnerName) / sum(rate($METRIC_count{DstK8S_Namespace!=\"\"}[2m])) by (DstK8S_Namespace,DstK8S_OwnerName))*1000"

验证

  1. pod 刷新后,进入到 ObserveDashboards
  2. 搜索 NetObserv / Main 仪表板。查看 NetObserv / Main 仪表板下的新面板,或您创建的仪表板名称(可选)。

有关查询语言的更多信息,请参阅 Prometheus 文档

8.8. 使用 FlowMetric API 和 TCP 标志检测 SYN 填充

您可以创建一个 AlertingRule 资源来提醒出现 SYN 洪水的情况。

流程

  1. 在 Web 控制台中,进入到 OperatorsInstalled Operators
  2. NetObserv OperatorProvided APIs 标题中,选择 FlowMetric
  3. Project 下拉列表中,选择 Network Observability Operator 实例的项目。
  4. Create FlowMetric
  5. 创建 FlowMetric 资源以添加以下配置:

    配置每个目标主机和资源的计数,使用 TCP 标志

    apiVersion: flows.netobserv.io/v1alpha1
    kind: FlowMetric
    metadata:
      name: flows-with-flags-per-destination
    spec:
      metricName: flows_with_flags_per_destination_total
      type: Counter
      labels: [SrcSubnetLabel,DstSubnetLabel,DstK8S_Name,DstK8S_Type,DstK8S_HostName,DstK8S_Namespace,Flags]

    使用每个源主机和资源的计数,使用 TCP 标志

    apiVersion: flows.netobserv.io/v1alpha1
    kind: FlowMetric
    metadata:
      name: flows-with-flags-per-source
    spec:
      metricName: flows_with_flags_per_source_total
      type: Counter
      labels: [DstSubnetLabel,SrcSubnetLabel,SrcK8S_Name,SrcK8S_Type,SrcK8S_HostName,SrcK8S_Namespace,Flags]

  6. 部署以下 AlertingRule 资源以警告出现 SYN 洪水的情况:

    用于 SYN 洪水的 AlertingRule

    apiVersion: monitoring.openshift.io/v1
    kind: AlertingRule
    metadata:
      name: netobserv-syn-alerts
      namespace: openshift-monitoring
    # ...
      spec:
      groups:
      - name: NetObservSYNAlerts
        rules:
        - alert: NetObserv-SYNFlood-in
          annotations:
            message: |-
              {{ $labels.job }}: incoming SYN-flood attack suspected to Host={{ $labels.DstK8S_HostName}}, Namespace={{ $labels.DstK8S_Namespace }}, Resource={{ $labels.DstK8S_Name }}. This is characterized by a high volume of SYN-only flows with different source IPs and/or ports.
            summary: "Incoming SYN-flood"
          expr: sum(rate(netobserv_flows_with_flags_per_destination_total{Flags="2"}[1m])) by (job, DstK8S_HostName, DstK8S_Namespace, DstK8S_Name) > 300      1
          for: 15s
          labels:
            severity: warning
            app: netobserv
        - alert: NetObserv-SYNFlood-out
          annotations:
            message: |-
              {{ $labels.job }}: outgoing SYN-flood attack suspected from Host={{ $labels.SrcK8S_HostName}}, Namespace={{ $labels.SrcK8S_Namespace }}, Resource={{ $labels.SrcK8S_Name }}. This is characterized by a high volume of SYN-only flows with different source IPs and/or ports.
            summary: "Outgoing SYN-flood"
          expr: sum(rate(netobserv_flows_with_flags_per_source_total{Flags="2"}[1m])) by (job, SrcK8S_HostName, SrcK8S_Namespace, SrcK8S_Name) > 300       2
          for: 15s
          labels:
            severity: warning
            app: netobserv
    # ...

    1 2
    在本例中,警报的阈值是 300 ;但是,您可以调整这个值。阈值太低可能会产生误报,如果太高,则可能无法诊断到实际的攻击。

验证

  1. 在 Web 控制台中,点 Network Traffic 表视图中的 Manage Columns,然后点 TCP 标志
  2. Network Traffic 表视图中,根据 TCP 协议 SYN TCPFlag 。有大量具有相同 byteSize 的流代表出现了 SYN 洪水。
  3. 进入 ObserveAlerting 并选择 Alerting Rules 选项卡。
  4. 根据 netobserv-synflood-in alert 过滤。当发生 SYN 洪水时,该警报应被触发。

第 9 章 监控 Network Observability Operator

您可以使用 Web 控制台监控与 Network Observability Operator 健康相关的警报。

9.1. 健康仪表板

Network Observability Operator 健康和资源使用情况的指标位于 web 控制台的 ObserveDashboards 页中。您可以按以下类别查看 Operator 健康状况的指标:

  • Flows per second
  • Sampling
  • Errors last minute
  • Dropped flows per second
  • Flowlogs-pipeline statistics
  • Flowlogs-pipleine statistics views
  • eBPF agent statistics views
  • Operator statistics
  • 资源使用量

9.2. 健康警报

当触发警报时,您定向到仪表板的健康警报横幅可能会出现在 Network TrafficHome 页面中。在以下情况下生成警报:

  • 如果 flowlogs-pipeline 工作负载因为 Loki 错误而丢弃流,如已经达到 Loki ingestion 速率限制,则 NetObservLokiError 警报发生。
  • 如果在一个时间段内没有流,则会发出 NetObservNoFlows 警报。
  • 如果 Network Observability eBPF 代理的 hashmap 表已满,并且 eBPF 代理处理性能下降或触发了容量限制器时,则会发出 NetObservFlowsDropped 警报。

9.3. 查看健康信息

您可从 web 控制台的 Dashboards 页面中访问 Network Observability Operator 健康和资源使用的指标。

先决条件

  • 已安装 Network Observability Operator。
  • 您可以使用具有 cluster-admin 角色或所有项目的查看权限的用户访问集群。

流程

  1. 从 web 控制台中的 Administrator 视角,进入到 ObserveDashboards
  2. Dashboards 下拉菜单中选择 Netobserv/Health
  3. 查看页面中显示的 Operator 健康状况的指标。

9.3.1. 禁用健康警报

您可以通过编辑 FlowCollector 资源来选择不使用健康警报:

  1. 在 Web 控制台中,进入到 OperatorsInstalled Operators
  2. NetObserv OperatorProvided APIs 标题下,选择 Flow Collector
  3. 选择 cluster,然后选择 YAML 选项卡。
  4. 添加 spec.processor.metrics.disableAlerts 来禁用健康警报,如下例所示:

    apiVersion: flows.netobserv.io/v1beta2
    kind: FlowCollector
    metadata:
      name: cluster
    spec:
      processor:
        metrics:
          disableAlerts: [NetObservLokiError, NetObservNoFlows] 1
    1
    您可以指定一个或多个包含要禁用的警报类型的列表。

9.4. 为 NetObserv 仪表板创建 Loki 速率限制警报

您可以为 Netobserv 仪表板指标创建自定义警报规则,以便在达到 Loki 速率限制时触发警报。

先决条件

  • 您可以使用具有 cluster-admin 角色的用户访问集群,或者具有所有项目的查看权限。
  • 已安装 Network Observability Operator。

流程

  1. 点导入图标 + 创建 YAML 文件。
  2. 向 YAML 文件添加警报规则配置。在以下 YAML 示例中,当达到 Loki 速率限制时,会创建一个警报:

    apiVersion: monitoring.openshift.io/v1
    kind: AlertingRule
    metadata:
      name: loki-alerts
      namespace: openshift-monitoring
    spec:
      groups:
      - name: LokiRateLimitAlerts
        rules:
        - alert: LokiTenantRateLimit
          annotations:
            message: |-
              {{ $labels.job }} {{ $labels.route }} is experiencing 429 errors.
            summary: "At any number of requests are responded with the rate limit error code."
          expr: sum(irate(loki_request_duration_seconds_count{status_code="429"}[1m])) by (job, namespace, route) / sum(irate(loki_request_duration_seconds_count[1m])) by (job, namespace, route) * 100 > 0
          for: 10s
          labels:
            severity: warning
  3. Create 将配置文件应用到集群。

9.5. 使用 eBPF 代理警报

当 Network Observability eBPF 代理 hashmap 表已满或触发了容量限制器,则会发出警报 NetObservAgentFlowsDropped。如果您看到此警报,请考虑增加 FlowCollector 中的 cacheMaxFlows,如下例所示。

注意

增加 cacheMaxFlows 可能会增加 eBPF 代理的内存用量。

流程

  1. 在 Web 控制台中,进入到 OperatorsInstalled Operators
  2. Network Observability OperatorProvided APIs 标题下,选择 Flow Collector
  3. 选择 集群,然后选择 YAML 选项卡。
  4. 增加 spec.agent.ebpf.cacheMaxFlows 值,如以下 YAML 示例所示:
apiVersion: flows.netobserv.io/v1beta2
kind: FlowCollector
metadata:
  name: cluster
spec:
  namespace: netobserv
  deploymentModel: Direct
  agent:
    type: eBPF
    ebpf:
      cacheMaxFlows: 200000 1
1
cacheMaxFlows 从发出NetObservAgentFlowsDropped 警报时的值增加到一个更高的值。

其他资源

第 10 章 调度资源

通过污点和容限,节点可以控制哪些 pod 应该(或不应该)调度到节点上。

节点选择器指定一个键/值对映射,该映射使用 pod 中指定的自定义标签和选择器定义。

要使 pod 有资格在节点上运行,pod 必须具有与节点上标签相同的键值节点选择器。

10.1. 特定节点中的网络 Observability 部署

您可以配置 FlowCollector 来控制特定节点中的 Network Observability 组件的部署。spec.agent.ebpf.advanced.scheduling,spec.processor.advanced.scheduling, 和 spec.consolePlugin.advanced.scheduling 规格有以下可进行配置的设置:

  • NodeSelector
  • 容限(Tolerations)
  • 关联性
  • PriorityClassName

spec.<component>.advanced.schedulingFlowCollector 资源示例

apiVersion: flows.netobserv.io/v1beta2
kind: FlowCollector
metadata:
  name: cluster
spec:
# ...
advanced:
  scheduling:
    tolerations:
    - key: "<taint key>"
      operator: "Equal"
      value: "<taint value>"
      effect: "<taint effect>"
      nodeSelector:
        <key>: <value>
      affinity:
        nodeAffinity:
        requiredDuringSchedulingIgnoredDuringExecution:
          nodeSelectorTerms:
          - matchExpressions:
            - key: name
              operator: In
              values:
              - app-worker-node
      priorityClassName: """
# ...

其他资源

第 11 章 二级网络

您可以配置 Network Observability Operator,从二级网络(如 SR-IOV 和 OVN-Kubernetes)收集和增强的网络流数据。

先决条件

  • 使用额外的网络接口访问 OpenShift Container Platform 集群,如二级接口或 L2 网络。

11.1. 为 SR-IOV 接口流量配置监控

要使用单根 I/O 虚拟化(SR-IOV)设备从集群收集流量,您必须将 FlowCollector spec.agent.ebpf.privileged 字段设置为 true。然后,eBPF 代理除主机网络命名空间外监控其他网络命名空间,这些命名空间会被默认监控。当创建具有虚拟功能(VF)接口的 pod 时,会创建一个新的网络命名空间。指定 SRIOVNetwork 策略 IPAM 配置后,VF 接口从主机网络命名空间迁移到 pod 网络命名空间。

先决条件

  • 使用 SR-IOV 设备访问 OpenShift Container Platform 集群。
  • SRIOVNetwork 自定义资源(CR) spec.ipam 配置必须使用接口列表或其他插件范围内的 IP 地址设置。

流程

  1. 在 Web 控制台中,进入到 OperatorsInstalled Operators
  2. NetObserv OperatorProvided APIs 标题下,选择 Flow Collector
  3. 选择 cluster,然后选择 YAML 选项卡。
  4. 配置 FlowCollector 自定义资源。示例配置示例如下:

    为 SR-IOV 监控配置 FlowCollector

    apiVersion: flows.netobserv.io/v1beta2
    kind: FlowCollector
    metadata:
      name: cluster
    spec:
      namespace: netobserv
      deploymentModel: Direct
      agent:
        type: eBPF
        ebpf:
          privileged: true   1

    1
    spec.agent.ebpf.privileged 字段值必须设置为 true 以启用 SR-IOV 监控。

11.2. 为 Network Observability 配置虚拟机(VM)二级网络接口

您可以通过识别来自连接到二级网络的虚拟机(如通过 OVN-Kubernetes)的 eBPF 增强网络流来观察 OpenShift Virtualization 设置上的网络流量。Network Observability 会自动捕获来自连接到默认内部 pod 网络的虚拟机的网络流。

流程

  1. 运行以下命令,获取有关虚拟机启动程序 Pod 的信息。此信息在第 5 步中使用:

    $ oc get pod virt-launcher-<vm_name>-<suffix> -n <namespace> -o yaml
    apiVersion: v1
    kind: Pod
    metadata:
      annotations:
        k8s.v1.cni.cncf.io/network-status: |-
          [{
            "name": "ovn-kubernetes",
            "interface": "eth0",
            "ips": [
              "10.129.2.39"
            ],
            "mac": "0a:58:0a:81:02:27",
            "default": true,
            "dns": {}
          },
          {
            "name": "my-vms/l2-network",   1
            "interface": "podc0f69e19ba2", 2
            "ips": [                       3
              "10.10.10.15"
            ],
            "mac": "02:fb:f8:00:00:12",    4
            "dns": {}
          }]
      name: virt-launcher-fedora-aqua-fowl-13-zr2x9
      namespace: my-vms
    spec:
    #  ...
    status:
    #  ...
    1
    二级网络的名称。
    2
    二级网络的网络接口名称。
    3
    二级网络使用的 IP 列表。
    4
    用于二级网络的 MAC 地址。
  2. 在 Web 控制台中,进入到 OperatorsInstalled Operators
  3. NetObserv OperatorProvided APIs 标题下,选择 Flow Collector
  4. 选择 cluster,然后选择 YAML 选项卡。
  5. 根据您在额外网络调查中找到的信息配置 FlowCollector

    apiVersion: flows.netobserv.io/v1beta2
    kind: FlowCollector
    metadata:
      name: cluster
    spec:
      agent:
        ebpf:
          privileged: true            1
      processor:
        advanced:
          secondaryNetworks:
          - index:                    2
            - MAC                     3
            name: my-vms/l2-network   4
    # ...

    <.> 确保 eBPF 代理处于 特权模式,以便收集流进行二级接口。<.> 定义用于索引虚拟机启动程序 Pod 的字段。建议使用 MAC 地址作为索引字段,以获取二级接口的网络流。如果您在 pod 之间有重叠的 MAC 地址,那么可将其他索引字段(如 IPInterface )添加准确功能。<.> 如果您的额外网络信息具有 MAC 地址,请将 MAC 添加到字段列表中。<.> 指定 k8s.v1.cni.cncf.io/network-status 注解中找到的网络名称。通常为 <namespace>/<network_attachement_definition_name>。

  6. 观察虚拟机流量:

    1. 进入 Network Traffic 页。
    2. 使用 k8s.v1.cni.cncf.io/network-status 注解中找到的虚拟机 IP 按照 Source IP过滤。
    3. 查看 SourceDestination 字段(应该增强),并将 VM launcher pod 和虚拟机实例识别为所有者。

第 12 章 Network Observability CLI

12.1. 安装 Network Observability CLI

Network Observability CLI (oc netobserv) 与 Network Observability Operator 分开部署。CLI 可作为 OpenShift CLI (oc)插件提供。它提供快速调试和对网络可观察性进行故障排除的轻量级方法。

12.1.1. 关于 Network Observability CLI

您可以使用 Network Observability CLI (oc netobserv) 快速调试并排除网络问题。Network Observability CLI 是一个流和数据包视觉化工具,它依赖于 eBPF 代理将收集的数据流传输到临时收集器 pod。在捕获过程中不需要持久性存储。运行后,输出将传输到您的本地计算机。这可以实现快速了解数据包和流数据,而无需安装 Network Observability Operator。

重要

CLI 捕获只适用于在一个简短的持续时间段,如 8-10 分钟。如果运行时间过长,可能很难删除正在运行的进程。

12.1.2. 安装 Network Observability CLI

安装 Network Observability CLI (oc netobserv) 是与 Network Observability Operator 安装分开的步骤。这意味着,即使您有从 OperatorHub 安装 Operator,也需要单独安装 CLI。

注意

您可以选择使用 Krew 来安装 netobserv CLI 插件。如需更多信息,请参阅"使用 Krew 安装 CLI 插件"。

先决条件

  • 您必须安装 OpenShift CLI (oc)。
  • 您必须有一个 macOS 或 Linux 操作系统。

流程

  1. 下载与您的架构对应的 oc netobserv CLI tar 文件
  2. 解包存档。例如,对于 amd64 归档,运行以下命令:

    $ tar xvf netobserv-cli-linux-amd64.tar.gz
  3. 使文件可执行:

    $ chmod +x ./oc-netobserv
  4. 将提取的 netobserv-cli 二进制文件移到 PATH 上的目录中,如 /usr/local/bin/

    $ sudo mv ./oc-netobserv /usr/local/bin/

验证

  • 验证 oc netobserv 是否可用:

    $ oc netobserv version

    输出示例

    Netobserv CLI version <version>

12.2. 使用 Network Observability CLI

您可以在终端中直接视觉化和过滤流和数据包数据,以查看特定使用情况,例如识别谁正在使用特定端口。Network Observability CLI 将流作为 JSON 和数据库文件或数据包作为 PCAP 文件来收集,该文件可用于第三方工具。

12.2.1. 捕获流

您可以捕获数据中的任何资源或区域的流程和过滤,以解决两个区域之间的 Round-Trip Time (RTT)。CLI 中的表视觉化提供了查看和流搜索功能。

先决条件

  • 安装 OpenShift CLI (oc) 。
  • 安装 Network Observability CLI (oc netobserv) 插件。

流程

  1. 运行以下命令,通过过滤捕获流:

    $ oc netobserv flows --enable_filter=true --action=Accept --cidr=0.0.0.0/0 --protocol=TCP --port=49051
  2. 在终端的 live table filter 提示下添加过滤以进一步优化传入的流。例如:

    live table filter: [SrcK8S_Zone:us-west-1b] press enter to match multiple regular expressions at once
  3. 使用 PageUpPageDown 键在 NoneResourceZoneHostOwnerall 之间切换。
  4. 要停止捕获,按 Ctrl+C。捕获的数据被写入两个单独的文件,位于用于安装 CLI 的同一路径中的 ./output 目录中。
  5. ./output/flow/<capture_date_time>.json JSON 文件中查看捕获的数据,其中包含了捕获数据的 JSON 阵列。

    JSON 文件示例

    {
      "AgentIP": "10.0.1.76",
      "Bytes": 561,
      "DnsErrno": 0,
      "Dscp": 20,
      "DstAddr": "f904:ece9:ba63:6ac7:8018:1e5:7130:0",
      "DstMac": "0A:58:0A:80:00:37",
      "DstPort": 9999,
      "Duplicate": false,
      "Etype": 2048,
      "Flags": 16,
      "FlowDirection": 0,
      "IfDirection": 0,
      "Interface": "ens5",
      "K8S_FlowLayer": "infra",
      "Packets": 1,
      "Proto": 6,
      "SrcAddr": "3e06:6c10:6440:2:a80:37:b756:270f",
      "SrcMac": "0A:58:0A:80:00:01",
      "SrcPort": 46934,
      "TimeFlowEndMs": 1709741962111,
      "TimeFlowRttNs": 121000,
      "TimeFlowStartMs": 1709741962111,
      "TimeReceived": 1709741964
    }

  6. 您可以使用 SQLite 检查 ./output/flow/<capture_date_time>.db 数据库文件。例如:

    1. 运行以下命令打开该文件:

      $ sqlite3 ./output/flow/<capture_date_time>.db
    2. 运行 SQLite SELECT 语句来查询数据,例如:

      sqlite> SELECT DnsLatencyMs, DnsFlagsResponseCode, DnsId, DstAddr, DstPort, Interface, Proto, SrcAddr, SrcPort, Bytes, Packets FROM flow WHERE DnsLatencyMs >10 LIMIT 10;

      输出示例

      12|NoError|58747|10.128.0.63|57856||17|172.30.0.10|53|284|1
      11|NoError|20486|10.128.0.52|56575||17|169.254.169.254|53|225|1
      11|NoError|59544|10.128.0.103|51089||17|172.30.0.10|53|307|1
      13|NoError|32519|10.128.0.52|55241||17|169.254.169.254|53|254|1
      12|NoError|32519|10.0.0.3|55241||17|169.254.169.254|53|254|1
      15|NoError|57673|10.128.0.19|59051||17|172.30.0.10|53|313|1
      13|NoError|35652|10.0.0.3|46532||17|169.254.169.254|53|183|1
      32|NoError|37326|10.0.0.3|52718||17|169.254.169.254|53|169|1
      14|NoError|14530|10.0.0.3|58203||17|169.254.169.254|53|246|1
      15|NoError|40548|10.0.0.3|45933||17|169.254.169.254|53|174|1

12.2.2. 捕获数据包

您可以使用 Network Observability CLI 捕获数据包。

先决条件

  • 安装 OpenShift CLI (oc) 。
  • 安装 Network Observability CLI (oc netobserv) 插件。

流程

  1. 在启用了过滤的情况下运行数据包捕获:

    $ oc netobserv packets --action=Accept --cidr=0.0.0.0/0 --protocol=TCP --port=49051
  2. 在终端的 live table filter 提示下添加过滤以进一步优化传入的数据包。过滤示例如下:

    live table filter: [SrcK8S_Zone:us-west-1b] press enter to match multiple regular expressions at once
  3. 使用 PageUpPageDown 键在 NoneResourceZoneHostOwnerall 之间切换。
  4. 要停止捕获,按 Ctrl+C
  5. 查看捕获的数据,这些数据被写入一个文件中,该文件位于用于安装 CLI 的同一路径中的 ./output/pcap 目录中:

    1. ./output/pcap/<capture_date_time>.pcap 文件可以使用 wireshark 打开。

12.2.3. 清理 Network Observability CLI

您可以通过运行 oc netobserv cleanup 来手动清理 CLI 工作负载。此命令从集群中删除所有 CLI 组件。

当您结束捕获时,此命令由客户端自动运行。如果您遇到连接问题,可能需要手动运行它。

流程

  • 运行以下命令:

    $ oc netobserv cleanup

12.3. Network Observability CLI (oc netobserv) 参考

Network Observability CLI (oc netobserv) 具有 Network Observability Operator 所具有的大多数功能和过滤选项。您可以传递命令行参数来启用功能或过滤选项。

12.3.1. Network Observability CLI 使用

您可以使用 Network Observability CLI (oc netobserv) 传递命令行参数来捕获流数据和数据包数据以便进一步分析,启用 Network Observability Operator 功能,或将配置选项传递给 eBPF 代理和 flowlogs-pipeline

12.3.1.1. 语法

oc netobserv 命令的基本语法如下:

oc netobserv 语法

$ oc netobserv [<command>] [<feature_option>] [<command_options>] 1

1 1
功能选项只能与 oc netobserv flow 命令一起使用。它们不能与 oc netobserv packets 命令一起使用。
12.3.1.2. 基本命令
表 12.1. 基本命令
命令描述

flows

捕获流信息。有关子命令,请参阅"Flows 捕获选项"表。

packets

捕获数据包数据.有关子命令,请参阅"捕获选项"表。

cleanup

删除 Network Observability CLI 组件。

version

打印软件版本。

帮助

显示帮助。

12.3.1.3. 流捕获选项

流捕获有强制命令以及附加选项,如启用有关数据包丢弃、DNS 延迟、往返时间和过滤的额外功能。

oc netobserv flows 语法

$ oc netobserv flows [<feature_option>] [<command_options>]

选项描述default

--enable_pktdrop

启用数据包丢弃

false

--enable_dns

启用 DNS 跟踪

false

--enable_rtt

启用 RTT 跟踪

false

--enable_network_events

启用网络事件监控

false

--enable_filter

启用流过滤器

false

--log-level

组件日志

info

--max-time

最大捕获时间

5m

--max-bytes

最大捕获字节数

50000000 = 50MB

--copy

在本地复制输出文件

prompt

--direction

过滤方向

不适用

--cidr

过滤 CIDR

0.0.0.0/0

--protocol

过滤协议

不适用

--sport

过滤源端口

不适用

--dport

过滤目标端口

不适用

--port

过滤端口

不适用

--sport_range

过滤源端口范围

不适用

--dport_range

过滤目标端口范围

不适用

--port_range

过滤端口范围

不适用

--sports

过滤两个源端口之一

不适用

--dports

过滤两个目标端口之一

不适用

--ports

过滤两个端口之一

不适用

--tcp_flags

过滤 TCP 标记

不适用

--action

过滤操作

Accept

--icmp_type

过滤 ICMP 类型

不适用

--icmp_code

过滤 ICMP 代码

不适用

--peer_ip

过滤对等 IP

不适用

--interfaces

要监控的接口

不适用

在启用了 PacketDrop 和 RTT 功能的 TCP 协议和端口 49051 上运行流捕获示例:

$ oc netobserv flows --enable_pktdrop=true  --enable_rtt=true --enable_filter=true --action=Accept --cidr=0.0.0.0/0 --protocol=TCP --port=49051

12.3.1.4. 数据包捕获选项

您可以在端口和协议中过滤数据包捕获数据。

oc netobserv packets 语法

$ oc netobserv packets [<option>]

选项描述default

--log-level

组件日志

info

--max-time

最大捕获时间

5m

--max-bytes

最大捕获字节数

50000000 = 50MB

--copy

在本地复制输出文件

prompt

--direction

过滤方向

不适用

--cidr

过滤 CIDR

0.0.0.0/0

--protocol

过滤协议

不适用

--sport

过滤源端口

不适用

--dport

过滤目标端口

不适用

--port

过滤端口

不适用

--sport_range

过滤源端口范围

不适用

--dport_range

过滤目标端口范围

不适用

--port_range

过滤端口范围

不适用

--sports

过滤两个源端口之一

不适用

--dports

过滤两个目标端口之一

不适用

--ports

过滤两个端口之一

不适用

--tcp_flags

过滤 TCP 标记

不适用

--action

过滤操作

Accept

--icmp_type

过滤 ICMP 类型

不适用

--icmp_code

过滤 ICMP 代码

不适用

--peer_ip

过滤对等 IP

不适用

在 TCP 协议和端口 49051 上运行数据包捕获示例:

$ oc netobserv packets --action=Accept --cidr=0.0.0.0/0 --protocol=TCP --port=49051

第 13 章 FlowCollector API 参考

FlowCollector 是网络流集合 API 的 Schema,它试用并配置底层部署。

13.1. FlowCollector API 规格

描述
FlowCollector 是网络流集合 API 的 schema,它试用并配置底层部署。
类型
object
属性类型描述

apiVersion

字符串

APIVersion 定义对象的这个表示法的版本化的 schema。服务器应该将识别的模式转换为最新的内部值,并可拒绝未识别的值。更多信息: https://git.k8s.io/community/contributors/devel/sig-architecture/api-conventions.md#resources

kind

字符串

kind 是一个字符串值,代表此对象所代表的 REST 资源。服务器可以从客户端向其提交请求的端点推断。无法更新。采用驼峰拼写法 (CamelCase)。更多信息: https://git.k8s.io/community/contributors/devel/sig-architecture/api-conventions.md#types-kinds

metadata

object

标准对象元数据。更多信息: https://git.k8s.io/community/contributors/devel/sig-architecture/api-conventions.md#metadata

spec

object

定义 FlowCollector 资源所需状态。

*:在本文档中声明的"不支持"或"弃用"的功能代表红帽不正式支持这些功能。例如,这些功能可能由社区提供,并在没有正式维护协议的情况下被接受。产品维护人员可能只为这些功能提供一些支持。

13.1.1. .metadata

描述
标准对象元数据。更多信息: https://git.k8s.io/community/contributors/devel/sig-architecture/api-conventions.md#metadata
类型
object

13.1.2. .spec

描述

定义 FlowCollector 资源所需状态。

*:在本文档中声明的"不支持"或"弃用"的功能代表红帽不正式支持这些功能。例如,这些功能可能由社区提供,并在没有正式维护协议的情况下被接受。产品维护人员可能只为这些功能提供一些支持。

类型
object
属性类型描述

agent

object

流提取的代理配置。

consolePlugin

object

ConsolePlugin 定义与 OpenShift Container Platform 控制台插件相关的设置(如果可用)。

deploymentModel

string

deploymentModel 定义所需的用于流处理的部署类型。可能的值有:

- Direct(默认)直接从代理监听流处理器。

- Kafka 在处理器使用前,将流发送到 Kafka 管道。

Kafka 可以提供更好的可扩展性、弹性和高可用性(更多详情,请参阅 https://www.redhat.com/en/topics/integration/what-is-apache-kafka)。

exporters

数组

exporters 为自定义消耗或存储定义了额外的可选导出器。

kafka

object

Kafka 配置,允许使用 Kafka 作为流集合管道的一部分。当 spec.deploymentModelKafka 时可用。

loki

object

loki,流存储、客户端设置。

namespace

string

部署 Network Observability pod 的命名空间。

networkPolicy

object

NetworkPolicy 为 Network Observability 组件隔离定义入口网络策略设置。

processor

object

processor 定义从代理接收流的组件设置,增强它们,生成指标,并将它们转发到 Loki 持久层和/或任何可用的导出器。

prometheus

object

prometheus 定义 Prometheus 设置,如用于从控制台插件获取指标的 querier 配置。

13.1.3. .spec.agent

描述
流提取的代理配置。
类型
object
属性类型描述

ebpf

object

ebpf 描述了当 spec.agent.type 设置为 eBPF 时,与基于 eBPF 的流报告程序相关的设置。

type

string

type [弃用 (*)] 选择流追踪代理。在以前的版本中,此字段可以用于选择使用 eBPFIPFIX。现在,因为只允许使用 eBPF,此字段已弃用,计划在以后的 API 版本中删除。

13.1.4. .spec.agent.ebpf

描述
ebpf 描述了当 spec.agent.type 设置为 eBPF 时,与基于 eBPF 的流报告程序相关的设置。
类型
object
属性类型描述

advanced

object

advanced 允许设置 eBPF 代理的内部配置的一些方面。本节主要用于调试和精细的性能优化,如 GOGCGOMAXPROCS 环境变量。在设置这些值时,您需要自己考虑相关的风险。

cacheActiveTimeout

string

cacheActiveTimeout 是报告者在发送前聚合流的最大周期。增加 cacheMaxFlowscacheActiveTimeout 可能会降低网络流量开销和 CPU 负载,但您可以预期更高的内存消耗和流集合中的延迟增加。

cacheMaxFlows

整数

cacheMaxFlows 是聚合中的最大流数;达到时,报告者会发送流。增加 cacheMaxFlowscacheActiveTimeout 可能会降低网络流量开销和 CPU 负载,但您可以预期更高的内存消耗和流集合中的延迟增加。

excludeInterfaces

数组(字符串)

excludeInterfaces 包含从流追踪中排除的接口名称。条目用斜杠括起,如 /br-/,与正则表达式匹配。否则,它将匹配为区分大小写的字符串。

功能

数组(字符串)

要启用的额外功能列表。它们都默认禁用。启用其他功能可能会对性能有影响。可能的值有:

PacketDrop: 启用数据包丢弃日志功能。这个功能需要挂载内核调试文件系统,因此 eBPF 代理 pod 必须以特权方式运行。如果没有设置 spec.agent.ebpf.privileged 参数,会报告一个错误。

- DNSTracking:启用 DNS 跟踪功能。

- FlowRTT:从 TCP 流量在 eBPF 代理中启用流延迟 (sRTT)。

- NetworkEvents :启用网络事件监控功能,如更正流和网络策略。这个功能需要挂载内核调试文件系统,因此 eBPF 代理 pod 必须以特权方式运行。它需要通过 Observability 功能使用 OVN-Kubernetes 网络插件。重要信息:此功能作为开发者预览提供。

flowFilter

object

flowFilter 定义有关流过滤的 eBPF 代理配置。

imagePullPolicy

string

imagePullPolicy 是上面定义的镜像的 Kubernetes pull 策略

interfaces

数组(字符串)

接口 包含从中收集流的接口名称。如果为空,代理会获取系统中的所有接口,但 excludeInterfaces 中列出的接口除外。条目用斜杠括起,如 /br-/,与正则表达式匹配。否则,它将匹配为区分大小写的字符串。

kafkaBatchSize

整数

kafkaBatchSize 在发送到分区前限制请求的最大大小(以字节为单位)。如果不使用 Kafka,则忽略。默认:1MB。

logLevel

string

Loglevel 定义 Network Observability eBPF 代理的日志级别

metrics

object

metrics 定义了有关指标的 eBPF 代理配置。

privileged

布尔值

eBPF Agent 容器的特权模式。当忽略或设置为 false 时,Operator 会将粒度功能(BPF、PERFMON、NET_ADMIN、SYS_RESOURCE)设置为容器。如果出于某种原因而无法设置这些功能,例如,如果旧的内核版本不知道 CAP_BPF,那么您可以打开此模式以获取更多全局权限。有些代理功能需要特权模式,如数据包丢弃跟踪(请参阅 功能)和 SR-IOV 支持。

resources

object

resources 是此容器所需的计算资源。如需更多信息,请参阅 https://kubernetes.io/docs/concepts/configuration/manage-resources-containers/

sampling

整数

流报告器的抽样率。100 表示发送 100 个流中的一个。0 或 1 表示所有流都是抽样的。

13.1.5. .spec.agent.ebpf.advanced

描述
advanced 允许设置 eBPF 代理的内部配置的一些方面。本节主要用于调试和精细的性能优化,如 GOGCGOMAXPROCS 环境变量。在设置这些值时,您需要自己考虑相关的风险。
类型
object
属性类型描述

env

对象(字符串)

env 允许将自定义环境变量传递给底层组件。对于传递一些非常严格的性能调整选项(如 GOGCGOMAXPROCS )非常有用,它们不应作为 FlowCollector 描述符的一部分公开,因为它们仅在边缘调试或支持场景中有用。

scheduling

object

调度控制如何在节点上调度 pod。

13.1.6. .spec.agent.ebpf.advanced.scheduling

描述
调度控制如何在节点上调度 pod。
类型
object
属性类型描述

关联性

对象

如果指定,pod 的调度限制。有关文档,请参阅 https://kubernetes.io/docs/reference/kubernetes-api/workload-resources/pod-v1/#scheduling

nodeSelector

对象(字符串)

nodeSelector 只允许将 pod 调度到具有每个指定标签的节点上。有关文档,请参阅 https://kubernetes.io/docs/concepts/configuration/assign-pod-node/

priorityClassName

string

如果指定,指示 pod 的优先级。有关文档,请参阅 https://kubernetes.io/docs/concepts/scheduling-eviction/pod-priority-preemption/#how-to-use-priority-and-preemption。如果没有指定,则使用默认优先级,如果没有默认值,则使用零。

容限(tolerations)

数组

tolerations 是一个容限 (toleration) 列表,允许 pod 调度到具有匹配污点的节点。有关文档,请参阅 https://kubernetes.io/docs/reference/kubernetes-api/workload-resources/pod-v1/#scheduling

13.1.7. .spec.agent.ebpf.advanced.scheduling.affinity

描述
如果指定,pod 的调度限制。有关文档,请参阅 https://kubernetes.io/docs/reference/kubernetes-api/workload-resources/pod-v1/#scheduling
类型
object

13.1.8. .spec.agent.ebpf.advanced.scheduling.tolerations

描述
tolerations 是一个容限 (toleration) 列表,允许 pod 调度到具有匹配污点的节点。有关文档,请参阅 https://kubernetes.io/docs/reference/kubernetes-api/workload-resources/pod-v1/#scheduling
类型
数组

13.1.9. .spec.agent.ebpf.flowFilter

描述
flowFilter 定义有关流过滤的 eBPF 代理配置。
类型
object
属性类型描述

action

string

action 定义对与过滤匹配的流执行的操作。可用的选项有 Accept (默认设置)和 Reject

cidr

string

cidr 定义用于过滤流的 IP CIDR。示例:10.10.10.0/24100:100:100:100::/64

destPorts

integer-or-string

destPorts (可选)定义要过滤流的目标端口。要过滤一个单一端口,使用一个整数值。例如,destPorts: 80。要过滤一系列端口,使用"开始-结束"范围形式的字符串。例如,destPorts: "80-100".要过滤两个端口,请使用 "port1,port2" 格式的字符串 。例如,ports: "80,100"

direction

string

方向 (可选)定义要过滤流的方向。可用的选项包括 IngressEgress

enable

布尔值

enable 设置为 true 以启用 eBPF 流过滤功能。

icmpCode

整数

icmpCode,用于互联网控制消息协议(ICMP)流量,可以选择定义要过滤流的 ICMP 代码。

icmpType

整数

icmptype,用于 ICMP 流量,可以选择定义要过滤流的 ICMP 类型。

peerIP

string

peerIP (可选)定义要过滤流的远程 IP 地址。示例: 10.10.10.10

pktDrops

布尔值

pktDrops (可选)仅过滤包含数据包丢弃的流。

ports

integer-or-string

端口 (可选)定义要过滤流的端口。它用于源和目标端口。要过滤一个单一端口,使用一个整数值。例如,ports: 80。要过滤一系列端口,使用"开始-结束"范围形式的字符串。例如,ports: "80-100"。要过滤两个端口,请使用 "port1,port2" 格式的字符串 。例如,ports: "80,100"

protocol

string

协议 (可选)定义要过滤流的协议。可用的选项有 TCPUDPICMPICMPv6SCTP

sourcePorts

integer-or-string

sourcePorts (可选)定义要过滤流的源端口。要过滤一个单一端口,使用一个整数值。例如,sourcePorts: 80。要过滤一系列端口,使用"开始-结束"范围形式的字符串。例如,sourcePorts: "80-100"。要过滤两个端口,请使用 "port1,port2" 格式的字符串 。例如,ports: "80,100"

tcpFlags

string

tcpFlags (可选)定义用于过滤流的 TCP 标志:除了标准标志(RFC-9293)外,您还可以按以下三种组合之一进行过滤: SYNY-ACK、FIN-ACK RST-ACK

13.1.10. .spec.agent.ebpf.metrics

描述
metrics 定义了有关指标的 eBPF 代理配置。
类型
object
属性类型描述

disableAlerts

数组(字符串)

disableAlerts 是应禁用的警报列表。可能的值有:

NetObservDroppedFlows,当 eBPF 代理缺少数据包或流时(如 BPF hashmap 忙碌或全部)或触发了容量限制器时,这会触发它。

enable

布尔值

enable 设置为 false 以禁用 eBPF 代理指标集合。它会被默认启用。

server

object

Prometheus scraper 的指标服务器端点配置。

13.1.11. .spec.agent.ebpf.metrics.server

描述
Prometheus scraper 的指标服务器端点配置。
类型
object
属性类型描述

port

整数

指标服务器 HTTP 端口。

tls

object

TLS 配置。

13.1.12. .spec.agent.ebpf.metrics.server.tls

描述
TLS 配置。
类型
object
必填
  • type
属性类型描述

insecureSkipVerify

布尔值

insecureSkipVerify 允许跳过提供的证书的客户端侧验证。如果设置为 true,则忽略 providedCaFile 字段。

provided

object

type 设置为 Provided 时的 TLS 配置。

providedCaFile

object

当将 type 设置为 Provided 时,对 CA 文件的引用。

type

string

选择 TLS 配置类型:

- Disabled (默认)没有为端点配置 TLS。- Provided 来手动提供证书文件和密钥文件。[不支持 (*)]. - Auto 使用 OpenShift Container Platform 字段生成的证书,用于注解。

13.1.13. .spec.agent.ebpf.metrics.server.tls.provided

描述
type 设置为 Provided 时的 TLS 配置。
类型
object
属性类型描述

certFile

string

certFile 定义配置映射或 secret 中证书文件名的路径。

certKey

string

certKey 定义配置映射 / Secret 中证书私钥文件名的路径。当不需要键时会省略。

名称

string

包含证书的配置映射或 Secret 的名称。

namespace

string

包含证书的配置映射或 secret 的命名空间。如果省略,则默认为使用与部署 Network Observability 相同的命名空间。如果命名空间不同,则复制配置映射或 secret,以便可以根据需要挂载它。

type

string

证书引用的类型:configmapsecret

13.1.14. .spec.agent.ebpf.metrics.server.tls.providedCaFile

描述
当将 type 设置为 Provided 时,对 CA 文件的引用。
类型
object
属性类型描述

file

string

配置映射或 secret 中的文件名。

名称

string

包含该文件的配置映射或 secret 的名称。

namespace

string

包含该文件的配置映射或 secret 的命名空间。如果省略,则默认为使用与部署 Network Observability 相同的命名空间。如果命名空间不同,则复制配置映射或 secret,以便可以根据需要挂载它。

type

string

文件引用的类型: configmapsecret

13.1.15. .spec.agent.ebpf.resources

描述
resources 是此容器所需的计算资源。如需更多信息,请参阅 https://kubernetes.io/docs/concepts/configuration/manage-resources-containers/
类型
object
属性类型描述

limits

integer-or-string

限制描述了允许的最大计算资源量。更多信息: https://kubernetes.io/docs/concepts/configuration/manage-resources-containers/

requests

integer-or-string

Requests 描述了所需的最少计算资源。如果容器省略了 Requests,则默认为 Limits (如果明确指定),否则默认为实现定义的值。请求不能超过限值。更多信息: https://kubernetes.io/docs/concepts/configuration/manage-resources-containers/

13.1.16. .spec.consolePlugin

描述
ConsolePlugin 定义与 OpenShift Container Platform 控制台插件相关的设置(如果可用)。
类型
object
属性类型描述

advanced

object

advanced 允许设置控制台插件的内部配置的一些方面。本节主要用于调试和精细的性能优化,如 GOGCGOMAXPROCS 环境变量。在设置这些值时,您需要自己考虑相关的风险。

autoscaler

object

Pod 横向自动扩展的 autoscaler 规格来为插件部署设置。请参阅 HorizontalPodAutoscaler 文档(autoscaling/v2)。

enable

布尔值

启用 console 插件部署。

imagePullPolicy

string

imagePullPolicy 是上面定义的镜像的 Kubernetes pull 策略

logLevel

string

控制台插件后端的 logLevel

portNaming

object

portNaming 定义端口到服务名称转换的配置

quickFilters

数组

quickFilters 为 Console 插件配置快速过滤器预设置

replicas

整数

replicas 定义要启动的副本(pod)数。

resources

object

resources,根据此容器所需的计算资源。如需更多信息,请参阅 https://kubernetes.io/docs/concepts/configuration/manage-resources-containers/

13.1.17. .spec.consolePlugin.advanced

描述
advanced 允许设置控制台插件的内部配置的一些方面。本节主要用于调试和精细的性能优化,如 GOGCGOMAXPROCS 环境变量。在设置这些值时,您需要自己考虑相关的风险。
类型
object
属性类型描述

args

数组(字符串)

args 允许将自定义参数传递给底层组件。对于覆盖某些参数(如 url 或配置路径)非常有用,它们不应作为 FlowCollector 描述符的一部分公开,因为它们仅在边缘调试或支持场景中有用。

env

对象(字符串)

env 允许将自定义环境变量传递给底层组件。对于传递一些非常严格的性能调整选项(如 GOGCGOMAXPROCS )非常有用,它们不应作为 FlowCollector 描述符的一部分公开,因为它们仅在边缘调试或支持场景中有用。

port

整数

port 是插件服务端口。不要使用 9002,它为指标保留。

register

布尔值

register 允许(设置为 true 时),在 OpenShift Container Platform Console Operator 中自动注册提供的控制台插件。当设置为 false 时,您仍然可以使用以下命令编辑 console.operator.openshift.io/cluster 来手动注册它: oc patch console.operator.openshift.io cluster --type='json' -p '[{"op": "add", "path": "/spec/plugins/-", "value": "netobserv-plugin"}]'

scheduling

object

scheduling 控制如何在节点上调度 pod。

13.1.18. .spec.consolePlugin.advanced.scheduling

描述
scheduling 控制如何在节点上调度 pod。
类型
object
属性类型描述

关联性

对象

如果指定,pod 的调度限制。有关文档,请参阅 https://kubernetes.io/docs/reference/kubernetes-api/workload-resources/pod-v1/#scheduling

nodeSelector

对象(字符串)

nodeSelector 只允许将 pod 调度到具有每个指定标签的节点上。有关文档,请参阅 https://kubernetes.io/docs/concepts/configuration/assign-pod-node/

priorityClassName

string

如果指定,指示 pod 的优先级。有关文档,请参阅 https://kubernetes.io/docs/concepts/scheduling-eviction/pod-priority-preemption/#how-to-use-priority-and-preemption。如果没有指定,则使用默认优先级,如果没有默认值,则使用零。

容限(tolerations)

数组

tolerations 是一个容限 (toleration) 列表,允许 pod 调度到具有匹配污点的节点。有关文档,请参阅 https://kubernetes.io/docs/reference/kubernetes-api/workload-resources/pod-v1/#scheduling

13.1.19. .spec.consolePlugin.advanced.scheduling.affinity

描述
如果指定,pod 的调度限制。有关文档,请参阅 https://kubernetes.io/docs/reference/kubernetes-api/workload-resources/pod-v1/#scheduling
类型
object

13.1.20. .spec.consolePlugin.advanced.scheduling.tolerations

描述
tolerations 是一个容限 (toleration) 列表,允许 pod 调度到具有匹配污点的节点。有关文档,请参阅 https://kubernetes.io/docs/reference/kubernetes-api/workload-resources/pod-v1/#scheduling
类型
数组

13.1.21. .spec.consolePlugin.autoscaler

描述
Pod 横向自动扩展的 autoscaler 规格来为插件部署设置。请参阅 HorizontalPodAutoscaler 文档(autoscaling/v2)。
类型
object

13.1.22. .spec.consolePlugin.portNaming

描述
portNaming 定义端口到服务名称转换的配置
类型
object
属性类型描述

enable

布尔值

启用 console 插件端口到服务名称转换

portNames

对象(字符串)

portNames 定义了在控制台中使用的额外端口名称,例如 portNames: {"3100": "loki"}

13.1.23. .spec.consolePlugin.quickFilters

描述
quickFilters 为 Console 插件配置快速过滤器预设置
类型
数组

13.1.24. .spec.consolePlugin.quickFilters[]

描述
QuickFilter 为控制台的快速过滤器定义预设置配置
类型
object
必填
  • filter
  • 名称
属性类型描述

default

布尔值

default 定义默认是否应激活此过滤器

filter

对象(字符串)

filter 是一组在选择此过滤器时要设置的键和值。每个键都可以与使用组合字符串的值列表相关,例如 filter: {"src_namespace": "namespace1,namespace2"}

名称

string

过滤器的名称,在控制台中显示

13.1.25. .spec.consolePlugin.resources

描述
resources,根据此容器所需的计算资源。如需更多信息,请参阅 https://kubernetes.io/docs/concepts/configuration/manage-resources-containers/
类型
object
属性类型描述

limits

integer-or-string

限制描述了允许的最大计算资源量。更多信息: https://kubernetes.io/docs/concepts/configuration/manage-resources-containers/

requests

integer-or-string

Requests 描述了所需的最少计算资源。如果容器省略了 Requests,则默认为 Limits (如果明确指定),否则默认为实现定义的值。请求不能超过限值。更多信息: https://kubernetes.io/docs/concepts/configuration/manage-resources-containers/

13.1.26. .spec.exporters

描述
exporters 为自定义消耗或存储定义了额外的可选导出器。
类型
数组

13.1.27. .spec.exporters[]

描述
FlowCollectorExporter 定义了一个额外的导出器来发送增强的流
类型
object
必填
  • type
属性类型描述

ipfix

object

IPFIX 配置,如 IP 地址和端口,以将增强的 IPFIX 流发送到。

kafka

object

Kafka 配置(如地址和主题)将增强的流发送到。

openTelemetry

object

OpenTelemetry 配置,如 IP 地址和端口,用于发送增强的日志或指标。

type

string

type 选择导出器类型。可用的选项有 KafkaIPFIXOpenTelemetry

13.1.28. .spec.exporters[].ipfix

描述
IPFIX 配置,如 IP 地址和端口,以将增强的 IPFIX 流发送到。
类型
object
必填
  • targetHost
  • targetPort
属性类型描述

targetHost

string

IPFIX 外部接收器的地址。

targetPort

整数

IPFIX 外部接收器的端口。

传输

string

用于 IPFIX 连接的传输协议(TCPUDP),默认为 TCP

13.1.29. .spec.exporters[].kafka

描述
Kafka 配置(如地址和主题)将增强的流发送到。
类型
object
必填
  • address
  • topic
属性类型描述

address

string

Kafka 服务器的地址

sasl

object

SASL 身份验证配置。[Unsupported packagemanifests]。

tls

object

TLS 客户端配置。在使用 TLS 时,验证地址是否与用于 TLS 的 Kafka 端口匹配,通常为 9093。

topic

string

要使用的 Kafka 主题。它必须存在。Network Observability 不会创建它。

13.1.30. .spec.exporters[].kafka.sasl

描述
SASL 身份验证配置。[Unsupported packagemanifests]。
类型
object
属性类型描述

clientIDReference

object

对包含客户端 ID 的 secret 或配置映射的引用

clientSecretReference

object

对包含客户端 secret 的 secret 或配置映射的引用

type

string

使用的 SASL 身份验证类型,如果没有使用 SASL,则为 Disabled

13.1.31. .spec.exporters[].kafka.sasl.clientIDReference

描述
对包含客户端 ID 的 secret 或配置映射的引用
类型
object
属性类型描述

file

string

配置映射或 secret 中的文件名。

名称

string

包含该文件的配置映射或 secret 的名称。

namespace

string

包含该文件的配置映射或 secret 的命名空间。如果省略,则默认为使用与部署 Network Observability 相同的命名空间。如果命名空间不同,则复制配置映射或 secret,以便可以根据需要挂载它。

type

string

文件引用的类型: configmapsecret

13.1.32. .spec.exporters[].kafka.sasl.clientSecretReference

描述
对包含客户端 secret 的 secret 或配置映射的引用
类型
object
属性类型描述

file

string

配置映射或 secret 中的文件名。

名称

string

包含该文件的配置映射或 secret 的名称。

namespace

string

包含该文件的配置映射或 secret 的命名空间。如果省略,则默认为使用与部署 Network Observability 相同的命名空间。如果命名空间不同,则复制配置映射或 secret,以便可以根据需要挂载它。

type

string

文件引用的类型: configmapsecret

13.1.33. .spec.exporters[].kafka.tls

描述
TLS 客户端配置。在使用 TLS 时,验证地址是否与用于 TLS 的 Kafka 端口匹配,通常为 9093。
类型
object
属性类型描述

caCert

object

caCert 定义证书颁发机构的证书引用。

enable

布尔值

启用 TLS

insecureSkipVerify

布尔值

insecureSkipVerify 允许跳过服务器证书的客户端验证。如果设置为 true,则忽略 caCert 字段。

userCert

object

userCert 定义用户证书引用,用于 mTLS。使用单向 TLS 时,您可以忽略此属性。

13.1.34. .spec.exporters[].kafka.tls.caCert

描述
caCert 定义证书颁发机构的证书引用。
类型
object
属性类型描述

certFile

string

certFile 定义配置映射或 secret 中证书文件名的路径。

certKey

string

certKey 定义配置映射 / Secret 中证书私钥文件名的路径。当不需要键时会省略。

名称

string

包含证书的配置映射或 Secret 的名称。

namespace

string

包含证书的配置映射或 secret 的命名空间。如果省略,则默认为使用与部署 Network Observability 相同的命名空间。如果命名空间不同,则复制配置映射或 secret,以便可以根据需要挂载它。

type

string

证书引用的类型:configmapsecret

13.1.35. .spec.exporters[].kafka.tls.userCert

描述
userCert 定义用户证书引用,用于 mTLS。使用单向 TLS 时,您可以忽略此属性。
类型
object
属性类型描述

certFile

string

certFile 定义配置映射或 secret 中证书文件名的路径。

certKey

string

certKey 定义配置映射 / Secret 中证书私钥文件名的路径。当不需要键时会省略。

名称

string

包含证书的配置映射或 Secret 的名称。

namespace

string

包含证书的配置映射或 secret 的命名空间。如果省略,则默认为使用与部署 Network Observability 相同的命名空间。如果命名空间不同,则复制配置映射或 secret,以便可以根据需要挂载它。

type

string

证书引用的类型:configmapsecret

13.1.36. .spec.exporters[].openTelemetry

描述
OpenTelemetry 配置,如 IP 地址和端口,用于发送增强的日志或指标。
类型
object
必填
  • targetHost
  • targetPort
属性类型描述

fieldsMapping

数组

自定义字段映射到 OpenTelemetry 一致性格式。默认情况下使用 Network Observability 格式提议 :https://github.com/rhobs/observability-data-model/blob/main/network-observability.md#format-proposal。因为目前没有 L3 或 L4 增强的网络日志接受的标准,因此您可以自行自由覆盖它。

标头

对象(字符串)

要添加到消息的标头(可选)

logs

object

日志的 OpenTelemetry 配置。

metrics

object

指标的 OpenTelemetry 配置。

protocol

string

OpenTelemetry 连接的协议。可用的选项包括 httpgrpc

targetHost

string

OpenTelemetry 接收器的地址。

targetPort

整数

OpenTelemetry 接收器的端口。

tls

object

TLS 客户端配置。

13.1.37. .spec.exporters[].openTelemetry.fieldsMapping

描述
自定义字段映射到 OpenTelemetry 一致性格式。默认情况下使用 Network Observability 格式提议 :https://github.com/rhobs/observability-data-model/blob/main/network-observability.md#format-proposal。因为目前没有 L3 或 L4 增强的网络日志接受的标准,因此您可以自行自由覆盖它。
类型
数组

13.1.38. .spec.exporters[].openTelemetry.fieldsMapping[]

描述
类型
object
属性类型描述

输入

string

 

multiplier

整数

 

output

string

 

13.1.39. .spec.exporters[].openTelemetry.logs

描述
日志的 OpenTelemetry 配置。
类型
object
属性类型描述

enable

布尔值

enable 设置为 true 以将日志发送到 OpenTelemetry 接收器。

13.1.40. .spec.exporters[].openTelemetry.metrics

描述
指标的 OpenTelemetry 配置。
类型
object
属性类型描述

enable

布尔值

enable 设置为 true,将指标发送到 OpenTelemetry 接收器。

pushTimeInterval

string

指定将指标发送到收集器的频率。

13.1.41. .spec.exporters[].openTelemetry.tls

描述
TLS 客户端配置。
类型
object
属性类型描述

caCert

object

caCert 定义证书颁发机构的证书引用。

enable

布尔值

启用 TLS

insecureSkipVerify

布尔值

insecureSkipVerify 允许跳过服务器证书的客户端验证。如果设置为 true,则忽略 caCert 字段。

userCert

object

userCert 定义用户证书引用,用于 mTLS。使用单向 TLS 时,您可以忽略此属性。

13.1.42. .spec.exporters[].openTelemetry.tls.caCert

描述
caCert 定义证书颁发机构的证书引用。
类型
object
属性类型描述

certFile

string

certFile 定义配置映射或 secret 中证书文件名的路径。

certKey

string

certKey 定义配置映射 / Secret 中证书私钥文件名的路径。当不需要键时会省略。

名称

string

包含证书的配置映射或 Secret 的名称。

namespace

string

包含证书的配置映射或 secret 的命名空间。如果省略,则默认为使用与部署 Network Observability 相同的命名空间。如果命名空间不同,则复制配置映射或 secret,以便可以根据需要挂载它。

type

string

证书引用的类型:configmapsecret

13.1.43. .spec.exporters[].openTelemetry.tls.userCert

描述
userCert 定义用户证书引用,用于 mTLS。使用单向 TLS 时,您可以忽略此属性。
类型
object
属性类型描述

certFile

string

certFile 定义配置映射或 secret 中证书文件名的路径。

certKey

string

certKey 定义配置映射 / Secret 中证书私钥文件名的路径。当不需要键时会省略。

名称

string

包含证书的配置映射或 Secret 的名称。

namespace

string

包含证书的配置映射或 secret 的命名空间。如果省略,则默认为使用与部署 Network Observability 相同的命名空间。如果命名空间不同,则复制配置映射或 secret,以便可以根据需要挂载它。

type

string

证书引用的类型:configmapsecret

13.1.44. .spec.kafka

描述
Kafka 配置,允许使用 Kafka 作为流集合管道的一部分。当 spec.deploymentModelKafka 时可用。
类型
object
必填
  • address
  • topic
属性类型描述

address

string

Kafka 服务器的地址

sasl

object

SASL 身份验证配置。[Unsupported packagemanifests]。

tls

object

TLS 客户端配置。在使用 TLS 时,验证地址是否与用于 TLS 的 Kafka 端口匹配,通常为 9093。

topic

string

要使用的 Kafka 主题。它必须存在。Network Observability 不会创建它。

13.1.45. .spec.kafka.sasl

描述
SASL 身份验证配置。[Unsupported packagemanifests]。
类型
object
属性类型描述

clientIDReference

object

对包含客户端 ID 的 secret 或配置映射的引用

clientSecretReference

object

对包含客户端 secret 的 secret 或配置映射的引用

type

string

使用的 SASL 身份验证类型,如果没有使用 SASL,则为 Disabled

13.1.46. .spec.kafka.sasl.clientIDReference

描述
对包含客户端 ID 的 secret 或配置映射的引用
类型
object
属性类型描述

file

string

配置映射或 secret 中的文件名。

名称

string

包含该文件的配置映射或 secret 的名称。

namespace

string

包含该文件的配置映射或 secret 的命名空间。如果省略,则默认为使用与部署 Network Observability 相同的命名空间。如果命名空间不同,则复制配置映射或 secret,以便可以根据需要挂载它。

type

string

文件引用的类型: configmapsecret

13.1.47. .spec.kafka.sasl.clientSecretReference

描述
对包含客户端 secret 的 secret 或配置映射的引用
类型
object
属性类型描述

file

string

配置映射或 secret 中的文件名。

名称

string

包含该文件的配置映射或 secret 的名称。

namespace

string

包含该文件的配置映射或 secret 的命名空间。如果省略,则默认为使用与部署 Network Observability 相同的命名空间。如果命名空间不同,则复制配置映射或 secret,以便可以根据需要挂载它。

type

string

文件引用的类型: configmapsecret

13.1.48. .spec.kafka.tls

描述
TLS 客户端配置。在使用 TLS 时,验证地址是否与用于 TLS 的 Kafka 端口匹配,通常为 9093。
类型
object
属性类型描述

caCert

object

caCert 定义证书颁发机构的证书引用。

enable

布尔值

启用 TLS

insecureSkipVerify

布尔值

insecureSkipVerify 允许跳过服务器证书的客户端验证。如果设置为 true,则忽略 caCert 字段。

userCert

object

userCert 定义用户证书引用,用于 mTLS。使用单向 TLS 时,您可以忽略此属性。

13.1.49. .spec.kafka.tls.caCert

描述
caCert 定义证书颁发机构的证书引用。
类型
object
属性类型描述

certFile

string

certFile 定义配置映射或 secret 中证书文件名的路径。

certKey

string

certKey 定义配置映射 / Secret 中证书私钥文件名的路径。当不需要键时会省略。

名称

string

包含证书的配置映射或 Secret 的名称。

namespace

string

包含证书的配置映射或 secret 的命名空间。如果省略,则默认为使用与部署 Network Observability 相同的命名空间。如果命名空间不同,则复制配置映射或 secret,以便可以根据需要挂载它。

type

string

证书引用的类型:configmapsecret

13.1.50. .spec.kafka.tls.userCert

描述
userCert 定义用户证书引用,用于 mTLS。使用单向 TLS 时,您可以忽略此属性。
类型
object
属性类型描述

certFile

string

certFile 定义配置映射或 secret 中证书文件名的路径。

certKey

string

certKey 定义配置映射 / Secret 中证书私钥文件名的路径。当不需要键时会省略。

名称

string

包含证书的配置映射或 Secret 的名称。

namespace

string

包含证书的配置映射或 secret 的命名空间。如果省略,则默认为使用与部署 Network Observability 相同的命名空间。如果命名空间不同,则复制配置映射或 secret,以便可以根据需要挂载它。

type

string

证书引用的类型:configmapsecret

13.1.51. .spec.loki

描述
loki,流存储、客户端设置。
类型
object
必填
  • 模式
属性类型描述

advanced

object

advanced 允许设置 Loki 客户端的内部配置的一些方面。本节主要用于调试和精细的性能优化。

enable

布尔值

enable 设置为 true 以在 Loki 中存储流。Console 插件可以使用 Loki 或 Prometheus(或两者)作为指标的数据源(请参阅 spec.prometheus.querier)。并非所有查询都可从 Loki 转换为 Prometheus。因此,如果 Loki 被禁用,插件的一些功能也会被禁用,如获取每个 pod 的信息或查看原始流。如果启用了 Prometheus 和 Loki,Prometheus 会优先使用,Loki 作为 Prometheus 无法处理的查询的回退系统。如果两者都被禁用,则不会部署 Console 插件。

lokiStack

object

LokiStack 模式的 Loki 配置。这对简单的 Loki Operator 配置很有用。对于其他模式,它会被忽略。

manual

object

Manual 模式的 Loki 配置。这是最灵活的配置。对于其他模式,它会被忽略。

微服务

object

对于 Microservices 模式的 Loki 配置。当使用微服务部署模式(https://grafana.com/docs/loki/latest/fundamentals/architecture/deployment-modes/#microservices-mode)安装 Loki 时使用这个选项。对于其他模式,它会被忽略。

模式

string

mode 必须根据 Loki 的安装模式设置:

- 当 Loki 通过 Loki Operator 管理时使用 LokiStack

- 当 Loki 作为单体工作负载安装时,使用 Monolithic

- 当 Loki 作为微服务安装,但没有 Loki Operator 时,使用 Microservices

- 如果以上选项与您的设置都不匹配,则使用 Manual

monolithic

object

Monolithic 模式的 Loki 配置。当使用单体部署模式 (https://grafana.com/docs/loki/latest/fundamentals/architecture/deployment-modes/#monolithic-mode) 安装 Loki 时使用这个选项。对于其他模式,它会被忽略。

readTimeout

string

readTimeout 是最大控制台插件 loki 查询总时间的限制。超时值为零表示没有超时。

writeBatchSize

整数

writeBatchSize 是在发送前累积的 Loki 日志的最大批处理大小(以字节为单位)。

writeBatchWait

string

writeBatchWait 是发送 Loki 批处理前等待的最长时间。

writeTimeout

string

writeTimeout 是最大 Loki 时间连接 / 请求限制。超时值为零表示没有超时。

13.1.52. .spec.loki.advanced

描述
advanced 允许设置 Loki 客户端的内部配置的一些方面。本节主要用于调试和精细的性能优化。
类型
object
属性类型描述

staticLabels

对象(字符串)

staticLabels 是 Loki 存储中的每个流上设置的通用标签映射。

writeMaxBackoff

string

writeMaxBackoff 是 Loki 客户端连接在重试之间的最大 backoff 时间。

writeMaxRetries

整数

writeMaxRetries 是 Loki 客户端连接的最大重试次数。

writeMinBackoff

string

writeMinBackoff 是 Loki 客户端连接在重试之间的初始 backoff 时间。

13.1.53. .spec.loki.lokiStack

描述
LokiStack 模式的 Loki 配置。这对简单的 Loki Operator 配置很有用。对于其他模式,它会被忽略。
类型
object
必填
  • name
属性类型描述

name

string

要使用的现有 LokiStack 资源的名称。

namespace

string

LokiStack 资源所在的命名空间。如果省略,则假定它与 spec.namespace 相同。

13.1.54. .spec.loki.manual

描述
Manual 模式的 Loki 配置。这是最灵活的配置。对于其他模式,它会被忽略。
类型
object
属性类型描述

authToken

string

authToken 描述了获取与 Loki 进行身份验证的令牌的方法。

- Disabled 请求不发送任何令牌。

- Forward 转发用户令牌用于验证。

- Host [已启用 (*)] - 使用本地 pod 服务帐户用于 Loki 进行身份验证。

使用 Loki Operator 时,必须设置为 Forward

ingesterUrl

string

ingesterUrl 是现有 Loki ingester 服务的地址,用于将流推送到。使用 Loki Operator 时,使用路径中设置的 network 租户将其设置为 Loki 网关服务,例如 https://loki-gateway-http.netobserv.svc:8080/api/logs/v1/network

querierUrl

string

querierUrl 指定 Loki querier 服务的地址。使用 Loki Operator 时,使用路径中设置的 network 租户将其设置为 Loki 网关服务,例如 https://loki-gateway-http.netobserv.svc:8080/api/logs/v1/network

statusTls

object

Loki 状态 URL 的 TLS 客户端配置。

statusUrl

string

statusUrl 指定 Loki /ready/metrics/config 端点的地址,如果它与 Loki querier URL 不同。如果为空,则使用 querierUrl 值。这可用于在前端中显示错误消息和一些上下文。使用 Loki Operator 时,将其设置为 Loki HTTP 查询前端服务,例如 https://loki-query-frontend-http.netobserv.svc:3100/。当设置 statusUrl 时,使用 statusTLS 配置。

tenantID

string

tenantId 是 Loki X-Scope-OrgID,用于标识每个请求的租户。使用 Loki Operator 时,将其设置为 network,这对应于一个特殊的租户模式。

tls

object

Loki URL 的 TLS 客户端配置。

13.1.55. .spec.loki.manual.statusTls

描述
Loki 状态 URL 的 TLS 客户端配置。
类型
object
属性类型描述

caCert

object

caCert 定义证书颁发机构的证书引用。

enable

布尔值

启用 TLS

insecureSkipVerify

布尔值

insecureSkipVerify 允许跳过服务器证书的客户端验证。如果设置为 true,则忽略 caCert 字段。

userCert

object

userCert 定义用户证书引用,用于 mTLS。使用单向 TLS 时,您可以忽略此属性。

13.1.56. .spec.loki.manual.statusTls.caCert

描述
caCert 定义证书颁发机构的证书引用。
类型
object
属性类型描述

certFile

string

certFile 定义配置映射或 secret 中证书文件名的路径。

certKey

string

certKey 定义配置映射 / Secret 中证书私钥文件名的路径。当不需要键时会省略。

名称

string

包含证书的配置映射或 Secret 的名称。

namespace

string

包含证书的配置映射或 secret 的命名空间。如果省略,则默认为使用与部署 Network Observability 相同的命名空间。如果命名空间不同,则复制配置映射或 secret,以便可以根据需要挂载它。

type

string

证书引用的类型:configmapsecret

13.1.57. .spec.loki.manual.statusTls.userCert

描述
userCert 定义用户证书引用,用于 mTLS。使用单向 TLS 时,您可以忽略此属性。
类型
object
属性类型描述

certFile

string

certFile 定义配置映射或 secret 中证书文件名的路径。

certKey

string

certKey 定义配置映射 / Secret 中证书私钥文件名的路径。当不需要键时会省略。

名称

string

包含证书的配置映射或 Secret 的名称。

namespace

string

包含证书的配置映射或 secret 的命名空间。如果省略,则默认为使用与部署 Network Observability 相同的命名空间。如果命名空间不同,则复制配置映射或 secret,以便可以根据需要挂载它。

type

string

证书引用的类型:configmapsecret

13.1.58. .spec.loki.manual.tls

描述
Loki URL 的 TLS 客户端配置。
类型
object
属性类型描述

caCert

object

caCert 定义证书颁发机构的证书引用。

enable

布尔值

启用 TLS

insecureSkipVerify

布尔值

insecureSkipVerify 允许跳过服务器证书的客户端验证。如果设置为 true,则忽略 caCert 字段。

userCert

object

userCert 定义用户证书引用,用于 mTLS。使用单向 TLS 时,您可以忽略此属性。

13.1.59. .spec.loki.manual.tls.caCert

描述
caCert 定义证书颁发机构的证书引用。
类型
object
属性类型描述

certFile

string

certFile 定义配置映射或 secret 中证书文件名的路径。

certKey

string

certKey 定义配置映射 / Secret 中证书私钥文件名的路径。当不需要键时会省略。

名称

string

包含证书的配置映射或 Secret 的名称。

namespace

string

包含证书的配置映射或 secret 的命名空间。如果省略,则默认为使用与部署 Network Observability 相同的命名空间。如果命名空间不同,则复制配置映射或 secret,以便可以根据需要挂载它。

type

string

证书引用的类型:configmapsecret

13.1.60. .spec.loki.manual.tls.userCert

描述
userCert 定义用户证书引用,用于 mTLS。使用单向 TLS 时,您可以忽略此属性。
类型
object
属性类型描述

certFile

string

certFile 定义配置映射或 secret 中证书文件名的路径。

certKey

string

certKey 定义配置映射 / Secret 中证书私钥文件名的路径。当不需要键时会省略。

名称

string

包含证书的配置映射或 Secret 的名称。

namespace

string

包含证书的配置映射或 secret 的命名空间。如果省略,则默认为使用与部署 Network Observability 相同的命名空间。如果命名空间不同,则复制配置映射或 secret,以便可以根据需要挂载它。

type

string

证书引用的类型:configmapsecret

13.1.61. .spec.loki.microservices

描述
对于 Microservices 模式的 Loki 配置。当使用微服务部署模式(https://grafana.com/docs/loki/latest/fundamentals/architecture/deployment-modes/#microservices-mode)安装 Loki 时使用这个选项。对于其他模式,它会被忽略。
类型
object
属性类型描述

ingesterUrl

string

ingesterUrl 是现有 Loki ingester 服务的地址,用于将流推送到。

querierUrl

string

querierUrl 指定 Loki querier 服务的地址。

tenantID

string

tenantID 是 Loki X-Scope-OrgID 标头,用于标识每个请求的租户。

tls

object

Loki URL 的 TLS 客户端配置。

13.1.62. .spec.loki.microservices.tls

描述
Loki URL 的 TLS 客户端配置。
类型
object
属性类型描述

caCert

object

caCert 定义证书颁发机构的证书引用。

enable

布尔值

启用 TLS

insecureSkipVerify

布尔值

insecureSkipVerify 允许跳过服务器证书的客户端验证。如果设置为 true,则忽略 caCert 字段。

userCert

object

userCert 定义用户证书引用,用于 mTLS。使用单向 TLS 时,您可以忽略此属性。

13.1.63. .spec.loki.microservices.tls.caCert

描述
caCert 定义证书颁发机构的证书引用。
类型
object
属性类型描述

certFile

string

certFile 定义配置映射或 secret 中证书文件名的路径。

certKey

string

certKey 定义配置映射 / Secret 中证书私钥文件名的路径。当不需要键时会省略。

名称

string

包含证书的配置映射或 Secret 的名称。

namespace

string

包含证书的配置映射或 secret 的命名空间。如果省略,则默认为使用与部署 Network Observability 相同的命名空间。如果命名空间不同,则复制配置映射或 secret,以便可以根据需要挂载它。

type

string

证书引用的类型:configmapsecret

13.1.64. .spec.loki.microservices.tls.userCert

描述
userCert 定义用户证书引用,用于 mTLS。使用单向 TLS 时,您可以忽略此属性。
类型
object
属性类型描述

certFile

string

certFile 定义配置映射或 secret 中证书文件名的路径。

certKey

string

certKey 定义配置映射 / Secret 中证书私钥文件名的路径。当不需要键时会省略。

名称

string

包含证书的配置映射或 Secret 的名称。

namespace

string

包含证书的配置映射或 secret 的命名空间。如果省略,则默认为使用与部署 Network Observability 相同的命名空间。如果命名空间不同,则复制配置映射或 secret,以便可以根据需要挂载它。

type

string

证书引用的类型:configmapsecret

13.1.65. .spec.loki.monolithic

描述
Monolithic 模式的 Loki 配置。当使用单体部署模式 (https://grafana.com/docs/loki/latest/fundamentals/architecture/deployment-modes/#monolithic-mode) 安装 Loki 时使用这个选项。对于其他模式,它会被忽略。
类型
object
属性类型描述

tenantID

string

tenantID 是 Loki X-Scope-OrgID 标头,用于标识每个请求的租户。

tls

object

Loki URL 的 TLS 客户端配置。

url

string

url 是现有 Loki 服务的唯一地址,它同时指向 ingester 和 querier。

13.1.66. .spec.loki.monolithic.tls

描述
Loki URL 的 TLS 客户端配置。
类型
object
属性类型描述

caCert

object

caCert 定义证书颁发机构的证书引用。

enable

布尔值

启用 TLS

insecureSkipVerify

布尔值

insecureSkipVerify 允许跳过服务器证书的客户端验证。如果设置为 true,则忽略 caCert 字段。

userCert

object

userCert 定义用户证书引用,用于 mTLS。使用单向 TLS 时,您可以忽略此属性。

13.1.67. .spec.loki.monolithic.tls.caCert

描述
caCert 定义证书颁发机构的证书引用。
类型
object
属性类型描述

certFile

string

certFile 定义配置映射或 secret 中证书文件名的路径。

certKey

string

certKey 定义配置映射 / Secret 中证书私钥文件名的路径。当不需要键时会省略。

名称

string

包含证书的配置映射或 Secret 的名称。

namespace

string

包含证书的配置映射或 secret 的命名空间。如果省略,则默认为使用与部署 Network Observability 相同的命名空间。如果命名空间不同,则复制配置映射或 secret,以便可以根据需要挂载它。

type

string

证书引用的类型:configmapsecret

13.1.68. .spec.loki.monolithic.tls.userCert

描述
userCert 定义用户证书引用,用于 mTLS。使用单向 TLS 时,您可以忽略此属性。
类型
object
属性类型描述

certFile

string

certFile 定义配置映射或 secret 中证书文件名的路径。

certKey

string

certKey 定义配置映射 / Secret 中证书私钥文件名的路径。当不需要键时会省略。

名称

string

包含证书的配置映射或 Secret 的名称。

namespace

string

包含证书的配置映射或 secret 的命名空间。如果省略,则默认为使用与部署 Network Observability 相同的命名空间。如果命名空间不同,则复制配置映射或 secret,以便可以根据需要挂载它。

type

string

证书引用的类型:configmapsecret

13.1.69. .spec.networkPolicy

描述
NetworkPolicy 为 Network Observability 组件隔离定义入口网络策略设置。
类型
object
属性类型描述

additionalNamespaces

数组(字符串)

additionalNamespaces 包含允许连接到 Network Observability 命名空间的额外命名空间。它为网络策略配置提供了灵活性,但如果您需要更为具体的配置,您可以禁用它并安装自己的配置。

enable

布尔值

enable 设置为 true,以在 Network Observability 使用的命名空间上部署网络策略 (main 和 privileged)。它默认是禁用的。这些网络策略可以更好地隔离 Network Observability 组件,以防止出现不必要的连接。我们建议您启用它,或为 Network Observability 创建自己的网络策略。

13.1.70. .spec.processor

描述
processor 定义从代理接收流的组件设置,增强它们,生成指标,并将它们转发到 Loki 持久层和/或任何可用的导出器。
类型
object
属性类型描述

addZone

布尔值

addZone 通过使用其源和目标区标记流来允许可用区感知。此功能要求在节点上设置 "topology.kubernetes.io/zone" 标签。

advanced

object

advanced 允许设置流处理器的内部配置。本节主要用于调试和精细的性能优化,如 GOGCGOMAXPROCS 环境变量。在设置这些值时,您需要自己考虑相关的风险。

clusterName

string

clusterName 是要出现在流数据中的集群名称。这在多集群上下文中很有用。使用 OpenShift Container Platform 时,留空,使其自动决定。

imagePullPolicy

string

imagePullPolicy 是上面定义的镜像的 Kubernetes pull 策略

kafkaConsumerAutoscaler

object

kafkaConsumerAutoscaler 是 Pod 横向自动扩展的 spec,用于 flowlogs-pipeline-transformer,它使用 Kafka 信息。当 Kafka 被禁用时,会忽略此设置。请参阅 HorizontalPodAutoscaler 文档(autoscaling/v2)。

kafkaConsumerBatchSize

整数

kafkaConsumerBatchSize 表示代理消费者接受的最大批处理大小(以字节为单位)。如果不使用 Kafka,则忽略。默认:10MB。

kafkaConsumerQueueCapacity

整数

kafkaConsumerQueueCapacity 定义 Kafka 消费者客户端中使用的内部消息队列的容量。如果不使用 Kafka,则忽略。

kafkaConsumerReplicas

整数

kafkaConsumerReplicas 定义了为 flowlogs-pipeline-transformer 启动的副本数,它使用 Kafka 信息。当 Kafka 被禁用时,会忽略此设置。

logLevel

string

处理器运行时的 logLevel

logTypes

string

logTypes 定义要生成的记录类型。可能的值有:

- Flows(默认)导出常规网络流

- Conversations 为开始的对话、结束的对话以及定期的"tick"更新生成事件

- EndedConversations 只生成结束的对话事件

- All 生成网络流和所有对话事件

metrics

object

Metrics 定义有关指标的处理器配置

multiClusterDeployment

布尔值

multiClusterDeployment 设置为 true 以启用多集群功能。这会为流数据添加 clusterName 标签

resources

object

resources 是此容器所需的计算资源。如需更多信息,请参阅 https://kubernetes.io/docs/concepts/configuration/manage-resources-containers/

subnetLabels

object

subnetLabels 允许在子网和 IP 上定义自定义标签,或者在 OpenShift Container Platform 中启用自动标记可识别的子网,用于标识集群外部流量。当子网与流的源或目标 IP 匹配时,会添加一个对应的字段:SrcSubnetLabelDstSubnetLabel

13.1.71. .spec.processor.advanced

描述
advanced 允许设置流处理器的内部配置。本节主要用于调试和精细的性能优化,如 GOGCGOMAXPROCS 环境变量。在设置这些值时,您需要自己考虑相关的风险。
类型
object
属性类型描述

conversationEndTimeout

string

conversationEndTimeout 是收到网络流后等待的时间,请考虑对话结束的时间。为 TCP 流收集 FIN 数据包时会忽略此延迟(请参阅 conversationTerminatingTimeout)。

conversationHeartbeatInterval

string

conversationHeartbeatInterval 是对话的 "tick" 事件间的等待时间

conversationTerminatingTimeout

string

conversationTerminatingTimeout 是从检测到的 FIN 标志到对话结束间的等待时间。只适用于 TCP 流。

dropUnusedFields

布尔值

dropUnusedFields [已弃用 (*)] 此设置不再使用。

enableKubeProbes

布尔值

enableKubeProbes 是一个用于启用或禁用 Kubernetes 存活度和就绪度探测的标志

env

对象(字符串)

env 允许将自定义环境变量传递给底层组件。对于传递一些非常严格的性能调整选项(如 GOGCGOMAXPROCS )非常有用,它们不应作为 FlowCollector 描述符的一部分公开,因为它们仅在边缘调试或支持场景中有用。

healthPort

整数

healthPort 是 Pod 中的收集器 HTTP 端口,用于公开健康检查 API

port

整数

流收集器(主机端口)的端口。按照惯例,一些值会被禁止。它必须大于 1024,且不能是 4500、4789 和 6081。

profilePort

整数

profilePort 允许设置侦听此端口的 Go pprof profiler

scheduling

object

调度控制如何在节点上调度 pod。

secondaryNetworks

数组

定义要检查的二级网络,以进行资源识别。为确保一个正确的识别,索引值需要在集群中形成唯一标识符。如果多个资源使用相同的索引,则这些资源可能会错误地标记。

13.1.72. .spec.processor.advanced.scheduling

描述
调度控制如何在节点上调度 pod。
类型
object
属性类型描述

关联性

对象

如果指定,pod 的调度限制。有关文档,请参阅 https://kubernetes.io/docs/reference/kubernetes-api/workload-resources/pod-v1/#scheduling

nodeSelector

对象(字符串)

nodeSelector 只允许将 pod 调度到具有每个指定标签的节点上。有关文档,请参阅 https://kubernetes.io/docs/concepts/configuration/assign-pod-node/

priorityClassName

string

如果指定,指示 pod 的优先级。有关文档,请参阅 https://kubernetes.io/docs/concepts/scheduling-eviction/pod-priority-preemption/#how-to-use-priority-and-preemption。如果没有指定,则使用默认优先级,如果没有默认值,则使用零。

容限(tolerations)

数组

tolerations 是一个容限 (toleration) 列表,允许 pod 调度到具有匹配污点的节点。有关文档,请参阅 https://kubernetes.io/docs/reference/kubernetes-api/workload-resources/pod-v1/#scheduling

13.1.73. .spec.processor.advanced.scheduling.affinity

描述
如果指定,pod 的调度限制。有关文档,请参阅 https://kubernetes.io/docs/reference/kubernetes-api/workload-resources/pod-v1/#scheduling
类型
object

13.1.74. .spec.processor.advanced.scheduling.tolerations

描述
tolerations 是一个容限 (toleration) 列表,允许 pod 调度到具有匹配污点的节点。有关文档,请参阅 https://kubernetes.io/docs/reference/kubernetes-api/workload-resources/pod-v1/#scheduling
类型
数组

13.1.75. .spec.processor.advanced.secondaryNetworks

描述
定义要检查的二级网络,以进行资源识别。为确保一个正确的识别,索引值需要在集群中形成唯一标识符。如果多个资源使用相同的索引,则这些资源可能会错误地标记。
类型
数组

13.1.76. .spec.processor.advanced.secondaryNetworks[]

描述
类型
object
必填
  • index
  • 名称
属性类型描述

index

数组(字符串)

index 是用于索引 pod 的字段列表。它们应该在集群中形成唯一的 Pod 标识符。可以是以下 :MAC, IP, Interface。'k8s.v1.cni.cncf.io/network-status' 注解中不存在的字段不能添加到索引中。

名称

string

name 应该与 pod 注解 'k8s.v1.cni.cncf.io/network-status' 中的网络名称匹配。

13.1.77. .spec.processor.kafkaConsumerAutoscaler

描述
kafkaConsumerAutoscaler 是 Pod 横向自动扩展的 spec,用于 flowlogs-pipeline-transformer,它使用 Kafka 信息。当 Kafka 被禁用时,会忽略此设置。请参阅 HorizontalPodAutoscaler 文档(autoscaling/v2)。
类型
object

13.1.78. .spec.processor.metrics

描述
Metrics 定义有关指标的处理器配置
类型
object
属性类型描述

disableAlerts

数组(字符串)

disableAlerts 是应禁用的警报列表。可能的值有:

NetObservNoFlows,它会在特定时间段内没有观察到流时触发。

NetObservLokiError,它会在因为 Loki 错误而丢弃流时触发。

includeList

数组(字符串)

includeList 是一个指标名称列表,用于指定要生成的名称。名称与 Prometheus 中没有前缀的名称对应。例如,namespace_egress_packets_total 在 Prometheus 中显示为 netobserv_namespace_egress_packets_total。请注意,您添加的指标越大,对 Prometheus 工作负载资源的影响更大。默认启用的指标包括:namespace_flows_total, node_ingress_bytes_total, node_egress_bytes_total, workload_ingress_bytes_total, workload_egress_bytes_total, namespace_drop_packets_total (当 PacketDrop 功能启用时), namespace_rtt_seconds (当 FlowRTT 功能启用时), namespace_dns_latency_seconds (当 DNSTracking 功能启用时)。如需更多信息,包含可用指标的完整列表: https://github.com/netobserv/network-observability-operator/blob/main/docs/Metrics.md

server

object

Prometheus scraper 的指标服务器端点配置

13.1.79. .spec.processor.metrics.server

描述
Prometheus scraper 的指标服务器端点配置
类型
object
属性类型描述

port

整数

指标服务器 HTTP 端口。

tls

object

TLS 配置。

13.1.80. .spec.processor.metrics.server.tls

描述
TLS 配置。
类型
object
必填
  • type
属性类型描述

insecureSkipVerify

布尔值

insecureSkipVerify 允许跳过提供的证书的客户端侧验证。如果设置为 true,则忽略 providedCaFile 字段。

provided

object

type 设置为 Provided 时的 TLS 配置。

providedCaFile

object

当将 type 设置为 Provided 时,对 CA 文件的引用。

type

string

选择 TLS 配置类型:

- Disabled (默认)没有为端点配置 TLS。- Provided 来手动提供证书文件和密钥文件。[不支持 (*)]. - Auto 使用 OpenShift Container Platform 字段生成的证书,用于注解。

13.1.81. .spec.processor.metrics.server.tls.provided

描述
type 设置为 Provided 时的 TLS 配置。
类型
object
属性类型描述

certFile

string

certFile 定义配置映射或 secret 中证书文件名的路径。

certKey

string

certKey 定义配置映射 / Secret 中证书私钥文件名的路径。当不需要键时会省略。

名称

string

包含证书的配置映射或 Secret 的名称。

namespace

string

包含证书的配置映射或 secret 的命名空间。如果省略,则默认为使用与部署 Network Observability 相同的命名空间。如果命名空间不同,则复制配置映射或 secret,以便可以根据需要挂载它。

type

string

证书引用的类型:configmapsecret

13.1.82. .spec.processor.metrics.server.tls.providedCaFile

描述
当将 type 设置为 Provided 时,对 CA 文件的引用。
类型
object
属性类型描述

file

string

配置映射或 secret 中的文件名。

名称

string

包含该文件的配置映射或 secret 的名称。

namespace

string

包含该文件的配置映射或 secret 的命名空间。如果省略,则默认为使用与部署 Network Observability 相同的命名空间。如果命名空间不同,则复制配置映射或 secret,以便可以根据需要挂载它。

type

string

文件引用的类型: configmapsecret

13.1.83. .spec.processor.resources

描述
resources 是此容器所需的计算资源。如需更多信息,请参阅 https://kubernetes.io/docs/concepts/configuration/manage-resources-containers/
类型
object
属性类型描述

limits

integer-or-string

限制描述了允许的最大计算资源量。更多信息: https://kubernetes.io/docs/concepts/configuration/manage-resources-containers/

requests

integer-or-string

Requests 描述了所需的最少计算资源。如果容器省略了 Requests,则默认为 Limits (如果明确指定),否则默认为实现定义的值。请求不能超过限值。更多信息: https://kubernetes.io/docs/concepts/configuration/manage-resources-containers/

13.1.84. .spec.processor.subnetLabels

描述
subnetLabels 允许在子网和 IP 上定义自定义标签,或者在 OpenShift Container Platform 中启用自动标记可识别的子网,用于标识集群外部流量。当子网与流的源或目标 IP 匹配时,会添加一个对应的字段:SrcSubnetLabelDstSubnetLabel
类型
object
属性类型描述

customLabels

数组

customLabels 允许自定义子网和 IP 标签,如标识集群外部工作负载或 Web 服务。如果启用 openShiftAutoDetect,则customLabels 可以在重叠时覆盖检测到的子网。

openShiftAutoDetect

布尔值

openShiftAutoDetect 允许当设置为 true 时,根据 OpenShift Container Platform 安装配置和 Cluster Network Operator 配置来自动检测机器、Pod 和服务子网。间接来说,这是准确检测外部流量的方法:针对这些子网没有标记的流是集群外部的。在 OpenShift Container Platform 中默认启用。

13.1.85. .spec.processor.subnetLabels.customLabels

描述
customLabels 允许自定义子网和 IP 标签,如标识集群外部工作负载或 Web 服务。如果启用 openShiftAutoDetect,则customLabels 可以在重叠时覆盖检测到的子网。
类型
数组

13.1.86. .spec.processor.subnetLabels.customLabels[]

描述
SubnetLabel 允许标记子网和 IP,如标识集群外部工作负载或 Web 服务。
类型
object
必填
  • cidrs
  • 名称
属性类型描述

cidrs

数组(字符串)

CIDR 列表,如 ["1.2.3.4/32"]

名称

string

标签名称,用于标记匹配流。

13.1.87. .spec.prometheus

描述
prometheus 定义 Prometheus 设置,如用于从控制台插件获取指标的 querier 配置。
类型
object
属性类型描述

querier

object

Prometheus 查询配置,如控制台插件中使用的客户端设置。

13.1.88. .spec.prometheus.querier

描述
Prometheus 查询配置,如控制台插件中使用的客户端设置。
类型
object
必填
  • 模式
属性类型描述

enable

布尔值

enabletrue 时,Console 插件会查询 Prometheus 中的流指标,而不是 Loki。它默认是 enbaled :将其设置为 false 来禁用此功能。Console 插件可以使用 Loki 或 Prometheus(或两者)作为指标的数据源(请参阅 spec.loki)。并非所有查询都可从 Loki 转换为 Prometheus。因此,如果 Loki 被禁用,插件的一些功能也会被禁用,如获取每个 pod 的信息或查看原始流。如果启用了 Prometheus 和 Loki,Prometheus 会优先使用,Loki 作为 Prometheus 无法处理的查询的回退系统。如果两者都被禁用,则不会部署 Console 插件。

manual

object

用于 Manual 模式的 Prometheus 配置。

模式

string

模式 必须根据存储 Network Observability 指标的 Prometheus 安装类型来设置:

- 使用 Auto 尝试自动配置。在 OpenShift Container Platform 中,它使用 OpenShift Container Platform Cluster Monitoring 中的 Thanos querier

- 使用 Manual 用于手工设置

timeout

string

timeout 是控制台插件查询 Prometheus 的读取超时。超时值为零表示没有超时。

13.1.89. .spec.prometheus.querier.manual

描述
用于 Manual 模式的 Prometheus 配置。
类型
object
属性类型描述

forwardUserToken

布尔值

设置 true 以将查询中的登录用户令牌转发到 Prometheus

tls

object

Prometheus URL 的 TLS 客户端配置。

url

string

url 是现有 Prometheus 服务的地址,用于查询指标。

13.1.90. .spec.prometheus.querier.manual.tls

描述
Prometheus URL 的 TLS 客户端配置。
类型
object
属性类型描述

caCert

object

caCert 定义证书颁发机构的证书引用。

enable

布尔值

启用 TLS

insecureSkipVerify

布尔值

insecureSkipVerify 允许跳过服务器证书的客户端验证。如果设置为 true,则忽略 caCert 字段。

userCert

object

userCert 定义用户证书引用,用于 mTLS。使用单向 TLS 时,您可以忽略此属性。

13.1.91. .spec.prometheus.querier.manual.tls.caCert

描述
caCert 定义证书颁发机构的证书引用。
类型
object
属性类型描述

certFile

string

certFile 定义配置映射或 secret 中证书文件名的路径。

certKey

string

certKey 定义配置映射 / Secret 中证书私钥文件名的路径。当不需要键时会省略。

名称

string

包含证书的配置映射或 Secret 的名称。

namespace

string

包含证书的配置映射或 secret 的命名空间。如果省略,则默认为使用与部署 Network Observability 相同的命名空间。如果命名空间不同,则复制配置映射或 secret,以便可以根据需要挂载它。

type

string

证书引用的类型:configmapsecret

13.1.92. .spec.prometheus.querier.manual.tls.userCert

描述
userCert 定义用户证书引用,用于 mTLS。使用单向 TLS 时,您可以忽略此属性。
类型
object
属性类型描述

certFile

string

certFile 定义配置映射或 secret 中证书文件名的路径。

certKey

string

certKey 定义配置映射 / Secret 中证书私钥文件名的路径。当不需要键时会省略。

名称

string

包含证书的配置映射或 Secret 的名称。

namespace

string

包含证书的配置映射或 secret 的命名空间。如果省略,则默认为使用与部署 Network Observability 相同的命名空间。如果命名空间不同,则复制配置映射或 secret,以便可以根据需要挂载它。

type

string

证书引用的类型:configmapsecret

第 14 章 FlowMetric 配置参数

FlowMetric 是允许从收集的流日志创建自定义指标的 API。

14.1. FlowMetric [flows.netobserv.io/v1alpha1]

描述
FlowMetric 是允许从收集的流日志创建自定义指标的 API。
类型
object
属性类型描述

apiVersion

字符串

APIVersion 定义对象的这个表示法的版本化的 schema。服务器应该将识别的模式转换为最新的内部值,并可拒绝未识别的值。更多信息: https://git.k8s.io/community/contributors/devel/sig-architecture/api-conventions.md#resources

kind

字符串

kind 是一个字符串值,代表此对象所代表的 REST 资源。服务器可以从客户端向其提交请求的端点推断。无法更新。采用驼峰拼写法 (CamelCase)。更多信息: https://git.k8s.io/community/contributors/devel/sig-architecture/api-conventions.md#types-kinds

metadata

object

标准对象元数据。更多信息: https://git.k8s.io/community/contributors/devel/sig-architecture/api-conventions.md#metadata

spec

object

FlowMetricSpec 定义所需的 FlowMetric。提供的 API 允许您根据您的需要自定义这些指标。

在添加新指标或修改现有标签时,您必须仔细监控 Prometheus 工作负载的内存用量,因为这可能会产生重大影响。Cf https://rhobs-handbook.netlify.app/products/openshiftmonitoring/telemetry.md/#what-is-the-cardinality-of-a-metric

要检查所有 Network Observability 指标的基数(cardinality),promql: count({name=~"netobserv.*"}) by (name)

14.1.1. .metadata

描述
标准对象元数据。更多信息: https://git.k8s.io/community/contributors/devel/sig-architecture/api-conventions.md#metadata
类型
object

14.1.2. .spec

描述

FlowMetricSpec 定义所需的 FlowMetric。提供的 API 允许您根据您的需要自定义这些指标。

在添加新指标或修改现有标签时,您必须仔细监控 Prometheus 工作负载的内存用量,因为这可能会产生重大影响。Cf https://rhobs-handbook.netlify.app/products/openshiftmonitoring/telemetry.md/#what-is-the-cardinality-of-a-metric

要检查所有 Network Observability 指标的基数(cardinality),promql: count({name=~"netobserv.*"}) by (name)

类型
object
必填
  • metricName
  • type
属性类型描述

bucket

数组(字符串)

type 为 "Histogram" 时使用的存储桶列表列表必须显示为浮点数。如果没有设置,使用 Prometheus 默认存储桶。

charts

数组

管理员视图中的 OpenShift Container Platform 控制台图表配置 Dashboards 菜单。

direction

string

过滤入口、出口或任何方向流。当设置为 Ingress 时,它等同于在 FlowDirection 中添加正则表达式过滤:0|2。当设置为 Egress 时,它等同于在 FlowDirection 中添加正则表达式过滤:1|2

divider

string

当非零时,缩放因素 (divider) 的值。指标值 = Flow value / Divider。

过滤器

数组

filters 是用于限制考虑哪些流的字段和值列表。通常,需要使用这些过滤消除重复项:Duplicate != "true"FlowDirection = "0"有关可用字段列表,请参阅相关文档 :https://docs.openshift.com/container-platform/latest/observability/network_observability/json-flows-format-reference.html。

labels

数组(字符串)

labels 是一个应该用作 Prometheus 标签的字段列表,也称为维度。从选择标签时,此指标的粒度级别以及查询时可用的聚合结果。它需要小心执行,因为它会影响指标基数 (cf https://rhobs-handbook.netlify.app/products/openshiftmonitoring/telemetry.md/#what-is-the-cardinality-of-a-metric)。通常,避免设置非常高的基数标签,如 IP 或 MAC 地址。"SrcK8S_OwnerName" 或 "DstK8S_OwnerName" 应优先于 "SrcK8S_Name" 或 "DstK8S_Name"。有关可用字段列表,请参阅相关文档 :https://docs.openshift.com/container-platform/latest/observability/network_observability/json-flows-format-reference.html。

metricName

string

指标的名称。在 Prometheus 中,它会自动带有 "netobserv_" 前缀。

remap

对象(字符串)

设置 remap 属性,为生成的指标标签使用不同于流字段的名称。使用原始流字段作为键,并将所需的标签名称作为值。

type

string

指标类型: "Counter" 或 "Histogram"。使用 "Counter",对随时间增加的任何值以及您可以计算速率(如 Bytes 或 Packets)的任何值。对于需要独立抽样的任何值(如延迟),使用 "Histogram"。

valueField

string

valueField 是流字段,必须用作此指标的值。此字段必须是数字值。如果保留为空,计算流数,而不是每个流的特定值。有关可用字段列表,请参阅相关文档 :https://docs.openshift.com/container-platform/latest/observability/network_observability/json-flows-format-reference.html。

14.1.3. .spec.charts

描述
管理员视图中的 OpenShift Container Platform 控制台图表配置 Dashboards 菜单。
类型
数组

14.1.4. .spec.charts[]

描述
配置与一个指标关联的图表/仪表板的生成
类型
object
必填
  • dashboardName
  • queries
  • title
  • type
属性类型描述

dashboardName

string

包含仪表板的名称。如果此名称没有引用现有仪表板,则会创建一个新仪表板。

queries

数组

要在此图表中显示的查询列表。如果 typeSingleStat,并提供了多个查询,则在多个面板中会自动扩展此图表(每个查询一个)。

sectionName

string

包含仪表板部分的名称。如果此名称没有引用现有部分,则会创建一个新部分。如果省略 sectionName 或为空,则图表被放置在全局 top 部分中。

title

string

图表的标题。

type

string

图表的类型。

unit

string

此图表的单元。目前只支持几个单元。如果保留为空,则使用通用数字。

14.1.5. .spec.charts[].queries

描述
要在此图表中显示的查询列表。如果 typeSingleStat,并提供了多个查询,则在多个面板中会自动扩展此图表(每个查询一个)。
类型
数组

14.1.6. .spec.charts[].queries[]

描述
配置 PromQL 查询
类型
object
必填
  • 图例
  • promQL
  • top
属性类型描述

图例

string

适用于此图表中每个时间序列的查询图例。显示多个时间序列时,您应该设置一个可区分每个时间序列的图例。它可以使用以下格式:{{ Label }}。例如,根据每个标签的 promQL 组时间序列,如 sum(rate($METRIC[2m])) by (Label1, Label2), you might write as the legend: Label1={{ Label1 }}, Label2={{ Label2 }}

promQL

string

要针对 Prometheus 运行 promQL 查询。如果图表 typeSingleStat,则此查询应只返回单个时间序列。对于其他类型,会显示前 7 个。您可以使用 $METRIC 来引用此资源中定义的指标。例如:sum(rate($METRIC[2m]))。如需了解更多有关 promQL 的信息,请参阅 Prometheus 文档 :https://prometheus.io/docs/prometheus/latest/querying/basics/

top

整数

每个时间戳显示的最大 N 系列。不适用于 SingleStat 图表类型。

14.1.7. .spec.filters

描述
filters 是用于限制考虑哪些流的字段和值列表。通常,需要使用这些过滤消除重复项:Duplicate != "true"FlowDirection = "0"有关可用字段列表,请参阅相关文档 :https://docs.openshift.com/container-platform/latest/observability/network_observability/json-flows-format-reference.html。
类型
数组

14.1.8. .spec.filters[]

描述
类型
object
必填
  • field
  • matchType
属性类型描述

field

string

要过滤的字段名称

matchType

string

要应用的匹配类型

value

string

要过滤的值。当 matchTypeEqualNotEqual 时,您可以使用带有 $(SomeField) 的字段注入来引用流的任何其他字段。

第 15 章 网络流格式参考

这些是网络流格式的规格,在内部和将流导出到 Kafka 时使用。

15.1. 网络流格式参考

这是网络流格式的规格。在配置了 Kafka 导出器时,使用这种格式,用于 Prometheus 指标标签,以及 Loki 存储的内部。

"Filter ID"列显示定义 Quick Filters 时使用的相关名称(请参阅 FlowCollector 规格中的 spec.consolePlugin.quickFilters )。

当直接查询 Loki 时,"Loki label"列很有用:需要使用 流选择器 来选择标签字段。

"Cardinality" 列包括有关在此字段用作带有 FlowMetric API 的 Prometheus 标签时代表的指标卡inality 的信息。如需更多信息,请参阅 FlowMetrics 文档来了解使用此 API 的更多信息。

Name类型描述过滤 IDLoki 标签基准OpenTelemetry

Bytes

number

字节数

不适用

avoid

bytes

DnsErrno

number

从 DNS tracker ebpf hook 功能返回的错误数

dns_errno

fine

dns.errno

DnsFlags

number

DNS 记录的 DNS 标记

不适用

fine

dns.flags

DnsFlagsResponseCode

string

解析的 DNS 标头 RCODE 名称

dns_flag_response_code

fine

dns.responsecode

DnsId

number

DNS 记录 ID

dns_id

avoid

dns.id

DnsLatencyMs

number

DNS 请求和响应之间的时间(以毫秒为单位)

dns_latency

avoid

dns.latency

Dscp

number

差异化服务代码点 (DSCP) 值

dscp

fine

dscp

DstAddr

string

目标 IP 地址 (ipv4 或 ipv6)

dst_address

avoid

destination.address

DstK8S_HostIP

string

目的地节点 IP

dst_host_address

fine

destination.k8s.host.address

DstK8S_HostName

string

目标节点名称

dst_host_name

fine

destination.k8s.host.name

DstK8S_Name

string

目标 Kubernetes 对象的名称,如 Pod 名称、服务名称或节点名称。

dst_name

careful

destination.k8s.name

DstK8S_Namespace

string

目标命名空间

dst_namespace

fine

destination.k8s.namespace.name

DstK8S_OwnerName

string

目标所有者的名称,如 Deployment 名称、StatefulSet 名称等。

dst_owner_name

fine

destination.k8s.owner.name

DstK8S_OwnerType

string

目标所有者的类型,如 Deployment、StatefulSet 等。

dst_kind

fine

destination.k8s.owner.kind

DstK8S_Type

string

目标 Kubernetes 对象的类型,如 Pod、Service 或 Node。

dst_kind

fine

destination.k8s.kind

DstK8S_Zone

string

目标可用区

dst_zone

fine

destination.zone

DstMac

string

目标 MAC 地址

dst_mac

avoid

destination.mac

DstPort

number

目的地端口

dst_port

careful

destination.port

DstSubnetLabel

string

目的地子网标签

dst_subnet_label

fine

不适用

Duplicate

布尔值

指明此流是否也从同一主机上的另一个接口捕获

不适用

fine

不适用

标记

number

在流中包括唯一 TCP 标志的逻辑 OR 组合,根据 RFC-9293,带有额外的自定义标志来代表每个数据包的组合:
- SYN+ACK (0x100)
- FIN+ACK (0x200)
- RST+ACK (0x400)

tcp_flags

fine

tcp.flags

FlowDirection

number

来自节点观察点的流解释方向。可以是:
- 0: Ingress (来自节点观察点的流量)
- 1: Egress (从节点观察到流量,来自节点观察点)
- 2: Inner (具有相同源和目标节点)

node_direction

fine

host.direction

IcmpCode

number

ICMP 代码

icmp_code

fine

icmp.code

IcmpType

number

ICMP 类型

icmp_type

fine

icmp.type

IfDirections

number

来自网络接口观察点的流方向。可以是:
- 0: Ingress (接口传入的流量)
- 1: Egress (接口传出流量)

ifdirections

fine

interface.directions

接口

string

网络接口

interfaces

careful

interface.names

K8S_ClusterName

string

集群名称或标识符

cluster_name

fine

k8s.cluster.name

K8S_FlowLayer

string

流层: 'app' 或 'infra'

flow_layer

fine

k8s.layer

NetworkEvents

string

网络事件流监控

network_events

avoid

不适用

Packets

number

数据包数

不适用

avoid

packets

PktDropBytes

number

内核丢弃的字节数

不适用

avoid

drops.bytes

PktDropLatestDropCause

string

最新丢弃原因

pkt_drop_cause

fine

drops.latestcause

PktDropLatestFlags

number

最后丢弃的数据包上的 TCP 标志

不适用

fine

drops.latestflags

PktDropLatestState

string

最后丢弃的数据包上的 TCP 状态

pkt_drop_state

fine

drops.lateststate

PktDropPackets

number

内核丢弃的数据包数

不适用

avoid

drops.packets

Proto

number

L4 协议

protocol

fine

protocol

SrcAddr

string

源 IP 地址 (ipv4 或 ipv6)

src_address

avoid

source.address

SrcK8S_HostIP

string

源节点 IP

src_host_address

fine

source.k8s.host.address

SrcK8S_HostName

string

源节点名称

src_host_name

fine

source.k8s.host.name

SrcK8S_Name

string

源 Kubernetes 对象的名称,如 Pod 名称、服务名称或节点名称。

src_name

careful

source.k8s.name

SrcK8S_Namespace

string

源命名空间

src_namespace

fine

source.k8s.namespace.name

SrcK8S_OwnerName

string

源所有者的名称,如 Deployment 名称、StatefulSet 名称等。

src_owner_name

fine

source.k8s.owner.name

SrcK8S_OwnerType

string

源所有者的类型,如 Deployment、StatefulSet 等。

src_kind

fine

source.k8s.owner.kind

SrcK8S_Type

string

源 Kubernetes 对象的类型,如 Pod、Service 或 Node。

src_kind

fine

source.k8s.kind

SrcK8S_Zone

string

源可用区

src_zone

fine

source.zone

SrcMac

string

源 MAC 地址

src_mac

avoid

source.mac

SrcPort

number

源端口

src_port

careful

source.port

SrcSubnetLabel

string

源子网标签

src_subnet_label

fine

不适用

TimeFlowEndMs

number

此流的结束时间戳,以毫秒为单位

不适用

avoid

timeflowend

TimeFlowRttNs

number

TCP Smoothed Round Trip Time (SRTT),单位为纳秒

time_flow_rtt

avoid

tcp.rtt

TimeFlowStartMs

number

开始此流的时间戳,以毫秒为单位

不适用

avoid

timeflowstart

TimeReceived

number

由流被流收集器接收并处理时的时间戳,以秒为单位

不适用

avoid

timereceived

_HashId

string

在对话跟踪中,对话标识符

id

avoid

不适用

_RecordType

string

记录类型:'flowLog' 用于常规流日志,或 'newConnection', 'heartbeat', 'endConnection' 用于对话跟踪

type

fine

不适用

第 16 章 Network Observability 故障排除

为了协助对 Network Observability 问题进行故障排除,可以执行一些故障排除操作。

16.1. 使用 must-gather 工具

您可以使用 must-gather 工具来收集有关 Network Observability Operator 资源和集群范围资源的信息,如 pod 日志、FlowCollectorWebhook 配置。

流程

  1. 进入到要存储 must-gather 数据的目录。
  2. 运行以下命令来收集集群范围的 must-gather 资源:

    $ oc adm must-gather
     --image-stream=openshift/must-gather \
     --image=quay.io/netobserv/must-gather

16.2. 在 OpenShift Container Platform 控制台中配置网络流量菜单条目

当网络流量菜单条目没有在 OpenShift Container Platform 控制台的 Observe 菜单中列出时,在 OpenShift Container Platform 控制台中手动配置网络流量菜单条目。

先决条件

  • 已安装 OpenShift Container Platform 版本 4.10 或更高版本。

流程

  1. 运行以下命令,检查 spec.consolePlugin.register 字段是否已设置为 true

    $ oc -n netobserv get flowcollector cluster -o yaml

    输出示例

    apiVersion: flows.netobserv.io/v1alpha1
    kind: FlowCollector
    metadata:
      name: cluster
    spec:
      consolePlugin:
        register: false

  2. 可选:通过手动编辑 Console Operator 配置来添加 netobserv-plugin 插件:

    $ oc edit console.operator.openshift.io cluster

    输出示例

    ...
    spec:
      plugins:
      - netobserv-plugin
    ...

  3. 可选:运行以下命令,将 spec.consolePlugin.register 字段设置为 true

    $ oc -n netobserv edit flowcollector cluster -o yaml

    输出示例

    apiVersion: flows.netobserv.io/v1alpha1
    kind: FlowCollector
    metadata:
      name: cluster
    spec:
      consolePlugin:
        register: true

  4. 运行以下命令,确保控制台 pod 的状态为 running

    $ oc get pods -n openshift-console -l app=console
  5. 运行以下命令重启控制台 pod:

    $ oc delete pods -n openshift-console -l app=console
  6. 清除浏览器缓存和历史记录。
  7. 运行以下命令,检查 Network Observability 插件 pod 的状态:

    $ oc get pods -n netobserv -l app=netobserv-plugin

    输出示例

    NAME                                READY   STATUS    RESTARTS   AGE
    netobserv-plugin-68c7bbb9bb-b69q6   1/1     Running   0          21s

  8. 运行以下命令,检查 Network Observability 插件 pod 的日志:

    $ oc logs -n netobserv -l app=netobserv-plugin

    输出示例

    time="2022-12-13T12:06:49Z" level=info msg="Starting netobserv-console-plugin [build version: , build date: 2022-10-21 15:15] at log level info" module=main
    time="2022-12-13T12:06:49Z" level=info msg="listening on https://:9001" module=server

16.3. 安装 Kafka 后 Flowlogs-Pipeline 不会消耗网络流

如果您首先使用 deploymentModel: KAFKA 部署了流收集器,然后部署 Kafka,则流收集器可能无法正确连接到 Kafka。手动重启 flow-pipeline pod,其中 Flowlogs-pipeline 不使用 Kafka 中的网络流。

流程

  1. 运行以下命令,删除 flow-pipeline pod 来重启它们:

    $ oc delete pods -n netobserv -l app=flowlogs-pipeline-transformer

16.4. 无法从 br-intbr-ex 接口查看网络流

br-ex' 和 br-int 是 OSI 第 2 层操作的虚拟网桥设备。eBPF 代理分别在 IP 和 TCP 级别(第 3 和 4 层)中工作。当网络流量由物理主机或虚拟 pod 接口处理时,您可以预期 eBPF 代理捕获通过 br-exbr-int 的网络流量。如果您限制 eBPF 代理网络接口只附加到 br-exbr-int,则不会看到任何网络流。

手动删除限制网络接口到 br-intbr-exinterfacesexcludeInterfaces 中的部分。

流程

  1. 删除 interfaces: [ 'br-int', 'br-ex' ] 字段。这允许代理从所有接口获取信息。或者,您可以指定 Layer-3 接口,例如 eth0。运行以下命令:

    $ oc edit -n netobserv flowcollector.yaml -o yaml

    输出示例

    apiVersion: flows.netobserv.io/v1alpha1
    kind: FlowCollector
    metadata:
      name: cluster
    spec:
      agent:
        type: EBPF
        ebpf:
          interfaces: [ 'br-int', 'br-ex' ] 1

    1
    指定网络接口。

16.5. Network Observability 控制器管理器 pod 内存不足

您可以通过编辑 Subscription 对象中的 spec.config.resources.limits.memory 规格来为 Network Observability Operator 增加内存限值。

流程

  1. 在 Web 控制台中,进入到 OperatorsInstalled Operators
  2. Network Observability,然后选择 Subscription
  3. Actions 菜单中,点 Edit Subscription

    1. 另外,您可以运行以下命令来使用 CLI 为 Subscription 对象打开 YAML 配置:

      $ oc edit subscription netobserv-operator -n openshift-netobserv-operator
  4. 编辑 Subscription 对象以添加 config.resources.limits.memory 规格,并将值设置为考虑您的内存要求。有关资源注意事项的更多信息,请参阅附加资源:

    apiVersion: operators.coreos.com/v1alpha1
    kind: Subscription
    metadata:
      name: netobserv-operator
      namespace: openshift-netobserv-operator
    spec:
      channel: stable
      config:
        resources:
          limits:
            memory: 800Mi     1
          requests:
            cpu: 100m
            memory: 100Mi
      installPlanApproval: Automatic
      name: netobserv-operator
      source: redhat-operators
      sourceNamespace: openshift-marketplace
      startingCSV: <network_observability_operator_latest_version> 2
    1
    例如,您可以将内存限值增加到 800Mi
    2
    这个值不应该被编辑,但请注意,它会根据 Operator 的最当前的版本进行更改。

16.6. 对 Loki 运行自定义查询

若要进行故障排除,可以对 Loki 运行自定义查询。有两种方法示例,您可以通过将 <api_token> 替换为您自己的 <api_token> 来根据您的需要进行调整。

注意

这些示例为 Network Observability Operator 和 Loki 部署使用 netobserv 命名空间。另外,示例假定 LokiStack 名为 loki。您可以通过调整示例(特别是 -n netobservloki-gateway URL)来使用不同的命名空间和命名。

先决条件

  • 安装 Loki Operator 以用于 Network Observability Operator

流程

  • 要获取所有可用标签,请运行以下命令:

    $ oc exec deployment/netobserv-plugin -n netobserv -- curl -G -s -H 'X-Scope-OrgID:network' -H 'Authorization: Bearer <api_token>' -k https://loki-gateway-http.netobserv.svc:8080/api/logs/v1/network/loki/api/v1/labels | jq
  • 要从源命名空间 my-namespace 获取所有流,请运行以下命令:

    $ oc exec deployment/netobserv-plugin -n netobserv -- curl -G -s -H 'X-Scope-OrgID:network' -H 'Authorization: Bearer <api_token>' -k https://loki-gateway-http.netobserv.svc:8080/api/logs/v1/network/loki/api/v1/query --data-urlencode 'query={SrcK8S_Namespace="my-namespace"}' | jq

其他资源

16.7. Loki ResourceExhausted 错误故障排除

当 Network Observability 发送的网络流数据时,Loki 可能会返回一个 ResourceExhausted 错误,超过配置的最大消息大小。如果使用 Red Hat Loki Operator,则这个最大消息大小被配置为 100 MiB。

流程

  1. 进入到 OperatorsInstalled Operators,从 Project 下拉菜单中选择 All projects
  2. Provided APIs 列表中,选择 Network Observability Operator。
  3. Flow Collector,然后点 YAML view 选项卡。

    1. 如果使用 Loki Operator,请检查 spec.loki.batchSize 值没有超过 98 MiB。
    2. 如果您使用与 Red Hat Loki Operator 不同的 Loki 安装方法,如 Grafana Loki,请验证 grpc_server_max_recv_msg_size Grafana Loki 服务器设置 高于 FlowCollector 资源 spec.loki.batchSize 值。如果没有,您必须增加 grpc_server_max_recv_msg_size 值,或者减少 spec.loki.batchSize 值,使其小于限制。
  4. 如果您编辑 FlowCollector,点 Save

16.8. Loki 空 ring 错误

Loki "empty ring" 错误会导致流没有存储在 Loki 中,且不显示在 web 控制台中。这个错误可能会在各种情况下发生。还没有解决的一个临时解决方案。您可以采取一些操作来调查 Loki pod 中的日志,并验证 LokiStack 是否健康并就绪。

观察到此错误的一些情况如下:

  • 在卸载并在同一个命名空间中重新安装 LokiStack 后,旧的 PVC 不会被删除,这会导致这个错误。

    • Action :您可以尝试再次删除 LokiStack,删除 PVC,然后重新安装 LokiStack
  • 证书轮转后,这个错误可能会阻止与 flowlogs-pipelineconsole-plugin pod 的通信。

    • Action :您可以重启 pod 来恢复连接。

16.9. 资源故障排除

16.10. LokiStack 速率限制错误

放置在 Loki 租户上的速率限制可能会导致数据潜在的临时丢失,而 429 错误:Per stream rate limit exceeded (limit:xMB/sec) while attempting to ingest for stream。您可能会考虑设置了警报来通知您这个错误。如需更多信息,请参阅本节的附加资源中的"为 NetObserv 仪表板创建 Loki 速率限制警报"。

您可以使用 perStreamRateLimitperStreamRateLimitBurst 规格更新 LokiStack CRD,如以下步骤所示。

流程

  1. 进入到 OperatorsInstalled Operators,从 Project 下拉菜单查看 All projects
  2. 查找 Loki Operator,然后选择 LokiStack 选项卡。
  3. 使用 YAML 视图 创建或编辑现有 LokiStack 实例,以添加 perStreamRateLimitperStreamRateLimitBurst 规格:

    apiVersion: loki.grafana.com/v1
    kind: LokiStack
    metadata:
      name: loki
      namespace: netobserv
    spec:
      limits:
        global:
          ingestion:
            perStreamRateLimit: 6        1
            perStreamRateLimitBurst: 30  2
      tenants:
        mode: openshift-network
      managementState: Managed
    1
    perStreamRateLimit 的默认值为 3
    2
    perStreamRateLimitBurst 的默认值为 15
  4. 点击 Save

验证

更新 perStreamRateLimitperStreamRateLimitBurst 规格后,集群重启中的 pod,429 rate-limit 错误不再发生。

16.11. 运行大型查询会导致 Loki 错误

当长时间运行大型查询时,可能会导致 Loki 错误,如 timeouttoo many outstanding requests。这个问题没有完全的修复,但有几种方法可以缓解它:

调整查询以添加索引过滤
使用 Loki 查询,您可以查询索引和非索引字段或标签。包含标签过滤的查询更好。例如,如果您查询一个特定 Pod,它不是 indexed 字段,您可以将其命名空间添加到查询中。索引字段列表可在 Loki label 列中的 "Network flow format reference" 中找到。
考虑查询 Prometheus 而不是 Loki
Prometheus 比 Loki 更适合在大型时间范围上查询。但是,使用 Prometheus 还是 Loki 取决于您的具体用例。例如,对 Prometheus 的查询比 Loki 快,大时间范围不会影响性能。但是,和 Loki 相比,Prometheus 指标中包括的流日志的数量较少。如果查询兼容,Network Observability OpenShift Web 控制台会自动优先选择 Prometheus over Loki,否则默认为 Loki。如果您的查询没有针对 Prometheus 运行,您可以更改一些过滤或聚合来切换。在 OpenShift Web 控制台中,您可以强制使用 Prometheus。当不兼容的查询失败时会显示错误消息,这可帮助您找出要更改哪个标签,以使查询兼容。例如,将过滤器或聚合从 ResourcePod 更改为 Owner
考虑使用 FlowMetrics API 创建自己的指标
如果您不需要的数据不能作为 Prometheus 指标提供,您可以使用 FlowMetrics API 创建自己的指标。如需更多信息,请参阅"FlowMetrics API 参考"和"使用 FlowMetric API 配置自定义指标"。
配置 Loki 来提高查询性能

如果问题仍然存在,您可以考虑配置 Loki 来提高查询性能。有些选项取决于您用于 Loki 的安装模式,如使用 Operator 和 LokiStack,或 Monolithic 模式或 Microservices 模式。

  • 对于 LokiStackMicroservices 模式,尝试 增加 querier 副本的数量
  • 增加查询超时。您还必须在 FlowCollector spec.loki.readTimeout 中增加到 Loki 的 Network Observability 读取超时。

Legal Notice

Copyright © 2024 Red Hat, Inc.

OpenShift documentation is licensed under the Apache License 2.0 (https://www.apache.org/licenses/LICENSE-2.0).

Modified versions must remove all Red Hat trademarks.

Portions adapted from https://github.com/kubernetes-incubator/service-catalog/ with modifications by Red Hat.

Red Hat, Red Hat Enterprise Linux, the Red Hat logo, the Shadowman logo, JBoss, OpenShift, Fedora, the Infinity logo, and RHCE are trademarks of Red Hat, Inc., registered in the United States and other countries.

Linux® is the registered trademark of Linus Torvalds in the United States and other countries.

Java® is a registered trademark of Oracle and/or its affiliates.

XFS® is a trademark of Silicon Graphics International Corp. or its subsidiaries in the United States and/or other countries.

MySQL® is a registered trademark of MySQL AB in the United States, the European Union and other countries.

Node.js® is an official trademark of Joyent. Red Hat Software Collections is not formally related to or endorsed by the official Joyent Node.js open source or commercial project.

The OpenStack® Word Mark and OpenStack logo are either registered trademarks/service marks or trademarks/service marks of the OpenStack Foundation, in the United States and other countries and are used with the OpenStack Foundation’s permission. We are not affiliated with, endorsed or sponsored by the OpenStack Foundation, or the OpenStack community.

All other trademarks are the property of their respective owners.

Red Hat logoGithubRedditYoutubeTwitter

学习

尝试、购买和销售

社区

关于红帽文档

通过我们的产品和服务,以及可以信赖的内容,帮助红帽用户创新并实现他们的目标。

让开源更具包容性

红帽致力于替换我们的代码、文档和 Web 属性中存在问题的语言。欲了解更多详情,请参阅红帽博客.

關於紅帽

我们提供强化的解决方案,使企业能够更轻松地跨平台和环境(从核心数据中心到网络边缘)工作。

© 2024 Red Hat, Inc.