第 1 章 发行注记


1.1. Logging 5.9

注意

日志记录作为可安装的组件提供,它与 OpenShift Dedicated 核心不同。Red Hat OpenShift Container Platform 生命周期政策 概述了发行版本兼容性。

注意

stable 频道只为日志记录的最新版本提供更新。要继续获得之前版本的更新,您必须将订阅频道改为 stable-x.y,其中 x.y 代表您安装的日志记录的主版本和次版本。例如,stable-5.7

1.1.1. Logging 5.9.7

此发行版本包括 OpenShift Logging 程序错误修复 5.9.7

1.1.1.1. 程序错误修复

  • 在此次更新之前,当 Fluentd 用作收集器类型时,clusterlogforwarder.spec.outputs.http.timeout 参数不会应用到 Fluentd 配置,从而导致 HTTP 超时被错误配置。在这个版本中,clusterlogforwarder.spec.outputs.http.timeout 参数会被正确应用,确保 Fluentd 遵循指定的超时,并根据用户的配置处理 HTTP 连接。(LOG-6125)
  • 在此次更新之前,在没有验证代理 URL 模式的情况下添加 TLS 部分,如果 URL 没有以 tls 开始,则 SSL 连接错误。在这个版本中,只有在代理 URL 以 tls 开始时,才会添加 TLS 部分,以防止 SSL 连接错误。(LOG-6041)

1.1.1.2. CVE

注意

有关红帽安全评级的详细信息,请查看 严重性评级

1.1.2. Logging 5.9.6

此发行版本包括 OpenShift Logging 程序错误修复 5.9.6

1.1.2.1. 程序错误修复

  • 在此次更新之前,收集器部署会忽略 secret 更改,从而导致接收器拒绝日志。在这个版本中,当 secret 值有更改时,系统会推出新 pod,确保收集器重新加载更新的 secret。(LOG-5525)
  • 在此次更新之前,向量无法正确解析包含单个美元符号($)的字段值。在这个版本中,带有单个 $ 符号的字段值会自动改为两个$$,确保 Vector 解析正确解析。(LOG-5602)
  • 在此次更新之前,丢弃过滤器无法处理非字符串值(如 .responseStatus.code: 403)。在这个版本中,drop 过滤器可以与这些值正常工作。(LOG-5815)
  • 在此次更新之前,收集器使用默认设置来收集审计日志,而无需处理输出接收器的后端负载。在这个版本中,收集审计日志的过程已被改进,以更好地管理文件处理和日志读取效率。(LOG-5866)
  • 在此次更新之前,在带有非 AMD64 架构(如 Azure Resource Manager (ARM)或 PowerPC)的集群中,must-gather 工具会失败。在这个版本中,该工具会在运行时检测到集群架构,并使用独立于架构的路径和依赖项。检测允许 must-gather 在 ARM 和 PowerPC 等平台上平稳运行。(LOG-5997)
  • 在此次更新之前,日志级别是使用不明确的结构化和无结构的关键字来设置的。在这个版本中,日志级别遵循以结构化关键字开始的明确记录的顺序。(LOG-6016)
  • 在此次更新之前,多个未命名管道写入 ClusterLogForwarder 中的默认输出会导致验证错误,因为自动生成的名称。在这个版本中,管道名称会在不重复的情况下生成。(LOG-6033)
  • 在此次更新之前,收集器 Pod 没有 PreferredScheduling 注解。在这个版本中,PreferredScheduling 注解被添加到 collector daemonset 中。(LOG-6023)

1.1.2.2. CVE

1.1.3. Logging 5.9.5

此发行版本包括 OpenShift Logging 程序错误修复 5.9.5

1.1.3.1. 程序错误修复

  • 在此次更新之前,LokiHost 资源状态中的重复条件会导致 Loki Operator 中的无效指标。在这个版本中,Operator 从状态中删除重复条件。(LOG-5855)
  • 在此次更新之前,Loki Operator 在验证失败时丢弃日志事件时不会触发警报。在这个版本中,Loki Operator 包含一个新的警报定义,它会在 Loki 丢弃日志事件时触发警报。(LOG-5895)
  • 在此次更新之前,Loki Operator 在 LokiStack Route 资源中覆盖用户注解,从而导致自定义丢弃。在这个版本中,Loki Operator 不再覆盖 Route 注解,从而解决了这个问题。(LOG-5945)

1.1.3.2. CVE

无。

1.1.4. Logging 5.9.4

此发行版本包括 OpenShift Logging 程序错误修复 5.9.4

1.1.4.1. 程序错误修复

  • 在此次更新之前,错误格式化的超时配置会导致 OCP 插件崩溃。在这个版本中,验证可防止崩溃,并告知用户配置不正确。(LOG-5373)
  • 在此次更新之前,带有标签的工作负载在规范化日志条目时会导致收集器中的错误。在这个版本中,配置更改可确保收集器使用正确的语法。(LOG-5524)
  • 在此次更新之前,存在一个问题会阻止选择不再存在的 pod,即使它们已经生成日志。在这个版本中,这个问题已被解决,允许选择此类 pod。(LOG-5697)
  • 在此次更新之前,如果在没有 cloud-credentials-operator 的环境中注册 CredentialRequest 规格,Loki Operator 会崩溃。在这个版本中,CredentialRequest 规格只在启用了 cloud-credentials-operator 的环境中注册。(LOG-5701)
  • 在此次更新之前,日志记录 Operator 会监视并处理集群中的所有配置映射。在这个版本中,仪表板控制器只监视日志记录仪表板的配置映射。(LOG-5702)
  • 在此次更新之前,ClusterLogForwarder 在消息有效负载中引入了一个额外空间,它没有遵循 RFC3164 规格。在这个版本中,额外的空间已被删除,从而解决了这个问题。(LOG-5707)
  • 在此次更新之前,删除 grafana-dashboard-cluster-logging 的 seeding 作为一个(LOG-5308)的一部分,会破坏新的 greenfield 部署,而无需仪表板。在这个版本中,Logging Operator 会在开始时看到仪表板,并继续更新它的更改。(LOG-5747)
  • 在此次更新之前,LokiStack 缺少 Volume API 的路由,从而导致以下错误: 404 not found。在这个版本中,Lokial 会公开卷 API,从而解决了这个问题。(LOG-5749)

1.1.4.2. CVE

CVE-2024-24790

1.1.5. Logging 5.9.3

此发行版本包括 OpenShift Logging 程序错误修复 5.9.3

1.1.5.1. 程序错误修复

  • 在此次更新之前,配置 LokiStack 时重启 Ingesters 有一个延迟,因为 Loki Operator 会将 write-ahead log replay_memory_ceiling 设置为 1x.demo 大小。在这个版本中,用于 replay_memory_ceiling 的最小值已增加,以避免延迟。(LOG-5614)
  • 在此次更新之前,无法监控 Vector 收集器输出缓冲状态。在这个版本中,监控和警报 Vector 收集器输出缓冲大小可能会提高可观察性功能,并帮助系统以最佳方式运行。(LOG-5586)

1.1.5.2. CVE

1.1.6. 日志记录 5.9.2

此发行版本包括 OpenShift Logging 程序错误修复 5.9.2

1.1.6.1. 程序错误修复

  • 在此次更新之前,因为 ClusterLogForwarder CR 中的配置不正确,对 Logging Operator 的更改会导致错误。因此,升级到日志记录会删除 daemonset 收集器。在这个版本中,日志记录 Operator 会重新创建收集器 daemonset,除非出现 Not authorized to collect 错误。(LOG-4910)
  • 在此次更新之前,因为 Vector 日志收集器中的配置不正确,在有些情况下,轮转的基础架构日志文件会被发送到应用程序索引。在这个版本中,Vector 日志收集器配置可避免收集任何轮转的基础架构日志文件。(LOG-5156)
  • 在此次更新之前,日志记录 Operator 不会监控 grafana-dashboard-cluster-logging 配置映射的更改。在这个版本中,日志记录 Operator 会监控 ConfigMap 对象中的更改,确保系统保持同步并有效地响应配置映射修改。(LOG-5308)
  • 在此次更新之前,日志记录 Operator 的指标集合代码中的问题会导致它报告过时的遥测指标。在这个版本中,日志记录 Operator 不会报告过时的遥测指标。(LOG-5426)
  • 在此更改前,Fluentd out_http 插件会忽略 no_proxy 环境变量。在这个版本中,Fluentd 对 ruby 的 HTTP#start 方法进行了修改以接受 no_proxy 环境变量。(LOG-5466)

1.1.6.2. CVE

1.1.7. 日志记录 5.9.1

此发行版本包括 OpenShift Logging 程序错误修复 5.9.1

1.1.7.1. 功能增强

  • 在此次更新之前,Loki Operator 将 Loki 配置为使用 Amazon Simple Storage Service (S3)的基于路径的风格访问,它已被弃用。在这个版本中,Loki Operator 默认为 virtual-host 样式,而无需更改其配置。(LOG-5401)
  • 在此次更新之前,Loki Operator 不会验证存储 secret 中使用的 Amazon Simple Storage Service (S3)端点。在这个版本中,验证过程可确保 S3 端点是一个有效的 S3 URL,LokiStack 状态更新来指示任何无效的 URL。(LOG-5395)

1.1.7.2. 程序错误修复

  • 在此次更新之前,LogQL 解析中的错误会从查询中排除一些行过滤器。在这个版本中,解析会包括所有行过滤器,同时保持原始查询保持不变。(LOG-5268)
  • 在此次更新之前,没有定义的 pruneFilterSpec 的 prune 过滤器会导致 segfault。在这个版本中,如果修剪过滤器没有定义的 puneFilterSpec,会出现验证错误。(LOG-5322)
  • 在此次更新之前,没有定义的 dropTestsSpec 的 drop 过滤器会导致 segfault。在这个版本中,如果修剪过滤器没有定义的 puneFilterSpec,会出现验证错误。(LOG-5323)
  • 在此次更新之前,Loki Operator 不会验证存储 secret 中使用的 Amazon Simple Storage Service (S3)端点 URL 格式。在这个版本中,S3 端点 URL 会经过验证步骤,它反映了 LokiStack 的状态。(LOG-5397)
  • 在此次更新之前,审计日志记录中格式化的时间戳字段会导致 Red Hat OpenShift Logging Operator 日志中出现 WARN 信息。在这个版本中,重新映射转换可确保正确格式化 timestamp 字段。(LOG-4672)
  • 在此次更新之前,当验证 ClusterLogForwarder 资源名称和命名空间没有对应于正确的错误时,错误消息会抛出。在这个版本中,系统会检查同一命名空间中是否存在具有相同名称的 ClusterLogForwarder 资源。如果没有,它对应于正确的错误。(LOG-5062)
  • 在此次更新之前,输出配置的验证功能需要一个 TLS URL,即使 Amazon CloudWatch 或 Google Cloud Logging 等服务,在设计不需要 URL。在这个版本中,在没有 URL 的服务的验证逻辑有所改进,错误消息会更为说明。(LOG-5307)
  • 在此次更新之前,定义基础架构输入类型不会从集合中排除日志工作负载。在这个版本中,集合排除日志记录服务以避免反馈循环。(LOG-5309)

1.1.7.3. CVE

没有 CVE。

1.1.8. Logging 5.9.0

此发行版本包括 OpenShift Logging 程序错误修复 5.9.0

1.1.8.1. 删除通知

Logging 5.9 发行版本不包含 OpenShift Elasticsearch Operator 的更新版本。来自之前日志记录版本的 OpenShift Elasticsearch Operator 实例被支持,直到日志记录版本的 EOL 为止。您可以使用 Loki Operator 作为 OpenShift Elasticsearch Operator 的替代方案来管理默认日志存储。如需有关日志记录生命周期日期的更多信息,请参阅平台 Agnostic Operator

1.1.8.2. 弃用通知

  • 在 Logging 5.9 中,Kibana 已被弃用,计划在 Logging 6.0 中删除,该 6.0 应该与以后的 OpenShift Dedicated 版本一起提供。红帽将在当前发行生命周期中对这些组件提供关键及以上的 CVE 程序错误修复和支持,但这些组件将不再获得功能增强。由 Red Hat OpenShift Logging Operator 和 LokiStack 提供的基于 Vector 的收集器和 Loki Operator 提供的 LokiStack 是日志集合和存储的首选 Operator。我们鼓励所有用户使用 Vector 和 Loki 日志堆栈,因为这个组合会持续进一步进行改进。
  • 在 Logging 5.9 中,Splunk 输出类型 的字段 选项没有实现,并现已弃用。它将在以后的发行版本中被删除。

1.1.8.3. 功能增强

1.1.8.3.1. 日志集合
  • 此功能增强增加了使用工作负载的元数据根据其内容 dropprune 日志的功能。另外,它允许收集基础架构日志(如日志或容器日志)和审计日志(如 kube apiovn 日志)仅收集单个源。(LOG-2155)
  • 此增强引入了一个新的远程日志接收器 (syslog 接收器)。您可以将其配置为通过网络公开端口,允许外部系统使用兼容工具(如 rsyslog)发送 syslog 日志。(LOG-3527)
  • 在这个版本中,ClusterLogForwarder API 支持转发到 Azure Monitor 日志,为用户提供更好的监控功能。此功能可帮助用户维护最佳的系统性能,并简化 Azure Monitor 中的日志分析过程,从而加快问题解决并提高操作效率。(LOG-4605)
  • 此功能增强通过将收集器部署为带有两个副本的部署来提高收集器资源利用率。当 ClusterLogForwarder 自定义资源 (CR) 中定义的唯一输入源是接收器输入而不是在所有节点上使用守护进程集时,会出现这种情况。此外,以这种方式部署的收集器不会挂载主机文件系统。要使用此增强,您需要使用 logging.openshift.io/dev-preview-enable-collector-as-deployment 注解来注解 ClusterLogForwarder CR。(LOG-4779)
  • 此功能增强引入了在所有支持的输出中自定义租户配置的功能,以逻辑方式促进日志记录的组织。但是,它不允许自定义租户配置来记录受管存储。(LOG-4843)
  • 在这个版本中,ClusterLogForwarder CR 使用一个或多个基础架构命名空间(如 defaultopenshift*kube* )指定应用程序输入,现在需要一个具有 collect-infrastructure-logs 角色的服务帐户。(LOG-4943)
  • 此功能增强引入了调整一些输出设置(如压缩、重试持续时间和最大有效负载)的功能,以匹配接收器的特性。此外,此功能还包括一种交付模式,允许管理员在吞吐量和日志持久性之间进行选择。例如,AtLeastOnce 选项配置收集日志的最小磁盘缓冲区,以便收集器重启后可以发送这些日志。(LOG-5026)
  • 此功能增强添加了三个新的 Prometheus 警报,警告用户有关 Elasticsearch、Fluentd 和 Kibana 弃用的信息。(LOG-5055)
1.1.8.3.2. 日志存储
  • LokiStack 中的这个增强通过使用新的 V13 对象存储格式并默认启用自动流分片功能,改进了对 OTEL 的支持。这也可让收集器为将来的改进和配置准备。(LOG-4538)
  • 此功能增强引进了对使用 Azure 和 AWS 日志存储的短期令牌工作负载身份联合的支持,启用了 STS 的 OpenShift Dedicated 4.14 及更新的版本。本地存储需要在 LokiStack CR 的 spec.storage.secret 下添加 CredentialMode: static 注解。(LOG-4540)
  • 在这个版本中,Azure 存储 secret 的验证被扩展,为某些错误状况提供早期警告。(LOG-4571)
  • 在这个版本中,Loki 添加了对 GCP 工作负载身份联邦机制的上游和下游支持。这允许对对应对象存储服务进行身份验证和授权访问。(LOG-4754)

1.1.8.4. 程序错误修复

  • 在此次更新之前,日志记录 must-gather 无法收集启用了 FIPS 的集群中的任何日志。在这个版本中,cluster-logging-rhel9-operator 中提供了一个新的 oc 客户端,must-gather 可以在 FIPS 集群中正常工作。(LOG-4403)
  • 在此次更新之前,LokiStack 规则器 pod 无法将 IPv6 pod IP 格式化为用于跨 pod 通信的 HTTP URL。此问题导致通过与 Prometheus 兼容的 API 查询规则和警报失败。在这个版本中,LokiStack 规则器 pod 将 IPv6 pod IP 封装在方括号中,从而解决了这个问题。现在,通过与 Prometheus 兼容的 API 查询规则和警报的工作方式就像在 IPv4 环境中一样。(LOG-4709)
  • 在这个版本中,日志记录 must-gather 的 YAML 内容在一行中导出,使其不可读取。在这个版本中,YAML 空格会被保留,确保该文件被正确格式化。(LOG-4792)
  • 在此次更新之前,当启用 ClusterLogForwarder CR 时,当 ClusterLogging.Spec.Collection 为 nil 时,Red Hat OpenShift Logging Operator 可能会进入 nil pointer 异常。在这个版本中,这个问题已在 Red Hat OpenShift Logging Operator 中解决。(LOG-5006)
  • 在此次更新之前,在特定的基础情形中,替换 ClusterLogForwarder CR status 字段会导致 resourceVersionStatus 条件中更改时间戳而持续更新。这个条件会导致一个无限的协调循环。在这个版本中,所有状态条件都会同步,以便在条件保持不变时时间戳保持不变。(LOG-5007)
  • 在此次更新之前,内部缓冲行为需要 drop_newest 来解决收集器高内存消耗,从而导致大量日志丢失。在这个版本中,行为恢复为使用收集器默认值。(LOG-5123)
  • 在此次更新之前,openshift-operators-redhat 命名空间中的 Loki Operator ServiceMonitor 使用静态令牌和 CA 文件进行身份验证,从而导致 ServiceMonitor 配置上的 User Workload Monitoring spec 中 Prometheus Operator 出现错误。在这个版本中,openshift-operators-redhat 命名空间中的 Loki Operator ServiceMonitor 现在通过 LocalReference 对象引用服务帐户令牌 secret。这种方法允许 Prometheus Operator 中的 User Workload Monitoring spec 成功处理 Loki Operator ServiceMonitor,使 Prometheus 能够提取 Loki Operator 指标。(LOG-5165)
  • 在此次更新之前,Loki Operator ServiceMonitor 的配置可能与许多 Kubernetes 服务匹配,从而导致 Loki Operator 指标被多次收集。在这个版本中,ServiceMonitor 的配置只与专用指标服务匹配。(LOG-5212)

1.1.8.5. 已知问题

无。

1.1.8.6. CVE

Red Hat logoGithubRedditYoutubeTwitter

学习

尝试、购买和销售

社区

关于红帽文档

通过我们的产品和服务,以及可以信赖的内容,帮助红帽用户创新并实现他们的目标。

让开源更具包容性

红帽致力于替换我们的代码、文档和 Web 属性中存在问题的语言。欲了解更多详情,请参阅红帽博客.

關於紅帽

我们提供强化的解决方案,使企业能够更轻松地跨平台和环境(从核心数据中心到网络边缘)工作。

© 2024 Red Hat, Inc.