8.6. 内核


系统引导有时在大型系统中失败

在引导过程中,udev 设备管理器有时会在大型系统中生成太多规则。例如,这个问题会存在于内存 32TB 和 192 个 CPU 的系统中。因此,引导过程变得无响应,或者超时,并切换到紧急 shell。

要临时解决这个问题,请增加 udev.children-max 值:

  1. udev.children-max=1000 选项添加到 /etc/default/grub 文件中的内核命令行。您可以试验 udev.children-max 的不同值,以查看哪个值会导致您系统上启动速度。
  2. 限制 kdump 内核的 udev.children-max 值:

    udev.children-max 选项添加到 /etc/sysconfig/kdump 文件中的 KDUMP_COMMANDLINE_REMOVE 行。

    如果没有指定 kdump 选项,系统可能会在 IBM POWER 系统上的 kdumpfadump 捕获后进入紧急模式。

  3. 重启 kdump 服务:

    # systemctl restart kdump

因此,系统可以成功引导。

(BZ#1722855)

mirror 片段类型会导致系统在堆栈配置中死锁

使用镜像 片段 类型并将任何逻辑卷放在上面会导致系统死锁。要临时解决这个问题,红帽建议使用片段类型为 raid1 的 RAID 1 逻辑卷。

要将镜像设备转换为 raid1请参阅将镜像 LVM 设备转换为 RAID1 设备

(BZ#1772107)

zlib 压缩格式可能会减慢 vmcore 捕获速度

kdump 配置文件默认使用 lzo 压缩格式(makedumpfile -l)。修改配置文件以使用 zlib 压缩格式(makedumpfile -c)可能会带来更好的压缩因素,但会牺牲 vmcore 捕获过程的速度。因此,与 lzo 相比,在使用 zlib 时,可能需要大约 4 倍的时间捕获 vmcore。因此,红帽建议在速度是主要考虑因素的情况下使用默认的 lzo。但是,如果目标机器在可用空间中较低, zlib 就是一个更好的选项。

(BZ#1737111)

在使用 bridge-over-VLAN 拓扑时,使用 ice 驱动程序的 Intel 网络设备不会传递流量

如果满足以下条件,则以太网设备不会传输互联网控制消息协议(ICMP) echo 请求和回复流量:

  • 以太网设备使用 Intel 驱动程序。
  • 以太网设备是网桥的成员。
  • 网桥使用 802.1Q 协议的 VLAN 标记

因此,网络接口控制器(NIC)不会传递描述的网络拓扑的流量。这个问题还没有可用的临时解决方案。

(BZ#1787295)

Red Hat logoGithubRedditYoutubeTwitter

学习

尝试、购买和销售

社区

关于红帽文档

通过我们的产品和服务,以及可以信赖的内容,帮助红帽用户创新并实现他们的目标。

让开源更具包容性

红帽致力于替换我们的代码、文档和 Web 属性中存在问题的语言。欲了解更多详情,请参阅红帽博客.

關於紅帽

我们提供强化的解决方案,使企业能够更轻松地跨平台和环境(从核心数据中心到网络边缘)工作。

© 2024 Red Hat, Inc.