8.6. 内核
系统引导有时在大型系统中失败
在引导过程中,udev
设备管理器有时会在大型系统中生成太多规则。例如,这个问题会存在于内存 32TB 和 192 个 CPU 的系统中。因此,引导过程变得无响应,或者超时,并切换到紧急 shell。
要临时解决这个问题,请增加 udev.children-max
值:
-
将
udev.children-max=1000
选项添加到/etc/default/grub
文件中的内核命令行。您可以试验udev.children-max
的不同值,以查看哪个值会导致您系统上启动速度。 限制
kdump
内核的udev.children-max
值:将
udev.children-max
选项添加到/etc/sysconfig/kdump
文件中的KDUMP_COMMANDLINE_REMOVE
行。如果没有指定
kdump
选项,系统可能会在 IBM POWER 系统上的kdump
或fadump
捕获后进入紧急模式。重启
kdump
服务:# systemctl restart kdump
因此,系统可以成功引导。
(BZ#1722855)
mirror
片段类型会导致系统在堆栈配置中死锁
使用镜像 片段
类型并将任何逻辑卷放在上面会导致系统死锁。要临时解决这个问题,红帽建议使用片段类型为 raid1
的 RAID 1 逻辑卷。
要将镜像设备转换为 raid1
,请参阅将镜像 LVM 设备转换为 RAID1 设备。
(BZ#1772107)
zlib
压缩格式可能会减慢 vmcore 捕获速度
kdump
配置文件默认使用 lzo
压缩格式(makedumpfile -l
)。修改配置文件以使用 zlib
压缩格式(makedumpfile -c
)可能会带来更好的压缩因素,但会牺牲 vmcore 捕获过程的速度。因此,与 lzo
相比,在使用 zlib
时,可能需要大约 4 倍的时间捕获 vmcore。因此,红帽建议在速度是主要考虑因素的情况下使用默认的
lzo
。但是,如果目标机器在可用空间中较低, zlib
就是一个更好的选项。
(BZ#1737111)
在使用 bridge-over-VLAN 拓扑时,使用 ice
驱动程序的 Intel 网络设备不会传递流量
如果满足以下条件,则以太网设备不会传输互联网控制消息协议(ICMP) echo 请求和回复流量:
-
以太网设备使用
Intel
驱动程序。 - 以太网设备是网桥的成员。
- 网桥使用 802.1Q 协议的 VLAN 标记
因此,网络接口控制器(NIC)不会传递描述的网络拓扑的流量。这个问题还没有可用的临时解决方案。
(BZ#1787295)