16.4. 安装程序置备的安装后配置
成功部署安装程序置备的集群后,请考虑以下安装后流程。
16.4.1. 可选:为断开连接的集群配置 NTP
OpenShift Container Platform 在集群节点上安装 chrony
网络时间协议(NTP)服务。使用以下步骤在 control plane 节点上配置 NTP 服务器,并将计算节点配置为成功部署后,将 worker 节点配置为 control plane 节点的 NTP 客户端。
OpenShift Container Platform 节点必须在日期和时间上达成一致才能正确运行。当计算节点从 control plane 节点上的 NTP 服务器检索日期和时间时,它会启用未连接到可路由网络的集群的安装和操作,因此无法访问更高的 stratum NTP 服务器。
流程
为 control plane 节点创建一个 Butane 配置
99-master-chrony-conf-override.bu
,包括chrony.conf
文件的内容。注意如需有关 Butane 的信息,请参阅"使用 Butane 创建机器配置"。
但ane 配置示例
variant: openshift version: 4.16.0 metadata: name: 99-master-chrony-conf-override labels: machineconfiguration.openshift.io/role: master storage: files: - path: /etc/chrony.conf mode: 0644 overwrite: true contents: inline: | # Use public servers from the pool.ntp.org project. # Please consider joining the pool (https://www.pool.ntp.org/join.html). # The Machine Config Operator manages this file server openshift-master-0.<cluster-name>.<domain> iburst 1 server openshift-master-1.<cluster-name>.<domain> iburst server openshift-master-2.<cluster-name>.<domain> iburst stratumweight 0 driftfile /var/lib/chrony/drift rtcsync makestep 10 3 bindcmdaddress 127.0.0.1 bindcmdaddress ::1 keyfile /etc/chrony.keys commandkey 1 generatecommandkey noclientlog logchange 0.5 logdir /var/log/chrony # Configure the control plane nodes to serve as local NTP servers # for all compute nodes, even if they are not in sync with an # upstream NTP server. # Allow NTP client access from the local network. allow all # Serve time even if not synchronized to a time source. local stratum 3 orphan
- 1
- 您必须将
<cluster-name>
替换为集群名称,并将<domain>
替换为完全限定域名。
使用 Butane 生成
MachineConfig
对象文件99-master-chrony-conf-override.yaml
,其中包含要发送到 control plane 节点的配置:$ butane 99-master-chrony-conf-override.bu -o 99-master-chrony-conf-override.yaml
为引用 control plane 节点上的 NTP 服务器的计算节点创建 Butane 配置
99-worker-chrony-conf-override.bu
,包括chrony.conf
文件的内容。但ane 配置示例
variant: openshift version: 4.16.0 metadata: name: 99-worker-chrony-conf-override labels: machineconfiguration.openshift.io/role: worker storage: files: - path: /etc/chrony.conf mode: 0644 overwrite: true contents: inline: | # The Machine Config Operator manages this file. server openshift-master-0.<cluster-name>.<domain> iburst 1 server openshift-master-1.<cluster-name>.<domain> iburst server openshift-master-2.<cluster-name>.<domain> iburst stratumweight 0 driftfile /var/lib/chrony/drift rtcsync makestep 10 3 bindcmdaddress 127.0.0.1 bindcmdaddress ::1 keyfile /etc/chrony.keys commandkey 1 generatecommandkey noclientlog logchange 0.5 logdir /var/log/chrony
- 1
- 您必须将
<cluster-name>
替换为集群名称,并将<domain>
替换为完全限定域名。
使用 Butane 生成
MachineConfig
对象文件99-worker-chrony-conf-override.yaml
,其中包含要交付至 worker 节点的配置:$ butane 99-worker-chrony-conf-override.bu -o 99-worker-chrony-conf-override.yaml
将
99-master-chrony-conf-override.yaml
策略应用到 control plane 节点。$ oc apply -f 99-master-chrony-conf-override.yaml
输出示例
machineconfig.machineconfiguration.openshift.io/99-master-chrony-conf-override created
将
99-worker-chrony-conf-override.yaml
策略应用到计算节点。$ oc apply -f 99-worker-chrony-conf-override.yaml
输出示例
machineconfig.machineconfiguration.openshift.io/99-worker-chrony-conf-override created
检查应用的 NTP 设置的状态。
$ oc describe machineconfigpool
16.4.2. 安装后启用置备网络
通过为裸机集群提供支持的安装程序和安装程序置备安装,可以在没有 provisioning
网络的情况下部署集群。当每个节点的基板管理控制器可以通过 baremetal 网络
路由时,此功能适用于概念验证集群或仅使用 Redfish 虚拟介质单独部署的情况。
您可在安装后使用 Cluster Baremetal Operator(CBO)启用 置备
网络。
先决条件
- 必须存在专用物理网络,连接到所有 worker 和 control plane 节点。
- 您必须隔离原生、未标记的物理网络。
-
当
provisioningNetwork
配置设置为Managed
时,网络无法有一个 DHCP 服务器。 -
您可以省略 OpenShift Container Platform 4.10 中的
provisioningInterface
设置,以使用bootMACAddress
配置设置。
流程
-
设置
provisioningInterface
设置时,首先确定集群节点的调配接口名称。例如:eth0
oreno1
。 -
在集群节点的
调配
网络接口上启用预引导执行环境(PXE)。 检索
provisioning
网络的当前状态,并将其保存到 provisioning 自定义资源(CR)文件中:$ oc get provisioning -o yaml > enable-provisioning-nw.yaml
修改 provisioning CR 文件:
$ vim ~/enable-provisioning-nw.yaml
向下滚动到
provisioningNetwork
配置设置,并将它从Disabled
改为Managed
。然后,在provisioningNetwork
设置后添加provisioningIP
、provisioningNetworkCIDR
、provisioningDHCPRange
、provisioningInterface
和watchAllNameSpaces
配置设置。为每项设置提供适当的值。apiVersion: v1 items: - apiVersion: metal3.io/v1alpha1 kind: Provisioning metadata: name: provisioning-configuration spec: provisioningNetwork: 1 provisioningIP: 2 provisioningNetworkCIDR: 3 provisioningDHCPRange: 4 provisioningInterface: 5 watchAllNameSpaces: 6
- 1
provisioningNetwork
是Managed
、Unmanaged 或
Disabled
之一。当设置为Managed
时,Metal3 管理调配网络,CBO 使用配置的 DHCP 服务器部署 Metal3 pod。当设置为Unmanaged
时,系统管理员手动配置 DHCP 服务器。- 2
provisioningIP
是 DHCP 服务器和 ironic 用于调配网络的静态 IP 地址。这个静态 IP 地址必须在provisioning
子网内,且不在 DHCP 范围内。如果配置这个设置,它必须具有有效的 IP 地址,即使provisioning
网络是Disabled
。静态 IP 地址绑定到 metal3 pod。如果 metal3 pod 失败并移动到其他服务器,静态 IP 地址也会移到新服务器。- 3
- 无类别域间路由(CIDR)地址。如果配置这个设置,它必须具有有效的 CIDR 地址,即使
provisioning
网络是Disabled
。例如:192.168.0.1/24
。 - 4
- DHCP 范围。此设置仅适用于
受管
置备网络。如果provisioning
网络为Disabled
,则省略此配置设置。例如:192.168.0.64, 192.168.0.253
。 - 5
- 集群节点上
置备
接口的 NIC 名称。provisioningInterface
设置仅适用于受管和非受管
置备
网络。如果provisioning
网络为Disabled
,忽略provisioningInterface
配置设置。省略provisioningInterface
配置设置,以使用bootMACAddress
配置设置。 - 6
- 如果您希望 metal3 监视默认
openshift-machine-api
命名空间以外的命名空间,请将此设置设置为true
。默认值为false
。
- 保存对 provisioning CR 文件的更改。
将 provisioning CR 文件应用到集群:
$ oc apply -f enable-provisioning-nw.yaml