2.2. DCN 架构上的网络的注意事项
DCN 架构目前不支持以下功能:
- Octavia
- DPDK 节点上的 DHCP
- conntrack 用于 TC Flower Hardware Offload
DCN 上提供了 TC Flower Hardware Offload 的 conntrack 作为技术预览,因此红帽不会完全支持使用这些解决方案。此功能只应用于 DCN 进行测试,不应在生产环境中部署。有关技术预览功能的更多信息,请参阅覆盖范围详情。
以下 ML2/OVS 技术被完全支持:
- DPDK 节点上没有 DHCP 的 OVS-DPDK
- SR-IOV
- TC 流硬件卸载,没有 conntrack
- 边缘带有网络节点的 Neutron 可用区(AZ),每个站点有一个 AZ
- 路由提供商网络
以下 ML2/OVN 网络技术被完全支持:
- DPDK 节点上没有 DHCP 的 OVS-DPDK
- SR-IOV (没有 DHCP)
- TC 流硬件卸载,没有 conntrack
- 路由提供商网络
- 支持 Neutron AZ 的 OVN GW (网络节点)
另外,您必须考虑以下几点:
- 网络延迟:平衡往返时间(RTT)的延迟,以及预期的并发 API 操作数,以保持可接受的性能。最大 TCP/IP 吞吐量与 RTT 相反。您可以通过调整内核 TCP 参数来降低高带宽的问题。如果跨站点通信超过 100 ms,请联系红帽支持。
- Network outs:如果边缘站点临时丢失与中央站点的连接,则在停机期间,不会在受影响的边缘站点执行 OpenStack control plane API 或 CLI 操作。例如,边缘站点中的 Compute 节点无法创建实例的快照、签发身份验证令牌或删除镜像。常规 OpenStack control plane API 和 CLI 操作在此中断期间仍然可以正常工作,并可继续提供具有工作连接的其他边缘站点。Image type:在部署带有 Ceph 存储的 DCN 架构时,您必须使用 raw 镜像。
镜像大小:
- overcloud 节点镜像 - overcloud 节点镜像从中央 undercloud 节点下载。这些镜像可能是在调配期间将在所有必要网络中传输至边缘站点的大型文件。
实例镜像:如果边缘没有块存储,则镜像服务镜像会先遍历 WAN。镜像在本地复制或缓存到目标边缘节点,供以后使用。glance 镜像没有大小限制。传输时间因可用带宽和网络延迟而异。
如果边缘有块存储,则镜像异步复制到 WAN,以便在边缘快速引导时间。
- 提供商网络 :这是 DCN 部署的建议网络方法。如果您在远程站点使用提供商网络,则必须考虑网络服务(neutron)不会将任何限制或检查放在可附加可用网络的位置。例如,如果您在边缘站点 A 中使用提供商网络,您必须确保不要尝试在边缘站点 B 中附加到提供商网络。这是因为当将其绑定到 Compute 节点时,提供商网络上没有验证检查。
- 特定于站点的网络:如果您使用特定于某个站点的网络,则 DCN 网络中的一个限制:当您使用 Compute 节点部署集中式 neutron 控制器时,neutron 中没有触发器将特定的 Compute 节点识别为远程节点。因此,Compute 节点收到其他 Compute 节点列表,并互相自动形成隧道;隧道通过中央站点从边缘到边缘。如果您使用 VXLAN 或 Geneve,则每个站点中的每个 Compute 节点都会形成一个带有所有其他 Compute 节点和 Controller 节点的隧道,无论它们是本地还是远程的。如果您在任何地方使用相同的 neutron 网络,则这不是问题。使用 VLAN 时,neutron 期望所有 Compute 节点都有相同的网桥映射,并且所有 VLAN 都位于每个站点。
- 其它站点: 如果需要从中央站点扩展到其他远程站点,您可以使用 Red Hat OpenStack Platform director 上的 openstack CLI 来添加新的网络段和子网。
- 如果没有预置备边缘服务器,您必须配置 DHCP 转发,以便在路由片段上内省和调配。
- 路由必须在云或将每个边缘站点连接到 hub 的网络基础架构中配置。您应该实施一个网络设计,为每个 Red Hat OpenStack Platform 集群网络(外部、内部 API 等)分配一个 L3 子网。