第 7 章 创建其他类型的负载均衡器
本节中的内容 作为技术预览提供,因此不受红帽完全支持。它只应用于测试,不应部署在生产环境中。如需更多信息,请参阅 技术预览。
在 OpenShift (RHOSO)环境中的 Red Hat OpenStack Services 中,您可以使用负载均衡服务(octavia)创建与您要管理的非 HTTP 网络流量匹配的负载均衡器类型:
7.1. 创建 TCP 负载均衡器
当需要管理非 HTTP、基于 TCP 的服务和应用程序的网络流量时,您可以创建一个负载均衡器。最佳实践是创建运行状况监视器,以确保您的后端成员仍然可用。
先决条件
-
管理员已为您创建一个项目,并为您提供了一个
clouds.yaml
文件来访问云。 python-openstackclient
软件包驻留在您的工作站上。$ dnf list installed python-openstackclient
- 可以从互联网访问的共享外部(public)子网。
流程
确认为您的云设置了系统
OS_CLOUD
变量:$ echo $OS_CLOUD my_cloud
如果需要,重置变量:
$ export OS_CLOUD=my_other_cloud
作为替代方案,您可以在每次运行
openstack
命令时添加--os-cloud <cloud_name
> 选项指定云名称。在公共子网(
public_subnet
)上创建负载平衡器(lb1
)。注意括号内的值是此流程中示例命令中使用的示例值。将这些示例值替换为适合您的站点的值。
Example
$ openstack loadbalancer create --name lb1 \ --vip-subnet-id public_subnet --wait
在指定端口 (
23456
) 中创建一个TCP
监听器 (listener1
),自定义应用程序被配置。application is configured.Example
$ openstack loadbalancer listener create --name listener1 \ --protocol TCP --protocol-port 23456 lb1
创建池(
pool1
),并使其成为侦听器的默认池。Example
在本例中,会创建一个池,它使用包含在特定 TCP 端口上托管自定义应用程序的后端服务器的专用子网:
$ openstack loadbalancer pool create --name pool1 \ --lb-algorithm ROUND_ROBIN --listener listener1 \ --protocol TCP
在池(
pool1
)上创建一个运行状况监视器(healthmon1
),以连接到后端服务器并探测 TCP 服务端口。Example
推荐使用健康检查,但不需要进行健康检查。如果没有定义运行状况监视器,则假定成员服务器为
ONLINE
。$ openstack loadbalancer healthmonitor create --name healthmon1 \ --delay 15 --max-retries 4 --timeout 10 --type TCP pool1
将专用子网(
private_subnet
)上的后端服务器(192.0.2.10
和192.0.2.11
)添加到池。Example
在本例中,后端服务器
192.0.2.10
和192.0.2.11
分别命名为member1
和member2
:$ openstack loadbalancer member create --name member1 --subnet-id \ private_subnet --address 192.0.2.10 --protocol-port 443 pool1 $ openstack loadbalancer member create --name member2 --subnet-id \ private_subnet --address 192.0.2.11 --protocol-port 443 pool1
验证
查看并验证负载平衡器(
lb1
)设置。Example
$ openstack loadbalancer show lb1
输出示例
+---------------------+--------------------------------------+ | Field | Value | +---------------------+--------------------------------------+ | admin_state_up | True | | created_at | 2024-01-15T11:11:09 | | description | | | flavor | | | id | 788fe121-3dec-4e1b-8360-4020642238b0 | | listeners | 09f28053-fde8-4c78-88b9-0f191d84120e | | name | lb1 | | operating_status | ONLINE | | pools | 627842b3-eed8-4f5f-9f4a-01a738e64d6a | | project_id | dda678ca5b1241e7ad7bf7eb211a2fd7 | | provider | amphora | | provisioning_status | ACTIVE | | updated_at | 2024-01-15T11:12:42 | | vip_address | 198.51.100.11 | | vip_network_id | 9bca13be-f18d-49a5-a83d-9d487827fd16 | | vip_port_id | 69a85edd-5b1c-458f-96f2-b4552b15b8e6 | | vip_qos_policy_id | None | | vip_subnet_id | 5bd7334b-49b3-4849-b3a2-b0b83852dba1 | +---------------------+--------------------------------------+
当存在运行状况监控器并正常运行时,您可以检查每个成员的状态。使用以下命令获取成员 ID:
Example
$ openstack loadbalancer member list pool1
工作成员(
member1)
在其operating_status
中有一个ONLINE
值。Example
$ openstack loadbalancer member show pool1 member1
输出示例
+---------------------+--------------------------------------+ | Field | Value | +---------------------+--------------------------------------+ | address | 192.0.2.10 | | admin_state_up | True | | created_at | 2024-01-15T11:11:09 | | id | b85c807e-4d7c-4cbd-b725-5e8afddf80d2 | | name | member1 | | operating_status | ONLINE | | project_id | dda678ca5b1241e7ad7bf7eb211a2fd7 | | protocol_port | 80 | | provisioning_status | ACTIVE | | subnet_id | 5bd7334b-49b3-4849-b3a2-b0b83852dba1 | | updated_at | 2024-01-15T11:12:42 | | weight | 1 | | monitor_port | None | | monitor_address | None | | backup | False | +---------------------+--------------------------------------+