LVS 负载均衡群集

前言

在前面已经学习了使用 Nginx、LVS 做负载均衡群集,它们都具有各自的特点,本章将要介绍另一款比较流行的群集调度工具 Haproxy。首先介绍负载均衡常用调度算法,然后介绍 Haproxy 搭建 Web 群集的方法,最后介绍 Haproxy 的参数优化和日志配置。

一。案例分析

1. 案例概述

Haproxy 是目前比较流行的一种群集调度工具,同类群集调度工具有很多,如 LVS 和 Nginx。相比较而言,LVS 性能最好,但是搭建相对复杂;Nginx 的 upstream 模块支持群集功能,但是对群集节点健康检查功能不强,高并发性能没有 Haproxy 好。Haproxy 官方网站是http://www.haproxy.org/。

本案例介绍使用 Haproxy 及 Nginx 搭建一套 Web 群集。

2. 案例前置知识点

2.1HTTP 请求

通 RL 问网站使用的协议是 H 协议,此类请求一般称为 HTTP 请求。HTTP 请求的方式分为 GET 方式和 POST 方式。当使用浏览器访问某一个 URL,会根据请求 URL 返回状态码,通常正常的状态码为 2XX、3X×(如 200、301),如果出现异常会返回 4XX、5XX (如 400、500)。

例如,访问http://www.test.com/a.php?Id=123,就是一个 GET 请求,如果访问正常,会从服务器的日志中获取 200 状态码。假如此请求使用 POST 方式,那么传递给 a.php 的 Id 参数依旧是 123,但是浏览器的 URL 将不会显示后面的Id=123字样,因此表单类或者有用户名、密码等内容提交时建议使用 POST 方式。不管使用哪种方式,最终 a.php 获取的值是一样的。

2.2 负载均衡常用调度算法

LVS、Haproxy、Nginx 最常用的调度算法有三种,如下所述。
(1) RR (Round Robin)。RR 算法是最简单最常用的一种算法,即轮询调度。例如,有三个节点 A、B、C,第一个用户访问会被指派到节点 A,第二个用户访问会被指派到节点 B,第三个用户访问会被指派到节点 C,第四个用户访问继续指派到节点 A,轮询分配访问请求实现负载均衡效果。此算法还有一种加权轮询,即根据每个节点的权重轮询分配访问请求。

(2) LC (Least Connections)。LC 算法即最小连接数算法,根据后端的节点连接数大小动态分配前端请求。例如,有三个节点 A、B、C,各节点的连接数分别为 A:4、B:5、C:6,此时如果有第一个用户连接请求,会被指派到 A 上,连接数变为 A:5、B:5、C:6: 第二个用户请求会继续分配到 A 上,连接数变为 A:6、B:5、C:6; 再有新的请求会分配给 B,每次将新的请求指派给连接数最小的客户端。由于实际情况下 A、B、C 的连接数会动态释放,很难会出现一样连接数的情况,因此此算法相比较 rr 算法有很大改进,是目前用到比较多的一种算法。

(3) SH (Source Hashing)。SH 即基于来源访问调度算法,此算法用于一些有 Session 会话记录在服务器端的场景,可以基于来源的 IP、Cookie 等做群集调度。例如,使用基于源 IP 的群集调度算法,有三个节点 A、B、C,第一个用户第一次访问被指派到了 A,第二个用户第一次访问被指派到了 B,当第一个用户第二次访问时会被继续指派到 A,第二个用户第二次访问时依旧会被指派到 B,只要负载均衡调度器不重启,第一个用户访问都会被指派到 A,第二个用户访问都会被指派到 B,实现群集的调度。此调度算法好处是实现会话保持,但某些 IP 访问量非常大时会引起负载不均衡,部分节点访问量超大,影响业务使用。

2.3 常见的 Web 群集调度器

目前,常见的 Web 群集调度器分为软件和硬件。软件通常使用开源的 LVS、Haproxy、Nginx,硬件一般使用比较多的是 F5。也有很多人使用国内的一些产品,如梭子鱼、绿盟等。

3. 案例环境

3.1 本案例环境

本案例使用三台服务器模拟搭建一套 Web 群集,具体的拓扑如图 4.1 所示。案例环境如表 4-1 所示。


3.2 案例需求

①测试安装 nginx、haproxy;
②Haproxy、nginx 配置。

二。案例实施

1. 编译安装 Nginx 服务器

(1) 搭建 Nginx-node-1,使用 nginx-1.16.3.tar.gz 安装包进行编译安装。

[root@localhost"]#dnf instally gcc make pcre-devel zlib-devel openssl-devel per1-ExtUtils-MakelMaker git wget tar
[root@node1~]#useradd-M-s/sbin/nologin nginx
[root@localhost~]#tar zxf nginx-1.26.3.tar.gz
[root@localhost~]#cd nginx-1.26.3
[root@localhost nginx-1.26.3]#./configure -prefix=/usr/local/nginx -user=nginx -group=nginx -with-http_ssl_module --with-http_v2_module with-pcre
[root@localhost nginx-1.26.3]#make && make instal1

安装完后的默认信息如下。

  • 默认安装目录:/usr/local/nginx。
  • 默认日志:/usr/local/nginx/1ogs/。
  • 默认监听:80。
  • 默认 Web 目录:/usr/local/nginx/htm1。
[root@localhost nginx-1.26.3]#cd/usr/local/nginx/htm1
[root@localhost htm1]#echo "Server 192.168.10.101">test.htm1//建立测试页面
[root@localhost html]#/usr/local/nginx/sbin/nginx//启动Nginx
[root@localhost html]# netstat -anpt I grep nginx
tcp00 0.0.0.0:800..0.0:*LISTEN 13128/nginx:master
[root@localhost htm]#systemct1 stop firewalld

为了方便实验,网站没有配置域名,直接使用 IP 地址。在客户端访问http://192.168.10.101/test.htm1测试。

(2) 搭建 Nginx-node-2。
编译安装的步骤与 Nginx-node-1 相同,不同之处在于建立测试页面。

[root@localhost html]# echo "Server 192.168.10.102">test.htm1

安装完成后,在客户端访问http://192.168.10.102/test.htm1测试。

2. 编译安装 Haproxy

在 Haproxy 服务器使用 df 安装 haproxy-2.9.5-8.oe240sp.864。

[root@localhost~]# dnf install haproxy -y

3.Haproxy 服务器配置

下面是 Haproxy 服务器的配置步骤。
(1) 建立 Haproxy 的配置文件。

[root@localhost~]#vim /etc/haproxy/haproxy.cfg

Haproxy 配置项介绍:
Haproxy 配置文件通常分为三个部分,即 global、defaults 和 listen。global 为全局配置,defaults 为默认配置,1isten 为应用组件配置。

global 配置项通常有下面配置参数,以示例参数说明如下。

global
log 127.0.0.1local2//配置日志记录,local2为日志设备,默认存放到
maxconn 4000 //最大连接数
user haproxy //用户
group haproxy 1/用户组

defaults 配置项默认参数,一般会被应用组件继承,应用组件中没有特别声明,将按照默认配置参数设置。

defaults
log global//定义日志为global配置中的日志定义
mode http//模式为http
option httplog retries 3 //检查节点服务器失败次数,连续达到三次失败,则认为节点不可用
//采用http日志格式记录日志
maxconn3000 timeout connect 5s //最大连接数 //连接超时时间
timeout client 1m //客户端超时时间
timeout server 1m //服务器超时时间

listen 配置项一般配置应用模块参数。

listen webcluster
bind 0.0.0.0:80 //监听所有网卡的80端口 //定义一个appli4-backup的应用
balance roundrobin//负载均衡调度算法使用轮询算法
option httpchk GET /index.htm1//通过GET /index.htm1检查服务器
server inst1 192.168.10.101:80 check inter 2000 fal13//后端服务器1,每2秒检查一次,3次失败后下线
server inst2 192.168.10.102:80 check inter 2000 fall3

(2) 修改 haproxy.cfg 配置文件
根据目前的群集设计,将 haproxy.cfg 配置文件的内容修改如下。

[root@localhost"]# vim /etc/haproxy/haproxy.cfg
global
log 127.0.0.1 local2
chroot /var/lib/haproxy
pidfile /var/run/haproxy.pid
user haproxy
group haproxy
daemon
maxconn 4000
defaults
mode log global http
option option httplog dontlognul1
retries timeout httprequest 5s 3
timeout queue 1m
timeout connect 5s
timeout client 1m
timeout server 1m
timeout http-keepalive timeout check 5s 5s
maxconn 3000
listen webcluster bind 0.0.0.0:80
option httpchk GET /index.htm1
balance roundrobin
server inst1 192.168.10.101:80 check inter 2000 fal1 3
server inst2 192.168.10.102:80 check inter 2000 fall 3

4. 测试 Web 群集

通过上面的步骤,已经搭建完成 Haproxy 的 Web 群集,接下来需要验证群集是否工作正常。一个群集一般需要具备两个特性,第一个是高性能,第二个是高可用。
(1) 测试高性能
在客户端使用浏览器打开http://192.18.10.10/test.htn,浏览器显示信息如图 4.4 所示。

再次打开一个新的浏览器页面访问http://192.168.10.103/test.htm1,浏览器显示信息如图 4.5 所示。可以看到群集的负载均衡调度已经生效,已经满足了群集的高性能需求。

(2) 测试高可用
现在将 192.168.10.102 的 Nginx 服务停用,在客户端使用浏览器打开http://192.168.10.103/test.htm1,浏览器显示信息仍然如图 4.4 所示。

从中可以看出,当一台节点故障,不会影响群集的使用,这样就满足了群集的高可用性。也可以将 192.168.10.102 的 Nginx 服务恢复,再将 192.168.10.101 的 Nginx 服务停用,测试高可用性。

5.Haproxy 的日志

Haproxy 的日志默认输出到系统的 syslog 中,查看起来不是非常方便,为了更好地管理 Haproxy 的日志,在生产环境中一般单独定义出来,定义的方法如下所述。
(1) 修改 haproxy 配置文件,将原有的配置更改为以下配置:

[root@localhost"]#yimetc/haproxy/haproxy.cfg
global
log  127.0.0.1 loca3//添加log项

(2) 配置 Rsyslog 服务
创建 rsyslog 的 HAProxy 日志规则文件:


[root@localhost"]#vim /etc/rsyslog.d/9-haproxy.conf
$ModLoad imudp
$UDPServerRun 514
local3.* /var/log/haproxy.log
&~

(3) 重启 Rsyslog 和 HAProxy 服务

[root@localhost "]#systemctl restart rsyslog
[root@localhost~]#systemctl restart haprox

(4) 测试日志信息。
在客户端访问http://192.168.10.103/test.html后,可以使用 tai-f /vat/1og/haproxy.1og 即时查看 Haproxy 的访问请求日志信息。

[root@localhost ~]# tail -f /var/log/haproxy.log 
Mar 24 10:43:15 localhost haproxy[2725]: 192.168.10.104:51496 [24/Mar/2025:10:43:15.785] webcluster webcluster/inst1 0/0/0/0/0 200 232 - - ---- 1/1/0/0/0 0/0 "GET / HTTP/1.1"
Mar 24 10:43:16 localhost haproxy[2725]: 192.168.10.104:51502 [24/Mar/2025:10:43:16.368] webcluster webcluster/inst2 0/0/0/0/0 200 232 - - ---- 1/1/0/0/0 0/0 "GET / HTTP/1.1"
Mar 24 10:56:58 localhost haproxy[2725]: 192.168.10.104:48988 [24/Mar/2025:10:56:58.502] webcluster webcluster/inst1 0/0/0/1/1 200 232 - - ---- 1/1/0/0/0 0/0 "GET / HTTP/1.1"
Mar 24 10:56:59 localhost haproxy[2725]: 192.168.10.104:48998 [24/Mar/2025:10:56:59.938] webcluster webcluster/inst2 0/0/0/0/0 200 232 - - ---- 1/1/0/0/0 0/0 "GET / HTTP/1.1"

6.Haproxy 的参数优化

关于 Haproxy 的参数优化,以下列举了几个关键的参数,并对各参数的生产环境的优化建议做了说明,如表 4-2 所示。

参数 参数说明 优化建议
maxconn 最大连接数 此参数根据应用的实际使用情况进行调整,推荐使用 10240,同时 "defaultts" 中的最大连接数的值不能超过 "global" 段中的定义
daemon 守护进程模式 Haproxy 可以使用非守护进程模式启动,生产环境建议使用守护进程模式启动
nbproc 负载均衡的并发进程数 建议与当前服务器 CPU 核数相等或为其 2 倍
retries 重试次数 此参数主要用于对群集节点的检查,如果节点多,且并发量大,设置为 2 次或 3 次:在服务器节点不多的情况下,可以设置 5 次或 6 次
option http-server-close 主动关闭 http 请求选项 建议在生产环境中使用此选项,避免由于 timeout 时间设置过长导致 http 连接堆积
timeout http-keep-alive 长连接超时时间 此选项设置长连接超时时间,具体参考应用自身特点设置,可以设置为 10s
timeout http-request http 请求超时时间 建议将此时间设置为 5~10s,增加 http 连接释放速度
timeout client 客户端超时时间 如果访问量过大,节点响应慢,可以将此时间设置短一些,建议设置为 1min 左右就可以了

总结

HAProxy 作为一款高性能且功能强大的开源负载均衡与代理服务器软件,在运维领域发挥着至关重要的作用。它凭借高效的请求转发机制、灵活的负载均衡算法 (如轮询、最少连接、源地址哈希等),能够智能地将客户端请求分配到后端多台服务器,有效提升系统整体性能与可用性:支持 TCP 和 HTTP (S) 等多种协议,适配各类应用场景,无论是 Web 服务、数据库代理还是 API 网关等都能轻松应对;具备完善的健康检查功能,可实时监测后端服务器状态,自动隔离故障节点,确保服务连续性;同时,其丰富的配置选项与动态重载能力,让运维人员能够根据业务需求灵活调整策略,且无需中断服务。在实际运维工作中,熟练掌握 HAProxy 的部署、配置、监控与优化技巧,对于构建稳定、高效、可扩展的系统架构具有不可忽视的意义。

你可能感兴趣的:(Linux系统管理,lvs,负载均衡,android)