LVS负载均衡群集

目录

一.LVS群集应用基础

1.群集技术概述

1.1群集的类型

1.2负载均衡的分层结构

1.3负载均衡的工作模式

2.LVS虚拟服务器

2.1LVS的负载调度算法

2.2使用ipvsadm管理工具

(1)创建虚拟主机服务器

(2)添加服务器节点

(3)查看群集节点状态

(4)删除服务器节点

(5)保存负载分配策略

3.NFS共享存储服务

3.1使用NFS发布共享资源

(1)安装nfs-utils、rpcbubd软件包

(2)设置共享目录

(3)启动NFS服务程序

(4)查看本机发布的NFS共享目录

3.2在客户机中访问NFS共享资源

(1)安装rpcbind软件包,并启动rpcbind服务。

(2)手动挂载NFS共享目录

(3)fstab制动挂载设置

二.案例:地址转换模式

1.准备案例环境

2.配置负载调度器

(1)开启路由转发规则

(2)在lvs服务新增一块网卡,仅主机模式,作为vip(集群IP,模拟外网IP)

(3)配置负载分配策略

3.配置节点服务器

(1)修改节点服务器的网关,指向lvs调度器的192.168.10.101(也就是模拟内网网卡)

(2)安装httpd,创建测试网页

(3)启用httpd服务程序

4.测试LVS群集


一.LVS群集应用基础

群集的称呼来自于英文单词"Cluster",表示一群、一串的意思,用在服务器领域则表示大量服务器的集合体,以区分于单个服务器。本节将对群集的结构、工作模式、LVS虚拟应用,以及NFS共享存储介绍及使用

1.群集技术概述

根据实际企业环境的不同,群集所提供的功能也各不相同,采用的技术细节也可能各有千秋。然而从整体上来看,需要先了解一些关于群集的x共性特征,才能在构建和维护群集的工作中做到心中有数,避免操作上的盲目性。

1.1群集的类型

无论是哪种群集,都至少包括两台节点服务器,而对外表现为一个整体,只提供一个访问入口。根据群集所针对的目标差异,可分为以下三种类型
> 负载均衡群集(Load Balance Cluster):以提高应用系统的响应能力、尽可能处理更多的访问请求、减少延迟为目标,获得高并发、高负载的整体性能。例如,"DNS轮询""应用层交换" "反向代理"等都可用作负载均衡群集。LB的负载分配依赖于主节点的分流算法,将来自客户机的访问请求分担给多个服务器节点,从而缓解整个系统的负载压力。

> 高可用群集(HighAvailability Cluster):以提高应用系统流的可靠性尽可能地减少中断时间为目标,确保服务的连续性,达到高可用(HA)的容错效果。例如,"故障切换""双机热备""多机热备"等都属于高可用群集技术。HA的工作方式包括双工和主从两种模式。双工即所有节点同时在线:主从则只有主节点在线,但当出现故障时从节点能自动切换为主节点。
> 高性能运算群集(High Performance Computer Cluster):以提高应用系统的CPU运算速度、扩展硬件资源和分析能力为目标,获得相当于大型、超级计算机的高性能运算(HPC)能力。例如,"云计算""网格计算"也可视为高性能运算的一种。高性能运算群集的高性能依赖于"分布式运集算""并行计算",通过专用硬件和软件将多个服务器的CPU、内存等资源整合在一起,实现只有大型、超级计算机才具备的计算能力。
不同类型的群集在必要时可以合并,如高可用的负载均衡群集。本章到第3章将依次讲解 LVS 负载均衡群集、高可用软件 Keepalived,以及两者的结合使用。

1.2负载均衡的分层结构

> 第一层,负载调度器:这是访问整个群集系统的唯一入口,对外使用所有服务器共有的VIP(VirtualIP,虚拟IP)地址,也称为群集IP地址。通常会配置主、备两台调度器实现热备份,当主调度器失效以后能够平滑替换至备用调度器,确保高可用性。
> 第二层,服务器池:群集所提供的应用服务(如HTTP、FTP)由服务器池承担,其中每个节点具有独立的RIP(RealIP,真实IP)地址,只处理调度器分发过来的客户机请求。当某个节点暂时失效时,负载调度器的容错机制会将其隔离,等待错误排除以后再重新纳入服务器池。
> 第三层,共享存储:为服务器池中的所有节点提供稳定、一致的文件存取服务,确保整个群集的统一性。在Linux/UNIX环境中,共享存者可以使用NAS设备,或者提供NFS(Network FileSystem,网络文件系统)共享服务的专用服务器。

1.3负载均衡的工作模式

> 地址转换(Network Address Translation):简称NAT 模式,类似于防火墙的私有网络结构,负载调度器作为所有服务器节点的网关,即作为客户机的访问入口,也是各节点回应客户机的访问出口。服务器节点使用私有IP地址,与负载调度器位于同一个物理网络,安全性要优于其他两种方式
> IP 隧道(IP Tunnel):简称TUN模式,采用开放式的网络结构,负载调度器仅作为客户机的访问入口,各节点通过各自的Internet连接直接回应客户机,而不再经过负载调度器。服务器节点分散在互联网中的的不同位置,具有独立的公网IP地址,通过专用IP隧道与负载调度器相互通信。
> 直接路由(DirectRouting):简称DR模式,采用半开放式的网络结构,与TUN模式的结构类似,但各节点并不是分散在各地,而是与调度器位于同一个物理网络。负载调度器与各节点服务器通过本地网络连接接,不需要建立专用的IP隧道。
以上三种工作模式中,NAT方式只需要一个公网IP地址,从而成为最易用的一种负载均衡模式,安全性也比较好,许多硬件负载均衡设备就采用这种方式。相比较而言,DR模式和TUN模式的负载能力更加强大,适用范围更广,但节点的安全性要稍差一些。

2.LVS虚拟服务器

LVS是针对内核开发的一个负载均衡项目,由我国的章文嵩博士在1998年5月创建,官方站点位于http://www.linuxvirtualserver.org/。LVS实际上相当于基于IP地址的虚拟化应用,为基于IP地址和内容请求的负载均衡提出了一种高效的解决方法。

2.1LVS的负载调度算法

针对不同的网络服务和配置需要,LVS调度器提供多种不同的负载调度算法,其中最常用的四种算法是轮询、加权轮询、最少连接和加权最少连接。
> 轮询(Round Robin):将收到的访问请求按照顺序轮流分配配给群集中的各节点,均等地对待每台服务器,而不管服务器实际的连接数和系统负载。
> 加权轮询(Weighted Round Robin):根据调度器设置的权重值来分发请求,权重值高的节点优先获得任务并且分配的请求越多,这样可!以保证性能高的节点承担更多请求。
> 最少连接(LeastConnections):根据真实服务器已建立的连接数进行分配,将收到的访问请求优先分配给连接数最少的节点。如果所有的服务器节点性能相近,采用这种方式可以更好地均衡负载。
> 加权最少连接(Weighted Least Connections):在服务器节点的性能差异较大的情况下,调度器可以根据节点服务器负载自动调整权重,权重较高的节点将承担更大比例的活动连接负载。

2.2使用ipvsadm管理工具

手动安装ipvsadm
[root@localhost test]# dnf install ipvsadm
[root@localhost test]# ipvsadm -v
ipvsadm vl.31 2019/12/24 (compiled with popt and IPVSv1.2.1)
(1)创建虚拟主机服务器
若群集的VIP地址为172.16.16.172,针对 TCP 80端口提供负载分流服务,使用的调度算法为轮询,则对应的ipvsadm命令操作如下所示。对于负载均衡调度器来说,VIP必须是本机实际已启用的IP地址。

[root@localhost ~]# ipvsadm -A -t 172.16.16.16.172:80 -s rr

上述操作中,选项-A表示添加虚拟服务器,-t用来指定VIIP地址及TCP端口,-s用来指定负载调度算法--轮询(rr)、加权轮询(wrr)、最少连接(1c)、加权最少连接(wlc)。
(2)添加服务器节点
为虚拟服务器172.16.16.172添加四个服务器节点,IP地址依次为192.168.7.21~24,对应的ipvsadm命令操作如下所示。若希望想使用保持连接,还应添加"-p60"选项,其中60为保持时间(单位为s)。

[root@localhost ~]# ipvsadm -a -t 172. 16. 16. 172:80 -r 192.168.7.21:80-m -w 1
[root@localhost ~]# ipvsadm -a -t 172. 16. 16. 172:80 -r 192.168.7.22:80-m -w 1
[root@localhost ~]# ipvsadm -a -t 172. 16. 16. 172:80 -r 192.168.7.23:80-m -w 1
[root@localhost ~]# ipvsadm -a -t 172. 16. 16. 172:80 -r 192.168.7.24:80-m -w 1

上述操作中,有以下选项:
-a表示添加真实服务器;
-t用来指定VIP地址及TCP端口;
-r用来指定RIP地址及TCP端口;
-m表示使用NAT群集模式(-g DR模式和-i TUN模式);
-w用来设置权重(权重为0时表示暂停节点)。
(3)查看群集节点状态
结合选项-1可以列表查看LVS虚拟服务器,可以指定只查看某一个VIP地址(默认为查看所有),结合选项-n将以数字形式显示地址、端口口等信息。

[root@localhost test]#ipvsadm -ln //查看节点状态
(4)删除服务器节点
需要从服务器池中删除某一个节点时,使用选项-d。执行删除操作必须指定目标对象,包括节点地址、虚拟IP地址。例如,以下操作将会删除LVS群集172.16.16.172中的节点192.168.7.24。

[root@localhost~]# ipvsadm -d -r 192.168.7.24:80 -t 172.16.16.16.172:80

需要删除整个虚拟服务器时,使用选项-D并指定虚拟II地址即可,无须指定节点。例如,若执行"ipvsadm-D-t172.16.16.172:80",贝别除此虚拟服务器
(5)保存负载分配策略
使用导出/导入工具ipvsadm-save/ipvsadm-restore可以保存、恢复 LVS 策略当然也可以快速清除、重建负载分配策略。

[root@localhost ~]# ipvsadm-save > /etc/sysconfig/ipvsadm//保存策略
[root@localhost ~]# cat /etc/sysconfig/ipvsadm//确认保存结果

-A -t 172.16.16.172:http -s rr
-a -t 172.16.16.172:http -r 192.168.7.21:http -m -w l
-a -t 172.16.16.172:http -r 192.168.7.22:http -m -w 1
-a -t 172.16.16.172:http -r 192.168.7.23:http -m -w 1

[root@localhost ~]#systemctl stopipvsadm//停止服务(清除策略格)
[root@localhost ~]#systemctl start ipvsadm//启动服务(重建规则

3.NFS共享存储服务

3.1使用NFS发布共享资源

(1)安装nfs-utils、rpcbubd软件包
提供RPC支持的服务为rpcbind,提供NFS共享的服务为nfs,完成安装以后建议调整这两个服务的自启动状态,以便每次开机后自动启用。手动加载NFS共享服务时,应该先启动rpcbind,再启动 nfs。

[root@localhost~]# yum -y install nfs-utils rpcbind
[root@localhost~]# systemctl enable nfs-server
[root@localhost~]# systemctl enable rpcbind
(2)设置共享目录
NFS的配置文件为/etc/exports,文件内容默认为空(无任何共享)。在exports文件中设置共享资源时,记录格式为"目录位置客户机地址(权限选项)"例如,若要将文件夹/opt/wwwroot共享给192.168.10.0/24网网段使用,允许读写操作,具体配置如下所示。

[root@localhost ~]# mkdir -p /opt/wwwroot
[root@localhost ~]# vi /etc/exports
/opt/wwwroot 192.168.10.0/24 (rw, sync, no_root_squash)

其中客户机地址可以是主机名、IP地址、网段地址,允许使用*、?通配符:权限选项中的rw表示允许读写(ro为只读),symc表示同步写入,no_root_squash表示当客户机以root身份访问时赋予z本地 root权限(默认是root_squash,将作为nfsnobody用户降权对待)。

当需要将同一个目录共享给不同的客户机,且分配不同的权限限时,只要以空格分隔指定多个"客户机(权限选项)"即可。例如,以下操作>将/var/ftp/public目录共享给两个客户机,并分别给予只读、读写权限。
[root@localhost ^]# vi /etc/exports
/var/ftp/public 192.168.10.101 (ro) 192.168.10.102(rw)
(3)启动NFS服务程序
[root@localhost ~]# systemctl start rpcbind
[root@localhost ~]# systemctl start nfs-server
[root@localhost ~]# netstat -anpt | grep rpc
(4)查看本机发布的NFS共享目录
[root@localhost ~]# showmount -e
Export list for localhost.localdomain:
/opt/wwwroot 192.168.10.0/24
/var/ftp/public 192.168.10.101,192.168.10.10.102

3.2在客户机中访问NFS共享资源

(1)安装rpcbind软件包,并启动rpcbind服务。
若要正常访问NFS共享资源,客户机中也需要安装rpcbind软件包,并启动rpcbind系统服务。另外,为了使用 showmount查询工具,建议将nfs-utils软件包也一并装上。

[root@localhost ~]# yum -y install rpcbind nfs-utils
[root@localhost ~]# systemctl enable rpcbind
[root@localhost ~]# systemctl start rpcbind

如果已经安装了nfs-utils软件包,则客户机也可以使用:showmount 查看NFS服务器端共享了哪些目录,查询格式为"showmount-e服务器地址"

[root@localhost ~]# showmount -e 192.168.10.104
Export list for 192.168.10.104:
/opt/wwwroot 192.168.10.0/24
/var/ftp/public 192.168.10.101,192.168.10.10.102
(2)手动挂载NFS共享目录
以root用户身份执行mount操作,将NFS服务器共享的/opt/wwwroot目录挂载到本地目录/var/www/html。

[root@localhost~]# mount 192.168.10.104:/opt/wwwroot/var/www/html
[root@localhost~]# tail -1 /etc/mtab//确认挂载结果

[root@localhost^]#vi/var/www/html/index.html//在客户机创建测试文件
Real Web Server Document

完成挂载以后,访问客户机的/var/www/html文件夹,实际上就相当于访问NFS服务器中的/opt/wwwroot文件夹,其中的网络映射过程对于用户程序来说是透明的。例如,上述操作中创建的index.html测试文件,会立刻出现在服务器的/opt/wwwroot/目录下。
(3)fstab制动挂载设置
修改/etc/fstab配置文件,加入NFS共享目录的挂载设置。注意将文件系统类型设为nfs,挂载参数建议添加netdev(设备需要网络)。若添加soft、intr参数可以实现软挂载,允许在网络中断时放弃挂载。这样,客户机就可以在每次开机后自动挂载NFS共享资源了。
[root@localhost ~]# vi /etc/fstab
......
192.168.10.104:/opt/wwwroot/var/www/html nfs defaults,_netdev 0 0

二.案例:地址转换模式

1.准备案例环境

主机 操作系统 IP地址 应用
LVS openEuler 24.03 192.168.10.101 IPvsadm
web1 openEuler 24.03 192.168.10.102 apache、nfs、bind-utils
wen2 openEuler 24.03 192.168.10.103 apache、nfs、bind-utils
nfs openEuler 24.03 192.168.10.104 nfs、bind-utils

2.配置负载调度器

(1)开启路由转发规则

[root@localhost network-scripts]# ifconfig_ens36
[root@localhost ~]# vi /etc/sysctl.conf
。。。。
net.ipv4.ip_forward = 1
[root@localhost ~]# sysctl -p
net.ipv4.ip_forward = 1

(2)在lvs服务新增一块网卡,仅主机模式,作为vip(集群IP,模拟外网IP)

[root@localhost network-scripts]# ifconfig_ens36.

若添加的网卡没有ip,需要更改ens36的网卡配置文件,网卡配文件没有的话直接新增
[root@localhost network-scripts]# vim ifcfg-ens36

(3)配置负载分配策略

[root@localhost ~]#ipvsadm -C //清除原有策略
[root@localhost ~]# ipvsadm -A -t 192.168.74.129:80-s rr
[root@localhost ~]# ipvsadm -a -t 192.168.74.129:80 -r 192.168.10.102:80 -m -w 1
[root@localhost ~]# ipvsadm -a -t 192.168.74.129:80 -r 192.168.10.103:80 -m -w l
[root@localhost ~]# ipvsadm --save //保存策略
-A -t localhost:http -s rr
-a -t localhost:http -r 192.168.10.102:http -m -w 1
-a -t localhost:http -r 192.168.10.103:http -m -w 1
[root@localhost ^]# systemctl enable ipvsadm

3.配置节点服务器

所有的节点服务器均使用相同的配置,包括httpd服务端口、网站文档内容。实际上各节点的网站文档可存放在共享存储设备中,从而免去同步的过程。但在案例调试阶段可以为各节点采用不同的网页,以便测试负载均衡效果。
注意:节点服务器的网关必须指向LVS调度器

(1)修改节点服务器的网关,指向lvs调度器的192.168.10.101(也就是模拟内网网卡)

[root@localhost~]# route -n
[root@localhost~]# route del default gw 192.168.10.254 //删除原来的默认网关
[root@localhost~]# route add default gw 192.168.10.101 //新增默认网关

(2)安装httpd,创建测试网页

[root@localhost~]# yum -y install httpd
[root@localhost~]# mount 192.168.10.104:/opt/wwwroot/var/www/html
//实验时可在不同节点配置不同网页内容测试LVS,最后在使用NFS共享存储统一页面
[root@localhost~]# vi /var/www/html/index.html

LVS负载均衡群集--测试网页

(3)启用httpd服务程序

[root@localhost ~]# systemctl start httpd
[root@localhost ~]# systemctl enable httpd

4.测试LVS群集

在LVS负载调度器中,通过查看节点状态可以观察当前的负载分配情况,对于轮询算法来说,每个节点所获得的连接负载应大致相当
[root@localhost~]# ipvsadm -ln
[root@localhost^]#ipvsadm-lnc //可以查看客户端方问详细信息及状态便于排查问题

你可能感兴趣的:(lvs,负载均衡,运维)