LVS部署-DR集群

目录

一、LVS-DR工作原理

二、LVS-DR数据流向

三、DR模式特点即优缺点

3.1、DR模式特点

3.2、LVS-DR的优缺点

优点:

缺点:

四、ARP解析问题

4.1、问题一:IP地址冲突

解决方法:

4.2、问题二:第二次再有访问请求

解决方法:

五、部署LVS-DR集群

 5.1、配置负载调度器lvs(192.168.59.11)

安装ipvsadm工具

 配置虚拟IP地址(vip:192.168.59.100)

调整内核(proc)响应参数

配置负载分配

5.2、部署共享存储(NFS服务器:192.168.59.14)

安装nfs和rpcbind

创建共享目录并设置权限

输入页面内容

设置共享目录并发布共享

5.3、配置节点服务器(web1,web2)

配置虚拟IP地址(vip:192.168.59.100){web1和web2都要执行}

 启动lo:0网卡,添加VIP本地访问路由

设置系统自动识别,并设置执行权限

调整内核的arp响应参数以阻止更新VIP的MAC地址,避免发生冲突

 安装nfs、rpcbind和httpd服务

 注意web2和以上操作一样

开启相关服务,并挂载分享端的内容

 5.4、开始测试

可能出现的报错

六、LVS-DR问题总结

6.1、LVS/DR如何处理请求报文的,会修改IP包内容吗?

6.2、RealServer为什么要在lo接口上配置VIP?在出口网卡上配置VIP可以吗?

6.3、RealServer为什么要抑制arp帧?

6.4、LVS/DR load balancer(director)与RS为什么要在同一网段中?

5、为什么director上eth0接口除了VIP另外还要配一个ip(即DIP)?

6、director的vip的netmask一定要是255.255.255.255吗?

7、RS设置lo:0而不设置ens33:0的原因


一、LVS-DR工作原理

LVS-DR(Linux Virtual Server Director Server)工作模式,是生产环境中最常用的一种工作模式

  • LVS-DR模式,Director Server 作为集群的访问入口,不作为网关使用
  • 节点Director Server与Real Server需要在同一个网络中,返回给客户端的数据不需要经过Director Server。
  • 为了响应对整个集群的访问,Director Server与Real Server都需要配置VIP地址
    客户机发起请求,经过调度服务器(lvs),经过算法调度,去访问真实服务器(RS)
    
    由于不原路返回,客户机不知道,真实主机的ip地址,
    
    所以只能通过调度服务器的外网IP(vip)去放回报文信息

        Director Server 作为集群的访问入口,但不作为网关使用,后端服务器池中的Real Server与Director Server在同一个物理网络中,发给客户机的数据包不需要经过Director Server。为了响应对整个集群的访问,DS(前端负载均衡节点服务器)与RS(后端真实服务器)都需要配置有VIP地址。

        每个Real Server上都有两个IP:VIP(负载均衡对外提供访问的IP地址)和RIP(负载均衡后端的真实服务器IP地址),但是VIP是隐藏的,就是不难提供解析等功能,只是用来做请求回复的源IP的,Director上只需要一个网卡,然后利用别名来配置两个IP:VIP和DIP(负载均衡与后端服务器通信的IP地址),在DIR接收到客户端的请求后。DIR根据负载均衡算法选择一台rs server的网卡mac作为客户端请求包中的目标mac,通过arp转交给后端rs server处理,后端在通过自己的网关回复给客户端。

二、LVS-DR数据流向

LVS部署-DR集群_第1张图片

数据流向分析

  • 用户发送请求到Director Server,请求的数据报文(源IP是CIP(客户端IP),目标IP是VIP)到达内核空间
  • 由于DS和RS在用一个网络中,所以是通过二层数据链路层来传输
  • 内核空间判断数据包的目标IP是本机IP,此时IPVS比对数据包请求的服务是否为集群服务,若是,重新封装数据包,修改源MAC地址为DIP的MAC地址,目标MAC地址为RIP的MAC地址,源IP地址与目标IP地址没有改变,然后将数据包发送给Real Server
  • RS发现请求报文的MAC地址是自己的MAC地址,就接收此报文,重新封装报文(源IP地址为VIP,目标IP为CIP)将响应报文通过io传送给ens33网卡然后向外发出。
  • RS直接将响应报文传送到客户端

三、DR模式特点即优缺点

3.1、DR模式特点

  • Director Server和Real Server必须在同一个物理网络中
  • Real Server可以使用私有地址,也可以使用公网地址。如果使用公网地址,可以通过互联网对RIP进行直接访问
  • Director Server作为集群的访问入口,但不能作为网关使用。
  • 所有的请求报文经由Director Server IP,即Real Server发送的数据包不允许经过Director Server。
  • Real Server上的io接口配置VIP的IP地址

3.2、LVS-DR的优缺点

优点:

负载均衡器只负责将请求包分发给物理服务器,而物理服务器将应答包直接分发给用户。所以,负责均衡器能处理很巨大的请求量,这种方式,一台负载均衡能为超过100台物理服务器服务,负载均衡器不再是系统的瓶颈。使用VS-DR方式,如果你的负载均衡器拥有100M的全双工网卡的话,就能使得整个Virtual Server能达到1G的吞吐量。甚至更高;

缺点:

这种方式需要所有的DIR和RIP都在同一广播域;不支持异地容灾。

四、ARP解析问题

4.1、问题一:IP地址冲突

在LVS-DR负载均衡集群中,负载均衡与节点服务器都要配置相同的VIP地址,在局域网中具有相同的IP地址。势必会造成各服务器ARP通信的紊乱

  • 当arp广播发送到LVS-DR集群时,因为负载均衡器和节点服务器都是连接到相同的网络上,它们都会接收到ARP广播
  • 只有前端的负载均衡器进行响应,其他节点服务器不应该响应ARP广播

解决方法:

  • 对节点服务器进行处理,使其不响应针对VIP的ARP请求
  • 用虚接口lo:0承载VIP地址
  • 设置内核参数arp_ignore=1:系统只响应目的IP为本地IP(真实网卡IP)的ARP请求

4.2、问题二:第二次再有访问请求

Real Server返回报文(源IP是VIP)经路由器转发,重新封装报文时,需要先获取路由器的MAC地址,发送ARP请求时,Linux默认使用IP包的源IP地址(VIP)作为ARP请求包中的源IP地址,而不使用发送接口的IP地址,路由器收到ARP请求后,将更新ARP表项,原有的VIP对应Director的MAC地址会被更新为VIP对应的Real Server的MAC地址。路由器根据ARP表项,会将新来的请求报文转发给Real Server,导致Director的VIP失效

解决方法:

对节点服务器进行处理,设置内核参数arp_announce=2:系统不使用IP包的源地址来设置ARP请求的源地址,而选择发送接口的IP地址

路由器上绑定了真实服务器1的mac信息
请求到达真实服务器
在真实服务器上修改内核参数
只对所有服务器真实网卡上的地址进行反馈,解析

五、部署LVS-DR集群

实验准备

DR服务器:192.168.59.11
web1:192.168.59.12
web2:192.168.59.13
vip(虚拟回环):192.168.59.100
NFS服务器:192.168.59.14
客户端:192.168.59.90

因为是在内网环境中所以我们需要关闭防火墙和配置本地yum仓库

########关闭防火墙############
#!/bin/bash
systemctl stop firewalld
systemctl disable firewalld
setenforce 0
#######yum仓库#########
mount /dev/cdrom /mnt
mkdir /etc/yum.repos.d/bak
mv /etc/yum.repos.d/*.repo  /etc/yum.repos.d/bak
touch /etc/yum.repos.d/local.repo
echo "
[local]
name=local
baseurl=file:///mnt
enabled=1
gpgcheck=0
" > /etc/yum.repos.d/local.repo
yum cleam all
yum makecache

要在每台内网服务器中执行!(下图是执行完效果)

LVS部署-DR集群_第2张图片

 5.1、配置负载调度器lvs(192.168.59.11)

安装ipvsadm工具

yum -y install ipvsadm

LVS部署-DR集群_第3张图片

 配置虚拟IP地址(vip:192.168.59.100)

cd /etc/sysconfig/network-scripts/

cp ifcfg-ens33 ifcfg-ens33:0

vim ifcfg-ens33:0

LVS部署-DR集群_第4张图片

ifup ens33:0

ifconfig

LVS部署-DR集群_第5张图片

调整内核(proc)响应参数

对于DR集群模式来说,由于LVS负载调度器和各节点需要共用VIP地址,一个关闭Linux内核的重定向参数响应服务器部署一台路由器,那么它不会发送重定向,所以可以关闭该功能。

vim /etc/sysctl.conf

net.ipv4.ip_forward = 0  #关闭路由转发功能

net.ipv4.conf.all.send_redirects = 0 #下面都是关闭内核重定向功能

net.ipv4.conf.default.send_redirects = 0

net.ipv4.conf.ens33.send_redirects = 0

LVS部署-DR集群_第6张图片

LVS部署-DR集群_第7张图片

配置负载分配

ipvsadm -C

ipvsadm -A -t 192.168.59.100:80 -s rr

ipvsadm -a -t 192.168.59.100:80 -r 192.168.59.12:80 -g

ipvsadm -a -t 192.168.59.100:80 -r 192.168.59.13:80 -g

ipvsadm

ipvsadm-save > /etc/sysconfig/ipvsadm

LVS部署-DR集群_第8张图片

5.2、部署共享存储(NFS服务器:192.168.59.14)

部署前执行上面脚本关闭防火墙并配置本地yum仓库

安装nfs和rpcbind

yum -y install nfs-utils rpcbind

systemctl start nfs

systemctl start rpcbind

LVS部署-DR集群_第9张图片

创建共享目录并设置权限

mkdir /opt/db1 /opt/db2

chmod 777 /opt/db1 /opt/db2

LVS部署-DR集群_第10张图片

输入页面内容

echo "i am web1" > /opt/db1/index.html
echo "i am web2" > /opt/db2/index.html

LVS部署-DR集群_第11张图片

设置共享目录并发布共享

vim /etc/exports

/opt/db1 192.168.59.0/24(rw,sync)
/opt/db2 192.168.59.0/24(rw,sync)

exportfs -rv

 

5.3、配置节点服务器(web1,web2)

配置前要执行上面脚本哦

配置虚拟IP地址(vip:192.168.59.100){web1和web2都要执行}

此地址仅作为发送web响应数据包的源地址,并不需要监听客户机的访问请求(改由调度器监听并分发)。因此实验虚接口lo:0来承担VIP地址,并为本机添加一条路由记录,将访问VIP的数据限制在本地,以避免通讯紊乱。

cd /etc/sysconfig/network-scripts/

cp ifcfg-lo ifcfg-lo:0
vim ifcfg-lo:0

IPADDR=192.168.59.100
NETMASK=255.255.255.255  #子网掩码必须全为1
DEVICE=lo:0
ONBOOT=yes

 启动lo:0网卡,添加VIP本地访问路由

ifup lo:0

ifconfig lo:0

route add -host 192.168.59.100 dev lo:0

LVS部署-DR集群_第12张图片

设置系统自动识别,并设置执行权限

vim /etc/rc.local

/sbin/route add -host 192.168.59.100 dev lo:0

chmod +x /etc/rc.d/rc.local

调整内核的arp响应参数以阻止更新VIP的MAC地址,避免发生冲突

vim /etc/sysctl.conf

net.ipv4.conf.all.arp_ignore = 1
net.ipv4.conf.all.arp_announce = 2
net.ipv4.conf.default.arp_ignore = 1
net.ipv4.conf.default.arp_announce = 2
net.ipv4.conf.lo.arp_ignore = 1
net.ipv4.conf.lo.arp_announce = 2

 sysctl -p  #立即生效

LVS部署-DR集群_第13张图片

 安装nfs、rpcbind和httpd服务

yum -y install nfs rpcbind http

LVS部署-DR集群_第14张图片

 注意web2和以上操作一样

开启相关服务,并挂载分享端的内容

web1

systemctl start rpcbind httpd nfs

mount.nfs 192.168.59.14:/opt/db1 /var/www/html

df -hT

LVS部署-DR集群_第15张图片

web2

systemctl start rpcbind httpd nfs

mount.nfs 192.168.59.14:/opt/db2 /var/www/html

df -hT

LVS部署-DR集群_第16张图片

 5.4、开始测试

我们用一台win(net1网卡的)

LVS部署-DR集群_第17张图片

LVS部署-DR集群_第18张图片

测试成功

可能出现的报错

8ea164ab57094606ae069c226e13ee48.png

 我们在访问的时候可能会出现这种情况,这时因为我们配置了本地yum源而导致的

我们只需要找到问题主机的httpd.conf文件

vim /etc/httpd/conf/httpd.conf 

f72ae94fab7e4455bcb7b018805adc1b.png

 将其注释就行了。

六、LVS-DR问题总结

6.1、LVS/DR如何处理请求报文的,会修改IP包内容吗?

vs/dr本身不会关心IP层以上的信息,即使是端口号也是tcp/ip协议栈去判断是否正确,vs/dr本身主要做这么几个事:

接收client的请求,根据你设定的负载均衡算法选取一台realserver的ip;
以选取的这个ip对应的mac地址作为目标mac,然后重新将IP包封装成帧转发给这台RS;
在hash table中记录连接信息。
vs/dr做的事情很少,也很简单,所以它的效率很高,不比硬件负载均衡设备差多少,数据包、数据帧的大致流向是这样的:client –> VS –> RS –> client。

6.2、RealServer为什么要在lo接口上配置VIP?在出口网卡上配置VIP可以吗?

既然要让RS能够处理目标地址为vip的IP包,首先必须要让RS能接收到这个包。在lo上配置vip能够完成接收包并将结果返回client。不可以将VIP设置在出口网卡上,否则会响应客户端的arp request,造成client/gateway arp table紊乱,以至于整个load balance都不能正常工作。

6.3、RealServer为什么要抑制arp帧?

我们知道仰制arp帧需要在server上执行以下命令,如下:

echo "1" >/proc/sys/net/ipv4/conf/lo/arp_ignore
echo "2" >/proc/sys/net/ipv4/conf/lo/arp_announce
echo "1" >/proc/sys/net/ipv4/conf/all/arp_ignore
echo "2" >/proc/sys/net/ipv4/conf/all/arp_announce
1
2
3
4
因为arp对逻辑口没有意义。实际上起作用的只有以下两条:

echo "1" >/proc/sys/net/ipv4/conf/all/arp_ignore
echo "2" >/proc/sys/net/ipv4/conf/all/arp_announce
1
2
即对所有的物理网卡设置arp仰制。对仰制所有的物理网卡设置arp仰制是为了让CIP发送的请求顺利转交给DIR以及防止整个LVS环境arp表混乱,不然容易导致整个lvs不能工作。

6.4、LVS/DR load balancer(director)与RS为什么要在同一网段中?

lvs/dr它是在数据链路层来实现的,即RIP必须能够接受到DIR的arp请求,如果不在同一网段则会隔离arp,这样arp请求就不能转发到指定的RIP上,所以director必须和RS在同一网段里面。

5、为什么director上eth0接口除了VIP另外还要配一个ip(即DIP)?

如果是用了keepalived等工具做HA或者Load Balance,则在健康检查时需要用到DIP。 没有健康检查机制的HA或者Load Balance则没有存在的实际意义。

6、director的vip的netmask一定要是255.255.255.255吗?

lvs/dr里,director的vip的netmask 没必要设置为255.255.255.255,director的vip本来就是要像正常的ip地址一样对外通告的,不要搞得这么特殊。

7、RS设置lo:0而不设置ens33:0的原因

因为“负载调度机”转发时并不会改写数据包的目的IP,所以“节点服务器”收到的数据包的目的IP仍是“负载调度器”的虚拟服务IP。为了保证“节点服务器”能够正确处理该数据包,而不是丢弃,必须在“节点服务器”的环回网卡上绑定“负载调度器”的虚拟服务IP。这样“节点服务器”会认为这个虚拟服务IP是自己的IP,自己是能够处理这个数据包的。否则“节点服务器”会直接丢弃该数据包!

“节点服务器”上的业务进程必须监听在环回网卡的虚拟服务IP上,且端口必须和“负载调度机”上的虚拟服务端口一致。因为“负载调度机”不会改写数据包的目的端口,所以“节点服务器”服务的监听端口必须和虚拟服务端口一致,否则“节点服务器”会直接拒绝该数据包。

“节点服务器”处理完请求后,响应直接回给客户端,不再经过“负载调度机”。因为“节点服务器”收到的请求数据包的源IP是客户端的IP,所以理所当然“节点服务器”的响应会直接回给客户端,而不会再经过“负载调度机”。这时候要求“节点服务器”和客户端之间的网络是可达的。

“负载调度机”和“节点服务器”须位于同一个子网。因为“负载调度机”在转发过程中需要改写数据包的MAC为“节点服务器”的MAC地址,所以要能够查询到“节点服务器”的MAC。而要获取到“节点服务器”的MAC,则需要保证二者位于一个子网,否则“负载调度机”只能获取到“节点服务器”网关的MAC地址。
 

你可能感兴趣的:(Linux,lvs,linux,服务器,负载均衡,运维)