linux:搭建LVS负载均衡群集(1)LVS-NAT

搭建LVS负载均衡群集

  • 1.0.0理论
    • 1.1.0 企业群集应用概述
    • 1.2.0 企业群集分类
    • 1.3.0 负载均衡群集架构
    • 1.4.0 负载均衡群集工作模式分析
      • 1.4.1 NAT模式
      • 1.4.2 TUN模式
      • 1.4.3 DR模式
    • 1.5.0 关于LVS虚拟服务器
      • 1.5.1 LVS的负载调度算法
    • 1.6.0 使用ipvsadm工具
    • 1.7.0 NFS共享存储服务
    • 1.7.0 案例:LVS-NAT部署实战
    • 1.8.0 部署步骤
  • 2.0.0 实例实验
    • 2.1.0 实验环境配置
    • 2.2.0 调度器上设置
    • 2.3.0 存储服务器配置
    • 2.4.0 节点服务器配置
  • 3.0.0测试结果

1.0.0理论

1.1.0 企业群集应用概述

  • 群集的含义
    • Cluster,集群,群集
    • 由多台主机构成,但对外只表现为一个整体
  • 问题
    • 互联网应用应用种,随着站点对硬件性能,响应速度,服务稳定性,数据可靠性等要求越来越高,单台服务器力不从心
  • 解决方法
    • 使用价格昂贵的小型机,大型机
    • 使用普通服务器构建服务群集

1.2.0 企业群集分类

  • 根据群集所针对的目标差异,可分为三种类型
    • 负载均衡群集
    • 高可用群集
    • 高性能运算群集
  • 负载均衡群集 (Load Balance Cluster)
    • 提高应用系统的响应能力,尽可能处理更多的访问请求,减少延迟为目标,获得高并发,高负载(LB)的整体性能
    • LB的负载分配依赖于主节点的分流算法
  • 高可用群集(High Availability Cluster)
    • 提高应用系统的可靠性、尽可能地减少中断时间为目标,确保服务的连续性,达到高可用(HA)的容错效果
    • HA的工作方式包括双工和主从两种模式
  • 高性能运算群集(High Performance Computer Cluster)
    • 提高应用系统的CPU运算速度、扩展硬件资源和分析能力为目标,获得相当于大型、超级计算机的高性能运算(HPC)能力
    • 高性能依赖于"分布式运算"、“并行计算”,通过专用硬件和软件将多个服务器的CPU、内存等资源整合在一起,实现只有大型、超级计算机才具备的计算能力

1.3.0 负载均衡群集架构

  • 负载均衡的结构
    • 第一层,负载调度器(Load Balancer或Director)
      • 根据需求,双活,主从
    • 第二层,服务器池(Server Pool)
      • 根据客户需求选中可用区
    • 第三层,共享存储(Share Storage)
      • 内容重分发

1.4.0 负载均衡群集工作模式分析

  • 负载均衡群集是目前企业用得最多的群集类型
  • 群集的负载调度技术有三种工作模式
    • 地址转换
    • IP隧道
    • 直接路由

1.4.1 NAT模式

  • 地址转换
    • Network Address Translation,简称NAT模式
    • 类似于防火墙的私有网络结构,负载调度器作为所有服务器节点的网关,即作为客户机的访问入口,也是各节点回应客户机的访问出口
    • 服务器节点使用私有IP地址,与负载调度器位于同一个物理网络,安全性要优于其他两种方式
      linux:搭建LVS负载均衡群集(1)LVS-NAT_第1张图片

1.4.2 TUN模式

  • IP隧道
    • IP Tunnel,简称TUN模式
    • 采用开放式的网络结构,负载调度器仅作为客户机的访问入口,各节点通过各自的Internet连接直接回应客户机,而不再经过负载调度器
    • 服务器节点分散在互联网种的不同位置,具有独立的公网IP地址,通过专用IP隧道与负载调度器相互通信linux:搭建LVS负载均衡群集(1)LVS-NAT_第2张图片

1.4.3 DR模式

  • 直接路由
    • Direct Routing,简称DR模式
    • 采用半开方式的网络结构,与TUN模式的结构类似,但各节点并不是分散在各地,而是在调度器位于同一个物理网络
    • 负载调度器与各节点服务器通过本地网络连接,不需要建立专用的IP隧道

1.5.0 关于LVS虚拟服务器

  • Linux Virtual Server
    • 针对Linux内核的负载均衡解决方案
    • 1998年5月,由我国的章文嵩博士创建

1.5.1 LVS的负载调度算法

  • 轮询(Round Robin)
    • 将收到的访问请求按照顺序轮流分配给群集中的各节点(真实服务器),均等地对待每一台服务器,而不管服务器实际的连接数喝系统负载
  • 加权轮询 (Weighted Round Robin)
    • 根据调度器设置的权重值来分发请求,权重值高的节点优先获得任务,分配的请求数越多
    • 保证性能强的服务器承担更多的访问流量
  • 最少连接 (Least Connections)
    • 根据真是服务器已建立的连接数进行分配,将收到的访问请求优先分配给连接数量少的节点
  • 加权最少连(Weighted Least Connections)
    • 在服务器节点的性能差异较大时,可用为真是服务器自动调整权重
    • 性能较高的节点将承担更大比例的活动连接负载

1.6.0 使用ipvsadm工具

  • LVS群集创建与管理
    • 创建虚拟服务器
    • 添加,删除服务器节点
    • 查看群集及节点情况
    • 保存负载分配策略

1.7.0 NFS共享存储服务

  • Network File System,网络文件系统
    • 依赖于RPC(远端过程调用)
    • 需安装nfs-utils,rpcbind软件包
    • 系统服务:nfs,rpcbind
    • 共享配置文件:/etc/exports

1.7.0 案例:LVS-NAT部署实战

  • 案例环境
    • LVS调度器作为Web服务器池的网关,LVS两块网卡,分别连接内外网,使用轮询(rr)调度算法

1.8.0 部署步骤

  • 加载ip_vs模块,安装ipvsadm工具
  • 开启路由准发
  • 新建LVS虚拟服务器并添加节点服务器
  • 配置节点服务器
    • 建立测试网站
    • 挂载NFS共享存储
    • 建立测试网页
  • 保存规则并测试

2.0.0 实例实验

2.1.0 实验环境配置

  • 一台调度器:配置双网卡 VM1:192.168.100.41 桥接网卡:10.0.2.73
  • 两台WEB服务器集群池:
    • 192.168.100.42
    • 192.168.100.43
    • 这边的网关必须指向192.168.100.41这个地址
  • 一台NFS共享服务器:192.168.100.44

2.2.0 调度器上设置

  • 一块网卡桥接配置DHCP模式
  • 在调度器 192.168.100.41 上按照以下操作进行
nmcali connection #先使用这个命令获得 网卡的 UID

cd /etc/sysconfig/network-scripts/ #设置 第二张网卡
vi ifcfg-ens36

yum -y install ipvsadm #yum安装 ipvsadm

modprobe ip_vs #加载 ip_vs 模块
car /proc/net/ip_vs #查看 ip_vs 模块 

ipvsadm -A -t 192.168.100.10:80 -s rr #创建虚拟服务器
ipvsadm -a -t 192.168.100.10:80 -r 192.168.100.42:80 -m #添加服务器节点
ipvsadm -a -t 192.168.100.10:80 -r 192.168.100.43:80 -m

ipvsadm-save #查看LVS策略

vi /etc/sysctl.conf #开启调度服务器路由转发功能
net.ipv4.ip_forward = 1 #将这串指令保存到sysctl.conf文件中
sysctl -p # 刷新一下

2.3.0 存储服务器配置

  • 在存储服务器 192.168.100.44 上按照以下操作进行
yum -y install nfs-utils # 安装 nfs-utils 
yum -y install rpcbind # 安装 rpcbind
systemctl start nfs #开启 nfs 服务
systemctl start rpcbind #开启rpcbind 服务

mkdir /opt/51xit /opt/52xit # 创建用来共享的服务

vi /etc/exports #将以下2行代码 加入到这个文件
/opt/51xit 192.168.100.0/24(rw.sync)
/opt/52xit 192.168.100.0/24(rw.sync)

systemctl restart nfs #重启 nfs 服务 
systemctl restart rpcbind #重启 rpcbind 服务

echo "this is www.51xit.tio" >/opt/51xit/index.html #给 共享文件 打入数据
echo "this is www.52xit.tio" >/opt/52xit/index.html

2.4.0 节点服务器配置

  • 在服务器 192.168.100.42 上按照以下操作进行
yum -y install nfs-utils httpd # 安装nfs-ustils 和httpd服务

mount 192.168.100.44:/opt/51xit /var/www/html/
systemctl start httpd
  • 登录 192.168.100.42测试网站是否正常

  • 在服务器 192.168.100.42 上按照以下操作进行

yum -y install nfs-utils httpd # 安装nfs-ustils 和httpd服务

mount 192.168.100.44:/opt/52xit /var/www/html/
systemctl start httpd
  • 登录 192.168.100.43测试网站是否正常

3.0.0测试结果

  • 登录 192.168.100.41 测试网页 是否切换
  • 切换成功就可以了。

你可能感兴趣的:(Linux,Web服务器群集,linux)