Redhat7.9/Centos7.9配置双网卡bonding

一、网卡bonding及其7种模式简介:

1、网卡bonding:

一台服务器如果只有一块网卡,当这块网卡故障时,服务器网络就会瘫痪。bonding(绑定)是一种Linux系统下的网卡绑定技术,是Linux系统内核层面实现的,它是一个内核模块(驱动),可以把服务器上N块物理网卡在系统内部抽象(绑定)成一块逻辑上的网卡,共用一个IP,能够提升网络吞吐量,实现网络冗余、负载等功能。

2、bonding的7种模式:

(1)mode=0:balance-rr,即balancing round-robin,平衡轮询模式(默认模式)。数据包在每块slave网卡上都进行数据传输,该模式提供了数据的负载均衡和容错能力,需要交换机(Switch)的配置。该模式下所绑定的网卡的IP都被修改成相同的MAC地址,交换机做了聚合后,聚合下的几个端口也被捆绑成一个MAC地址。

(2)mode=1,active-backup,即主备模式。一块网卡处于active状态,另一块处于standby状态。所有流量都在active链路上处理,当活跃网卡down掉时,启用备用网卡。该模式提供容错能力,且不需要配置交换机。该模式只有一块网卡工作,对外只有一个MAC地址,端口利用率比较低。

(3)mode=2:balance-xor,即平衡模式。基于指定的传输HASH策略传输数据包,该模式提供负载均衡和容错能力。

(4)mode=3:broadcast,即广播模式。所有数据包从所有网络接口发出,该模式只有冗余能力,过于浪费资源。

(5)mode=4:IEEE 802.3ad,即动态链路聚合模式。根据802.3ad标准利用所有的slave网卡建立聚合链路,每块slave网卡需要支持ethtool获取速率和双工状态,交换机经过特定配置后需要支持802.3ad模式。

(6)mode=5:balance-tlb,即transmit load balancing,适配器传输负载均衡模式。每块slave网卡根据当前的负载(通过速度计算)分配外出流量,如果正在接收数据的slave出现故障,其它slave网卡将接管它的MAC地址继续接收数据。每块slave网卡需要支持ethtool获取速率,且不需要配置交换机,该模式提供负载平衡和容错能力。

(7)mode=6:balance-alb,即adaptive load balancing,适配器适应性负载均衡模式。该模式包含了balance-tlb模式,同时加上针对IPV4流量的接收负载均衡rlb(receive load balance),接收负载均衡通过ARP协商实现。每块slave网卡需要支持ethtool获取速率,且不需要配置交换机,该模式提供负载平衡和高可用能力。

说明:

a、mode=6与mode=0的区别:

mode=6:先把eth0流量占满,再占eth1、...、ethX,其中第1块网卡流量很高,第2块网卡只占了小部分流量。
mode=0:2块网卡的流量都很稳定,基本一样的带宽。
b、当mode=1、5、6时,不需要配置交换机;当mode=0、2、3、4时,需要配置交换机。

环境:本次环境为物理机,双网卡

二、配置Bonding

1、配置前准备

1、查看系统是否加载bonding模块
[root@localhost ~]# lsmod |grep bonding #无结果代表未加载Bonding模块
[root@localhost ~]#
2、关闭NetworkManager
[root@localhost ~]# systemctl stop NetworkManager
You have new mail in /var/spool/mail/root
[root@localhost ~]# systemctl disable NetworkManager
Removed symlink /etc/systemd/system/multi-user.target.wants/NetworkManager.service.
Removed symlink /etc/systemd/system/dbus-org.freedesktop.nm-dispatcher.service.
Removed symlink /etc/systemd/system/network-online.target.wants/NetworkManager-wait-online.service.
3、手动加载bonding模块
[root@localhost ~]# echo "modprobe bonding" >> /etc/sysconfig/modules/bonding.modules
[root@localhost ~]# cat /etc/sysconfig/modules/bonding.modules
[root@localhost ~]# chmod 755 /etc/sysconfig/modules/bonding.modules
4、重启系统
[root@localhost ~]# reboot
5、重启后再次验证模块是否加载
[root@racdb1 ~]# lsmod |grep bonding
bonding               152979  0
已加载

2、bonding配置

本机现有两张网卡名称分别为ens1f0,ens4f0
#注意:若服务器是物理机,可通过再接一条光纤线到交换机来加网卡,若服务器是虚拟机,则直接控制台上添加一个新的网卡即可。
若ifconfig看不到网卡,则需要进到/etc/sysconfig/network-scripts里查看具体哪块网卡是新增的,然后执行命令ifup ifcfg-xxx

1、新建bond网卡配置文件
若本机之前已经配好了IP,则直接复制原有网卡配置文件为bond0
cp ifcfg-ens33 ifcfg-bond0
若是新机器,可直接创建bond0文件

2、修改bond0配置文件
[root@racdb1 network-scripts]# vim ifcfg-bond0
TYPE=Bond
PROXY_METHOD=none
BROWSER_ONLY=no
BOOTPROTO=static
DEFROUTE=yes
IPADDR=10.10.76.35
GATEWAY=10.10.76.1
NETMASK=255.255.255.0
DNS1=10.10.80.254
DEFROUTE=yes
IPV4_FAILURE_FATAL=no
NAME=bond0
DEVICE=bond0
ONBOOT=yes
IPV4_FAILURE_FATAL=no
NM_CONTROLLED=no
BONDING_MASTER=yes
BONDING_OPTS="mode=1 miimon=100"
# mode=1:配置bonding模式1
# miimon=100:指定链路监测时间间隔,单位为毫秒。此处系统每100ms监测一次链路连接状态,如果有一条链路不通就转入另一条链路。

3、修改ens1f0网卡配置文件
[root@racdb1 network-scripts]# vim ifcfg-ens1f0
TYPE=Ethernet
BOOTPROTO=static
NAME=ens1f0
DEVICE=ens1f0
ONBOOT=yes
NM_CONTROLLED=no
MASTER=bond0
SLAVE=yes

4、修改ens4f0网卡配置文件
[root@racdb1 network-scripts]# vim ifcfg-ens4f0
TYPE=Ethernet
BOOTPROTO=static
NAME=ens4f0
DEVICE=ens4f0
ONBOOT=yes
NM_CONTROLLED=no
MASTER=bond0
SLAVE=yes

5、重启网络
[root@racdb1 network-scripts]# systemctl restart network

[root@racdb1 network-scripts]# ls -lh /proc/sys/net/ipv4/conf
说明:/proc/sys/net/ipv4/conf目录是Linux内核中的一个虚拟文件系统,用于控制和配置网络接口参数。该目录下的文件包含了各种网络接口的配置参数,如:IP地址、子网掩码、路由表、ARP缓存、MTU等。通过修改这些文件的值,可以改变网络接口的行为和性能,从而实现网络优化、安全加固等目的。

6、查看bond
[root@racdb1 network-scripts]# ip a
1: lo:  mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000
    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
    inet 127.0.0.1/8 scope host lo
       valid_lft forever preferred_lft forever
    inet6 ::1/128 scope host
       valid_lft forever preferred_lft forever
2: ens1f0:  mtu 1500 qdisc mq master bond0 state UP group default qlen 1000
    link/ether 00:62:0b:32:e1:f0 brd ff:ff:ff:ff:ff:ff
    inet 10.10.76.35/24 brd 10.10.76.255 scope global ens1f0
       valid_lft forever preferred_lft forever
4: ens4f0:  mtu 1500 qdisc mq master bond0 state UP group default qlen 1000
    link/ether 00:62:0b:32:e1:f0 brd ff:ff:ff:ff:ff:ff
10: bond0:  mtu 1500 qdisc noqueue state UP group default qlen 1000
    link/ether 00:62:0b:32:e1:f0 brd ff:ff:ff:ff:ff:ff
    inet 10.10.76.35/24 brd 10.10.76.255 scope global bond0
       valid_lft forever preferred_lft forever
    inet 10.10.76.39/24 brd 10.10.76.255 scope global secondary bond0:1
       valid_lft forever preferred_lft forever
    inet 10.10.76.37/24 brd 10.10.76.255 scope global secondary bond0:2
       valid_lft forever preferred_lft forever
    inet6 fe80::262:bff:fe32:e1f0/64 scope link
       valid_lft forever preferred_lft forever

可看到ens1f0,ens4f0,bond0三者mac地址是一致的
说明:

a、两块物理网卡ens1f0和ens4f0无IP地址。

b、bond0绑定IP地址。

c、bond0与物理网卡ens1f0和ens4f0的MAC地址完全一致。

7、查看bond相关信息
[root@racdb1 network-scripts]# cat /proc/net/bonding/bond0
Ethernet Channel Bonding Driver: v3.7.1 (April 27, 2011)

Bonding Mode: fault-tolerance (active-backup)
Primary Slave: None
Currently Active Slave: ens1f0
MII Status: up
MII Polling Interval (ms): 100
Up Delay (ms): 0
Down Delay (ms): 0

Slave Interface: ens1f0
MII Status: up
Speed: 10000 Mbps
Duplex: full
Link Failure Count: 0
Permanent HW addr: 00:62:0b:32:e1:f0
Slave queue ID: 0

Slave Interface: ens4f0
MII Status: up
Speed: 10000 Mbps
Duplex: full
Link Failure Count: 0
Permanent HW addr: 00:62:0b:32:ac:c0
Slave queue ID: 0

说明:

a、bonding模式为active-backup。

b、当前使用的物理网卡为ens1f0。

c、MII:Media Independent Interface,即介质独立接口,状态均为up。

双网卡做bond后,当目前active-backup的网卡故障后,另一块网卡会自动切换,以保证网络稳定运行
 

你可能感兴趣的:(开发语言,网络,运维)