天天看点

转:Centos or Ubuntu 双网卡绑定Centos 6.01、修改网卡配置2、加载模块3、重启网卡1、修改网卡配置2、加载模块3、重启网卡

双网卡绑定这个技术已经很老了,google一搜也一大堆,今天自己也小记一下 

Linux双网卡绑定实现就是使用两块网卡虚拟成为一块网卡,这个聚合起来的设备看起来是一个单独的以太网接口设备,通俗点讲就是两块网卡具有相同的IP 地址而并行链接聚合成一个逻辑链路工作。其实这项 技术在Sun和Cisco中早已存在,被称为Trunking和Etherchannel技术,在Linux的2.4.x的内核中也采用这这种技术,被称 为bonding。bonding技术的最早应用是在集群——beowulf上,为了提高集群节点间的数据传输而设计的。

下面我们讨论一下bonding 的原理,什么是bonding需要从网卡的混杂(promisc)模式说起。我们知道,在正常情况下,网卡只接收目的硬件地址(MAC Address)是自身Mac的以太网帧,对于别的数据帧都滤掉,以减轻驱动程序的负担。但是网卡也支持另外一种被称为混杂promisc的模式,可以接 收网络上所有的帧,比如说tcpdump,就是运行在这个模式下。bonding也运行在这个模式下,而且修改了驱动程序中的mac地址,将两块网卡的 Mac地址改成相同,可以接收特定mac的数据帧。然后把相应的数据帧传送给bond驱动程序处理。

首先是bond0

cd /etc/sysconfig/network-scripts 

vim ifcfg-bond0 

DEVICE="bond0" 

BOOTPROTO=static 

BROADCAST="192.168.4.255" 

DNS1="218.108.248.200" 

GATEWAY="192.168.4.1" 

IPADDR="192.168.4.130" 

NETMASK="255.255.255.0" 

ONBOOT="yes" 

TYPE=Ethernet 

 接下来是eth0、eth1

vim ifcfg-eth0 

DEVICE="eth0" 

BOOTPROTO=none 

MASTER=bond0 

SLAVE=yes 

vim ifcfg-eth1 

DEVICE="eth1" 

SLAVE=yes  

vim /etc/modprobe.d/dist.conf 

alias bond0 bonding 

options bond0 miimon=100 mode=0 

 对于这些参数解释,网上也是一大堆

miimon是用来进行链路监测的。 比如:miimon=100,那么系统每100ms监测一次链路连接状态,如果有一条线路不通就转入另一条线路;mode的值表示工作模式,他共有0,1,2,3,4,5,6四种模式,常用的为0,1两种。 

mode=0表示load balancing (round-robin)为负载均衡方式,两块网卡都工作。 

mode=1表示fault-tolerance (active-backup)提供冗余功能,工作方式是主备的工作方式,也就是说默认情况下只有一块网卡工作,另一块做备份. 

bonding只能提供链路监测,即从主机到交换机的链路是否接通。如果只是交换机对外的链路down掉了,而交换机本身并没有故障,那么bonding会认为链路没有问题而继续使用 

这7种工作方式如下: 

=0: (balance-rr) Round-robin policy: (平衡抡循环策略):传输数据包顺序是依次传输,直到最后一个传输完毕, 此模式提供负载平衡和容错能力。 

=1: (active-backup) Active-backup policy:(主-备份策略):只有一个设备处于活动状态。 一个宕掉另一个马上由备份转换为主设备。mac地址是外部可见得。 此模式提供了容错能力。 

=2:(balance-xor) XOR policy:(广播策略):将所有数据包传输给所有接口。 此模式提供了容错能力。 

=3:(balance-xor) XOR policy:(平衡策略): 传输根据原地址布尔值选择传输设备。 此模式提供负载平衡和容错能力。 

=4:(802.3ad) IEEE 802.3ad Dynamic link aggregation.IEEE 802.3ad 动态链接聚合:创建共享相同的速度和双工设置的聚合组。 

=5:(balance-tlb) Adaptive transmit load balancing(适配器传输负载均衡):没有特殊策略,第一个设备传不通就用另一个设备接管第一个设备正在处理的mac地址,帮助上一个传。 

=6:(balance-alb) Adaptive load balancing:(适配器传输负载均衡):大致意思是包括mode5,bonding驱动程序截获 ARP 在本地系统发送出的请求,用其中之一的硬件地址覆盖从属设备的原地址。就像是在服务器上不同的人使用不同的硬件地址一样。 

写道

/etc/init.d/network restart

重启的时候,可以看到网卡是否成功启动,启动成功之后就是双网卡绑定状态了

至于网上大部分说的ifenslave bond0 eth0 eth1,这只是一条启用命令而已,像上述配置好了的话,这条命令根本不用执行了,也不用去开机执行,因为开机就会加载网卡配置文件了

若要查看绑定的网卡状态

cat /proc/net/bonding/bond0

Ethernet Channel Bonding Driver: v3.5.0 (November 4, 2008)

Bonding Mode: load balancing (round-robin)

MII Status: up

MII Polling Interval (ms): 100

Up Delay (ms): 0

Down Delay (ms): 0

Slave Interface: eth0

Link Failure Count: 0

Permanent HW addr: 00:10:5c:ef:b1:fc

Slave Interface: eth1

Permanent HW addr: 00:10:5c:ef:b1:fd

ifenslave是centos默认就安装了,它的一些使用方法可以man看看

经过测试,双网卡绑定之后,带宽果然有增加至少50%

Ubuntu 10.04 server

没安装的话,执行

apt-get install ifenslave-2.6

Ubuntu的稍微简单一些

 写道

vim /etc/network/interfaces

auto lo

iface lo inet loopback

auto bond0

iface bond0 inet static

address 192.168.4.132

netmask 255.255.255.0

gateway 192.168.4.1

post-up ifenslave bond0 eth0 eth1

pre-down ifenslave -d bond0 eth0 eth1

首先执行

modprobe bonding

 这样就不用重启设备了

当然,配置文件也同样需要添加

vim /etc/modules

bonding mode=0 miimon=100

执行

/etc/init.d/networking restart

完成以后,同样可以查看一下bonding的状态

root@132:/etc/network# cat /proc/net/bonding/bond0

Ethernet Channel Bonding Driver: v3.7.1 (April 27, 2011)

MII Polling Interval (ms): 0

Speed: 100 Mbps

Duplex: full

Permanent HW addr: 00:10:5c:ef:b2:a2

Slave queue ID: 0

Speed: 1000 Mbps

Permanent HW addr: 00:10:5c:ef:b2:a3

本文转自dongfang_09859 51CTO博客,原文链接:http://blog.51cto.com/hellosa/1022234,如需转载请自行联系原作者

继续阅读