雙網卡綁定這個技術已經很老了,google一搜也一大堆,今天自己也小記一下
Linux雙網卡綁定實作就是使用兩塊網卡虛拟成為一塊網卡,這個聚合起來的裝置看起來是一個單獨的以太網接口裝置,通俗點講就是兩塊網卡具有相同的IP 位址而并行連結聚合成一個邏輯鍊路工作。其實這項 技術在Sun和Cisco中早已存在,被稱為Trunking和Etherchannel技術,在Linux的2.4.x的核心中也采用這這種技術,被稱 為bonding。bonding技術的最早應用是在叢集——beowulf上,為了提高叢集節點間的資料傳輸而設計的。
下面我們讨論一下bonding 的原理,什麼是bonding需要從網卡的混雜(promisc)模式說起。我們知道,在正常情況下,網卡隻接收目的硬體位址(MAC Address)是自身Mac的以太網幀,對于别的資料幀都濾掉,以減輕驅動程式的負擔。但是網卡也支援另外一種被稱為混雜promisc的模式,可以接 收網絡上所有的幀,比如說tcpdump,就是運作在這個模式下。bonding也運作在這個模式下,而且修改了驅動程式中的mac位址,将兩塊網卡的 Mac位址改成相同,可以接收特定mac的資料幀。然後把相應的資料幀傳送給bond驅動程式處理。
首先是bond0
cd /etc/sysconfig/network-scripts
vim ifcfg-bond0
DEVICE="bond0"
BOOTPROTO=static
BROADCAST="192.168.4.255"
DNS1="218.108.248.200"
GATEWAY="192.168.4.1"
IPADDR="192.168.4.130"
NETMASK="255.255.255.0"
ONBOOT="yes"
TYPE=Ethernet
接下來是eth0、eth1
vim ifcfg-eth0
DEVICE="eth0"
BOOTPROTO=none
MASTER=bond0
SLAVE=yes
vim ifcfg-eth1
DEVICE="eth1"
SLAVE=yes
vim /etc/modprobe.d/dist.conf
alias bond0 bonding
options bond0 miimon=100 mode=0
對于這些參數解釋,網上也是一大堆
miimon是用來進行鍊路監測的。 比如:miimon=100,那麼系統每100ms監測一次鍊路連接配接狀态,如果有一條線路不通就轉入另一條線路;mode的值表示工作模式,他共有0,1,2,3,4,5,6四種模式,常用的為0,1兩種。
mode=0表示load balancing (round-robin)為負載均衡方式,兩塊網卡都工作。
mode=1表示fault-tolerance (active-backup)提供備援功能,工作方式是主備的工作方式,也就是說預設情況下隻有一塊網卡工作,另一塊做備份.
bonding隻能提供鍊路監測,即從主機到交換機的鍊路是否接通。如果隻是交換機對外的鍊路down掉了,而交換機本身并沒有故障,那麼bonding會認為鍊路沒有問題而繼續使用
這7種工作方式如下:
=0: (balance-rr) Round-robin policy: (平衡掄循環政策):傳輸資料包順序是依次傳輸,直到最後一個傳輸完畢, 此模式提供負載平衡和容錯能力。
=1: (active-backup) Active-backup policy:(主-備份政策):隻有一個裝置處于活動狀态。 一個宕掉另一個馬上由備份轉換為主裝置。mac位址是外部可見得。 此模式提供了容錯能力。
=2:(balance-xor) XOR policy:(廣播政策):将所有資料包傳輸給所有接口。 此模式提供了容錯能力。
=3:(balance-xor) XOR policy:(平衡政策): 傳輸根據原位址布爾值選擇傳輸裝置。 此模式提供負載平衡和容錯能力。
=4:(802.3ad) IEEE 802.3ad Dynamic link aggregation.IEEE 802.3ad 動态連結聚合:建立共享相同的速度和雙工設定的聚合組。
=5:(balance-tlb) Adaptive transmit load balancing(擴充卡傳輸負載均衡):沒有特殊政策,第一個裝置傳不通就用另一個裝置接管第一個裝置正在處理的mac位址,幫助上一個傳。
=6:(balance-alb) Adaptive load balancing:(擴充卡傳輸負載均衡):大緻意思是包括mode5,bonding驅動程式截獲 ARP 在本地系統發送出的請求,用其中之一的硬體位址覆寫從屬裝置的原位址。就像是在伺服器上不同的人使用不同的硬體位址一樣。
寫道
/etc/init.d/network restart
重新開機的時候,可以看到網卡是否成功啟動,啟動成功之後就是雙網卡綁定狀态了
至于網上大部分說的ifenslave bond0 eth0 eth1,這隻是一條啟用指令而已,像上述配置好了的話,這條指令根本不用執行了,也不用去開機執行,因為開機就會加載網卡配置檔案了
若要檢視綁定的網卡狀态
cat /proc/net/bonding/bond0
Ethernet Channel Bonding Driver: v3.5.0 (November 4, 2008)
Bonding Mode: load balancing (round-robin)
MII Status: up
MII Polling Interval (ms): 100
Up Delay (ms): 0
Down Delay (ms): 0
Slave Interface: eth0
Link Failure Count: 0
Permanent HW addr: 00:10:5c:ef:b1:fc
Slave Interface: eth1
Permanent HW addr: 00:10:5c:ef:b1:fd
ifenslave是centos預設就安裝了,它的一些使用方法可以man看看
經過測試,雙網卡綁定之後,帶寬果然有增加至少50%
Ubuntu 10.04 server
沒安裝的話,執行
apt-get install ifenslave-2.6
Ubuntu的稍微簡單一些
寫道
vim /etc/network/interfaces
auto lo
iface lo inet loopback
auto bond0
iface bond0 inet static
address 192.168.4.132
netmask 255.255.255.0
gateway 192.168.4.1
post-up ifenslave bond0 eth0 eth1
pre-down ifenslave -d bond0 eth0 eth1
首先執行
modprobe bonding
這樣就不用重新開機裝置了
當然,配置檔案也同樣需要添加
vim /etc/modules
bonding mode=0 miimon=100
執行
/etc/init.d/networking restart
完成以後,同樣可以檢視一下bonding的狀态
root@132:/etc/network# cat /proc/net/bonding/bond0
Ethernet Channel Bonding Driver: v3.7.1 (April 27, 2011)
MII Polling Interval (ms): 0
Speed: 100 Mbps
Duplex: full
Permanent HW addr: 00:10:5c:ef:b2:a2
Slave queue ID: 0
Speed: 1000 Mbps
Permanent HW addr: 00:10:5c:ef:b2:a3
本文轉自dongfang_09859 51CTO部落格,原文連結:http://blog.51cto.com/hellosa/1022234,如需轉載請自行聯系原作者