天天看點

轉:Centos or Ubuntu 雙網卡綁定Centos 6.01、修改網卡配置2、加載子產品3、重新開機網卡1、修改網卡配置2、加載子產品3、重新開機網卡

雙網卡綁定這個技術已經很老了,google一搜也一大堆,今天自己也小記一下 

Linux雙網卡綁定實作就是使用兩塊網卡虛拟成為一塊網卡,這個聚合起來的裝置看起來是一個單獨的以太網接口裝置,通俗點講就是兩塊網卡具有相同的IP 位址而并行連結聚合成一個邏輯鍊路工作。其實這項 技術在Sun和Cisco中早已存在,被稱為Trunking和Etherchannel技術,在Linux的2.4.x的核心中也采用這這種技術,被稱 為bonding。bonding技術的最早應用是在叢集——beowulf上,為了提高叢集節點間的資料傳輸而設計的。

下面我們讨論一下bonding 的原理,什麼是bonding需要從網卡的混雜(promisc)模式說起。我們知道,在正常情況下,網卡隻接收目的硬體位址(MAC Address)是自身Mac的以太網幀,對于别的資料幀都濾掉,以減輕驅動程式的負擔。但是網卡也支援另外一種被稱為混雜promisc的模式,可以接 收網絡上所有的幀,比如說tcpdump,就是運作在這個模式下。bonding也運作在這個模式下,而且修改了驅動程式中的mac位址,将兩塊網卡的 Mac位址改成相同,可以接收特定mac的資料幀。然後把相應的資料幀傳送給bond驅動程式處理。

首先是bond0

cd /etc/sysconfig/network-scripts 

vim ifcfg-bond0 

DEVICE="bond0" 

BOOTPROTO=static 

BROADCAST="192.168.4.255" 

DNS1="218.108.248.200" 

GATEWAY="192.168.4.1" 

IPADDR="192.168.4.130" 

NETMASK="255.255.255.0" 

ONBOOT="yes" 

TYPE=Ethernet 

 接下來是eth0、eth1

vim ifcfg-eth0 

DEVICE="eth0" 

BOOTPROTO=none 

MASTER=bond0 

SLAVE=yes 

vim ifcfg-eth1 

DEVICE="eth1" 

SLAVE=yes  

vim /etc/modprobe.d/dist.conf 

alias bond0 bonding 

options bond0 miimon=100 mode=0 

 對于這些參數解釋,網上也是一大堆

miimon是用來進行鍊路監測的。 比如:miimon=100,那麼系統每100ms監測一次鍊路連接配接狀态,如果有一條線路不通就轉入另一條線路;mode的值表示工作模式,他共有0,1,2,3,4,5,6四種模式,常用的為0,1兩種。 

mode=0表示load balancing (round-robin)為負載均衡方式,兩塊網卡都工作。 

mode=1表示fault-tolerance (active-backup)提供備援功能,工作方式是主備的工作方式,也就是說預設情況下隻有一塊網卡工作,另一塊做備份. 

bonding隻能提供鍊路監測,即從主機到交換機的鍊路是否接通。如果隻是交換機對外的鍊路down掉了,而交換機本身并沒有故障,那麼bonding會認為鍊路沒有問題而繼續使用 

這7種工作方式如下: 

=0: (balance-rr) Round-robin policy: (平衡掄循環政策):傳輸資料包順序是依次傳輸,直到最後一個傳輸完畢, 此模式提供負載平衡和容錯能力。 

=1: (active-backup) Active-backup policy:(主-備份政策):隻有一個裝置處于活動狀态。 一個宕掉另一個馬上由備份轉換為主裝置。mac位址是外部可見得。 此模式提供了容錯能力。 

=2:(balance-xor) XOR policy:(廣播政策):将所有資料包傳輸給所有接口。 此模式提供了容錯能力。 

=3:(balance-xor) XOR policy:(平衡政策): 傳輸根據原位址布爾值選擇傳輸裝置。 此模式提供負載平衡和容錯能力。 

=4:(802.3ad) IEEE 802.3ad Dynamic link aggregation.IEEE 802.3ad 動态連結聚合:建立共享相同的速度和雙工設定的聚合組。 

=5:(balance-tlb) Adaptive transmit load balancing(擴充卡傳輸負載均衡):沒有特殊政策,第一個裝置傳不通就用另一個裝置接管第一個裝置正在處理的mac位址,幫助上一個傳。 

=6:(balance-alb) Adaptive load balancing:(擴充卡傳輸負載均衡):大緻意思是包括mode5,bonding驅動程式截獲 ARP 在本地系統發送出的請求,用其中之一的硬體位址覆寫從屬裝置的原位址。就像是在伺服器上不同的人使用不同的硬體位址一樣。 

寫道

/etc/init.d/network restart

重新開機的時候,可以看到網卡是否成功啟動,啟動成功之後就是雙網卡綁定狀态了

至于網上大部分說的ifenslave bond0 eth0 eth1,這隻是一條啟用指令而已,像上述配置好了的話,這條指令根本不用執行了,也不用去開機執行,因為開機就會加載網卡配置檔案了

若要檢視綁定的網卡狀态

cat /proc/net/bonding/bond0

Ethernet Channel Bonding Driver: v3.5.0 (November 4, 2008)

Bonding Mode: load balancing (round-robin)

MII Status: up

MII Polling Interval (ms): 100

Up Delay (ms): 0

Down Delay (ms): 0

Slave Interface: eth0

Link Failure Count: 0

Permanent HW addr: 00:10:5c:ef:b1:fc

Slave Interface: eth1

Permanent HW addr: 00:10:5c:ef:b1:fd

ifenslave是centos預設就安裝了,它的一些使用方法可以man看看

經過測試,雙網卡綁定之後,帶寬果然有增加至少50%

Ubuntu 10.04 server

沒安裝的話,執行

apt-get install ifenslave-2.6

Ubuntu的稍微簡單一些

 寫道

vim /etc/network/interfaces

auto lo

iface lo inet loopback

auto bond0

iface bond0 inet static

address 192.168.4.132

netmask 255.255.255.0

gateway 192.168.4.1

post-up ifenslave bond0 eth0 eth1

pre-down ifenslave -d bond0 eth0 eth1

首先執行

modprobe bonding

 這樣就不用重新開機裝置了

當然,配置檔案也同樣需要添加

vim /etc/modules

bonding mode=0 miimon=100

執行

/etc/init.d/networking restart

完成以後,同樣可以檢視一下bonding的狀态

root@132:/etc/network# cat /proc/net/bonding/bond0

Ethernet Channel Bonding Driver: v3.7.1 (April 27, 2011)

MII Polling Interval (ms): 0

Speed: 100 Mbps

Duplex: full

Permanent HW addr: 00:10:5c:ef:b2:a2

Slave queue ID: 0

Speed: 1000 Mbps

Permanent HW addr: 00:10:5c:ef:b2:a3

本文轉自dongfang_09859 51CTO部落格,原文連結:http://blog.51cto.com/hellosa/1022234,如需轉載請自行聯系原作者

繼續閱讀