http://bbs.chinaunix.net/forum/viewtopic.p...highlight=cgweb Linux下雙網(wǎng)卡綁定技術(shù)實現(xiàn)負(fù)載均衡和失效保護(hù)
cgweb
保持服務(wù)器的高可用性是企業(yè)級 IT 環(huán)境的重要因素。其中最重要的一點(diǎn)是服務(wù)器網(wǎng)絡(luò)連接的高可用性。網(wǎng)卡(NIC)綁定技術(shù)有助于保證高可用性特性并提供其它優(yōu)勢以提高網(wǎng)絡(luò)性能。
我們在這介紹的Linux雙網(wǎng)卡綁定實現(xiàn)就是使用兩塊網(wǎng)卡虛擬成為一塊網(wǎng)卡,這個聚合起來的設(shè)備看起來是一個單獨(dú)的以太網(wǎng)接口設(shè)備,通俗點(diǎn)講就是兩塊網(wǎng)卡具有相同的IP地址而并行鏈接聚合成一個邏輯鏈路工作。其實這項技術(shù)在Sun和Cisco中早已存在,被稱為Trunking和Etherchannel技術(shù),在Linux的2.4.x的內(nèi)核中也采用這這種技術(shù),被稱為bonding。bonding技術(shù)的最早應(yīng)用是在集群——beowulf上,為了提高集群節(jié)點(diǎn)間的數(shù)據(jù)傳輸而設(shè)計的。下面我們討論一下bonding 的原理,什么是bonding需要從網(wǎng)卡的混雜(promisc)模式說起。我們知道,在正常情況下,網(wǎng)卡只接收目的硬件地址(MAC Address)是自身Mac的以太網(wǎng)幀,對于別的數(shù)據(jù)幀都濾掉,以減輕驅(qū)動程序的負(fù)擔(dān)。但是網(wǎng)卡也支持另外一種被稱為混雜promisc的模式,可以接收網(wǎng)絡(luò)上所有的幀,比如說tcpdump,就是運(yùn)行在這個模式下。bonding也運(yùn)行在這個模式下,而且修改了驅(qū)動程序中的mac地址,將兩塊網(wǎng)卡的Mac地址改成相同,可以接收特定mac的數(shù)據(jù)幀。然后把相應(yīng)的數(shù)據(jù)幀傳送給bond驅(qū)動程序處理。
說了半天理論,其實配置很簡單,一共四個步驟:
實驗的操作系統(tǒng)是Redhat Linux Enterprise 3.0
綁定的前提條件:芯片組型號相同,而且網(wǎng)卡應(yīng)該具備自己獨(dú)立的BIOS芯片
雙網(wǎng)卡邦定的拓樸圖(見下圖)
1.編輯虛擬網(wǎng)絡(luò)接口配置文件,指定網(wǎng)卡IP
vi /etc/sysconfig/ network-scripts/ ifcfg-bond0
[root@rhas-13 root]# cp /etc/sysconfig/network-scripts/ifcfg-eth0 ifcfg-bond0
2 #vi ifcfg-bond0
將第一行改成 DEVICE=bond0
# cat ifcfg-bond0
DEVICE=bond0
BOOTPROTO=static
IPADDR=172.31.0.13
NETMASK=255.255.252.0
BROADCAST=172.31.3.254
ONBOOT=yes
TYPE=Ethernet
這里要主意,不要指定單個網(wǎng)卡的IP 地址、子網(wǎng)掩碼或網(wǎng)卡 ID。將上述信息指定到虛擬適配器(bonding)中即可。
[root@rhas-13 network-scripts]# cat ifcfg-eth0
DEVICE=eth0
ONBOOT=yes
BOOTPROTO=dhcp
[root@rhas-13 network-scripts]# cat ifcfg-eth1
DEVICE=eth0
ONBOOT=yes
BOOTPROTO=dhcp
3 # vi /etc/modules.conf
編輯 /etc/modules.conf 文件,加入如下一行內(nèi)容,以使系統(tǒng)在啟動時加載bonding模塊,對外虛擬網(wǎng)絡(luò)接口設(shè)備為 bond0
加入下列兩行
alias bond0 bonding
options bond0 miimon=100 mode=1
說明:miimon是用來進(jìn)行鏈路監(jiān)測的。 比如:miimon=100,那么系統(tǒng)每100ms監(jiān)測一次鏈路連接狀態(tài),如果有一條線路不通就轉(zhuǎn)入另一條線路;mode的值表示工作模式,他共有0,1,2,3四種模式,常用的為0,1兩種。
mode=0表示load balancing (round-robin)為負(fù)載均衡方式,兩塊網(wǎng)卡都工作。
mode=1表示fault-tolerance (active-backup)提供冗余功能,工作方式是主備的工作方式,也就是說默認(rèn)情況下只有一塊網(wǎng)卡工作,另一塊做備份.
bonding只能提供鏈路監(jiān)測,即從主機(jī)到交換機(jī)的鏈路是否接通。如果只是交換機(jī)對外的鏈路down掉了,而交換機(jī)本身并沒有故障,那么bonding會認(rèn)為鏈路沒有問題而繼續(xù)使用
4 # vi /etc/rc.d/rc.local
加入兩行
ifenslave bond0 eth0 eth1
route add -net 172.31.3.254 netmask 255.255.255.0 bond0
到這時已經(jīng)配置完畢重新啟動機(jī)器.
重啟會看見以下信息就表示配置成功了
................
Bringing up interface bond0 OK
Bringing up interface eth0 OK
Bringing up interface eth1 OK
................
下面我們討論以下mode分別為0,1時的情況
mode=1工作在主備模式下,這時eth1作為備份網(wǎng)卡是no arp的
[root@rhas-13 network-scripts]# ifconfig 驗證網(wǎng)卡的配置信息
bond0 Link encap:Ethernet HWaddr 00:0E:7F:25:D9:8B
inet addr:172.31.0.13 Bcast:172.31.3.255 Mask:255.255.252.0
UP BROADCAST RUNNING MASTER MULTICAST MTU:1500 Metric:1
RX packets:18495 errors:0 dropped:0 overruns:0 frame:0
TX packets:480 errors:0 dropped:0 overruns:0 carrier:0
collisions:0 txqueuelen:0
RX bytes:1587253 (1.5 Mb) TX bytes:89642 (87.5 Kb)
eth0 Link encap:Ethernet HWaddr 00:0E:7F:25:D9:8B
inet addr:172.31.0.13 Bcast:172.31.3.255 Mask:255.255.252.0
UP BROADCAST RUNNING SLAVE MULTICAST MTU:1500 Metric:1
RX packets:9572 errors:0 dropped:0 overruns:0 frame:0
TX packets:480 errors:0 dropped:0 overruns:0 carrier:0
collisions:0 txqueuelen:1000
RX bytes:833514 (813.9 Kb) TX bytes:89642 (87.5 Kb)
Interrupt:11
eth1 Link encap:Ethernet HWaddr 00:0E:7F:25:D9:8B
inet addr:172.31.0.13 Bcast:172.31.3.255 Mask:255.255.252.0
UP BROADCAST RUNNING NOARP SLAVE MULTICAST MTU:1500 Metric:1
RX packets:8923 errors:0 dropped:0 overruns:0 frame:0
TX packets:0 errors:0 dropped:0 overruns:0 carrier:0
collisions:0 txqueuelen:1000
RX bytes:753739 (736.0 Kb) TX bytes:0 (0.0
Interrupt:15
那也就是說在主備模式下,當(dāng)一個網(wǎng)絡(luò)接口失效時(例如主交換機(jī)掉電等),不回出現(xiàn)網(wǎng)絡(luò)中斷,系統(tǒng)會按照cat /etc/rc.d/rc.local里指定網(wǎng)卡的順序工作,機(jī)器仍能對外服務(wù),起到了失效保護(hù)的功能.
在mode=0 負(fù)載均衡工作模式,他能提供兩倍的帶寬,下我們來看一下網(wǎng)卡的配置信息
[root@rhas-13 root]# ifconfig
bond0 Link encap:Ethernet HWaddr 00:0E:7F:25:D9:8B
inet addr:172.31.0.13 Bcast:172.31.3.255 Mask:255.255.252.0
UP BROADCAST RUNNING MASTER MULTICAST MTU:1500 Metric:1
RX packets:2817 errors:0 dropped:0 overruns:0 frame:0
TX packets:95 errors:0 dropped:0 overruns:0 carrier:0
collisions:0 txqueuelen:0
RX bytes:226957 (221.6 Kb) TX bytes:15266 (14.9 Kb)
eth0 Link encap:Ethernet HWaddr 00:0E:7F:25:D9:8B
inet addr:172.31.0.13 Bcast:172.31.3.255 Mask:255.255.252.0
UP BROADCAST RUNNING SLAVE MULTICAST MTU:1500 Metric:1
RX packets:1406 errors:0 dropped:0 overruns:0 frame:0
TX packets:48 errors:0 dropped:0 overruns:0 carrier:0
collisions:0 txqueuelen:1000
RX bytes:113967 (111.2 Kb) TX bytes:7268 (7.0 Kb)
Interrupt:11
eth1 Link encap:Ethernet HWaddr 00:0E:7F:25:D9:8B
inet addr:172.31.0.13 Bcast:172.31.3.255 Mask:255.255.252.0
UP BROADCAST RUNNING SLAVE MULTICAST MTU:1500 Metric:1
RX packets:1411 errors:0 dropped:0 overruns:0 frame:0
TX packets:47 errors:0 dropped:0 overruns:0 carrier:0
collisions:0 txqueuelen:1000
RX bytes:112990 (110.3 Kb) TX bytes:7998 (7.8 Kb)
Interrupt:15
在這種情況下出現(xiàn)一塊網(wǎng)卡失效,僅僅會是服務(wù)器出口帶寬下降,也不會影響網(wǎng)絡(luò)使用.
通過查看bond0的工作狀態(tài)查詢能詳細(xì)的掌握bonding的工作狀態(tài)
[root@rhas-13 bonding]# cat /proc/net/bonding/bond0
bonding.c:v2.4.1 (September 15, 2003)
Bonding Mode: load balancing (round-robin)
MII Status: up
MII Polling Interval (ms): 0
Up Delay (ms): 0
Down Delay (ms): 0
Multicast Mode: all slaves
Slave Interface: eth1
MII Status: up
Link Failure Count: 0
Permanent HW addr: 00:0e:7f:25:d9:8a
Slave Interface: eth0
MII Status: up
Link Failure Count: 0
Permanent HW addr: 00:0e:7f:25:d9:8b
Linux下通過網(wǎng)卡邦定技術(shù)既增加了服務(wù)器的可靠性,又增加了可用網(wǎng)絡(luò)帶寬,為用戶提供不間斷的關(guān)鍵服務(wù)。用以上方法均在redhat的多個版本測試成功,而且效果良好.心動不如行動,趕快一試吧!
參考文檔:
/usr/share/doc/kernel-doc-2.4.21/networking/bonding.txt