Linux作業系統下的叢集工作原理及實戰經曆 OKLinux [url]www.oklinux.cn[/url] 2007-07-12 來源:賽迪網 skid 會員收藏 遊客收藏 為了便于學習Linux,請收藏本站點或推薦本站給您的好友!---加入收藏 Translate to English(把目前頁翻譯成英文) 一、叢集和Linux上的叢集解決方案 叢集系統(Cluster)主要解決下面幾個問題: 高可靠性(HA) 利用叢集管理軟體,當主伺服器故障時,備份伺服器能夠自動接管主伺服器的工作,并及時切換過去,以實作對使用者的不間斷服務。 高性能計算(HP) 即充分利用叢集中的每一台計算機的資源,實作複雜運算的并行處理,通常用于科學計算領域,比如基因分析,化學分析等。 負載平衡 即把負載壓力根據某種算法合理配置設定到叢集中的每一台計算機上,以減輕主伺服器的壓力,降低對主伺服器的硬體和軟體要求。 基于Linux的叢集解決方案可謂百花齊放。在實際應用中,最常見的情況是利用叢集解決負載平衡問題,比如用于提供WWW服務。在這裡主要展示如何使用LVS(Linux Virtial Server)來實作實用的WWW負載平衡叢集系統。 二、LVS簡介 LVS是章文嵩博士發起和上司的優秀的叢集解決方案,許多商業的叢集産品,比如RedHat 的Piranha,TurboLinux公司的Turbo Cluster等,都是基于LVS的核心代碼的。在現實的應用中,LVS得到了大量的部署,請參考http: //www.linuxvirtualserver.org/deployment.html。關于Linux LVS的工作原理和更詳細的資訊,請參考[url]http://www.linuxvirtualserver.org[/url]。 三、LVS配置執行個體 通過Linux LVS,實作WWW,Telnet服務的負載平衡。這裡實作Telnet叢集服務僅為了測試上的友善。 LVS有三種負載平衡方式,NAT(Network Address Translation),DR(Direct Routing),IP Tunneling。其中,最為常用的是DR方式,是以這裡隻說明DR(Direct Routing)方式的LVS負載平衡。為測試友善,4台機器處于同一網段内,通過一交換機或者集線器相連。實際的應用中,最好能将虛拟伺服器vs1和真實伺服器rs1, rs2置于于不同的網段上,即提高了性能,也加強了整個叢集系統的安全性。 伺服器的軟硬體配置 首先說明,雖然本文的測試環境中用的是3台相同配置的伺服器,但LVS并不要求叢集中的伺服器規格劃一,相反,可以根據伺服器的不同配置和負載情況,調整負載配置設定政策,充分利用叢集環境中的每一台伺服器。 這3台伺服器中,vs1作為虛拟伺服器(即負載平衡伺服器),負責将使用者的通路請求轉發到叢集内部的rs1,rs2,然後由rs1,rs2分别處理。client為用戶端測試機器,可以為任意作業系統。 4台伺服器的作業系統和網絡配置分别為: vs1: RedHat 6.2, Kernel 2.2.19 vs1: eth0 192.168.0.1 vs1: eth0:101 192.168.0.101 rs1: RedHat 6.2, Kernel 2.2.14 rs1: eth0 192.168.0.3 rs1: dummy0 192.168.0.101 rs2: RedHat 6.2, Kernel 2.2.14 rs2: eth0 192.168.0.4 rs2: dummy0 192.168.0.101 client: Windows 2000 client: eth0 192.168.0.200 其中,192.168.0.101是允許使用者通路的IP。 虛拟伺服器的叢集配置 大部分的叢集配置工作都在虛拟伺服器vs1上面,需要下面的幾個步驟: 重新編譯核心。 首先,下載下傳最新的Linux核心,版本号為2.2.19,下載下傳位址為:[url]http://www.kernel.org/[/url],解壓縮後置于/usr/src/linux目錄下。 其次需要下載下傳LVS的核心更新檔,位址為:http: //www.linuxvirtualserver.org/software/ipvs- 1.0.6-2.2.19.tar.gz。這裡注意,如果你用的Linux核心不是2.2.19版本的,請下載下傳相應版本的LVS核心更新檔。将ipvs- 1.0.6-2.2.19.tar.gz解壓縮後置于/usr/src/linux目錄下。 然後,對核心打更新檔,如下操作: [root@vs2 /root]# cd /usr/src/linux [root@vs2 linux]# patch -p1 < ipvs-1.0.6-2.2.19/ipvs-1.0.6-2.2.19. patch 下面就是重新配置和編譯Linux的核心。特别注意以下選項: 1 Code maturity level options---> * [*]Prompt for development and/or incomplete code/drivers 2 Networking部分: [*] Kernel/User netlink socket [*] Routing messages <*> Netlink device emulation * [*] Network firewalls [*] Socket Filtering <*> Unix domain sockets * [*] TCP/IP networking [*] IP: multicasting [*] IP: advanced router [ ] IP: policy routing [ ] IP: equal cost multipath [ ] IP: use TOS value as routing key [ ] IP: verbose route monitoring [ ] IP: large routing tables [ ] IP: kernel level autoconfiguration * [*] IP: firewalling [ ] IP: firewall packet netlink device * [*] IP: transparent proxy support * [*] IP: masquerading --- Protocol-specific masquerading support will be built as modules. * [*] IP: ICMP masquerading --- Protocol-specific masquerading support will be built as modules. * [*] IP: masquerading special modules support * IP: ipautofw masq support (EXPERIMENTAL)(NEW) * IP: ipportfw masq support (EXPERIMENTAL)(NEW) * IP: ip fwmark masq-forwarding support (EXPERIMENTAL)(NEW) * [*] IP: masquerading virtual server support (EXPERIMENTAL)(NEW) [*] IP Virtual Server debugging (NEW) <--最好選擇此項,以便觀察LVS的調試資訊 * (12) IP masquerading VS table size (the Nth power of 2) (NEW) * IPVS: round-robin scheduling (NEW) * IPVS: weighted round-robin scheduling (NEW) * IPVS: least-connection scheduling (NEW) * IPVS: weighted least-connection scheduling (NEW) * IPVS: locality-based least-connection scheduling (NEW) * IPVS: locality-based least-connection with replication scheduling (NEW) * [*] IP: optimize as router not host * IP: tunneling IP: GRE tunnels over IP [*] IP: broadcast GRE over IP [*] IP: multicast routing [*] IP: PIM-SM version 1 support [*] IP: PIM-SM version 2 support * [*] IP: aliasing support [ ] IP: ARP daemon support (EXPERIMENTAL) * [*] IP: TCP syncookie support (not enabled per default) --- (it is safe to leave these untouched) < > IP: Reverse ARP [*] IP: Allow large windows (not recommended if <16Mb of memory) < > The IPv6 protocol (EXPERIMENTAL) 上面,帶*号的為必選項。然後就是正常的編譯核心過程,不再贅述。 在這裡要注意一點:如果你使用的是RedHat自帶的核心或者從RedHat下載下傳的核心版本,已經預先打好了LVS的更新檔。這可以通過檢視/usr/src/linux/net/目錄下有沒有幾個ipvs開頭的檔案來判斷:如果有,則說明已經打過更新檔。 編寫LVS配置檔案,執行個體中的配置檔案如下: #lvs_dr.conf (C) Joseph Mack [email][email protected][/email] LVS_TYPE=VS_DR INITIAL_STATE=on VIP=eth0:101 192.168.0.101 255.255.255.0 192.168.0.0 DIRECTOR_INSIDEIP=eth0 192.168.0.1 192.168.0.0 255.255.255.0 192.168.0. 255 SERVICE=t telnet rr rs1:telnet rs2:telnet SERVICE=t www rr rs1:www rs2:www SERVER_VIP_DEVICE=dummy0 SERVER_NET_DEVICE=eth0 #----------end lvs_dr.conf------------------------------------ 将該檔案置于/etc/lvs目錄下。 使用LVS的配置腳本産生lvs.conf檔案。該配置腳本可以從http: //www.linuxvirtualserver.org/Joseph.Mack/configure-lvs_0.8.tar.gz 單獨下載下傳,在ipvs-1.0.6-2.2.19.tar.gz包中也有包含腳本configure的使用方法: [root@vs2 lvs]# configure lvs.conf 這樣會産生幾個配置檔案,這裡我們隻使用其中的rc.lvs_dr檔案。修改/etc/rc.d/init.d/rc.local,增加如下幾行: echo 1 > /proc/sys/net/ipv4/ip_forward echo 1 > /proc/sys/net/ipv4/ip_always_defrag # 顯示最多調試資訊 echo 10 > /proc/sys/net/ipv4/vs/debug_level 配置NFS服務。這一步僅僅是為了友善管理,不是必須的步驟。假設配置檔案lvs.conf檔案放在/etc/lvs目錄下,則/etc/exports檔案的内容為: /etc/lvs ro(rs1,rs2) 然後使用exportfs指令輸出這個目錄: [root@vs2 lvs]# exportfs 如果遇到什麼麻煩,可以嘗試: [root@vs2 lvs]# /etc/rc.d/init.d/nfs restart [root@vs2 lvs]# exportfs 這樣,各個real server可以通過NFS獲得rc.lvs_dr檔案,友善了叢集的配置:你每次修改lvs.conf中的配置選項,都可以即可反映在rs1,rs2的相應目錄裡。 修改/etc/syslogd.conf,增加如下一行: kern.* /var/log/kernel_log。這樣,LVS的一些調試資訊就會寫入/var/log/kernel_log檔案中。 Real Server的配置 Real Server的配置相對簡單,主要是是以下幾點: 配置telnet和WWW服務。telnet服務沒有需要特别注意的事項,但是對于www服務,需要修改httpd.conf檔案,使得apache在虛拟伺服器的ip位址上監聽,如下所示: Listen 192.168.0.101:80 關閉Real Server上dummy0的arp請求響應能力。這是必須的,具體原因請參見 ARP problem in LVS/TUN and LVS/DR關閉dummy0的arp響應的方式有多種,比較簡單地方法是,修改/etc/rc.d/rc.local檔案,增加如下幾行: echo 1 > /proc/sys/net/ipv4/conf/all/hidden ifconfig dummy0 up ifconfig dummy0 192.168.0.101 netmask 255.255.255.0 broadcast 192.168. 0.0 up echo 1 > /proc/sys/net/ipv4/conf/dummy0/hidden 再次修改/etc/rc.d/rc.local,增加如下一行:(可以和步驟2合并) echo 1 > /proc/sys/net/ipv4/ip_forward 四、LVS的測試 好了,經過了上面的配置步驟,現在可以測試LVS了,步驟如下: 分别在vs1,rs1,rs2上運作/etc/lvs/rc.lvs_dr。注意,rs1, rs2上面的/etc/lvs目錄是vs2輸出的。如果您的 NFS配置沒有成功,也可以把vs1上/etc/lvs/rc.lvs_dr複制到rs1,rs2上,然後分别運作。確定rs1,rs2上面的 apache已經啟動并且允許telnet。 然後從client運作telnet 192.168.0.101,如果登入後看到如下輸出就說明叢集已經開始工作了。(假設以guest使用者身份登入) [guest@rs1 guest]$-----------說明已經登入到伺服器rs1上。 再開啟一個telnet視窗,登入後會發現系統提示變為: [guest@rs2 guest]$-----------說明已經登入到伺服器rs2上。 然後在vs2上運作如下指令: [root@vs2 /root]ipvsadm 運作結果應該為: IP Virtual Server version 1.0.6 (size=4096) Prot LocalAddress:Port Scheduler Flags -> RemoteAddress:Port Forward Weight ActiveConn InActConn TCP 192.168.0.101:telnet rr -> rs2:telnet Route 1 1 0 -> rs1:telnet Route 1 1 0 TCP 192.168.0.101:www rr -> rs2:www Route 1 0 0 -> rs1:www Route 1 0 0 至此已經驗證telnet的LVS正常。然後測試一下WWW是否正常:用你的浏覽器檢視 [url]http://192.168.0.101/[/url]是否有什麼變化?為了更明确的差別響應來自那個Real Server,可以在rs1,rs2上面分别放置如下的測試頁面(test.html): 我是real server #1 or #2 然後重新整理幾次頁面([url]http://192.168.0.101/test.html[/url]),如果你看到“我是real server #1”和“我是real server #2”交替出現,說明www的LVS系統已經正常工作了。 但是由于Internet Explore 或者Netscape本身的緩存機制,你也許總是隻能看到其中的一個。不過通過ipvsadm還是可以看出,頁面請求已經配置設定到兩個Real Server上了,如下所示: IP Virtual Server version 1.0.6 (size=4096) Prot LocalAddress:Port Scheduler Flags -> RemoteAddress:Port Forward Weight ActiveConn InActConn TCP 192.168.0.101:telnet rr -> rs2:telnet Route 1 0 0 -> rs1:telnet Route 1 0 0 TCP 192.168.0.101:www rr -> rs2:www Route 1 0 5 -> rs1:www Route 1 0 4 或者,可以采用linux的lynx作為測試用戶端,效果更好一些。如下運作指令: [root@client /root]while true; do lynx -dump [url]http://10.64.1.56/test.html;[/url] sleep 1; done 這樣,每隔1秒鐘“我是realserver #1”和“我是realserver #2”就交替出現一次,清楚地表明響應分别來自兩個不同的Real Server。
本文轉自 pgmia 51CTO部落格,原文連結:http://blog.51cto.com/heyiyi/64211