天天看點

Tomcat叢集配置學習篇----分布式應用

Tomcat叢集配置學習篇-----分布式應用

現目前基于javaWeb開發的應用系統已經比比皆是,尤其是電子商務網站,要想網站發展壯大,那麼必然就得能夠承受住龐大的網站通路量;大家知道如果伺服器通路量過大,就會出現服應用務器崩潰的情況,這個時候怎麼辦,難道就隻能去重新開機伺服器嗎?好,如果是一般的小型公益網站到也無所謂,但如果是比如像大型航空公司售票等電子商務網站,每天每小時都有大量的訂單業務,如果這些售票系統一旦崩潰後,再去重新開機,這些時間和客戶的損失就直接會影響到航空公司的利益,這些損失如何去避免呢。

别擔心,不管是目前IBM的webSphere還是大衆化的tomcat伺服器,都為我們提供了一種通用的解決方式,就是多台伺服器來分擔通路量,這樣在一個伺服器上的壓力就會減小很多,你可以根據自己的需求去配置任意多的伺服器來支撐你的應用系統,如果一台服務崩潰了,那麼另外的應用伺服器依然可以繼續支援應用繼續服務。多應用伺服器的簡單流程圖大緻如下:

為了實作這個原理我們就需要解決兩個問題:

1:如何實作多應用伺服器間的session共享:(一台伺服器崩潰,另外一台伺服器可以繼續支援)

2:如何分發請求到各個應用伺服器實作壓力分解:(這裡的解決方案是用apache做 web伺服器)

下面我們就是實際行動來看看如何實作這種實作。

環境配置:

App應用伺服器apache-tomcat-7.0.52-1 

web伺服器:apache的apache 2.0.55

java環境:jdk1.6

系統環境:winxp系統

1) web伺服器配置

首先安裝apache的web伺服器:

apache伺服器和tomcat的連接配接方法其實有三種:mod_JK、http_proxy和ajp_proxy。

一:軟體環境

   1.Apache: apache 2.0.55 (由http://httpd.apache.org/進入下載下傳)(點選下載下傳apache 2.0.55)

   2. Tomcat: apache-tomcat-7.0.52-1

   3. mod_jk: 在頁面 http://tomcat.apache.org/  Download 标題下找到 Tomcat Connectors 連結進入(點選下載下傳mod_jk-apache-2.0.55.so),看起來像是個Unix/Linux下的動态庫,實際應是個Win32 的 DLL 動态庫,大概是為保持不同平台配置的一緻性,才用了這個擴充名。

二:負載均衡

 用Apache進行分流,把請求按照權重以及當時負荷分tomcat1,tomcat2...去處理

1. 安裝apache,tomcat

   我把Apache安裝在D:/Apache Group/Apache2

  解壓兩分Tomcat, 分别在 D:/Apache Group/apache-tomcat-7.0.52-1,D:/ApacheGroup/apache-tomcat-7.0.52-1

2.修改Apache配置檔案http.conf

   在apache安裝目錄下conf目錄中找到http.conf,在檔案最後加上下面一句話就可以了

   include conf/mod_jk.conf

3. http.conf 同目錄下建立mod_jk.conf檔案,内容如下

[html] view plaincopy

1.  #加載mod_jk Module     

2.  LoadModule jk_module modules/mod_jk-apache-2.0.55.so     

3.      

4.  #指定 workers.properties檔案路徑     

5.  JkWorkersFile conf/workers.properties     

6.      

7.  #指定那些請求交給tomcat處理,"controller"為在workers.propertise裡指定的負載配置設定控制器     

8.  JkMount /*.jsp controller    

如果還要指定*.do也進行分流就再加一行

JkMount /*.do controller

如果你想對所有的請求進行分流隻需要寫成

JkMount /* controller

4. 在http.conf同目錄下建立 workers.properties檔案

[html] view plaincopy

1.  worker.list = controller,tomcat1,tomcat2  #server 清單      

2.  #========tomcat1========      

3.  worker.tomcat1.port=8019       #ajp13 端口号,在tomcat下server.xml配置,預設8009      

4.  worker.tomcat1.host=localhost  #tomcat的主機位址,如不為本機,請填寫ip位址      

5.  worker.tomcat1.type=ajp13      

6.  worker.tomcat1.lbfactor = 1    #server的權重比重,值越高,分得的請求越多      

7.       

8.  #========tomcat2========      

9.  worker.tomcat2.port=8029       #ajp13 端口号,在tomcat下server.xml配置,預設8009      

10. worker.tomcat2.host=localhost  #tomcat的主機位址,如不為本機,請填寫ip位址      

11. worker.tomcat2.type=ajp13      

12. worker.tomcat2.lbfactor = 2    #server的權重比重,值越高,分得的請求越多      

13.      

14. #========controller,負載均衡控制器========      

15. worker.controller.type=lb      

16. worker.controller.balanced_workers=tomcat1,tomcat2   #指定分擔請求的tomcat      

17. worker.controller.sticky_session=1  

5. 修改tomcat配置檔案server.xml

如果你是水準叢集,即在不同電腦上安裝tomcat,tomcat的安裝數量為一個,可以不必修改tomcat配置檔案.我這裡是在同一台電腦上安裝兩個tomcat,實作的是垂直叢集方式,是以必須修改其中一個的設定,以避免端口沖突,按照參考文章是把原來以9開頭的端口号改為以9開頭端口号,但是在我機器上如果以9開頭的端口号,例如9080、9082會與我的WebSphere Application Server配置沖突,是以我這裡采取的政策是把原來端口号的第三位改為1,如8080改為8180。

打開tomcat2/conf/server.xml檔案

1) 将關閉Tomcat的監聽端口改成由8005改為8105

即把

 <Serverport="8005" shutdown="SHUTDOWN">

改為

 <Serverport="8105" shutdown="SHUTDOWN">

2) 把http服務端口号由8080改為8180

找到

 <!--Define a non-SSL HTTP/1.1 Connector on port 8080 -->

    <CONNECTOR port="8080" 

把這裡的8080改為8180

3) 把AJP端口号由8009改為8109

找到

 <!--Define an AJP 1.3 Connector on port 8009 -->

    <CONNECTOR port="8009"

把這裡的8009改為8109

4) 把 HTTP 代理端口從8082改為8182(這個配置預設是被注釋掉的,可跳過這一步)

找到

<CONNECTORport="8082"

把這裡的8082改為8182

5) 編寫一個測試 jsp

建立一個目錄TestCluster,裡面建立一個test.jsp,内容為

把TestCluster放到tomcat1,tomcat2的webapps下

6) 啟動apache,tomcat1,tomcat2,進行測試

通過 http://localhost/TestCluster/test.jsp 通路,多重新整理幾次頁面,檢視Tomcat1和Tomcat2的視窗,你将可以看到列印了一行行"===========================",并且從統計上來說,大約在tomcat2列印的數量是在Tomcat1中的兩倍,可以看到請求會被tomcat1,tomcat2按照不同的權重分流處理,實作了負載均衡。

請在workers.properties把tomcat1和tomcat2的權重改為一樣的,使請求較平均配置設定,将有便于看到實驗的效果。 

配置web應用伺服器實作session共享:tomcat-A配置

1:修改tomcat的server.xml檔案增加如下内容

貼出代碼,友善複制:

[html] view plaincopy

1.  <Cluster className="org.apache.catalina.ha.tcp.SimpleTcpCluster"    

2.                     channelSendOptions="6">    

3.          

4.              <Manager className="org.apache.catalina.ha.session.BackupManager"    

5.                       expireSessionsOnShutdown="false"    

6.                       notifyListenersOnReplication="true"    

7.                       mapSendOptions="6"/>     

8.              <Manager className="org.apache.catalina.ha.session.DeltaManager"    

9.                       expireSessionsOnShutdown="false"    

10.                      notifyListenersOnReplication="true"/>      

11.             <Channel className="org.apache.catalina.tribes.group.GroupChannel">    

12.               <Membership className="org.apache.catalina.tribes.membership.McastService"    

13.                           bind="127.0.0.1"    

14.                           address="228.0.0.4"    

15.                           port="45564"    

16.                           frequency="500"    

17.                           dropTime="3000"/>    

18.               <Receiver className="org.apache.catalina.tribes.transport.nio.NioReceiver"    

19.                         address="127.0.0.1"    

20.                         port="4001"    

21.                         selectorTimeout="100"    

22.                         maxThreads="6"/>    

23.         

24.               <Sender className="org.apache.catalina.tribes.transport.ReplicationTransmitter">    

25.                 <Transport className="org.apache.catalina.tribes.transport.nio.PooledParallelSender"/>    

26.               </Sender>    

27.               <Interceptor className="org.apache.catalina.tribes.group.interceptors.TcpFailureDetector"/>    

28.               <Interceptor className="org.apache.catalina.tribes.group.interceptors.MessageDispatch15Interceptor"/>    

29.               <Interceptor className="org.apache.catalina.tribes.group.interceptors.ThroughputInterceptor"/>    

30.             </Channel>    

31.         

32.             <Valve className="org.apache.catalina.ha.tcp.ReplicationValve"    

33.                    filter=".*\.gif;.*\.js;.*\.jpg;.*\.png;.*\.htm;.*\.html;.*\.css;.*\.txt;"/>    

34.         

35.             <ClusterListener className="org.apache.catalina.ha.session.ClusterSessionListener"/>    

36.       </Cluster>    

備注:

1) App應用伺服器tomcat-B配置和tomcat-A基本相同,但需要注意的是兩台伺服器如果在一個電腦上就需要注意端口的沖突問題,比如:tomcat-A的端口是8080,那麼tomcat-B就是8081或者其他,其他的以此類推

我這裡這裡的端口配置如下:

tomcat-1:serverport:8081  ajp/1.3connector:8019  <Serverport="8015" shutdown="SHUTDOWN">

tomcat-2:serverport:8082  ajp/1.3connector:8029  <Server port="8025"shutdown="SHUTDOWN">

2) 然後就是建立一個web應用測試一下,在建立應用的web.xml裡面需要加上

<distributable/>

3) 到這裡就可以測試你的配置了,先啟動tomcat-1,然後啟動tomcat-2,如果你在兩個控制台裡面看到類似的如下資訊

證明兩台應用伺服器已經配置完成了。

4) 建立web應用,web.xml配置檔案裡面需要添加如下内容來配合實作session共享:

<distrbutable/>

然後将應用分别部署到兩台伺服器,啟動兩台應用伺服器進行測試:

注:由于jsp自帶session對象,是以在測試的時候最好把頁面自帶的session對象關閉後再測試,關閉代碼<%@ page session="false"%>

Tomcat-A  index.jsp代碼:

<body>

    This is my JSP page.tomcat-A <br>

     <%

HttpSession mysession = request.getSession(false);

if(mysession==null){

mysession = request.getSession(true);

mysession.setAttribute("appname","value-A");

out.println("new session:"+mysession.getId());

}else{

out.println("old session:"+mysession.getId());

}

out.println("appname="+mysession.getAttribute("appname"));

     %>

 </body>

Tomcat-B  index.jsp代碼:

<body>

    This is my JSP page.tomcat-B<br>

    <%

HttpSession mysession = request.getSession(false);

if(mysession==null){

mysession = request.getSession(true);

mysession.setAttribute("appname","value-A");

out.println("new session:"+mysession.getId());

}else{

out.println("old session:"+mysession.getId());

}

out.println("appname="+mysession.getAttribute("appname"));

    %>

   </body>

5) 分别通路兩台伺服器:http://172.23.1.46:8081/mycluster

和http://172.23.1.46:8082/mycluster分别通路得到結果如下就證明配置可以了。

通路8081伺服器:

頁面重新整理後結果如下:

通路8082伺服器:

頁面重新整理後結果如下:

到這裡tomcat伺服器就配置完成了,接下來就需要配置統一入口的負載均衡的web伺服器,這裡用的是apache 2.2.19(官網上可以直接下載下傳)

繼續閱讀