1.Apache+Tomcat负载均衡+集群配置

1.本文Apache+Tomcat集群配置 基于最新的Apache和Tomcat,具体是2011年4月20日最新的Tomcat和Apache集群和负载均衡配置。html

 

准备环境

Apachejava

Apache是http服务器,咱们利用其对Tomcat进行负载均衡。目前最新版本为2.2.17,下载地址为http://httpd.apache.org/download.cgi#apache22。以下图:node

 

准备环境

Apacheweb

Apache是http服务器,咱们利用其对Tomcat进行负载均衡。目前最新版本为2.2.17,下载地址为http://httpd.apache.org/download.cgi#apache22。以下图:算法

目前已经出现Apache2.3.11,可是为beta版本,因此没有使用。apache

下载后直接安装msi便可,若是没有其余的http服务器(如iis)则应该能够成功安装,端口即为80,可以访问http://localhost/说明安装成功。windows

Tomcattomcat

Tocmat7目前已经出现稳定版本的7.0.12,Tomcat6则为6.0.32。经我测试,这2个版本的Apache负载均衡配置过程都是同样的,所以下面的配置在Tomcat6或7集群是通用的。可是按照下面的配置,集群中Tomcat不能既有Tomcat6又有Tomcat7,不然虽可以负载均衡,但不能进行session复制,不知其余方式配置的集群是否能够。服务器

Tomcat就不用怎么介绍了。既然在本地须要多个节点,那么须要下载ZIP版本的Tomcat。网络

JK

JK是Tomcat提供给http服务器的插件(我的理解的),下载地址为http://mirror.bjtu.edu.cn/apache/tomcat/tomcat-connectors/jk/binaries/win32/jk-1.2.31/。以下图:

这里选择的是mod_jk-1.2.31-httpd-2.2.3.so,若是http服务器是Apache2.0.X版本,则必须选择mod_jk-1.2.31-httpd-2.0.52.so,页面下方有英文的说明,你们能够看下。

其实我也在网上看到Apache2.2已经集成Tomcat插件模块了,能够不用JK插件就能够实现Tomcat负载均衡,但也须要一些配置,而JK这个配置相比也不复杂,就先记录下来。

配置过程

下面就直接写过程了,我也是网络上学习的,只是总结下过程而且利用最新的Apache和Tomcat测试了下,仍是与网络上有些不一样的。

修改Apache配置

一、修改httpd.conf

个人Apache安装在D:\Program Files\Apache Software Foundation\Apache2.2,找到conf目录下的httpd.conf,在文件的最后一行添加

include "D:\Program Files\Apache Software Foundation\Apache2.2\conf\mod_jk.conf"

二、新建mod_jk.conf文件,内容以下:

LoadModule jk_module modules/mod_jk-1.2.31-httpd-2.2.3.so  //此版本为Linux版本,应下载相关的windows版本

JkWorkersFile conf/workers.properties

#指定那些请求交给tomcat处理,"controller"为在workers.propertise里指定的负载分配控制器名

JkMount /*.jsp controller

三、将下载的JK插件mod_jk-1.2.31-httpd-2.2.3.so复制到Apache安装目录的modules目录下。

四、新建并编辑workers.properties文件,内容以下:

#server

worker.list = controller

#========tomcat1========

worker.tomcat1.port=11009

worker.tomcat1.host=localhost

worker.tomcat1.type=ajp13

worker.tomcat1.lbfactor = 1

#========tomcat2========

worker.tomcat2.port=12009

worker.tomcat2.host=localhost

worker.tomcat2.type=ajp13

worker.tomcat2.lbfactor = 1

#========tomcat3========

worker.tomcat3.port=13009

worker.tomcat3.host=192.168.0.80 //在个人虚拟机中的,能够算远程的吧

worker.tomcat3.type=ajp13

worker.tomcat3.lbfactor = 1

 

#========controller,负载均衡控制器========

worker.controller.type=lb

worker.controller.balanced_workers=tomcat1,tomcat2,tomcat3

worker.controller.sticky_session=false

worker.controller.sticky_session_force=1

#worker.controller.sticky_session=1

这里能够配置任意多个Tomcat,此处配置了3个Tomat服务器,2个本地,1个远程,因此为了它们都可以顺利启动起来,本地的服务器端口都是不一样的,若是Tomcat再也不同一机器上,不必改端口的。

配置Tomcat

配置3个Tomcat服务器,将Tomcat解压后复制3份,我将每一个文件夹分别命名为Tomcat1,Tomcat2和Tomcat3,修改每一份的server.xml配置,将Tomcat1中修改部分以下图:

Tomcat2中以上部分的server.xml为:

Tomcat3中以上部分的server.xml为:

由于Tomat3在远程服务器,因此不必改端口的,而我先进行的本地集群测试后将Tomcat3复制到远程服务器,因此这3个Tomcat端口都不一样。

AJP13的connector的poat和jvmRoute名称和workers.properties中配置对应。

因为截图面积有限,还须要保证本地2个本地Tomcat配置server的port,connector为http1.1的port都不相同。

测试

创建测试项目

创建test项目,须要在项目的web.xml中添加<distributable/>

创建test2.jsp,内容以下(网上都用这个测试,我就省的麻烦了):

 1 <%@ page contentType="text/html; charset=GBK" %>
 2 
 3 <%@ page import="java.util.*" %>
 4 
 5 <html><head><title>Cluster App Test</title></head>
 6 
 7 <body>
 8 
 9 Server Info:
10 
11 <%
12 
13 out.println(request.getLocalAddr() + " : " + request.getLocalPort()+"<br>");%>
14 
15 <%
16 
17   out.println("<br> ID " + session.getId()+"<br>");
18 
19   // 若是有新的 Session 属性设置
20 
21   String dataName = request.getParameter("dataName");
22 
23   if (dataName != null && dataName.length() > 0) {
24 
25      String dataValue = request.getParameter("dataValue");
26 
27      session.setAttribute(dataName, dataValue);
28 
29   }
30 
31   out.println("<b>Session 列表</b><br>");
32 
33   System.out.println("============================");
34 
35   Enumeration e = session.getAttributeNames();
36 
37   while (e.hasMoreElements()) {
38 
39      String name = (String)e.nextElement();
40 
41      String value = session.getAttribute(name).toString();
42 
43      out.println( name + " = " + value+"<br>");
44 
45          System.out.println( name + " = " + value);
46 
47    }
48 
49 %>
50 
51   <form action="test2.jsp" method="POST">
52 
53     名称:<input type=text size=20 name="dataName">
54 
55      <br>
56 
57     值:<input type=text size=20 name="dataValue">
58 
59      <br>
60 
61     <input type=submit>
62 
63    </form>
64 
65 </body>
66 
67 </html>

 

上面的测试页面就不解释了,很好理解。

Session测试

将项目部署到3个服务器,而后分别启动Apache和3个Tocmat服务器,这些Tomcat启动顺序随意,而后打开http://localhost/test/test2.jsp,结果以下图:

F5刷新页面,分别出现:

屡次刷新页面的sessionID看是同一个ID,说明session是复制成功了。那么session中的存储的东西呢,在输入框中分别输入一、1,二、2,三、3后,显示结果以下图:

以上的测试说明,集群中的session已经共享,每一个集群对于同一访问均有相同的session,并且session中存储的变量也复制了。

 

节点插拔测试

 

插拔意思是应该保证当运行的集群中某节点中关闭或者启动时,集群正常工做而且节点可以正常工做。

下面描述测试过程了,贴图太占地方了。

关闭Tomcat2,刷新页面,则不断访问Tocmat1和Tomcat3,再关闭Tomcat1后,则只访问一个Tomcat3,说明节点关闭时运行正常。

若是重启Tomcat2,不管怎么刷新,始终访问Tomcat3,难道Apache不能将请求转发给中途启动的Tomcat2?。。。这时利用另外台机器访问页面,发现Tomcat2正常,而后在刷本地页面,又能够访问Tomcat2了。

从上面能够看出Apache的负载均衡时的算法了,对于每一个新来的session,Apache按照节点配置中的lbfactor比重选择访问节点,若是某节点node1不能访问,则寻找下一可访问节点,而且将此node1就在该访问session的访问黑名单中,之后该session的访问直接不考虑node1,即便node1又能够访问了。而新来的session是无黑名单的,若是新的session可以访问到node1了,则会将node1在其余全部session访问的黑名单删除,这样其余session就又能访问node1节点了。以上只是我的通过测试后的猜测。

通过以上测试,说明Tomcat集群和负载均衡已经实现了。

 

关于集群我还有些疑问,因此又测试了下,直接把结论写出来:

1.集群下的相同的应用能够名称不一样(好像不必啊),只要配置server.xml中host下的context具备相同的path便可。

2. 若是应用名称能够不一样,那么应用下内容是否能够不一样呢(这里考虑将不一样应用经过集群看起来是一个应用,而且共享session),而后集群下不一样应用映射为相同的访问path,具备相同的路径则负载,若是某路径只某个应用具备,则一直访问该应用。可现实很骨干啊,答案是否认的,至少我以上的配置不能实现。若是访问只有某应用具备的特别路径,那么只有负载到该应用才能够访问,不然直接路径未找到的错误页面了。

 

 

 若是您看过网上其余Apache+Tomcat的集群配置,您可能有的疑问?

1.网上大部分的文章配置2个tocmat的集群,有的将workers.properties下的worker.controller.sticky_session=1,
而后tomcat1中的server.xml中的jvmRoute设置为tomcat2,将tomcat2中的jvmRoute设置为tocmat1,固然我这样设置
也成功了,可是若是3个或者更多tocmat呢,怎么设置每一个tomcat的jvmRoute,我不会因此才考虑如今的配置

2.server.xml中的Cluster配置问题,网上大部分都是使用BackupManager方式,即Cluster下又粘贴了一堆配置。其实
只要将其中注释掉的<Cluster className="org.apache.catalina.ha.tcp.SimpleTcpCluster"/>去掉注释就完成session的集群
复制了。只是这俩种复制采用的方式不一样而已。http://tomcat.apache.org/tomcat-6.0-doc/cluster-howto.html,这页面已经说的挺清楚了,集群的session复制默认是DeltaManager,是all to all的复制,意思是将集群下1个tomcat应用下的session对全部的集群中的节点进行复制,即便那个节点没有发布应用。显然是很差的方式,但这在小规模的集群下并没神马问题。而采用BackupManager,就是众多网上配置那样,对于须要复制的节点设置BackupManager天然也没问题,可是它的性能并无DeltaManager 好使“ Downside of the BackupManager: not quite as battle tested as the delta manager”。所以,具体怎么设置就看你们了,一般说若是不是大规模集群,就默认就行了。反正我本身翻译的就是这个意思了,但愿没有误导你们。

相关文章
相关标签/搜索