准备工作
Tomcat7 http://tomcat.apache.org/download-70.cgi
apache httpd server 2.2: http://httpd.apache.org/download.cgi
apache tomcat connector: http://archive.apache.org/dist/tomcat/tomcat-connectors/jk/binaries/win32/jk-1.2.31/
相关文档:
web server how to:
http://tomcat.apache.org/connectors-doc/webserver_howto/apache.html
安装路径:
httpd: D:ServerApache httpd2_2
tomcat D:Server omcat7-1 tomcat7-2 tomcat7-3
JK D:ServerApache httpd2_2modulesmod_jk-1.2.31-httpd-2.2.3.so
step 1: 添加并配置JK
D:ServerApache httpd2_2confhttpd.conf文件最后加上,意思是把这个配置加载进来
新建mod_jk.conf文件,内容如下:
- LoadModule jk_module modules/mod_jk-1.2.31-httpd-2.2.3.so
- JkWorkersFile conf/workers.properties
- #指定那些请求交给tomcat处理,"controller"为在workers.propertise里指定的负载分配控制器名
- JkMount /*.jsp controller
Step 2: 配置worker
新建并编辑workers.properties文件,内容如下
- #server
- worker.list = controller
- #========tomcat1========
- worker.tomcat1.port=11009
- worker.tomcat1.host=localhost
- worker.tomcat1.type=ajp13
- worker.tomcat1.lbfactor = 1
- #========tomcat2========
- worker.tomcat2.port=12009
- worker.tomcat2.host=localhost
- worker.tomcat2.type=ajp13
- worker.tomcat2.lbfactor = 1
- #========tomcat3========
- worker.tomcat3.port=13009
- worker.tomcat3.host=192.168.0.80 //在我的虚拟机中的,可以算远程的吧
- worker.tomcat3.type=ajp13
- worker.tomcat3.lbfactor = 1
- #========controller,负载均衡控制器========
- worker.controller.type=lb
- worker.controller.balanced_workers=tomcat1,tomcat2,tomcat3
- worker.controller.sticky_session=false
- worker.controller.sticky_session_force=1
- #worker.controller.sticky_session=1
如果三个tomcat不在同一台机器上,那么下面改端口的事情就可以省很多力气,不过因为要单机做负载均衡,所以要更改三个tomcat的8005,8080的端口,确保都不一样,不然tomcat是没办法同时启动三个的。
测试的时候我三个tomcat都放在本地,因为要同时启动三个tomcat,所以需要更改三个tomcat中的Connector端口号,将三个tomcat的的protocol="HTTP/1.1" 的connector的port改为10080,11080,12080。(原来是8080)
同时讲原来8005的端口分别改成10005,11005,12005(这个是关闭tomcat的端口号)
tomcat7-1
tomcat7-2
tomcat7-3
除了更改server.xml中 原来的8080的端口(protocol="HTTP/1.1" 的端口号)
还需要配置AJP13的端口号,同时打开默认注释掉的<Cluster>标签,对应的<Engine>的jvmRoute改成workers.property里面对应的名字,配置如下(删除了注释)
tomcat7-1
- <Connector port="11009" protocol="AJP/1.3" redirectPort="8443" />
- <Engine name="Catalina" defaultHost="localhost"
- jvmRoute="tomcat1">
- <Cluster className="org.apache.catalina.ha.tcp.SimpleTcpCluster"/>
tomcat7-2
- <Connector port="12009" protocol="AJP/1.3" redirectPort="8443" />
- <Engine name="Catalina" defaultHost="localhost"
- jvmRoute="tomcat2">
- <Cluster className="org.apache.catalina.ha.tcp.SimpleTcpCluster"/>
tomcat7-3
- <Connector port="13009" protocol="AJP/1.3" redirectPort="8443" />
- <Engine name="Catalina" defaultHost="localhost"
- jvmRoute="tomcat3">
- <Cluster className="org.apache.catalina.ha.tcp.SimpleTcpCluster"/>
OK,这时候可以成功启动三个tomcat7了,当tomcat7-2启动后,tomcat7-1会打印出replication的信息
类似于
- 2011-9-20 14:12:18 org.apache.catalina.ha.tcp.SimpleTcpCluster memberAdded
- 信息: Replication member added:org.apache.catalina.tribes.membership.MemberImpl[tcp://{172, 16, 10, 96}:4001,{172, 16, 10, 96},4001, alive=1000, securePort=-1, UDP Port=-1, id={109 112 -14 -8 -44 98 79 85 -89 -48 -33 -127 -47 -30
- 26 -75 }, payload={}, command={}, domain={}, ]
- <%@ page contentType="text/html; charset=GBK"%>
- <%@ page import="java.util.*"%>
- <html>
- <head>
- <title>Cluster App Test</title>
- </head>
- <body>
- Server Info:
- <%
- out.println(request.getLocalAddr() + " : " + request.getLocalPort() + "<br>");
- %>
- <%
- out.println("<br> ID " + session.getId() + "<br>");
- // 如果有新的 Session 属性设置
- String dataName = request.getParameter("dataName");
- if (dataName != null && dataName.length() > 0) {
- String dataValue = request.getParameter("dataValue");
- session.setAttribute(dataName, dataValue);
- }
- out.println("<b>Session 列表</b><br>");
- System.out.println("============================");
- Enumeration e = session.getAttributeNames();
- while (e.hasMoreElements()) {
- String name = (String) e.nextElement();
- String value = session.getAttribute(name).toString();
- out.println(name + " = " + value + "<br>");
- System.out.println(name + " = " + value);
- }
- %>
- <form action="testlb.jsp" method="POST">
- 名称:
- <input type=text size=20 name="dataName">
- <br>
- 值:
- <input type=text size=20 name="dataValue">
- <br>
- <input type=submit>
- </form>
- </body>
- </html>
(以下为原文摘抄,我真的比较lazy)
以上的测试说明,集群中的session已经共享,每个集群对于同一访问均有相同的session,而且session中存储的变量也复制了。
节点插拔测试
插拔意思是应该保证当运行的集群中某节点中关闭或者启动时,集群正常工作并且节点能够正常工作。
下面描述测试过程了,贴图太占地方了。
关闭Tomcat2,刷新页面,则不断访问Tocmat1和Tomcat3,再关闭Tomcat1后,则只访问一个Tomcat3,说明节点关闭时运行正常。
如果重启Tomcat2,无论怎么刷新,始终访问Tomcat3,难道Apache不能将请求转发给中途启动的Tomcat2?。。。这时利用另外台机器访问页面,发现Tomcat2正常,然后在刷本地页面,又可以访问Tomcat2了。
从上面可以看出Apache的负载均衡时的算法了,对于每个新来的session,Apache按照节点配置中的lbfactor比重选择访问节点,如果某节点node1不能访问,则寻找下一可访问节点,并且将此node1就在该访问session的访问黑名单中,以后该session的访问直接不考虑node1,即使node1又可以访问了。而新来的session是无黑名单的,如果新的session能够访问到node1了,则会将node1在其他所有session访问的黑名单删除,这样其他session就又能访问node1节点了。以上只是个人经过测试后的猜想。
经过以上测试,说明Tomcat集群和负载均衡已经实现了。
关于集群我还有些疑问,所以又测试了下,直接把结论写出来:
1.集群下的相同的应用可以名称不同(好像没必要啊),只要配置server.xml中host下的context具有相同的path即可。
2. 如果应用名称可以不同,那么应用下内容是否可以不同呢(这里考虑将不同应用通过集群看起来是一个应用,并且共享session),然后集群下不同应用映射为相同的访问path,具有相同的路径则负载,如果某路径只某个应用具有,则一直访问该应用。可现实很骨干啊,答案是否定的,至少我以上的配置不能实现。如果访问只有某应用具有的特别路径,那么只有负载到该应用才可以访问,否则直接路径未找到的错误页面了。
如果您看过网上其他Apache+Tomcat的集群配置,您可能有的疑问?
1.网上大部分的文章配置2个tocmat的集群,有的将workers.properties下的worker.controller.sticky_session=1,
然后tomcat1中的server.xml中的jvmRoute设置为tomcat2,将tomcat2中的jvmRoute设置为tocmat1,当然我这样设置
也成功了,但是如果3个或者更多tocmat呢,怎么设置每个tomcat的jvmRoute,我不会所以才考虑现在的配置
2.server.xml中的Cluster配置问题,网上大部分都是使用BackupManager方式,即Cluster下又粘贴了一堆配置。其实
只要将其中注释掉的<Cluster className="org.apache.catalina.ha.tcp.SimpleTcpCluster"/>去掉注释就完成session的集群
复制了。只是这俩种复制采用的方式不同而已。http://tomcat.apache.org/tomcat-6.0-doc/cluster-howto.html,
这页面已经说的挺清楚了,集群的session复制默认是DeltaManager,是all to all的复制,意思是将集群下1个tomcat应用下的session
对所有的集群中的节点进行复制,即使那个节点没有发布应用。显然是不好的方式,但这在小规模的集群下并没神马问题。
而采用BackupManager,就是众多网上配置那样,对于需要复制的节点设置BackupManager自然也没问题,
但是它的性能并没有DeltaManager 好使“ Downside of the BackupManager: not quite as battle tested as the delta manager”。
因此,具体怎么设置就看大家了,通常说如果不是大规模集群,就默认就好了。反正我自己翻译的就是这个意思了,希望没有误导大家。
最后一个比较全的关于session 同步使用jdbc方式的帖子
http://www.datadisk.co.uk/html_docs/java_app/tomcat6/tomcat6_clustering.htm