大部分朋友在使用tomcat的时候,常用的功能是在一个tomcat中为不同的应用设置多个访问路径,然后修改不同的访问端口,比如初始化端口是8080,那么另一个应用使用8081,其他的依次类推,只要做到每个应用的端口号不重复就行。
但是本人在实际环境中遇到如下的问题,需要在一个系统上面同时安装两个不同“渠道”的tomcat,一个rpm包的tomcat以及一个zip形式的tomcat压缩包,结果发现出问题了,只能其中一个tomact可以启动,谁先启动,谁就是“老大”,第二个启动的tomcat就一直启动失败。
日志文件等下分析,先说说我为什么会遇到这样的问题,为什么必须要安装两个不同“渠道”的tomcat,OK,问题背景是这样的: 我这边需要实施的项目架构是cloudstack+kvm,在cloudstack之上,我们有一个JAVA应用,用于调用cloudstack的API,用户使用的时候仅仅需要操作我们的上层JAVA应用即可,那么安装过cloudstack的朋友们知道,安装cloudstack-management跟cloudstack-agent最简便的方式就是通过配置Cloudstack的RPM包YUM源,然后直接通过yum install安装即可,在安装cloudstack-management的同时,系统也会安装操作系统自带的tomcat6包,于是,解释了我们为什么要安装rpm的tomcat包,那么我们还有个上层的JAVA应用怎么部署,weblogic or tomcat? 当然都行,但是从简便性来说,tomcat是最佳的选择,weblogic除了安装较为繁琐,还需要创建domain,配置数据源,发布JAVA包等一系列步骤,tomcat相比而言,肯定简便很多,但是安装cloudstack-management的时候安装的tomcat包已经被cloudstack做了很多定制化配置,所以,如果我们想要发布新的JAVA应用,从维护角度去看,尽量不要去动原有的tomcat配置,于是,我们选择重新安装一个tomcat软件,从源码压缩包解压即可,为了最大程度的划分界限,新的JAVA应用,jdk程序我们也不选择已经安装好的openjdk,而是选择oracle jdk解压安装【关于tomcat跟jdk的安装,非常简单,故本文不做过多说明】。
Tomcat路径: /usr/local/jdk1.6/
JDK路径: /usr/local/jdk1.6
我们对新的tomcat配置文件做一些修改,告知其使用的jdk是新的oracle jdk
1
2
3
|
[root@clovemzone ~] # cat /usr/local/tomcat6.0/bin/catalina.sh |grep -v "#" |grep JAVA_HOME |head -n 2
JAVA_HOME= /usr/local/jdk1 .6
JRE_HOME=$JAVA_HOME /jre
|
修改应用监听端口,从8080 修改为10801 ,修改端口的时候,查看/etc/services中,尽量自定义该文件中未定义的端口号,当然范围也在1-65535之内
1
2
3
4
|
[root@clovemzone ~] # vim /usr/local/tomcat6.0/conf/server.xml
<Connector port= "8080" protocol= "HTTP/1.1"
修改为 <Connector port= "10801" protocol= "HTTP/1.1"
|
然后,启动两个tomcat【不考虑cloudstack-management服务】
1
2
3
4
5
6
7
8
9
|
[root@clovemzone ~] # service tomcat6 start //启动rpm包的tomcat服务
Starting tomcat6: [ OK ] [root@loc bin] # pwd
/usr/local/tomcat6 .0 /bin
[root@localhost bin] # ./startup.sh //启动源码包安装的tomcat服务
Using CATALINA_BASE: /usr/local/tomcat6 .0
Using CATALINA_HOME: /usr/local/tomcat6 .0
Using CATALINA_TMPDIR: /usr/local/tomcat6 .0 /temp
Using JRE_HOME: /usr/local/jdk1 .6 /jre
|
检查tomcat启动状态
1
2
3
4
5
6
7
8
|
[root@localhost bin] # ps -ef |grep java |grep -v grep
tomcat 21266 1 0 13:09 ? 00:00:01 /usr/lib/jvm/jre/bin/java -Djavax.sql.DataSource.Factory=org.apache.commons.dbcp.BasicDataSourceFactory -classpath : /usr/share/tomcat6/bin/bootstrap .jar: /usr/share/tomcat6/bin/tomcat-juli .jar: /usr/share/java/commons-daemon .jar -Dcatalina.base= /usr/share/tomcat6 -Dcatalina.home= /usr/share/tomcat6 -Djava.endorsed. dirs = -Djava.io.tmpdir= /var/cache/tomcat6/temp -Djava.util.logging.config. file = /usr/share/tomcat6/conf/logging .properties -Djava.util.logging.manager=org.apache.juli.ClassLoaderLogManager org.apache.catalina.startup.Bootstrap start
[root@localhost bin] # lsof -i:8080
COMMAND PID USER FD TYPE DEVICE SIZE /OFF NODE NAME
java 21266 tomcat 37u IPv6 104620 0t0 TCP *:webcache (LISTEN) [root@localhost ~] # lsof -i:18080 //没有监听18080端口
[root@localhost ~] # lsof -i:18080 |wc -l
0 |
从如上代码可以看出,系统启动的java进程只有/usr/lib/jre/bin/java,很明显,是rpm包安装的tomact服务启动成功,而源码包安装的并没有启动OK,再通过lsof 查看监听的端口可以确认以上结论。
这个时候,我们可以来查看日志文件相关信息了,/usr/local/tomcat6.0/log/catalina.out
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
|
SEVERE: StandardServer.await: create[8005]: java.net.BindException: Address already in use
at java.net.PlainSocketImpl.socketBind(Native Method)
at java.net.PlainSocketImpl.bind(PlainSocketImpl.java:383)
at java.net.ServerSocket.bind(ServerSocket.java:328)
at java.net.ServerSocket.<init>(ServerSocket.java:194)
at org.apache.catalina.core.StandardServer.await(StandardServer.java:373)
at org.apache.catalina.startup.Catalina.await(Catalina.java:630)
at org.apache.catalina.startup.Catalina.start(Catalina.java:590)
at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:39)
at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:25)
at java.lang.reflect.Method.invoke(Method.java:597)
at org.apache.catalina.startup.Bootstrap.start(Bootstrap.java:288)
at org.apache.catalina.startup.Bootstrap.main(Bootstrap.java:413)
Dec 17, 2013 1:18:53 PM org.apache.coyote.http11.Http11Protocol pause INFO: Pausing Coyote HTTP /1 .1 on http-18080
Dec 17, 2013 1:18:54 PM org.apache.catalina.core.StandardService stop INFO: Stopping service Catalina Dec 17, 2013 1:18:54 PM org.apache.coyote.http11.Http11Protocol destroy |
通过日志分析,Address already in use,按照之前的经验来看,报这个错的,是由于端口的冲突,而且日志里面也会明确指明哪个端口被占用,比如8080之类的,但是这个日志却始终没有提醒,而且tomcat的监听端口8080也不会有冲突,第二个tomcat的默认监听端口已经从8080修改为了18080,那会有什么问题呢?
那么,Adress 会不会是内存地址呢?会不会是两个tomcat都使用了共享内存,而且使用了相同的地址,导致了这样的冲突呢?不敢确定,只有去检查了,通过ipcs命令列出所有共享内存信息
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
|
[root@localhost ~] # ipcs
------ Shared Memory Segments -------- key shmid owner perms bytes nattch status 0x00000000 98304 root 600 393216 2 dest 0x00000000 131073 root 600 393216 2 dest 0x00000000 163842 root 600 393216 2 dest 0x00000000 196611 root 600 393216 2 dest 0x00000000 229380 root 600 393216 2 dest 0x00000000 262149 root 600 393216 2 dest 0x00000000 294918 root 600 393216 2 dest 0x00000000 327687 root 600 393216 2 dest 0x00000000 360456 root 600 393216 2 dest 0x00000000 393225 root 600 393216 2 dest 0x00000000 425994 root 600 393216 2 dest 0x00000000 458763 root 600 393216 2 dest 0x00000000 491532 root 600 393216 2 dest 0x00000000 524301 root 600 393216 2 dest 0x00000000 557070 root 600 393216 2 dest ------ Semaphore Arrays -------- key semid owner perms nsems ------ Message Queues -------- key msqid owner perms used-bytes messages |
定位每个shmid的进程使用程序是否有调用java的?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
|
[root@clovemzone ~] # cat test_java.sh
#!/bin/bash #使用该脚本查找共享内存是否有Java进程 # 列出所有使用共享内存的shmid对于的cpid号 for shmid in `ipcs | grep 0x | awk -F ' ' '{print $2}' ` ; do ipcs -m -i $shmid | grep cpid | awk -F ' ' '{print $3}' | awk -F '=' '{print $2}' ; done > cpid.txt
# 通过cpid号查找进程中的java进程 #如果存在, 输出 java process in cpid:xx #如果不存在,输出 no java process cpid: xx for cpid in ` cat cpid.txt`
do ps -ef | grep $cpid | grep - v grep | grep java
if [ $? == 0 ]
then
echo "java process in cpid:$cpid"
else
echo "no java process cpid:$cpid"
fi
done |
执行该脚本,进行测试
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
|
[root@clovemzone ~] # sh test_java.sh
no java process cpid:16677 no java process cpid:16696 no java process cpid:16718 no java process cpid:16706 no java process cpid:16935 no java process cpid:16747 no java process cpid:16696 no java process cpid:16706 no java process cpid:16958 no java process cpid:16687 no java process cpid:16687 no java process cpid:16715 no java process cpid:16754 no java process cpid:17005 no java process cpid:16785 |
非常残忍的发现,没有任何一个java进程是使用共享内存的,难道这样的分析有错
那既然这样,就看看已经存在的java进程到底占用了哪些端口吧
1
2
3
4
|
[root@clovemzone ~] # netstat -nltup |grep java
tcp 0 0 ::ffff:127.0.0.1:8005 :::* LISTEN 21698 /java tcp 0 0 :::8009 :::* LISTEN 21698 /java tcp 0 0 :::8080 :::* LISTEN 21698 /java
|
发现除了8080,<Connector port="18080" protocol="HTTP/1.1"..> 提供HTTP服务的端口
还有8009,8005这两个端口也是被监听的,那么就去配置文件里面看下这两个端口到底是干嘛用的吧。
<Server port="8005" shutdown="SHUTDOWN"> 看作用是提供关闭服务的端口
<Connector port="8009" protocol="AJP/1.3" redirectPort="8443" /> AJP端口
既然这么多端口都是每个tomcat实例都要启动监听的,那么就把这些端口都修改一下吧
8005 ==> 18005
8009 ==> 18009
修改完成,保存/usr/local/tomcat6.0/conf/server.xml。再次启动源码包的tomcat
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
|
[root@clovemzone bin] # ./startup.sh //重新启动tomcat服务
Using CATALINA_BASE: /usr/local/tomcat6 .0
Using CATALINA_HOME: /usr/local/tomcat6 .0
Using CATALINA_TMPDIR: /usr/local/tomcat6 .0 /temp
Using JRE_HOME: /usr/local/jdk1 .6 /jre
[root@clovemzone bin] # ps -ef |grep java
tomcat 21698 1 0 13:18 ? 00:00:03 /usr/lib/jvm/jre/bin/java -Djavax.sql.DataSource.Factory=org.apache.commons.dbcp.BasicDataSourceFactory -classpath : /usr/share/tomcat6/bin/bootstrap .jar: /usr/share/tomcat6/bin/tomcat-juli .jar: /usr/share/java/commons-daemon .jar -Dcatalina.base= /usr/share/tomcat6 -Dcatalina.home= /usr/share/tomcat6 -Djava.endorsed. dirs = -Djava.io.tmpdir= /var/cache/tomcat6/temp -Djava.util.logging.config. file = /usr/share/tomcat6/conf/logging .properties -Djava.util.logging.manager=org.apache.juli.ClassLoaderLogManager org.apache.catalina.startup.Bootstrap start
root 24200 1 68 14:20 pts /3 00:00:02 /usr/local/jdk1 .6 /jre/bin/java -Djava.util.logging.manager=org.apache.juli.ClassLoaderLogManager -Djava.util.logging.config. file = /usr/local/tomcat6 .0 /conf/logging .properties -Djava.endorsed. dirs = /usr/local/tomcat6 .0 /endorsed -classpath : /usr/local/tomcat6 .0 /bin/bootstrap .jar: /usr/local/tomcat6 .0 /bin/commons-logging-api .jar -Dcatalina.base= /usr/local/tomcat6 .0 -Dcatalina.home= /usr/local/tomcat6 .0 -Djava.io.tmpdir= /usr/local/tomcat6 .0 /temp org.apache.catalina.startup.Bootstrap start
root 24222 21016 0 14:20 pts /3 00:00:00 grep java
[root@clovemzone bin] # lsof -i:18080
COMMAND PID USER FD TYPE DEVICE SIZE /OFF NODE NAME
java 24200 root 29u IPv6 112921 0t0 TCP *:18080 (LISTEN) [root@clovemzone bin] # netstat -nltup |grep java
tcp 0 0 ::ffff:127.0.0.1:8005 :::* LISTEN 21698 /java tcp 0 0 :::8009 :::* LISTEN 21698 /java tcp 0 0 :::8080 :::* LISTEN 21698 /java tcp 0 0 ::ffff:127.0.0.1:18005 :::* LISTEN 24200 /java tcp 0 0 :::18009 :::* LISTEN 24200 /java tcp 0 0 :::18080 :::* LISTEN 24200 /java
|
再次查看java进行,查看系统监听的java进程端口,发现两个tomcat实例已经可以“共存”了。
结论:
还是端口惹的祸!
很多朋友看到这里会郁闷,那干嘛一开始不修改所有的端口呢?
其实,我想表达的是在日志文件不是非常明确的情况下面,更多的需要我们通过自己的经验以及不断尝试才能把问题解决,有的时候,不经意间解决了问题其实也是一种思考的过程!
希望能够帮到大家,不仅问题的答案,而是一种过程!