• 架构师第九周作业


    第九周

    一、tomcat session cluster的实现。

    #1.环境准备
    	IP           主机名              服务
    	10.0.0.150   proxy.tan.com      httpd
    	10.0.0.160   tomcat1.tan.com    JDK8、tomcat8
    	10.0.0.170   tomcat2.tan.com    JDK8、tomcat8
    
    #2.在proxy主机配置httpd实现后端tomcat主机轮询
    [root@proxy ~]#vim /etc/httpd/conf.d/tomcat.conf
    <Proxy balancer://tomcat-server>
      BalancerMember http://tomcat1.tan.com:8080 loadfactor=1
      BalancerMember http://tomcat2.tan.com:8080 loadfactor=1
    </Proxy>
    <VirtualHost *:80>
      ServerName proxy.tan.com
      ProxyRequests Off
      ProxyVia On
      ProxyPreserveHost On
      ProxyPass / balancer://tomcat-server/
      ProxyPassReverse / balancer://tomcat-server/
    </VirtualHost>
    
    [root@proxy ~]#systemctl restart httpd
    
    #或者使用nginx来实现后端轮询
    	#在http语句块中添加upstream模块
        upstream tomcat-server{
            server tomcat1.tan.com:8080;
            server tomcat2.tan.com:8080;
            }
            
        server {
            listen       80 default_server;
            listen       [::]:80 default_server;
            server_name  proxy.tan.com;  #修改此行
            root         /usr/share/nginx/html;
    
            # Load configuration files for the default server block.
            include /etc/nginx/default.d/*.conf;
    
            location / {
            proxy_pass http://tomcat-server;#添加此行
            }
    
            error_page 404 /404.html;
                location = /40x.html {
            }
    
            error_page 500 502 503 504 /50x.html;
                location = /50x.html {
            }
        }
    [root@proxy ~]#systemctl start nginx
    
    #编写hosts解析
    [root@proxy ~]#cat /etc/hosts
    127.0.0.1   localhost localhost.localdomain localhost4 localhost4.localdomain4
    ::1         localhost localhost.localdomain localhost6 localhost6.localdomain6
    10.0.0.160 tomcat1.tan.com
    10.0.0.170 tomcat2.tan.com
    
    #3.在后端tomcat1主机上安装tomcat并修改conf/server.xml
    #安装脚本请见上一此作业
    [root@tomcat1 ~]#bash tomcat8.5.sh
    [root@tomcat1 ~]#vim /usr/local/tomcat/conf/server.xml
    ...#略
     <Engine name="Catalina" defaultHost="tomcat1.tan.com">
    ...#略
          <Host name="tomcat1.tan.com"  appBase="webapps"
                unpackWARs="true" autoDeploy="true">
     <Cluster className="org.apache.catalina.ha.tcp.SimpleTcpCluster" channelSendOptions="8">
     <Manager className="org.apache.catalina.ha.session.DeltaManager" expireSessionsOnShutdown="false" notifyListenersOnReplication="true"/>
     <Channel className="org.apache.catalina.tribes.group.GroupChannel">
     <Membership className="org.apache.catalina.tribes.membership.McastService"
     address="230.188.188.188"  #配置多播地址
     port="45564"
     frequency="500"
     dropTime="3000"/>
     <Receiver className="org.apache.catalina.tribes.transport.nio.NioReceiver"
     address="10.0.0.160"  #配置本机ip
     port="4000"
     autoBind="100"
     selectorTimeout="5000"
     maxThreads="6"/>
     <Sender className="org.apache.catalina.tribes.transport.ReplicationTransmitter">
     <Transport className="org.apache.catalina.tribes.transport.nio.PooledParallelSender"/>
     </Sender>
    <Interceptor className="org.apache.catalina.tribes.group.interceptors.TcpFailureDetector"/>
    <Interceptor className="org.apache.catalina.tribes.group.interceptors.MessageDispatchInterceptor"/>
    </Channel>
     <Valve className="org.apache.catalina.ha.tcp.ReplicationValve"  filter=""/>
     <Valve className="org.apache.catalina.ha.session.JvmRouteBinderValve"/>
     <Deployer className="org.apache.catalina.ha.deploy.FarmWarDeployer"
     tempDir="/tmp/war-temp/"
     deployDir="/tmp/war-deploy/"
     watchDir="/tmp/war-listen/"
     watchEnabled="false"/>
     <ClusterListener className="org.apache.catalina.ha.session.ClusterSessionListener"/>
    </Cluster>
    
          </Host>
    ...#略
    
    [root@tomcat1 ~]#cat /usr/local/tomcat/webapps/ROOT/index.jsp
    <%@ page import="java.util.*" %>
    <!DOCTYPE html>
    <html lang="en">
    <head>
      <meta charset="UTF-8">
      <title>tomcat test</title>
    </head>
    <body>
    <div>On <%=request.getServerName() %></div>
    <div><%=request.getLocalAddr() + ":" + request.getLocalPort() %></div>
    <div>SessionID = <span style="color:blue"><%=session.getId() %></span></div>
    <%=new Date()%>
    </body>
    </html>
    
    [root@tomcat1 ~]#systemctl restart tomcat
    
    
    #4.在后端tomcat2主机上安装tomcat并修改conf/server.xml
    #安装脚本请见上一此作业
    [root@tomcat2 ~]#bash tomcat8.5.sh
    [root@tomcat2 ~]#vim /usr/local/tomcat/conf/server.xml
    ...#略
     <Engine name="Catalina" defaultHost="tomcat2.tan.com">
    ...#略
          <Host name="tomcat2.tan.com"  appBase="webapps"
                unpackWARs="true" autoDeploy="true">
     <Cluster className="org.apache.catalina.ha.tcp.SimpleTcpCluster" channelSendOptions="8">
     <Manager className="org.apache.catalina.ha.session.DeltaManager" expireSessionsOnShutdown="false" notifyListenersOnReplication="true"/>
     <Channel className="org.apache.catalina.tribes.group.GroupChannel">
     <Membership className="org.apache.catalina.tribes.membership.McastService"
     address="230.188.188.188"
     port="45564"
     frequency="500"
     dropTime="3000"/>
     <Receiver className="org.apache.catalina.tribes.transport.nio.NioReceiver"
     address="10.0.0.170"
     port="4000"
     autoBind="100"
     selectorTimeout="5000"
     maxThreads="6"/>
     <Sender className="org.apache.catalina.tribes.transport.ReplicationTransmitter">
     <Transport className="org.apache.catalina.tribes.transport.nio.PooledParallelSender"/>
     </Sender>
    <Interceptor className="org.apache.catalina.tribes.group.interceptors.TcpFailureDetector"/>
    <Interceptor className="org.apache.catalina.tribes.group.interceptors.MessageDispatchInterceptor"/>
    </Channel>
     <Valve className="org.apache.catalina.ha.tcp.ReplicationValve"  filter=""/>
     <Valve className="org.apache.catalina.ha.session.JvmRouteBinderValve"/>
     <Deployer className="org.apache.catalina.ha.deploy.FarmWarDeployer"
     tempDir="/tmp/war-temp/"
     deployDir="/tmp/war-deploy/"
     watchDir="/tmp/war-listen/"
     watchEnabled="false"/>
     <ClusterListener className="org.apache.catalina.ha.session.ClusterSessionListener"/>
    </Cluster>
    
          </Host>
    ...#略
    [root@tomcat2 ~]#cat /usr/local/tomcat/webapps/ROOT/index.jsp
    <%@ page import="java.util.*" %>
    <!DOCTYPE html>
    <html lang="en">
    <head>
      <meta charset="UTF-8">
      <title>tomcat test</title>
    </head>
    <body>
    <div>On <%=request.getServerName() %></div>
    <div><%=request.getLocalAddr() + ":" + request.getLocalPort() %></div>
    <div>SessionID = <span style="color:blue"><%=session.getId() %></span></div>
    <%=new Date()%>
    </body>
    </html>
    
    [root@tomcat2 ~]#systemctl restart tomcat
    
    
    #5.修改应用的web.xml文件开启该应用程序的分布式
     #修改tomcat1主机的应用的web.xml文件
     [root@tomcat1 ~]#tail -n3 /usr/local/tomcat/webapps/ROOT/WEB-INF/web.xml
      </description>
    <distributable/> #添加此行
    </web-app>
    [root@tomcat1 ~]#systemctl restart tomcat
    
    
    #修改tomcat2主机的应用的web.xml文件
     [root@tomcat2 ~]#tail -n3 /usr/local/tomcat/webapps/ROOT/WEB-INF/web.xml
      </description>
    <distributable/> #添加此行
    </web-app>
    [root@tomcat2 ~]#systemctl restart tomcat
    
    #6.访问测试,此时主机轮询但是session不会变
    [root@proxy ~]#curl -I proxy.tan.com/index.jsp                                            HTTP/1.1 200
    Server: nginx/1.14.1
    Date: Mon, 29 Aug 2022 05:05:28 GMT
    Content-Type: text/html;charset=ISO-8859-1
    Connection: keep-alive
    Set-Cookie: JSESSIONID=06CEDA54AEFBBE67465BC4307874000D; Path=/; HttpOnly
    
    [root@proxy ~]#curl -b "JSESSIONID=06CEDA54AEFBBE67465BC4307874000D" proxy.tan.com/index.jsp
    
    <!DOCTYPE html>
    <html lang="en">
    <head>
      <meta charset="UTF-8">
      <title>tomcat test</title>
    </head>
    <body>
    <div>On tomcat-server</div>
    <div>10.0.0.170:8080</div>
    <div>SessionID = <span style="color:blue">06CEDA54AEFBBE67465BC4307874000D</span></div>
    Mon Aug 29 13:05:48 CST 2022
    </body>
    </html>
    [root@proxy ~]#curl -b "JSESSIONID=06CEDA54AEFBBE67465BC4307874000D" proxy.tan.com/index.jsp
    
    <!DOCTYPE html>
    <html lang="en">
    <head>
      <meta charset="UTF-8">
      <title>tomcat test</title>
    </head>
    <body>
    <div>On tomcat-server</div>
    <div>10.0.0.160:8080</div>
    <div>SessionID = <span style="color:blue">06CEDA54AEFBBE67465BC4307874000D</span></div>
    Mon Aug 29 13:05:52 CST 2022
    </body>
    </html>
    

    二、JVM性能调优总结

    #tomcat的jvm优化生产案例:
    [root@centos8 ~]#vim /usr/local/tomcat/bin/catalina.sh 
    JAVA_OPTS="-server -Xms4g -Xmx4g -Xss512k -Xmn1g -XX:CMSInitiatingOccupancyFraction=65 -XX:+AggressiveOpts -XX:+UseBiasedLocking -XX:+DisableExplicitGC -XX:MaxTenuringThreshold=10 -XX:NewRatio=2 -XX:PermSize=128m -XX:MaxPermSize=512m -XX:CMSFullGCsBeforeCompaction=5 -XX:+ExplicitGCInvokesConcurrent -XX:+UseConcMarkSweepGC -XX:+UseParNewGC -XX:+CMSParallelRemarkEnabled -XX:+UseCMSCompactAtFullCollection -XX:LargePageSizeInBytes=128m -XX:+UseFastAccessorMethods"
    
    #一台tomcat服务器并发连接数不高,生产建议分配物理内存通常4G到8G较多,如果需要更多连接,一般会利用虚拟化技术实现多台tomcat
    
    #1、常用调优策略
    
    #1.1、选择合适的垃圾回收器
    CPU单核,那么毫无疑问Serial 垃圾收集器是你唯一的选择。
    CPU多核,关注吞吐量 ,那么选择PS+PO组合。
    CPU多核,关注用户停顿时间,JDK版本1.6或者1.7,那么选择CMS。
    CPU多核,关注用户停顿时间,JDK1.8及以上,JVM可用内存6G以上,那么选择G1。
    参数配置:
    //设置Serial垃圾收集器(新生代) 开启:-XX:+UseSerialGC //设置PS+PO,新生代使用功能Parallel Scavenge 老年代将会使用Parallel Old收集器 开启 -XX:+UseParallelOldGC //CMS垃圾收集器(老年代) 开启 -XX:+UseConcMarkSweepGC //设置G1垃圾收集器 开启 -XX:+UseG1GC
    
    #1.2、调整内存大小
    现象:垃圾收集频率非常频繁。
    原因:如果内存太小,就会导致频繁的需要进行垃圾收集才能释放出足够的空间来创建新的对象,所以增加堆内存大小的效果是非常显而易见的。
    注意:如果垃圾收集次数非常频繁,但是每次能回收的对象非常少,那么这个时候并非内存太小,而可能是内存泄露导致对象无法回收,从而造成频繁GC。
    参数配置:
    //设置堆初始值 指令1:-Xms2g 指令2:-XX:InitialHeapSize=2048m //设置堆区最大值 指令1:`-Xmx2g` 指令2: -XX:MaxHeapSize=2048m //新生代内存配置 指令1:-Xmn512m 指令2:-XX:MaxNewSize=512m
    
    #1.3、设置符合预期的停顿时间
    现象:程序间接性的卡顿
    原因:如果没有确切的停顿时间设定,垃圾收集器以吞吐量为主,那么垃圾收集时间就会不稳定。
    注意:不要设置不切实际的停顿时间,单次时间越短也意味着需要更多的GC次数才能回收完原有数量的垃圾.
    参数配置:
    //GC停顿时间,垃圾收集器会尝试用各种手段达到这个时间 -XX:MaxGCPauseMillis
    
    #1.4、调整内存区域大小比率
    现象:某一个区域的GC频繁,其他都正常。
    原因:如果对应区域空间不足,导致需要频繁GC来释放空间,在JVM堆内存无法增加的情况下,可以调整对应区域的大小比率。
    注意:也许并非空间不足,而是因为内存泄造成内存无法回收。从而导致GC频繁。
    参数配置:
    //survivor区和Eden区大小比率 指令:-XX:SurvivorRatio=6 //S区和Eden区占新生代比率为1:6,两个S区2:6 //新生代和老年代的占比 -XX:NewRatio=4 //表示新生代:老年代 = 1:4 即老年代占整个堆的4/5;默认值=2
    
    #1.5、调整对象升老年代的年龄
    现象:老年代频繁GC,每次回收的对象很多。
    原因:如果升代年龄小,新生代的对象很快就进入老年代了,导致老年代对象变多,而这些对象其实在随后的很短时间内就可以回收,这时候可以调整对象的升级代年龄,让对象不那么容易进入老年代解决老年代空间不足频繁GC问题。
    注意:增加了年龄之后,这些对象在新生代的时间会变长可能导致新生代的GC频率增加,并且频繁复制这些对象新生的GC时间也可能变长。
    配置参数:
    //进入老年代最小的GC年龄,年轻代对象转换为老年代对象最小年龄值,默认值7 -XX:InitialTenuringThreshol=7
    
    #1.6、调整大对象的标准
    现象:老年代频繁GC,每次回收的对象很多,而且单个对象的体积都比较大。
    原因:如果大量的大对象直接分配到老年代,导致老年代容易被填满而造成频繁GC,可设置对象直接进入老年代的标准。
    注意:这些大对象进入新生代后可能会使新生代的GC频率和时间增加。
    配置参数:
    //新生代可容纳的最大对象,大于则直接会分配到老年代,0代表没有限制。 -XX:PretenureSizeThreshold=1000000
    
    #1.7、调整GC的触发时机
    现象:CMS,G1 经常 Full GC,程序卡顿严重。
    原因:G1和CMS 部分GC阶段是并发进行的,业务线程和垃圾收集线程一起工作,也就说明垃圾收集的过程中业务线程会生成新的对象,所以在GC的时候需要预留一部分内存空间来容纳新产生的对象,如果这个时候内存空间不足以容纳新产生的对象,那么JVM就会停止并发收集暂停所有业务线程(STW)来保证垃圾收集的正常运行。这个时候可以调整GC触发的时机(比如在老年代占用60%就触发GC),这样就可以预留足够的空间来让业务线程创建的对象有足够的空间分配。
    注意:提早触发GC会增加老年代GC的频率。
    配置参数:
    //使用多少比例的老年代后开始CMS收集,默认是68%,如果频繁发生SerialOld卡顿,应该调小 -XX:CMSInitiatingOccupancyFraction //G1混合垃圾回收周期中要包括的旧区域设置占用率阈值。默认占用率为 65% -XX:G1MixedGCLiveThresholdPercent=65
    
    #1.8、调整 JVM本地内存大小
    现象:GC的次数、时间和回收的对象都正常,堆内存空间充足,但是报OOM
    原因:JVM除了堆内存之外还有一块堆外内存,这片内存也叫本地内存,可是这块内存区域不足了并不会主动触发GC,只有在堆内存区域触发的时候顺带会把本地内存回收了,而一旦本地内存分配不足就会直接报OOM异常。
    注意:本地内存异常的时候除了上面的现象之外,异常信息可能是OutOfMemoryError:Direct buffer memory。解决方式除了调整本地内存大小之外,也可以在出现此异常时进行捕获,手动触发GC(System.gc())。
    配置参数:
    XX:MaxDirectMemorySize
    
    #2、JVM调优实例
    以下是整理自网络的一些JVM调优实例:
    
    #2.1、网站流量浏览量暴增后,网站反应页面响很慢
    	1、问题推测:在测试环境测速度比较快,但是一到生产就变慢,所以推测可能是因为垃圾收集导致的业务线程停顿。
    	2、定位:为了确认推测的正确性,在线上通过jstat -gc 指令 看到JVM进行GC 次数频率非常高,GC所占用的时间非常长,所以基本推断就是因为GC频率非常高,所以导致业务线程经常停顿,从而造成网页反应很慢。
    	3、解决方案:因为网页访问量很高,所以对象创建速度非常快,导致堆内存容易填满从而频繁GC,所以这里问题在于新生代内存太小,所以这里可以增加JVM内存就行了,所以初步从原来的2G内存增加到16G内存。
    	4、第二个问题:增加内存后的确平常的请求比较快了,但是又出现了另外一个问题,就是不定期的会间断性的卡顿,而且单次卡顿的时间要比之前要长很多。
    	5、问题推测:练习到是之前的优化加大了内存,所以推测可能是因为内存加大了,从而导致单次GC的时间变长从而导致间接性的卡顿。
    	6、定位:还是通过jstat -gc 指令 查看到 的确FGC次数并不是很高,但是花费在FGC上的时间是非常高的,根据GC日志 查看到单次FGC的时间有达到几十秒的。
    	7、解决方案: 因为JVM默认使用的是PS+PO的组合,PS+PO垃圾标记和收集阶段都是STW,所以内存加大了之后,需要进行垃圾回收的时间就变长了,所以这里要想避免单次GC时间过长,所以需要更换并发类的收集器,因为当前的JDK版本为1.7,所以最后选择CMS垃圾收集器,根据之前垃圾收集情况设置了一个预期的停顿的时间,上线后网站再也没有了卡顿问题。
    
    #2.2、后台导出数据引发的OOM
    **问题描述:**公司的后台系统,偶发性的引发OOM异常,堆内存溢出。
    	1、因为是偶发性的,所以第一次简单的认为就是堆内存不足导致,所以单方面的加大了堆内存从4G调整到8G。
    	2、但是问题依然没有解决,只能从堆内存信息下手,通过开启了-XX:+HeapDumpOnOutOfMemoryError参数 获得堆内存的dump文件。
    	3、VisualVM 对 堆dump文件进行分析,通过VisualVM查看到占用内存最大的对象是String对象,本来想跟踪着String对象找到其引用的地方,但dump文件太大,跟踪进去的时候总是卡死,而String对象占用比较多也比较正常,最开始也没有认定就是这里的问题,于是就从线程信息里面找突破点。
    	4、通过线程进行分析,先找到了几个正在运行的业务线程,然后逐一跟进业务线程看了下代码,发现有个引起我注意的方法,导出订单信息。
    	5、因为订单信息导出这个方法可能会有几万的数据量,首先要从数据库里面查询出来订单信息,然后把订单信息生成excel,这个过程会产生大量的String对象。
    	6、为了验证自己的猜想,于是准备登录后台去测试下,结果在测试的过程中发现到处订单的按钮前端居然没有做点击后按钮置灰交互事件,结果按钮可以一直点,因为导出订单数据本来就非常慢,使用的人员可能发现点击后很久后页面都没反应,结果就一直点,结果就大量的请求进入到后台,堆内存产生了大量的订单对象和EXCEL对象,而且方法执行非常慢,导致这一段时间内这些对象都无法被回收,所以最终导致内存溢出。
    	7、知道了问题就容易解决了,最终没有调整任何JVM参数,只是在前端的导出订单按钮上加上了置灰状态,等后端响应之后按钮才可以进行点击,然后减少了查询订单信息的非必要字段来减少生成对象的体积,然后问题就解决了。
    
    #2.3、单个缓存数据过大导致的系统CPU飚高
    	1、系统发布后发现CPU一直飚高到600%,发现这个问题后首先要做的是定位到是哪个应用占用CPU高,通过top 找到了对应的一个java应用占用CPU资源600%。
    	2、如果是应用的CPU飚高,那么基本上可以定位可能是锁资源竞争,或者是频繁GC造成的。
    	3、所以准备首先从GC的情况排查,如果GC正常的话再从线程的角度排查,首先使用jstat -gc PID 指令打印出GC的信息,结果得到得到的GC 统计信息有明显的异常,应用在运行了才几分钟的情况下GC的时间就占用了482秒,那么问这很明显就是频繁GC导致的CPU飚高。
    	4、定位到了是GC的问题,那么下一步就是找到频繁GC的原因了,所以可以从两方面定位了,可能是哪个地方频繁创建对象,或者就是有内存泄露导致内存回收不掉。
    	5、根据这个思路决定把堆内存信息dump下来看一下,使用jmap -dump 指令把堆内存信息dump下来(堆内存空间大的慎用这个指令否则容易导致会影响应用,因为我们的堆内存空间才2G所以也就没考虑这个问题了)。
    	6、把堆内存信息dump下来后,就使用visualVM进行离线分析了,首先从占用内存最多的对象中查找,结果排名第三看到一个业务VO占用堆内存约10%的空间,很明显这个对象是有问题的。
    	7、通过业务对象找到了对应的业务代码,通过代码的分析找到了一个可疑之处,这个业务对象是查看新闻资讯信息生成的对象,由于想提升查询的效率,所以把新闻资讯保存到了redis缓存里面,每次调用资讯接口都是从缓存里面获取。
    	8、把新闻保存到redis缓存里面这个方式是没有问题的,有问题的是新闻的50000多条数据都是保存在一个key里面,这样就导致每次调用查询新闻接口都会从redis里面把50000多条数据都拿出来,再做筛选分页拿出10条返回给前端。50000多条数据也就意味着会产生50000多个对象,每个对象280个字节左右,50000个对象就有13.3M,这就意味着只要查看一次新闻信息就会产生至少13.3M的对象,那么并发请求量只要到10,那么每秒钟都会产生133M的对象,而这种大对象会被直接分配到老年代,这样的话一个2G大小的老年代内存,只需要几秒就会塞满,从而触发GC。
    	9、知道了问题所在后那么就容易解决了,问题是因为单个缓存过大造成的,那么只需要把缓存减小就行了,这里只需要把缓存以页的粒度进行缓存就行了,每个key缓存10条作为返回给前端1页的数据,这样的话每次查询新闻信息只会从缓存拿出10条数据,就避免了此问题的 产生。
    
    #2.4、CPU经常100% 问题定位
    问题分析:CPU高一定是某个程序长期占用了CPU资源。
    	1、所以先需要找出那个进行占用CPU高。
    top 列出系统各个进程的资源占用情况。
    	2、然后根据找到对应进行里哪个线程占用CPU高。
    top -Hp 进程ID 列出对应进程里面的线程占用资源情况
    	3、找到对应线程ID后,再打印出对应线程的堆栈信息
    printf "%x\n" PID 把线程ID转换为16进制。 jstack PID 打印出进程的所有线程信息,从打印出来的线程信息中找到上一步转换为16进制的线程ID对应的线程信息。
    	4、最后根据线程的堆栈信息定位到具体业务方法,从代码逻辑中找到问题所在。
    查看是否有线程长时间的watting 或blocked 如果线程长期处于watting状态下, 关注watting on xxxxxx,说明线程在等待这把锁,然后根据锁的地址找到持有锁的线程。
    
    #2.5、内存飚高问题定位
    分析:内存飚高如果是发生在java进程上,一般是因为创建了大量对象所导致,持续飚高说明垃圾回收跟不上对象创建的速度,或者内存泄露导致对象无法回收。
    	1、先观察垃圾回收的情况
    jstat -gc PID 1000 查看GC次数,时间等信息,每隔一秒打印一次。 jmap -histo PID | head -20 查看堆内存占用空间最大的前20个对象类型,可初步查看是哪个对象占用了内存。
    如果每次GC次数频繁,而且每次回收的内存空间也正常,那说明是因为对象创建速度快导致内存一直占用很高;如果每次回收的内存非常少,那么很可能是因为内存泄露导致内存一直无法被回收。
    	2、导出堆内存文件快照
    jmap -dump:live,format=b,file=/home/myheapdump.hprof PID dump堆内存信息到文件。
    	3、使用visualVM对dump文件进行离线分析,找到占用内存高的对象,再找到创建该对象的业务代码位置,从代码和业务场景中定位具体问题。
    
    #2.6、数据分析平台系统频繁 Full GC
    平台主要对用户在 App 中行为进行定时分析统计,并支持报表导出,使用 CMS GC 算法。
    数据分析师在使用中发现系统页面打开经常卡顿,通过 jstat 命令发现系统每次 Young GC 后大约有 10% 的存活对象进入老年代。
    原来是因为 Survivor 区空间设置过小,每次 Young GC 后存活对象在 Survivor 区域放不下,提前进入老年代。
    通过调大 Survivor 区,使得 Survivor 区可以容纳 Young GC 后存活对象,对象在 Survivor 区经历多次 Young GC 达到年龄阈值才进入老年代。
    调整之后每次 Young GC 后进入老年代的存活对象稳定运行时仅几百 Kb,Full GC 频率大大降低。
    
    #2.7、业务对接网关 OOM
    网关主要消费 Kafka 数据,进行数据处理计算然后转发到另外的 Kafka 队列,系统运行几个小时候出现 OOM,重启系统几个小时之后又 OOM。
    通过 jmap 导出堆内存,在 eclipse MAT 工具分析才找出原因:代码中将某个业务 Kafka 的 topic 数据进行日志异步打印,该业务数据量较大,大量对象堆积在内存中等待被打印,导致 OOM。
    
    #2.8、鉴权系统频繁长时间 Full GC
    系统对外提供各种账号鉴权服务,使用时发现系统经常服务不可用,通过 Zabbix 的监控平台监控发现系统频繁发生长时间 Full GC,且触发时老年代的堆内存通常并没有占满,发现原来是业务代码中调用了 System.gc()。
    

    三、实现zabbix主动模式监控tomcat及所在主机

    #1.环境准备,centos8,zabbix6.0为例
    	IP           主机名                     服务
    10.0.0.150  zabbixserver.tan.com  zabbix-server、zabbix-java-gateway、agent、mariadb
    10.0.0.160   tomcat1.tan.com           JDK8、tomcat8、zabbix-agent
    	
    #2.安装zabbix-server、zabbix-java-gateway、mariadb-server
    #安装zabbix-server mariadb
    [root@zabbix-server ~]#rpm -Uvh https://repo.zabbix.com/zabbix/6.0/rhel/8/x86_64/zabbix-release-6.0-1.el8.noarch.rpm
    
    [root@zabbix-server ~]#sed -i 's#https://repo.zabbix.com#https://mirrors.aliyun.com/zabbix#' /etc/yum.repos.d/zabbix.repo
    
    [root@zabbix-server ~]#yum clean all
    
    [root@zabbix-server ~]#dnf install zabbix-server-mysql zabbix-web-mysql zabbix-nginx-conf zabbix-sql-scripts zabbix-selinux-policy zabbix-agent
    
    #centos8默认安装的是mariadb10.3版本,此版本zabbix需要mariadb10.5版本
    [root@zabbix-server ~]#vim /etc/yum.repos.d/MariaDB.repo
    [mariadb]
    name = MariaDB
    baseurl = https://mirrors.aliyun.com/mariadb/yum/10.5/centos8-amd64
    module_hotfixes=1
    gpgkey=https://mirrors.aliyun.com/mariadb/yum/RPM-GPG-KEY-MariaDB
    gpgcheck=1
    
    
    [root@zabbix-server ~]#dnf clean all
    33 files removed
    [root@zabbix-server ~]#dnf install -y mariadb mariadb-server
    
    #3.启动mariadb
    [root@zabbix-server ~]#systemctl enable --now mariadb
    
    #4.准备数据库并授权
    [root@zabbix-server ~]#mysql
    Welcome to the MariaDB monitor.  Commands end with ; or \g.
    Your MariaDB connection id is 8
    Server version: 10.3.28-MariaDB MariaDB Server
    
    Copyright (c) 2000, 2018, Oracle, MariaDB Corporation Ab and others.
    
    Type 'help;' or '\h' for help. Type '\c' to clear the current input statement.
    
    MariaDB [(none)]> create database zabbix character set utf8mb4 collate utf8mb4_bin;
    Query OK, 1 row affected (0.000 sec)
    
    MariaDB [(none)]> create user zabbix@'%' identified by 'zabbix';
    Query OK, 0 rows affected (0.000 sec)
    
    MariaDB [(none)]> grant all privileges on zabbix.* to zabbix@'%';
    Query OK, 0 rows affected (0.008 sec)
    
    #5.导入数据
    [root@zabbix-server ~]#zcat /usr/share/doc/zabbix-sql-scripts/mysql/server.sql.gz | mysql -uzabbix -p zabbix
    Enter password:zabbix
    
    
    #6.配置zabbix-server
    [root@zabbix-server ~]#grep '^[^#]' /etc/zabbix/zabbix_server.conf
    ListenPort=10051
    LogFile=/var/log/zabbix/zabbix_server.log
    LogFileSize=0
    PidFile=/run/zabbix/zabbix_server.pid
    SocketDir=/run/zabbix
    DBName=zabbix
    DBUser=zabbix
    DBPassword=zabbix
    JavaGateway=localhost
    JavaGatewayPort=10052
    StartJavaPollers=10
    SNMPTrapperFile=/var/log/snmptrap/snmptrap.log
    Timeout=4
    LogSlowQueries=3000
    AllowRoot=1
    User=root
    StatsAllowedIP=127.0.0.1
    
    
    #7.配置前端php
    [root@zabbix-server ~]#vi /etc/nginx/conf.d/zabbix.conf
    server {
            listen          80;
            server_name     10.0.0.150;
    
    #8.启动服务
    [root@zabbix-server ~]#systemctl enable mariadb zabbix-server zabbix-agent nginx php-fpm --now
    
    #9.验证服务
    [root@zabbix-server ~]#systemctl is-active  zabbix-server zabbix-agent nginx
    active
    active
    active
    
    #10.浏览器输入http://10.0.0.150/index.php,默认登录账户密码是Admin/zabbix
    ![](https://img2022.cnblogs.com/blog/1914165/202208/1914165-20220829210602960-1643817482.png)
    
    
    
    
    #11.修改agent为主动模式
    [root@zabbix-server ~]#grep "^[a-Z]" /etc/zabbix/zabbix_agentd.conf
    PidFile=/run/zabbix/zabbix_agentd.pid
    LogFile=/var/log/zabbix/zabbix_agentd.log
    LogFileSize=0
    Server=10.0.0.150
    ListenPort=10050
    StartAgents=3
    ServerActive=10.0.0.150
    Hostname=10.0.0.150
    Include=/etc/zabbix/zabbix_agentd.d/*.conf
    
    [root@zabbix-server ~]#systemctl restart zabbix-agent
    
    
    #12.安装zabbix-java-gateway
    #查看zabbix_server版本
    [root@zabbix-server ~]#zabbix_server -V
    zabbix_server (Zabbix) 6.0.7
    
    #安装zabbix-java-gateway
    [root@zabbix-server ~]#wget https://mirrors.aliyun.com/zabbix/zabbix/6.0/rhel/8/x86_64/zabbix-java-gateway-6.0.7-1.el8.x86_64.rpm?spm=a2c6h.25603864.0.0.66a32dd56ItWnb
    
    [root@zabbix-server ~]#mv 'zabbix-java-gateway-6.0.7-1.el8.x86_64.rpm?spm=a2c6h.25603864.0.0.66a32dd56ItWnb'  zabbix-java-gateway-6.0.7-1.el8.x86_64.rpm
    
    [root@zabbix-server ~]#yum install -y zabbix-java-gateway-6.0.7-1.el8.x86_64.rpm
    
    #配置java-gateway
    [root@zabbix-server ~]#grep "^[^#]" /etc/zabbix/zabbix_java_gateway.conf
    LISTEN_IP="0.0.0.0"
    LISTEN_PORT=10052
    PID_FILE="/var/run/zabbix/zabbix_java_gateway.pid"
    START_POLLERS=50
    TIMEOUT=30
    
    [root@zabbix-server ~]#systemctl restart zabbix-java-gateway
    [root@zabbix-server ~]#systemctl enable zabbix-java-gateway
    
    #13.在10.0.0.160上安装tomcat并配置
    #tomcat安装脚本请见上一次作业
    [root@tomcat ~]#bash tomcat8.5.sh 
    java version "1.8.0_212"
    Java(TM) SE Runtime Environment (build 1.8.0_212-b10)
    Java HotSpot(TM) 64-Bit Server VM (build 25.212-b10, mixed mode)
    JDK 安装完成                                               [  OK  ]
    Created symlink /etc/systemd/system/multi-user.target.wants/tomcat.service → /usr/lib/systemd/system/tomcat.service.
    TOMCAT 安装完成                                            [  OK  ]
    
    #验证
    [root@tomcat ~]#echo "`hostname`" > /usr/local/tomcat/webapps/ROOT/index.html
    [root@tomcat ~]#curl localhost:8080
    tomcat
    
    #14.配置zabbix-server调用java-gateway
    [root@zabbix-server ~]#vim /etc/zabbix/zabbix_server.conf
    JavaGateway=10.0.0.150
    JavaGatewayPort=10052
    StartJavaPollers=20
    [root@zabbix-server ~]#systemctl restart zabbix-server
    
    #验证java pollers
    [root@zabbix-server ~]#ps -ef |grep java
    zabbix      2584       1  0 20:21 ?        00:00:00 java -server -Dlogback.configurationFile=/etc/zabbix/zabbix_java_gateway_logback.xml -classpath lib:lib/android-json-4.3_r3.1.jar:lib/logback-classic-1.2.9.jar:lib/logback-core-1.2.9.jar:lib/slf4j-api-1.7.32.jar:bin/zabbix-java-gateway-6.0.7.jar -Dzabbix.pidFile=/var/run/zabbix/zabbix_java_gateway.pid -Dzabbix.listenIP=0.0.0.0 -Dzabbix.listenPort=10052 -Dzabbix.startPollers=50 -Dzabbix.timeout=30 -Dsun.rmi.transport.tcp.responseTimeout=30000 com.zabbix.gateway.JavaGateway
    root        2906    2880  0 20:30 ?        00:00:00 /usr/sbin/zabbix_server: java poller #1 [got 0 values in 0.000947 sec, idle 5 sec]
    root        2907    2880  0 20:30 ?        00:00:00 /usr/sbin/zabbix_server: java poller #2 [got 0 values in 0.000094 sec, idle 5 sec]
    root        2908    2880  0 20:30 ?        00:00:00 /usr/sbin/zabbix_server: java poller #3 [got 0 values in 0.001338 sec, idle 5 sec]
    root        2909    2880  0 20:30 ?        00:00:00 /usr/sbin/zabbix_server: java poller #4 [got 0 values in 0.000179 sec, idle 5 sec]
    root        2910    2880  0 20:30 ?        00:00:00 /usr/sbin/zabbix_server: java poller #5 [got 0 values in 0.000527 sec, idle 5 sec]
    root        2911    2880  0 20:30 ?        00:00:00 /usr/sbin/zabbix_server: java poller #6 [got 0 values in 0.000345 sec, idle 5 sec]
    root        2912    2880  0 20:30 ?        00:00:00 /usr/sbin/zabbix_server: java poller #7 [got 0 values in 0.000882 sec, idle 5 sec]
    
    #15.tomcat开启JMX监控
    #解释
    CATALINA_OPTS="$CATALINA_OPTS
    -Dcom.sun.management.jmxremote  #启用远程监控JMX
    -Dcom.sun.management.jmxremote.port=12345   #默认启动的JMX端口号,要和zabbix添加主机时候的端口一致即可
    -Dcom.sun.management.jmxremote.authenticate=false  #不使用用户名密码
    -Dcom.sun.management.jmxremote.ssl=false  #不使用ssl认证
    -Djava.rmi.server.hostname=192.168.0.22" #tomcat主机的ip
    
    #添加以下配置
    [root@tomcat ~]#vim /usr/local/tomcat/bin/catalina.sh
    CATALINA_OPTS="$CATALINA_OPTS -Dcom.sun.management.jmxremote -Dcom.sun.management.jmxremote.port=12345 -Dcom.sun.management.jmxremote.authenticate=false -Dcom.sun.management.jmxremote.ssl=false -Djava.rmi.server.hostname=10.0.0.160" 
    
    #重启tomcat服务
    [root@tomcat ~]#systemctl restart tomcat
    
    #16.添加主机,添加jmx接口
    

    验证JMX接口变绿

    等一会就有监控数据了

  • 相关阅读:
    Linux中增加组和用户
    Storm重启topology,失败
    ES读写数据的工作原理
    Hive优化
    Flink提交流程和架构
    Flink中的Time与Window
    linux 中文件夹的文件按照时间倒序或者升序排列
    ElasticSearch之配置文件详解
    redis中的设置bind绑定ip不是设置白名单
    YARN调度架构中的AppMaster
  • 原文地址:https://www.cnblogs.com/tanll/p/16637383.html
Copyright © 2020-2023  润新知