• Java线程池使用说明


    一 简单介绍

    线程的使用在java中占有极其重要的地位,在jdk1.4极其之前的jdk版本号中,关于线程池的使用是极其简陋的。在jdk1.5之后这一情况有了非常大的改观。Jdk1.5之后添�了java.util.concurrent包,这个包中主要介绍java中线程以及线程池的使用。为我们在开发中处理线程的问题提供了非常大的帮助。

    二:线程池

    线程池的作用:

    线程池作用就是限制系统中运行线程的数量。
         依据系统的环境情况,能够自己主动或手动设置线程数量,达到执行的最佳效果;少了浪费了系统资源,多了造成系统拥挤效率不高。用线程池控制线程数量,其它线程排队等候。一个任务执行完成,再从队列的中取最前面的任务開始执行。若队列中没有等待进程,线程池的这一资源处于等待。当一个新任务须要执行时,假设线程池中有等待的工作线程,就能够開始执行了;否则进入等待队列。

    为什么要用线程池:

    1.降低了创建和销毁线程的次数,每一个工作线程都能够被反复利用,可运行多个任务。

    2.能够依据系统的承受能力,调整线程池中工作线线程的数目,防止由于消耗过多的内存,而把server累趴下(每一个线程须要大约1MB内存,线程开的越多,消耗的内存也就越大,最后死机)。

    Java里面线程池的顶级接口是Executor,可是严格意义上讲Executor并非一个线程池,而仅仅是一个运行线程的工具。真正的线程池接口是ExecutorService

    比較重要的几个类:

    ExecutorService

    真正的线程池接口。

    ScheduledExecutorService

    能和Timer/TimerTask类似,解决那些须要任务反复运行的问题。

    ThreadPoolExecutor

    ExecutorService的默认实现。

    ScheduledThreadPoolExecutor

    继承ThreadPoolExecutorScheduledExecutorService接口实现,周期性任务调度的类实现。

    要配置一个线程池是比較复杂的,尤其是对于线程池的原理不是非常清楚的情况下,非常有可能配置的线程池不是较优的,因此在Executors类里面提供了一些静态工厂,生成一些经常使用的线程池。

    1. newSingleThreadExecutor

    创建一个单线程的线程池。这个线程池仅仅有一个线程在工作,也就是相当于单线程串行运行全部任务。假设这个唯一的线程由于异常结束,那么会有一个新的线程来替代它。此线程池保证全部任务的运行顺序依照任务的提交顺序运行。

    2. newFixedThreadPool

    创建固定大小的线程池。每次提交一个任务就创建一个线程,直到线程达到线程池的最大大小。线程池的大小一旦达到最大值就会保持不变,假设某个线程由于运行异常而结束,那么线程池会补充一个新线程。

    3. newCachedThreadPool

    创建一个可缓存的线程池。假设线程池的大小超过了处理任务所须要的线程,

    那么就会回收部分空暇(60秒不运行任务)的线程,当任务数添加�时,此线程池又可以智能的加入�新线程来处理任务。此线程池不会对线程池大小做限制,线程池大小全然依赖于操作系统(或者说JVM)可以创建的最大线程大小。

    4. newScheduledThreadPool

    创建一个大小无限的线程池。此线程池支持定时以及周期性运行任务的需求。

    实例

    1newSingleThreadExecutor

    MyThread.java

    public class MyThread extends Thread {

         @Override

         public void run() {

             System.out.println(Thread.currentThread().getName() + "正在运行。。。");

         }

    }

    TestSingleThreadExecutor.java

    public class TestSingleThreadExecutor {

         public static void main(String[] args) {

             // 创建一个可重用固定线程数的线程池

             ExecutorService pool = Executors. newSingleThreadExecutor();

             // 创建实现了Runnable接口对象,Thread对象当然也实现了Runnable接口

             Thread t1 = new MyThread();

             Thread t2 = new MyThread();

             Thread t3 = new MyThread();

             Thread t4 = new MyThread();

             Thread t5 = new MyThread();

             // 将线程放入池中进行运行

             pool.execute(t1);

             pool.execute(t2);

             pool.execute(t3);

             pool.execute(t4);

             pool.execute(t5);

             // 关闭线程池

             pool.shutdown();

         }

    }

    输出结果

    pool-1-thread-1正在运行。。。

    pool-1-thread-1正在运行。。。

    pool-1-thread-1正在运行。。。

    pool-1-thread-1正在运行。。。

    pool-1-thread-1正在运行。。。

    2 newFixedThreadPool

    TestFixedThreadPool.Java

    public class TestFixedThreadPool {

         public static void main(String[] args) {

             // 创建一个可重用固定线程数的线程池

             ExecutorService pool = Executors.newFixedThreadPool(2);

             // 创建实现了Runnable接口对象,Thread对象当然也实现了Runnable接口

             Thread t1 = new MyThread();

             Thread t2 = new MyThread();

             Thread t3 = new MyThread();

             Thread t4 = new MyThread();

             Thread t5 = new MyThread();

             // 将线程放入池中进行运行

             pool.execute(t1);

             pool.execute(t2);

             pool.execute(t3);

             pool.execute(t4);

             pool.execute(t5);

             // 关闭线程池

             pool.shutdown();

         }

    }

    输出结果

    pool-1-thread-1正在运行。。。

    pool-1-thread-2正在运行。。。

    pool-1-thread-1正在运行。。。

    pool-1-thread-2正在运行。。。

    pool-1-thread-1正在运行。。。

    3 newCachedThreadPool

    TestCachedThreadPool.java

    public class TestCachedThreadPool {

         public static void main(String[] args) {

             // 创建一个可重用固定线程数的线程池

             ExecutorService pool = Executors.newCachedThreadPool();

             // 创建实现了Runnable接口对象,Thread对象当然也实现了Runnable接口

             Thread t1 = new MyThread();

             Thread t2 = new MyThread();

             Thread t3 = new MyThread();

             Thread t4 = new MyThread();

             Thread t5 = new MyThread();

             // 将线程放入池中进行运行

             pool.execute(t1);

             pool.execute(t2);

             pool.execute(t3);

             pool.execute(t4);

             pool.execute(t5);

             // 关闭线程池

             pool.shutdown();

         }

    }

    输出结果:

    pool-1-thread-2正在运行。。。

    pool-1-thread-4正在运行。。。

    pool-1-thread-3正在运行。。。

    pool-1-thread-1正在运行。。。

    pool-1-thread-5正在运行。。。

    newScheduledThreadPool

    TestScheduledThreadPoolExecutor.java

    public class TestScheduledThreadPoolExecutor {

         public static void main(String[] args) {

             ScheduledThreadPoolExecutor exec = new ScheduledThreadPoolExecutor(1);

             exec.scheduleAtFixedRate(new Runnable() {// 每隔一段时间就触发异常

                           @Override

                           public void run() {

                                //throw new RuntimeException();

                                System.out.println("================");

                           }

                       }, 1000, 5000, TimeUnit.MILLISECONDS);

             exec.scheduleAtFixedRate(new Runnable() {// 每隔一段时间打印系统时间,证明两者是互不影响的

                           @Override

                           public void run() {

                                System.out.println(System.nanoTime());

                           }

                       }, 1000, 2000, TimeUnit.MILLISECONDS);

         }

    }

    输出结果

    ================

    8384644549516

    8386643829034

    8388643830710

    ================

    8390643851383

    8392643879319

    8400643939383

    三:ThreadPoolExecutor具体解释

    ThreadPoolExecutor的完整构造方法的签名是:ThreadPoolExecutor(int corePoolSize, int maximumPoolSize, long keepAliveTime, TimeUnit unit, BlockingQueue<Runnable> workQueue, ThreadFactory threadFactory, RejectedExecutionHandler handler) .

    corePoolSize - 池中所保存的线程数,包含空暇线程。

    maximumPoolSize - 池中同意的最大线程数。

    keepAliveTime - 当线程数大于核心时,此为终止前多余的空暇线程等待新任务的最长时间。

    unit - keepAliveTime 參数的时间单位。

    workQueue - 运行前用于保持任务的队列。此队列仅保持由 execute 方法提交的 Runnable 任务。

    threadFactory - 运行程序创建新线程时使用的工厂。

    handler - 因为超出线程范围和队列容量而使运行被堵塞时所使用的处理程序。

    ThreadPoolExecutor是Executors类的底层实现。

    JDK帮助文档中,有如此一段话:

    强烈建议程序猿使用较为方便的 Executors 工厂方法 Executors.newCachedThreadPool()(无界线程池,能够进行自己主动线程回收)、Executors.newFixedThreadPool(int)(固定大小线程池)Executors.newSingleThreadExecutor()(单个后台线程)

    它们均为大多数使用场景提前定义了设置。

    以下介绍一下几个类的源代码:

    ExecutorService   newFixedThreadPool (int nThreads):固定大小线程池。

    能够看到,corePoolSize和maximumPoolSize的大小是一样的(实际上,后面会介绍,假设使用无界queue的话maximumPoolSize參数是没有意义的),keepAliveTime和unit的设值表名什么?-就是该实现不想keep alive!最后的BlockingQueue选择了LinkedBlockingQueue,queue有一个特点,他是无界的。

    1.   public static ExecutorService newFixedThreadPool(int nThreads) {   

    2.           return new ThreadPoolExecutor(nThreads, nThreads,   

    3.                                         0L, TimeUnit.MILLISECONDS,   

    4.                                         new LinkedBlockingQueue<Runnable>());   

    5.       }

    ExecutorService   newSingleThreadExecutor():单线程

    1.   public static ExecutorService newSingleThreadExecutor() {   

    2.           return new FinalizableDelegatedExecutorService   

    3.               (new ThreadPoolExecutor(11,   

    4.                                       0L, TimeUnit.MILLISECONDS,   

    5.                                       new LinkedBlockingQueue<Runnable>()));   

    6.       }

    ExecutorService newCachedThreadPool():无界线程池,能够进行自己主动线程回收

    这个实现就有意思了。首先是无界的线程池,所以我们能够发现maximumPoolSizebig big。其次BlockingQueue的选择上使用SynchronousQueue。可能对于该BlockingQueue有些陌生,简单说:该QUEUE中,每一个插入操作必须等待还有一个线程的相应移除操作。

    1.   public static ExecutorService newCachedThreadPool() {   

    2.           return new ThreadPoolExecutor(0, Integer.MAX_VALUE,   

    3.                                         60L, TimeUnit.SECONDS,   

    4.                                         new SynchronousQueue<Runnable>());   

    1.     }

    先从BlockingQueue<Runnable> workQueue这个入參開始说起。在JDK中,事实上已经说得非常清楚了,一共同拥有三种类型的queue

    全部 BlockingQueue 都可用于传输和保持提交的任务。能够使用此队列与池大小进行交互:

    假设执行的线程少于 corePoolSize,则 Executor 始终首选加入�新的线程,而不进行排队。(假设当前执行的线程小于corePoolSize,则任务根本不会存放,加入�到queue中,而是直接抄家伙(thread)開始执行

    假设执行的线程等于或多于 corePoolSize,则 Executor 始终首选将请求加入队列而不加入�新的线程

    假设无法将请求添�队列,则创建新的线程,除非创建此线程超出 maximumPoolSize,在这样的情况下,任务将被拒绝。

    queue上的三种类型。

    排队有三种通用策略:

    直接提交。工作队列的默认选项是 SynchronousQueue,它将任务直接提交给线程而不保持它们。在此,假设不存在可用于马上执行任务的线程,则试图把任务添�队列将失败,因此会构造一个新的线程。此策略能够避免在处理可能具有内部依赖性的请求集时出现锁。直接提交通常要求无界 maximumPoolSizes 以避免拒绝新提交的任务。当命令以超过队列所能处理的平均数连续到达时,此策略同意无界线程具有增长的可能性。

    无界队列。使用无界队列(比如,不具有提前定义容量的 LinkedBlockingQueue)将导致在全部 corePoolSize 线程都忙时新任务在队列中等待。这样,创建的线程就不会超过 corePoolSize。(因此,maximumPoolSize 的值也就无效了。)当每一个任务全然独立于其它任务,即任务运行互不影响时,适合于使用无界队列;比如,在 Web 页server中。这样的排队可用于处理瞬态突发请求,当命令以超过队列所能处理的平均数连续到达时,此策略同意无界线程具有增长的可能性。

    有界队列。当使用有限的 maximumPoolSizes 时,有界队列(如 ArrayBlockingQueue)有助于防止资源耗尽,可是可能较难调整和控制。队列大小和最大池大小可能须要相互折衷:使用大型队列和小型池能够最大限度地减少 CPU 使用率、操作系统资源和上下文切换开销,可是可能导致人工减少吞吐量。假设任务频繁堵塞(比如,假设它们是 I/O 边界),则系统可能为超过您许可的很多其它线程安排时间。使用小型队列通常要求较大的池大小,CPU 使用率较高,可是可能遇到不可接受的调度开销,这样也会减少吞吐量。  

    BlockingQueue的选择。

    样例一:使用直接提交策略,也即SynchronousQueue。

    首先SynchronousQueue是无界的,也就是说他存数任务的能力是没有限制的,可是因为该Queue本身的特性,在某次加入�元素后必须等待其它线程取走后才干继续加入�。在这里不是核心线程便是新创建的线程,可是我们试想一样下,以下的场景。

    我们使用一下參数构造ThreadPoolExecutor:

    1.   new ThreadPoolExecutor(   

    2.               2330, TimeUnit.SECONDS,    

    3.               new  SynchronousQueue<Runnable>(),    

    4.               new RecorderThreadFactory("CookieRecorderPool"),    

    1.             new ThreadPoolExecutor.CallerRunsPolicy());  

    new ThreadPoolExecutor(

       2, 3, 30, TimeUnit.SECONDS,

       new SynchronousQueue<Runnable>(),

       new RecorderThreadFactory("CookieRecorderPool"),

       new ThreadPoolExecutor.CallerRunsPolicy());

     当核心线程已经有2个正在执行.

    1. 此时继续来了一个任务(A),依据前面介绍的“假设执行的线程等于或多于 corePoolSize,则 Executor 始终首选将请求添�队列而不增�新的线程。”,所以A被增�到queue中。
    2. 又来了一个任务(B),且核心2个线程还没有忙完,OK,接下来首先尝试1中描写叙述,可是因为使用的SynchronousQueue,所以一定无法添�进去。
    3. 此时便满足了上面提到的“假设无法将请求添�队列,则创建新的线程,除非创建此线程超出maximumPoolSize,在这样的情况下,任务将被拒绝。”,所以必定会新建一个线程来执行这个任务。
    4. 临时还能够,可是假设这三个任务都还没完毕,连续来了两个任务,第一个添添�queue中,后一个呢?queue中无法插入,而线程数达到了maximumPoolSize,所以仅仅好执行异常策略了。

    所以在使用SynchronousQueue通常要求maximumPoolSize是无界的,这样就能够避免上述情况发生(假设希望限制就直接使用有界队列)。对于使用SynchronousQueue的作用jdk中写的非常清楚:此策略能够避免在处理可能具有内部依赖性的请求集时出现锁

    什么意思?假设你的任务A1,A2有内部关联,A1须要先运行,那么先提交A1,再提交A2,当使用SynchronousQueue我们能够保证,A1必然先被运行,在A1么有被运行前,A2不可能加入�入queue中。

    样例二:使用无界队列策略,即LinkedBlockingQueue

    这个就拿newFixedThreadPool来说,依据前文提到的规则:

    假设执行的线程少于 corePoolSize,则 Executor 始终首选加入�新的线程,而不进行排队。那么当任务继续添加�,会发生什么呢?

    假设执行的线程等于或多于 corePoolSize,则 Executor 始终首选将请求加入队列,而不加入�新的线程。OK,此时任务变加入队列之中了,那什么时候才会加入�新线程呢?

    假设无法将请求添�队列,则创建新的线程,除非创建此线程超出 maximumPoolSize,在这样的情况下,任务将被拒绝。这里就非常有意思了,可能会出现无法添�队列吗?不像SynchronousQueue那样有其自身的特点,对于无界队列来说,总是能够添�的(资源耗尽,当然另当别论)。换句说,永远也不会触发产生新的线程!corePoolSize大小的线程数会一直执行,忙完当前的,就从队列中拿任务開始执行。所以要防止任务疯长,比方任务执行的实行比較长,而添加任务的速度远远超过处理任务的时间,并且还不断添加�,不一会儿就爆了。

    样例三:有界队列,使用ArrayBlockingQueue。

    这个是最为复杂的使用,所以JDK不推荐使用也有些道理。与上面的相比,最大的特点便是能够防止资源耗尽的情况发生。

    举例来说,请看例如以下构造方法:

    1.   new ThreadPoolExecutor(   

    2.               2430, TimeUnit.SECONDS,    

    3.               new ArrayBlockingQueue<Runnable>(2),    

    4.               new RecorderThreadFactory("CookieRecorderPool"),    

    5.               new ThreadPoolExecutor.CallerRunsPolicy());  

    new ThreadPoolExecutor(

         2, 4, 30, TimeUnit.SECONDS,

         new ArrayBlockingQueue<Runnable>(2),

         new RecorderThreadFactory("CookieRecorderPool"),

         new ThreadPoolExecutor.CallerRunsPolicy());

    如果,全部的任务都永远无法运行完。

    对于首先来的A,B来说直接执行,接下来,假设来了C,D,他们会被放到queue中,假设接下来再来E,F,则添加�线程执行E,F。可是假设再来任务,队列无法再接受了,线程数也到达最大的限制了,所以就会使用拒绝策略来处理。

    keepAliveTime

    jdk中的解释是:当线程数大于核心时,此为终止前多余的空暇线程等待新任务的最长时间。

    有点拗口,事实上这个不难理解,在使用了“池”的应用中,大多都有类似的參数须要配置。比方数据库连接池,DBCP中的maxIdle,minIdle參数。

    什么意思?接着上面的解释,后来向老板派来的工人始终是“借来的”,俗话说“有借就有还”,但这里的问题就是什么时候还了,假设借来的工人刚完毕一个任务就还回去,后来发现任务还有,那岂不是又要去借?这一来一往,老板肯定头也大死了。

    合理的策略:既然借了,那就多借一会儿。直到“某一段”时间后,发现再也用不到这些工人时,便能够还回去了。这里的某一段时间便是keepAliveTime的含义,TimeUnit为keepAliveTime值的度量。

    RejectedExecutionHandler

    还有一种情况便是,即使向老板借了工人,可是任务还是继续过来,还是忙只是来,这时整个队伍仅仅好拒绝接受了。

    RejectedExecutionHandler接口提供了对于拒绝任务的处理的自定方法的机会。在ThreadPoolExecutor中已经默认包括了4中策略,由于源代码很easy,这里直接贴出来。

    CallerRunsPolicy:线程调用执行该任务的 execute 本身。此策略提供简单的反馈控制机制,可以减缓新任务的提交速度。

    1.   public void rejectedExecution(Runnable r, ThreadPoolExecutor e) {   

    2.               if (!e.isShutdown()) {   

    3.                   r.run();   

    4.               }   

    5.           }  

    public void rejectedExecution(Runnable r, ThreadPoolExecutor e) {

                if (!e.isShutdown()) {

                    r.run();

                }

            }

    这个策略显然不想放弃运行任务。可是因为池中已经没有不论什么资源了,那么就直接使用调用该execute的线程本身来运行。

    AbortPolicy:处理程序遭到拒绝将抛出执行时 RejectedExecutionException

    1.   public void rejectedExecution(Runnable r, ThreadPoolExecutor e) {   

    2.               throw new RejectedExecutionException();   

    3.           }  

    public void rejectedExecution(Runnable r, ThreadPoolExecutor e) {

                throw new RejectedExecutionException();

            }

     这样的策略直接抛出异常,丢弃任务。

    DiscardPolicy:不能运行的任务将被删除

    1.   public void rejectedExecution(Runnable r, ThreadPoolExecutor e) {   

    2.           }  

    public void rejectedExecution(Runnable r, ThreadPoolExecutor e) {

            }

     这样的策略和AbortPolicy差点儿一样,也是丢弃任务,仅仅只是他不抛出异常。

    DiscardOldestPolicy:假设运行程序尚未关闭,则位于工作队列头部的任务将被删除,然后重试运行程序(假设再次失败,则反复此过程)

    1.   public void rejectedExecution(Runnable r, ThreadPoolExecutor e) {   

    2.               if (!e.isShutdown()) {   

    3.                   e.getQueue().poll();   

    4.                   e.execute(r);   

    5.               }   

    1.         }  

    public void rejectedExecution(Runnable r, ThreadPoolExecutor e) {

                if (!e.isShutdown()) {

                    e.getQueue().poll();

                    e.execute(r);

                }

            }

    该策略就略微复杂一些,在pool没有关闭的前提下首先丢掉缓存在队列中的最早的任务,然后又一次尝试执行该任务。这个策略须要适当小心。

    设想:假设其它线程都还在执行,那么新来任务踢掉旧任务,缓存在queue中,再来一个任务又会踢掉queue中最老任务。

    总结:

    keepAliveTime和maximumPoolSize及BlockingQueue的类型均有关系。假设BlockingQueue是无界的,那么永远不会触发maximumPoolSize,自然keepAliveTime也就没有了意义。

    反之,假设核心数较小,有界BlockingQueue数值又较小,同一时候keepAliveTime又设的非常小,假设任务频繁,那么系统就会频繁的申请回收线程。

    public static ExecutorService newFixedThreadPool(int nThreads) {

            return new ThreadPoolExecutor(nThreads, nThreads,

                                          0L, TimeUnit.MILLISECONDS,

                                          new LinkedBlockingQueue<Runnable>());

        }

  • 相关阅读:
    Struts2
    struts2默认配置文件 struts-default.xml
    Servlet、Filter、Listener、Interceptor
    web.xml 中的listener、 filter、servlet 加载顺序及其详解
    configure Git to accept a particular self-signed server certificate for a particular https remote
    并发 并行 同步 异步 多线程的区别
    Redis的数据类型及使用场景
    弱校验之@NotNull@NotEmpty@NotBlank
    常用sql语句整理
    git提交限制后提交出错的暴力解决 (使用小乌龟)
  • 原文地址:https://www.cnblogs.com/yxwkf/p/3912284.html
Copyright © 2020-2023  润新知