Java线程池

本文大部分内容转自http://www.cnblogs.com/yydcdut/p/3890893.html

1.Java线程池基本原理

线程池基本原理是:系统先启动若干数量的线程。并让这些线程处于睡眠状态。当有新任务时,就会唤醒线程池中的某一个睡眠线程,让它来处理这个任务。当处理完这个任务后,线程又处于睡眠状态。

Java 中,线程池的主要组成部分是工作者线程。这样的类型的线程独立于它运行的Runnable和Callable任务存在,而且经经常使用于运行多个任务。

工作者线程和普通线程不同之处在于run方法的不同。

普通线程在完毕线程应该运行的代码后,自然退出,线程结束,Java虚拟机回收分配给线程的资源。线程对象被垃圾回收期收回。而构成线程池的工作者线程是可重用线程,它的run方法运行完某一任务的特定代码后,使自己进入睡眠状态而不是结束线程。

2.线程池的作用

线程池作用就是限制系统中运行线程的数量。
依据系统的环境情况,能够自己主动或手动设置线程数量,达到执行的最佳效果;少了浪费了系统资源,多了造成系统拥挤效率不高。用线程池控制线程数量,其它线程排队等候。一个任务执行完成,再从队列的中取最前面的任务開始执行。若队列中没有等待进程,线程池的这一资源处于等待。当一个新任务须要执行时,假设线程池中有等待的工作线程,就能够開始执行了。否则进入等待队列。

3.为什么要用线程

①降低了创建和销毁线程的次数,每一个工作线程都能够被反复利用。可运行多个任务。
②能够依据系统的承受能力,调整线程池中工作线线程的数目。防止由于消耗过多的内存,而把server累趴下(每一个线程须要大约1MB内存,线程开的越多。消耗的内存也就越大,最后死机)。

4.Concurrent包中几个重要的类

Java里面线程池的顶级接口是Executor,可是严格意义上讲Executor并非一个线程池。而仅仅是一个运行线程的工具。真正的线程池接口是ExecutorService。

比較重要的几个类:

ExecutorService 真正的线程池接口
ScheduledExecutorService 和Timer/TimerTask类似,解决那些须要任务反复运行的问题
ThreadPoolExecutor ExecutorService的默认实现
ScheduledThreadPoolExecutor 继承ThreadPoolExecutor的ScheduledExecutorService接口实现,周期性任务调度的类实现
类之间的框架图


ThreadPoolExecutor具体解释

hreadPoolExecutor的完整构造方法的签名是:
ThreadPoolExecutor(int corePoolSize, int maximumPoolSize, long keepAliveTime, TimeUnit unit, BlockingQueue<Runnable> workQueue, ThreadFactory threadFactory, RejectedExecutionHandler handler) .
參数解释:

corePoolSize - 池中所保存的线程数。包含空暇线程。


maximumPoolSize-池中同意的最大线程数。
keepAliveTime - 当线程数大于核心时。此为终止前多余的空暇线程等待新任务的最长时间。


unit - keepAliveTime 參数的时间单位。
workQueue - 运行前用于保持任务的队列。

此队列仅保持由 execute方法提交的 Runnable任务。
threadFactory - 运行程序创建新线程时使用的工厂。


handler - 因为超出线程范围和队列容量而使运行被堵塞时所使用的处理程序。
ThreadPoolExecutor是Executors类的底层实现。


在JDK帮助文档中,有如此一段话:
强烈建议程序猿使用较为方便的Executors工厂方法Executors.newCachedThreadPool()(无界线程池,能够进行自己主动线程回收)、Executors.newFixedThreadPool(int)(固定大小线程池)Executors.newSingleThreadExecutor()(单个后台线程),它们均为大多数使用场景提前定义了设置。”

以下介绍几个类的源代码:

ExecutorService newFixedThreadPool (int nThreads):固定大小线程池

public static ExecutorService newFixedThreadPool(int nThreads) {   
             return new ThreadPoolExecutor(nThreads, nThreads,    0L, TimeUnit.MILLISECONDS, new LinkedBlockingQueue<Runnable>());   
         }

能够看到。corePoolSize和maximumPoolSize的大小是一样的(实际上,后面会介绍。假设使用无界queue的话maximumPoolSize參数是没有意义的),keepAliveTime和unit的设值表名什么?——就是该实现不想keep alive。最后的BlockingQueue选择了LinkedBlockingQueue,该LinkedBlockingQueue有一个特点,它是无界的

ExecutorService newSingleThreadExecutor():单线程

public static ExecutorService newSingleThreadExecutor() {   
            return new FinalizableDelegatedExecutorService   
               (new ThreadPoolExecutor(1, 1, 0L, TimeUnit.MILLISECONDS,   
                     new LinkedBlockingQueue<Runnable>()));   
        }

ExecutorService newCachedThreadPool():无界线程池,能够进行自己主动线程回收

public static ExecutorService newCachedThreadPool() {   
        return new ThreadPoolExecutor(0, Integer.MAX_VALUE,   60L, TimeUnit.SECONDS,   
               new SynchronousQueue<Runnable>());   
    }
首先是无界的线程池,所以我们能够发现maximumPoolSize为Integer.MAX_VALUE。

其次BlockingQueue的选择上使用SynchronousQueue。可能对于该BlockingQueue有些陌生,简单说:该BlockingQueue中。每一个插入操作必须等待还有一个线程的相应移除操作。


先从BlockingQueue<Runnable> workQueue这个入參開始说起。

在JDK中,事实上已经说得非常清楚了,一共同拥有三种类型的queue。
全部BlockingQueue 都可用于传输和保持提交的任务。

能够使用此队列与池大小进行交互:
假设执行的线程少于 corePoolSize,则 Executor始终首选加入新的线程,而不进行排队。(假设当前执行的线程小于corePoolSize。则任务根本不会存放,加入到queue中,而是直接抄家伙(thread)開始执行)
假设执行的线程等于或多于 corePoolSize,则 Executor始终首选将请求加入队列,而不加入新的线程
假设无法将请求增加队列,则创建新的线程。除非创建此线程超出 maximumPoolSize,在这样的情况下。任务将被拒绝。

queue的三种类型

排队有三种通用策略:
直接提交
工作队列的默认选项是 SynchronousQueue,它将任务直接提交给线程而不保持它们。

在此,假设不存在可用于马上执行任务的线程,则试图把任务增加队列将失败。因此会构造一个新的线程。

此策略能够避免在处理可能具有内部依赖性的请求集时出现锁。

直接提交通常要求无界maximumPoolSizes 以避免拒绝新提交的任务。

当命令以超过队列所能处理的平均数连续到达时。此策略同意无界线程具有增长的可能性。


无界队列
使用无界队列(比如,不具有提前定义容量的 LinkedBlockingQueue)将导致在全部 corePoolSize 线程都忙时新任务在队列中等待。这样,创建的线程就不会超过 corePoolSize。

(因此。maximumPoolSize的值也就无效了。

)当每一个任务全然独立于其它任务。即任务运行互不影响时。适合于使用无界队列。比如。在 Web页server中。这样的排队可用于处理瞬态突发请求,当命令以超过队列所能处理的平均数连续到达时,此策略同意无界线程具有增长的可能性。


有界队列
当使用有限的 maximumPoolSizes时。有界队列(如 ArrayBlockingQueue)有助于防止资源耗尽,可是可能较难调整和控制。队列大小和最大池大小可能须要相互折衷:使用大型队列和小型池能够最大限度地减少 CPU 使用率、操作系统资源和上下文切换开销。可是可能导致人工减少吞吐量。假设任务频繁堵塞(比如。假设它们是 I/O边界)。则系统可能为超过您许可的很多其它线程安排时间。

使用小型队列通常要求较大的池大小,CPU使用率较高,可是可能遇到不可接受的调度开销,这样也会减少吞吐量。

BlockingQueue的选择 

①使用直接提交策略,也即SynchronousQueue
首先SynchronousQueue是无界的。也就是说他存数任务的能力是没有限制的。可是因为该Queue本身的特性,在某次加入元素后必须等待其它线程取走后才干继续加入。在这里不是核心线程便是新创建的线程,可是我们试想一样下。以下的场景。
我们使用一下參数构造ThreadPoolExecutor:

new ThreadPoolExecutor(   
                 2, 3, 30, TimeUnit.SECONDS,    
                 new  SynchronousQueue<Runnable>(),    
                new RecorderThreadFactory("CookieRecorderPool"),    
            new ThreadPoolExecutor.CallerRunsPolicy());
当核心线程已经有2个正在执行.
1、此时继续来了一个任务(A),依据前面介绍的“假设执行的线程等于或多于 corePoolSize,则 Executor始终首选将请求加入队列。而不加入新的线程。”,所以A被加入到queue中。
2、又来了一个任务(B),且核心2个线程还没有忙完。OK,接下来首先尝试1中描写叙述,可是因为使用的SynchronousQueue,所以一定无法增加进去。


3、此时便满足了上面提到的“假设无法将请求增加队列,则创建新的线程。除非创建此线程超出maximumPoolSize,在这样的情况下,任务将被拒绝。”。所以必定会新建一个线程来执行这个任务。
4、临时还能够,可是假设这三个任务都还没完毕。连续来了两个任务,第一个加入入queue中,后一个呢?queue中无法插入,而线程数达到了maximumPoolSize。所以仅仅好运行异常策略了。


所以在使用SynchronousQueue通常要求maximumPoolSize是无界的,这样就能够避免上述情况发生(假设希望限制就直接使用有界队列)。

对于使用SynchronousQueue的作用jdk中写的非常清楚:此策略能够避免在处理可能具有内部依赖性的请求集时出现锁。
什么意思?假设你的任务A1。A2有内部关联。A1须要先运行,那么先提交A1。再提交A2,当使用SynchronousQueue我们能够保证,A1必然先被运行,在A1么有被运行前,A2不可能加入入queue中。

②使用无界队列策略。即LinkedBlockingQueue
这个是最为复杂的使用。所以JDK不推荐使用也有些道理。与上面的相比,最大的特点便是能够防止资源耗尽的情况发生。
举例来说。请看例如以下构造方法:

new ThreadPoolExecutor(
    2, 4, 30, TimeUnit.SECONDS,
    new ArrayBlockingQueue<Runnable>(2),
    new RecorderThreadFactory("CookieRecorderPool"),
    new ThreadPoolExecutor.CallerRunsPolicy());
如果。全部的任务都永远无法运行完。
对于首先来的A,B来说直接执行。接下来,假设来了C,D。他们会被放到queue中,假设接下来再来E,F,则添加线程执行E,F。可是假设再来任务,队列无法再接受了,线程数也到达最大的限制了。所以就会使用拒绝策略来处理。

keepAliveTime

jdk中的解释是:当线程数大于核心时。此为终止前多余的空暇线程等待新任务的最长时间。
有点拗口,事实上这个不难理解,在使用了“池”的应用中,大多都有类似的參数须要配置。比方数据库连接池,DBCP中的maxIdle。minIdle參数。
什么意思?接着上面的解释。后来向老板派来的工人始终是“借来的”。俗话说“有借就有还”,但这里的问题就是什么时候还了。假设借来的工人刚完毕一个任务就还回去,后来发现任务还有,那岂不是又要去借?这一来一往。老板肯定头也大死了。


合理的策略:既然借了。那就多借一会儿。直到“某一段”时间后,发现再也用不到这些工人时。便能够还回去了。

这里的某一段时间便是keepAliveTime的含义,TimeUnit为keepAliveTime值的度量。


RejectedExecutionHandler

还有一种情况便是。即使向老板借了工人,可是任务还是继续过来。还是忙只是来,这时整个队伍仅仅好拒绝接受了。
RejectedExecutionHandler接口提供了对于拒绝任务的处理的自定方法的机会。在ThreadPoolExecutor中已经默认包括了4中策略,由于源代码很easy,这里直接贴出来。

CallerRunsPolicy:线程调用执行该任务的 execute 本身。此策略提供简单的反馈控制机制,可以减缓新任务的提交速度。

public void rejectedExecution(Runnable r, ThreadPoolExecutor e) {
           if (!e.isShutdown()) {
               r.run();
           }
       }
这个策略显然不想放弃运行任务。可是因为池中已经没有不论什么资源了,那么就直接使用调用该execute的线程本身来运行。

AbortPolicy:处理程序遭到拒绝将抛出执行时RejectedExecutionException

public void rejectedExecution(Runnable r, ThreadPoolExecutor e) {
           throw new RejectedExecutionException();
       }
这样的策略直接抛出异常,丢弃任务。

DiscardPolicy:不能运行的任务将被删除

public void rejectedExecution(Runnable r, ThreadPoolExecutor e) {
       }
这样的策略和AbortPolicy差点儿一样,也是丢弃任务,仅仅只是他不抛出异常。

DiscardOldestPolicy:假设运行程序尚未关闭,则位于工作队列头部的任务将被删除,然后重试运行程序(假设再次失败,则反复此过程)

public void rejectedExecution(Runnable r, ThreadPoolExecutor e) {
           if (!e.isShutdown()) {
               e.getQueue().poll();
               e.execute(r);
           }
       }
该策略就略微复杂一些,在pool没有关闭的前提下首先丢掉缓存在队列中的最早的任务。然后又一次尝试执行该任务。这个策略须要适当小心。


设想:假设其它线程都还在执行,那么新来任务踢掉旧任务,缓存在queue中,再来一个任务又会踢掉queue中最老任务。

小结

keepAliveTime和maximumPoolSize及BlockingQueue的类型均有关系。假设BlockingQueue是无界的。那么永远不会触发maximumPoolSize。自然keepAliveTime也就没有了意义。
反之,假设核心数较小,有界BlockingQueue数值又较小。同一时候keepAliveTime又设的非常小。假设任务频繁。那么系统就会频繁的申请回收线程。


5.Java线程池使用方法演示样例

①newSingleThreadExecutor

MyThread.java

public class MyThread extends Thread {
	@Override
	public void run() {
		System.out.println(Thread.currentThread().getName() + "正在运行。

。。

"); } }

TestSingleThreadExecutor.java

public class TestSingleThreadExecutor {

	public static void main(String[] args) {
		// 创建一个可重用固定线程数的线程池
		ExecutorService pool = Executors.newSingleThreadExecutor();
		// 创建实现了Runnable接口的对象
		Thread t1 = new MyThread();
		Thread t2 = new MyThread();
		Thread t3 = new MyThread();
		Thread t4 = new MyThread();
		Thread t5 = new MyThread();
		// 将线程放入池中运行
		pool.execute(t1);
		pool.execute(t2);
		pool.execute(t3);
		pool.execute(t4);
		pool.execute(t5);
		// 关闭线程池
		pool.shutdown();
	}
}
输出结果:
pool-1-thread-1正在运行。。。

pool-1-thread-1正在运行。。。 pool-1-thread-1正在运行。。。 pool-1-thread-1正在运行。。。 pool-1-thread-1正在运行。。。


②newFixedThreadPool
TestFixedThreadPool.java

public class TestFixedThreadPool {

	public static void main(String[] args) {
		// 创建一个可重用固定线程数的线程池
		ExecutorService pool = Executors.newFixedThreadPool(5);
		// 创建实现了Runnable接口的对象
		Thread t1 = new MyThread();
		Thread t2 = new MyThread();
		Thread t3 = new MyThread();
		Thread t4 = new MyThread();
		Thread t5 = new MyThread();
		// 将线程放入池中运行
		pool.execute(t1);
		pool.execute(t2);
		pool.execute(t3);
		pool.execute(t4);
		pool.execute(t5);
		// 关闭线程池
		pool.shutdown();
	}
}
输出结果:
pool-1-thread-2正在运行。。。
pool-1-thread-4正在运行。。。

pool-1-thread-1正在运行。

。。 pool-1-thread-3正在运行。

。。 pool-1-thread-5正在运行。

。。


③newCachedThreadPool

TestCachedThreadPool.java

public class TestCachedThreadPool {

	public static void main(String[] args) {
		ExecutorService pool = Executors.newCachedThreadPool();
		// 创建实现了Runnable接口的对象
		Thread t1 = new MyThread();
		Thread t2 = new MyThread();
		Thread t3 = new MyThread();
		Thread t4 = new MyThread();
		Thread t5 = new MyThread();
		// 将线程放入池中运行
		pool.execute(t1);
		pool.execute(t2);
		pool.execute(t3);
		pool.execute(t4);
		pool.execute(t5);
		// 关闭线程池
		pool.shutdown();
	}
}
输出结果:
pool-1-thread-2正在运行。。

pool-1-thread-4正在运行。。

pool-1-thread-5正在运行。。。 pool-1-thread-1正在运行。。。 pool-1-thread-3正在运行。。


④newScheduledThreadPool

TestScheduledThreadPoolExecutor.java

public class TestScheduledThreadPoolExecutor {

	public static void main(String[] args) {
		ScheduledThreadPoolExecutor exec = new ScheduledThreadPoolExecutor(10);
		exec.scheduleAtFixedRate(new MyThread(), 0, 10, TimeUnit.MILLISECONDS);
	}
}


原文地址:https://www.cnblogs.com/gcczhongduan/p/5245232.html