实现多线程的三种方式,继承Thread,实现Runnable 和 实现 Executor接口 ,具体参考:Java 多线程 三种实现方式html
去美团,问到了什么是线程池,如何使用,为何要用,如下作个总结java
一、什么是线程池: java.util.concurrent.Executors提供了一个 java.util.concurrent.Executor接口的实现用于建立线程池mysql
多线程技术主要解决处理器单元内多个线程执行的问题,它能够显著减小处理器单元的闲置时间,增长处理器单元的吞吐能力。
假设一个服务器完成一项任务所需时间为:T1 建立线程时间,T2 在线程中执行任务的时间,T3 销毁线程时间。程序员
若是:T1 + T3 远大于 T2,则能够采用线程池,以提升服务器性能。sql
一个线程池包括如下四个基本组成部分:
一、线程池管理器(ThreadPool):用于建立并管理线程池,包括 建立线程池,销毁线程池,添加新任务;
二、工做线程(PoolWorker):线程池中线程,在没有任务时处于等待状态,能够循环的执行任务;
三、任务接口(Task):每一个任务必须实现的接口,以供工做线程调度任务的执行,它主要规定了任务的入口,任务执行完后的收尾工做,任务的执行状态等;
四、任务队列(taskQueue):用于存放没有处理的任务。提供一种缓冲机制。数据库
线程池技术正是关注如何缩短或调整T1,T3时间的技术,从而提升服务器程序性能的。它把T1,T3分别安排在服务器程序的启动和结束的时间段或者一些空闲的时间段,这样在服务器程序处理客户请求时,不会有T1,T3的开销了。
线程池不只调整T1,T3产生的时间段,并且它还显著减小了建立线程的数目,看一个例子:
假设一个服务器一天要处理50000个请求,而且每一个请求须要一个单独的线程完成。在线程池中,线程数通常是固定的,因此产生线程总数不会超过线程池中线程的数目,而若是服务器不利用线程池来处理这些请求则线程总数为50000。通常线程池大小是远小于50000。因此利用线程池的服务器程序不会为了建立50000而在处理请求时浪费时间,从而提升效率。缓存
Java线程池使用说明服务器
线程的使用在java中占有极其重要的地位,在jdk1.4极其以前的jdk版本中,关于线程池的使用是极其简陋的。在jdk1.5以后这一状况有了很大的改观。Jdk1.5以后加入了java.util.concurrent包,这个包中主要介绍java中线程以及线程池的使用。为咱们在开发中处理线程的问题提供了很是大的帮助。多线程
线程池的做用:ide
线程池做用就是限制系统中执行线程的数量。
根据系统的环境状况,能够自动或手动设置线程数量,达到运行的最佳效果;少了浪费了系统资源,多了形成系统拥挤效率不高。用线程池控制线程数量,其余线程排队等候。一个任务执行完毕,再从队列的中取最前面的任务开始执行。若队列中没有等待进程,线程池的这一资源处于等待。当一个新任务须要运行时,若是线程池中有等待的工做线程,就能够开始运行了;不然进入等待队列。
为何要用线程池:
1.减小了建立和销毁线程的次数,每一个工做线程均可以被重复利用,可执行多个任务。
2.能够根据系统的承受能力,调整线程池中工做线线程的数目,防止由于消耗过多的内存,而把服务器累趴下(每一个线程须要大约1MB内存,线程开的越多,消耗的内存也就越大,最后死机)。
Java里面线程池的顶级接口是Executor,可是严格意义上讲Executor并非一个线程池,而只是一个执行线程的工具。真正的线程池接口是ExecutorService。
比较重要的几个类:
ExecutorService |
真正的线程池接口。 |
ScheduledExecutorService |
能和Timer/TimerTask相似,解决那些须要任务重复执行的问题。 |
ThreadPoolExecutor |
ExecutorService的默认实现。 |
ScheduledThreadPoolExecutor |
继承ThreadPoolExecutor的ScheduledExecutorService接口实现,周期性任务调度的类实现。
|
要配置一个线程池是比较复杂的,尤为是对于线程池的原理不是很清楚的状况下,颇有可能配置的线程池不是较优的,所以在Executors类里面提供了一些静态工厂,生成一些经常使用的线程池。
1. newSingleThreadExecutor
建立一个单线程的线程池。这个线程池只有一个线程在工做,也就是至关于单线程串行执行全部任务。若是这个惟一的线程由于异常结束,那么会有一个新的线程来替代它。此线程池保证全部任务的执行顺序按照任务的提交顺序执行。
2.newFixedThreadPool
建立固定大小的线程池。每次提交一个任务就建立一个线程,直到线程达到线程池的最大大小。线程池的大小一旦达到最大值就会保持不变,若是某个线程由于执行异常而结束,那么线程池会补充一个新线程。
3. newCachedThreadPool
建立一个可缓存的线程池。若是线程池的大小超过了处理任务所须要的线程,
那么就会回收部分空闲(60秒不执行任务)的线程,当任务数增长时,此线程池又能够智能的添加新线程来处理任务。此线程池不会对线程池大小作限制,线程池大小彻底依赖于操做系统(或者说JVM)可以建立的最大线程大小。
4.newScheduledThreadPool
建立一个大小无限的线程池。此线程池支持定时以及周期性执行任务的需求。
实例
1:newSingleThreadExecutor
package com.thread; /* * 经过实现Runnable接口,实现多线程 * Runnable类是有run()方法的; * 可是没有start方法 * 参考: http://blog.csdn.net/qq_31753145/article/details/50899119 * */ public class MyThread extends Thread { @Override public void run() { // TODO Auto-generated method stub // super.run(); System.out.println(Thread.currentThread().getName()+"正在执行...."); } }
package com.thread; import java.util.concurrent.ExecutorService; import java.util.concurrent.Executors; /* * 经过实现Runnable接口,实现多线程 * Runnable类是有run()方法的; * 可是没有start方法 * 参考: * http://blog.csdn.net/qq_31753145/article/details/50899119 * */ public class singleThreadExecutorTest{ public static void main(String[] args) { // TODO Auto-generated method stub //建立一个可重用固定线程数的线程池 ExecutorService pool=Executors.newSingleThreadExecutor(); //建立实现了Runnable接口对象,Thread对象固然也实现了Runnable接口; Thread t1=new MyThread(); Thread t2=new MyThread(); Thread t3=new MyThread(); Thread t4=new MyThread(); Thread t5=new MyThread(); //将线程放到池中执行; pool.execute(t1); pool.execute(t2); pool.execute(t3); pool.execute(t4); pool.execute(t5); //关闭线程池 pool.shutdown(); } }
结果:
pool-1-thread-1正在执行.... pool-1-thread-1正在执行.... pool-1-thread-1正在执行.... pool-1-thread-1正在执行.... pool-1-thread-1正在执行....
2newFixedThreadPool
package com.thread; import java.util.concurrent.ExecutorService; import java.util.concurrent.Executors; /* * 经过实现Runnable接口,实现多线程 * Runnable类是有run()方法的; * 可是没有start方法 * 参考: * http://blog.csdn.net/qq_31753145/article/details/50899119 * */ public class fixedThreadExecutorTest{ public static void main(String[] args) { // TODO Auto-generated method stub //建立一个可重用固定线程数的线程池 ExecutorService pool=Executors.newFixedThreadPool(2); //建立实现了Runnable接口对象,Thread对象固然也实现了Runnable接口; Thread t1=new MyThread(); Thread t2=new MyThread(); Thread t3=new MyThread(); Thread t4=new MyThread(); Thread t5=new MyThread(); //将线程放到池中执行; pool.execute(t1); pool.execute(t2); pool.execute(t3); pool.execute(t4); pool.execute(t5); //关闭线程池 pool.shutdown(); } }
结果:
pool-1-thread-1正在执行.... pool-1-thread-1正在执行.... pool-1-thread-1正在执行.... pool-1-thread-1正在执行.... pool-1-thread-2正在执行....
三、newCachedThreadPool
package com.thread; import java.util.concurrent.ExecutorService; import java.util.concurrent.Executors; /* * 经过实现Runnable接口,实现多线程 * Runnable类是有run()方法的; * 可是没有start方法 * 参考: * http://blog.csdn.net/qq_31753145/article/details/50899119 * */ public class cachedThreadExecutorTest{ public static void main(String[] args) { // TODO Auto-generated method stub //建立一个可重用固定线程数的线程池 ExecutorService pool=Executors.newCachedThreadPool(); //建立实现了Runnable接口对象,Thread对象固然也实现了Runnable接口; Thread t1=new MyThread(); Thread t2=new MyThread(); Thread t3=new MyThread(); Thread t4=new MyThread(); Thread t5=new MyThread(); //将线程放到池中执行; pool.execute(t1); pool.execute(t2); pool.execute(t3); pool.execute(t4); pool.execute(t5); //关闭线程池 pool.shutdown(); } }
结果:
pool-1-thread-2正在执行.... pool-1-thread-1正在执行.... pool-1-thread-3正在执行.... pool-1-thread-4正在执行.... pool-1-thread-5正在执行....
四、newScheduledThreadPool
package com.thread; import java.util.concurrent.ScheduledThreadPoolExecutor; import java.util.concurrent.TimeUnit; /* * 经过实现Runnable接口,实现多线程 * Runnable类是有run()方法的; * 可是没有start方法 * 参考: * http://blog.csdn.net/qq_31753145/article/details/50899119 * */ public class scheduledThreadExecutorTest{ public static void main(String[] args) { // TODO Auto-generated method stub ScheduledThreadPoolExecutor exec =new ScheduledThreadPoolExecutor(1); exec.scheduleAtFixedRate(new Runnable(){//每隔一段时间就触发异常 @Override public void run() { // TODO Auto-generated method stub //throw new RuntimeException(); System.out.println("==================="); }}, 1000, 5000, TimeUnit.MILLISECONDS); exec.scheduleAtFixedRate(new Runnable(){//每隔一段时间打印系统时间,证实二者是互不影响的 @Override public void run() { // TODO Auto-generated method stub System.out.println(System.nanoTime()); }}, 1000, 2000, TimeUnit.MILLISECONDS); } }
结果:
=================== 23119318857491 23121319071841 23123319007891 =================== 23125318176937 23127318190359 =================== 23129318176148 23131318344312 23133318465896 =================== 23135319645812
ThreadPoolExecutor的完整构造方法的签名是:ThreadPoolExecutor(int corePoolSize, int maximumPoolSize, long keepAliveTime, TimeUnit unit, BlockingQueue<Runnable> workQueue, ThreadFactory threadFactory, RejectedExecutionHandler handler)
.
corePoolSize - 池中所保存的线程数,包括空闲线程。
maximumPoolSize-池中容许的最大线程数。
keepAliveTime - 当线程数大于核心时,此为终止前多余的空闲线程等待新任务的最长时间。
unit - keepAliveTime 参数的时间单位。
workQueue - 执行前用于保持任务的队列。此队列仅保持由 execute方法提交的 Runnable任务。
threadFactory - 执行程序建立新线程时使用的工厂。
handler - 因为超出线程范围和队列容量而使执行被阻塞时所使用的处理程序。
ThreadPoolExecutor是Executors类的底层实现。
在JDK帮助文档中,有如此一段话:
“强烈建议程序员使用较为方便的Executors
工厂方法Executors.newCachedThreadPool()
(无界线程池,能够进行自动线程回收)、Executors.newFixedThreadPool(int)
(固定大小线程池)Executors.newSingleThreadExecutor()
(单个后台线程)
它们均为大多数使用场景预约义了设置。”
下面介绍一下几个类的源码:
ExecutorService newFixedThreadPool (int nThreads):固定大小线程池。
能够看到,corePoolSize和maximumPoolSize的大小是同样的(实际上,后面会介绍,若是使用无界queue的话maximumPoolSize参数是没有意义的),keepAliveTime和unit的设值表名什么?-就是该实现不想keep alive!最后的BlockingQueue选择了LinkedBlockingQueue,该queue有一个特色,他是无界的。
public static ExecutorService newFixedThreadPool(int nThreads) { return new ThreadPoolExecutor(nThreads, nThreads, 0L, TimeUnit.MILLISECONDS, new LinkedBlockingQueue<Runnable>()); }
ExecutorService newSingleThreadExecutor():单线程
public static ExecutorService newSingleThreadExecutor() { return new FinalizableDelegatedExecutorService (new ThreadPoolExecutor(1, 1, 0L, TimeUnit.MILLISECONDS, new LinkedBlockingQueue<Runnable>())); }
ExecutorService newCachedThreadPool():无界线程池,能够进行自动线程回收
这个实现就有意思了。首先是无界的线程池,因此咱们能够发现maximumPoolSize为big big。其次BlockingQueue的选择上使用SynchronousQueue。可能对于该BlockingQueue有些陌生,简单说:该QUEUE中,每一个插入操做必须等待另外一个线程的对应移除操做。
public static ExecutorService newCachedThreadPool() { return new ThreadPoolExecutor(0, Integer.MAX_VALUE, 60L, TimeUnit.SECONDS, new SynchronousQueue<Runnable>()); }
先从BlockingQueue<Runnable> workQueue这个入参开始提及。在JDK中,其实已经说得很清楚了,一共有三种类型的queue。
全部BlockingQueue 均可用于传输和保持提交的任务。可使用此队列与池大小进行交互:
若是运行的线程少于 corePoolSize,则 Executor始终首选添加新的线程,而不进行排队。(若是当前运行的线程小于corePoolSize,则任务根本不会存放,添加到queue中,而是直接抄家伙(thread)开始运行)
若是运行的线程等于或多于 corePoolSize,则 Executor始终首选将请求加入队列,而不添加新的线程。
若是没法将请求加入队列,则建立新的线程,除非建立此线程超出 maximumPoolSize,在这种状况下,任务将被拒绝。
queue上的三种类型。
排队有三种通用策略:
直接提交。工做队列的默认选项是 SynchronousQueue,它将任务直接提交给线程而不保持它们。在此,若是不存在可用于当即运行任务的线程,则试图把任务加入队列将失败,所以会构造一个新的线程。此策略能够避免在处理可能具备内部依赖性的请求集时出现锁。直接提交一般要求无界 maximumPoolSizes 以免拒绝新提交的任务。当命令以超过队列所能处理的平均数连续到达时,此策略容许无界线程具备增加的可能性。
无界队列。使用无界队列(例如,不具备预约义容量的 LinkedBlockingQueue)将致使在全部corePoolSize 线程都忙时新任务在队列中等待。这样,建立的线程就不会超过 corePoolSize。(所以,maximumPoolSize的值也就无效了。)当每一个任务彻底独立于其余任务,即任务执行互不影响时,适合于使用无界队列;例如,在 Web页服务器中。这种排队可用于处理瞬态突发请求,当命令以超过队列所能处理的平均数连续到达时,此策略容许无界线程具备增加的可能性。
有界队列。当使用有限的 maximumPoolSizes时,有界队列(如 ArrayBlockingQueue)有助于防止资源耗尽,可是可能较难调整和控制。队列大小和最大池大小可能须要相互折衷:使用大型队列和小型池能够最大限度地下降 CPU 使用率、操做系统资源和上下文切换开销,可是可能致使人工下降吞吐量。若是任务频繁阻塞(例如,若是它们是 I/O边界),则系统可能为超过您许可的更多线程安排时间。使用小型队列一般要求较大的池大小,CPU使用率较高,可是可能遇到不可接受的调度开销,这样也会下降吞吐量。
BlockingQueue的选择。
例子一:使用直接提交策略,也即SynchronousQueue。 好比 Executors.newCachedThreadPool()默认就是 SynchronousQueue
首先SynchronousQueue是无界的,也就是说他存数任务的能力是没有限制的,可是因为该Queue自己的特性,在某次添加元素后必须等待其余线程取走后才能继续添加。在这里不是核心线程即是新建立的线程,可是咱们试想同样下,下面的场景。
咱们使用一下参数构造ThreadPoolExecutor:
new ThreadPoolExecutor( 2, 3, 30, TimeUnit.SECONDS, new SynchronousQueue<Runnable>(), new RecorderThreadFactory("CookieRecorderPool"), new ThreadPoolExecutor.CallerRunsPolicy());
当核心线程已经有2个正在运行.
因此在使用SynchronousQueue一般要求maximumPoolSize是无界的,这样就能够避免上述状况发生(若是但愿限制就直接使用有界队列)。对于使用SynchronousQueue的做用jdk中写的很清楚:此策略能够避免在处理可能具备内部依赖性的请求集时出现锁。
什么意思?若是你的任务A1,A2有内部关联,A1须要先运行,那么先提交A1,再提交A2,当使用SynchronousQueue咱们能够保证,A1一定先被执行,在A1么有被执行前,A2不可能添加入queue中。
例子二:使用无界队列策略,即LinkedBlockingQueue
这个就拿newFixedThreadPool来讲,根据前文提到的规则:
若是运行的线程少于 corePoolSize,则 Executor 始终首选添加新的线程,而不进行排队。那么当任务继续增长,会发生什么呢?
若是运行的线程等于或多于 corePoolSize,则 Executor 始终首选将请求加入队列,而不添加新的线程。OK,此时任务变加入队列之中了,那何时才会添加新线程呢?
若是没法将请求加入队列,则建立新的线程,除非建立此线程超出 maximumPoolSize,在这种状况下,任务将被拒绝。这里就颇有意思了,可能会出现没法加入队列吗?不像SynchronousQueue那样有其自身的特色,对于无界队列来讲,老是能够加入的(资源耗尽,固然另当别论)。换句说,永远也不会触发产生新的线程!corePoolSize大小的线程数会一直运行,忙完当前的,就从队列中拿任务开始运行。因此要防止任务疯长,好比任务运行的实行比较长,而添加任务的速度远远超过处理任务的时间,并且还不断增长,不一下子就爆了。
例子三:有界队列,使用ArrayBlockingQueue。
这个是最为复杂的使用,因此JDK不推荐使用也有些道理。与上面的相比,最大的特色即是能够防止资源耗尽的状况发生。
举例来讲,请看以下构造方法:
new ThreadPoolExecutor( 2, 4, 30, TimeUnit.SECONDS, new ArrayBlockingQueue<Runnable>(2), new RecorderThreadFactory("CookieRecorderPool"), new ThreadPoolExecutor.CallerRunsPolicy());
假设,全部的任务都永远没法执行完。
对于首先来的A,B来讲直接运行,接下来,若是来了C,D,他们会被放到queue中,若是接下来再来E,F,则增长线程运行E,F。可是若是再来任务,队列没法再接受了,线程数也到达最大的限制了,因此就会使用拒绝策略来处理。
keepAliveTime
jdk中的解释是:当线程数大于核心时,此为终止前多余的空闲线程等待新任务的最长时间。
有点拗口,其实这个不难理解,在使用了“池”的应用中,大多都有相似的参数须要配置。好比数据库链接池,DBCP中的maxIdle,minIdle参数。
什么意思?接着上面的解释,后来向老板派来的工人始终是“借来的”,俗话说“有借就有还”,但这里的问题就是何时还了,若是借来的工人刚完成一个任务就还回去,后来发现任务还有,那岂不是又要去借?这一来一往,老板确定头也大死了。
合理的策略:既然借了,那就多借一下子。直到“某一段”时间后,发现再也用不到这些工人时,即可以还回去了。这里的某一段时间即是keepAliveTime的含义,TimeUnit为keepAliveTime值的度量。
RejectedExecutionHandler
另外一种状况即是,即便向老板借了工人,可是任务仍是继续过来,仍是忙不过来,这时整个队伍只好拒绝接受了。
RejectedExecutionHandler接口提供了对于拒绝任务的处理的自定方法的机会。在ThreadPoolExecutor中已经默认包含了4中策略,由于源码很是简单,这里直接贴出来。
CallerRunsPolicy:线程调用运行该任务的 execute 自己。此策略提供简单的反馈控制机制,可以减缓新任务的提交速度。
public void rejectedExecution(Runnable r, ThreadPoolExecutor e) { if (!e.isShutdown()) { r.run(); } }
这个策略显然不想放弃执行任务。可是因为池中已经没有任何资源了,那么就直接使用调用该execute的线程自己来执行。
AbortPolicy:处理程序遭到拒绝将抛出运行时RejectedExecutionException
public void rejectedExecution(Runnable r, ThreadPoolExecutor e) { throw new RejectedExecutionException(); }
这种策略直接抛出异常,丢弃任务。
DiscardPolicy:不能执行的任务将被删除
public void rejectedExecution(Runnable r, ThreadPoolExecutor e) { }
这种策略和AbortPolicy几乎同样,也是丢弃任务,只不过他不抛出异常。
DiscardOldestPolicy:若是执行程序还没有关闭,则位于工做队列头部的任务将被删除,而后重试执行程序(若是再次失败,则重复此过程)
这是咱们系统的作法:
private static final ExecutorService EXECUTOR_SERVICE = new ThreadPoolExecutor(16, 32, 5L, TimeUnit.MINUTES, new ArrayBlockingQueue<>(1000), new ThreadFactory() { private final ThreadGroup threadGroup = new ThreadGroup("fileTemplateMethodThreadGroup"); private final AtomicInteger threadNumber = new AtomicInteger(1); @Override public Thread newThread(Runnable r) { return new Thread(threadGroup, r, "fileTemplateMethod-thread-pool-" + threadNumber.getAndIncrement()); } }, (r, executor) -> { if (!executor.isShutdown()) { /* 丢弃队列最老的数据 */ if (executor.getQueue().poll() != null) { Cat.logMetricForCount(CatConstant.METRIC_DISCARD_FILE_TASK_COUNT); } executor.execute(r); } });
其实就是下面的代码:注意: e.getQueue().poll();
public void rejectedExecution(Runnable r, ThreadPoolExecutor e) { if (!e.isShutdown()) { e.getQueue().poll(); e.execute(r); } }
该策略就稍微复杂一些,在pool没有关闭的前提下首先丢掉缓存在队列中的最先的任务,而后从新尝试运行该任务。这个策略须要适当当心。
设想:若是其余线程都还在运行,那么新来任务踢掉旧任务,缓存在queue中,再来一个任务又会踢掉queue中最老任务。
总结:
keepAliveTime和maximumPoolSize及BlockingQueue的类型均有关系。若是BlockingQueue是无界的,那么永远不会触发maximumPoolSize,天然keepAliveTime也就没有了意义。
反之,若是核心数较小,有界BlockingQueue数值又较小,同时keepAliveTime又设的很小,若是任务频繁,那么系统就会频繁的申请回收线程。
public static ExecutorService newFixedThreadPool(int nThreads) { return new ThreadPoolExecutor(nThreads, nThreads,0L, TimeUnit.MILLISECONDS,new LinkedBlockingQueue<Runnable>()); }
参考:线程池的原理及实现