守护进程linux
以前咱们讲的子进程是不会随着主进程的结束而结束,子进程所有执行完以后,程序才结束,那么若是有一天咱们的需求是个人主进程结束了,由我主进程建立的那些子进程必须跟着结束,怎么办?守护进程就来了!编程
主进程建立守护进程json
其一:守护进程会在主进程代码执行结束后就终止windows
其二:守护进程内没法再开启子进程,不然抛出异常:AssertionError: daemonic processes are not allowed to have children安全
注意:进程之间是互相独立的,主进程代码运行结束,守护进程随即终止网络
import os import time from multiprocessing import Process class Myprocess(Process): def __init__(self,person): super().__init__() self.person = person def run(self): print(os.getpid(),self.name) print('%s正在和女主播聊天' %self.person) time.sleep(3) if __name__ == '__main__': p=Myprocess('太白') p.daemon=True #必定要在p.start()前设置,设置p为守护进程,禁止p建立子进程,而且父进程代码执行结束,p即终止运行 p.start() # time.sleep(1) # 在sleep时linux下查看进程id对应的进程ps -ef|grep id print('主') 守护进程
进程同步(锁)多线程
经过刚刚的学习,咱们想方设法实现了程序的异步,让多个任务能够同时在几个进程中并发处理,他们之间的运行没有顺序,一旦开启也不受咱们控制。尽管并发编程让咱们能更加充分的利用IO资源,可是也给咱们带来了新的问题:进程之间数据不共享,可是共享同一套文件系统,因此访问同一个文件,或同一个打印终端,是没有问题的,而共享带来的是竞争,竞争带来的结果就是错乱,如何控制,就是加锁处理。并发
import os import time import random from multiprocessing import Process def work(n): print('%s: %s is running' %(n,os.getpid())) time.sleep(random.random()) print('%s:%s is done' %(n,os.getpid())) if __name__ == '__main__': for i in range(5): p=Process(target=work,args=(i,)) p.start() # 看结果:经过结果能够看出两个问题:问题一:每一个进程中work函数的第一个打印就不是按照咱们for循环的0-4的顺序来打印的 #问题二:咱们发现,每一个work进程中有两个打印,可是咱们看到全部进程中第一个打印的顺序为0-2-1-4-3,可是第二个打印没有按照这个顺序,变成了2-1-0-3-4,说明咱们一个进程中的程序的执行顺序都混乱了。 #问题的解决方法,第二个问题加锁来解决,第一个问题是没有办法解决的,由于进程开到了内核,有操做系统来决定进程的调度,咱们本身控制不了 # 0: 9560 is running # 2: 13824 is running # 1: 7476 is running # 4: 11296 is running # 3: 14364 is running # 2:13824 is done # 1:7476 is done # 0:9560 is done # 3:14364 is done # 4:11296 is done 多进程抢占输出资源,致使打印混乱的示例
#由并发变成了串行,牺牲了运行效率,但避免了竞争 from multiprocessing import Process,Lock import os,time def work(n,lock): #加锁,保证每次只有一个进程在执行锁里面的程序,这一段程序对于全部写上这个锁的进程,你们都变成了串行 lock.acquire() print('%s: %s is running' %(n,os.getpid())) time.sleep(1) print('%s:%s is done' %(n,os.getpid())) #解锁,解锁以后其余进程才能去执行本身的程序 lock.release() if __name__ == '__main__': lock=Lock() for i in range(5): p=Process(target=work,args=(i,lock)) p.start() #打印结果: # 2: 10968 is running # 2:10968 is done # 0: 7932 is running # 0:7932 is done # 4: 4404 is running # 4:4404 is done # 1: 12852 is running # 1:12852 is done # 3: 980 is running # 3:980 is done #结果分析:(本身去屡次运行一下,看看结果,我拿出其中一个结果来看)经过结果咱们能够看出,多进程刚开始去执行的时候,每次运行,首先打印出来哪一个进程的程序是不固定的,可是咱们解决了上面打印混乱示例代码的第二个问题,那就是同一个进程中的两次打印都是先完成的,而后才切换到下一个进程去,打印下一个进程中的两个打印结果,说明咱们控制住了同一进程中的代码执行顺序,若是涉及到多个进程去操做同一个数据或者文件的时候,就不担忧数据算错或者文件中的内容写入混乱了。 加锁:由并发改为了串行,牺牲了运行效率,但避免了竞争
上面这种状况虽然使用加锁的形式实现了顺序的执行,可是程序又从新变成串行了,这样确实会浪费了时间,却保证了数据的安全。app
接下来,咱们以模拟抢票为例,来看看数据安全的重要性。 dom
#注意:首先在当前文件目录下建立一个名为db的文件 #文件db的内容为:{"count":1},只有这一行数据,而且注意,每次运行完了以后,文件中的1变成了0,你须要手动将0改成1,而后在去运行代码。 #注意必定要用双引号,否则json没法识别 #并发运行,效率高,但竞争写同一文件,数据写入错乱 from multiprocessing import Process,Lock import time,json,random #查看剩余票数 def search(): dic=json.load(open('db')) #打开文件,直接load文件中的内容,拿到文件中的包含剩余票数的字典 print('\033[43m剩余票数%s\033[0m' %dic['count']) #抢票 def get(): dic=json.load(open('db')) time.sleep(0.1) #模拟读数据的网络延迟,那么进程之间的切换,致使全部人拿到的字典都是{"count": 1},也就是每一个人都拿到了这一票。 if dic['count'] >0: dic['count']-=1 time.sleep(0.2) #模拟写数据的网络延迟 json.dump(dic,open('db','w')) #最终结果致使,每一个人显示都抢到了票,这就出现了问题~ print('\033[43m购票成功\033[0m') def task(): search() get() if __name__ == '__main__': for i in range(3): #模拟并发100个客户端抢票 p=Process(target=task) p.start() #看结果分析:因为网络延迟等缘由使得进程切换,致使每一个人都抢到了这最后一张票 # 剩余票数1 # 剩余票数1 # 剩余票数1 # 购票成功 # 购票成功 # 购票成功 并发运行,效率高,可是竞争同一个文件,致使数据混乱
#注意:首先在当前文件目录下建立一个名为db的文件 #文件db的内容为:{"count":1},只有这一行数据,而且注意,每次运行完了以后,文件中的1变成了0,你须要手动将0改成1,而后在去运行代码。 #注意必定要用双引号,否则json没法识别 #加锁保证数据安全,不出现混乱 from multiprocessing import Process,Lock import time,json,random #查看剩余票数 def search(): dic=json.load(open('db')) #打开文件,直接load文件中的内容,拿到文件中的包含剩余票数的字典 print('\033[43m剩余票数%s\033[0m' %dic['count']) #抢票 def get(): dic=json.load(open('db')) time.sleep(0.1) #模拟读数据的网络延迟,那么进程之间的切换,致使全部人拿到的字典都是{"count": 1},也就是每一个人都拿到了这一票。 if dic['count'] >0: dic['count']-=1 time.sleep(0.2) #模拟写数据的网络延迟 json.dump(dic,open('db','w')) #最终结果致使,每一个人显示都抢到了票,这就出现了问题~ print('\033[43m购票成功\033[0m') else: print('sorry,没票了亲!') def task(lock): search() #由于抢票的时候是发生数据变化的时候,全部咱们将锁加加到这里 lock.acquire() get() lock.release() if __name__ == '__main__': lock = Lock() #建立一个锁 for i in range(3): #模拟并发100个客户端抢票 p=Process(target=task,args=(lock,)) #将锁做为参数传给task函数 p.start() #看结果分析:只有一我的抢到了票 # 剩余票数1 # 剩余票数1 # 剩余票数1 # 购票成功 #幸运的人儿 # sorry,没票了亲! # sorry,没票了亲! 加锁:购票行为由并发变成了串行,牺牲了效率,可是保证了数据安全
进程锁总结:
#加锁能够保证多个进程修改同一块数据时,同一时间只能有一个任务能够进行修改,即串行的修改,没错,速度是慢了,但牺牲了速度却保证了数据安全。 虽然能够用文件共享数据实现进程间通讯,但问题是: 1.效率低(共享数据基于文件,而文件是硬盘上的数据) 2.须要本身加锁处理 #所以咱们最好找寻一种解决方案可以兼顾:一、效率高(多个进程共享一块内存的数据)二、帮咱们处理好锁问题。这就是mutiprocessing模块为咱们提供的基于消息的IPC通讯机制:队列和管道。 队列和管道都是将数据存放于内存中 队列又是基于(管道+锁)实现的,可让咱们从复杂的锁问题中解脱出来, 咱们应该尽可能避免使用共享数据,尽量使用消息传递和队列,避免处理复杂的同步和锁问题,并且在进程数目增多时,每每能够得到更好的可获展性。 IPC通讯机制(了解):IPC是intent-Process Communication的缩写,含义为进程间通讯或者跨进程通讯,是指两个进程之间进行数据交换的过程。IPC不是某个系统所独有的,任何一个操做系统都须要有相应的IPC机制, 好比Windows上能够经过剪贴板、管道和邮槽等来进行进程间通讯,而Linux上能够经过命名共享内容、信号量等来进行进程间通讯。Android它也有本身的进程间通讯方式,Android建构在Linux基础上,继承了一 部分Linux的通讯方式。
.队列(推荐使用)
进程彼此之间互相隔离,要实现进程间通讯(IPC),multiprocessing模块支持两种形式:队列和管道,这两种方式都是使用消息传递的。队列就像一个特殊的列表,可是能够设置固定长度,而且从前面插入数据,从后面取出数据,先进先出。
Queue([maxsize]) 建立共享的进程队列。
参数 :maxsize是队列中容许的最大项数。若是省略此参数,则无大小限制。
底层队列使用管道和锁实现。
先看下面的代码示例,而后再看方法介绍。
queue的方法介绍
q = Queue([maxsize])
建立共享的进程队列。maxsize是队列中容许的最大项数。若是省略此参数,则无大小限制。底层队列使用管道和锁定实现。另外,还须要运行支持线程以便队列中的数据传输到底层管道中。
Queue的实例q具备如下方法:
q.get( [ block [ ,timeout ] ] )
返回q中的一个项目。若是q为空,此方法将阻塞,直到队列中有项目可用为止。block用于控制阻塞行为,默认为True. 若是设置为False,将引起Queue.Empty异常(定义在Queue模块中)。timeout是可选超时时间,用在阻塞模式中。若是在制定的时间间隔内没有项目变为可用,将引起Queue.Empty异常。
q.get_nowait( )
同q.get(False)方法。
q.put(item [, block [,timeout ] ] )
将item放入队列。若是队列已满,此方法将阻塞至有空间可用为止。block控制阻塞行为,默认为True。若是设置为False,将引起Queue.Empty异常(定义在Queue库模块中)。timeout指定在阻塞模式中等待可用空间的时间长短。超时后将引起Queue.Full异常。
q.qsize()
返回队列中目前项目的正确数量。此函数的结果并不可靠,由于在返回结果和在稍后程序中使用结果之间,队列中可能添加或删除了项目。在某些系统上,此方法可能引起NotImplementedError异常。
q.empty()
若是调用此方法时 q为空,返回True。若是其余进程或线程正在往队列中添加项目,结果是不可靠的。也就是说,在返回和使用结果之间,队列中可能已经加入新的项目。
q.full()
若是q已满,返回为True. 因为线程的存在,结果也多是不可靠的(参考q.empty()方法)。。
方法介绍
queue的其余方法(了解)
q.close()
关闭队列,防止队列中加入更多数据。调用此方法时,后台线程将继续写入那些已入队列但还没有写入的数据,但将在此方法完成时立刻关闭。若是q被垃圾收集,将自动调用此方法。关闭队列不会在队列使用者中生成任何类型的数据结束信号或异常。例如,若是某个使用者正被阻塞在get()操做上,关闭生产者中的队列不会致使get()方法返回错误。
q.cancel_join_thread()
不会再进程退出时自动链接后台线程。这能够防止join_thread()方法阻塞。
q.join_thread()
链接队列的后台线程。此方法用于在调用q.close()方法后,等待全部队列项被消耗。默认状况下,此方法由不是q的原始建立者的全部进程调用。调用q.cancel_join_thread()方法能够禁止这种行为。
其余方法
咱们看一些代码示例:
from multiprocessing import Queue q=Queue(3) #建立一个队列对象,队列长度为3 #put ,get ,put_nowait,get_nowait,full,empty q.put(3) #往队列中添加数据 q.put(2) q.put(1) # q.put(4) # 若是队列已经满了,程序就会停在这里,等待数据被别人取走,再将数据放入队列。 # 若是队列中的数据一直不被取走,程序就会永远停在这里。 try: q.put_nowait(4) # 可使用put_nowait,若是队列满了不会阻塞,可是会由于队列满了而报错。 except: # 所以咱们能够用一个try语句来处理这个错误。这样程序不会一直阻塞下去,可是会丢掉这个消息。 print('队列已经满了') # 所以,咱们再放入数据以前,能够先看一下队列的状态,若是已经满了,就不继续put了。 print(q.full()) #查看是否满了,满了返回True,不满返回False print(q.get()) #取出数据 print(q.get()) print(q.get()) # print(q.get()) # 同put方法同样,若是队列已经空了,那么继续取就会出现阻塞。 try: q.get_nowait(3) # 可使用get_nowait,若是队列满了不会阻塞,可是会由于没取到值而报错。 except: # 所以咱们能够用一个try语句来处理这个错误。这样程序不会一直阻塞下去。 print('队列已经空了') print(q.empty()) #空了 队列的简单用法
#看下面的队列的时候,按照编号看注释 import time from multiprocessing import Process, Queue # 8. q = Queue(2) #建立一个Queue对象,若是写在这里,那么在windows还子进程去执行的时候,咱们知道子进程中还会执行这个代码,可是子进程中不可以再次建立了,也就是这个q就是你主进程中建立的那个q,经过咱们下面在主进程中先添加了一个字符串以后,在去开启子进程,你会发现,小鬼这个字符串还在队列中,也就是说,咱们使用的仍是主进程中建立的这个队列。 def f(q): # q = Queue() #9. 咱们在主进程中开启了一个q,若是咱们在子进程中的函数里面再开一个q,那么你下面q.put('姑娘,多少钱~')添加到了新建立的这q里里面了 q.put('姑娘,多少钱~') #4.调用主函数中p进程传递过来的进程参数 put函数为向队列中添加一条数据。 # print(q.qsize()) #6.查看队列中有多少条数据了 def f2(q): print('》》》》》》》》') print(q.get()) #5.取数据 if __name__ == '__main__': q = Queue() #1.建立一个Queue对象 q.put('小鬼') p = Process(target=f, args=(q,)) #2.建立一个进程 p2 = Process(target=f2, args=(q,)) #3.建立一个进程 p.start() p2.start() time.sleep(1) #7.若是阻塞一点时间,就会出现主进程运行太快,致使咱们在子进程中查看qsize为1个。 # print(q.get()) #结果:小鬼 print(q.get()) #结果:姑娘,多少钱~ p.join() 子进程与父进程经过队列进行通讯
接下来看一个稍微复杂一些的例子:
import os import time import multiprocessing # 向queue中输入数据的函数 def inputQ(queue): info = str(os.getpid()) + '(put):' + str(time.asctime()) queue.put(info) # 向queue中输出数据的函数 def outputQ(queue): info = queue.get() print ('%s%s\033[32m%s\033[0m'%(str(os.getpid()), '(get):',info)) # Main if __name__ == '__main__': #windows下,若是开启的进程比较多的话,程序会崩溃,为了防止这个问题,使用freeze_support()方法来解决。知道就行啦 multiprocessing.freeze_support() record1 = [] # store input processes record2 = [] # store output processes queue = multiprocessing.Queue(3) # 输入进程 for i in range(10): process = multiprocessing.Process(target=inputQ,args=(queue,)) process.start() record1.append(process) # 输出进程 for i in range(10): process = multiprocessing.Process(target=outputQ,args=(queue,)) process.start() record2.append(process) for p in record1: p.join() for p in record2: p.join() 批量的生产输入放入队列,再批量的获取结果
队列是进程安全的:同一时间只能一个进程拿到队列中的一个数据,你拿到了一个数据,这个数据别人就拿不到了。
下面咱们来看一个叫作生产者消费者模型的东西:
在并发编程中使用生产者和消费者模式可以解决绝大多数并发问题。该模式经过平衡生产线程和消费线程的工做能力来提升程序的总体处理数据的速度。
为何要使用生产者和消费者模式
在线程世界里,生产者就是生产数据的线程,消费者就是消费数据的线程。在多线程开发当中,若是生产者处理速度很快,而消费者处理速度很慢,那么生产者就必须等待消费者处理完,才能继续生产数据。一样的道理,若是消费者的处理能力大于生产者,那么消费者就必须等待生产者。为了解决这个问题因而引入了生产者和消费者模式。
什么是生产者消费者模式
生产者消费者模式是经过一个容器来解决生产者和消费者的强耦合问题。生产者和消费者彼此之间不直接通信,而经过阻塞队列来进行通信,因此生产者生产完数据以后不用等待消费者处理,直接扔给阻塞队列,消费者不找生产者要数据,而是直接从阻塞队列里取,阻塞队列就至关于一个缓冲区,平衡了生产者和消费者的处理能力,而且我能够根据生产速度和消费速度来均衡一下多少个生产者能够为多少个消费者提供足够的服务,就能够开多进程等等,而这些进程都是到阻塞队列或者说是缓冲区中去获取或者添加数据。
通俗的解释:看图说话。。背景有点乱,等我更新~~
那么咱们基于队列来实现一个生产者消费者模型,代码示例:
from multiprocessing import Process,Queue import time,random,os def consumer(q): while True: res=q.get() time.sleep(random.randint(1,3)) print('\033[45m%s 吃 %s\033[0m' %(os.getpid(),res)) def producer(q): for i in range(10): time.sleep(random.randint(1,3)) res='包子%s' %i q.put(res) print('\033[44m%s 生产了 %s\033[0m' %(os.getpid(),res)) if __name__ == '__main__': q=Queue() #生产者们:即厨师们 p1=Process(target=producer,args=(q,)) #消费者们:即吃货们 c1=Process(target=consumer,args=(q,)) #开始 p1.start() c1.start() print('主') 基于队列的生产者消费者模型
#生产者消费者模型总结 #程序中有两类角色 一类负责生产数据(生产者) 一类负责处理数据(消费者) #引入生产者消费者模型为了解决的问题是: 平衡生产者与消费者之间的工做能力,从而提升程序总体处理数据的速度 #如何实现: 生产者<-->队列<——>消费者 #生产者消费者模型实现类程序的解耦和 生产者消费者模型总结
经过上面基于队列的生产者消费者代码示例,咱们发现一个问题:主进程永远不会结束,缘由是:生产者p在生产完后就结束了,可是消费者c在取空了q以后,则一直处于死循环中且卡在q.get()这一步。
解决方式无非是让生产者在生产完毕后,往队列中再发一个结束信号,这样消费者在接收到结束信号后就能够break出死循环
from multiprocessing import Process,Queue import time,random,os def consumer(q): while True: res=q.get() if res is None:break #收到结束信号则结束 time.sleep(random.randint(1,3)) print('\033[45m%s 吃 %s\033[0m' %(os.getpid(),res)) def producer(q): for i in range(5): time.sleep(random.randint(1,3)) res='包子%s' %i q.put(res) print('\033[44m%s 生产了 %s\033[0m' %(os.getpid(),res)) q.put(None) #在本身的子进程的最后加入一个结束信号 if __name__ == '__main__': q=Queue() #生产者们:即厨师们 p1=Process(target=producer,args=(q,)) #消费者们:即吃货们 c1=Process(target=consumer,args=(q,)) #开始 p1.start() c1.start() print('主') 子进程生产者在生产完毕后发送结束信号None
注意:结束信号None,不必定要由生产者发,主进程里一样能够发,但主进程须要等生产者结束后才应该发送该信号
from multiprocessing import Process,Queue import time,random,os def consumer(q): while True: res=q.get() if res is None:break #收到结束信号则结束 time.sleep(random.randint(1,3)) print('\033[45m%s 吃 %s\033[0m' %(os.getpid(),res)) def producer(q): for i in range(2): time.sleep(random.randint(1,3)) res='包子%s' %i q.put(res) print('\033[44m%s 生产了 %s\033[0m' %(os.getpid(),res)) if __name__ == '__main__': q=Queue() #生产者们:即厨师们 p1=Process(target=producer,args=(q,)) #消费者们:即吃货们 c1=Process(target=consumer,args=(q,)) #开始 p1.start() c1.start() p1.join() #等待生产者进程结束 q.put(None) #发送结束信号 print('主') 主进程在生产者生产完毕后发送结束信号None
但上述解决方式,在有多个生产者和多个消费者时,因为队列咱们说了是进程安全的,我一个进程拿走告终束信号,另一个进程就拿不到了,还须要多发送一个结束信号,有几个取数据的进程就要发送几个结束信号,咱们则须要用一个很low的方式去解决
from multiprocessing import Process,Queue import time,random,os def consumer(q): while True: res=q.get() if res is None:break #收到结束信号则结束 time.sleep(random.randint(1,3)) print('\033[45m%s 吃 %s\033[0m' %(os.getpid(),res)) def producer(name,q): for i in range(2): time.sleep(random.randint(1,3)) res='%s%s' %(name,i) q.put(res) print('\033[44m%s 生产了 %s\033[0m' %(os.getpid(),res)) if __name__ == '__main__': q=Queue() #生产者们:即厨师们 p1=Process(target=producer,args=('包子',q)) p2=Process(target=producer,args=('骨头',q)) p3=Process(target=producer,args=('泔水',q)) #消费者们:即吃货们 c1=Process(target=consumer,args=(q,)) c2=Process(target=consumer,args=(q,)) #开始 p1.start() p2.start() p3.start() c1.start() p1.join() #必须保证生产者所有生产完毕,才应该发送结束信号 p2.join() p3.join() q.put(None) #有几个消费者就应该发送几回结束信号None q.put(None) #发送结束信号 print('主') 有多个消费者和生产者的时候须要发送屡次结束信号
其实咱们的思路无非是发送结束信号而已,有另一种队列提供了这种机制
JoinableQueue([maxsize])
#JoinableQueue([maxsize]):这就像是一个Queue对象,但队列容许项目的使用者通知生成者项目已经被成功处理。通知进程是使用共享的信号和条件变量来实现的。 #参数介绍: maxsize是队列中容许最大项数,省略则无大小限制。 #方法介绍: JoinableQueue的实例p除了与Queue对象相同的方法以外还具备: q.task_done():使用者使用此方法发出信号,表示q.get()的返回项目已经被处理。若是调用此方法的次数大于从队列中删除项目的数量,将引起ValueError异常 q.join():生产者调用此方法进行阻塞,直到队列中全部的项目均被处理。阻塞将持续到队列中的每一个项目均调用q.task_done()方法为止,也就是队列中的数据所有被get拿走了。
from multiprocessing import Process,JoinableQueue import time,random,os def consumer(q): while True: res=q.get() # time.sleep(random.randint(1,3)) time.sleep(random.random()) print('\033[45m%s 吃 %s\033[0m' %(os.getpid(),res)) q.task_done() #向q.join()发送一次信号,证实一个数据已经被取走并执行完了 def producer(name,q): for i in range(10): # time.sleep(random.randint(1,3)) time.sleep(random.random()) res='%s%s' %(name,i) q.put(res) print('\033[44m%s 生产了 %s\033[0m' %(os.getpid(),res)) print('%s生产结束'%name) q.join() #生产完毕,使用此方法进行阻塞,直到队列中全部项目均被处理。 print('%s生产结束~~~~~~'%name) if __name__ == '__main__': q=JoinableQueue() #生产者们:即厨师们 p1=Process(target=producer,args=('包子',q)) p2=Process(target=producer,args=('骨头',q)) p3=Process(target=producer,args=('泔水',q)) #消费者们:即吃货们 c1=Process(target=consumer,args=(q,)) c2=Process(target=consumer,args=(q,)) c1.daemon=True #若是不加守护,那么主进程结束不了,可是加了守护以后,必须确保生产者的内容生产完而且被处理完了,全部必须还要在主进程给生产者设置join,才能确保生产者生产的任务被执行完了,而且可以确保守护进程在全部任务执行完成以后才随着主进程的结束而结束。 c2.daemon=True #开始 p_l=[p1,p2,p3,c1,c2] for p in p_l: p.start() p1.join() #我要确保你的生产者进程结束了,生产者进程的结束标志着你生产的全部的人任务都已经被处理完了 p2.join() p3.join() print('主') # 主进程等--->p1,p2,p3等---->c1,c2 # p1,p2,p3结束了,证实c1,c2确定全都收完了p1,p2,p3发到队列的数据 # 于是c1,c2也没有存在的价值了,不须要继续阻塞在进程中影响主进程了。应该随着主进程的结束而结束,因此设置成守护进程就能够了。 JoinableQueue队列实现生产者消费者模型