python -- 进程补充

生产者消费者模型

import time
import random
from multiprocessing import Queue
from multiprocessing import Process
def producer(q):
    for i in range(10):
        q.put('%s-%s'%(food,i)
        print('生产了%s'%food)
        time.sleep(random.randint(1,3)
    q.put(None)

    
def consumer():
    while True:
        food = q.get()
        if food == None:break
        print('%s 吃了 %s'%(name,food))
    
if __name__ == ' __main__':
    q = Queue()
    p1 = Process(target=producer,args=(q,'泔水'))
    p1.start()
    p2 = Process(target=producer,args=(q,'骨头'))
    p2.start()
    c1 = Process(target=consumer,args=(q,'alex'))
    c1.start()
    c2 = Process(target=consumer,args=(q,'jin'))
    c2.start()
    c3 = Process(target=consumer,args=(q,'egon'))
    c3.start()

#队列很安全

生产者消费者模型
  1.消费者要处理多少数据是不肯定的
  2.只能用while循环来处理数据,但没法结束
  3.须要生产者发送信号
  4.有多少个消费者 就须要发送多少个信号
  5.可是发送的信号数量须要根据 生产者数组

JoinableQueue([maxsize]) 方法

import time
import random
from multiprocessing import JoinableQueue
from multiprocessing import Process

def producer(q):
    for i in range(10):
        q.put('%s-%s'%(food,i)
        print('生产了%s'%food)
        time.sleep(random.randint(1,3)
    q.join() #等待消费者把全部数据都处理完
    
def consumer():
    while True:
        food = q.get()
        if food == None:break
        print('%s 吃了 %s'%(name,food))
        q.task_done()
        
if __name__ == '__main__':
    q = JoinableQueue()
    p1 = Process(target=producer,args=(q,'泔水'))
    p1.start()
    p2 = Process(target=producer,args=(q,'骨头'))
    p2.start()
    c1 = Process(target=consumer,args=(q,'alex'))
    c1.daemon = True
    c1.start()
    c2 = Process(target=consumer,args=(q,'jin'))
    c2.daemon = True
    c2.start()
    c3 = Process(target=consumer,args=(q,'egon'))
    c3.daemon = True
    c3.start()
    
    p1.join() #等待p1执行完毕
    p2.join()

管道

#建立管道的类:
Pipe([duplex]):在进程之间建立一条管道,并返回元组(conn1,conn2)
  ,其中conn1,conn2表示管道两端的链接对象,强调一点:必须在产生Process对象以前产生管道
#参数介绍: dumplex:默认管道是全双工的,若是将duplex射成False,conn1只能用于接收,conn2只能用于发送。 #主要方法: conn1.recv():接收conn2.send(obj)发送的对象。
    若是没有消息可接收,recv方法会一直阻塞。若是链接的另一端已经关闭,那么recv方法会抛出EOFError。 conn1.send(obj):经过链接发送对象。obj是与序列化兼容的任意对象
#其余方法: conn1.close():关闭链接。若是conn1被垃圾回收,将自动调用此方法 conn1.fileno():返回链接使用的整数文件描述符 conn1.poll([timeout]):若是链接上的数据可用,返回True。
  timeout指定等待的最长时限。若是省略此参数,方法将当即返回结果。若是将timeout射成None,操做将无限期地等待数据到达。 conn1.recv_bytes([maxlength]):
  接收c.send_bytes()方法发送的一条完整的字节消息。maxlength指定要接收的最大字节数。
  若是进入的消息,超过了这个最大值,将引起IOError异常,而且在链接上没法进行进一步读取。
  若是链接的另一端已经关闭,不再存在任何数据,将引起EOFError异常。 conn.send_bytes(buffer [, offset [, size]]):
  经过链接发送字节数据缓冲区,buffer是支持缓冲区接口的任意对象,offset是缓冲区中的字节偏移量,
  而size是要发送字节数。结果数据以单条消息的形式发出,而后调用c.recv_bytes()函数进行接收 conn1.recv_bytes_into(buffer [, offset]):接收一条完整的字节消息,并把它保存在buffer对象中,
  该对象支持可写入的缓冲区接口(即bytearray对象或相似的对象)。
  offset指定缓冲区中放置消息处的字节位移。返回值是收到的字节数。若是消息长度大于可用的缓冲区空间,将引起BufferTooShort异常。
from multiprocessing import Process
from multiprocessing import Pipe

def func(p):
    foo,son = p
    foo.close()
    while True:
        try:
            print(son.recv())
        except EOFError:
            break
        # print(son.recv())

if __name__ == '__main__':
    foo,son = Pipe()
    p = Process(target=func, args=((foo,son),))
    p.start()
    son.close()
    foo.send('hello')
    foo.send('hello')
    foo.send('hello')
    foo.send('hello')
    foo.send('hello')
    foo.close()
from multiprocessing import Process
from multiprocessing import Pipe
from multiprocessing import Lock

def func(p,l):
    foo, son = p
    foo.close()
    while True:
        try:
            l.acquire()
            print(son.recv())
            l.release()
        except EOFError:
            l.release()
            son.close()
            break

def func2(p):
    foo, son = p
    son.close()
    for i in range(10):
        foo.send(i)
    foo.close()

if __name__ == '__main__':
    foo,son = Pipe()
    l = Lock()
    p = Process(target=func,args=((foo,son),l))
    p1 = Process(target=func,args=((foo,son),l))
    p2 = Process(target=func,args=((foo,son),l))
    p.start()
    p1.start()
    p2.start()
    p3 = Process(target=func2, args=((foo, son),)).start()
    p4 = Process(target=func2, args=((foo, son),)).start()
    p5 = Process(target=func2, args=((foo, son),)).start()
    p6 = Process(target=func2, args=((foo, son),)).start()
    p7 = Process(target=func2, args=((foo, son),)).start()
    son.close()
    foo.close()

应该特别注意管道端点的正确管理问题。若是是生产者或消费者中都没有使用管道的某个端点,就应将它关闭。这也说明了为什么在生产者中关闭了管道的输出端,在消费者中关闭管道的输入端。若是忘记执行这些步骤,程序可能在消费者中的recv()操做上挂起。管道是由操做系统进行引用计数的,必须在全部进程中关闭管道后才能生成EOFError异常。所以,在生产者中关闭管道不会有任何效果,除非消费者也关闭了相同的管道端点。 安全

管道具备不安全性,而队列至关于管道与锁的结合。并发

进程之间的数据共享

from multiprocessing import Manager,Process,Lock
def work(d,lock):
    with lock: #不加锁而操做共享的数据,确定会出现数据错乱
        d['count']-=1

if __name__ == '__main__':
    lock=Lock()
    with Manager() as m:
        dic=m.dict({'count':100})
        p_l=[]
        for i in range(100):
            p=Process(target=work,args=(dic,lock))
            p_l.append(p)
            p.start()
        for p in p_l:
            p.join()
        print(dic)

'''
进程间数据是独立的,能够借助于队列或管道实现通讯,两者都是基于消息传递的
虽然进程间数据独立,但能够经过Manager实现数据共享,事实上Manager的功能远不止于此

A manager object returned by Manager() controls a server process which holds Python objects and allows other processes to manipulate them using proxies.

A manager returned by Manager() will support types list, dict, Namespace, Lock, RLock, Semaphore, BoundedSemaphore, Condition, Event, Barrier, Queue, Value and Array.
'''

进程池和multiprocess.Pool模块

进程池

进程池的概念。app

在程序实际处理问题过程当中,忙时会有成千上万的任务须要被执行,闲时可能只有零星任务。那么在成千上万个任务须要被执行的时候,咱们就须要去建立成千上万个进程么?首先,建立进程须要消耗时间,销毁进程也须要消耗时间。第二即使开启了成千上万的进程,操做系统也不能让他们同时执行,这样反而会影响程序的效率。所以咱们不能无限制的根据任务开启或者结束进程。那么咱们要怎么作呢?dom

在这里,要给你们介绍一个进程池的概念,定义一个池子,在里面放上固定数量的进程,有需求来了,就拿一个池中的进程来处理任务,等处处理完毕,进程并不关闭,而是将进程再放回进程池中继续等待任务。若是有不少任务须要执行,池中的进程数量不够,任务就要等待以前的进程执行任务完毕归来,拿到空闲进程才能继续执行。也就是说,池中进程的数量是固定的,那么同一时间最多有固定数量的进程在运行。这样不会增长操做系统的调度难度,还节省了开闭进程的时间,也必定程度上可以实现并发效果。异步

Pool([numprocess  [,initializer [, initargs]]]):建立进程池

numprocess:要建立的进程数,若是省略,将默认使用cpu_count()的值
initializer:是每一个工做进程启动时要执行的可调用对象,默认为None
initargs:是要传给initializer的参数组

p.apply(func [, args [, kwargs]]):在一个池工做进程中执行func(*args,**kwargs),而后返回结果。
'''须要强调的是:此操做并不会在全部池工做进程中并执行func函数。若是要经过不一样参数并发地执行func函数,必须从不一样线程调用p.apply()函数或者使用p.apply_async()'''

p.apply_async(func [, args [, kwargs]]):在一个池工做进程中执行func(*args,**kwargs),而后返回结果。
'''此方法的结果是AsyncResult类的实例,callback是可调用对象,接收输入参数。当func的结果变为可用时,将理解传递给callback。callback禁止执行任何阻塞操做,不然将接收其余异步操做中的结果。'''
   
p.close():关闭进程池,防止进一步操做。若是全部操做持续挂起,它们将在工做进程终止前完成

P.jion():等待全部工做进程退出。此方法只能在close()或teminate()以后调用


方法apply_async()和map_async()的返回值是AsyncResul的实例obj。实例具备如下方法
obj.get():返回结果,若是有必要则等待结果到达。timeout是可选的。若是在指定时间内尚未到达,将引起一场。若是远程操做中引起了异常,它将在调用此方法时再次被引起。
obj.ready():若是调用完成,返回True
obj.successful():若是调用完成且没有引起异常,返回True,若是在结果就绪以前调用此方法,引起异常
obj.wait([timeout]):等待结果变为可用。
obj.terminate():当即终止全部工做进程,同时不执行任何清理或结束任何挂起工做。若是p被垃圾回收,将自动调用此函数
import os
import time
from multiprocessing import Pool
print(os.cpu_count())
def func(i):
    time.sleep(1)
    print(i,os.getpid())
    
if __name__ == '__main__':
    p = Pool(5)
    p.map(func,range(20))  #默认是无序的
    p.close()  #不容许再向进程池中添加任务
    p.join()
    print('====>')




import time
from multiprocessing import Pool
from multiprocessing import Process
def func(i):
    i += 1
    
if __name__ == '__main__':
    p = Pool(5)
    start = time.time()
    #target=func,args=next(iterable)
    p.map(func,range(20))  #默认是无序的
    p.close()  #不容许再向进程池中添加任务
    p.join()
    print('====>')
数据池与进程之间的对比
import time
from multiprocessing import Pool

def func(i):
    time.sleep(1)
    i += 1
    return i+1
    
if __name__ == '__main__':
    p = Pool(5)
    for i in range(20):
        p.apply(func,args=(i,))
        #apply是同步提交任务的机制
    p.close() #close必须加在join前 不准添新任务
    p.join()  #等待子进程结束在往下执行
数据池的同步调用
import time
from multiprocessing import Pool

def func(i):
    time.sleep(1)
    i += 1
    return i+1
    
if __name__ == '__main__':
    p = Pool(5)
    for i in range(20):
        p.apply_async(func,args=(i,))
        #apply是异步提交任务的机制
        #异步必需要有close和join
    p.close() #close必须加在join前 不准添新任务
    p.join()  #等待子进程结束在往下执行
数据池异步调用
相关文章
相关标签/搜索