Python 之多进程的各类方法(3-26.27)

在一个python进程中开启子进程,start方法和并发效果。python

import os,time
from multiprocessing import Process
def func(arg1,arg2):
    print('##'*arg1)
    time.sleep(2)#睡2秒
    print(os.getpid())#子进程号
    print(os.getppid())#子进程的父进程号
    print('***'*arg2)


if __name__=='__main__':#在win系统下必需要知足这个if条件
    print('%',os.getpid())#主进程号
    p=Process(target=func,args=(2,4))#建立子进程对象,并传参args=(X,),注意只传一个参数的时候必须在参数后加逗号
    p.start()
    print('%', os.getppid())#主进程的父进程
# 进程的生命周期
    # 主进程
    # 子进程
    # 开启了子进程的主进程 :
        # 主进程本身的代码若是长,等待本身的代码执行结束,
        # 子进程的执行时间长,主进程会在主进程代码执行完毕以后等待子进程执行完毕以后 主进程才结束
多进程
import os,time
from multiprocessing import Process
def func(arg1,arg2):
    print('*'*arg1)
    time.sleep(2)#睡5秒
    print('*'*arg2)
def func1():
    time.sleep(5)
    print('#######')

if __name__ == '__main__':
    p = Process(target=func,args=(10,20))
    p.start()
    p1 = Process(target=func1)
    p1.start()
    print('hahahaha')
    p.join()     # 是感知一个子进程的结束,将异步的程序改成同步
    print('====== : 运行完了')
#join方法能够实如今多进程中须要的同步需求
join方法

进阶,多个进程同时运行(注意,子进程的执行顺序不是根据启动顺序决定的)数据库

import os
import time
from multiprocessing import Process

def func(filename,content):
    with open(filename,'w') as f:
        f.write(content*10*'*')

if __name__ == '__main__':#win系统下,必须先知足if条件
    p_lst = []
    for i in range(10):#经过循环建立多个子进程
        p = Process(target=func,args=('info%s'%i,0))#建立子进程
        p_lst.append(p)#将建立的子进程对象添加到列表中
        p.start()#启动子进程
    for p in p_lst:p.join()   # 以前的全部进程必须在这里都执行完才能执行下面的代码
    print([i for i in os.walk(r'E:\python10\day37')])#d打印文件内容
    
多个进程同时进行

除了上面这些开启进程的方法,还有一种以继承Process类的形式开启进程的方式编程

import os,time
from multiprocessing import Process
class Myprocess(Process):
    def __init__(self,arg1,arg2):
        time.sleep(3)
        print('*'*arg1)
        super().__init__()#继承父类中的init方法
        self.arg1=arg1
        self.arg2=arg2
    def run(self):
        print(self.pid)#子进程号
        print(self.name)#进程名字
        print(self.arg1)
        print(self.arg2)

if __name__=='__main__':
    for i in range(5):
        p=Myprocess(i,i+1)
        p.start()
        
# 自定义类 继承Process类
# 必须实现一个run方法,run方法中是在子进程中执行的代码
多进程中的第二种方法

进程之间的数据隔离问题json

# 进程 与 进程之间
import os
from multiprocessing import Process

def func():
    global n   # 声明了一个全局变量
    n = 0       # 从新定义了一个n
    print('pid : %s'%os.getpid(),n)#子进程中

if __name__ == '__main__':
    n = 100
    p = Process(target=func)
    p.start()
    p.join()# 感知一个子进程的结束,将异步的程序改成同步
    print(os.getpid(),n)#主进程中
数据隔离

会随着主进程的结束而结束。数组

主进程建立守护进程安全

  其一:守护进程会在主进程代码执行结束后就终止服务器

  其二:守护进程内没法再开启子进程,不然抛出异常:AssertionError: daemonic processes are not allowed to have children数据结构

注意:进程之间是互相独立的,主进程代码运行结束,守护进程随即终止多线程

import os,time
from multiprocessing import Process
def func():
    print(os.getpid())
    while True:
        time.sleep(1)
        print('我还活着')
def func1():
    print('in func start')
    time.sleep(2)
    print('in func1 end')

if __name__=='__main__':
    print('主进程 :>>>%s'%os.getpid())
    p=Process(target=func)
    p.daemon=True   #设置一个子进程为守护进程
    p.start()
    p1=Process(target=func1)
    p1.start()
    time.sleep(4)
    p1.terminate()  # 结束一个子进程
    time.sleep(2)
    print(p1.is_alive())  # 检验一个进程是否还活着
    print('结束紫禁城!!!')
守护进程

守护进程中用到的其余方法:p.terminate():结束一个子进程,p.is_alive():判断进程是否还活着并发

      经过刚刚的学习,咱们想方设法实现了程序的异步,让多个任务能够同时在几个进程中并发处理,他们之间的运行没有顺序,一旦开启也不受咱们控制。尽管并发编程让咱们能更加充分的利用IO资源,可是也给咱们带来了新的问题。

  当多个进程使用同一份数据资源的时候,就会引起数据安全或顺序混乱问题。

import os
import time
import random
import json
from multiprocessing import Process
from multiprocessing import Lock
def buy_ticket(i,lock):
    lock.acquire()    #取钥匙
    with open('ticket','r',encoding='utf-8')as f:#查看系统中所剩余票
        dic=json.load(f)  #load方法接收一个文件句柄,直接将文件中的json字符串转换成数据结构返回
        print('余票:%s'%dic['ticket'])
        time.sleep(random.random())#随机睡0点几秒
    if dic['ticket']>0:  
        dic['ticket']-=1  #取完票之后所剩余票
        print('\033[32m%s买到票了\033[0m' % i)
    else:print('\033[32m%s没买到票\033[0m'%i) 
    with open('ticket','w',encoding='utf-8')as f:  #将所剩余票字典从新放回文件中
        dic=json.dump(dic,f) ##dump方法接收一个文件句柄,直接将字典转换成json字符串写入文件
    lock.release()#还钥匙
if __name__=='__main__':
    lock=Lock()
    for i in range(10):#经过循环建立多个子进程
        p=Process(target=buy_ticket,args=(i,lock))#建立一个购买票子进程对象
        p.start()
经过锁,解决数据安全问题

 上锁中用到的其余方法:lock.acquire():取钥匙,lock.release():还钥匙

#加锁能够保证多个进程修改同一块数据时,同一时间只能有一个任务能够进行修改,即串行的修改,没错,速度是慢了,但牺牲了速度却保证了数据安全。
虽然能够用文件共享数据实现进程间通讯,但问题是:
1.效率低(共享数据基于文件,而文件是硬盘上的数据)
2.须要本身加锁处理

#所以咱们最好找寻一种解决方案可以兼顾:1、效率高(多个进程共享一块内存的数据)2、帮咱们处理好锁问题。这就是mutiprocessing模块为咱们提供的基于消息的IPC通讯机制:
队列和管道。 队列和管道都是将数据存放于内存中 队列又是基于(管道
+锁)实现的,可让咱们从复杂的锁问题中解脱出来, 咱们应该尽可能避免使用共享数据,尽量使用消息传递和队列,避免处理复杂的同步和锁问题,并且在进程数目增多时,每每能够得到更好的可获展性。

互斥锁同时只容许一个线程更改数据,而信号量Semaphore是同时容许必定数量的线程更改数据 。
假设商场里有4个迷你唱吧,因此同时能够进去4我的,若是来了第五我的就要在外面等待,等到有人出来才能再进去玩。
实现:
信号量同步基于内部计数器,每调用一次acquire(),计数器减1;每调用一次release(),计数器加1.当计数器为0时,acquire()调用被阻塞。这是迪科斯彻(Dijkstra)信号量概念P()和V()的Python实现。信号量同步机制适用于访问像服务器这样的有限资源。
信号量与进程池的概念很像,可是要区分开,信号量涉及到加锁的概念
信号量的讲解
import time,random
from multiprocessing import Process
from multiprocessing import Semaphore  #引用Semaphore模块
def ktv(i,sem):  #建立一个进ktv唱歌的函数
    sem.acquire()  #取钥匙 
    print('%s走进了KTV'%i)  
    time.sleep(random.randint(1,3))   #随机睡1-3秒
    print('%s走出了KTV'%i) 
    sem.release()  #还钥匙
if __name__=='__main__':
    sem=Semaphore(4)      #建立一个信号量对象,里面只能容纳4我的
    for i in range(20):  
        p=Process(target=ktv,args=(i,sem)) ##for循环建立对个子进程 (至关于建立20个等待唱歌的人)
        p.start()  #启动子进程
进ktv唱歌的例子

信号量和锁的概念相似,

锁是 某一段代码 同一时间 只能被1个进程执行

信号量是 某一段代码 同一时间 只能被n个进程执行

python线程的事件用于主线程控制其余线程的执行,事件主要提供了三个方法 set、wait、clear。

    事件处理的机制:全局定义了一个“Flag”,若是“Flag”值为 False,那么当程序执行 event.wait 方法时就会阻塞,若是“Flag”值为True,那么event.wait 方法时便再也不阻塞。

e.clear():将“Flag”设置为False
e.set():将“Flag”设置为True
import time,random
from multiprocessing import Event,Process
def cars(e,i):   #写一个汽车通行函数
    if not e.is_set():   #若是通行这个事件的状态是False,
        print('car%i在等待' % i)   #则汽车在此等待
        e.wait()  # 阻塞 直到等待  事件状态变成 True 的信号
    print('\033[0;32;40mcar%i经过\033[0m' % i) #则汽车经过这个红路灯路口

def light(e):  #写一个红绿灯变化函数
    while True:    #循环状态
        if e.is_set():  #判断事件状态是否为真
            e.clear()    #若是是真,则将事件状态经过 e.clear 改变成False
            print('\033[31m红灯亮了\033[0m')   #此时状态为False,定义红灯亮了 
            time.sleep(2)  #红灯停留2秒

        else:  #判断事件状态是否为False 
            e.set()  #若是是False,则将事件状态经过 e.set() 改变成True
            print('\033[31m绿灯亮了\033[0m') ##此时状态为True,定义绿灯亮了 
            time.sleep(2)   #红灯停留2秒

if __name__=='__main__':
    e=Event()   #注意,事件在开始的时候是为False的
    p=Process(target=light,args=(e,))  #建立一个子进程
    p.start()  #启动子进程light
    for i in range(10):
        car=Process(target=cars,args=(e,i))    #建立多个子进程
        car.start()  #启动子进程car
        time.sleep(random.random()) #随机睡0.几秒
红绿灯,车辆通行例子

 

IPC(Inter-Process Communication)

建立共享的进程队列,Queue是多进程安全的队列,
可使用Queue实现多进程之间的数据传递。 
Queue([maxsize]) 
建立共享的进程队列。
参数 :maxsize是队列中容许的最大项数。若是省略此参数,则无大小限制。
底层队列使用管道和锁定实现。
Queue([maxsize]) 
建立共享的进程队列。maxsize是队列中容许的最大项数。若是省略此参数,则无大小限制。底层队列使用管道和锁定实现。另外,还须要运行支持线程以便队列中的数据传输到底层管道中。 
Queue的实例q具备如下方法:

q.get( [ block [ ,timeout ] ] ) 
返回q中的一个项目。若是q为空,此方法将阻塞,直到队列中有项目可用为止。block用于控制阻塞行为,默认为True. 若是设置为False,将引起Queue.Empty异常(定义在Queue模块中)。timeout是可选超时时间,用在阻塞模式中。若是在制定的时间间隔内没有项目变为可用,将引起Queue.Empty异常。

q.get_nowait( ) 
同q.get(False)方法。

q.put(item [, block [,timeout ] ] ) 
将item放入队列。若是队列已满,此方法将阻塞至有空间可用为止。block控制阻塞行为,默认为True。若是设置为False,将引起Queue.Empty异常(定义在Queue库模块中)。timeout指定在阻塞模式中等待可用空间的时间长短。超时后将引起Queue.Full异常。

q.qsize() 
返回队列中目前项目的正确数量。此函数的结果并不可靠,由于在返回结果和在稍后程序中使用结果之间,队列中可能添加或删除了项目。在某些系统上,此方法可能引起NotImplementedError异常。


q.empty() 
若是调用此方法时 q为空,返回True。若是其余进程或线程正在往队列中添加项目,结果是不可靠的。也就是说,在返回和使用结果之间,队列中可能已经加入新的项目。

q.full() 
若是q已满,返回为True. 因为线程的存在,结果也多是不可靠的(参考q.empty()方法)。。
队列方法介绍
q.close() 
关闭队列,防止队列中加入更多数据。调用此方法时,后台线程将继续写入那些已入队列但还没有写入的数据,但将在此方法完成时立刻关闭。若是q被垃圾收集,将自动调用此方法。关闭队列不会在队列使用者中生成任何类型的数据结束信号或异常。例如,若是某个使用者正被阻塞在get()操做上,关闭生产者中的队列不会致使get()方法返回错误。

q.cancel_join_thread() 
不会再进程退出时自动链接后台线程。这能够防止join_thread()方法阻塞。

q.join_thread() 
链接队列的后台线程。此方法用于在调用q.close()方法后,等待全部队列项被消耗。默认状况下,此方法由不是q的原始建立者的全部进程调用。调用q.cancel_join_thread()方法能够禁止这种行为。
其余方法
# 队列 先进先出
from multiprocessing import Process,Queue
def put_data(q):
    for i in ['b','c','d','e','a','f']:
        if q.full():#队列是否已满
            break
        q.put(i)  #放数据,数据一旦放到队列能放的最大数值,再放回形成阻塞,因此上面用到了判断队列是否已满
def get_data(q):
    for j in ['b','c','d','e','a','f']:
        if q.empty(): #判断队列中的数据是否已经取完
            break
        g=q.get()#取数据,数据一旦取完再取,会形成阻塞
        print(g)

if __name__=='__main__':
    q=Queue(6)  #建立一个队列对象,括号内的数表示这个队列能放的最大数据
    p1=Process(target=put_data,args=(q,))#建立一个子进程
    p2=Process(target=get_data,args=(q,))#建立一个子进程
    p1.start()#启动子进程
    p2.start()#启动子进程
单看队列中放数据和取数据例子

 上面这个例子尚未加入进程通讯,只是先来看看队列为咱们提供的方法,以及这些方法的使用和现象。

在队列中有用到方法:

q.put(i)  #放数据
g=q.get()#取数据
q.full():#判断队列是否已满
q.empty(): #判断队列中的数据是否已经取完
q.put_nowait(3) # 可使用put_nowait,若是队列满了不会阻塞,可是会由于队列满了而报错。

在并发编程中使用生产者和消费者模式可以解决绝大多数并发问题。该模式经过平衡生产线程和消费线程的工做能力来提升程序的总体处理数据的速度。

为何要使用生产者和消费者模式

在线程世界里,生产者就是生产数据的线程,消费者就是消费数据的线程。在多线程开发当中,若是生产者处理速度很快,而消费者处理速度很慢,那么生产者就必须等待消费者处理完,才能继续生产数据。一样的道理,若是消费者的处理能力大于生产者,那么消费者就必须等待生产者。为了解决这个问题因而引入了生产者和消费者模式。

什么是生产者消费者模式

生产者消费者模式是经过一个容器来解决生产者和消费者的强耦合问题。生产者和消费者彼此之间不直接通信,而经过阻塞队列来进行通信,因此生产者生产完数据以后不用等待消费者处理,直接扔给阻塞队列,消费者不找生产者要数据,而是直接从阻塞队列里取,阻塞队列就至关于一个缓冲区,平衡了生产者和消费者的处理能力。

基于队列实现生产者消费者模型
import time,random
from multiprocessing import Process,Queue
def consumer(q,name):  #建立一个消费者函数 q是队列的实例化对象,name消费者名字
    while True: #消费者排队购买
        food = q.get()  #取到产品
        if food is None: #若是产品已经卖完了,不能再取了,则返回空
            print('%s得到一个空'%name)
            break
        print('\033[31m%s消费了%s\033[0m'%(name,food))
        time.sleep(random.randint(1,2))  #随机停留1-2秒

def producer(name,food,q):  #建立一个生产者函数
    for i in range(4):  #循环建立4个生产者
        # time.sleep(random.randint(1,2)) #随机停留1-2秒
        f='%s生产了%s%s'%(name,food,i) #生产一个产品
        print(i)
        q.put(f)  #将产品放进队列中
if __name__=='__main__':
    q = Queue(20)    #建立一个队列的实例化对象
    p1 = Process(target=producer,args=('Egon','包子',q)) #建立一个生产者子进程
    p2 = Process(target=producer, args=('wusir','泔水', q))#建立一个生产者子进程
    c1 = Process(target=consumer, args=(q,'alex'))          #建立一个消费子进程
    c2 = Process(target=consumer, args=(q,'jinboss'))    #建立一个消费子进程
    p1.start() #启动子进程
    p2.start()#启动子进程
    c1.start()#启动子进程
    c2.start()#启动子进程
    p1.join()  #感知 p1 生产者子进程是否运行结束。
    p2.join()  #感知 p2 生产者子进程是否运行结束。再
    #等join感知到子进程中全部程序运行结束,再运行下面的程序
    q.put(None) #当队列中放None时,消费者取到None说明生产者已经把须要生产的产品所有生产完且已经被消费者取完
    q.put(None)  #None也能够理解成作了一个标志,标志生产者已经运行结束,且生产者生产的产品也已经被取 完
生产者消费者模式 例子

在此例子中除了用到队列中的方法还有join:感知一个进程是否运行结束。它的做用就是:生防止产者在生产完后就结束了,可是消费者在取空了以后,则一直处于死循环中且卡在q.get()这一步。

 JoinableQueue([maxsize]) 

建立可链接的共享进程队列。这就像是一个Queue对象,但队列容许项目的使用者通知生产者项目已经被成功处理。通知进程是使用共享的信号和条件变量来实现的。 

JoinableQueue的实例p除了与Queue对象相同的方法以外,还具备如下方法:

q.task_done() 
使用者使用此方法发出信号,表示q.get()返回的项目已经被处理。若是调用此方法的次数大于从队列中删除的项目数量,将引起ValueError异常。

q.join() 
生产者将使用此方法进行阻塞,直到队列中全部项目均被处理。阻塞将持续到为队列中的每一个项目均调用q.task_done()方法为止。 
下面的例子说明如何创建永远运行的进程,使用和处理队列上的项目。生产者将项目放入队列,并等待它们被处理。
方法介绍
import time,random
from multiprocessing import Process,JoinableQueue

def consumer(q,name):
    while True:
        f_c=q.get()  ## 每次获取一个数据
        print('\033[31m%s消费了%s\033[0m' % (name,f_c))  ## 处理一个数据
        time.sleep(random.randint(1, 3))
        q.task_done()  ## 发送一个记号 : 标志一个数据被处理成功

def producer(name,product,q):
    for i in range(10):
        time.sleep(random.randint(1,3))
        f_p='%s成产了%s%s份'%(name,product,i)  ## 每一次生产一个数据,
        print(f_p)
        q.put(f_p) # 且每一次生产的数据都放在队列中
    q.join() #感知生产是否结束, 
    # 当生产者所有生产完毕以后,join信号 : 已经中止生产数据了 
    #  且要等待以前被刻上的记号都被消费完
    # 当数据都被处理完时,join阻塞结束
if __name__  == '__main__':
    q = JoinableQueue(15)
    p1 = Process(target=producer,args=('Egon','包子',q))
    p2 = Process(target=producer, args=('wusir','泔水', q))
    c1 = Process(target=consumer, args=(q,'alex'))
    c2 = Process(target=consumer, args=(q,'jinboss'))
    p1.start()
    p2.start()
    c1.daemon = True   # 设置为守护进程(主进程中的代码执行完毕以后,子进程自动结束)当主进程中的代码运行结束之后,消费者进程也随之结束
    c1.start()
    c2.start()
    p1.join()
    p2.join()      # 感知一个生产者的进程是否结束,若结束,则主进程中的代码结束,消费者的进程也结束
生产者消费者模式改良版

#建立管道的类:
Pipe([duplex]):在进程之间建立一条管道,并返回元组(conn1,conn2),其中conn1,conn2表示管道两端的链接对象,强调一点:必须在产生Process对象以前产生管道
#参数介绍:
dumplex:默认管道是全双工的,若是将duplex射成False,conn1只能用于接收,conn2只能用于发送。
#主要方法:
    conn1.recv():接收conn2.send(obj)发送的对象。若是没有消息可接收,recv方法会一直阻塞。若是链接的另一端已经关闭,那么recv方法会抛出EOFError。
    conn1.send(obj):经过链接发送对象。obj是与序列化兼容的任意对象
 #其余方法:
conn1.close():关闭链接。若是conn1被垃圾回收,将自动调用此方法
conn1.fileno():返回链接使用的整数文件描述符
conn1.poll([timeout]):若是链接上的数据可用,返回True。timeout指定等待的最长时限。若是省略此参数,方法将当即返回结果。若是将timeout射成None,操做将无限期地等待数据到达。
 
conn1.recv_bytes([maxlength]):接收c.send_bytes()方法发送的一条完整的字节消息。maxlength指定要接收的最大字节数。若是进入的消息,超过了这个最大值,将引起IOError异常,而且在链接上没法进行进一步读取。若是链接的另一端已经关闭,不再存在任何数据,将引起EOFError异常。
conn.send_bytes(buffer [, offset [, size]]):经过链接发送字节数据缓冲区,buffer是支持缓冲区接口的任意对象,offset是缓冲区中的字节偏移量,而size是要发送字节数。结果数据以单条消息的形式发出,而后调用c.recv_bytes()函数进行接收    
 
conn1.recv_bytes_into(buffer [, offset]):接收一条完整的字节消息,并把它保存在buffer对象中,该对象支持可写入的缓冲区接口(即bytearray对象或相似的对象)。offset指定缓冲区中放置消息处的字节位移。返回值是收到的字节数。若是消息长度大于可用的缓冲区空间,将引起BufferTooShort异常。
介绍
from multiprocessing import Pipe,Process  #调用多进程和管道模块
#第一种方法:
# def func(conn1,conn2): #建立子进程中的函数
#     conn2.close() #将暂时不用的链接对象关闭
#     while True:
#         try:
#             msg=conn1.recv() #接收主进程发过来的消息
#             print(msg)
#         except EOFError:
#             conn1.close() #当主进程中的链接对象关闭时,会出现EOFError错误
#             break
#
# if __name__=='__main__':
#     conn1,conn2=Pipe()   #建立管道,conn1,conn2是链接管道两端的链接对象
#     Process(target=func,args=(conn1,conn2)).start()  #实例化一个进程,启动进程
#     conn1.close() #将暂时不用的链接对象关闭
#     for i in range(20):
#         conn2.send('吃了么')
#     conn2.close()
#第二种方法:
def func(conn1): #建立子进程中的函数
    while True:
            msg=conn1.recv() #接收主进程发过来的消息
            if msg is None:break  #当conn1接收到一个None的时候,标志着conn2已经把消息发送完了,这时候直接break
            print(msg)
if __name__=='__main__':
    conn1,conn2=Pipe()   #建立管道,conn1,conn2是链接管道两端的链接对象
    Process(target=func,args=(conn1,)).start()  #实例化一个进程,启动进程
    for i in range(5):
        conn2.send('吃了么')
    conn2.send(None)  #当conn2的内容所有发送完之后。为了不发生阻塞,返回一个None(至关于作一个我已经发完了的标记)
利用管道收发消息

应该特别注意管道端点的正确管理问题。若是是生产者或消费者中都没有使用管道的某个端点,就应将它关闭。这也说明了为什么在生产者中关闭了管道的输出端,在消费者中关闭管道的输入端。若是忘记执行这些步骤,程序可能在消费者中的recv()操做上挂起。管道是由操做系统进行引用计数的,必须在全部进程中关闭管道后才能生成EOFError异常。所以,在生产者中关闭管道不会有任何效果,除非消费者也关闭了相同的管道端点。

from multiprocessing import Process,Pipe,Lock
def producer(con,p,name,product):  
    con.close()
    for i in range(10):
        f=('%s生产的%s第%s份'%(name,product,i))
        print(f)
        p.send(f)
    p.send(None)
    p.send(None)
    p.send(None)
    p.close()

def consumer(con,p,name,lock):
    p.close()
    while True:
        lock.acquire()
        product=con.recv()
        lock.release()
        if product is None:
            con.close()
            break
        print('%s消费了%s'%(name,product))


if __name__=='__main__':
    con,p=Pipe()
    lock=Lock()
    p1=Process(target=producer,args=(con,p,'yimi','面包'))
    c1= Process(target=consumer,args=(con,p,'titi',lock))
    c2= Process(target=consumer, args=(con, p, 'eva', lock))
    c3= Process(target=consumer, args=(con, p, 'anni', lock))
    c1.start()
    c2.start()
    c3.start()
    p1.start()
    con.close()
    p.close()
管道实现生产者消费者模型

注意:pipe 数据具备不安全性,须要加 lock来控制操做管道的行为,来避免进程之间争抢数据形成的数据不安全现象。

 

展望将来,基于消息传递的并发编程是大势所趋

即使是使用线程,推荐作法也是将程序设计为大量独立的线程集合,经过消息队列交换数据。

这样极大地减小了对使用锁定和其余同步手段的需求,还能够扩展到分布式系统中。

但进程间应该尽可能避免通讯,即使须要通讯,也应该选择进程安全的工具来避免加锁带来的问题。

之后咱们会尝试使用数据库来解决如今进程之间的数据共享问题。

from multiprocessing import Manager,Process,Lock
def main(dic,lock):
    lock.acquire() #拿钥匙
    dic['count'] -= 1 #处理数据
    lock.release()  #还钥匙

if __name__ == '__main__':
    m = Manager()  #建立Manager对象
    l = Lock()  #建立锁对象,加锁的做用是避免数据处理混乱
    dic=m.dict({'count':100}) #调用Manager中的dict方法,获得具备数据共享功能的字典
    p_lst = []  #建立一个空列表,用来放进程对象
    for i in range(50):
        p = Process(target=main,args=(dic,l))
        p.start()
        p_lst.append(p)
    for i in p_lst: i.join() #循环获得各个子进程,并join,感知进程是否结束
    print('主进程',dic)
Mananger进程间的数据共享

为何要有进程池?进程池的概念。

在程序实际处理问题过程当中,忙时会有成千上万的任务须要被执行,闲时可能只有零星任务。那么在成千上万个任务须要被执行的时候,咱们就须要去建立成千上万个进程么?首先,建立进程须要消耗时间,销毁进程也须要消耗时间。第二即使开启了成千上万的进程,操做系统也不能让他们同时执行,这样反而会影响程序的效率。所以咱们不能无限制的根据任务开启或者结束进程。那么咱们要怎么作呢?

在这里,要给你们介绍一个进程池的概念,定义一个池子,在里面放上固定数量的进程,有需求来了,就拿一个池中的进程来处理任务,等处处理完毕,进程并不关闭,而是将进程再放回进程池中继续等待任务。若是有不少任务须要执行,池中的进程数量不够,任务就要等待以前的进程执行任务完毕归来,拿到空闲进程才能继续执行。也就是说,池中进程的数量是固定的,那么同一时间最多有固定数量的进程在运行。这样不会增长操做系统的调度难度,还节省了开闭进程的时间,也必定程度上可以实现并发效果。

 

Pool([numprocess  [,initializer [, initargs]]]):建立进程池
1 numprocess:要建立的进程数,若是省略,将默认使用cpu_count()的值
2 initializer:是每一个工做进程启动时要执行的可调用对象,默认为None
3 initargs:是要传给initializer的参数组

数据池的方法:

1 p.apply(func [, args [, kwargs]]):在一个池工做进程中执行func(*args,**kwargs),而后返回结果。

2 '''须要强调的是:此操做并不会在全部池工做进程中并执行func函数。若是要经过不一样参数并发地执行func函数,
  必须从不一样线程调用p.apply()函数或者使用p.apply_async()'''
3 p.apply_async(func [, args [, kwargs]]):在一个池工做进程中执行func(*args,**kwargs),而后返回结果。

4 '''此方法的结果是AsyncResult类的实例,callback是可调用对象,接收输入参数。当func的结果变为可用时,
  将理解传递给callback。callback禁止执行任何阻塞操做,不然将接收其余异步操做中的结果。'''
   
5 p.close():关闭进程池,防止进一步操做。若是全部操做持续挂起,它们将在工做进程终止前完成
 
6 P.jion():等待全部工做进程退出。此方法只能在close()或teminate()以后调用
1 方法apply_async()和map_async()的返回值是AsyncResul的实例obj。实例具备如下方法
2 obj.get():返回结果,若是有必要则等待结果到达。timeout是可选的。若是在指定时间内尚未到达,将引起一场。若是远程操做中引起了异常,它将在调用此方法时再次被引起。
3 obj.ready():若是调用完成,返回True
4 obj.successful():若是调用完成且没有引起异常,返回True,若是在结果就绪以前调用此方法,引起异常
5 obj.wait([timeout]):等待结果变为可用。
6 obj.terminate():当即终止全部工做进程,同时不执行任何清理或结束任何挂起工做。若是p被垃圾回收,将自动调用此函数
其余方法了解

进程池和多进程效率对比
import time
from multiprocessing import Pool,Process
def func(n):
    for i in range(10):
        print(n+1)

def func2(n):
    for i in range(10):
        print(n+2)
if __name__ == '__main__':
    start = time.time()  #进程开始的时间
    pool = Pool(5)               # 5个进程(根据计算机的cpu个数+1)
    pool.map(func,range(1,10))    # 100个func任务
    pool.map(func2,range(10,1,-1))    # 100个func2任务
    t1 = time.time() - start  #利用进程池完成全部任务所需的时间

    start = time.time()  #进程开始的时间
    p_lst = []   #建立一个用来存放左右进程对象的空列表
    for i in range(100):  #100个进程
        p = Process(target=func,args=(i,))  #每循环一次建立一个进程对象,去执行func任务
        p_lst.append(p)
        p.start()  #启动进程
    for p in p_lst :p.join()  #利用循环感知每一个进程是否结束
    t2 = time.time() - start ##利用多个进程完成全部任务所需的时间
    print(t1,t2)       #t1=0.17700982093811035,t2=4.100234508514404
    
#总结:使用进程池的方法可以高效的去完成任务
进程池和多进程效率对比
同步和异步
import os,time
from multiprocessing import Pool

def work(n):
    print('%s run' %os.getpid())
    time.sleep(3)
    return n**2

if __name__ == '__main__':
    p=Pool(3) #进程池中从无到有建立三个进程,之后一直是这三个进程在执行任务
    res_l=[]
    for i in range(10):
        res=p.apply(work,args=(i,)) # 同步调用,直到本次任务执行完毕拿到res,等待任务work执行的过程当中可能有阻塞也可能没有阻塞
                                    # 但无论该任务是否存在阻塞,同步调用都会在原地等着
    print(res_l)
进程池同步调用
import os
import time
import random
from multiprocessing import Pool

def work(n):
    print('%s run' %os.getpid())
    time.sleep(random.random())
    return n**2

if __name__ == '__main__':
    p=Pool(3) #进程池中从无到有建立三个进程,之后一直是这三个进程在执行任务
    res_l=[]
    for i in range(10):
        res=p.apply_async(work,args=(i,)) # 异步运行,根据进程池中有的进程数,每次最多3个子进程在异步执行
                                          # 返回结果以后,将结果放入列表,归还进程,以后再执行新的任务
                                          # 须要注意的是,进程池中的三个进程不会同时开启或者同时结束
                                          # 而是执行完一个就释放一个进程,这个进程就去接收新的任务。  
        res_l.append(res)

    # 异步apply_async用法:若是使用异步提交的任务,主进程须要使用jion,等待进程池内任务都处理完,而后能够用get收集结果
    # 不然,主进程结束,进程池可能还没来得及执行,也就跟着一块儿结束了
    p.close()
    p.join()
    for res in res_l:
        print(res.get()) #使用get来获取apply_aync的结果,若是是apply,则没有get方法,由于apply是同步执行,马上获取结果,也根本无需get
进程池异步调用
回调函数
须要回调函数的场景:进程池中任何一个任务一旦处理完了,就当即告知主进程:我好了额,你能够处理个人结果了。主进程则调用一个函数去处理该结果,该函数即回调函数

咱们能够把耗时间(阻塞)的任务放到进程池中,而后指定回调函数(主进程负责执行),这样主进程在执行回调函数时就省去了I/O的过程,直接拿到的是任务的结果。
import time,os
from multiprocessing import Pool
def f1(n): #n=10
    print('in f1',os.getpid())
    return n**2 #返回n,此时n=100
def f2(n): 
    print('in f2',os.getpid())
    print(n)
if __name__=='__main__':
    print('主进程 ',os.getpid())
    p=Pool(5)
    p.apply_async(f1,args=(10,),callback=f2)  #进程池的异步调用,n=10,callback是将子进程中的f2函数回调到主进程中
    p.close() #关闭进程
    p.join() #感知进程是否结束
进程池的回调函数

若是在主进程中等待进程池中全部任务都执行完毕后,再统一处理结果,则无需回调函数

相关文章
相关标签/搜索