[ python ] 进程的操做

目录

(见右侧目录栏导航)
- 1. 前言
- 2. multiprocess模块
- 2.1 multiprocess.Process模块
    - 2.2 使用Process模块建立进程
    - 2.3 守护进程
    - 2.4 socket聊天并发实例
- 3. 进程锁 - multiprocess.Lock
- 4. 信号量(multiprocessing.Semaphore)
- 5. 事件
- 6. 进程间通讯
    - 6.1 队列
    - 6.2 管道(了解)
    - 6.3 进程之间数据共享
- 7. 进程池
    - 7.1 为何要有进程池
    - 7.2 Pool模块
python

 

1. 前言

运行中的程序就是一个进程。全部的进程都是经过它的父进程来建立的。所以,运行起来的python程序也是一个进程,那么咱们也能够在程序中再建立进程。多个进程能够实现并发的效果,也就是说,当咱们的程序中存在多个进程的时候,在某些时候,就会让程序的执行速度变快。以咱们以前所学的知识,并不能实现建立进程这个功能,因此咱们就须要借助python中强大的模块。linux

 

2. multiprocess模块

mulitiprocess 是python的一个内建模块,包含了和进程有关的全部子模块。因为提供的子模块很是多,为了方便你们归类记忆,我将这部分大体分为四个部分:建立进程部分,进程同步部分,进程池部分,进程之间数据共享。数据库

 

2.1 multiprocess.Process模块

 Process模块介绍
process模块是一个建立进程的模块,借助这个模块,就能够完成进程的建立。

Process([group [, target [, name [, args [, kwargs]]]]]),由该类实例化获得的对象,表示一个子进程中的任务(还没有启动)

强调:
1. 须要使用关键字的方式来指定参数
2. args指定的为传给target函数的位置参数,是一个元组形式,必须有逗号

参数介绍:编程

group参数未使用,值始终为None target表示调用对象,即子进程要执行的任务 args表示调用对象的位置参数元组,args=(1,2,'egon',) kwargs表示调用对象的字典,kwargs={'name':'egon','age':18} name为子进程的名称

 

 

方法介绍:json

p.start():启动进程,并调用该子进程中的p.run() p.run():进程启动时运行的方法,正是它去调用target指定的函数,咱们自定义类的类中必定要实现该方法 p.terminate():强制终止进程p,不会进行任何清理操做,若是p建立了子进程,该子进程就成了僵尸进程,使用该方法须要特别当心这种状况。若是p还保存了一个锁那么也将不会被释放,进而致使死锁 p.is_alive():若是p仍然运行,返回True p.join([timeout]):主线程等待p终止(强调:是主线程处于等的状态,而p是处于运行的状态)。timeout是可选的超时时间,须要强调的是,p.join只能join住start开启的进程,而不能join住run开启的进程  

 

 

属性介绍:数组

p.daemon:默认值为False,若是设为True,表明p为后台运行的守护进程,当p的父进程终止时,p也随之终止,而且设定为True后,p不能建立本身的新进程,必须在p.start()以前设置
p.name:进程的名称
p.pid:进程的pid
p.exitcode:进程在运行时为None、若是为–N,表示被信号N结束(了解便可)
p.authkey:进程的身份验证键,默认是由os.urandom()随机生成的32字符的字符串。这个键的用途是为涉及网络链接的底层进程间通讯提供安全性,这类链接只有在具备相同的身份验证键时才能成功(了解便可)

 

 

注意:
在Windows操做系统中因为没有fork(linux操做系统中建立进程的机制),在建立子进程的时候会自动 import 启动它的这个文件,而在 import 的时候又执行了整个文件。所以若是将process()直接写在文件中就会无限递归建立子进程报错。因此必须把建立子进程的部分使用if __name__ ==‘__main__’ 判断保护起来,import 的时候  ,就不会递归运行了。安全

 

2.2 使用Process模块建立进程

在一个python进程中开启子进程,start方法和并发效果。服务器

from multiprocessing import Process import time def f(name):     print('hello,', name)     print('我是子进程.') if __name__ == '__main__':     p = Process(target=f, args=('hkey',))     p.start()     time.sleep(1)     print('执行主进程的内容了。')
在python中启动一个子进程
from multiprocessing import Process import time def f(name):     print('hello,', name)     time.sleep(1)     print('我是子进程.') if __name__ == '__main__':     p = Process(target=f, args=('hkey',))     p.start()     p.join()  # 等待子进程执行完毕而后在继续执行主进程
    print('执行主进程的内容了。')
join方法
from multiprocessing import Process import time import os def f(name):     print('hello,', name)     time.sleep(1)     print('子进程id:', os.getpid())  # 子进程id
    print('父进程id:', os.getppid())  # 子进程的父进程id
    print('我是子进程.') if __name__ == '__main__':     p = Process(target=f, args=('hkey',))     p.start()     p.join()  # 等待子进程执行完毕而后在继续执行主进程
    print('执行主进程的内容了。')     print('主进程的id:', os.getpid())  # 主进程的id
查看主进程和子进程的进程号

 

 

进阶,多个进程同时运行(注意:子进程的执行顺序不是根据启动顺序决定的)网络

from multiprocessing import Process import time def f(name):     print('hello,', name)     time.sleep(1) if __name__ == '__main__':     for i in range(5):  # 产生 5 个子进程同时运行
        p = Process(target=f, args=('hkey',))         p.start()
多个进程同时运行
from multiprocessing import Process import time def f(name):     print('hello,', name)     time.sleep(1) if __name__ == '__main__':     p_lst = []     for i in range(5):  # 产生 5 个子进程同时运行
        p = Process(target=f, args=('hkey',))         p.start()         p_lst.append(p)     [p.join() for p in p_lst]  # 等待全部子进程执行结束在继续执行后续的代码
    print('hello  world.')
多个进程同时运行,join方法的使用

 

 

除了上面这些开启进程的方法,还有一种以继承Process类的形式开启进程的方式多线程

from multiprocessing import Process import time class MyProcess(Process):     def __init__(self, name):         super(MyProcess, self).__init__()  # 须要继承父类中的初始化方法
        self.name = name     def run(self):  # 必须重写的方法
        print('hello,', self.name)         time.sleep(1) if __name__ == '__main__':     p_lst = []     for i in range(5):         p = MyProcess(str(i))         p.start()         p_lst.append(p)     [p.join() for p in p_lst]     print('hello hkey')
经过继承Process类开启进程

进程之间数据是相互隔离的。
这里能够想象电脑上经过开启QQ和wrod文档,它们是相互独立的两个进程,不存在任何数据共享。

 

2.3 守护进程

守护进程:会随着主进程的结束而结束的进程。
主进程建立守护进程:
        (1) 守护进程会在主进程代码执行结束后就终止
        (2) 守护进程内没法再开启子进程,不然抛出异常

注意:进程之间是相互独立的,主进程代码运行结束,守护进程随即终止

from multiprocessing import Process import time import os class MyProcess(Process):     def __init__(self, name):         super(MyProcess, self).__init__()         self.name = name         self.daemon = True  # True为开启守护进程
    def run(self):         print(os.getpid(), self.name)         print('%s正在吃饭.' % self.name) if __name__ == '__main__':     p = MyProcess('小王')     p.start()     time.sleep(4)     print('主进程.')
守护进程的启动
from multiprocessing import Process import time def foo():     print('123')     time.sleep(3)     print('end123') if __name__ == '__main__':     p1 = Process(target=foo)     p1.daemon = True     p1.start()     time.sleep(0.1)     print('main-end')
主进程代码执行结束守护进程当即结束

 

 

2.4 socket聊天并发实例

from multiprocessing import Process import socket class MyProcess(Process):     def __init__(self, conn, addr):         super(MyProcess, self).__init__()         self.conn = conn         self.addr = addr     def run(self):         try:             while True:                 res = self.conn.recv(1024)                 if not res: break                 print(self.addr, res)                 self.conn.send(res.upper())         except ConnectionResetError as e:             print('Error', e) if __name__ == '__main__':     sk_server = socket.socket()     sk_server.bind(('localhost', 8080))     sk_server.listen(5)     while True:         conn, addr = sk_server.accept()         conn.send('welcome QQ'.encode())         p = MyProcess(conn, addr)         p.start()
使用多进程实现socket聊天并发 - server.py
import socket sk_client = socket.socket() sk_client.connect(('localhost', 8080)) res = sk_client.recv(1024).decode() print(res) while True:     cmd = input('>>>').strip()     if not cmd: continue     sk_client.send(cmd.encode())     res = sk_client.recv(1024)     print(res)
client.py

 

 

3. 进程锁 - multiprocess.Lock

经过上面的学习,实现了并发的效果,让多个任务能够同时在几个进程中并发处理,他们之间的运行没有顺序,一旦开启也不受咱们控制。尽管并发编程让咱们能更加充分的利用IO资源,但也给咱们带来了新的问题。
当多个进程使用同一份数据资源的时候,就会引起数据安全或顺序混乱问题。

import os import time import random from multiprocessing import Process, Lock class Work(Process):     def __init__(self, n):         super(Work, self).__init__()         self.n = n     def run(self):         print('%s: %s is running.' % (self.n, os.getppid()))         time.sleep(random.random())         print('%s:%s is done' % (self.n, os.getpid())) if __name__ == '__main__':     for i in range(5):         p = Work(i)         p.start()
多进程抢占输出资源
import os import time import random from multiprocessing import Process, Lock class Work(Process):     def __init__(self, n, lock):         super(Work, self).__init__()         self.n = n         self.lock = lock     def run(self):         self.lock.acquire()         print('%s: %s is running.' % (self.n, os.getppid()))         time.sleep(random.random())         print('%s:%s is done' % (self.n, os.getpid()))         self.lock.release() if __name__ == '__main__':     lock = Lock()     for i in range(5):         p = Work(i, lock)         p.start()
使用锁维护执行顺序(由并发变成了串行,牺牲了运行效率,但避免了竞争)

上面这种状况虽然使用加锁的形式实现了顺序的执行,可是程序又从新变成串行了,这样确实会浪费了时间,却保证了数据的安全。

接下来,咱们以模拟抢票为例,来看看数据安全的重要性。

# 文件 ticket.json 的内容为:{"count":1} # 注意必定要用双引号,否则json没法识别 # 并发运行,效率高,但竞争写同一文件,数据写入错乱
from multiprocessing import Process, Lock import time, json def search():     with open('ticket.json', 'r') as f:         dic = json.load(f)         print('\033[33;1m余票:\033[0m', dic['count']) class Get(Process):     def __init__(self, name):         super(Get, self).__init__()         self.name = name     def run(self):         with open('ticket.json', 'r') as f:             ticket = json.load(f)         if ticket['count'] >= 1:             ticket['count'] -= 1             time.sleep(0.5)             with open('ticket.json', 'w') as f:                 json.dump(ticket, f)             print('\033[32;1m%s,购票成功.\033[0m' % self.name)         else:             print('\033[31;1m%s,购票失败.\033[0m' % self.name) if __name__ == '__main__':     search()     for i in ('xiaosan', 'xiaowang', 'xiaogou'):         g = Get(i)         g.start()
多进程同时抢票
# 文件 ticket.json 的内容为:{"count":1} # 注意必定要用双引号,否则json没法识别 # 并发变成串行,牺牲了效率,但保证了数据的准确性
from multiprocessing import Process, Lock import time, json def search():     with open('ticket.json', 'r') as f:         dic = json.load(f)         print('\033[33;1m余票:\033[0m', dic['count']) class Get(Process):     def __init__(self, name, lock):         super(Get, self).__init__()         self.name = name         self.lock = lock     def run(self):         self.lock.acquire()         with open('ticket.json', 'r') as f:             ticket = json.load(f)         if ticket['count'] >= 1:             ticket['count'] -= 1             time.sleep(0.5)             with open('ticket.json', 'w') as f:                 json.dump(ticket, f)             print('\033[32;1m%s,购票成功.\033[0m' % self.name)         else:             print('\033[31;1m%s,购票失败.\033[0m' % self.name)         self.lock.release() if __name__ == '__main__':     search()     lock = Lock()     for i in ('xiaosan', 'xiaowang', 'xiaogou'):         g = Get(i, lock)         g.start()
使用锁来保证数据安全

 

4. 信号量(multiprocessing.Semaphore)

互斥锁(multiprocessing.Lock)同时只容许一个线程更改数据,而信号量Semaphore是同时容许必定数量的线程更改数据。
假设商场里有4个迷你唱吧,因此同时能够进去4我的,若是来了第五我的就要在外面等待,等到有人出来才能再进去玩。
实现:
信号量同步基于内部计数器,每调用一次acquire(),计数器减1;每调用一次release(),计数器加1.当计数器为0时,acquire()调用被阻塞。这是迪科斯彻(Dijkstra)信号量概念P()和V()的Python实现。信号量同步机制适用于访问像服务器这样的有限资源。
信号量与进程池的概念很像,可是要区分开,信号量涉及到加锁的概念

from multiprocessing import Process, Semaphore
import time
import random


def ktv(name, sem):
    sem.acquire()   # 每次进来一我的就拿一把钥匙
    print('\033[32;1m%s 进入ktv.\033[0m' % name)
    time.sleep(random.randint(1, 3))
    print('\033[31;1m%s 退出ktv.\033[0m' % name)
    sem.release()   # 退出就释放钥匙

if __name__ == '__main__':
    sem = Semaphore(5)  # 设定共享的ktv数量
    for i in range(20): # 20我的要使用这5个资源
        p = Process(target=ktv, args=(str(i), sem))
        p.start()
信号量实例

 

 

5. 事件

python线程的事件用于主线程控制其余线程的执行,事件主要提供了三个方法 set、wait、clear。
事件处理的机制:全局定义了一个“Flag”,若是“Flag”值为 False,那么当程序执行 event.wait 方法时就会阻塞,若是“Flag”值为True,那么event.wait 方法时便再也不阻塞。
clear:将“Flag”设置为False
set:将“Flag”设置为True

能够这样理解:两个子类共享父类的一个全局变量。

from multiprocessing import Process, Event
import time


def cars(e, n):
    while True:
        if not e.is_set():  # 进程刚开启,is_set()的值是Flase,模拟信号灯为红色
            print('\033[31m红灯亮\033[0m,car%s等着' % n)
            e.wait()  # 阻塞,等待is_set()的值变成True,模拟信号灯为绿色,等待时间为:5秒
            print('\033[32m绿灯亮\033[0m,car%s通行' % n)
            if not e.is_set():
                continue
            break


def police_car(e, n):
    while True:
        if not e.is_set():  # 进程刚开启,is_set()的值是Flase,模拟信号灯为红色
            print('\033[31m红灯亮\033[0m,car%s等着' % n)
            e.wait(0.5)  # 阻塞,等待设置等待时间,等待0.5s以后没有等到绿灯就闯红灯走了
            if not e.is_set():
                print('\033[31;1m红灯,警车先走\033[0m')
            else:
                print('\033[31;1m绿灯,警车走\033[0m')
        break


def light(e):
    '''红绿灯控制器'''
    while True:
        time.sleep(5)  # 红灯和绿灯切换时间:5秒
        if e.is_set():
            print(e.is_set())
            e.clear()
        else:
            print(e.is_set())
            e.set()


if __name__ == '__main__':
    e = Event()
    for i in range(3):
        car = Process(target=cars, args=(e, str(i)))  # 建立3个进程控制3辆车
        car.start()
    for i in range(1):
        pli = Process(target=police_car, args=(e, str(i)))  # 建立1个进程控制1辆警车
        pli.start()
    p = Process(target=light, args=(e,))  # 建立一个进程控制红绿灯
    p.start()
事件实例

 

6. 进程间通讯

进程间通讯简称:IPC(Inter-Process Communication),队列通常遵循先进先出的规则。

6.1 队列

建立共享的进程队列,Queue是多进程安全的队列,可使用Queue实现多进程之间的数据传递。

Queue([maxsize]) 

 
建立共享的进程队列。
参数 :maxsize是队列中容许的最大项数。若是省略此参数,则无大小限制。
底层队列使用管道和锁定实现。

Queue([maxsize]) 
建立共享的进程队列。maxsize是队列中容许的最大项数。若是省略此参数,则无大小限制。底层队列使用管道和锁定实现。另外,还须要运行支持线程以便队列中的数据传输到底层管道中。 
Queue的实例q具备如下方法:

q.get( [ block [ ,timeout ] ] ) 
返回q中的一个项目。若是q为空,此方法将阻塞,直到队列中有项目可用为止。block用于控制阻塞行为,默认为True. 若是设置为False,将引起Queue.Empty异常(定义在Queue模块中)。timeout是可选超时时间,用在阻塞模式中。若是在制定的时间间隔内没有项目变为可用,将引起Queue.Empty异常。

q.get_nowait( ) 
同q.get(False)方法。

q.put(item [, block [,timeout ] ] ) 
将item放入队列。若是队列已满,此方法将阻塞至有空间可用为止。block控制阻塞行为,默认为True。若是设置为False,将引起Queue.Empty异常(定义在Queue库模块中)。timeout指定在阻塞模式中等待可用空间的时间长短。超时后将引起Queue.Full异常。

q.qsize() 
返回队列中目前项目的正确数量。此函数的结果并不可靠,由于在返回结果和在稍后程序中使用结果之间,队列中可能添加或删除了项目。在某些系统上,此方法可能引起NotImplementedError异常。


q.empty() 
若是调用此方法时 q为空,返回True。若是其余进程或线程正在往队列中添加项目,结果是不可靠的。也就是说,在返回和使用结果之间,队列中可能已经加入新的项目。

q.full() 
若是q已满,返回为True. 因为线程的存在,结果也多是不可靠的(参考q.empty()方法)。。
multiprocessing.Queue 方法介绍
q.close() 
关闭队列,防止队列中加入更多数据。调用此方法时,后台线程将继续写入那些已入队列但还没有写入的数据,但将在此方法完成时立刻关闭。若是q被垃圾收集,将自动调用此方法。关闭队列不会在队列使用者中生成任何类型的数据结束信号或异常。例如,若是某个使用者正被阻塞在get()操做上,关闭生产者中的队列不会致使get()方法返回错误。
q.cancel_join_thread() 
不会再进程退出时自动链接后台线程。这能够防止join_thread()方法阻塞。
q.join_thread() 
链接队列的后台线程。此方法用于在调用q.close()方法后,等待全部队列项被消耗。默认状况下,此方法由不是q的原始建立者的全部进程调用。调用q.cancel_join_thread()方法能够禁止这种行为。
其余一些不经常使用的方法

 

代码实现

from multiprocessing import Process, Queue

q = Queue(3)  # 3 设定队列的最大值
q.put(1)  # put 向队列中添加值
q.put(2)
q.put(3)
# q.put(4)  # 若是队列已经满了,程序会阻塞在这里,等待队列中的值被取走,再将数据放入队列。
try:
    q.put_nowait(3)  # 使用 put_nowait 若是队列满了不会阻塞,可是会由于队列满了抛出异常
except:  # 使用 try...except 可使程序不会一直阻塞到这里,可是 q.put(4) 这个消息会丢掉
    print('队列已经满了。')

print(q.full())  # True 表示队列已满
print(q.get())  # get 从队列中取值
print(q.get())
print(q.get())
# print(q.get())  # 同put方法同样,若是队列已经空了,那么继续取就会出现阻塞。
try:
    q.get_nowait()  # 使用 get_nowait 若是队列空了不会阻塞,可是会由于队列满了抛出异常
except:  # 所以咱们能够用一个try语句来处理这个错误。这样程序不会一直阻塞下去。
    print('队列已经空了。')

print(q.empty())
队列基本用法

 

上面这个例子尚未加入进程通讯,只是先来看看队列为咱们提供的方法,以及这些方法的使用和现象。

from multiprocessing import Process, Queue
import time


def f(q):
    q.put([time.asctime(), 'xiaoA', 'xiaoB'])  # 将数据添加到队列

if __name__ == '__main__':
    q = Queue()
    p = Process(target=f, args=(q,))
    p.start()
    print(q.get())  # 从队列中取数据
子进程发送数据给父进程

经过前面的学习,得知进程间不能直接通讯的,可是利用队列就能实现进程间通讯。

 

6.1.1 生产者消费者模型

在并发编程中使用生产者和消费者模式能解决绝大多数并发问题,该模式经过平衡生产线和消费线程的工做能力来提升程序的总体处理数据的速度。

为何要使用生产者消费者模型

  在线程世界里,生产者就是生产数据的线程,消费者就是消费数据的线程。在多线程开发当中,若是生产者处理速度很快,而消费者处理速度很慢,那么生产者就必须等待消费者处理完,才能继续生产数据。一样的道理,若是消费者的处理能力大于生产者,那么消费者就必须等待生产者。为了解决这个问题因而引入了生产者和消费者模式。

什么是生产者消费者模式

  生产者消费者模式是经过一个容器来解决生产者和消费者的强耦合问题。生产者和消费者彼此之间不直接通信,而经过阻塞队列来进行通信,因此生产者生产完数据以后不用等待消费者处理,直接扔给阻塞队列,消费者不找生产者要数据,而是直接从阻塞队列里取,阻塞队列就至关于一个缓冲区,平衡了生产者和消费者的处理能力。

from multiprocessing import Process, Queue
import time


def producer(q):
    for i in range(5):  # 生产者将 5 条数据放到队列中
        q.put(time.asctime(), i)


def consumer(q):
    while True:
        print(q.get())  # 消费者不断从队列中取数据,当数据被取完后,get()将阻塞继续等待队列中的数据
        time.sleep(1)


if __name__ == '__main__':
    q = Queue()
    p = Process(target=producer, args=(q,))
    p.start()

    s = Process(target=consumer, args=(q,))
    s.start()
基于队列实现生产者消费者模型

 

此时的问题是主进程永远不会结束,缘由是:生产者p在生产完后就结束了,可是消费者c在取空了q以后,则一直处于死循环中且卡在q.get()这一步。
解决方式无非是让生产者在生产完毕后,往队列中再发一个结束信号,这样消费者在接收到结束信号后就能够break出死循环。

from multiprocessing import Process, JoinableQueue


def producer(q, name):
    for i in range(10):
        res = '%s-%s' % (name, i)
        q.put(res)
    q.join()


def consumer(q):
    while True:
        print(q.get())
        q.task_done()


if __name__ == '__main__':
    q = JoinableQueue()
    p_lst = []
    for i in ['苹果', '香蕉', '菠萝']:
        p = Process(target=producer, args=(q, i))
        p.start()
        p_lst.append(p)

    c = Process(target=consumer, args=(q,))
    c.daemon = True
    c.start()

    [p.join() for p in p_lst]
基于队列实现消费者生产者模型

对上面这段代码的解读:

在生产者端:
    每次产生一个数据;
    且每次生产的数据都放在队列中
    在队列中刻上一个记号
    在生产者所有生产完毕以后
    join 信号:已经中止生产数据了
            且要等待以前被刻上记号的数据消费完毕
            当数据处理完成时,join阻塞结束
            
在消费者端:
    每次获取一个数据
    处理一个数据
    发送一个记号:标记一个数据被处理成功
    
主进程:
    consumer 中把全部的任务消耗完
    producer 端的join感知到,中止阻塞
    全部的 producer 进程结束
    主进程代码结束
    守护进程(consumer)结束

 

6.2 管道(了解)

介绍
建立管道,Pipe([duplex]):在进程之间建立一条管道,并返回元组(conn1, conn2)其中conn1,conn2 表示管道两端的链接对象,强调一点:必须在生产Process对象以前产生管道。

参数介绍:

duplex:默认管道是全双工的,若是将duplex射成False,conn1只能用于接收,conn2只能用于发送。

 
主要方法:

conn1.recv():接收conn2.send(obj)发送的对象。若是没有消息可接收,recv方法会一直阻塞。若是链接的另一端已经关闭,那么recv方法会抛出EOFError。
conn1.send(obj):经过链接发送对象。obj是与序列化兼容的任意对象
conn1.close():关闭链接。若是conn1被垃圾回收,将自动调用此方法
conn1.fileno():返回链接使用的整数文件描述符
conn1.poll([timeout]):若是链接上的数据可用,返回True。timeout指定等待的最长时限。若是省略此参数,方法将当即返回结果。若是将timeout射成None,操做将无限期地等待数据到达。
conn1.recv_bytes([maxlength]):接收c.send_bytes()方法发送的一条完整的字节消息。maxlength指定要接收的最大字节数。若是进入的消息,超过了这个最大值,将引起IOError异常,而且在链接上没法进行进一步读取。若是链接的另一端已经关闭,不再存在任何数据,将引起EOFError异常。
conn.send_bytes(buffer [, offset [, size]]):经过链接发送字节数据缓冲区,buffer是支持缓冲区接口的任意对象,offset是缓冲区中的字节偏移量,而size是要发送字节数。结果数据以单条消息的形式发出,而后调用c.recv_bytes()函数进行接收    
 
conn1.recv_bytes_into(buffer [, offset]):接收一条完整的字节消息,并把它保存在buffer对象中,该对象支持可写入的缓冲区接口(即bytearray对象或相似的对象)。offset指定缓冲区中放置消息处的字节位移。返回值是收到的字节数。若是消息长度大于可用的缓冲区空间,将引起BufferTooShort异常。
主要方法

 


应该特别注意管道端点的正确管理问题。若是是生产者或消费者中都没有使用管道的某个端点,就应将它关闭。这也说明了为什么在生产者中关闭了管道的输出端,在消费者中关闭管道的输入端。若是忘记执行这些步骤,程序可能在消费者中的recv()操做上挂起。管道是由操做系统进行引用计数的,必须在全部进程中关闭管道后才能生成EOFError异常。所以,在生产者中关闭管道不会有任何效果,除非消费者也关闭了相同的管道端点。

 

6.3 进程之间数据共享

 

展望将来,基于消息传递的并发编程是大势所趋
即使是使用线程,推荐作法也是将程序设计为大量独立的线程集合,经过消息队列交换数据。
这样极大地减小了对使用锁定和其余同步手段的需求,还能够扩展到分布式系统中。
但进程间应该尽可能避免通讯,即使须要通讯,也应该选择进程安全的工具来避免加锁带来的问题。
之后咱们会尝试使用数据库来解决如今进程之间的数据共享问题。

Manager 模块介绍
进程间数据是独立的,能够借助于队列或管道实现通讯,两者都是基于消息传递的
虽然进程间数据独立,但能够经过Manager实现数据共享,事实上Manager的功能远不止于此

manger 支持的数据类型:

list, dict, Namespace, Lock, RLock, Semaphore, BoundedSemaphore, Condition, Event, Barrier, Queue, Value and Array

 

   
基础使用实例:

from multiprocessing import Process, Manager


def func(m):
    m['count'] += 1  # 在子进程中 + 1

if __name__ == '__main__':
    m = Manager()
    dic = m.dict({'count': 100})
    p = Process(target=func, args=(dic,))
    p.start()
    p.join()  # 在使用 Manager模块的时候必须等待子进程执行完毕,由于若是主进程直接结束,共享的资源也会消失,程序报错
    print('---主进程---')
    print(dic)  # 主进程查看数据是否修改

当在多进程中使用数据共享操做,必须经过互斥锁的方式来保证数据的可靠性:
def func(dic, lock):
    with lock:  # 使用 with lock: 自动获取和释放锁
        dic['count'] += 1
        dic['count'] -= 1


if __name__ == '__main__':
    lock = Lock()
    m = Manager()
    dic = m.dict({'count': 100})
    p_lst = []
    for i in range(100):
        p = Process(target=func, args=(dic, lock))
        p.start()
        p_lst.append(p)

    for p in p_lst: p.join()
    print('---主---')
    print(dic)
基础使用实例

 

7. 进程池

 

7.1 为何要有进程池

  在程序实际处理问题过程当中,忙时会有成千上万的任务须要被执行,闲时可能只有零星任务。那么在成千上万个任务须要被执行的时候,咱们就须要去建立成千上万个进程么?首先,建立进程须要消耗时间,销毁进程也须要消耗时间。第二即使开启了成千上万的进程,操做系统也不能让他们同时执行,这样反而会影响程序的效率。所以咱们不能无限制的根据任务开启或者结束进程。那么咱们要怎么作呢?

  在这里,要给你们介绍一个进程池的概念,定义一个池子,在里面放上固定数量的进程,有需求来了,就拿一个池中的进程来处理任务,等处处理完毕,进程并不关闭,而是将进程再放回进程池中继续等待任务。若是有不少任务须要执行,池中的进程数量不够,任务就要等待以前的进程执行任务完毕归来,拿到空闲进程才能继续执行。也就是说,池中进程的数量是固定的,那么同一时间最多有固定数量的进程在运行。这样不会增长操做系统的调度难度,还节省了开闭进程的时间,也必定程度上可以实现并发效果。

 

7.2 Pool模块

 

Pool([numprocess  [,initializer [, initargs]]]):建立进程池

numprocess: 要建立的进程数,若是省略,将默认使用 cpu_count() 的值
initializer: 是每一个工做进程启动时要执行的可调用对象,默认为None
initargs: 是要传给 initializer 的参数组

主要方法:

p.apply(func [, args [, kwargs]]):在一个池工做进程中执行func(*args,**kwargs),而后返回结果。
'''须要强调的是:此操做并不会在全部池工做进程中并执行func函数。若是要经过不一样参数并发地执行func函数,必须从不一样线程调用p.apply()函数或者使用p.apply_async()'''

p.apply_async(func [, args [, kwargs]]):在一个池工做进程中执行func(*args,**kwargs),而后返回结果。
'''此方法的结果是AsyncResult类的实例,callback是可调用对象,接收输入参数。当func的结果变为可用时,将结果传递给callback。callback禁止执行任何阻塞操做,不然将接收其余异步操做中的结果。'''
  
p.close():关闭进程池,防止进一步操做。若是全部操做持续挂起,它们将在工做进程终止前完成

P.jion():等待全部工做进程退出。此方法只能在close()或teminate()以后调用
主要方法

代码实例:
进程池和多进程效率比较:

from multiprocessing import Pool, Process
import time


def func(n):
    for i in range(3):
        n + 1


if __name__ == '__main__':
    start = time.time()
    pool = Pool(5)
    pool.map(func, range(100))  # 进程池的方式运行
    t1 = time.time() - start
    start = time.time()
    p_lst = []
    for i in range(100):    # 多进程的方式运行
        p = Process(target=func, args=(i,))
        p.start()
        p_lst.append(p)
    for p in p_lst: p.join()

    t2 = time.time() - start

    print(t1, t2)
进程池和多进程效率比较

 
同步和异步

from multiprocessing import Pool
import time


def func(n):
    print(n * 2)
    time.sleep(1)


if __name__ == '__main__':
    pool = Pool(5)  # 进程池中从无到有建立5个进程,之后一直是这5个进程在执行任务
    for i in range(5):
        pool.apply(func, args=(i,))  # 同步调用
    print('---主进程---')  # 同步调用是须要等待子进程所有结束在执行主进程
进程池的同步调用
from multiprocessing import Pool
import os, random, time


def func(n):
    print('%s run.' % os.getpid())
    time.sleep(random.random())
    return n ** 2


if __name__ == '__main__':
    p = Pool(5)  # 进程池从无到有建立5个进程,之后一直是这5个进程执行任务
    res_lst = []
    for i in range(5):
        # 异步运行,根据进程池中有的进程数,每次最多5个子进程在异步执行, 返回结果以后,将结果放入列表,归还进程,以后再执行新的任务
                # 须要注意的是,进程池中的5个进程不会同时不会同时开启或者同时结束,而是执行完一个释放出来接收新的任务
        res = p.apply_async(func, args=(i,))
        res_lst.append(res)

    # 异步 apply_sync用法:若是使用异步提交的任务,主进程须要使用join,等待进程池内任务都处理完,而后能够用get收集结果
    # 不然,主进程结束,进程池可能还没来得及执行,也就跟着一块儿结束了
    p.close()
    p.join()

    # 使用get来获取apply_aync的结果, 若是是apply, 则没有get方法, 由于apply是同步执行, 马上获取结果, 也根本无需get
    for res in res_lst: print(res.get())
进程池的异步调用

 
socket:进程池版本socket并发聊天

import socket
from multiprocessing import Pool


def chat(conn):
    conn.send(b'welcome!')
    while True:
        res = conn.recv(1024)
        conn.send(res.upper())


if __name__ == '__main__':
    sk_server = socket.socket()
    sk_server.bind(('localhost', 8080))
    sk_server.listen(5)
    p = Pool(5)
    while True:
        conn, addr = sk_server.accept()
        print('welcome ', addr)
        p.apply_async(chat, args=(conn))
server.py
import socket

sk_client = socket.socket()
sk_client.connect(('localhost', 8080))
res = sk_client.recv(1024).decode()
print(res)
while True:
    inp = input('>>>').strip()
    if not inp: continue
    sk_client.send(inp.encode())
    inp_res = sk_client.recv(1024).decode()
    print(inp_res)
client.py

 
执行上面的代码,当客户端启动到第6个的时候,须要中止以前的其中一个,第6个客户端才会接进来。


这里总结下,在进程池中,异步调用(apply_async)时,close 和 join的用法:
当子进程执行完毕后,仍然须要主进程执行后续的代码,这时就须要用到close() 和 join()


回调函数
    回调函数必定是在主进程中执行的。使用场景:
进程池中任何一个任务一旦处理完了,就当即告知主进程:我好了额,你能够处理个人结果了。主进程则调用一个函数去处理该结果,该函数即回调函数
    咱们能够把耗时间(阻塞)的任务放到进程池中,而后指定回调函数(主进程负责执行),这样主进程在执行回调函数时就省去了I/O的过程,直接拿到的是任务的结果。
   

from multiprocessing import Pool
import requests, os


def get(url):
    print('<进程:%s> %s' % (os.getpid(), url))
    response = requests.get(url)
    if response.status_code == 200:
        return {'url': url, 'text': response.text}


def pasrse_page(res):
    print('<进程:%s> %s' % (os.getpid(), res['url']))
    parse_res = 'url: %s size: %s\n' % (res['url'], len(res['text']))
    with open('db.txt', 'w') as f:
        f.write(parse_res)


if __name__ == '__main__':
    p = Pool(3)
    urls = [
        'https://www.baidu.com/',
        'https://www.taobao.com/',
        'https://www.cnblogs.com/',
    ]
    res_lst = []
    for url in urls:
        res = p.apply_async(get, args=(url,), callback=pasrse_page)
        res_lst.append(res)

    p.close()
    p.join()

    for res in res_lst: print(res.get())
使用多进程请求多个url来减小网络等待浪费时间
import re
from urllib.request import urlopen
from multiprocessing import Pool


def get_page(url, pattern):
    response = urlopen(url).read().decode('utf-8')
    return pattern, response


def parse_page(info):
    pattern, page_content = info
    res = re.findall(pattern, page_content)
    for item in res:
        dic = {
            'index': item[0].strip(),
            'title': item[1].strip(),
            'actor': item[2].strip(),
            'time': item[3].strip(),
        }
        print(dic)


if __name__ == '__main__':
    regex = r'<dd>.*?<.*?class="board-index.*?>(\d+)</i>.*?title="(.*?)".*?class="movie-item-info".*?<p class="star">(.*?)</p>.*?<p class="releasetime">(.*?)</p>'
    pattern1 = re.compile(regex, re.S)

    url_dic = {
        'http://maoyan.com/board/7': pattern1,
    }

    p = Pool()
    res_l = []
    for url, pattern in url_dic.items():
        res = p.apply_async(get_page, args=(url, pattern), callback=parse_page)
        res_l.append(res)

    for i in res_l:
        i.get()
爬虫实例

 
若是在主进程中等待进程池中全部任务都执行完毕后,再统一处理结果,则无需回调函数

from multiprocessing import Pool
import time


def work(n):
    time.sleep(1)
    return n ** 2


if __name__ == '__main__':
    p = Pool()
    res_lst = []
    for i in range(10):
        res = p.apply_async(work, args=(i,))
        res_lst.append(res)

    p.close()
    p.join()
    for res in res_lst: print(res.get())
无需回调函数
相关文章
相关标签/搜索