puthon-进程间通讯-队列和管道

********进程间通讯-队列和管道********

****进程间通讯-队列和管道

IPC(Inter-Process Communication)

****队列

**概念介绍

建立贡献的进程队列,Queue是多进程安全的队列,可使用Queue实现多进程之间的数据传递。

Queue([maxsize]) 建立共享的进程队列。
参数 :maxsize是队列中容许的最大项数。若是省略此参数,则无大小限制。
底层队列使用管道和锁定实现。

*********方法介绍:

Queue([maxsize]) 
建立共享的进程队列。maxsize是队列中容许的最大项数。若是省略此参数,则无大小限制。底层队列使
道和锁定实现。另外,还须要运行支持线程以便队列中的数据传输到底层管道中。 
Queue的实例q具备如下方法:

q.get( [ block [ ,timeout ] ] ) 
返回q中的一个项目。若是q为空,此方法将阻塞,直到队列中有项目可用为止。block用于控制阻塞行为
默认为True. 若是设置为False,将引起Queue.Empty异常(定义在Queue模块中)。timeout是可选
超时时间,用在阻塞模式中。若是在制定的时间间隔内没有项目变为可用,将引起Queue.Empty异常。

q.get_nowait( ) 
同q.get(False)方法。

q.put(item [, block [,timeout ] ] ) 
将item放入队列。若是队列已满,此方法将阻塞至有空间可用为止。block控制阻塞行为,默认为True。
若是设置为False,将引起Queue.Empty异常(定义在Queue库模块中)。timeout指定在阻塞模式中等
待可用空间的时间长短。超时后将引起Queue.Full异常。

q.qsize() 
返回队列中目前项目的正确数量。此函数的结果并不可靠,由于在返回结果和在稍后程序中使用结果之间,
队列中可能添加或删除了项目。在某些系统上,此方法可能引起NotImplementedError异常。


q.empty() 
若是调用此方法时 q为空,返回True。若是其余进程或线程正在往队列中添加项目,结果是不可靠的。
也就是说,在返回和使用结果之间,队列中可能已经加入新的项目。

q.full() 
若是q已满,返回为True. 因为线程的存在,结果也多是不可靠的(参考q.empty()方法)。。

**********其余方法:

q.close() 
关闭队列,防止队列中加入更多数据。调用此方法时,后台线程将继续写入那些已入队列但还没有写入的数
据,但将在此方法完成时立刻关闭。若是q被垃圾收集,将自动调用此方法。关闭队列不会在队列使用者
中生成任何类型的数据结束信号或异常。例如,若是某个使用者正被阻塞在get()操做上,关闭生产者
中的队列不会致使get()方法返回错误。

q.cancel_join_thread() 
不会再进程退出时自动链接后台线程。这能够防止join_thread()方法阻塞。

q.join_thread() 
链接队列的后台线程。此方法用于在调用q.close()方法后,等待全部队列项被消耗。默认状况下,此方
由不是q的原始建立者的全部进程调用。调用q.cancel_join_thread()方法能够禁止这种行为。




例子:

**单看队列用法

'''

multiprocessing模块支持进程间通讯的两种主要形式:管道和队列
都是基于消息传递实现的

'''

from multiprocessing import Queue

q = Queue(3)

# put, get, put_nowait, get_nowait, full, empty

q.put(1)
q.put(2)
q.put(3)
# q.put(4) #若是队列已经满了,程序就会停在这里,等待数据被别人取走,再将数据放入队列
# 若是队列中的数据一致不被取走,程序就会永远停在这里

try:
    q.put_nowait(4)  # 可使用put_nowait(),若是队列满了就不会阻塞,可是会由于队列满了而报错

except:  # 所以咱们能够用一个try语句来处理这个错误。这样程序不会一直阻塞下曲,可是会丢掉这个消息
    print('队列已满')

# 所以,咱们再放入数据以前,能够看一下队列的状态,若是已经满了,就不继续put了

print(q.full())  # 满了

print(q.get())
print(q.get())
print(q.get())

# print(q.get())  #同put方法同样,若是队列已经空了,那么继续取就会出现阻塞

try:
    q.get_nowait()  # 可使用get_nowait(),若是队列满了不会阻塞,可是会由于没取到值而报错
except:  # 所以咱们能够用一个try语句来处理这个错误。这样程序就不会一致阻塞下去
    print('空了')

print(q.empty())  # 空了

**Queue实现进程间的通讯

from multiprocessing import Queue, Process


def func(q):
    q.put('hello')  # 调用主函数中p进程传递过来的进程参数 put函数为向队列中添加一条数据。


if __name__ == '__main__':
    q = Queue()  # 建立一个Queue对象
    p = Process(target=func, args=(q,))  # 建立一个进程
    p.start()
    print(q.get())
    p.join()

**批量生产数据放入对列再批量获取

import os
from multiprocessing import Queue, Process


def inputQ(queue):
    info = str(os.getpid()) + '(put):'
    queue.put(info)


def outputQ(queue):
    info = queue.get()
    print('%s%s\033[32m%s\033[0m' % (str(os.getpid()), '(get):', info))


if __name__ == '__main__':
    record1 = []
    record2 = []

    queue = Queue(3)

    # 输入进程
    for i in range(10):
        p = Process(target=inputQ, args=(queue,))
        p.start()
        record1.append(p)

    # 输出进程
    for i in range(10):
        p = Process(target=outputQ, args=(queue,))
        p.start()
        record2.append(p)

    [p.join() for p in record1]
    [p.join() for p in record2]



********管道********

****介绍

#建立管道的类:
Pipe([duplex]):在进程之间建立一条管道,并返回元组(conn1,conn2),其中conn1,conn2表示
道两端的链接对象,强调一点:必须在产生Process对象以前产生管道

#参数介绍:
dumplex:默认管道是全双工的,若是将duplex射成False,conn1只能用于接收,conn2只能用于发送。

#主要方法:
conn1.recv():接收conn2.send(obj)发送的对象。若是没有消息可接收,recv方法会一直阻塞。
若是链接的另一端已经关闭,那么recv方法会抛出EOFError。
conn1.send(obj):经过链接发送对象。obj是与序列化兼容的任意对象

#其余方法:
conn1.close():关闭链接。若是conn1被垃圾回收,将自动调用此方法
conn1.fileno():返回链接使用的整数文件描述符
conn1.poll([timeout]):若是链接上的数据可用,返回True。timeout指定等待的最长时限。若是省略
此参数,方法将当即返回结果。若是将timeout射成None,操做将无限期地等待数据到达。
 
conn1.recv_bytes([maxlength]):接收c.send_bytes()方法发送的一条完整的字节消息。maxlength
指定要接收的最大字节数。若是进入的消息,超过了这个最大值,将引起IOError异常,而且在链接上没法进
行进一步读取。若是链接的另一端已经关闭,不再存在任何数据,将引起EOFError异常。
conn.send_bytes(buffer [, offset [, size]]):经过链接发送字节数据缓冲区,buffer是支持缓冲
区接口的任意对象,offset是缓冲区中的字节偏移量,而size是要发送字节数。结果数据以单条消息的形式发
出,而后调用c.recv_bytes()函数进行接收    
 
conn1.recv_bytes_into(buffer [, offset]):接收一条完整的字节消息,并把它保存在buffer对象中,
该对象支持可写入的缓冲区接口(即bytearray对象或相似的对象)。offset指定缓冲区中放置消息处的字节
位移。返回值是收到的字节数。若是消息长度大于可用的缓冲区空间,将引起BufferTooShort异常。

****Pipe初使用

from multiprocessing import Process, Pipe


def f(conn):
    conn.send("Hello The_Third_Wave")
    conn.close()


if __name__ == '__main__':
    parent_conn, child_conn = Pipe()
    p = Process(target=f, args=(child_conn,))
    p.start()
    print(parent_conn.recv())
    p.join()


注意:
应该特别注意管道端点的正确管理问题。若是是生产者或消费者中都没有使用管道的某个端点,就应将
它关闭。这也说明了为什么在生产者中关闭了管道的输出端,在消费者中关闭管道的输入端。若是忘记执
行这些步骤,程序可能在消费者中的recv()操做上挂起。管道是由操做系统进行引用计数的,必须在
全部进程中关闭管道后才能生成EOFError异常。所以,在生产者中关闭管道不会有任何效果,除非消费
也关闭了相同的管道端点。


**引起EOFError

from multiprocessing import Pipe, Process


def func(con):
    con1, con2 = con
    con1.close()  # 子进程使用con2和父进程通讯,因此
    while 1:
        try:
            print(con2.recv())  # 当主进程的con1发数据时,子进程要死循环的去接收。
        except EOFError:  # 若是主进程的con1发完数据并关闭con1,子进程的con2继续接收时,就会报错,使用try的方式,获取错误
            con2.close()  # 获取到错误,就是指子进程已经把管道中全部数据都接收完了,因此用这种方式去关闭管道
            break


if __name__ == '__main__':
    con1, con2 = Pipe()
    p = Process(target=func, args=((con1, con2),))
    p.start()
    con2.close()  # 在父进程中,使用con1去和子进程通讯,因此不须要con2,就提早关闭
    for i in range(10):  # 生产数据
        con1.send(i)  # 给子进程的con2发送数据
    con1.close()  # 生产完数据,关闭父进程这一端的管道

**多个消费者之间的竞争问题带来的数据不安全问题

from multiprocessing import Process, Pipe, Lock


def consumer(p, name, lock):
    produce, consume = p
    produce.close()
    while True:
        lock.acquire()
        baozi = consume.recv()
        lock.release()
        if baozi:
            print('%s 收到包子:%s' % (name, baozi))
        else:
            consume.close()
            break


def producer(p, n):
    produce, consume = p
    consume.close()
    for i in range(n):
        produce.send(i)
    produce.send(None)
    produce.send(None)
    produce.close()


if __name__ == '__main__':
    produce, consume = Pipe()
    lock = Lock()
    c1 = Process(target=consumer, args=((produce, consume), 'c1', lock))
    c2 = Process(target=consumer, args=((produce, consume), 'c2', lock))
    p1 = Process(target=producer, args=((produce, consume), 10))
    c1.start()
    c2.start()
    p1.start()

    produce.close()
    consume.close()

    c1.join()
    c2.join()
    p1.join()
    print('主进程')
相关文章
相关标签/搜索