python全栈学习--day43(引子,协程介绍,Greenlet模块,Gevent模块,Gevent之同步与异步)

 

I/O操做,不占用CPU。它内部有一个专门的处理I/O模块。
print和写log 属于I/O操做,它不占用CPUpython

线程编程

GIL锁保证一个进程中的多个线程在同一时刻只有一个能够被CPU执行数组

 

实例化一个LOCK( ),它就是一个互斥锁缓存

lock 和 rlock 安全

互斥锁LOCK多线程

死锁并发

rlock 递归锁app

递归锁不会发送死锁现象异步

 

2个进程中的线程,不会受到GIL影响socket

GIL 是针对一个进程中的多个线程,同一时间,只能有一个线程访问CPU

针对GIL的CPU利用率问题

起多个进程,就能够解决CPU利用率问题。

 

科学家吃面的例子,它不能用一把锁,必须2个锁。

def eat1(noodle_lock,fork_lock,name):
    noodle_lock.acquire()
    print('%s抢到了面'%name)
    fork_lock.acquire()
    print('%s抢到了叉子'%name)
    print('%s正在吃面'%name)
    fork_lock.release()
    print('%s归还了叉子' % name)
    noodle_lock.release()
    print('%s归还了面' % name)

  

 

 

假设有三我的,

A要面和叉子

B只要面

C只要叉子

若是只有一个锁,那么就没法处理这3我的的需求,会发生数据不安全的状况。

 

semaphore 在开始固定一个线程的流量

condition 经过信号控制线程的流量

event 经过一个信号控制全部线程

timer 定时器

队列 线程数据安全

线程池

可以在多线程的基础上进一步节省内存和时间开销

 

semaphore 在一开始固定一个线程的流量

condition 经过一个信号控制线程的流量

event 经过一个信号控制全部线程

timer 定时器

队列 线程数据安全

线程池
可以在多线程的基础上进一步节省内存和时间开销

 

 1、引子                                                                         

以前咱们学习了线程、进程的概念,了解了在操做系统中进程是资源分配的最小单位,线程是CPU调度的最小单位。按道理来讲咱们已经算是把cpu的利用率提升不少了。可是咱们知道不管是建立多进程仍是建立多线程来解决问题,都要消耗必定的时间来建立进程、建立线程、以及管理他们之间的切换。

  随着咱们对于效率的追求不断提升,基于单线程来实现并发又成为一个新的课题,即只用一个主线程(很明显可利用的cpu只有一个)状况下实现并发。这样就能够节省建立线进程所消耗的时间。

  为此咱们须要先回顾下并发的本质:切换+保存状态

   cpu正在运行一个任务,会在两种状况下切走去执行其余的任务(切换由操做系统强制控制),一种状况是该任务发生了阻塞,另一种状况是该任务计算的时间过长

ps:在介绍进程理论时,说起进程的三种执行状态,而线程才是执行单位,因此也能够将上图理解为线程的三种状态 

一:其中第二种状况并不能提高效率,只是为了让cpu可以雨露均沾,实现看起来全部任务都被“同时”执行的效果,若是多个任务都是纯计算的,这种切换反而会下降效率。

为此咱们能够基于yield来验证。yield自己就是一种在单线程下能够保存任务运行状态的方法,咱们来简单复习一下:

#1 yiled能够保存状态,yield的状态保存与操做系统的保存线程状态很像,可是yield是代码级别控制的,更轻量级
#2 send能够把一个函数的结果传给另一个函数,以此实现单线程内程序之间的切换

 

 

import time
def consumer(res):
    '''任务1:接收数据,处理数据'''
    pass

def producer():
    '''任务2:生产数据'''
    res=[]
    for i in range(10000000):
        res.append(i)
    return res

start=time.time()
#串行执行
res=producer()
consumer(res) #写成consumer(producer())会下降执行效率
stop=time.time()
print(stop-start) #1.1190457344055176

#基于yield并发执行
import time
def consumer():
    while True:
        x = yield

def producer():
    g = consumer()
    next(g)
    for i in range(1000000):
        g.send(i)

start=time.time()

producer()

stop = time.time()
print(stop-start)    #0.10477948188781738

二: 第一种状况的切换。在任务一遇到IO状况下,切换到任务二去执行,这样就能够利用任务----阻塞的时间完成任务二的计算,效率的提高就在于此。

import time
def consumer():
    '''任务1:接收数据,处理数据'''
    while True:
        x=yield

def producer():
    '''任务2:生产数据'''
    g=consumer()
    next(g)
    for i in range(10000000):
        g.send(i)
        time.sleep(2)

start=time.time()
producer() #并发执行,可是任务producer遇到io就会阻塞住,并不会切到该线程内的其余任务去执行

stop=time.time()
print(stop-start)

对于单线程下,咱们不可避免程序中出现IO操做,但若是咱们能在本身的程序中(即用户程序级别,而非操做系统级别)控制单线程下的多个任务能在一个任务遇到IO阻塞时就切换到另一个任务去计算,这样就保证了改线程可以最大限度的处于就绪状态。即随时可均可以被CPU执行的状态,至关于咱们在用户程序级别将本身的IO操做最大限度的隐藏起来,从而能够迷惑操做系统,让其看到: 该线程好像一直是计算,io 比较少,从而更多的将CPU执行权限分配给咱们的线程。

  协成的本质就是在单线程下,由用户本身控制一个任务遇到io阻塞了就切换另一个任务去执行,以此来提高效率。为了实现它,咱们须要寻找一种能够同时知足如下条件的解决方案:

1.能够控制多个任务之间的切换,切换以前将任务的状态保存下来,以便从新运行时,能够基于暂停的位置继续执行。

2.做为1的补充:能够监测IO操做,在遇到io遇到的状况下才发生切换。

 

二,协程介绍

协程:是单线程下的并发,又称微线程,纤程。一句话说明什么是线程: 协程是一种用户态的轻量级线程,即协程是由用户程序本身控制调度的。

须要强调的是:

1.python的线程属于内核级别的,即由操做系统控制调度 (如单线程遇到IO或执行时间就会被迫交出CPI执行权限,切换其余线程运行)

2.单线程内核开启协程,一旦遇到IO,就会从应用程序级别(而非操做系统)控制切换,以此来提高效率(!!!非io操做的切换与效率无关)

对比操做系统控制线程的切换,用户在单线程内控制协程的切换

优势以下:

#1. 协程的切换开销更小,属于程序级别的切换,操做系统彻底感知不到,于是更加轻量级
#2. 单线程内就能够实现并发的效果,最大限度地利用cpu

缺点以下:

#1. 协程的本质是单线程下,没法利用多核,能够是一个程序开启多个进程,每一个进程内开启多个线程,每一个线程内开启协程
#2. 协程指的是单个线程,于是一旦协程出现阻塞,将会阻塞整个线程

总结协程特色:

  1. 必须在只有一个单线程里实现并发
  2. 修改共享数据不需加锁
  3. 用户程序里本身保存多个控制流的上下文栈
  4. 附加:一个协程遇到IO操做自动切换到其它协程(如何实现检测IO,yield、greenlet都没法实现,就用到了gevent模块(select机制))

3、Greenlet模块

安装 :pip3 install greenlet

from greenlet import greenlet

def eat(name):
    print('%s eat 1'%name)
    g2.switch('egon')
    print('%s eat 2'%name)
    g2.switch()
def play(name):
    print('%s play 1'%name)
    g1.switch()
    print('%s play 2'%name)

g1=greenlet(eat)
g2=greenlet(play)

g1.switch('egon')

单纯的切换(在没有IO的状况下或者没有重复内存空间的操做),反而会下降程序的执行速度

#顺序执行
import time
def f1():
    res=1
    for i in range(100000000):
        res+=i

def f2():
    res=1
    for i in range(100000000):
        res*=i

start=time.time()
f1()
f2()
stop=time.time()
print('run time is %s' %(stop-start)) #10.985628366470337

#切换
from greenlet import greenlet
import time
def f1():
    res=1
    for i in range(100000000):
        res+=i
        g2.switch()

def f2():
    res=1
    for i in range(100000000):
        res*=i
        g1.switch()

start=time.time()
g1=greenlet(f1)
g2=greenlet(f2)
g1.switch()
stop=time.time()
print('run time is %s' %(stop-start)) # 52.763017892837524

效率对比

 

greenlet只是提供了一种比generator更加便捷的切换方式,当切到一个任务执行时若是遇到io,那就原地阻塞,仍然是没有解决遇到IO自动切换来提高效率的问题。

单线程里的这20个任务的代码一般会既有计算操做又有阻塞操做,咱们彻底能够在执行任务1时遇到阻塞,就利用阻塞的时间去执行任务2。。。。如此,才能提升效率,这就用到了Gevent模块。

 

4、Gevent模块                                                              

安装:pip3 install gevent

Gevent 是一个第三方库,能够轻松经过gevent实现并发同步或异步编程,在gevent中用到的主要模式是Greenlet, 它是以C扩展模块形式接入Python的轻量级协程。 Greenlet所有运行在主程序操做系统进程的内部,但它们被协做式地调度。

g1=gevent.spawn(func,1,,2,3,x=4,y=5)建立一个协程对象g1,spawn括号内第一个参数是函数名,如eat,后面能够有多个参数,能够是位置实参或关键字实参,都是传给函数eat的

g2=gevent.spawn(func2)

g1.join() #等待g1结束

g2.join() #等待g2结束

#或者上述两步合做一步:gevent.joinall([g1,g2])

g1.value#拿到func1的返回值

 

from gevent import monkey;monkey.patch_all()

import gevent
import time
def eat():
    print('eat food 1')
    time.sleep(2)
    print('eat food 2')

def play():
    print('play 1')
    time.sleep(1)
    print('play 2')

g1=gevent.spawn(eat)
g2=gevent.spawn(play)
gevent.joinall([g1,g2])
print('')

 threading.current_thread().getName()来查看每一个g1和g2,查看的结果为DummyThread-n,即假线程

 

 

from gevent import monkey;monkey.patch_all()
import threading
import gevent
import time
def eat():
    print(threading.current_thread().getName())
    print('eat food 1')
    time.sleep(2)
    print('eat food 2')

def play():
    print(threading.current_thread().getName())
    print('play 1')
    time.sleep(1)
    print('play 2')

g1 = gevent.spawn(eat)
g2 = gevent.spawn(play)
gevent.joinall([g1,g2])
print('')

5、Gevent之同步与异步         

from gevent import spawn,joinall,monkey;monkey.patch_all()

import time
def task(pid):
    time.sleep(0.5)
    print('Task %s done'% pid)

def synchronous():
    for i in range(10):
        task(i)

def asynchronous():
    g_1 = [spawn(task,i)for i in range(10)]
    joinall(g_1)
    print('DONE')

if __name__ == '__main__':
    print('Synchronous:')
    synchronous()
    print('Asynchronous:')
    asynchronous()
#  上面程序的重要部分是将task函数封装到Greenlet内部线程的gevent.spawn。
#  初始化的greenlet列表存放在数组threads中,此数组被传给gevent.joinall 函数,

对比使用普通函数和使用协程,谁更快一点

因为操做系统,访问一次网页后,会有缓存。

因此测试时,先访问一遍网页。再分别测试协程和普通函数。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
from  gevent  import  monkey;monkey.patch_all()
from  urllib.request  import  urlopen
import  gevent
import  time
 
def  get_page(url):
     res  =  urlopen(url)
     #print(len(res.read()))
 
url_lst  =  [
     'http://www.baidu.com' ,
     'http://www.sogou.com' ,
     'http://www.sohu.com' ,
     'http://www.qq.com' ,
     'http://www.cnblogs.com' ,
]
start  =  time.time()
gevent.joinall([gevent.spawn(get_page,url)  for  url  in  url_lst])
print ( '先执行一次' ,time.time()  -  start)
 
start  =  time.time()
gevent.joinall([gevent.spawn(get_page,url)  for  url  in  url_lst])
print ( '协程' ,time.time()  -  start)
 
start  =  time.time()
for  url  in  url_lst:get_page(url)
print ( '普通' ,time.time()  -  start)

执行输出:

先执行一次 0.6465449333190918
协程 0.34525322914123535
普通 0.570899486541748

 结论
之后用爬虫,可使用协程,它的速度更快。

 

Gevent 之应用举例二

经过gevent实现单线程下的socket并发

注意:from gevent import monkey;monkey.patch_all( ) 必定要放到导入socket模块以前,不然gevent没法识别socket的阻塞

 

  

 

 

相关文章
相关标签/搜索