I/O模型,面试会问到
I/O操做,不占用CPU。它内部有一个专门的处理I/O模块。
print和写log 属于I/O操做,它不占用CPUpython
线程
GIL保证一个进程中的多个线程在同一时刻只有一个能够被CPU执行git
后续的项目,特别是处理网络请求,很是多。github
实例化一个Lock(),它就是一个互斥锁面试
LCOK 和RLOCK
互斥锁LCOK
死锁
rlock 递归锁
递归锁不会发生死锁现象编程
2个进程中的线程,不会受到GIL影响。
GIL是针对一个进程中的多个线程,同一时间,只能有一个线程访问CPU
针对GIL的CPU利用率问题
起多个进程,就能够解决CPU利用率问题。数组
昨天的科学家吃面的例子,它不能用一把锁,必须2个锁。缓存
def eat1(noodle_lock,fork_lock,name): noodle_lock.acquire() print('%s抢到了面'%name) fork_lock.acquire() print('%s抢到了叉子'%name) print('%s正在吃面'%name) fork_lock.release() print('%s归还了叉子' % name) noodle_lock.release() print('%s归还了面' % name)
看下图安全
假设有三我的,网络
A要面和叉子多线程
B只要面
C只要叉子
若是只有一个锁,那么就没法处理这3我的的需求,会发生数据不安全的状况。
semaphore 在一开始固定一个线程的流量
condition 经过一个信号控制线程的流量
event 经过一个信号控制全部线程
timer 定时器
队列 线程数据安全
线程池
可以在多线程的基础上进一步节省内存和时间开销
以前咱们学习了线程、进程的概念,了解了在操做系统中进程是资源分配的最小单位,线程是CPU调度的最小单位。按道理来讲咱们已经算是把cpu的利用率提升不少了。可是咱们知道不管是建立多进程仍是建立多线程来解决问题,都要消耗必定的时间来建立进程、建立线程、以及管理他们之间的切换。
随着咱们对于效率的追求不断提升,基于单线程来实现并发又成为一个新的课题,即只用一个主线程(很明显可利用的cpu只有一个)状况下实现并发。这样就能够节省建立线进程所消耗的时间。
为此咱们须要先回顾下并发的本质:切换+保存状态
cpu正在运行一个任务,会在两种状况下切走去执行其余的任务(切换由操做系统强制控制),一种状况是该任务发生了阻塞,另一种状况是该任务计算的时间过长
ps:在介绍进程理论时,说起进程的三种执行状态,而线程才是执行单位,因此也能够将上图理解为线程的三种状态
一:其中第二种状况并不能提高效率,只是为了让cpu可以雨露均沾,实现看起来全部任务都被“同时”执行的效果,若是多个任务都是纯计算的,这种切换反而会下降效率。
为此咱们能够基于yield来验证。yield自己就是一种在单线程下能够保存任务运行状态的方法,咱们来简单复习一下:
#1 yiled能够保存状态,yield的状态保存与操做系统的保存线程状态很像,可是yield是代码级别控制的,更轻量级 #2 send能够把一个函数的结果传给另一个函数,以此实现单线程内程序之间的切换
#串行执行 import time def consumer(res): '''任务1:接收数据,处理数据''' pass def producer(): '''任务2:生产数据''' res=[] for i in range(10000000): res.append(i) return res start=time.time() #串行执行 res=producer() consumer(res) #写成consumer(producer())会下降执行效率 stop=time.time() print(stop-start) #1.5536692142486572 #基于yield并发执行 import time def consumer(): '''任务1:接收数据,处理数据''' while True: x=yield def producer(): '''任务2:生产数据''' g=consumer() next(g) for i in range(10000000): g.send(i) start=time.time() #基于yield保存状态,实现两个任务直接来回切换,即并发的效果 #PS:若是每一个任务中都加上打印,那么明显地看到两个任务的打印是你一次我一次,即并发执行的. producer() stop=time.time() print(stop-start) #2.0272178649902344
二:第一种状况的切换。在任务一遇到io状况下,切到任务二去执行,这样就能够利用任务一阻塞的时间完成任务二的计算,效率的提高就在于此。
import time def consumer(): '''任务1:接收数据,处理数据''' while True: x=yield def producer(): '''任务2:生产数据''' g=consumer() next(g) for i in range(10000000): g.send(i) time.sleep(2) start=time.time() producer() #并发执行,可是任务producer遇到io就会阻塞住,并不会切到该线程内的其余任务去执行 stop=time.time() print(stop-start)
对于单线程下,咱们不可避免程序中出现io操做,但若是咱们能在本身的程序中(即用户程序级别,而非操做系统级别)控制单线程下的多个任务能在一个任务遇到io阻塞时就切换到另一个任务去计算,这样就保证了该线程可以最大限度地处于就绪态,即随时均可以被cpu执行的状态,至关于咱们在用户程序级别将本身的io操做最大限度地隐藏起来,从而能够迷惑操做系统,让其看到:该线程好像是一直在计算,io比较少,从而更多的将cpu的执行权限分配给咱们的线程。
协程的本质就是在单线程下,由用户本身控制一个任务遇到io阻塞了就切换另一个任务去执行,以此来提高效率。为了实现它,咱们须要找寻一种能够同时知足如下条件的解决方案:
#1. 能够控制多个任务之间的切换,切换以前将任务的状态保存下来,以便从新运行时,能够基于暂停的位置继续执行。 #2. 做为1的补充:能够检测io操做,在遇到io操做的状况下才发生切换
红色表示忙(IO),绿色表示正常运行
左边是正常的线程,右边是协程
在执行程序的过程当中,遇到IO操做就切换其余线程执行,好比b。
网络的recv,访问网页,都存在IO
协程
协程并非实际存在的实体
它的本质 就是一个线程的多个部分
比线程的单位更小 —— 协程、纤程
它的本质就是一个线程的多个部分
在一个线程中能够开启不少协程
在执行程序的过程当中,遇到IO操做就冻结当前位置的状态
去执行其余任务,在执行其余任务过程当中,
会不断的检测上一个冻结的任务是否IO结束
若是IO结束了,就继续从冻结的位置开始执行
一个线程不会遇到阻塞 —— 一直在使用CPU
多个线程 —— 只能有一个线程使用CPU
协程比线程之间的切换和线程的建立销毁
所花费的时间、空间开销要小的多
协程的特色
冻结当前程序/任务的执行状态 —— 技能解锁
能够规避IO操做的时间
它的特色,是线程没有的。
冻结函数状态-->生成器
def func(): print(1) yield 'aaa' print(2) yield 'bbb' print(3) yield 'ccc' g = func() next(g)
执行输出:1
def func(): x = yield 1 print(x) yield 2 g = func() print(next(g)) print(g.send('aaa'))
执行输出:
1
aaa
2
上面代码的运行过程以下。
1.当调用next(g)方法时,python首先会执行func方法的yield 1语句。因为是一个yield语句,所以方法的执行过程被挂起,而next方法返回值为yield关键字后面表达式的值,即为1。
2.当调用g.send('aaa')方法时,python首先恢复func方法的运行环境。同时,将表达式yield 1的返回值定义为send方法参数的值,即为aaa
这样,接下来x = yield 1 这一赋值语句会将x的值置为aaa。继续运行会遇到yield 2语句。
所以,func方法再次被挂起。同时,send方法的返回值为yield关键字后面表达式的值,为2。
最终输出:
1
aaa
2
单纯的切换状态,会不会影响程序执行时间?
看上面的例子:单纯地切换反而会下降运行效率
结论:
单纯的切换 仍是要耗费一些时间的 记住当前执行的状态
上面的列表虽然执行快,可是它占用了大量内存。它是用时间换了空间。
协程:是单线程下的并发,又称微线程,纤程。英文名Coroutine。一句话说明什么是线程:协程是一种用户态的轻量级线程,即协程是由用户程序本身控制调度的。、
须要强调的是:
#1. python的线程属于内核级别的,即由操做系统控制调度(如单线程遇到io或执行时间过长就会被迫交出cpu执行权限,切换其余线程运行) #2. 单线程内开启协程,一旦遇到io,就会从应用程序级别(而非操做系统)控制切换,以此来提高效率(!!!非io操做的切换与效率无关)
对比操做系统控制线程的切换,用户在单线程内控制协程的切换
优势以下:
#1. 协程的切换开销更小,属于程序级别的切换,操做系统彻底感知不到,于是更加轻量级 #2. 单线程内就能够实现并发的效果,最大限度地利用cpu
缺点以下:
#1. 协程的本质是单线程下,没法利用多核,能够是一个程序开启多个进程,每一个进程内开启多个线程,每一个线程内开启协程 #2. 协程指的是单个线程,于是一旦协程出现阻塞,将会阻塞整个线程
总结协程特色:
简介:
Greenlet是python的一个C扩展,来源于Stackless python,旨在提供可自行调度的‘微线程’, 即协程。generator实现的协程在yield value时只能将value返回给调用者(caller)。 而在greenlet中,target.switch(value)能够切换到指定的协程(target), 而后yield value。greenlet用switch来表示协程的切换,从一个协程切换到另外一个协程须要显式指定。
安装 :pip3 install greenlet
from greenlet import greenlet def eat(name): print('%s eat 1' %name) g2.switch('egon') print('%s eat 2' %name) g2.switch() def play(name): print('%s play 1' %name) g1.switch() print('%s play 2' %name) g1=greenlet(eat) g2=greenlet(play) g1.switch('egon')#能够在第一次switch时传入参数,之后都不须要
单纯的切换(在没有io的状况下或者没有重复开辟内存空间的操做),反而会下降程序的执行速度
#顺序执行 import time def f1(): res=1 for i in range(100000000): res+=i def f2(): res=1 for i in range(100000000): res*=i start=time.time() f1() f2() stop=time.time() print('run time is %s' %(stop-start)) #10.985628366470337 #切换 from greenlet import greenlet import time def f1(): res=1 for i in range(100000000): res+=i g2.switch() def f2(): res=1 for i in range(100000000): res*=i g1.switch() start=time.time() g1=greenlet(f1) g2=greenlet(f2) g1.switch() stop=time.time() print('run time is %s' %(stop-start)) # 52.763017892837524
greenlet只是提供了一种比generator更加便捷的切换方式,当切到一个任务执行时若是遇到io,那就原地阻塞,仍然是没有解决遇到IO自动切换来提高效率的问题。
单线程里的这20个任务的代码一般会既有计算操做又有阻塞操做,咱们彻底能够在执行任务1时遇到阻塞,就利用阻塞的时间去执行任务2。。。。如此,才能提升效率,这就用到了Gevent模块。
greenlet不是创造协程的模块
它是用来作多个协程任务切换的
它究竟是怎么实现切换的呢?
from greenlet import greenlet def func(): print(123) def func2(): print(456) g1 = greenlet(func) # 实例化 g2 = greenlet(func2) g1.switch() # 开始运行,它会运行到下一个switch结束。不然一直运行
执行输出:123
from greenlet import greenlet def test1(): print 12 gr2.switch() print 34 def test2(): print 56 gr1.switch() print 78 gr1 = greenlet(test1) gr2 = greenlet(test2) gr1.switch()
执行输出:
12
56
34
执行过程:
当建立一个greenlet时,首先初始化一个空的栈, switch到这个栈的时候,会运行在greenlet构造时传入的函数(首先在test1中打印 12), 若是在这个函数(test1)中switch到其余协程(到了test2 打印34),那么该协程会被挂起,等到切换回来(在test2中切换回来 打印34)。当这个协程对应函数执行完毕,那么这个协程就变成dead状态。
注意 上面没有打印test2的最后一行输出 78,由于在test2中切换到gr1以后挂起,可是没有地方再切换回来。这个可能形成泄漏,后面细说。
上面的例子,有几个缺点
1.手动切换
2.不能规避I/O操做(睡眠)
安装:pip3 install gevent
Gevent 是一个第三方库,能够轻松经过gevent实现并发同步或异步编程,在gevent中用到的主要模式是Greenlet, 它是以C扩展模块形式接入Python的轻量级协程。 Greenlet所有运行在主程序操做系统进程的内部,但它们被协做式地调度。
g1=gevent.spawn(func,1,,2,3,x=4,y=5)建立一个协程对象g1,spawn括号内第一个参数是函数名,如eat,后面能够有多个参数,能够是位置实参或关键字实参,都是传给函数eat的 g2=gevent.spawn(func2) g1.join() #等待g1结束 g2.join() #等待g2结束 #或者上述两步合做一步:gevent.joinall([g1,g2]) g1.value#拿到func1的返回值
from gevent import monkey;monkey.patch_all() import gevent import time def eat(): print('eat food 1') time.sleep(2) print('eat food 2') def play(): print('play 1') time.sleep(1) print('play 2') g1=gevent.spawn(eat) g2=gevent.spawn(play) gevent.joinall([g1,g2]) print('主')
咱们能够用threading.current_thread().getName()来查看每一个g1和g2,查看的结果为DummyThread-n,即假线程
from gevent import monkey;monkey.patch_all() import threading import gevent import time def eat(): print(threading.current_thread().getName()) print('eat food 1') time.sleep(2) print('eat food 2') def play(): print(threading.current_thread().getName()) print('play 1') time.sleep(1) print('play 2') g1=gevent.spawn(eat) g2=gevent.spawn(play) gevent.joinall([g1,g2]) print('主')
真正能实现协程的模块gevent
import gevent def eat(): print('eating1') print('eating2') g1 = gevent.spawn(eat) #建立一个协程对象g1
执行输出为空,表示它还没执行。
import gevent def eat(): print('eating1') print('eating2') g1 = gevent.spawn(eat) #建立一个协程对象g1 g1.join() #等待g1结束
执行输出:
eating1
eating2
import time import gevent def eat(): print('eating1') time.sleep(1) print('eating2') def play(): print('playing1') time.sleep(1) print('playing2') g1 = gevent.spawn(eat) #建立一个协程对象g1 g2 = gevent.spawn(play) g1.join() #等待g1结束 g2.join()
执行输出:
eating1
eating2
playing1
playing2
若是想顺序执行呢?须要用到gevent.sleep
import time import gevent def eat(): print('eating1') gevent.sleep(1) #延时调用 print('eating2') def play(): print('playing1') gevent.sleep(1) #延时调用 print('playing2') g1 = gevent.spawn(eat) #建立一个协程对象g1 g2 = gevent.spawn(play) g1.join() #等待g1结束 g2.join()
执行输出:
eating1
playing1
eating2
playing2
若是想让协程执行time.sleep()呢?因为默认,协程没法识别time.sleep()方法,须要导入一个模块monkey
monkey patch (猴子补丁)
用来在运行时动态修改已有的代码,而不须要修改原始代码。
from gevent import monkey;monkey.patch_all() # 它会把下面导入的全部的模块中的IO操做都打成一个包,gevent就可以认识这些IO了 import time import gevent def eat(): print('eating1') time.sleep(1) #延时调用 print('eating2') def play(): print('playing1') time.sleep(1) #延时调用 print('playing2') g1 = gevent.spawn(eat) #建立一个协程对象g1 g2 = gevent.spawn(play) g1.join() #等待g1结束 g2.join()
执行输出:
eating1
playing1
eating2
playing2
结论:
使用gevent模块来执行多个函数,表示在这些函数遇到IO操做的时候能够在同一个线程中进行切换
利用其余任务的IO阻塞时间来切换到其余的任务继续执行
前提是:
spawn来发布协程任务
join负责开启并等待任务执行结束
gevent自己不认识其余模块中的IO操做,可是若是咱们在导入其余模块以前执行from gevent import monkey;monkey.patch_all() 这行代码,必须在文件最开头
gevent就可以认识在这句话以后导入的模块中的全部IO操做了
from gevent import spawn,joinall,monkey;monkey.patch_all() import time def task(pid): """ Some non-deterministic task """ time.sleep(0.5) print('Task %s done' % pid) def synchronous(): # 同步 for i in range(10): task(i) def asynchronous(): # 异步 g_l=[spawn(task,i) for i in range(10)] joinall(g_l) print('DONE') if __name__ == '__main__': print('Synchronous:') synchronous() print('Asynchronous:') asynchronous() # 上面程序的重要部分是将task函数封装到Greenlet内部线程的gevent.spawn。 # 初始化的greenlet列表存放在数组threads中,此数组被传给gevent.joinall 函数, # 后者阻塞当前流程,并执行全部给定的greenlet任务。执行流程只会在 全部greenlet执行完后才会继续向下走。
当一个任务执行时,依赖另一个任务的结果时,这种状况不适合异步,只能用同步
手动安装模块requests
pip3 install requests
from gevent import monkey;monkey.patch_all() import gevent import requests import time def get_page(url): print('GET: %s' %url) response=requests.get(url) if response.status_code == 200: print('%d bytes received from %s' %(len(response.text),url)) start_time=time.time() gevent.joinall([ gevent.spawn(get_page,'https://www.python.org/'), gevent.spawn(get_page,'https://www.yahoo.com/'), gevent.spawn(get_page,'https://github.com/'), ]) stop_time=time.time() print('run time is %s' %(stop_time-start_time))
等待网页请求结果是,去执行其余任务
红色表示等待,绿色表示执行任务
另一个爬虫例子:
对比使用普通函数和使用协程,谁更快一点
因为操做系统,访问一次网页后,会有缓存。
因此测试时,先访问一遍网页。再分别测试协程和普通函数。
from gevent import monkey;monkey.patch_all() from urllib.request import urlopen import gevent import time def get_page(url): res = urlopen(url) #print(len(res.read())) url_lst = [ 'http://www.baidu.com', 'http://www.sogou.com', 'http://www.sohu.com', 'http://www.qq.com', 'http://www.cnblogs.com', ] start = time.time() gevent.joinall([gevent.spawn(get_page,url) for url in url_lst]) print('先执行一次',time.time() - start) start = time.time() gevent.joinall([gevent.spawn(get_page,url) for url in url_lst]) print('协程',time.time() - start) start = time.time() for url in url_lst:get_page(url) print('普通',time.time() - start)
执行输出:
先执行一次 0.6465449333190918
协程 0.34525322914123535
普通 0.570899486541748
结论
之后用爬虫,可使用协程,它的速度更快。
经过gevent实现单线程下的socket并发
注意 :from gevent import monkey;monkey.patch_all()必定要放到导入socket模块以前,不然gevent没法识别socket的阻塞
from gevent import monkey;monkey.patch_all() from socket import * import gevent #若是不想用money.patch_all()打补丁,能够用gevent自带的socket # from gevent import socket # s=socket.socket() def server(server_ip,port): s=socket(AF_INET,SOCK_STREAM) s.setsockopt(SOL_SOCKET,SO_REUSEADDR,1) s.bind((server_ip,port)) s.listen(5) while True: conn,addr=s.accept() gevent.spawn(talk,conn,addr) def talk(conn,addr): try: while True: res=conn.recv(1024) print('client %s:%s msg: %s' %(addr[0],addr[1],res)) conn.send(res.upper()) except Exception as e: print(e) finally: conn.close() if __name__ == '__main__': server('127.0.0.1',8080)
from socket import * client=socket(AF_INET,SOCK_STREAM) client.connect(('127.0.0.1',8080)) while True: msg=input('>>: ').strip() if not msg:continue client.send(msg.encode('utf-8')) msg=client.recv(1024) print(msg.decode('utf-8'))
from threading import Thread from socket import * import threading def client(server_ip,port): c=socket(AF_INET,SOCK_STREAM) #套接字对象必定要加到函数内,即局部名称空间内,放在函数外则被全部线程共享,则你们公用一个套接字对象,那么客户端端口永远同样了 c.connect((server_ip,port)) count=0 while True: c.send(('%s say hello %s' %(threading.current_thread().getName(),count)).encode('utf-8')) msg=c.recv(1024) print(msg.decode('utf-8')) count+=1 if __name__ == '__main__': for i in range(500): t=Thread(target=client,args=('127.0.0.1',8080)) t.start()
进程5个,线程20个,协程500个 —— 通用的组合 —— 50000qps
0.3s之内,用户是感受不到的
只有进程能处理并行
重点掌握进程,线程,协程
这3者之间的区别,优缺点,理论知识。面试会问道。
task,翻译是任务
1 多进程/多线程网络编程都是一个进程或者线程处理一个task,当task过多时,就会致使巨量的进程/线程。 2 巨量的进程/线程会致使 上下文切换极其频繁! 你们知道:上下文切换是要消耗cpu资源的 因此当进程/线程数量过多时,cpu资源就得不到有效利用 3 而协程实际上就是:在用户空间实现task的上下文切换! 这种上下文切换消耗的代价相较而言微乎其微。这就是协程的优点! 4 固然协程也有劣势:就是没法利用多核cpu,可是咱们有解决办法:多进程 + 协程
看下图
playing2没有输出,是由于阻塞结束,再也不切换。
明天默写:
socket_server
from gevent import monkey;monkey.patch_all() import socket import gevent def async_talk(conn): try: while True: conn.send(b'hello') ret = conn.recv(1024) print(ret) finally: conn.close() sk = socket.socket() sk.bind(('127.0.0.1',9000)) sk.listen() while True: conn,addr = sk.accept() gevent.spawn(async_talk,conn) sk.close()
socket_client
import socket from threading import Thread def socket_client(): sk = socket.socket() sk.connect(('127.0.0.1',9000)) while True: print(sk.recv(1024)) sk.send(b'bye') sk.close() for i in range(500): Thread(target=socket_client).start()