DAY7-Python学习笔记

前记:html

这几天在弄小程序,view页面的开发很简单,可是在加载图片上遇到了问题,小程序的大小不能超过2M,因此大部分的图片内容要经过request请求服务器来获取,这里以前学习小程序的时候是经过网站API接口实现的,可是如今想要加载自定义的图片,一开始的想法是看看能不能本身来写后端写接口,但是我是个后端小白面对一大堆新知识显得有点措手不及,查阅资料发现TX本身有一个基于Node.js的后端Demo,但是拿到这个Demo看了看源码仍是一脸懵逼,非常苦恼。想着开始学后端吧,找了一些视频发现大可能是PHP的,这样我又要学习PHP了,时间根本不够。而后陷入了一个瓶颈。可是在玩弄Demo时发现有个上传图片的功能试了试,居然发现返回了一个URL,立刻实验了下发现居然能返回我刚才上传的图片!欣喜若狂!而后知道了有COS对象存储这种东西,简直不要太爽,自定义上传图片记下URL就解决了我以前的问题,关于COS还在学习,明天试一试把!编程

 

1.异步IO:小程序

当代码须要执行一个耗时的IO操做时,它只发出IO指令,并不等待IO结果,而后就去执行其余代码了。一段时间后,当IO返回结果时,再通知CPU进行处理后端

 

2.协程(coroutine):又称微线程,可看作子程序,Python对协程的支持是经过generator实现的服务器

 

Donald Knuth的一句话总结协程的特色:“子程序就是协程的一种特例。”网络

 

3.asyncio:对异步IO的支持的内置标准库并发

 

asyncio的编程模型就是一个消息循环,从asyncio模块中直接获取一个EventLoop的引用,把须要执行的协程扔到EventLoop中执行就实现了异步IO:异步

 

import asyncio @asyncio.coroutine #把一个generator标记为coroutine类型
def hello(): print("Hello world!") # 异步调用asyncio.sleep(1):
    r = yield from asyncio.sleep(1) print("Hello again!") # 获取EventLoop:
loop = asyncio.get_event_loop() # 执行coroutine
loop.run_until_complete(hello()) loop.close()

 

hello()会首先打印出Hello world!,而后yield from语法调用另外一个generator,socket

asyncio.sleep()也是一个coroutine(协程),因此线程不会等待asyncio.sleep(),而是直接中断并执行下一个消息循环,当asyncio.sleep()返回时,线程就能够从yield from拿到返回值(此处是None),而后接着执行下一行语句。把asyncio.sleep(1)当作是一个耗时1秒的IO操做,在此期间,主线程并未等待,而是去执行EventLoop中其余能够执行的coroutine了,所以能够实现并发执行。async

咱们用asyncio的异步网络链接来获取sina、sohu和163的网站首页:

import asyncio @asyncio.coroutine def wget(host): print('wget %s...' % host) connect = asyncio.open_connection(host, 80) reader, writer = yield from connect header = 'GET / HTTP/1.0\r\nHost: %s\r\n\r\n' % host writer.write(header.encode('utf-8')) yield from writer.drain() while True: line = yield from reader.readline() if line == b'\r\n': break
        print('%s header > %s' % (host, line.decode('utf-8').rstrip())) # Ignore the body, close the socket
 writer.close() loop = asyncio.get_event_loop() tasks = [wget(host) for host in ['www.sina.com.cn', 'www.sohu.com', 'www.163.com']] loop.run_until_complete(asyncio.wait(tasks)) loop.close()

 

结果:可见3个链接由一个线程经过coroutine并发完成。

 

wget www.sohu.com... wget www.sina.com.cn... wget www.163.com... (等待一段时间) (打印出sohu的header) www.sohu.com header > HTTP/1.1 200 OK www.sohu.com header > Content-Type: text/html ... (打印出sina的header) www.sina.com.cn header > HTTP/1.1 200 OK www.sina.com.cn header > Date: Wed, 20 May 2015 04:56:33 GMT ... (打印出163的header) www.163.com header > HTTP/1.0 302 Moved Temporarily www.163.com header > Server: Cdn Cache Server V2.0 ...

 

 

4.async/await:从Python 3.5开始引入了新的语法,让coroutine的代码更简洁易读。

两段代码对比:把@asyncio.coroutine替换为async;把yield from替换为await

 

@asyncio.coroutine def hello(): print("Hello world!") r = yield from asyncio.sleep(1) print("Hello again!") async def hello(): print("Hello world!") r = await asyncio.sleep(1) print("Hello again!")

 

 

5.aiohttp能够实现单线程并发IO操做

 

后记:

囫囵吞枣总算是把教程学完了,一个星期的时间,可是大部分的语法仍是掌握不牢固,虽然在写总结可是没有复习过本身的笔记,无论怎么样总算是搞完了。下一步就是实战了,激动人心的时刻! 最近事情是真的有点多也有点烦,可是这7天坚持下来了仍是很满意的!将来的路还很长,抓紧时间啊!别挥霍青春了,努力了!你不会比任何人

相关文章
相关标签/搜索