深度学习不不只仅是理论创新,更重要的是应用于工程实际。python
关于深度学习人工智能落地,已经有有不少的解决方案,不管是电脑端、手机端仍是嵌入式端,将已经训练好的神经网络权重在各个平台跑起来,应用起来才是最实在的。ios
(caffe2-ios:https://github.com/KleinYuan/Caffe2-iOS)git
这里简单谈谈就在2018年咱们通常深度学习落地的近况。github
Opencv相比你们都比较了解,很流行很火的开源图像处理库,人工智能深度学习大伙,Opencv天然不能落下。早在去年Opencv开始加入Dnn模块,而且一直更新,可是有点须要注意,Opencv
的深度学习模块是用来inference
推断而不是用来训练的。windows
为何,由于如今已经存在不少优秀的深度学习框架了(TensorFlow、Pytorch),Opencv只须要管好能够读取训练好的权重模型进行推断就足够了。网络
(opencv-4.0.0已经发布)多线程
本身试着跑了一下Opencv版的yolov3,利用yolo官方训练好的权重,读取权重而且利用Opencv的前向网络运行——速度还能够,在i5-7400 CPU上推断用了600+ms。框架
而我用2017版MacBookPro-2.3GHz版本的CPU(i5-7260u)则跑了500ms。要知道这是彻底版本的yolo-v3。若是进一步优化的话,在稍微好点的CPU端是能够跑到10fps!分布式
另外在learnopencv相关文章中,也有详尽的评测:性能
在6核12线程的CPU中能够跑到200ms,速度至关快了,并且优化的空间仍是有的。
为何Opencv版的比Darknet版的速度快那么多,是由于Opencv的Cpu端的op编写过程当中利用了CPU-MKL等不少优化库,针对英特尔有着很好的优化,充分利用了多线程的优点(多线程很重要,并行计算比串行计算快不少)。
固然这些优化还不是尽头,Opencv也在一直更新:
Opencv能够做为一个不错的落地的深度学习推断平台,只要安装好Opencv,就能够跑深度学习代码了,不须要安装其余深度学习框架了。可是有点须要注意,Opencv最好的实践是CPU端,GPU端Opencv对cuda的支持不是很好,Opencv只有利用OpenCL支持GPU,但速度没有cuda库快。
Pytorch-v1.0的预览版已经发布了,正式版应该是在国庆节的第一天发布。
但咱们在观察Pytorch的1.0文档中已经能够熟知,为何Pytorch-v1.0称为从研究到生产:
最重要的三点:
简单谈谈第三个要点,看了官方的说明文档,Pytorch也作了相似于Opencv工做,新的Pytorch支持直接应用Pytorch的C++部分从而编译能够单独执行Pytorch的推断部分而不须要安装全部Pytorch的组件。
近期会测试一下Pytorh和Opencv相比在Cpu端的速度,看看哪一个对CPU端的优化更好些。
IOS最大的看点就是:Iphone最新出来的A12仿生处理器!
5W亿次每秒运行速度,跟专业显卡比起来可能不算什么,可是在手机端,意思可想而知。
只是不知道具体的速度如何,跑Yolo的话可不能够实时,期待以后的测评吧。
不过在HomeCourt这款APP中(中国目前还不可使用),凭借A12强大的性能,貌似能够实时追踪人体骨架。仍是很值得期待的。
至于安卓端,由于华为的芯片尚未具体公布,目前在移动端上的神经网络框架大部分是用CPU跑。
速度快慢就看在arm端的优化如何了。
比较流行的两个框架是ncnn(主要是cpu)和mace(也支持Gpu)。都在发展阶段,前者出世1年左右,后者出世半年不到。
也期待一下吧!
深度学习落地,最繁琐的莫过于配置各类环境,但愿以后各大深度学习框架可以在落地这块加大投入,实现快速方便地部署吧!
配一张Openpose的配置信息:
(OpenPose中对Windows的要求较为苛刻)
想知道老潘是如何学习踩坑的,想与我交流问题~请关注公众号「oldpan博客」。
老潘也会整理一些本身的私藏,但愿能帮助到你们,点击神秘传送门获取。