前戏
html
本文介绍一类开源项目:MobileNet-YOLOv3。其中分享Caffe、Keras和MXNet三家框架实现的开源项目。git
看名字,就知道是MobileNet做为YOLOv3的backbone,这类思路家常便饭,好比典型的MobileNet-SSD。固然了,MobileNet-YOLOv3讲真仍是第一次据说。github
MobileNet和YOLOv3windows
MobileNet网络
MobileNet目前有v1和v2两个版本,毋庸置疑,确定v2版本更强。但本文介绍的项目暂时都是v1版本的,固然后续再加入v2应该不是很难。这里只简单介绍MobileNetv1(非论文解读)。框架
创新亮点:Depthwise Separable Convolution(深度可分离卷积)ide
Tricks:宽度因子和分辨率因子性能
MobileNetv1在ImageNet上的实验结果网站
MobileNet在计算量,存储空间和准确率方面取得了很是不错的平衡。与VGG16相比,在很小的精度损失状况下,将运算量减少了30倍。3d
YOLOv3
以前推过几篇关于YOLOv3的文章,你们点击便可看到:
YOLOv3:你必定不能错过
重磅:TensorFlow实现YOLOv3(内含福利)
利用OpenCV玩转YOLOv3
在Titan X上,YOLOv3在51 ms内实现了57.9的AP50,与RetinaNet在198 ms内的57.5 AP50至关,性能类似但速度快3.8倍。
创新亮点:DarkNet-5三、Prediction Across Scales、多标签多分类的逻辑回归层
Tricks:多尺度训练,大量的data augmentation
DarkNet-53网络结构
MobileNetv1在COCO上的实验结果
MobileNet-YOLO
【0】Caffe实现
连接:
https://github.com/eric612/MobileNet-YOLO
windows版:
https://github.com/eric612/Caffe-YOLOv3-Windows
安装教程和源码你们直接根据上述网站,自行摸索吧,这里直接看一下实验结果:正常版本和Lite版本在mAP上都强于YOLOv3-Tiny,且参数更少,但不知道速度如何。
【1】Keras实现
连接:
https://github.com/Adamdad/keras-YOLOv3-mobilenet
该开源项目的Adamdad大佬并无给出实验结果,仍是要respect!
【2】MXNet实现
连接1:
https://gluon-cv.mxnet.io/model_zoo/detection.html#yolo-v3
连接2:
https://github.com/dmlc/gluon-cv/tree/master/gluoncv/model_zoo/yolo
连接3:
https://github.com/sufeidechabei/gluon-mobilenet-yolov3
连接1和2是MXNet官网开源的,连接3是sufeidechabei大佬我的开源的。
申明一下,MXNet这个版本,是在我写这篇文章前20个小时刚刚push的,官网上还查不到实验结果。相信必定很赞,为何呢,你接着往下看。
既然看不到MXNet版本的MobileNet-YOLOv3的实验结果,那咱们看看MXNet版本的YOLOv3在COCO上的实验结果。
你们是否是注意到了,MXNet版本中的YOLOv3比原版darnet版本的YOLOv3检测效果更好。为何呢?由于加了不少tricks,有哪些能够提升mAP的tricks,你们能够看一下今天推的次条文章。
sufeidechabei大佬开源的MobileNet-YOLOv3实验结果:
参考
Redmon, Joseph, and Ali Farhadi. “Yolov3: An incremental improvement.” arXiv preprint arXiv:1804.02767 (2018).