YOLO做为目标检测领域的创新技术,一经推出就受到开发者的普遍关注。值得一提的是,基于百度自研的开源深度学习平台PaddlePaddle的YOLO v3实现,参考了论文【Bag of Tricks for Image Classification with Convolutional Neural Networks】,增长了mixup,label_smooth等处理,精度(mAP(0.5:0.95))相比于原做者的实现提升了4.7个绝对百分点,在此基础上加入synchronize batch normalization, 最终精度相比原做者提升5.9个绝对百分点。咱们将在下文中为你们详解实现的具体过程。python
CV领域的核心问题之一就是目标检测(object detection),它的任务是找出图像当中全部感兴趣的目标(物体),肯定其位置和大小(包含目标的矩形框)并识别出具体是哪一个对象。Faster R-CNN及在其基础上改进的Mask R-CNN在实例分割、目标检测、人体关键点检测等任务上都取得了很好的效果,但一般较慢。YOLO 创造性的提出one-stage,就是目标定位和目标识别在一个步骤中完成。算法
因为整个检测流水线是单个网络,所以能够直接在检测性能上进行端到端优化,使得基础YOLO模型能以每秒45帧的速度实时处理图像,较小网络的Fast YOLO每秒处理图像可达到惊人的155帧。YOLO有让人惊艳的速度,同时也有让人止步的缺陷:不擅长小目标检测。而YOLO v3保持了YOLO的速度优点,提高了模型精度,尤为增强了小目标、重叠遮挡目标的识别,补齐了YOLO的短板,是目前速度和精度均衡的目标检测网络。api
YOLO v3检测原理网络
YOLO v3 是一阶段End2End的目标检测器。YOLO v3将输入图像分红SS个格子,每一个格子预测B个bounding box,每一个bounding box预测内容包括: Location(x, y, w, h)、Confidence Score和C个类别的几率,所以YOLO v3输出层的channel数为SSB(5 + C)。YOLO v3的loss函数也有三部分组成:Location偏差,Confidence偏差和分类偏差。框架
YOLO v3网络结构ide
YOLO v3 的网络结构由基础特征提取网络、multi-scale特征融合层和输出层组成。函数
一、特征提取网络。YOLO v3使用 DarkNet53做为特征提取网络:DarkNet53 基本采用了全卷积网络,用步长为2的卷积操做替代了池化层,同时添加了 Residual 单元,避免在网络层数过深时发生梯度弥散。
二、特征融合层。为了解决以前YOLO版本对小目标不敏感的问题,YOLO v3采用了3个不一样尺度的特征图来进行目标检测,分别为1313,2626,52*52,用来检测大、中、小三种目标。特征融合层选取 DarkNet 产出的三种尺度特征图做为输入,借鉴了FPN(feature pyramid networks)的思想,经过一系列的卷积层和上采样对各尺度的特征图进行融合。
三、输出层。一样使用了全卷积结构,其中最后一个卷积层的卷积核个数是255:3*(80+4+1)=255,3表示一个grid cell包含3个bounding box,4表示框的4个坐标信息,1表示Confidence Score,80表示COCO数据集中80个类别的几率。工具
PaddlePaddle简介
PaddlePaddle是百度自研的集深度学习框架、工具组件和服务平台为一体的开源深度学习平台,有全面的官方支持的工业级应用模型,涵盖天然语言处理、计算机视觉、推荐引擎等多个领域,并开放了多个实用的预训练中文模型。性能
应用案例分享:AI识虫
红脂大小蠹是危害超过 35 种松科植物的蛀干害虫,自 1998 年首次发现到 2004 年,发生面积超过 52.7 万平方千米 , 枯死松树达 600 多万株。且在持续扩散,给我国林业经济带来巨大损失。传统监测方式依赖具备专业识别能力的工做人员进行实地检查,专业要求高,工做周期长。北京林业大学、百度、嘉楠、软通智慧合做面向信息素诱捕器的智能虫情监测系统,经过PaddlePaddle训练获得目标检测模型YOLO v3,识别红脂大小蠹虫,远程监测病虫害状况,识别准确率达到90%,与专业人士水平至关,并将本来须要两周才能完成的检查任务,缩短至1小时就能完成。学习
基于PaddlePaddle实际使用
运行样例代码须要Paddle Fluid的v.1.4或以上的版本。若是你的运行环境中的PaddlePaddle低于此版本,请根据安装文档中的说明来更新PaddlePaddle。
数据准备
在MS-COCO数据集上进行训练,经过以下方式下载数据集。
模型训练
安装cocoapi:训练前须要首先下载cocoapi。
下载预训练模型: 本示例提供darknet53预训练模型,该模型转换自做者提供的darknet53在ImageNet上预训练的权重,采用以下命令下载预训练模型。
sh ./weights/download.sh
经过初始化 --pretrain 加载预训练模型。同时在参数微调时也采用该设置加载已训练模型。 请在训练前确认预训练模型下载与加载正确,不然训练过程当中损失可能会出现NAN。
开始训练: 数据准备完毕后,能够经过以下的方式启动训练。
• 经过设置export CUDA_VISIBLE_DEVICES=0,1,2,3,4,5,6,7指定8卡GPU训练。
• 可选参数见:python train.py --help
数据读取器说明:
• 数据读取器定义在reader.py中。
模型设置:
• 模型使用了基于COCO数据集生成的9个先验框:10x13,16x30,33x23,30x61,62x45,59x119,116x90,156x198,373x326
• 检测过程当中,nms_topk=400, nms_posk=100,nms_thresh=0.45
训练策略:
• 采用momentum优化算法训练YOLO v3,momentum=0.9。
• 学习率采用warmup算法,前4000轮学习率从0.0线性增长至0.001。在400000,450000轮时使用0.1,0.01乘子进行学习率衰减,最大训练500000轮。
下图为模型训练结果Train Loss。
模型评估
若训练时指定--syncbn=True, 模型评估精度以下。
• 注意: 评估结果基于pycocotools评估器,没有滤除score < 0.05的预测框,其余框架有此滤除操做会致使精度降低。
模型推断
模型推断能够获取图像中的物体及其对应的类别,infer.py是主要执行程序,调用示例以下。
• 经过设置export CUDA_VISIBLE_DEVICES=0指定单卡GPU预测。
模型预测速度(Tesla P40)