S3FD

2017年的文章了,做者对已有基于anchor的人脸检测算法在感觉野不匹配、小脸特征少、anchor匹配不均、以及浅层预测出现大量FP等问题分别分析并提出改进。web

在这里插入图片描述

S3FD模型结构如上图可见为SSD的改进版,分别针对现有的不足,做者分别做了如下改进。算法

1.在模型结构上的改进
这一块做者称为scale-equitable framework,在vgg16模型基础上新增卷积层,并在6层特征图上分别作预测。做者经过对anchor尺度、有效感觉野和实际人脸大小分析,设置以上的anchor大小以及在哪些层作预测是比较合适的。svg

2.在anchor匹配方面的改进
已有anchor匹配策略是先对全部GT找最匹配的anchor,而后再对anchor找匹配IOU大于必定阈值的GT来对anchor贴标签。但是anchor尺度是离散的而人脸大小分布是连续的,就会出现不一样大小人脸匹配到的anchor数不均衡,看下图。做者对现有anchor匹配策略作出必定改进:第一步,将阈值大于0.35的anchor设置为正样本,这能加强GT匹配到的anchor数。第二步,对于匹配到anchor较少的GT,下降阈值到0.1,而后依据IOU排序,将最匹配的N个anchor设为GT匹配到的,这能加强小人脸匹配的anchor数。ui

在这里插入图片描述

3.max out background label
在浅层,anchor较多,形成不少FP,为了减小FP,做者设计了对cls预测采用max out策略。max out指对同一个anchor作屡次背景预测(3次),而后将最大的背景预测值做为最终背景预测,而人脸预测只预测一次。设计

在这里插入图片描述

4.实现细节
做者也作了OHEM,训练加强就是图像加强而后随机裁剪缩放到640,随机翻转。
做者对较浅层的特征图在预测前还作了L2归一化,这是为啥也没讲?3d

做者将SSD和RPN做为baseline,F表明主干结构,S表明anchor匹配改进,M表示max out。发现结构改善提高最大啊,后面的tricks都有必定提高。
在这里插入图片描述xml