导言git
这篇文章有 4篇论文速递,都是目标检测方向,包括行人检测、车辆检测、指纹检测和目标跟踪等。github
CVer算法
编辑: Amusi 数据库
校稿: Amusi网络
前戏app
Amusi 将平常整理的论文都会同步发布到 daily-paper-computer-vision 上。名字有点露骨,还请见谅。喜欢的童鞋,欢迎star、fork和pull。分布式
直接点击“阅读全文”便可访问daily-paper-computer-vision。
link: https://github.com/amusi/daily-paper-computer-visionide
目标检测(Object Detection)性能
《Remote Detection of Idling Cars Using Infrared Imaging and Deep Networks》测试
arXiv 2018
Proposed idling car detection framework
Abstract:怠速车辆(Idling vehicles)经过废气排放浪费能源并污染环境。在一些国家,禁止将车辆空转超过预约的时间,而且执法机构须要自动检测怠速车辆。咱们提出第一个使用红外(IR)成像和深度网络来检测空转车的自动系统。
咱们依靠怠速和停车时空热特征的差别,并使用长波红外摄像机监测车内温度。
咱们将怠速车检测问题制定为IR图像序列中的时空事件检测,并采用深度网络进行时空建模。咱们收集了第一个IR图像序列数据集,用于怠速汽车检测。首先,咱们使用卷积神经网络在每一个红外图像中检测汽车,该网络在规则的RGB图像上进行预先训练,并在IR图像上进行微调以得到更高的准确性。而后,咱们跟踪检测到的汽车随着时间的推移,以识别停放的汽车。最后,咱们使用每辆停放汽车的3D时空红外图像体积做为卷积和循环网络的输入,以将它们分类为空闲或不空闲。咱们对各类卷积和循环体系结构的时间和时空建模方法进行了普遍的经验性评估。咱们在咱们的IR图像序列数据集上呈现出有前景的实验结果。
arXiv:https://arxiv.org/abs/1804.10805
注:怠速车辆(Idling vehicles)简单理解就是启动的车辆在原地不动的状态,感受像是空转。
《MV-YOLO: Motion Vector-aided Tracking by Semantic Object Detection》
arXiv 2018
An overview of the proposed tracking method
Abstract:目标跟踪是许多可视化分析系统的基石。近年来,虽然在这方面取得了至关大的进展,但在实际视频中进行稳健,高效和准确的跟踪仍然是一项挑战。在本文中,咱们提出了一种混合跟踪器,利用压缩视频流中的运动信息和做用于解码帧的通用语义对象检测器,构建适用于多种可视化分析应用的快速高效的跟踪引擎。所提出的方法与OTB跟踪数据集上的几个常见的跟踪器进行了比较。结果代表所提出的方法在速度和准确性方面的优势。所提出的方法相对于大多数现有跟踪器的另外一个优势是其简单性和部署效率,这归因于其重用并从新利用系统中可能已存在的资源和信息,这是因为其余缘由。
arXiv:https://arxiv.org/abs/1805.00107
《Altered Fingerprints: Detection and Localization》
arXiv 2018
An overview of the proposed approach for detection and localization of altered fingerprints
Abstract:Fingerprint alteration(也称为模糊呈现***)是有意篡改或破坏真实的 friction ridge patterns以免AFIS识别。本文提出了一种检测和定位指纹变化的方法。咱们的主要贡献是:(i)设计和训练指纹图像上的CNN模型和图像中以细节点为中心的局部斑块,以检测和定位指纹变化区域,以及(ii)训练生成对抗网络(GAN)合成变化的指纹其特征与真实改变的指纹类似。成功训练的GAN能够缓解研究中改变指纹图像的有限可用性。来自270个科目的4,815个改变指纹的数据库和相同数量的滚动指纹图像用于训练和测试咱们的模型。所提出的方法在错误检测率(FDR)为2%时实现99.24%的真实检测率(TDR),优于公布的结果。改变后的指纹检测和定位模型和代码以及合成生成的改变后的指纹数据集将是开源的。
arXiv:https://arxiv.org/abs/1805.00911
《Real-Time Human Detection as an Edge Service Enabled by a Lightweight CNN》
IEEE EDGE 2018
L-CNN network layers specification
L-CNN: human object from variant angles and distances
Abstract:边缘计算(Edge computing)容许更多计算任务在网络边缘的分布式节点上发生。今天,许多对延迟敏感的任务关键型应用程序能够利用这些边缘设备来缩短期延迟,甚至能够经过现场存在实现实时的在线决策。智能监控中的人体检测,行为识别和预测属于这一类别,在这种状况下,大量视频流数据的转换会花费宝贵的时间,并给通讯网络带来沉重的压力。人们广泛认为,视频处理和目标检测是计算密集型且太昂贵而没法由资源有限的边缘设备来处理。受 depthwise separable 卷积和S ingle Shot Multi-Box Detector (SSD)的启发,本文介绍了一种轻量级卷积神经网络(LCNN)。经过缩小分类器的搜索空间以专一于监控视频帧中的人体对象,所提出的LCNN算法可以以对于边缘设备的负担得起的计算工做量来检测行人。原型已经在使用OpenCV库的边缘节点(Raspberry PI 3)上实现,使用真实世界的监控视频流能够得到使人满意的性能。实验研究验证了LCNN的设计,并代表它是在边缘计算密集型应用的有前景的方法。