转载请注明出处:https://www.cnblogs.com/White-xzx/git
原文地址:https://arxiv.org/abs/1709.09930github
Github: https://github.com/xh-liu/HydraPlus-Net网络
若有不许确或错误的地方,欢迎交流~框架
HP-Net是一个基于注意力机制(attention-based)的深度神经网络,将多层注意力机制图多向映射到不一样的特征层。函数
【HP-Net Adavantage】学习
(1)模型可以从浅层到语义层捕获注意力;spa
(2)挖掘多尺度的可选注意力特征,充实最终的行人特征表示;3d
(3)提取出细节和局部特征来充实高层全局特征,这些特征在细粒度的行人分析任务中是很是重要的;blog
(4)提出多方向注意机制模块(multi-directional attention,MDA),提取多层(multiple level)特征,包含局部和全局特征,进行多层特征融合,进行细粒度的行人分析;ip
multi-level: (a)语义层:分辨类似外观行人的局部区域特征,如长短发、长短袖; (b)浅层:捕捉行人的衣服的条纹;
multi-scale: (c)(d)多尺度特征,描述行人特色 (c)小尺度特征对应‘打电话’; (d)大尺度全局理解描述‘性别’
【HydraPlus-Net网络结构】
(1)Main Net(M-Net):单纯的CNN结构,论文的实现是基于inception_v2,包含三个inception block,还包含几个低层卷积层
(2)Attentive Feature Net(AF-Net):三个分支,每一个分支有三个inception_v2 block和一个MDA
【Attentive Feature Network】
AF-Net包含3个MDA加强的网络分支,
AF-Net和M-Net共享卷积框架,他们的输出级联后通过全局平均池化和全链接层融合,最终的输出映射到属性logits用于属性识别,或特征向量用于再认证。
为inception i模块的输出通过1 1conv、BN、ReLU产生的注意力图,并被相乘到inception k的输出特征图,产生多层多尺度注意力特征,传送到后续的层,MDA模块的最后L个注意力特征级联做为最终特征表示,k∈{1,2,3}
【Attention Mechanism 注意力机制】
传统基于注意力的模型,将注意力图返回输入到原相同的模块(右图红线),经过应用注意力图到相邻的模块来扩展此机制;HP-Net应用不一样的注意力图到多个模块(下图b),在相同的空间分布下融合多层特征。
【Multi-level Attention Map 多层注意力图】
不一样模块学习获得注意力图在尺度和细节上差别很是大,以下图(a),高层一般更粗糙、更聚焦语义区域(特定物体),如,低层捕获局部特征和细节(边缘和纹理),如
。所以,使用MDA模块融合不一样层注意力特征,能够收集不一样层的语义信息,提供更多可选特征表达。
上图为每一个输入图像提取某level的L = 8 attention channels 的特征图,不一样MDA做用下,多级注意力特征的定性演示
(a)浅层属性,如上衣类型,须要低层注意力链接,纹理 -> T-Shirt (b)语义或目标级别的属性,如手机,须要高层注意力链接
【Stage-wise Training 分阶段训练】
①训练M-Net,提取基本特征;
②将M-Net复制三次,获得AF-Net的三个分支,每一个MDA模块有三个子分支组成,即临近的三个不一样的inception blocks,依次微调每一个blocks,即共有9个blocks须要微调;
③微调完成后,固定AF-Net和M-Net,训练全局平均池化层(GAP)和全链接层(FC);
④输出层:属性识别使用交叉熵损失函数,行人ReID使用softmax函数。
【实验结果】