(摘自王逍同窗的论文arxiv-2019+Pedestrian Attribute Recognition A Survey)html
1. 数据集
Dataset | Pedestrians | Attribute | Source |
---|---|---|---|
PETA Dataset | 19000 | 61 binary and 4 multi-class attributes | outdoor & indoor |
RAP Dataset | 41585 | 69 binary and 3 multi-class attributes | indoor |
RAP 2.0 Dataset | 84928 | 69 binary and 3 multi-class attributes | indoor |
PA-100K Dataset | 10w | 26 binary attributes | outdoor |
WIDER Attribute Dataset | 13789 | 14 binary attributes | WIDER images |
Market-1501_Attribute | 32668 | 26 binary and 1 multi-class attributes | outdoor |
DukeMTMC-Attribute | 34183 | 23 binary attributes | outdoor |
Parse27k Dataset | 27000 | 8 binary and 2 multi-class orientation attributes | outdoor |
APiS | 3661 | 11 binary and 2 multi-class attributes | KITTI , CBCL Street Scenes,INRIA and SVS |
Database of Human Attributes | 9344 | 27 binary attributes | image site Flickr |
CRP Dataset | 27454 | 1 binary attributes and 13 multi-class attributes | outdoor |
Clothing Attributes Dataset | 1856 | 23 binary attributes and 3 multi-class attributes | Sartorialist and Flickr |
Berkeley-Attributes of People dataset | 8035 | 9 binary attributes | H3D dataset PASCAL VOC 2010 |
备注: 加粗的数据集是已经获取到的,RAP和RAP2.0数据集须要联系做者,以后会拿到.ios
2. 实现方法总结及已有资源
Github资源(图中橙色框标注):git
- PANDA (CVOR-2014): <局部>
- HydraPlus-Net (ICCV-2017):<注意力>
- WPAL-network (BMVC-2014)<改进损失函数>
3.详细介绍
3.1 基于全局特征的属性检测方法
###3.1.1 FT-CNN(Re-id Using CNN Features Learned from Combination of Attributes(ICPR2016)) 在Alexnet的4096维特征上,用多个全链接分类器表征各个特征。很明显惨不忍睹。
github
3.2 基于局部特征的行人属性检测方法
3.2.1 Poselets (ICCV-2011)
3.2.2 PANDA(CVPR-2014)
其中关键poselet采用3.2.1《Describing people: A poselet-based approach to attribute classification》中的划分方法。经过融合局部特征和总体特征,提升了准确率。
算法
3.2.3 MLCNN (ICB-2015)
采用网格划分,部分融合网络
3.2.4 ARAP (BMVC2016)
自适应检测关键点和对应Bbox,而后进行属性检测。端到端。app
3.2.5 PGDM (ICME-2018)
3.2.6 LGNet (BMVC-2018)
3.2.7 总结
算法结合了全局和细粒度部件的特征,其中身体部位的定位是经过分割算法获得,如:part detection, pose estimation, poselets or proposal generation algorithm. 算法总体准确率和部件分割的算法有很大关系。ide
3.3 基于注意力机制的属性检测方法
3.3.1 HydraPlus-Net (ICCV-2017)
SenseTime的论文,将多层注意力机制图多向映射到不一样的特征层。。HP-net包含两部分,M-Net和AF-Net。函数
- Main Net(M-Net): 单纯的CNN结构,论文的实现是基于inception_v2,包含三个inception block,还包含几个低层卷积层;
- Attentive Feature Net(AF-Net):三个分支,每一个分支有三个inception_v2 block和一个MDA
AF-Net包含三个子网络分支,并使用MDA模块加强,即F(αi)F(αi),其中αiαi是由inception块输出特征生成的注意力图,图中使用黑实线标记。随后应用到kth块的输出,图中用虚红线标示。每一个MDA模块,有一条注意力生成连接,三条注意力特征构造连接。不一样的MDA模块,注意力图由不一样的inception模块生成,以后乘到不一样层的特征图,生成不一样层在注意特征。 MDA模块的一个示例以下图所示:
如下是可视化特征:
3.3.2 DIAA (ECCV-2018)
3.4 继续序列预测的属性检测方法
3.4.1 JRL (ICCV-2017)
3.4.2 RCRA (AAAI-2019)
##3.5 基于图的属性检测方法 ###h3.5.1 VSGR (AAAI-2019) google