【论文理解】Clothing Retrieval with Visual Attention Model

本博记录为卤煮理解,如有疏漏,请指正。转载请注明出处。 卤煮:非文艺小燕儿 这是上海交大在2017年10月份投放在arXiv上的一篇文章,比较精简,只有4页。 这篇文章主要有两点: (1)使用了Visual Attention Model(VAM),自动学习出在图像中的关键内容,减少背景的干扰。然后与通常网络提取出的特征图进行融合; (2)特征融合时,提出一种Impdrop的手段,类似将eleme
相关文章
相关标签/搜索