IM“扫一扫”功能很好作?看看微信“扫一扫识物”的完整技术实现

本文由腾讯WXG应用研究员breezecheng原创发表于公众号“腾讯技术工程”,原题“微信「扫一扫识物」 的背后技术揭秘”。php

1、引言

如今市面上主流的移动端IM应用于都有“扫一扫”功能,看起来好像也就能扫一扫加好友、加群,但实际上做为一个IM产品的重要信息入口,“扫一扫”功能也能够很强大。html

▲ 几款主流IM里的“扫一扫”功能ios

以国民应用微信为例,微信的“扫一扫”(即扫码功能)已经深刻人心。程序员

微信的“扫一扫识物”功能2019年12月23日已在iOS版本中正式上线,从识别特定编码形态的图片(二维码/小程序码/条形码/扫翻译),到精准识别天然场景中商品图片(鞋子/箱包/美妆/服装/家电/玩具/图书/食品/珠宝/家具/其余商品),扫码识物以图片(视频)做为媒介,聚合微信内部有价值的生态内容如电商、百科、资讯进行展现,有哪些技术难点须要去克服? 本文将详细为你解密微信“扫一扫识物”功能背后的技术秘密。算法

(本文同步发布于:http://www.52im.net/thread-2887-1-1.htmlspring

2、扫一扫识物是作什么的?

扫一扫识物是指以图片或者视频(商品图:鞋子/箱包/美妆/服装/家电/玩具/图书/食品/珠宝/家具/其余商品)做为输入媒介来挖掘微信内容生态中有价值的信息(电商+百科+资讯,如图 1 所示),并展现给用户。这里咱们基本覆盖了微信全量优质小程序电商涵盖上亿商品 SKU,能够支持用户货比 N 家并直接下单购买,百科和资讯则是聚合了微信内的搜一搜、搜狗、百度等头部媒体,向用户展现和分享与该拍摄商品相关的资讯内容。数据库

▲ 图1. 扫一扫识物功能示意图编程

百闻不如一试,欢迎你们更新 ios 新版本微信 → 扫一扫 → 识物 自行体验,也欢迎你们经过识物界面中的反馈按键向咱们提交体验反馈。图 2 即为扫物实拍展现。小程序

视频地址点此查看微信小程序

▲ 图 2. 扫一扫识物实拍展现

3、扫一扫识物落地哪些场景?

扫一扫识物的目的是开辟一个用户直达微信内部生态内容的一个新窗口,该窗口以用户扫图片的形式做为输入,以微信生态内容中的百科、资讯、电商做为展现页提供给用户。除了用户很是熟悉的扫操做,后续咱们会进一步拓展长按识图操做,将扫一扫识物打形成用户更加触手可及的运用。

扫一扫识物的落地场景以下图所示,主要涵盖 3 大部分:

a. 科普知识:用户经过扫物体既能够得到微信生态中关于该物体相关的百科、资讯等小常识或者趣闻,帮助用户更好的了解该物体;

b. 购物场景:同款搜索功能支持用户对于见到的喜好商品当即检索到微信小程序电商中的同款商品,支持用户扫即购;

c. 广告场景:扫一扫识物能够辅助公众号文章、视频更好的理解里面嵌入的图片信息,从而更好的投放匹配的广告,提高点击率。

4、扫一扫识物给扫一扫家族带来哪些新科技?

对于扫一扫,你们耳熟能详的应该是扫二维码、扫小程序码,扫条形码,扫翻译。不管是各类形态的码仍是文本字符,均可以将其认为是一种特定编码形态的图片,而识物则是识别天然场景图片,对于扫一扫家族来讲是一个质的飞跃,咱们但愿从识物开始,进一步拓展扫一扫对天然场景图片的理解能力,好比扫酒,扫车,扫植物,扫人脸等等服务,以下图 3 所示。

▲ 图3. 扫一扫家族

5、扫一扫识物总体框架

下面咱们为你们重点介绍扫一扫识物的完整技术实现方案,图 4 展现的是扫一扫的总体框架示意图。

该框架主要包含 4 大部分:

1)用户请求环节;

2)商检离线入库环节;

3)同款检索+资讯百科获取环节;

4)模型训练部署环节。

四大环节抽取核心技术模块能够总结为三个,即为数据构建、算法研发、平台建设,咱们将一一道来。

▲ 图4. 扫一扫识物总体框架

数据构建:

AI 时代数据为王,数据构建的目的就是为了更好的服务于 AI 算法,好比对于用户请求图、商家入库图都须要进行主体检测、类目预测、特征提取,都须要有高质量的训练数据来支撑检测模型、分类模型以及检索模型。一言以蔽之,数据决定了整个扫一扫识物性能上限。

算法研发:

算法研发是为了充分的利用已有的数据,为识物的每个环节如检测、类目预测,检索特征提取都在精度、速度上到达最优的折中,从而实现用户任意商品请求都能得到精准的同款召回,以及更加相关的资讯展现。算法研发的好坏决定了扫一扫识物的性能下限。

平台建设:

不管是数据建设,算法研发,模型上线都离不开一个好的平台支持,咱们为扫一扫识物从数据清洗、模型训练、部署,上线打造了一个完整的平台。能够说,平台建设关乎研发效率,决定了扫一扫识物可否实现上线。

6、扫一扫识物数据建设

扫一扫识物数据构建分为两大块,一大块是用于模型训练的训练数据建设,另外一大块则是支撑用户任意商品检索请求的线上检索库构建。

模型训练数据库构建 训练数据库主要是支援模型训练,如同款检索中须要的物体检测模型,类目预测模型以及同款检索模型等,在百科资讯搜索中则须要训练商品标题文本分类模型,命名实体识别模型等。本篇文章咱们重点关注视觉语义这一块的算法策略,对于百科资讯用到 NLP 算法咱们在下一篇文章中详细阐述。3.3 章节中咱们将阐述数据构建中用到的图片去重,检测数据库标注用到的半监督学习算法,以及检索数据构建提出的半自动同款去噪+合并算法。

▲ 图5. 训练数据构建(视觉模块)

在线检索数据库构建 在线检索数据库的覆盖范围相当重要,决定了可否支持用户的任意商品搜索请求。咱们采用定向导入、长尾加爬、访问重放、主动发现四种策略不断扩展咱们的商家图规模,目前已覆盖 95%+常见商品。这一数字还在不断上涨中,咱们但愿后续对用户的任意商品请求都可以精确召回同款商品。

6.一、图片去重

不管是检测数据库仍是检索数据库,第一步都是清理掉重复图片,这样既能够下降存储压力,也可以下降模型训练压力。

经常使用的图片去重算法有以下 2 种:

1)MD5 去重,去除彻底相同的图片;

2)哈希去重,除彻底重复图外,还能去除在原图上进行了些简单加工的图片。

如改变原图的亮度、尺度、对比度、边沿锐化、模糊、色度以及旋转角度,这些图片保留意义也不大,由于在模型训练中采用数据加强策略能够覆盖到。经常使用的哈希去重主要有 aHash,dHash,pHash 等,详细理解能够参阅相关文章[1,2],咱们重点对比各个去重算法的速度和鲁棒性,以下图 6 所示。

▲ 图6. 经常使用去重算法速度和鲁棒性对比

对比图 6 中的数字可知,dHash 的去重速度最快,由于只须要计算临近像素的亮度差别,很是简单易处理,并且对于图片简单的 ps 操做具备较好的容忍程度,除图片旋转外,诸如亮度、尺度、对比度、边沿锐化、模糊、色度等较小改变都具备很好的抗干扰能力,有助于咱们清理更多的无效图片。最终咱们也是采用 dHash 对咱们训练库进行去重操做,11 类全量爬虫商品库中,大概清理掉了 30%的重复图片,累计有 300w 左右。

6.二、检测数据库构建

从图 4 展现的总体框架可知,扫一扫识物的首要步骤就是主体检测,即先定位用户感兴趣的区域,去除掉背景对后续环节的干扰。主体检测基本是大部分以图搜图产品的公认首要操做,以下图 7 所示的阿里的拍立淘,百度的拍照识图,以及微软的识花小程序。固然主体检测的算法各有差别,如拍立淘采用的是物体检测算法,百度识图采用的是显著性区域预测,微软识花须要用户配合定位。为了解放用户,咱们但愿算法可以自动定位商品区域,考虑到显著性区域预测很难处理多个商品出如今视野的状况,相似拍立淘,咱们采用更加精确的物体检测算法来定位商品位置,并选择置信度最高的商品进行后续的商品检索以及资讯百科展现。

▲ 图7. 经常使用以图搜图产品的主体检测操做示意图

固然物体检测模型离不开检测数据库的支撑,这里咱们对比三种标注物体 boundbox 位置和类别的方法,即人工检测标注,弱监督检测标注以及半监督学习检测标注。

人工检测标注:经常使用的人工检测标注工具 labelimg 以下图所示,咱们须要标注爬虫的商品库中 11 类商品出现的位置以及对应的类别标签。考虑到人工标注的时间和金钱成本都很是巨大,咱们只采用该策略标注少许的样本,更多的采用后续的算法进行自动检测框标注。

▲ 图8. 经常使用人工检测标注工具labelimg

弱监督检测标注:该算法的核心思想是标注图片中所含物体的类别相比标注框+类别的时间成本要低不少,如何只利用全图类别信息来自动推断物体的位置信息,从而完成自动检测标注呢?学术界和工业界有大量的研究者对这一方向进行了研究和探索,主要思路都是挖掘图片中的局部显著性区域,用其来表征全图的类别语义信息,如图 9 列举了几篇表明性文章。图 9 左下角算法重点阐述下,它是业内第一篇用深度学习来作弱监督检测的文章,实验室师兄研发,咱们还基于该算法参加过 ImageNet14 的竞赛,拿了一个小分支的冠军。尽管愿景很美好,弱监督检测算法有个严重的缺陷,就是很容易拟合到局部区域,好比从大量猫的图片中拟合到的位置是猫脸区域,而很难定位到完整的猫的位置,这对于咱们同款商品检索来讲是难于接受的,咱们须要精确召回同一款商品(细粒度检索),全部信息量都很是重要,于是该算法基本被咱们 pass 掉了。

▲ 图9. 经常使用弱监督检测算法[3,4,5,6]

半监督检测标注:相比弱监督检测算法,半监督检测算法更加贴近任务自己:基于少许的人工标注检测框+检测开源数据库初始化检测模型,而后用该模型去自动标注剩下的商品数据库,并用增长的标注来从新更新检测模型,以后迭代进行模型更新和自动标注。固然为了控制上述环节持续正向激励,咱们为对置信度较低的标注样本进行人工校订,算法示意图以下所示。基于该算法,咱们完成了整个商品检测数据库的标注,11 类全量商品库标注了上百万个检测框,其中人工启动标注只有十几万,其余的基本都是基于算法自动标注,大大节省了标注的时间和金钱成本。

▲ 图10. 半监督检测算法流程示意图

6.三、检索数据库构建

完成了图片去重和主体检测以后,你们一个天然的想法就是,可否直接用这批抠图后的商品图结合 SKU 货号进行检索模型的训练,答案是否认的。

抠图以后的商品图还存在两大问题:

1)同款噪声问题,即同一个 SKU 下面存在非同款的图片,这多是因为用户上传错误图片、商家展现的是局部细节图、检测抠图错误等因素致使;

2)同款合并问题,不一样的 SKU 可能对应的是同一个款式商品,不加以合并,会致使分类类别数目急剧膨胀,并且模型难于收敛。

所以,在训练检索模型以前,咱们须要完成同款去噪和同款合并两个环节,咱们提出了基于自动聚类的同款去噪算法和基于混淆分类矩阵的同款合并算法,以下图 11 所示。后续咱们将分别对这个算法进行解析。

▲ 图11. 同款去噪+同款合并算法示意图

6.3.1 同款去噪

咱们采用聚类算法来自动去除每一个商品 SKU 中存在的噪声图片。咱们研究了经常使用的聚类算法,以下图 12 所示,

▲ 图12. 经常使用聚类算法聚类效果展现及速度对比

关于这些算法的理论及实现流程,你们感兴趣能够参阅[7]。咱们在图 13 中对上述聚类算法在常见指标上进行了对比分析,考虑到商品 SKU 聚类的特性,咱们更加关注聚类算法的抗噪声能力,对不一样 SKU 特征分布的适应性以及处理速度,综合分析实践后,咱们选择了 DBSCAN 做为咱们的聚类算法,并对其进行改造来更加适配商品的聚类去噪,咱们称其为层次法 DBSCAN。

▲ 图13. 经常使用聚类算法各类指标对比

层次法 DBSCAN 主要分为两个环节,分别为 step1.寻找距离最紧致的最大类簇,以及 step2.重访噪声样本, 捞回同款困难样本,增长多样性。下面我简要介绍这两个步骤。

层次法 DBSCAN 步骤 1 该步骤的目的是挑选 SKU 中距离最紧致的最大类簇,由于 SKU 中的同款样本相对噪声样本分布更有规律,数目也通常会更多。算法示意图以下图 14 所示,咱们邻域内最小样本数目设置为 2,将全部的核心点联通后,假设有多个类簇,咱们选择数目最多的类簇做为咱们挑选的商品图片,剩下的样本做为噪声样本。

▲ 图14. 层次法DBSCAN步骤一过程示意图

图 15 展现了某个实际 SKU 的步骤一聚类效果,从中咱们能够发现最大聚类因为控制的阈值很严格,样本分布很单一化,而在噪声中实际有一些误为噪声的困难正样本(用红圈示意)。这些困难的正样本对于提高检索模型的鲁棒性和泛化能力很是重要,于是咱们须要把噪声中的困难正样本捞回到左边的最大类簇中来,即为步骤 2 完成的事情。

▲ 图15. 某个SKU的步骤一实际聚类效果展现图

层次法 DBSCAN 步骤 2 为了将噪声样本中的困难正样本捞回,提高训练样本的丰富性,咱们须要重访噪声样本,计算噪声样本和最大类簇的距离,并将知足阈值条件的近距离噪声样本从新分配给最大类簇,以下图 16 所示。

▲ 图16. 层次法DBSCAN步骤二过程示意图

6.3.2 同款合并

同款合并的目的是为了将不一样 SKU 可是同一款式的商品进行合并,从而获得实际有效的款式类目。咱们采用分类混淆矩阵来完整自动同款合并。基于合并前的数据咱们能够训练初始分类模型,并计算任意两个 SKU 之间的混淆几率。混淆几率定义为 p_ij=c_ij/n_i,其中 p_ij 为第 i 类预测为第 j 类的混淆几率,c_ij 为模型将第 i 类预测为第 j 类的样本个数,n_i 为第 i 类样本的实际个数。某个 SKU 的混淆几率矩阵以下所示,可知,当两个 SKU 实际为同一个款式时,如图 17 左中类目 1 和 3,那么他们之间很难区分,混淆的几率就会偏大。经过设定合并同款的分数阈值,咱们可以将同款 SKU 进行合并。实际操做过程当中,咱们采用下图右边的迭代步骤进行,即先采用高的阈值合并置信度最高的同款,而后更新优化分类模型,并下降阈值合并更多的同款 SKU,上述步骤迭代进行,直到没有同款 SKU 须要合并。

▲ 图17. 左:商品SKU之间的混淆几率示意图,右:迭代合并流程示意图

合并完同款以后,咱们获得的训练检索数据库的规模以下图所示,总共为 7w+多类目,1kw+训练样本,相比目前主流的开源数据库如 ImageNet(1000 类,130w+)和 OpenImage(6000 类,900w+),在类别和数目上都要更加丰富。

6.3.3 成本收益

这里咱们对采用算法进行同款去噪+同款合并,和采用纯人工清理进行对比在时间和金钱上都有巨大的收益提高,加快了整个项目的迭代速度。

7、扫一扫识物算法研发

兵马未动,粮草先行,上一章节咱们已经讲述了如何备好粮草(清洗高质量的训练数据),那么这一章节天然而然就是亮兵器了(高效利用现有训练数据的算法模型)。按照扫一扫识物总体框架,咱们重点介绍视觉同款搜索涉及到的三大模块,即为物体检测、类目预测和同款检索。

7.一、物体检测

物体检测是扫一扫识物的第一个环节,咱们须要有效的定位用户拍摄图片中的商品位置,剔除掉背景对后续同款检索的干扰。

学术界和工业界对物体检测展开了大量的研究,以下图 18 所示:

1)研究者从不一样角度对检测算法进行优化,如从速度考虑分为 one-stage 和 two-stage 检测;

2)从 anchor 出发分为 anchor-based、anchor-free、guided anchors,近期 anchor 又开始崛起,在性能上匹配 two-stage,速度上匹配 one-stage;

3)还有从类别不平衡出发,不一样尺度物体检测等等出发。

▲ 图18. 物体检测经常使用深度学习算法

考虑商品检测中,主要重视三个问题:

1)速度问题;

2)检测标注类别不平衡;

3)物体尺度变化差别大。

综合这三个问题,咱们选择图 19 中的 retinanet [8]做为咱们的检测器。众所周知,retinanet 属于 one-stage 检测器,从原图出发直接回归物体的位置和类别,于是速度快,其次它采用金字塔架构,有效的适配多尺度物体检测,最后,retinanet 提出了 focal loss 能够有效的适应类别不平衡问题,以及样本难易问题。后续咱们会采用 anchor-free 的策略进一步优化 retinanet 的 head 部分,进一步加速模型的检测速度,这里不展开介绍。

▲ 图19. retinanet算法架构示意图

咱们将 retinanet-resnet50fpn 和经典的单阶段检测器 yolov3,和两阶段检测器 faster-rcnn-resnet50-fpn 进行对比,以下表格 20 所示。评测数据采用的是外包采集的 7k 张图片,涵盖了 11 大类,对比表格结果可知,retinanet 在速度和精度上达到了很好的折中效果。后续咱们会经过 tensorRT 进一步优化 retinanet 的前向速度,剧透下最快能够达到 80FPS。

▲ 图20. retinanet算法架构示意图

7.二、类目预测

类目预测是为了肯定检测抠图中物体的类别,从而方便后续用指定类目的模型进行特征提取和同款索引。你们可能会有所疑虑,由于前面检测器已经识别出了商品的位置和类目,为什么不直接用检测器的类目,而是要从新来过一次类目预测呢?缘由以下图 21 所示:训练检测器的数据有限,而用户上传的图片可能千奇百怪,那么训练库未出现的子类很容易形成检测器分类错误,其次是类间混淆性也会带来分类错误。

▲ 图21. 直接采用检测器的类目存在的问题

那么该如何提高类目识别的精度呢?这里咱们利用海量的线上检索库来提高类目预测的精度。即为咱们将用户 query 在检索库中进行一次检索,查询最近邻的 top-20 所属的类目,结合检测器的预测类目,来从新加权投票获得物体的最终类目。最终,经过检测+检索,咱们能极大提高类目预测的精度,将近 6 个点的提高。

7.三、同款检索

同款检索是扫一扫识物的灵魂。不一样于通常的以图搜图,只须要找出类似的图片便可,同款检索属于细粒度检索,须要检索出 query 的精确同款,好比华为 watch GT2 须要搜出来的就是该款手表,不能是其余牌子的手表,这就致使同款检索的挑战很是大。

下图 22 列出了同款检索的难点与挑战:

1)类间混淆性问题,即如何区分类似款和同款;

2)同款召回问题,即同款自己存在较大差别,如何有效的检索出同款。

考虑到这些难点,咱们提出了 9 大方向来优化咱们的同款检索模型。下面一一解释。

▲ 图22. 同款检索的难点与挑战

7.3.1 同款检索之分类模型

这是咱们的 baseline 模型。咱们使用的分类模型以下图 23 左侧所示。众所周知,分类模型采用 softmax 将逻辑值映射为类目的几率值,下图右上角表格所示,softmax 能很好的放大逻辑值的差别,将正确类目的几率逼近 1,有利于模型快速收敛。下图中咱们还展现了 softmax 分类模型的决策边界,以及在 mnist-10 类目上学习获得的特征分布[9,10]。

观察可知,softmax 分类器学习到的特征空间有 3 大特征:

1)特征空间呈现扇形分布,于是用余弦距离检索会优于欧式距离,后面咱们会固定采用余弦距离进行同款检索;

2)不一样类目分布不均衡。事实上咱们但愿同等重视各个类目,他们能均匀的分割整个特征空间,有利于模型泛化能力;

3)边界样本检索不许确,从特征图可知,边界样本距离临近类的余弦距离极可能小于该样本到同类之间的距离,形成检索错误。

下面,咱们重点修整分类模型的所存在的问题。

▲ 图23. 分类模型的重要特性分析

7.3.2 同款检索之分类模型改进 1 归一化操做

归一化包括两种,对图 23 中的分类权重 W 进行归一化,以及对特征 x 进行归一化。那么归一化的做用是什么呢?先来讲说权重 W 的模长和特征空间分布不均衡的关系。有研究者[10]代表,训练数据库中样本多的类目对应的 W 的模长也会越长,表征模型越重视该类的分类正确程度,而忽视了其余样本数目少的类目,如图 24 所示,MNIST 和 WebFace 两个数据库都验证了上述的映射关系。而实际上咱们但愿的是每一类都能被平等的重视,特征空间中每一类可以均衡的划分整个空间。

于是咱们须要对 W 进行归一化,让全部类别的权重一致,即:

 

▲ 图24. 每一类的样本数目和分类权重W的映射关系

特征归一化的操做相似,即为:

回顾 softmax 分类的决策边界:

咱们将 W 和 x 都进行归一化,于是决策边界只取决于角度,迫使模型训练收敛后特征分布更加扇形化,有利于余弦检索。可是二者同时归一化,会形成模型难于收敛,你们能够思考一番为什么?参考图 23 中的 softmax 特性,因为权重和特征都进行了归一化,分类逻辑值最大为 1,最小为-1,一样的三类分类学习中 gt 类目对应的 softmax 几率最大只到 0.78,远小于 1,致使模型仍有较大 loss,很差收敛。解决方法比价简单,对逻辑值乘以一个尺度值 s 便可,扩大差别化,有利于模型收敛。

7.3.3 同款检索之分类模型改进 2 角度 Margin

增长角度 Margin 的核心目的是让 softmax 分类的扇形分布更加有利于检索:即为同类更加汇集,不一样类更加远离。常见的 3 种增长角度 margin 的策略入下图 25 所示:乘性 margin[10,11],加性余弦 margin[12],加性角度 margin[13]。

▲ 图25. 常见softmax和margin softmax对比

增长 margin 后,softmax 分类模型获得的类内特征更加紧凑,以下图 26 所示。这里多说几句,相比乘性 margin,加性 margin 更加容易训练,这是由于乘性 margin 将余弦的单调区间从[0,π]缩小为[0,π/m],梯度更新区间变小了,而加性 margin 单调区间不变,有利于模型收敛。

▲ 图26. 常见softmax和margin softmax特征分布对比

7.3.4 同款检索之分类模型改进 3 排序损失

分类模型的学习目的是类别可区分,和检索任务仍是有必定区别,引入排序损失的目的就是显示的去优化检索任务,即为欧式空间中同类样本的距离要小于不一样类。通常排序损失和分类损失叠加使用效果要更好,咱们设计的模型结构以下图 27 所示:

▲ 图27. 分类模型+排序损失模型架构

图 27 中右边展现的是经常使用的排序损失函数,如 contrastive loss, triplet loss, lifted structure loss 等。图中重点展现了三元组损失函数以及优化的可视化目标,即同类距离要比不一样类距离小于一个 margin。

7.3.5 同款检索之分类模型及其改进后性能对比

此处咱们对分类模型和其改进版本在商品检索任务上进行性能对比。

评测集合是咱们收集的 11 大类商品库,其中用户评论图做为查询样本,检索样本为同款商家图和非该款式的噪声集合组成,能够较好的模拟线上检索库。

图 28 展现了分类模型及其改进版本在珠宝类目上的性能对比,可知:

1)增长归一化和角度加性 margin 后,即为 ArcFace[13],检索性能要优于经常使用 softmax 分类模型;

2)在分类模型基础上增长排序损失,如 Hard Triplet Loss,检索性能优于经常使用 softmax 分类模型;

3)分类+归一化+角度 margin+排序,如最后两行所示,性能进一步提高,可是提高幅度不是特别大。

▲ 图28. 分类模型及其改进版性能对比

7.3.6 同款检索之多任务模型

为了进一步提高检索模型的特征表达能力,咱们探索让检索特征捕捉更加丰富的商品特性,如在款式的类别上,加上视角、品牌等商品属性,以下图 29 所示。

▲ 图29. 检索特征嵌入多种商品属性

为了适应多属性标注标注的学习,咱们设计以下图 30 的多任务协同窗习模型。多任务协同窗习模型的好处很是明显,能够更好的利用属性之间的相关性,有利于网络的优化收敛,以及提高模型的泛化能力,这样获得的检索特征更加有利于商品同款检索。这里有个问题,不一样任务权重如何设计?

固然咱们能够手工设置每一个任务的权重,但这须要对各个任务理解较为深刻加上大量调参获得,另外的策略是自动获得各个任务的权重,有许多研究者对此进行了研究,这里咱们采用验证集趋势算法[14]来自动计算获得各个任务的权重,以下图 31 所示。该算法思想比较直接,即为人工设置高权重用于主任务,如款式分类,其余任务基于其优化难易程度来获得权重,如难优化(损失波动大且绝对值高)的任务权重大,易优化的权重小。使用多任务协同窗习后,模

▲ 图30. 多任务学习网络来利用多属性标注

▲ 图31. 基于验证集趋势算法的多任务协同窗习模型

型的检索性能相比单任务模型有较大的提高,以下图 32 所示。

▲ 图32. 多任务模型相比单任务模型检索性能对比

7.3.7 同款检索之注意力模型

在图 22 中咱们讲述了同款检索的一个巨大的挑战即为类似款对同款检索的混淆。为了更好的区分同款和类似款,咱们但愿更加关注一些显著的区域,以下图 33 中手表的 logo,刻写的文字,鞋子的 logo,花纹等。经常使用的注意力模型分为三种[15],有特特征空间注意力,特征通道注意力,以及 2 种注意力相结合。经过实验对比可知,增长特征空间注意力后,模型检索性能提高,可是增长特征通道注意力,检索性能反而降低,以下图 34 所示。咱们认为空间注意力有利于强化模型重视显著空间区域,而特征通道注意力可能形成了模型过拟合,性能反而有所降低。

▲ 图33. 注意力模型

▲ 图34. 三种注意力模型检索性能对比

7.3.8 同款检索之层级困难感知模型

一样针对同款检索的两大难点和挑战,即类间混淆性和类内差别性,咱们采用层级困难感知模型来充分重视这两大难题,以下图 35 所示的包包。尽管是同款,其类似程度可能有很大差别,如该款式包包因为拍摄视角、遮挡等形成的变化,对于非同款的负样本,也有很是类似的其余款式包包,和差别比较大的其余商品入酒类、口红等。

▲ 图35. 商品检索中同款类内差别性和类间混淆性的层级分布特性

层级困难感知模型模型[16]结构以下图 36 所示,其排序损失按层级分布,第一层级针对全部的正负样本进行排序学习,第二层负责较为困难的正负样本对,而第三层则负责更加困难的正负样本对,而且对于越困难的样本对,模型网络设计的越深。

▲ 图36. 层级困难感知模型

层级困难感知模型经过层级设计,匹配正负样本对的层级分布特性,可以有效的提高模型的同款检索性能,以下图 37 的实验所示。

▲ 图37. 层级困难感知模型同款减速性能

7.3.9 同款检索之互学习模型

众所周知,通常竞赛中你们都会融合多个模型的结果来提高精度。可是在实际的项目落地,咱们须要同时考虑部署模型的精度和速度,融合多个模型会占用更多计算资源,下降前向速度。那么怎么既然融合多个模型结构的优点,又不增长计算资源呢?这就是互学习模型的核心思想,以下图所示,互学习模型经过 KL 散度 loss 来吸取其余模型的结构优点,部署的时候只须要部署一个模型便可,不增长计算资源。

▲ 图38. 互学习模型

实验中,咱们利用 resnet152 和 inceptionv4 进行互学习,实际部署采用 resnet152 进行检索,其性能以下图 39 所示。互学习除了增长模型训练时间,对模型上线不增长任何负担,可是精度可以较为显著的增长。

▲ 图39. 互学习模型同款检索精度

7.3.10 同款检索之局部显著性擦除

经过上述全部策略来提高模型的同款检索性能后,咱们发现仍然存在一个问题,就是深度学习模型会过度关注图像的纹理区域,而忽视物体的形状。好比在行旅箱的同款检索中,返回的是印有相同图案的书包,钱包等,而非行旅箱。如何让模型在关注

▲ 图40. 经常使用CNN模型都会过度关注图像纹理,而忽略形状

纹理的同时,也关注下物体的形状信息呢?咱们采用局部显著性擦除技术来破坏原图的纹理,迫使模型来关注物体的形状。常见的局部显著性擦除有 3 种,以下图 41 所示,分别为随机擦除,伯努利擦除,对抗擦除。这里咱们重点对比了前二者,对抗擦除后

▲ 图41. 局部显著性擦除

续有时间再补上其性能,实验结果以下图 42 所示,局部显著性擦除可以极大的提高模型的同款检索精度。

▲ 图42. 局部显著性擦除同款检索性能

7.3.11 同款检索之互 k 近邻编码重排序

前面咱们讲述的都是优化检索模型,这里咱们讲述的是如何进一步优化检索模型的检索结果,即重排序。

在重排序里面,我我的很是欣赏互 k 近邻算法[17],很是简单高效。互 k 学习算法最先被提出来用于行人再检索,以下图 43 所示,其核心发现是,对于 query 样本,其检索的 top-10 样本中,正样本(和 query 为同一人)换作查询样本时,其 k 近邻中有原始的 query 样本,而负样本(和 query 非同一我的),其 k 近邻中没有原始 query 样本,基于该发现,做者在马氏距离的基础上,增长了基于互 k 近邻的距离度量,如图中下方所示,基于该度量能够有效的对原排序进行重排序,将正样本挪前,将负样本挪后。

▲ 图43. 行人再识别中的互k学习算法

可是实际上,咱们没法直接利用该算法用于商品同款检索,缘由在于咱们的 query 是用户评论图,而检索图是商家图,他们存在很大的差别,形成互 k 近邻会失效,后续咱们重点是如何优化特征度量空间,让模型的域差别减少,而后再利用互 k 近邻来进行重排序。

7.3.12 竞品对比

最后,咱们基于用户上传的 7k 张图片进行 11 类检测准确度评测, 运行环境 NVIDIA GPU P4,来对比不一样竞品的精度差别。对比试验可知,咱们的算法要优于京东,接近拍立淘。

8、扫一扫识物平台建设

正所谓磨刀不误砍柴工,平台建设对于咱们的数据构建,模型学习,模型部署都是相当重要。下面咱们一一介绍。

8.一、数据清理平台

为了加快人工校验以及人工标注的速度,咱们开发了一系列工具来辅助标注和检验模型精度,这里不作过多解释。

8.二、模型训练平台

这几年,机器学习平台发展迅猛,不少公司拥有本身的深度学习平台,咱们人少钱少,主要是基于开源的深度学习平台来开发符合商品同款检索的特有平台。咱们主要是开发了 caffe 和 pytorch 两套同款检索平台,后续重点介绍。

▲ 图44. 机器学习平台发展史[18]

8.2.1 caffe

咱们开发的第一个模型训练平台是 caffe。caffe 平台的核心架构以下图 45 所示,caffe 平台如今主要是工业界用的多,如今学术界用的少些。

咱们开发的 caffe 同款检索平台,具备以下特色:

1)支持丰富的数据增广策略;

2)支持多类型数据加载;

3)支持蒸馏学习/互学习算法;

4)支持困难感知模型算法;

5)支持排序模型算法;

6)支持 batchsize 扩充。

caffe 的优缺点很是明显,其优势有:

1)训练快,结果稳定;

2)基于 prototxt 快速试验各类多模型/多标签/多数据源任意组合。

其缺点有:

1)新算法开发慢;

2)调试不灵活;

3)显存优化很差;

4)学术前沿方法更新少。

第 4 个缺点是较为致命的,咱们没法快速跟进学术前言,于是咱们后续决定开发 pytorch 检索平台。

▲ 图45. caffe平台核心架构

8.2.2 pytorch

咱们开发的 pytorch 检索架构以下图 46 所示,基本支持 caffe 检索平台的全部特色:

1)支持丰富的数据增广策略;

2)支持多类型数据加载;

3)支持蒸馏学习/互学习算法;

4)支持排序模型算法;

5)支持更多主流网络 EfficientNet;

6)支持数据去噪/合并同款/检索;

7)支持混合精度训练。

pytorch 优缺点也很是明显,其优势:

1)自动求导,算法开发效率高;

2)动态图,Python 编程,简单易用;

3)Tensorboard 可视化方便;

4)Github 资源多,紧跟前沿;

5)Pytorch1.3 支持移动端部署。

固然 pytorch 也不是天衣无缝的,相比 caffe 有其缺点:

在多任务自由组合不如 caffeprototxt 方便。

▲ 图46. pytorch同款检索平台构建

8.2.3 模型部署平台

模型训练咱们能够不在意模型运行时间代价,可是在模型部署时候咱们得要充分重视模型的资源占用状况,尽可能提高模型的并发能力,如 GPU 部署时候优化显存,适配硬件,加快速度。这里咱们重点介绍后台 GPU 部署使用的 tensorRT 和手机端部署使用的 ncnn。

▲ 图47.模型训练到部署

8.2.3.1)模型部署平台:tensorRT

tensorRT 是英伟达开发的部署平台,可以有效的下降模型显存,加速模型前向速度。这里咱们不展开细节,你们能够关注下面的检测模型和检索模型,经过 tensorRT 量化加速后,显存和速度都有了巨大的飞跃。

▲ 图48.tensorRT部署加速

8.2.3.2)模型部署平台:ncnn

移动端部署,咱们用腾讯本身开发的 ncnn 架构,其优势以下图 49 左图所示,demo 如右图所示。

▲ 图49.手机移动端ncnn部署

8.三、任务调度系统平台

任务调动平台由咱们的后台大神们开发,主要用于各个任务的有效调用,考虑到咱们的检索库是上亿的数据库,须要保证平台具备较好的容错、容灾,以及鲁棒机制。以下图 50 所示,固然这里展现的只是冰山一角,后面等后台大神们在 KM 里给你们详细解释。

▲ 图50. 亿级检索任务调度平台

9、扫一扫识物展望

最后,咱们对咱们的扫一扫识物进行将来展望,仍是那句话,咱们期待扫一扫识物成为你们的一个生活习惯:扫一扫,知你所看;扫一扫,新生活,新姿式。

▲ 图51. 扫一扫识物将来展望

10、参考文献

[1] 公司内部文档

[2] https://blog.csdn.net/Notzuonotdied/article/details/95727107

[3] Learning Deep Features for Discriminative Localization,CVPR16

[4] Weakly Supervised Object Localization with Latent Category Learning, ECCV14

[5] Weakly Supervised Deep Detection Networks, arXiv16

[6] Seed, Expand and Constrain: Three Principles for Weakly-Supervised Image Segmentation, arXiv16

[7] https://scikit-learn.org/stable/modules/clustering.html

[8] Focal Loss for Dense Object Detection, arXiv18

[9] https://zhuanlan.zhihu.com/p/76391405

[10] SphereFace: Deep Hypersphere Embedding for Face Recognition,arXiv18

[11] Large-Margin Softmax Loss for Convolutional Neural Networks, arXiv17

[12] CosFace: Large Margin Cosine Loss for Deep Face Recognition, arXiv18

[13] ArcFace: Additive Angular Margin Loss for Deep Face Recognition, arXiv18

[14] A Multi-task Deep Network for Person Re-identification, MM17

[15] Concurrent Spatial and Channel ‘Squeeze & Excitation’ in Fully Convolutional Networks, arXiv18

[16] Hard-Aware Deeply Cascaded Embedding, ICCV17

[17] Re-ranking Person Re-identification with k-reciprocal Encoding, CVPR17

[18] 公司内部文档

附录:更多相关文章

[1] QQ、微信团队原创技术文章汇总:

微信朋友圈千亿访问量背后的技术挑战和实践总结

腾讯技术分享:腾讯是如何大幅下降带宽和网络流量的(图片压缩篇)

腾讯技术分享:腾讯是如何大幅下降带宽和网络流量的(音视频技术篇)

微信团队分享:微信移动端的全文检索多音字问题解决方案

腾讯技术分享:Android版手机QQ的缓存监控与优化实践

微信团队分享:iOS版微信的高性能通用key-value组件技术实践

微信团队分享:iOS版微信是如何防止特殊字符致使的炸群、APP崩溃的?

腾讯技术分享:Android手Q的线程死锁监控系统技术实践

微信团队原创分享:iOS版微信的内存监控系统技术实践

让互联网更快:新一代QUIC协议在腾讯的技术实践分享

iOS后台唤醒实战:微信收款到帐语音提醒技术总结

腾讯技术分享:社交网络图片的带宽压缩技术演进之路

微信团队分享:视频图像的超分辨率技术原理和应用场景

微信团队分享:微信每日亿次实时音视频聊天背后的技术解密

QQ音乐团队分享:Android中的图片压缩技术详解(上篇)

QQ音乐团队分享:Android中的图片压缩技术详解(下篇)

腾讯团队分享:手机QQ中的人脸识别酷炫动画效果实现详解

腾讯团队分享 :一次手Q聊天界面中图片显示bug的追踪过程分享

微信团队分享:微信Android版小视频编码填过的那些坑》 

微信手机端的本地数据全文检索优化之路》 

企业微信客户端中组织架构数据的同步更新方案优化实战

微信团队披露:微信界面卡死超级bug“15。。。。”的前因后果

QQ 18年:解密8亿月活的QQ后台服务接口隔离技术

月活8.89亿的超级IM微信是如何进行Android端兼容测试的

以手机QQ为例探讨移动端IM中的“轻应用”

一篇文章get微信开源移动端数据库组件WCDB的一切!

微信客户端团队负责人技术访谈:如何着手客户端性能监控和优化

微信后台基于时间序的海量数据冷热分级架构设计实践

微信团队原创分享:Android版微信的臃肿之困与模块化实践之路

微信后台团队:微信后台异步消息队列的优化升级实践分享

微信团队原创分享:微信客户端SQLite数据库损坏修复实践》 

腾讯原创分享(一):如何大幅提高移动网络下手机QQ的图片传输速度和成功率》 

腾讯原创分享(二):如何大幅压缩移动网络下APP的流量消耗(下篇)》 

腾讯原创分享(三):如何大幅压缩移动网络下APP的流量消耗(上篇)》 

微信Mars:微信内部正在使用的网络层封装库,即将开源》 

如约而至:微信自用的移动端IM网络层跨平台组件库Mars已正式开源》 

开源libco库:单机千万链接、支撑微信8亿用户的后台框架基石 [源码下载]》 

微信新一代通讯安全解决方案:基于TLS1.3的MMTLS详解》 

微信团队原创分享:Android版微信后台保活实战分享(进程保活篇)》 

微信团队原创分享:Android版微信后台保活实战分享(网络保活篇)》 

Android版微信从300KB到30MB的技术演进(PPT讲稿) [附件下载]》 

微信团队原创分享:Android版微信从300KB到30MB的技术演进》 

微信技术总监谈架构:微信之道——大道至简(演讲全文)

微信技术总监谈架构:微信之道——大道至简(PPT讲稿) [附件下载]》 

如何解读《微信技术总监谈架构:微信之道——大道至简》

微信海量用户背后的后台系统存储架构(视频+PPT) [附件下载]

微信异步化改造实践:8亿月活、单机千万链接背后的后台解决方案》 

微信朋友圈海量技术之道PPT [附件下载]》 

微信对网络影响的技术试验及分析(论文全文)》 

一份微信后台技术架构的总结性笔记》 

架构之道:3个程序员成就微信朋友圈日均10亿发布量[有视频]》 

快速裂变:见证微信强大后台架构从0到1的演进历程(一)

快速裂变:见证微信强大后台架构从0到1的演进历程(二)》 

微信团队原创分享:Android内存泄漏监控和优化技巧总结》 

全面总结iOS版微信升级iOS9遇到的各类“坑”》 

微信团队原创资源混淆工具:让你的APK立减1M》 

微信团队原创Android资源混淆工具:AndResGuard [有源码]》 

Android版微信安装包“减肥”实战记录》 

iOS版微信安装包“减肥”实战记录》 

移动端IM实践:iOS版微信界面卡顿监测方案》 

微信“红包照片”背后的技术难题》 

移动端IM实践:iOS版微信小视频功能技术方案实录》 

移动端IM实践:Android版微信如何大幅提高交互性能(一)

移动端IM实践:Android版微信如何大幅提高交互性能(二)

移动端IM实践:实现Android版微信的智能心跳机制》 

移动端IM实践:WhatsApp、Line、微信的心跳策略分析》 

移动端IM实践:谷歌消息推送服务(GCM)研究(来自微信)

移动端IM实践:iOS版微信的多设备字体适配方案探讨》 

信鸽团队原创:一块儿走过 iOS10 上消息推送(APNS)的坑

腾讯信鸽技术分享:百亿级实时消息推送的实战经验

IPv6技术详解:基本概念、应用现状、技术实践(上篇)

IPv6技术详解:基本概念、应用现状、技术实践(下篇)

腾讯TEG团队原创:基于MySQL的分布式数据库TDSQL十年锻造经验分享

微信多媒体团队访谈:音视频开发的学习、微信的音视频技术和挑战等

了解iOS消息推送一文就够:史上最全iOS Push技术详解

腾讯技术分享:微信小程序音视频技术背后的故事

腾讯资深架构师干货总结:一文读懂大型分布式系统设计的方方面面

微信多媒体团队梁俊斌访谈:聊一聊我所了解的音视频技术

腾讯音视频实验室:使用AI黑科技实现超低码率的高清实时视频聊天

腾讯技术分享:微信小程序音视频与WebRTC互通的技术思路和实践

手把手教你读取Android版微信和手Q的聊天记录(仅做技术研究学习)

微信技术分享:微信的海量IM聊天消息序列号生成实践(算法原理篇)

微信技术分享:微信的海量IM聊天消息序列号生成实践(容灾方案篇)

腾讯技术分享:GIF动图技术详解及手机QQ动态表情压缩技术实践

微信团队分享:Kotlin渐被承认,Android版微信的技术尝鲜之旅

社交软件红包技术解密(一):全面解密QQ红包技术方案——架构、技术实现等

社交软件红包技术解密(二):解密微信摇一摇红包从0到1的技术演进

社交软件红包技术解密(三):微信摇一摇红包雨背后的技术细节

社交软件红包技术解密(四):微信红包系统是如何应对高并发的

社交软件红包技术解密(五):微信红包系统是如何实现高可用性的

社交软件红包技术解密(六):微信红包系统的存储层架构演进实践

社交软件红包技术解密(九):谈谈手Q红包的功能逻辑、容灾、运维、架构等

QQ设计团队分享:新版 QQ 8.0 语音消息改版背后的功能设计思路

微信团队分享:极致优化,iOS版微信编译速度3倍提高的实践总结

IM“扫一扫”功能很好作?看看微信“扫一扫识物”的完整技术实现

>> 更多同类文章 ……

[2] 更多IM开发热门技术方面的文章汇总:

新手入门一篇就够:从零开发移动端IM

移动端IM开发者必读(一):通俗易懂,理解移动网络的“弱”和“慢”

移动端IM开发者必读(二):史上最全移动弱网络优化方法总结

从客户端的角度来谈谈移动端IM的消息可靠性和送达机制

现代移动端网络短链接的优化手段总结:请求速度、弱网适应、安全保障

腾讯技术分享:社交网络图片的带宽压缩技术演进之路

小白必读:闲话HTTP短链接中的Session和Token

IM开发基础知识补课:正确理解前置HTTP SSO单点登录接口的原理

移动端IM中大规模群消息的推送如何保证效率、实时性?

移动端IM开发须要面对的技术问题

开发IM是本身设计协议用字节流好仍是字符流好?

请问有人知道语音留言聊天的主流实现方式吗?

IM消息送达保证机制实现(一):保证在线实时消息的可靠投递

IM消息送达保证机制实现(二):保证离线消息的可靠投递

如何保证IM实时消息的“时序性”与“一致性”?

一个低成本确保IM消息时序的方法探讨

IM单聊和群聊中的在线状态同步应该用“推”仍是“拉”?

IM群聊消息如此复杂,如何保证不丢不重?

谈谈移动端 IM 开发中登陆请求的优化

移动端IM登陆时拉取数据如何做到省流量?

浅谈移动端IM的多点登录和消息漫游原理

彻底自已开发的IM该如何设计“失败重试”机制?

通俗易懂:基于集群的移动端IM接入层负载均衡方案分享

微信对网络影响的技术试验及分析(论文全文)

即时通信系统的原理、技术和应用(技术论文)

开源IM工程“蘑菇街TeamTalk”的现状:一场虎头蛇尾的开源秀

QQ音乐团队分享:Android中的图片压缩技术详解(上篇)

QQ音乐团队分享:Android中的图片压缩技术详解(下篇)

腾讯原创分享(一):如何大幅提高移动网络下手机QQ的图片传输速度和成功率

腾讯原创分享(二):如何大幅压缩移动网络下APP的流量消耗(上篇)

腾讯原创分享(三):如何大幅压缩移动网络下APP的流量消耗(下篇)

如约而至:微信自用的移动端IM网络层跨平台组件库Mars已正式开源

基于社交网络的Yelp是如何实现海量用户图片的无损压缩的?

腾讯技术分享:腾讯是如何大幅下降带宽和网络流量的(图片压缩篇)

腾讯技术分享:腾讯是如何大幅下降带宽和网络流量的(音视频技术篇)

字符编码那点事:快速理解ASCII、Unicode、GBK和UTF-8

全面掌握移动端主流图片格式的特色、性能、调优等

子弹短信光鲜的背后:网易云信首席架构师分享亿级IM平台的技术实践

IM开发基础知识补课(五):通俗易懂,正确理解并用好MQ消息队列

微信技术分享:微信的海量IM聊天消息序列号生成实践(算法原理篇)

自已开发IM有那么难吗?手把手教你自撸一个Andriod版简易IM (有源码)

融云技术分享:解密融云IM产品的聊天消息ID生成策略

IM开发基础知识补课(六):数据库用NoSQL仍是SQL?读这篇就够了!

适合新手:从零开发一个IM服务端(基于Netty,有完整源码)

拿起键盘就是干:跟我一块儿徒手开发一套分布式IM系统

IM里“附近的人”功能实现原理是什么?如何高效率地实现它?

IM开发基础知识补课(七):主流移动端帐号登陆方式的原理及设计思路

IM开发基础知识补课(八):史上最通俗,完全搞懂字符乱码问题的本质

IM“扫一扫”功能很好作?看看微信“扫一扫识物”的完整技术实现

>> 更多同类文章 ……

(本文同步发布于:http://www.52im.net/thread-2887-1-1.html

相关文章
相关标签/搜索