美团天天有百万级的图片产生量,运营人员负责相关图片的内容审核,对涉及法律风险及不符合平台规定的图片进行删除操做。因为图片数量巨大,人工审核耗时耗力且审核能力有限。另外对于不一样审核人员来说,审核标准难以统一且实时变化。因此有必要借助机器实现智能审核。算法
图像智能审核通常是指利用图像处理与机器学习相关技术识别图像内容,进而甄别图像是否违规。图像智能审核旨在创建图片自动审核服务,由机器自动禁止不符合规定(负例)的图片类型,自动经过符合规定(正例)的图片类型,机器不肯定的图片交由人工审核。所以,衡量智能审核系统性能的指标主要是准确率和自动化率。网络
一般的自动审核思路是穷举不符合规定的图片(例如水印图、涉黄图、暴恐图、明星脸、广告图等)类型,剩下的图片做为正例自动经过。这样带来的问题是对新增的违规内容扩展性不足,另外必须等待全部模型构建完毕才能起到自动化过滤的做用。若是咱们能主动挖掘符合规定的图片(例如正常人物图、场景一致图)进行自动经过,将正例过滤和负例过滤相结合,这样才能更快起到节省人工审核的做用。所以,咱们的图像智能审核系统分为图片负例过滤模块和图片正例过滤模块,待审图片先进入负例过滤模块判断是否违禁,再进入正例过滤模块进行自动经过,剩余机器不肯定的图片交由人工审核。整个技术方案如图1所示。框架
负例过滤和正例过滤模块中都会涉及检测、分类和识别等技术,而深度学习则是该领域的首选技术。下面将分别以水印过滤、明星脸识别、色情图片检测和场景分类来介绍深度学习在图像智能审核中的应用。机器学习
为了保护版权和支持原创内容,须要自动检测商家或用户上传的图片中是否包括违禁水印(竞对水印、其余产品的Logo)。与其余类刚体目标不一样,水印具备如下特色。ide
传统的水印检测采用滑动窗口的方法,提取一个固定大小的图像块输入到提早训练好的鉴别模型中,获得该块的一个类别。这样遍历图片中的全部候选位置,可获得一个图片密集的类别得分图。得分高于必定阈值的块被认为是水印候选区域,经过非极大化抑制能够获得最终的结果。鉴别模型的特征能够采用文字识别领域经常使用的边缘方向统计特征,也能够经过CNN进行特征学习来提高对裁切、形变、复杂背景的健壮性。为了进一步改善得分的置信度,能够加入类型原型的信息,把输入图像块特征与聚类中心特征的类似度(夹角余弦)做为识别置信度。但上述方法检测效率极低,因为水印位置和大小不固定,须要在全部位置对多个尺度的图像进行判别,由此产生大量的冗余窗口。函数
一种思路是旨在减小滑动窗口数目的子窗口的方法。首先经过无监督/有监督学习生成一系列的候选区域,再经过一个CNN分类器来判断区域中是否包含目标以及是哪一类目标。这类方法比较有表明的是R-CNN系列。因为该类方法获得的候选框能够映射到原图分辨率,所以定位框精度足够高。性能
另外一种解决思路时采用直接在特征图上回归的方法。咱们知道,对于CNN网络的卷积层而言,输入图片大小能够不固定,但从全链接层以后就要求输入大小保持一致。所以当把任意大小的图片输入CNN直到第一个全链接层,只须要一次前向运算就能够获得全部层的特征图。而后回归的对象是待检测目标的位置信息和类别信息,它们可根据目标大小的须要在不一样层次的特征图上进行回归,这类方法以Yolo、SSD为表明。该类方法的特色是在保证高检测精度的前提下实时性较好。学习
图4给出了上述两类框架与DPM(可变形部件模型)最佳传统方法的性能比较:测试
考虑到水印检测任务对定位框的精度要求不高,且须要知足天天百万量级图片的吞吐量,咱们借鉴了SSD框架和Resnet网络结构。在训练数据方面,咱们经过人工收集了25类共计1.5万张水印图片,并经过主体随机裁切、前背景合成等方式进行了数据增广。优化
基于训练获得的模型对线上数据进行了相关测试。随机选取3197张线上图片做为测试集,其中2795张图片不包含水印,包含水印的402张图片里有302张包含训练集中出现过的水印,另外的100张包含未出如今训练集中的小众水印。基于该测试集,咱们评测了传统方法(人工设计特征+滑窗识别)和基于SSD框架的方法。
从图5能够看到,相比于传统方法,SSD框架不管在召回和精度上都有明显优点。进一步分析发现,深度学习方法召回了38张小众水印图片,可见CNN学习到的特征泛化能力更强。
为了不侵权明星肖像权,审核场景须要鉴别用户/商家上传的图像中是否包含明星的头像。这是一类典型的人脸识别应用,具体来讲是一种1∶(N+1)的人脸比对。整我的脸识别流程包含人脸检测、人脸关键点检测、人脸矫正及归一化、人脸特征提取和特征比对,如图6所示。其中深度卷积模型是待训练的识别模型,用于特征提取。下面咱们将分别介绍人脸检测和人脸识别技术方案。
人脸检测
人脸检测方法可分为传统检测器和基于深度学习的检测器两类。 传统检测器主要基于V-J框架,经过设计Boosted的级连结构和人工特征实现检测。特征包括Harr特征、HOG特征和基于像素点比较的特征(Pico、NPD)等。这类检测器在约束环境下有着不错的检测效果和运行速度,但对于复杂场景(光照、表情、遮挡),人工设计的特征使检测能力会大大降低。为了提高性能,相关研究联合人脸检测和人脸关键点定位这两个任务进行联合优化(JDA),将关键点检测做为人脸检测的一个重要评价标准,但其准确率有待进一步提高。
深度学习的检测器有三种思路。第一类是沿用V-J框架,但以级联CNN网络(Cascaded CNN)替代传统特征。第二类是基于候选区域和边框回归的框架(如Faster R-CNN)。 第三类是基于全卷积网络直接回归的框架(如DenseBox)。
咱们采用了Faster R-CNN框架并从如下方面进行了改进: 难分负例挖掘(抑制人物雕像、画像和动物头像等负例)、多层特征融合、 多尺度训练和测试、上下文信息融合,从而更好地抵抗复杂背景、类人脸、遮挡等干扰,并有效提高了对小脸、侧脸的检出率。
人脸识别
人脸识别主要有两种思路。一种是直接转换为图像分类任务,每一类对应一我的的多张照片,比较有表明性的方法有DeepFace、DeepID等。另外一种则将识别转换为度量学习问题,经过特征学习使得来自同一我的的不一样照片距离比较近、不一样的人的照片距离比较远,比较有表明性的方法有DeepID二、FaceNet等。
因为任务中待识别ID是半封闭集合,咱们能够融合图像分类和度量学习的思路进行模型训练。考虑到三元组损失(Triplet Loss)对负例挖掘算法的要求很高,在实际训练中收敛很慢,所以咱们采用了Center Loss来最小化类内方差,同时联合Softmax Loss来最大化类间方差。为了平衡这两个损失函数,须要经过试验来选择超参数。咱们采用的网络结构是Inception-v3,在实际训练中分为两个阶段:第一阶段采用Softmax Loss+C×CenterLoss,并利用公开数据集CASIA-WebFace(共包含10 575个ID和49万人脸图片)来进行网络参数的初始化和超参数C的优选,根据试验获得的C=0.01;第二阶段采用Softmax Loss+0.01×Center Loss,并在业务数据(5200个明星脸ID和100万人脸图片)上进行网络参数的微调。
为了进一步提高性能,借鉴了百度采用的多模型集成策略,如图7所示。具体来讲,根据人脸关键点的位置把人脸区域分割为多个区域,针对每个区域分别训练特征模型。目前把人脸区域分割为9个区域,加上人脸总体区域,共需训练10个模型。
在测试阶段,对于待验证的人脸区域和候选人脸区域,分别基于图7所示的10个区域提取特征。而后对于每一个区域,计算两个特征向量间的类似度(余弦距离)。最终经过类似度加权的方法判断两张人脸是否属于同一我的。表1给出了主流方法在LFW数据集上的评测结果。能够看出,美团模型在相对有限数据下得到了较高的准确率。
色情图片检测是图像智能审核中重要环节。传统检测方法经过肤色、姿态等维度对图片的合规性进行鉴别。随着深度学习的进展,现有技术[雅虎NSFW(Not Suitable for Work)模型]直接把色情图片检测定义二分类(色情、正常)问题,经过卷积神经网络在海量数据上进行端到端训练。
对于已训练模型,不一样层次学习到的特征不一样,有些层次学到了肤色特征,另一些层次学习到了部位轮廓特征,还有的层次学到了姿态特征。但因为人类对色情的定义很是普遍,露点、性暗示、艺术等均可能被归为色情类,并且在不一样的场景下或者面对不一样的人群,色情定义标准没法统一。所以,初始学习到的模型泛化能力有限。为了提高机器的预测准确率,须要不断加入错分样本,让机器经过增量学习到更多特征以纠正错误。除此以外,咱们在如下方面进行了优化。
机器审核结合人工复审。在实际业务中因为涉黄检测采用预警机制,机器审核环节须要尽量召回全部疑似图片,再结合适量的人工审核来提高准确率。所以,上层业务逻辑会根据模型预测类别和置信度将图片划分为“肯定黄图”“肯定非黄图”和“疑似”三部分。“疑似”部分,根据置信度由高到底进行排序,并转交人工复审。在线上业务中,“肯定黄图”和“肯定非黄图”部分的精度可达到99%以上,而“疑似”部分只占总图片量的3%左右,这样在保证高精度过滤的条件下可大幅节省人力。
支持视频内容审核。对于短视频内容的审核,咱们经过提取关键帧的方式转化为对单张图片的审核,而后融合多帧的识别结果给出结论。
做为一个贯穿吃喝玩乐各环节的互联网平台,美团的业务涉及多种垂直领域,如表3所示。有必要对运营或用户上传图片的品类进行识别,以保持与该商家的经营范围一致。此外,为了进一步改善展现效果,须要对商家相册内的图片进行归类整理,如图8所示。
深度卷积神经网络在图像分类的相关任务上(好比ILSVRC)上已经超越人眼的识别率,但做为一种典型的监督学习方法,它对特定领域的标记样本的数量和质量的需求是突出的。咱们的场景分类任务,若是彻底依靠审核人员进行图片的筛选和清洗,代价较大。所以须要基于迁移学习来对模型进行微调。
迁移学习致力于经过保持和利用从一个或多个类似的任务、领域或几率分布中学习到的知识,来快速并有效地为提高目标任务的性能。模型迁移是迁移学习领域中一类经常使用的迁移方式,它经过学习原始域(Source Domain)模型和目标域(Target Domain)模型的共享参数来实现迁移。因为深度神经网络具备层次结构,且其隐藏层能表示抽象和不变性的特征,所以它很是适合模型迁移。
至于原始域训练的深度卷积神经网络,须要关注哪些层次的参数能够迁移以及如何迁移。不一样层次的可迁移度不一样,目标域与原始域中类似度较高的层次被迁移的可能性更大。具体而言,较浅的卷积层学习到的特征更通用(好比图像的色彩、边缘、基本纹理),于是也更适合迁移,较深的卷积层学习的特征更具备任务依赖性(好比图像细节),于是不适合迁移,如图9所示。
模型迁移经过固定网络特定层次的参数,用目标域的数据来训练其余层次。对于咱们的场景分类任务而言,首先根据分类的类别数修改网络输出层,接着固定较浅的卷积层而基于业务标注数据训练网络倒数若干层参数。若有更多的训练数据可用,还能够进一步微调整个网络的参数以得到额外的性能提高,如图10所示。相比于直接提取图像的高层语义特征来进行监督学习,采用分阶段的参数迁移对原始域与目标域间的差别性更健壮。
基于上述迁移学习策略,咱们在美食场景图和酒店房型图分类中进行了相关实验,基于有限(万级别图片)的标注样本实现了较高的识别准确率,测试集上的性能如表4所示。
如前所述,基于深度学习的图像分类与检测方法在图片智能审核中替代了传统机器学习方法,在公开模型与迁移学习的基础上,经过从海量数据中的持续学习,实现了业务场景落地。
参考文献
[1] H. Chen, S. S. Tsai, G. Schroth, D. M. Chen, R. Grzeszczuk, and B. Girod. “Robust text detection in natural images with edge-enhanced maximally stable extremal regions.” ICIP 2011. [2] Z Zhong,LJin,SZhang,ZFeng.“DeepText: A Unified Framework for Text Proposal Generation and Text Detection in Natural Images”. Architecture Science 2015. [3] Minghui Liao, Baoguang Shi, Xiang Bai, Xinggang Wang, Wenyu Liu. “TextBoxes: A Fast Text Detector with a Single Deep Neural Network”. AAAI 2017. [4] S. Ren, K. He, R. Girshick, and J. Sun. Faster r-cnn.“Towards real-time object detection with region proposal networks.” NIPS 2015. [5] Graves, A.; Fernandez, S.; Gomez, F.; and Schmidhuber, J. “Connectionist temporal classification: Labelling unsegmented sequence data with recurrent neural networks.” ICML 2006. [6] R Girshick,JDonahue,TDarrell,JMalik. “Rich Feature Hierarchies for Accurate Object Detection and Semantic Segmentation.” CVPR 2014. [7] J. Redmon, S. Divvala, R. Girshick, and A. Farhadi. “You only look once: Unified, real-time object detection”. CVPR 2016. [8] W. Liu, D. Anguelov, D. Erhan, C. Szegedy, and S. Reed. “SSD: Single shot multibox detector”. ECCV 2016. [9] “Object detection with discriminatively trained part-based models”. TPAMI 2010. [10]Robust Real-time Object Detection. Paul Viola, Michael Jones. IJCV 2004. [11]N. Markus, M. Frljak, I. S. Pandzic, J. Ahlberg and R. Forchheimer. “Object Detection with Pixel Intensity Comparisons Organized in Decision Trees”. CoRR 2014. [12]Shengcai Liao, Anil K. Jain, and Stan Z. Li. “A Fast and Accurate Unconstrained Face Detector,” TPAMI 2015. [13]Dong Chen, ShaoQingRen, Jian Sun. “Joint Cascade Face Detection and Alignment”, ECCV 2014. [14]Haoxiang Li, Zhe Lin, XiaohuiShen, Jonathan Brandt, Gang Hua. “A convolutional neural network cascade for face detection”, CVPR.2015. [15]Lichao Huang, Yi Yang, Yafeng Deng, Yinan Yu.“DenseBox: Unifying Landmark Localization with End to End Object Detection” CVPR 2015. [16]Taigman Y, Yang M, Ranzato M A, et al. Deepface: Closing the gap to human-level performance in face verification.CVPR 2014. [17]Sun Y, Wang X, Tang X. Deep learning face representation from predicting 10,000 classes.CVPR 2014. [18]Sun Y, Chen Y, Wang X, et al. Deep learning face representation by joint identification-verification.NIPS. 2014. [19]FaceNet: A Unified Embedding for Face Recognition and Clustering. CVPR 2015. [20]A Discriminative Feature Learning Approach for Deep Face Recognition. ECCV 2016. [21]Rethinking the Inception Architecture for Computer Vision. CVPR 2016. [22]Alex Krizhevsky, IlyaSutskever, Geoffrey E. Hinton. “ImageNet Classification with Deep Convolutional Neural Networks”. 2014. [23]Murray, N., Marchesotti, L., Perronnin, F. “Ava: A large-scale database for aesthetic visual analysis”. CVPR 2012.
晓明,美团平台智能技术中心视觉技术负责人,曾就任于佳能研究院,三星研究院。2015年加入美团,主要致力于图像和视频相关的技术积累和业务落地,做为技术负责人主导了图像智能审核、首图优选、刷脸认证、拍照录菜等项目的上线,显著提高了用户和商家的智能化体验。
美团平台智能技术中心充分利用人工智能的优点来支持美团点评多个业务线,并在智能推荐、智能营销、智能经营、智能审核等多个领域都取得了很好的应用效果。长期招聘天然语言处理、计算机视觉、大规模机器学习、数据挖掘算法或工程背景的同窗。欢迎有意向的同窗投递简历至:zhanghejia@meituan.com。