深度人脸识别:CVPR2020论文要点

深度人脸识别:CVPR2020论文要点git

Towards Universal Representation Learning for Deep Face Recognition框架

 

 

 

论文连接:https://arxiv.org/pdf/2002.11841.pdfide

摘要性能

识别狂野的面孔是极其困难的,由于它们看起来有各类各样的变化。传统的方法要么使用目标域中的特定注释变化数据进行训练,要么经过引入未标记的目标变化数据来适应训练数据。相反,咱们提出了一个通用的表示学习框架,它能够在不利用目标领域知识的状况下处理给定训练数据中看不到的较大变化。咱们将训练数据与一些语义上有意义的变化(如低分辨率、遮挡和头部姿式)进行了综合。然而,直接输入增广数据进行训练并不能很好地收敛,新引入的样本大可能是硬例子。咱们建议将特征嵌入分割成多个子嵌入,并为每一个子嵌入关联不一样的置信值,以平滑训练过程。经过调整不一样分区上的变化分类损失和变化对抗损失,进一步解除了子嵌入的相关性。实验代表,该方法在lfwandmagface等通常人脸识别数据集上取得了很好的性能,而在微型人脸和IJB-S等极端基准上取得了显著的效果。学习

Introductions测试

      深度人脸识别是将输入的图像映射到一个具备较小的内部同一距离和较大的内部同一距离的特征空间,这是经过损失设计和具备丰富的类内变化的数据集来实现的[29,40,17,38,4]。然而,即便是很是大的公共数据集,如MS-Celeb-1M,也表现出强烈的偏见,如种族[33]或头部姿式[20,24]。这种变化的缺少致使在具备挑战性的测试数据集上性能显著降低,例如,先前最新技术[31]报告的IJB-S或TinyFace[11,3]的精度比IJB-A[14]或LFW[10]低约30%。最近的研究试图经过识别相关的变异因素,并经过领域适应方法增长数据集以合并它们来缓解这个问题[33]。有时,这样的变化很难识别,所以领域适应方法被用来调整训练和测试领域之间的特征【28】。或者,能够在不一样的数据集上训练单个模型,并对其进行集成,以在每一个数据集上得到良好的性能[19]。优化

全部这些方法要么只处理特定的变化,要么要求访问测试数据分布,要么增长额外的运行时复杂性来处理更普遍的变化。相比之下,咱们建议学习一个单一的“通用”深度功能演示,它能够处理变化的婴儿识别,而不须要访问测试数据分布,并保持运行时效率,同时在不一样状况下得到强大的性能,特别是在低质量的图像上(见图1)。ui

本文在第三节中介绍了一些新的贡献来学习这种广泛的表示。首先,咱们注意到具备非正面姿式、低分辨率和严重遮挡的输入是对“野外”应用提出挑战的关键可命名因素,对于这些应用,训练数据可能会获得综合加强。可是直接在训练中加入硬扩充的例子会致使一个更难的优化问题。咱们经过提出一个识别损失来缓解这个问题,这个损失能够解释每一个样本对学习几率特征嵌入的信心。spa

其次,咱们经过将嵌入分解为子嵌入,每一个子嵌入在训练过程当中都有独立的置信值,从而寻求最大化嵌入的表示能力。设计

第三,鼓励全部子嵌入经过子嵌入的不一样分区上的两个相反的正则化进一步去相关,即变化分类损失和变化对抗损失。第四,咱们经过挖掘训练数据中的额外变化来进一步扩展去相关正则化,对于这些变化,合成加强不是微不足道的。

最后,咱们经过一个几率集合来解释子嵌入对不一样因素的不一样判别能力,这个几率集合解释了它们的不肯定性。在第5节中,咱们对公共数据集上提出的方法进行了普遍的评估。

与咱们的基线模型相比,该方法在通常人脸识别基准(如LFW和YTF)上保持了较高的精度,同时显著提升了在IJB-C、IJB-S等具备挑战性的数据集上的性能,在这些数据集上实现了最新的性能。详细的烧蚀研究显示了上述每一种贡献对实现这些强大性能的影响。             

总之,本文的主要贡献有:             

•一个面部表情学习框架,经过将通用特征与不一样的变化相关联来学习通用特征,从而提升对不一样测试数据集的通用性。             

•在培训期间利用样本可信度从硬样本中学习特征的可信度识别损失。            

 •特征去相关正则化,在不一样的子嵌入分区上应用变化分类损失和变化对抗损失,从而提升性能。              

•有效结合合成数据的训练策略,以训练适用于原始训练分布以外的图像的人脸表示。             

•几个具备挑战性的基准的最新成果,如IJB-A、IJB-C、TinyFace和IJB-S。 

 

实验代表,该方法在LFW和Mega Face等通用人脸识别数据集上取得了最好的性能,而在Tiny Face和IJB-S等极端基准上则表现得更好。

 

 



背景知识

如今已经有不少方法去进行人脸识别。而后,全部这些方法要么只处理特定的变化,要么须要访问测试数据分布,要么增长额外的运行时复杂性来处理更普遍的变化。相比之下,做者建议学习一个单一的“通用”深层特征表示,它能够处理人脸识别中的变化,而不须要访问测试数据分布,并保持运行时效率,同时在各类状况下实现强大的性能,特别是在低质量的图像上。

 

 

 

传统的识别模型须要目标域数据从高质量的训练数据中进行无约束/低质量的人脸识别。为了实现广泛表示的目的,进一步须要模型集成,这大大增长了模型的复杂性。相比之下,做者提出的方法只对原始训练数据有效,没有任何目标域数据信息,能够处理无约束的测试场景。

新方法框架

 

 


上图 随着不一样的变化而增长的样品

Confidence-aware Identification Loss

 

 

 

 


为了简单起见,定义一个置信值si,在L2-标准化单位球上约束fi和wj:

 

 

 

上面公式中的效果以下图所示。

 

 

 

当在不一样质量的样本之间进行训练时,若是假设全部样本的置信度相同,那么所学习的原型将位于全部样本的中心。这并不理想,由于低质量的样本传达的身份信息更加模糊。相比之下,若是咱们创建sample-specific confidence(si),高质量样本显示更高的信心,它推进原型wj更接近高质量样本,以最大化后验。同时,在嵌入fi的更新过程当中,更有力的推进了低质量fi更接近原型。

在指数logit上增长loss margin已被证实是有效的缩小类内分布。也把它归入框架的损失中:

 

 

 

Confidence-aware Sub-Embeddings



虽然经过一个特定的门控si学习的嵌入fi能够处理样本级别的变化,可是做者认为fi自己的条目之间的相关性仍然很高。为了最大限度地提升表示能力并实现紧凑的特征尺寸,须要对嵌入项进行去相关处理。

 

 

 

这鼓励做者进一步将整个嵌入fi分解为分区的子嵌入,每一个子嵌入都进一步分配一个标量置信值。如上图所示,将整个feature embedded fi分割成K个等长次嵌入,以下公式所示。据此,将原型向量wj和置信标量si划分为大小相同的K组。

 

 

 

则最后的识别损失以下公式:

 

 

 

 

最后增长了一个额外的l2正则化来限制置信度的增加:

 

 

 

Sub-Embeddings Decorrelation



单独设置多个子嵌入并不能保证不一样组中的特征是学习互补信息的。根据下图的经验,做者发现子嵌入仍然是高度相关的,即fi分为16组,全部子嵌入的平均相关系数为0.57。

 

 

 

若是咱们用不一样的正则化方法对次嵌入进行惩罚,能够下降它们之间的相关性。经过将不一样的子嵌入与不一样的变量联系起来,对全部子嵌入的一个子集进行变量分类损失,同时对其余变量类型进行变量对抗性损失。给定多个变量,这两个正则化项被强制放在不一样的子集上,从而获得更好的子嵌入解相关。

挖掘更多的变量



因为可扩展变量的数量有限(在本文为3个),致使了去相关效应的有限,由于Vt的数量过小。为了进一步加强去相关,并引入更多的变量以得到更好的泛化能力,咱们的目标是探索更多的语义变量。请注意,并非全部的变量都容易进行数据扩充,例如微笑或不微笑是很难扩充的。对于这种变量,咱们尝试从原始训练数据中挖掘出变量标签。特别是,利用一个现成的属性数据集CelebA训练属性分类模型身份对抗的损失:

 

 

 

Uncertainty-Guided几率聚合



考虑到推理的度量,简单地取学习到的子嵌入的平均值是次优的。这是由于不一样的次嵌入对不一样的变量有不一样的识别能力。它们的重要性应该根据给定的图像对而有所不一样。考虑应用与每一个嵌入相关的不肯定性,为成对的类似度评分:


 

 


实验及可视化

三种类型的数据集,LFW, IJB-A和IJB-S

 

 

 

 

 

Testing results on synthetic data of different variations from IJB-Abenchmark (TAR@FAR=0.01%)

 

 

 

上图是经过t-SNE可视化特征分布。

 

 

 

 

 

 

 

将16个subembeddings的不肯定度评分从新划分为4×4个网格。高质量和低质量的次预埋件分别以深色、浅色显示。对于不一样的变化,不肯定度图显示不一样的模式。以下图:

 

 

 

 

 

 

上图是训练样本子嵌入置信度的可视化。

相关文章
相关标签/搜索