paper 164: Siamese网络--类似度量方法

简介:     git

       Siamese网络是一种类似性度量方法,当类别数多,但每一个类别的样本数量少的状况下可用于类别的识别、分类等。传统的用于区分的分类方法是须要确切的知道每一个样本属于哪一个类,须要针对每一个样本有确切的标签。并且相对来讲标签的数量是不会太多的。当类别数量过多,每一个类别的样本数量又相对较少的状况下,这些方法就不那么适用了。其实也很好理解,对于整个数据集来讲,咱们的数据量是有的,可是对于每一个类别来讲,能够只有几个样本,那么用分类算法去作的话,因为每一个类别的样本太少,咱们根本训练不出什么好的结果,因此只能去找个新的方法来对这种数据集进行训练,从而提出了siamese网络。siamese网络从数据中去学习一个类似性度量,用这个学习出来的度量去比较和匹配新的未知类别的样本。这个方法能被应用于那些类别数多或者整个训练样本没法用于以前方法训练的分类问题。github

       主要思想是经过一个函数将输入映射到目标空间,在目标空间使用简单的距离(欧式距离等)进行对比类似度。在训练阶段去最小化来自相同类别的一对样本的损失函数值,最大化来自不一样类别的一堆样本的损失函数值。算法

     Siamese也算是降维方法的一种。常见的降维方法还有PCA、LDA、Kernel-PCA、MDS、LLE、LB、ISOmap、FA等。网络

总结一下:app

      一、输入再也不是单个样本,而是一对样本,再也不给单个的样本确切的标签,并且给定一对样本是否来自同一个类的标签,是就是0,不是就是1函数

      二、设计了两个如出一辙的网络,网络共享权值W,对输出进行了距离度量,能够说l1、l2等。学习

      三、针对输入的样本对是否来自同一个类别设计了损失函数,损失函数形式有点相似交叉熵损失。最后使用得到的损失函数,使用梯度反传去更新两个网络共享的权值W。spa

优势:设计

      是淡化了标签,使得网络具备很好的扩展性,能够对那些没有训练过的类别进行分类,这点是优于不少算法的。并且这个算法对一些小数据量的数据集也适用,变相的增长了整个数据集的大小,使得数据量相对较小的数据集也能用深度网络训练出不错的效果。code

实验设计:

       实验的时候要注意,输入数据最好打乱,因为这样去设计数据集后,相同类的样本对确定比不相同的样本对数量少,在进行训练的时候最后将二者的数据量设置成相同数量。

    

       上述的简介是最先提出的siamese网络结构,提出的是一种网络结构思想,具体的使用的网络形式彻底能够本身定义。包括损失函数,类似度距离的定义等。

《Hamming Distance Metric Learning》这篇论文对siamese进一步改进,提出了一个triple net,主要贡献是将成对样本改为了三个样本,输入由(X1,X2,Y)变成了(X1,X2,X1’),表示X1和X1’是相同类别的样本,X1和X2是不一样样本的类别。 《Learning to Compare Image Patches via Convolutional Neural Networks》这篇论文写得也很好,将两个网络进行合并,输入的成对标签直接同时输入同一个网络。

Code:

     一、Implementing Siamese Network using Tensorflow with MNIST

     二、hdml_code

     三、example_chap12

 

 

 

《Learning a similarity metric discriminatively, with application to face verification》和《 Hamming Distance Metric Learning》。

相关文章
相关标签/搜索