类似图片搜索的原理

Google把"类似图片搜索"正式放上了首页。php

你能够用一张图片,搜索互联网上全部与它类似的图片。点击搜索框中照相机的图标。html

一个对话框会出现。python

你输入网片的网址,或者直接上传图片,Google就会找出与其类似的图片。下面这张图片是美国女演员Alyson Hannigan。算法

上传后,Google返回以下结果:ide

相似的"类似图片搜索引擎"还有很多,TinEye甚至能够找出照片的拍摄背景。网站

==========================================================搜索引擎

这种技术的原理是什么?计算机怎么知道两张图片类似呢?google

根据Neal Krawetz博士的解释,原理很是简单易懂。咱们能够用一个快速算法,就达到基本的效果。orm

这里的关键技术叫作"感知哈希算法"(Perceptual hash algorithm),它的做用是对每张图片生成一个"指纹"(fingerprint)字符串,而后比较不一样图片的指纹。结果越接近,就说明图片越类似。htm

下面是一个最简单的实现:

第一步,缩小尺寸。

将图片缩小到8x8的尺寸,总共64个像素。这一步的做用是去除图片的细节,只保留结构、明暗等基本信息,摒弃不一样尺寸、比例带来的图片差别。

 

第二步,简化色彩。

将缩小后的图片,转为64级灰度。也就是说,全部像素点总共只有64种颜色。

第三步,计算平均值。

计算全部64个像素的灰度平均值。

第四步,比较像素的灰度。

将每一个像素的灰度,与平均值进行比较。大于或等于平均值,记为1;小于平均值,记为0。

第五步,计算哈希值。

将上一步的比较结果,组合在一块儿,就构成了一个64位的整数,这就是这张图片的指纹。组合的次序并不重要,只要保证全部图片都采用一样次序就好了。

 =  = 8f373714acfcf4d0

获得指纹之后,就能够对比不一样的图片,看看64位中有多少位是不同的。在理论上,这等同于计算"汉明距离"(Hamming distance)。若是不相同的数据位不超过5,就说明两张图片很类似;若是大于10,就说明这是两张不一样的图片。

具体的代码实现,能够参见Wote用python语言写的imgHash.py。代码很短,只有53行。使用的时候,第一个参数是基准图片,第二个参数是用来比较的其余图片所在的目录,返回结果是两张图片之间不相同的数据位数量(汉明距离)。

这种算法的优势是简单快速,不受图片大小缩放的影响,缺点是图片的内容不能变动。若是在图片上加几个文字,它就认不出来了。因此,它的最佳用途是根据缩略图,找出原图。

实际应用中,每每采用更强大的pHash算法和SIFT算法,它们可以识别图片的变形。只要变形程度不超过25%,它们就能匹配原图。这些算法虽然更复杂,可是原理与上面的简便算法是同样的,就是先将图片转化成Hash字符串,而后再进行比较。

           

isnowfy的网站看到,还有其余两种方法也很简单,这里作一些笔记。

1、颜色分布法

每张图片均可以生成颜色分布的直方图(color histogram)。若是两张图片的直方图很接近,就能够认为它们很类似。

任何一种颜色都是由红绿蓝三原色(RGB)构成的,因此上图共有4张直方图(三原色直方图 + 最后合成的直方图)。

若是每种原色均可以取256个值,那么整个颜色空间共有1600万种颜色(256的三次方)。针对这1600万种颜色比较直方图,计算量实在太大了,所以须要采用简化方法。能够将0~255分红四个区:0~63为第0区,64~127为第1区,128~191为第2区,192~255为第3区。这意味着红绿蓝分别有4个区,总共能够构成64种组合(4的3次方)。

任何一种颜色必然属于这64种组合中的一种,这样就能够统计每一种组合包含的像素数量。

上图是某张图片的颜色分布表,将表中最后一栏提取出来,组成一个64维向量(7414, 230, 0, 0, 8, ..., 109, 0, 0, 3415, 53929)。这个向量就是这张图片的特征值或者叫"指纹"。

因而,寻找类似图片就变成了找出与其最类似的向量。这能够用皮尔逊相关系数或者余弦类似度算出。

2、内容特征法

除了颜色构成,还能够从比较图片内容的类似性入手。

首先,将原图转成一张较小的灰度图片,假定为50x50像素。而后,肯定一个阈值,将灰度图片转成黑白图片。

  

若是两张图片很类似,它们的黑白轮廓应该是相近的。因而,问题就变成了,第一步如何肯定一个合理的阈值,正确呈现照片中的轮廓?

显然,前景色与背景色反差越大,轮廓就越明显。这意味着,若是咱们找到一个值,可使得前景色和背景色各自的"类内差别最小"(minimizing the intra-class variance),或者"类间差别最大"(maximizing the inter-class variance),那么这个值就是理想的阈值。

1979年,日本学者大津展之证实了,"类内差别最小"与"类间差别最大"是同一件事,即对应同一个阈值。他提出一种简单的算法,能够求出这个阈值,这被称为"大津法"(Otsu's method)。下面就是他的计算方法。

假定一张图片共有n个像素,其中灰度值小于阈值的像素为 n1 个,大于等于阈值的像素为 n2 个( n1 + n2 = n )。w1 和 w2 表示这两种像素各自的比重。

  w1 = n1 / n

  w2 = n2 / n

再假定,全部灰度值小于阈值的像素的平均值和方差分别为 μ1 和 σ1,全部灰度值大于等于阈值的像素的平均值和方差分别为 μ2 和 σ2。因而,能够获得

  类内差别 = w1(σ1的平方) + w2(σ2的平方)

  类间差别 = w1w2(μ1-μ2)^2

能够证实,这两个式子是等价的:获得"类内差别"的最小值,等同于获得"类间差别"的最大值。不过,从计算难度看,后者的计算要容易一些。

下一步用"穷举法",将阈值从灰度的最低值到最高值,依次取一遍,分别代入上面的算式。使得"类内差别最小"或"类间差别最大"的那个值,就是最终的阈值。具体的实例和Java算法,请看这里

有了50x50像素的黑白缩略图,就等于有了一个50x50的0-1矩阵。矩阵的每一个值对应原图的一个像素,0表示黑色,1表示白色。这个矩阵就是一张图片的特征矩阵。

两个特征矩阵的不一样之处越少,就表明两张图片越类似。这能够用"异或运算"实现(即两个值之中只有一个为1,则运算结果为1,不然运算结果为0)。对不一样图片的特征矩阵进行"异或运算",结果中的1越少,就是越类似的图片。

相关文章
相关标签/搜索