图像搜索的原理

针对这个问题,请教了算法组的同事,他分享了基本的思路: python

对于这种图像搜索的算法,通常是三个步骤: 算法

1. 将目标图片进行特征提取,描述图像的算法不少,用的比较多的是:SIFT描述子,指纹算法函数,bundling features算法,hash function(散列函数)等。也能够根据不一样的图像,设计不一样的算法,好比图像局部N阶矩的方法提取图像特征。 数据库

2. 将图像特征信息进行编码,并将海量图像编码作查找表。对于目标图像,能够对分辨率较大的图像进行降采样,减小运算量后在进行图像特征提取和编码处理。 函数

3. 类似度匹配运算:利用目标图像的编码值,在图像搜索引擎中的图像数据库进行全局或是局部的类似度计算;根据所须要的鲁棒性,设定阈值,而后将类似度高的图片预保留下来;最后应该还有一步筛选最佳匹配图片,这个应该仍是用到特征检测算法。 搜索引擎

其中每一个步骤都有不少算法研究,围绕数学,统计学,图像编码,信号处理等理论进行研究。 编码

下面是阮一峰的一个最简单的实现: 设计

你输入Google图片的网址,或者直接上传图片,Google就会找出与其类似的图片。下面这张图片是美国女演员Alyson Hannigan。 索引

Google图片搜索的原理

上传后,Google返回以下结果: 图片

Google图片搜索的原理

这种技术的原理是什么?计算机怎么知道两张图片类似呢? 字符串

根据Neal Krawetz博士的解释,原理很是简单易懂。咱们能够用一个快速算法,就达到基本的效果。

这里的关键技术叫作"感知哈希算法"(Perceptual hash algorithm),它的做用是对每张图片生成一个"指纹"(fingerprint)字符串,而后比较不一样图片的指纹。结果越接近,就说明图片越类似。

下面是一个最简单的实现:

第一步,缩小尺寸。

将图片缩小到8x8的尺寸,总共64个像素。这一步的做用是去除图片的细节,只保留结构、明暗等基本信息,摒弃不一样尺寸、比例带来的图片差别。

Google图片搜索的原理

第二步,简化色彩。

将缩小后的图片,转为64级灰度。也就是说,全部像素点总共只有64种颜色。

第三步,计算平均值。

计算全部64个像素的灰度平均值。

第四步,比较像素的灰度。

将每一个像素的灰度,与平均值进行比较。大于或等于平均值,记为1;小于平均值,记为0。

第五步,计算哈希值。

将上一步的比较结果,组合在一块儿,就构成了一个64位的整数,这就是这张图片的指纹。组合的次序并不重要,只要保证全部图片都采用一样次序就好了。

Google图片搜索的原理

获得指纹之后,就能够对比不一样的图片,看看64位中有多少位是不同的。在理论上,这等同于计算"汉明距离"(Hamming distance)。若是不相同的数据位不超过5,就说明两张图片很类似;若是大于10,就说明这是两张不一样的图片。

具体的代码实现,能够参见Wote用python语言写的imgHash.py。代码很短,只有53行。使用的时候,第一个参数是基准图片,第二个参数是用来比较的其余图片所在的目录,返回结果是两张图片之间不相同的数据位数量(汉明距离)。

这种算法的优势是简单快速,不受图片大小缩放的影响,缺点是图片的内容不能变动。若是在图片上加几个文字,它就认不出来了。因此,它的最佳用途是根据缩略图,找出原图。

实际应用中,每每采用更强大的pHash算法和SIFT算法,它们可以识别图片的变形。只要变形程度不超过25%,它们就能匹配原图。这些算法虽然更复杂,可是原理与上面的简便算法是同样的,就是先将图片转化成Hash字符串,而后再进行比较。

相关文章
相关标签/搜索