又拍图片管家亿级图像之搜图系统的两代演进及底层原理

又拍图片管家亿级图像之搜图系统的两代演进及底层原理

前言

又拍图片管家当前服务了千万级用户,管理了百亿级图片。当用户的图库变得愈来愈庞大时,业务上急切的须要一种方案可以快速定位图像,即直接输入图像,而后根据输入的图像内容来找到图库中的原图及类似图,而以图搜图服务就是为了解决这个问题。算法

本人有幸独立负责并实施了整个以图搜图系统从技术调研、到设计验证、以及最后工程实现的全过程。而整个以图搜图服务也是经历了两次的总体演进:从 2019 年初开始第一次技术调研,经历春节假期,2019 年 三、4 月份第一代系统总体上线;2020 年初着手升级方案调研,经历春节及疫情,2020 年 4 月份开始第二代系统的总体升级。数据库

本文将会简述两代搜图系统背后的技术选型及基本原理。segmentfault


基础概要

图像是什么?

与图像打交道,咱们必需要先知道:图像是什么?网络

答案:像素点的集合。工具

好比:搜索引擎

20060527143408!Pixel-example.png

左图红色圈中的部分其实就是右图中一系列的像素点。人工智能

再举例:spa

截屏2020-06-04 下午2.51.37.png

假设上图红色圈的部分是一幅图像,其中每个独立的小方格就是一个像素点(简称像素),像素是最基本的信息单元,而这幅图像的大小就是 11 x 11 px 。设计

图像的数学表示

每一个图像均可以很天然的用矩阵来表示,每一个像素点对应的就是矩阵中的一个元素。code

二值图像

二值图像的像素点只有黑白两种状况,所以每一个像素点能够由 0 和 1 来表示。

好比一张 4 * 4 二值图像:

0 1 0 1
1 0 0 0
1 1 1 0
0 0 1 0

RGB 图像

红(Red)、绿(Green)、蓝(Blue)做为三原色能够调和成任意的颜色,对于 RGB 图像,每一个像素点包含 RGB 共三个通道的基本信息,相似的,若是每一个通道用 8 bit 表示即 256 级灰度,那么一个像素点能够表示为:

( [0 ... 255], [0 ... 255], [0 ... 255] )

好比一张 4 * 4 RGB 图像:

(156, 22, 45)  (255, 0, 0)  (0, 156, 32)  (14, 2, 90)
(12, 251, 88)  (78, 12, 3)  (94, 90, 87)  (134, 0, 2)
(240, 33, 44)  (5, 66, 77)  (1, 28, 167)  (11, 11, 11)
(0, 0, 0)      (4, 4, 4)    (50, 50, 50)  (100, 10, 10)

图像处理的本质实际上就是对这些像素矩阵进行计算。

搜图的技术问题

若是只是找原图,也就是像素点彻底相同的图像,那么直接对比它们的 MD5 值便可。然而,图像在网络的传输过程当中,经常会遇到诸如压缩、水印等等状况,而 MD5 算法的特色是,即便是小部份内容变更,其最终的结果倒是天差地别,换句话说只要图片有一个像素点不一致,最后都是没法对比的。

对于一个以图搜图系统而言,咱们要搜的本质上实际上是内容类似的图片,为此,咱们须要解决两个基本的问题:

  • 把图像表示或抽象为一个计算机数据
  • 这个数据必须是能够进行对比计算的

直接用专业点的话说就是:

  • 图像的特征提取
  • 特征计算(类似性计算)

第一代搜图系统

特性提取 - 图像抽象

第一代搜图系统在特征提取上使用的是 Perceptual hashpHash 算法,这个算法的基本原理是什么?

截屏2020-06-04 下午4.04.59.png

如上图所示,pHash 算法就是对图像总体进行一系列变换最后构造 hash 值,而变换的过程能够理解为对图像进行不断的抽象,此时若是对另一张类似内容的图像进行一样的总体抽象,那么其结果必定是很是接近的。

特性计算 - 类似性计算

对于两张图像的 pHash 值,具体如何计算其类似的程度?答案是 Hamming distance 汉明距离,汉明距离越小,图像内容越类似。

汉明距离又是什么?就是对应位置不一样比特位的个数。

例如:

第一个值: 0 1 0 1 0
第二个值: 0 0 0 1 1

以上两个值的对应位置上有 2 个比特位是不相同的,所以它们的汉明距离就是 2 。

OK ,类似性计算的原理咱们知道了,那么下一个问题是:如何去计算亿级图片对应的亿级数据的汉明距离?简而言之,就是如何搜索?

在项目早期其实我并无找到一个满意的可以快速计算汉明距离的工具(或者说是计算引擎),所以个人方案进行了一次变通。

变通的思想是:若是两个 pHash 值的汉明距离是接近的,那么将 pHash 值进行切割后,切割后的每个小部分大几率相等。

例如:

第一个值: 8 a 0 3 0 3 f 6
第二个值: 8 a 0 3 0 3 d 8

咱们把上面这两个值分割成了 8 块,其中 6 块的值是彻底相同的,所以能够推断它们的汉明距离接近,从而图像内容也类似。

通过变换以后,其实你能够发现,汉明距离的计算问题,变成了等值匹配的问题,我把每个 pHash 值给分红了 8 段,只要里面有超过 5 段的值是彻底相同的,那么我就认为他们类似。

等值匹配如何解决?这就很简单了,传统数据库的条件过滤不就能够用了嘛。

固然,我这里用的是 ElasticSearchES 的原理本文就不介绍了,读者能够另行了解),在 ES 里的具体操做就是多 term 匹配而后 minimum_should_match 指定匹配程度。

为何搜索会选择 ElasticSearch ?第一点,它能实现上述的搜索功能;第二点,图片管家项目自己就正在用 ES 提供全文搜索的功能,使用现有资源,成本是很是低的。

第一代系统总结

第一代搜图系统在技术上选择了 pHash + ElasticSearch 的方案,它拥有以下特色:

  • pHash 算法计算简单,能够对抗必定程度的压缩、水印、噪声等影响。
  • ElasticSearch 直接使用了项目现有资源,在搜索上没有增长额外的成本。

固然这套系统的局限性也很明显:因为 pHash 算法是对图像的总体进行抽象表示,一旦咱们对总体性进行了破坏,好比在原图加一个黑边,就会几乎没法判断类似性。

为了突破这个局限性,底层技术大相径庭的第二代搜图系统应运而生。


第二代搜图系统

特性提取

在计算机视觉领域,使用人工智能相关的技术基本上已经成了主流,一样,咱们第二代搜图系统的特征提取在底层技术上使用的是 CNN 卷积神经网络。

CNN 卷积神经网络这个词让人比较难以理解,重点是回答两个问题:

  • CNN 能干什么?
  • 搜图为何能用 CNN ?

AI 领域有不少赛事,图像分类是其中一项重要的比赛内容,而图像分类就是要去判断图片的内容究竟是猫、是狗、是苹果、是梨子、仍是其它对象类别。

CNN 能干什么?提取特征,进而识物,我把这个过程简单的理解为,从多个不一样的维度去提取特征,衡量一张图片的内容或者特征与猫的特征有多接近,与狗的特征有多接近,等等等等,选择最接近的就能够做为咱们的识别结果,也就是判断这张图片的内容是猫,仍是狗,仍是其它。

CNN 识物又跟咱们找类似的图像有什么关系?咱们要的不是最终的识物结果,而是从多个维度提取出来的特征向量,两张内容类似的图像的特征向量必定是接近的。

具体使用哪一种 CNN 模型?

我使用的是 VGG16 ,为何选择它?首先,VGG16 拥有很好的泛化能力,也就是很通用;其次,VGG16 提取出来的特征向量是 512 维,维度适中,若是维度太少,精度可能会受影响,若是维度太多,存储和计算这些特征向量的成本会比较高。

向量搜索引擎

从图像提取特征向量的问题已经解决了,那么剩下的问题就是:

  • 特征向量如何存储?
  • 特征向量如何计算类似性,即如何搜索?

对于这两个问题,直接使用开源的向量搜索引擎 Milvus 就能够很好的解决,截至目前,Milvus 在咱们的生产环境一直运行良好。

第二代系统总结

第二代搜图系统在技术上选择了 CNN + Milvus 的方案,而这种基于特征向量的搜索在业务上也提供了更好的支持。


相关文章

本人以前已经写过两篇相关的文章: