SLAM 主要分为两个部分:前端和后端,前端也就是视觉里程计(VO),它根据相邻图像的信息粗略的估计出相机的运动,给后端提供较好的初始值。VO的实现方法能够根据是否须要提取特征分为两类:基于特征点的方法,不使用特征点的直接方法。 基于特征点的VO运行稳定,对光照、动态物体不敏感。html
图像特征点的提取和匹配是计算机视觉中的一个基本问题,在视觉SLAM中就须要首先找到相邻图像对应点的组合,根据这些匹配的点对计算出相机的位姿(相对初始位置,相机的旋转和平移)。
本文对这段时间对特征点的学习作一个总结,主要有如下几方面的内容:前端
如何高效且准确的匹配出两个不一样视角的图像中的同一个物体,是许多计算机视觉应用中的第一步。虽然图像在计算机中是以灰度矩阵的形式存在的,可是利用图像的灰度并不能准确的找出两幅图像中的同一个物体。这是因为灰度受光照的影响,而且当图像视角变化后,同一个物体的灰度值也会跟着变化。因此,就须要找出一种可以在相机进行移动和旋转(视角发生变化),仍然可以保持不变的特征,利用这些不变的特征来找出不一样视角的图像中的同一个物体。git
为了可以更好的进行图像匹配,须要在图像中选择具备表明性的区域,例如:图像中的角点、边缘和一些区块,但在图像识别出角点是最容易,也就是说角点的辨识度是最高的。因此,在不少的计算机视觉处理中,都是提取交掉做为特征,对图像进行匹配,例如SFM,视觉SLAM等。github
可是,单纯的角点并不能很好的知足咱们的需求,例如:相机从远处获得的是角点,可是在近处就可能不是角点;或者,当相机旋转后,角点就发生了变化。为此,计算机视觉的研究者们设计了许多更为稳定的的特征点,这些特征点不会随着相机的移动,旋转或者光照的变化而变化。例如:SIFT,SURF,ORB等算法
一个图像的特征点由两部分构成:关键点(Keypoint)和描述子(Descriptor)。 关键点指的是该特征点在图像中的位置,有些还具备方向、尺度信息;描述子一般是一个向量,按照人为的设计的方式,描述关键点周围像素的信息。一般描述子是按照外观类似的特征应该有类似的描述子设计的。所以,在匹配的时候,只要两个特征点的描述子在向量空间的距离相近,就能够认为它们是同一个特征点。后端
特征点的匹配一般须要如下三个步骤:多线程
这里先介绍下特征点的描述子,一个好的描述子是准确匹配的基础,关键点的提取和特征点的匹配,在后面介绍。函数
从图像中提取到特征的关键点信息,一般只是其在图像的位置信息(有可能包含尺度和方向信息),仅仅利用这些信息没法很好的进行特征点的匹配,因此就须要更详细的信息,将特征区分开来,这就是特征描述子。另外,经过特征描述子能够消除视角的变化带来图像的尺度和方向的变化,可以更好的在图像间匹配。学习
特征的描述子一般是一个精心设计的向量,描述了关键点及其周围像素的信息。为了可以更好的匹配,一个好的描述子一般要具备如下特性:测试
其中描述子的可区分性和其不变性是矛盾的,一个具备众多不变性的特征描述子,其区分局部图像内容的能力就比较稍弱;而若是一个很容易区分不一样局部图像内容的特征描述子,其鲁棒性每每比较低。因此,在设计特征描述子的时候,就须要综合考虑这三个特性,找到三者之间的平衡。
特征描述子的不变性主要体如今两个方面:
为了有个更直观的理解,下面给出SIFT,SURF,BRIEF描述子计算方法对比
从上表能够看出,SIFT,SURF和BRIEF描述子都是一个向量,只是维度不一样。其中,SIFT和SURF在构建特征描述子的时候,保存了特征的方向和尺度特征,这样其特征描述子就具备尺度和旋转不变性;而BRIEF描述子并无尺度和方向特征,不具有尺度和旋转不变性。
上面提到图像的特征点包含两个部分:
在图像中提取到关键点的位置信息后,为了可以更有效的匹配(主要是保证尺度和旋转不变性),一般使用一个向量来描述关键点及其周围的信息。特征的描述子,在特征点的匹配中是很是重要的,上一小节中对其应该具备的性质作了介绍。但具体到一个算法来讲,可能其既有特征点的提取算法也有特征点描述子的算法,也有可能其仅仅是一个特征点提取算法或者是特征点的描述子算法。在本小节就经常使用的特征点算法作一个简要的说明。
提到特征点算法,首先就是大名鼎鼎的SIFT算法了。SIFT的全称是Scale Invariant Feature Transform,尺度不变特征变换,2004年由加拿大教授David G.Lowe提出的。SIFT特征对旋转、尺度缩放、亮度变化等保持不变性,是一种很是稳定的局部特征。
SIFT算法主要有如下几个步骤:
SIFT算法中及包含了特征点的提取算法,也有如何生成描述子的算法,更进一步的SIFT算法介绍可参看SIFT特征详解
SURF全称 Speeded Up Robust Features,是在SIFT算法的基础上提出的,主要针对SIFT算法运算速度慢,计算量大的缺点进行了改进。
SURF的流程和SIFT比较相似,这些改进体如今如下几个方面:
SIFT和SURF是很是好的,稳定的特征点算法,但运算速度是其一大弊端,没法作到实时的特征提取和匹配,其应用就有了很大的局限性。FAST特征提取算法弥补了这一局限,检测局部像素灰度变化明显的地方,以速度快而著称,其全称为:Features From Accelerated Segment Test。在FAST算法的思想很简单:若是一个像素与周围邻域的像素差异较大(过亮或者过暗),那么能够认为该像素是一个角点。和其余的特征点提取算法相比,FAST算法只须要比较像素和其邻域像素的灰度值大小,十分便捷。
FAST算法提取角点的步骤:
FAST算法只检测像素的灰度值,其运算速度极快,同时不可避免的也有一些缺点
上面的介绍的SIFT和SURF算法都包含有各自的特征点描述子的计算方法,而FAST不包含特征点描述子的计算,仅仅只有特征点的提取方法,这就须要一个特征点描述方法来描述FAST提取到的特征点,以方便特征点的匹配。下面介绍一个专门的特征点描述子的计算算法。
BRIEF是一种二进制的描述子,其描述向量是0和1表示的二进制串。0和1表示特征点邻域内两个像素(p和q)灰度值的大小:若是p比q大则选择1,反正就取0。在特征点的周围选择128对这样的p和q的像素对,就获得了128维由0,1组成的向量。那么p和q的像素对是怎么选择的呢?一般都是按照某种几率来随机的挑选像素对的位置。
BRIEF使用随机选点的比较,速度很快,并且使用二进制串表示最终生成的描述子向量,在存储以及用于匹配的比较时都是很是方便的,其和FAST的搭配起来能够组成很是快速的特征点提取和描述算法。
ORB的全称是Oriented FAST and Rotated BRIEF,是目前来讲很是好的可以进行的实时的图像特征提取和描述的算法,它改进了FAST特征提取算法,并使用速度极快的二进制描述子BRIEF。
针对FAST特征提取的算法的一些肯定,ORB也作了相应的改进。
OpenCV中封装了经常使用的特征点算法(如SIFT,SURF,ORB等),提供了统一的接口,便于调用。 下面代码是OpenCV中使用其feature 2D 模块的示例代码
Mat img1 = imread("F:\\image\\1.png"); Mat img2 = imread("F:\\image\\2.png"); // 1. 初始化 vector<KeyPoint> keypoints1, keypoints2; Mat descriptors1, descriptors2; Ptr<ORB> orb = ORB::create(); // 2. 提取特征点 orb->detect(img1, keypoints1); orb->detect(img2, keypoints2); // 3. 计算特征描述符 orb->compute(img1, keypoints1, descriptors1); orb->compute(img2, keypoints2, descriptors2); // 4. 对两幅图像的BRIEF描述符进行匹配,使用BFMatch,Hamming距离做为参考 vector<DMatch> matches; BFMatcher bfMatcher(NORM_HAMMING); bfMatcher.match(descriptors1, descriptors2, matches);
Ptr<FeatureDetector> detector = FeatureDetector::create()
来获得特征提取器的一个实例,全部的参数都提供了默认值,也能够根据具体的须要传入相应的参数。detect
方法检测图像中的特征点的具体位置,检测的结果保存在vector<KeyPoint>
向量中。compute
方法来计算特征点的描述子,描述子一般是一个向量,保存在Mat
中。BFMatcher
,该算法在向量空间中,将特征点的描述子一一比较,选择距离(上面代码中使用的是Hamming距离)较小的一对做为匹配点。上面代码匹配后的结果以下:
特征的匹配是针对特征描述子的进行的,上面提到特征描述子一般是一个向量,两个特征描述子的之间的距离能够反应出其类似的程度,也就是这两个特征点是否是同一个。根据描述子的不一样,能够选择不一样的距离度量。若是是浮点类型的描述子,可使用其欧式距离;对于二进制的描述子(BRIEF)可使用其汉明距离(两个不一样二进制之间的汉明距离指的是两个二进制串不一样位的个数)。
有了计算描述子类似度的方法,那么在特征点的集合中如何寻找和其最类似的特征点,这就是特征点的匹配了。最简单直观的方法就是上面使用的:暴力匹配方法(Brute-Froce Matcher),计算某一个特征点描述子与其余全部特征点描述子之间的距离,而后将获得的距离进行排序,取距离最近的一个做为匹配点。这种方法简单粗暴,其结果也是显而易见的,经过上面的匹配结果,也能够看出有大量的错误匹配,这就须要使用一些机制来过滤掉错误的匹配。
// 匹配对筛选 double min_dist = 1000, max_dist = 0; // 找出全部匹配之间的最大值和最小值 for (int i = 0; i < descriptors1.rows; i++) { double dist = matches[i].distance; if (dist < min_dist) min_dist = dist; if (dist > max_dist) max_dist = dist; } // 当描述子之间的匹配大于2倍的最小距离时,即认为该匹配是一个错误的匹配。 // 但有时描述子之间的最小距离很是小,能够设置一个经验值做为下限 vector<DMatch> good_matches; for (int i = 0; i < descriptors1.rows; i++) { if (matches[i].distance <= max(2 * min_dist, 30.0)) good_matches.push_back(matches[i]); }
结果以下:
对比只是用暴力匹配的方法,进行过滤后的匹配效果好了不少。
交叉匹配
针对暴力匹配,可使用交叉匹配的方法来过滤错误的匹配。交叉过滤的是想很简单,再进行一次匹配,反过来使用被匹配到的点进行匹配,若是匹配到的仍然是第一次匹配的点的话,就认为这是一个正确的匹配。举例来讲就是,假如第一次特征点A使用暴力匹配的方法,匹配到的特征点是特征点B;反过来,使用特征点B进行匹配,若是匹配到的仍然是特征点A,则就认为这是一个正确的匹配,不然就是一个错误的匹配。OpenCV中BFMatcher
已经封装了该方法,建立BFMatcher
的实例时,第二个参数传入true
便可,BFMatcher bfMatcher(NORM_HAMMING,true)
。
bfMatcher->knnMatch(descriptors1, descriptors2, knnMatches, 2);
具体实现的代码以下:const float minRatio = 1.f / 1.5f; const int k = 2; vector<vector<DMatch>> knnMatches; matcher->knnMatch(leftPattern->descriptors, rightPattern->descriptors, knnMatches, k); for (size_t i = 0; i < knnMatches.size(); i++) { const DMatch& bestMatch = knnMatches[i][0]; const DMatch& betterMatch = knnMatches[i][1]; float distanceRatio = bestMatch.distance / betterMatch.distance; if (distanceRatio < minRatio) matches.push_back(bestMatch); }const float minRatio = 1.f / 1.5f; const int k = 2; vector<vector<DMatch>> knnMatches; matcher->knnMatch(leftPattern->descriptors, rightPattern->descriptors, knnMatches, 2); for (size_t i = 0; i < knnMatches.size(); i++) { const DMatch& bestMatch = knnMatches[i][0]; const DMatch& betterMatch = knnMatches[i][1]; float distanceRatio = bestMatch.distance / betterMatch.distance; if (distanceRatio < minRatio) matches.push_back(bestMatch); }
将不知足的最近邻的匹配之间距离比率大于设定的阈值(1/1.5)匹配剔除。
findHomography
,能够为该方法设定一个重投影偏差的阈值,能够获得一个向量mask来指定那些是符合该重投影偏差的匹配点对,以此来剔除错误的匹配,代码以下:const int minNumbermatchesAllowed = 8; if (matches.size() < minNumbermatchesAllowed) return; //Prepare data for findHomography vector<Point2f> srcPoints(matches.size()); vector<Point2f> dstPoints(matches.size()); for (size_t i = 0; i < matches.size(); i++) { srcPoints[i] = rightPattern->keypoints[matches[i].trainIdx].pt; dstPoints[i] = leftPattern->keypoints[matches[i].queryIdx].pt; } //find homography matrix and get inliers mask vector<uchar> inliersMask(srcPoints.size()); homography = findHomography(srcPoints, dstPoints, CV_FM_RANSAC, reprojectionThreshold, inliersMask); vector<DMatch> inliers; for (size_t i = 0; i < inliersMask.size(); i++){ if (inliersMask[i]) inliers.push_back(matches[i]); } matches.swap(inliers);const int minNumbermatchesAllowed = 8; if (matches.size() < minNumbermatchesAllowed) return; //Prepare data for findHomography vector<Point2f> srcPoints(matches.size()); vector<Point2f> dstPoints(matches.size()); for (size_t i = 0; i < matches.size(); i++) { srcPoints[i] = rightPattern->keypoints[matches[i].trainIdx].pt; dstPoints[i] = leftPattern->keypoints[matches[i].queryIdx].pt; } //find homography matrix and get inliers mask vector<uchar> inliersMask(srcPoints.size()); homography = findHomography(srcPoints, dstPoints, CV_FM_RANSAC, reprojectionThreshold, inliersMask); vector<DMatch> inliers; for (size_t i = 0; i < inliersMask.size(); i++){ if (inliersMask[i]) inliers.push_back(matches[i]); } matches.swap(inliers);
以前写过一篇OpenCV的特征点匹配及一些剔除错误匹配的文章,OpenCV2:特征匹配及其优化,使用的是OpenCV2,在OpenCV3中更新了特征点检测和匹配的接口,不过大致仍是差很少的。上一篇的文末附有练习代码的下载连接,不要直接打开sln或者project文件,有可能vs版本不同打不开,本文的测试代码尚未整理,等有时间好好打理下github,练习的代码随手都丢了,到想用的时候又找不到了。
翻了下,上一篇博客仍是6月30号发布的,而今已经是12月底,半年6个月时间就这样过去了。而我,好像没有什么成长啊,工资仍是那么多,调试bug的技术却是积累了不少,知道多线程程序调试;多进程通讯;学会了用Windebug:分析dump文件,在无代码环境中attach到执行文件中分析问题或者拿着pdb文件和源代码在现场环境中进行调试...;实实在在的感觉到了C++的内存泄漏和空指针致使的各类奇葩问题;知道了使用未初始化的变量的不稳定性;知道了项目设计中扩展性的重要的... 写以前以为本身虚度了半年,总结下来,这半年下来时间仍是成长了很多的,内心的愧疚感下降了很多。不过之后仍是要坚持写博客记录下学习的过程...