OPENCV图像特征点检测与FAST检测算法

  前面描述角点检测的时候说到,角点其实也是一种图像特征点,对于一张图像来讲,特征点分为三种形式包括边缘,焦点和斑点,在OPENCV中,加上角点检测,总共提供了如下的图像特征点检测方法算法

  1. FAST
  2. SURF
  3. ORB
  4. BRISK
  5. KAZE
  6. AKAZE
  7. MESR
  8. GFTT good feature to tack
  9. Bob斑点
  10. STAR
  11. AGAST

  接下来分别讲述这是一种图像特征检测算法,可是首先,须要了解OPENCV的一种数据结构, KeyPoint结构,该结构的头文件定义以下:数据结构

class KeyPoint函数

{测试

Point2f  pt;    //该图像特征点的坐标3d

float  size;     //特征点邻域直径orm

float  angle; //特征点的方向,值为[零,三百六十),负值表示不使用,有了这个方向,可以让特征点拥有更高的辨识度,不然仅仅坐标和直径有时会误判特征点视频

float  response;//响应程度,表明该点的强壮程度,也就是该点角点程度,用于后期使用和排序blog

int  octave; //特征点所在的图像金字塔的组排序

int  class_id; //用于聚类的id接口

}

  每一个图像特征点检测算法最终的目标之一,而当一张图像的特征点被检测出来以后,就能够和另外一张图像的特征点进行匹配,根据类似级别断定两个图像的类似程度.

  好比咱们能够在图像中检测一张人脸的特征点,从而来检索在另外一张图中是否存在类似程度很高的特征点集,从而确认另外一张图像中的人脸以及人脸的位置,等,特征点检测算法在物体检测,视觉跟踪,3D重建的时候都有着重要的做用.

一. 图像特征点检测的通用接口
  Opencv为了方便用户使用图像特征点检测的相应算法,将所有的特征点检测都封在一个相似的API中,名为Ptr的模板类,也就是说,全部的特征检测算法都实现了相同的借口,detect 检测图像特征点.使用方法相似于
  Ptr<相应的特征点检测类名>变量名 = 相应的特征点检测类::create()
  变量名->detect(原图像,特征点向量).
  使用上面描述的算法,就能够调用几乎所有的图像特征检测算法.可是注意,create函数有多个重载函数,若是为空,每一个图像检测算法都会使用本身的一套默认的初始值来初始化类,若是想修改参数,那么create函数调用的时候须要根据检测类的不一样,设置不一样的初始化变量.
  另外,opencv提供而一个快速显示图像特征点的函数,以下
  drawKeyPoints(画布图像,特征点向量集,输出的绘制结果,绘制颜色值,绘制模式)
  通常来讲,画布图像会使用咱们检测特征点的原图像(通常检测特征点都是原图像变换为灰度图像以后进行的检测,简单算法复杂度).
  绘制模式有如下方法能够选择,是DrawMatchesFlags枚举
  DEFAULT:只绘制特征点的坐标点,显示在图像上就是一个个小圆点,每一个小圆点的圆心坐标都是特征点的坐标.
  DRAW_OVER_OUTIMG:函数不建立输出的图像,而是直接在输出图像变量空间绘制,要求自己输出图像变量就是一个初始化好了的,size与type都是已经初始化好的变量
  NOT_DRAW_SINGLE 单点的特征点不被绘制
  DRAW_RICH_KEYPOINT 绘制特征点的时候绘制的是一个个带有方向的圆,这种方法同时显示图像的坐标,size,和方向,是最能显示特征的一种绘制方式,可是缺点就是绘制结果太杂乱.

一.   FAST特征点检测算法

FAST算法是基于角点检测的图像特征.

一个特征点检测的算法的第一步是定义什么是特征点,FAST算法定义特征点是若是某个像素点和他周围领域足够多的像素点处于不一样区域,那么这个像素点就是特征点,对于灰度图像来讲,也就是该点的灰度值和其周围足够多的像素点的灰度值不一样,那么这个像素点就是一个特征点.

该算法的详细计算步骤以下

  1. 从图片中选取一个坐标点,获取该点的像素值,接下来断定该点是否为特征点.
  2. 选取一个以选取点坐标为圆心的半径等于三的Bresenham圆(一个计算圆的轨迹的离散算法,获得整数级的圆的轨迹点),通常来讲,这个圆上有16个点,以下所示

  

黑点坐标为(0,0),坐标step为1

  1. 如今选取一个阈值,假设为t,关键步骤,假设这16个点中,有N个连续的像素点,他们的亮度值与中心点的像素值的差大于或者小于t,那么这个点就是一个特征点.(n的取值通常取值12或者9,实验证实9能够取得更好的效果,由于能够获取更多的特征点,后面进行处理时,数据样本额相对多一些).
  2. 加入每一个轨迹点都须要遍历的话,那么须要的时间比较长,有一种比较简单的方法能够选择,那就是仅仅检查在位置1,9,5和13四个位置的像素,首先检测位置1和位置9,若是它们都比阈值暗或比阈值亮,再检测位置5和位置13, 若是P" role="presentation" style="word-wrap: normal; max-width: none; max-height: none; min-width: 0px; min-height: 0px; float: none;" id="MathJax-Element-8-Frame">中心点是一个角点,那么上述四个像素点中至少有3个应该必须都大于Ip+t" role="presentation" style="word-wrap: normal; max-width: none; max-height: none; min-width: 0px; min-height: 0px; float: none;" id="MathJax-Element-9-Frame">中心点亮度值+阈值或者小于Ip&#x2212;t" role="presentation" style="word-wrap: normal; max-width: none; max-height: none; min-width: 0px; min-height: 0px; float: none;" id="MathJax-Element-10-Frame">中心点亮度值-阈值,由于如果一个角点,超过四分之三圆的部分应该知足判断条件。若是不知足,那么p" role="presentation" style="word-wrap: normal; max-width: none; max-height: none; min-width: 0px; min-height: 0px; float: none;" id="MathJax-Element-11-Frame">中心点不多是一个角点。对于全部点作上面这一部分初步的检测后,符合条件的将成为候选的角点,咱们再对候选的角点,作完整的测试,即检测圆上的全部点.
  3. 可是,这种检测方法会带来一个问题,就是形成特征点的聚簇效应,多个特征点在图像的某一块重复高频率的出现,FAST算法提出了一种非极大值抑制的办法来消除这种状况,具体办法以下.
    1. 为每个检测到的特征点计算它的响应大小(score function)VV。这里VV定义为中心点和它周围16个像素点的绝对误差的和.
    2. 考虑两个相邻的特征点,并比较它们的VV值
    3. VV值较低的点将会被删除

  以上就是快速特征点检测的原理,OPENCV中定义的快速特征点检测算法的检测API以下

  static Ptr<FastFeatureDetector> create( int threshold=10, bool nonmaxSuppression=true,

                                 int type=FastFeatureDetector::TYPE_9_16 );

  threshold是指比较时边缘轨迹点和中心点的差值,也就是第三步的阈值t, nonmaxSuppression表明是否使用第五步非极大值抑制,若是发现fast检测的结果有聚簇状况,那么能够考虑采用,第三个参数type的取值来自于FastFeatureDetector枚举,有以下取值:

  1. TYPE_5_8 从轨迹中取8个点,当有5个点知足条件,就是特征点.
  2. TYPE_7_12 取轨迹12个点,7个知足条件,就是特征点.
  3. TYPE_9_16 取轨迹16个点,当9个知足条件,就是特征点.

  综上所述咱们能够看出,FAST检测算法没有多尺度的问题,因此计算速度相对较快,可是当图片中的噪点较多的时候,会产生较多的错误特征点,健壮性并很差,而且, 算法的效果还依赖于一个阈值t。并且FAST不产生多尺度特征并且FAST特征点没有方向信息,这样就会失去旋转不变性.可是在要求实时性的场合,好比视频监控的物体识别,是可使用的.

使用代码以下

//fast
int main(int argc,char* argv[])
{
	Mat srcImage = imread("F:\\opencv\\OpenCVImage\\FeatureDetectSrc1.jpg");
	Mat srcGrayImage;
	if (srcImage.channels() == 3)
	{
		cvtColor(srcImage,srcGrayImage,CV_RGB2GRAY);
	}
	else
	{
		srcImage.copyTo(srcGrayImage);
	}
	vector<KeyPoint>detectKeyPoint;
	Mat keyPointImage1,keyPointImage2;

	Ptr<FastFeatureDetector> fast = FastFeatureDetector::create();
	fast->detect(srcGrayImage,detectKeyPoint);
	drawKeypoints(srcImage,detectKeyPoint,keyPointImage1,Scalar(0,0,255),DrawMatchesFlags::DRAW_RICH_KEYPOINTS);
	drawKeypoints(srcImage,detectKeyPoint,keyPointImage2,Scalar(0,0,255),DrawMatchesFlags::DEFAULT);

	imshow("src image",srcImage);
	imshow("keyPoint image1",keyPointImage1);
	imshow("keyPoint image2",keyPointImage2);

	imwrite("F:\\opencv\\OpenCVImage\\FeatureDetectSrc1FASTKeyPointImageDefault.jpg",keyPointImage2);

	waitKey(0);
	return 0;
}

  

相关文章
相关标签/搜索