本文做者净浩泽,公众号:计算机视觉life,编辑成员面试
图像分割是计算机视觉研究中的一个经典难题,已经成为图像理解领域关注的一个热点,图像分割是图像分析的第一步,是计算机视觉的基础,是图像理解的重要组成部分,同时也是图像处理中最困难的问题之一。所谓图像分割是指根据灰度、彩色、空间纹理、几何形状等特征把图像划分红若干个互不相交的区域,使得这些特征在同一区域内表现出一致性或类似性,而在不一样区域间表现出明显的不一样。简单的说就是在一副图像中,把目标从背景中分离出来。对于灰度图像来讲,区域内部的像素通常具备灰度类似性,而在区域的边界上通常具备灰度不连续性。 关于图像分割技术,因为问题自己的重要性和困难性,从20世纪70年代起图像分割问题就吸引了不少研究人员为之付出了巨大的努力。虽然到目前为止,还不存在一个通用的完美的图像分割的方法,可是对于图像分割的通常性规律则基本上已经达成的共识,已经产生了至关多的研究成果和方法。算法
本文对于目前正在使用的各类图像分割方法进行了必定的概括总结,因为笔者对于图像分割的了解也是初窥门径,因此不免会有一些错误,还望各位读者多多指正,共同窗习进步。编程
这一大部分咱们将要介绍的是深度学习大火以前人们利用数字图像处理、拓扑学、数学等方面的只是来进行图像分割的方法。固然如今随着算力的增长以及深度学习的不断发展,一些传统的分割方法在效果上已经不能与基于深度学习的分割方法相比较了,可是有些天才的思想仍是很是值得咱们去学习的。
1.基于阈值的分割方法
阈值法的基本思想是基于图像的灰度特征来计算一个或多个灰度阈值,并将图像中每一个像素的灰度值与阈值做比较,最后将像素根据比较结果分到合适的类别中。所以,该方法最为关键的一步就是按照某个准则函数来求解最佳灰度阈值。
阈值法特别适用于目标和背景占据不一样灰度级范围的图。
图像若只有目标和背景两大类,那么只须要选取一个阈值进行分割,此方法成为单阈值分割;可是若是图像中有多个目标须要提取,单一阈值的分割就会出现做物,在这种状况下就须要选取多个阈值将每一个目标分隔开,这种分割方法相应的成为多阈值分割。
如图所示即为对数字的一种阈值分割方法。
阀值分割方法的优缺点:网络
基于边缘检测的图像分割算法试图经过检测包含不一样区域的边缘来解决分割问题。它能够说是人们最早想到也是研究最多的方法之一。一般不一样区域的边界上像素的灰度值变化比较剧烈,若是将图片从空间域经过傅里叶变换到频率域,边缘就对应着高频部分,这是一种很是简单的边缘检测算法。
边缘检测技术一般能够按照处理的技术分为串行边缘检测和并行边缘检测。串行边缘检测是要想肯定当前像素点是否属于检测边缘上的一点,取决于先前像素的验证结果。并行边缘检测是一个像素点是否属于检测边缘高尚的一点取决于当前正在检测的像素点以及与该像素点的一些临近像素点。
最简单的边缘检测方法是并行微分算子法,它利用相邻区域的像素值不连续的性质,采用一阶或者二阶导数来检测边缘点。近年来还提出了基于曲面拟合的方法、基于边界曲线拟合的方法、基于反应-扩散方程的方法、串行边界查找、基于变形模型的方法。
边缘检测的优缺点:
(1)边缘定位准确;
(2)速度快;
(3)不能保证边缘的连续性和封闭性;
(4)在高细节区域存在大量的碎边缘,难以造成一个大区域,可是又不宜将高细节区域分红小碎片;
因为上述的(3)(4)两个难点,边缘检测只能产生边缘点,而非完整意义上的图像分割过程。这也就是说,在边缘点信息获取到以后还须要后续的处理或者其余相关算法相结合才能完成分割任务。
在之后的研究当中,用于提取初始边缘点的自适应阈值选取、用于图像的层次分割的更大区域的选取以及如何确认重要边缘以去除假边缘将变得很是重要。数据结构
小波变换是近年来获得的普遍应用的数学工具,也是如今数字图像处理必学部分,它在时间域和频率域上都有量高的局部化性质,能将时域和频域统一于一体来研究信号。并且小波变换具备多尺度特性,可以在不一样尺度上对信号进行分析,所以在图像分割方面的获得了应用,
二进小波变换具备检测二元函数的局部突变能力,所以可做为图像边缘检测工具。图像的边缘出如今图像局部灰度不连续处,对应于二进小波变换的模极大值点。经过检测小波变换模极大值点能够肯定图像的边缘小波变换位于各个尺度上,而每一个尺度上的小波变换都能提供必定的边缘信息,所以可进行多尺度边缘检测来获得比较理想的图像边缘。
上图左图是传统的阈值分割方法,右边的图像就是利用小波变换的图像分割。能够看出右图分割获得的边缘更加准确和清晰
另外,将小波和其余方法结合起来处理图像分割的问题也获得了普遍研究,好比一种局部自适应阈值法就是将Hilbert图像扫描和小波相结合,从而得到了连续光滑的阈值曲线。架构
遗传算法(Genetic Algorithms,简称GA)是1973年由美国教授Holland提出的,是一种借鉴生物界天然选择和天然遗传机制的随机化搜索算法。是仿生学在数学领域的应用。其基本思想是,模拟由一些基因串控制的生物群体的进化过程,把该过程的原理应用到搜索算法中,以提升寻优的速度和质量。此算法的搜索过程不直接做用在变量上,而是在参数集进行了编码的个体,这使得遗传算法可直接对结构对象(图像)进行操做。整个搜索过程是从一组解迭代到另外一组解,采用同时处理群体中多个个体的方法,下降了陷入局部最优解的可能性,并易于并行化。搜索过程采用几率的变迁规则来指导搜索方向,而不采用肯定性搜索规则,并且对搜索空间没有任何特殊要求(如连通性、凸性等),只利用适应性信息,不须要导数等其余辅助信息,适应范围广。
遗传算法擅长于全局搜索,但局部搜索能力不足,因此常把遗传算法和其余算法结合起来应用。将遗传算法运用到图像处理主要是考虑到遗传算法具备与问题领域无关且快速随机的搜索能力。其搜索从群体出发,具备潜在的并行性,能够进行多个个体的同时比较,能有效的加快图像处理的速度。可是遗传算法也有其缺点:搜索所使用的评价函数的设计、初始种群的选择有必定的依赖性等。要是可以结合一些启发算法进行改进且遗传算法的并行机制的潜力获得充分的利用,这是当前遗传算法在图像处理中的一个研究热点。框架
主动轮廓模型(active contours)是图像分割的一种重要方法,具备统一的开放式的描述形式,为图像分割技术的研究和创新提供了理想的框架。在实现主动轮廓模型时,能够灵活的选择约束力、初始轮廓和做用域等,以获得更佳的分割效果,因此主动轮廓模型方法受到愈来愈多的关注。
该方法是在给定图像中利用曲线演化来检测目标的一类方法,基于此能够获得精确的边缘信息。其基本思想是,先定义初始曲线C,而后根据图像数据获得能量函数,经过最小化能量函数来引起曲线变化,使其向目标边缘逐渐逼近,最终找到目标边缘。这种动态逼近方法所求得的边缘曲线具备封闭、光滑等优势。
传统的主动轮廓模型大体分为参数主动轮廓模型和几何主动轮廓模型。参数主动轮廓模型将曲线或曲面的形变以参数化形式表达,Kass等人提出了经典的参数活动轮廓模型即“Snake”模型,其中Snake定义为能量极小化的样条曲线,它在来自曲线自身的内力和来自图像数据的外力的共同做用下移动到感兴趣的边缘,内力用于约束曲线形状,而外力则引导曲线到特征此边缘。参数主动轮廓模型的特色是将初始曲线置于目标区域附近,无需人为设定曲线的的演化是收缩或膨胀,其优势是可以与模型直接进行交互,且模型表达紧凑,实现速度快;其缺点是难以处理模型拓扑结构的变化。好比曲线的合并或分裂等。而使用水平集(level set)的几何活动轮廓方法刚好解决了这一问题。dom
在特征提取领域中VGGnet和ResNet是两个很是有统治力的方法,接下来的一些篇幅会对这两个方法进行简短的介绍机器学习
由牛津大学计算机视觉组合和Google DeepMind公司研究员一块儿研发的深度卷积神经网络。它探索了卷积神经网络的深度和其性能之间的关系,经过反复的堆叠33的小型卷积核和22的最大池化层,成功的构建了16~19层深的卷积神经网络。VGGNet得到了ILSVRC 2014年比赛的亚军和定位项目的冠军,在top5上的错误率为7.5%。目前为止,VGGNet依然被用来提取图像的特征。
VGGNet的优缺点函数
随着深度学习的应用,各类深度学习模型随之出现,虽然在每一年都会出现性能更好的新模型,可是对于前人工做的提高却不是那么明显,其中有重要问题就是深度学习网络在堆叠到必定深度的时候会出现梯度消失的现象,致使偏差升高效果变差,后向传播时没法将梯度反馈到前面的网络层,使得前方的网络层的参数难以更新,训练效果变差。这个时候ResNet刚好站出来,成为深度学习发展历程中一个重要的转折点。
ResNet是由微软研究院的Kaiming He等四名华人提出,他们经过本身提出的ResNet Unit成功训练出来152层的神经网络并在ILSVRC2015比赛中斩获冠军。ResNet语义分割领域最受欢迎且最普遍运用的神经网络.ResNet的核心思想就是在网络中引入恒等映射,容许原始输入信息直接传到后面的层中,在学习过程当中能够只学习上一个网络输出的残差(F(x)),所以ResNet又叫作残差网络。、
使用到ResNet的分割模型:
Regional proposal 在计算机视觉领域是一个很是经常使用的算法,尤为是在目标检测领域。其核心思想就是检测颜色空间和类似矩阵,根据这些来检测待检测的区域。而后根据检测结果能够进行分类预测。
在语义分割领域,基于区域选择的几个算法主要是由前人的有关于目标检测的工做渐渐延伸到语义分割的领域的,接下来小编将逐步介绍其个中关系。
伯克利大学的Girshick教授等人共同提出了首个在目标检测方向应用的深度学习模型:Region-based Convolutional Neural Network(R-CNN)。该网络模型以下图所示,其主要流程为:先使用selective search算法提取2000个候选框,而后经过卷积网络对候选框进行串行的特征提取,再根据提取的特征使用SVM对候选框进行分类预测,最后使用回归方法对区域框进行修正。
R-CNN的优缺点:
因为R-CNN的效率过低,2015年由Ross等学者提出了它的改进版本:Fast R-CNN。其网络结构图以下图所示(从提取特征开始,略掉了region的选择)Fast R-CNN在传统的R-CNN模型上有所改进的地方是它是直接使用一个神经网络对整个图像进行特征提取,就省去了串行提取特征的时间;接着使用一个RoI Pooling Layer在全图的特征图上摘取每个RoI对应的特征,再经过FC进行分类和包围框的修正。
Fast R-CNN的优缺点
2016年提出的Faster R-CNN能够说有了突破性的进展(虽然仍是目标检测哈哈哈),由于它改变了它的前辈们最耗时最致命的部位:selective search算法。它将selective search算法替换成为RPN,使用RPN网络进行region的选取,将2s的时间下降到10ms,其网络结构以下图所示:
Faster R-CNN优缺点:
Mask R-CNN(终于到分割了!)是何恺明大神团队提出的一个基于Faster R-CNN模型的一种新型的分割模型,此论文斩获ICCV 2017的最佳论文,在Mask R-CNN的工做中,它主要完成了三件事情:目标检测,目标分类,像素级分割。
恺明大神是在Faster R-CNN的结构基础上加上了Mask预测分支,而且改良了ROI Pooling,提出了ROI Align。其网络结构真容就以下图所示啦:
Mask R-CNN的优缺点:
最后要提出的是2019年CVPR的oral,来自华中科技大学的研究生黄钊金同窗提出的
MS R-CNN,这篇文章的提出主要是对上文所说的Mask R-CNN的一点点缺点进行了修正。他的网络结构也是在Mask R-CNN的网络基础上作了一点小小的改进,添加了Mask-IoU。
黄同窗在文章中提到:恺明大神的Mask R-CNN已经很好啦!可是有个小毛病,就是评价函数只对目标检测的候选框进行打分,而不是分割模板(就是上文提到的优缺点中最后一点),因此会出现分割模板效果不好可是打分很高的状况。因此黄同窗增长了对模板进行打分的MaskIoU Head,而且最终的分割结果在COCO数据集上超越了恺明大神,下面就是MS R-CNN的网络结构啦~
MS R-CNN的优缺点:
Recurrent neural networks(RNNs)除了在手写和语音识别上表现出色外,在解决计算机视觉的任务上也表现不俗,在本篇文章中咱们就将要介绍RNN在2D图像处理上的一些应用,其中也包括介绍使用到它的结构或者思想的一些模型。
RNN是由Long-Short-Term Memory(LSTM)块组成的网络,RNN来自序列数据的长期学习的能力以及随着序列保存记忆的能力使其在许多计算机视觉的任务中游刃有余,其中也包括语义分割以及数据标注的任务。接下来的部分咱们将介绍几个使用到RNN结构的用于分割的网络结构模型:
ReSeg可能不被许多人所熟知,在百度上搜索出的相关说明与解析也很少,可是这是一个颇有效的语义分割方法。众所周知,FCN可谓是图像分割领域的开山做,而RegNet的做者则在本身的文章中大胆的提出了FCN的不足:没有考虑到局部或者全局的上下文依赖关系,而在语义分割中这种依赖关系是很是有用的。因此在ReSeg中做者使用RNN去检索上下文信息,以此做为分割的一部分依据。
该结构的核心就是Recurrent Layer,它由多个RNN组合在一块儿,捕获输入数据的局部和全局空间结构。
优缺点:
传统的RNN在一维序列学习问题上有着很好的表现,好比演讲(speech)和在线手写识别。可是 在多为问题中应用却并不到位。MDRNNs在必定程度上将RNN拓展到多维空间领域,使之在图像处理、视频处理等领域上也能有所表现。
该论文的基本思想是:将单个递归链接替换为多个递归链接,相应能够在必定程度上解决时间随数据样本的增长呈指数增加的问题。如下就是该论文提出的两个前向反馈和反向反馈的算法。
卷积神经网络在进行采样的时候会丢失部分细节信息,这样的目的是获得更具特征的价值。可是这个过程是不可逆的,有的时候会致使后面进行操做的时候图像的分辨率过低,出现细节丢失等问题。所以咱们经过上采样在必定程度上能够不全一些丢失的信息,从而获得更加准确的分割边界。
接下来介绍几个很是著名的分割模型:
是的!讲来说去终于讲到这位大佬了,FCN!在图像分割领域已然成为一个业界标杆,大多数的分割方法多多少少都会利用到FCN或者其中的一部分,好比前面咱们讲过的Mask R-CNN。
在FCN当中的反卷积-升采样结构中,图片会先进性上采样(扩大像素);再进行卷积——经过学习得到权值。FCN的网络结构以下图所示:
固然最后咱们仍是须要分析一下FCN,不能无脑吹啦~
优缺点:
SegNet是剑桥提出的旨在解决自动驾驶或者智能机器人的图像语义分割深度网络,SegNet基于FCN,与FCN的思路十分类似,只是其编码-解码器和FCN的稍有不一样,其解码器中使用去池化对特征图进行上采样,并在分各类保持高频细节的完整性;而编码器不使用全链接层,所以是拥有较少参数的轻量级网络:
图像分割是计算机视觉研究中的一个经典难题,已经成为图像理解领域关注的一个热点,图像分割是图像分析的第一步,是计算机视觉的基础,是图像理解的重要组成部分,同时也是图像处理中最困难的问题之一。所谓图像分割是指根据灰度、彩色、空间纹理、几何形状等特征把图像划分红若干个互不相交的区域,使得这些特征在同一区域内表现出一致性或类似性,而在不一样区域间表现出明显的不一样。简单的说就是在一副图像中,把目标从背景中分离出来。对于灰度图像来讲,区域内部的像素通常具备灰度类似性,而在区域的边界上通常具备灰度不连续性。 关于图像分割技术,因为问题自己的重要性和困难性,从20世纪70年代起图像分割问题就吸引了不少研究人员为之付出了巨大的努力。虽然到目前为止,还不存在一个通用的完美的图像分割的方法,可是对于图像分割的通常性规律则基本上已经达成的共识,已经产生了至关多的研究成果和方法。
本文对于目前正在使用的各类图像分割方法进行了必定的概括总结,因为笔者对于图像分割的了解也是初窥门径,因此不免会有一些错误,还望各位读者多多指正,共同窗习进步。
SetNet的优缺点:
在这一个模块中咱们主要给你们介绍一下基于提高特征分辨率的图像分割的方法。换一种说法其实能够说是恢复在深度卷积神经网络中降低的分辨率,从而获取更多的上下文信息。这一系列我将给你们介绍的是Google提出的DeepLab 。
DeepLab是结合了深度卷积神经网络和几率图模型的方法,应用在语义分割的任务上,目的是作逐像素分类,其先进性体如今DenseCRFs(几率图模型)和DCNN的结合。是将每一个像素视为CRF节点,利用远程依赖关系并使用CRF推理直接优化DCNN的损失函数。
在图像分割领域,FCN的一个众所周知的操做就是平滑之后再填充,就是先进行卷积再进行pooling,这样在下降图像尺寸的同时增大感觉野,可是在先减少图片尺寸(卷积)再增大尺寸(上采样)的过程当中必定有一些信息损失掉了,因此这里就有能够提升的空间。
接下来我要介绍的是DeepLab网络的一大亮点:Dilated/Atrous Convolution,它使用的采样方式是带有空洞的采样。在VGG16中使用不一样采样率的空洞卷积,能够明确控制网络的感觉野。
图a对应3x3的1-dilated conv,它和普通的卷积操做是相同的;图b对应3x3的2-dilated conv,事迹卷积核的尺寸仍是3x3(红点),可是空洞为1,其感觉野可以达到7x7;图c对应3x3的4-dilated conv,其感觉野已经达到了15x15.写到这里相信你们已经明白,在使用空洞卷积的状况下,加大了感觉野,使每一个卷积输出都包含了较大范围的信息。
这样就解决了DCNN的几个关于分辨率的问题:
1)内部数据结构丢失;空间曾计划信息丢失;
2)小物体信息没法重建;
固然空洞卷积也存在必定的问题,它的问题主要体如今如下两方面:
1)网格效应
加入咱们仅仅屡次叠加dilation rate 2的 3x3 的卷积核则会出现如下问题
咱们发现卷积核并不连续,也就是说并非全部的像素都用来计算了,这样会丧失信息的连续性;
2)小物体信息处理不当
咱们从空洞卷积的设计背景来看能够推测出它是设计来获取long-ranged information。然而空洞步频选取得大获取只有利于大物体得分割,而对于小物体的分割可能并无好处。因此如何处理好不一样大小物体之间的关系也是设计好空洞卷积网络的关键。
基于特征加强的分割方法包括:提取多尺度特征或者从一系列嵌套的区域中提取特征。在图像分割的深度网络中,CNN常常应用在图像的小方块上,一般称为以每一个像素为中心的固定大小的卷积核,经过观察其周围的小区域来标记每一个像素的分类。在图像分割领域,可以覆盖到更大部分的上下文信息的深度网络一般在分割的结果上更加出色,固然这也伴随着更高的计算代价。多尺度特征提取的方法就由此引进。
在这一模块中我先给你们介绍一个叫作SLIC,全称为simple linear iterative cluster的生成超像素的算法。
首先咱们要明确一个概念:啥是超像素?其实这个比较容易理解,就像上面说的“小方块”同样,咱们日常处理图像的最小单位就是像素了,这就是像素级(pixel-level);而把像素级的图像划分红为区域级(district-level)的图像,把区域当成是最基本的处理单元,这就是超像素啦。
算法大体思想是这样的,将图像从RGB颜色空间转换到CIE-Lab颜色空间,对应每一个像素的(L,a,b)颜色值和(x,y)坐标组成一个5维向量V[l, a, b, x, y],两个像素的类似性便可由它们的向量距离来度量,距离越大,类似性越小。
算法首先生成K个种子点,而后在每一个种子点的周围空间里搜索距离该种子点最近的若干像素,将他们归为与该种子点一类,直到全部像素点都归类完毕。而后计算这K个超像素里全部像素点的平均向量值,从新获得K个聚类中心,而后再以这K个中心去搜索其周围与其最为类似的若干像素,全部像素都归类完后从新获得K个超像素,更新聚类中心,再次迭代,如此反复直到收敛。
有点像聚类的K-Means算法,最终会获得K个超像素。
Mostahabi等人提出的一种前向传播的分类方法叫作Zoom-Out就使用了SLIC的算法,它从多个不一样的级别提取特征:局部级别:超像素自己;远距离级别:可以包好整个目标的区域;全局级别:整个场景。这样综合考虑多尺度的特征对于像素或者超像素的分类以及分割来讲都是颇有意义的。
接下来的部分我将给你们介绍另外一种完整的分割网络:PSPNet:Pyramid Scene Parsing Network
论文提出在场景分割是,大多数的模型会使用FCN的架构,可是FCN在场景之间的关系和全局信息的处理能力存在问题,其典型问题有:1.上下文推断能力不强;2.标签之间的关系处理很差;3.模型可能会忽略小的东西。
本文提出了一个具备层次全局优先级,包含不一样子区域时间的不一样尺度的信息,称之为金字塔池化模块。
该模块融合了4种不一样金字塔尺度的特征,第一行红色是最粗糙的特征–全局池化生成单个bin输出,后面三行是不一样尺度的池化特征。为了保证全局特征的权重,若是金字塔共有N个级别,则在每一个级别后使用1×1 1×11×1的卷积将对于级别通道降为本来的1/N。再经过双线性插值得到未池化前的大小,最终concat到一块儿。其结构以下图:
最终结果就是,在融合不一样尺度的feature后,达到了语义和细节的融合,模型的性能表现提高很大,做者在不少数据集上都作过训练,最终结果是在MS-COCO数据集上预训练过的效果最好。
为了捕捉多尺度特征,高层特征包含了更多的语义和更少的位置信息。结合多分辨率图像和多尺度特征描述符的优势,在不丢失分辨率的状况下提取图像中的全局和局部信息,这样就能在必定程度上提高网络的性能。
首先让咱们熟悉熟悉到底啥是MRF的CRF的。
MRF全称是Marcov Random Field,马尔可夫随机场,其实提及来笔者在刚读硕士的时候有一次就有同窗在汇报中提到了隐马尔可夫、马尔可夫链啥的,当时还啥都不懂,小白一枚(如今是准小白hiahia),以为马尔可夫这个名字贼帅,后来才慢慢了解什么马尔科夫链呀,马尔可夫随机场,而且在接触到图像分割了之后就对马尔科夫随机场有了更多的了解。
MRF实际上是一种基于统计的图像分割算法,马尔可夫模型是指一组事件的集合,在这个集合中,事件逐个发生,而且下一刻事件的发生只由当前发生的事件决定,而与再以前的状态没有关系。而马尔可夫随机场,就是具备马尔可夫模型特性的随机场,就是场中任何区域都只与其临近区域相关,与其余地方的区域无关,那么这些区域里元素(图像中能够是像素)的集合就是一个马尔可夫随机场。
CRF的全称是Conditional Random Field,条件随机场实际上是一种特殊的马尔可夫随机场,只不过是它是一种给定了一组输入随机变量X的条件下另外一组输出随机变量Y的马尔可夫随机场,它的特色是埃及设输出随机变量构成马尔可夫随机场,能够看做是最大熵马尔可夫模型在标注问题上的推广。
在图像分割领域,运用CRF比较出名的一个模型就是全链接条件随机场(DenseCRF),接下来咱们将花费一些篇幅来简单介绍一下。
CRF在运行中会有一个问题就是它只对相邻节点进行操做,这样会损失一些上下文信息,而全链接条件随机场是对全部节点进行操做,这样就能获取尽量多的临近点信息,从而得到更加精准的分割结果。
在Fully connected CRF中,吉布斯能量能够写做:
咱们重点关注二元部分:
其中k(m)为高斯核,写做:
该模型的一元势能包含了图像的形状,纹理,颜色和位置,二元势能使用了对比度敏感的的双核势能,CRF的二元势函数通常是描述像素点与像素点之间的关系,鼓励类似像素分配相同的标签,而相差较大的像素分配不一样标签,而这个“距离”的定义与颜色值和实际相对距离有关,这样CRF可以使图像尽可能在边界处分割。全链接CRF模型的不一样就在于其二元势函数描述的是每个像素与其余全部像素的关系,使用该模型在图像中的全部像素对上创建点对势能从而实现极大地细化和分割。
在分割结果上咱们能够看看以下的结果图:
能够看到它在精细边缘的分割比日常的分割方法要出色得多,并且文章中使用了另外一种优化算法,使得原本须要及其大量运算的全链接条件随机场也能在很短的时间里给出不错的分割结果。
至于其优缺点,我以为能够总结为如下几方面:
能够用来恢复细致的局部结构,可是相应的须要较高的代价。
OK,那么本次的推送就到这里结束啦,本文的主要内容是对图像分割的算法进行一个简单的分类和介绍。综述对于各位想要深刻研究的看官是很是很是重要的资源:大佬们常常看综述一方面能够了解算法的不足并在此基础上作出改进;萌新们能够经过阅读一篇好的综述入门某一个学科,好比今天的内容就是图像分割。
谢谢各位朋友们的观看!
如何从零开始系统化学习视觉SLAM?
从零开始一块儿学习SLAM | 为何要学SLAM?
从零开始一块儿学习SLAM | 学习SLAM到底须要学什么?
从零开始一块儿学习SLAM | SLAM有什么用?
从零开始一块儿学习SLAM | C++新特性要不要学?
从零开始一块儿学习SLAM | 为何要用齐次坐标?
从零开始一块儿学习SLAM | 三维空间刚体的旋转
从零开始一块儿学习SLAM | 为啥须要李群与李代数?
从零开始一块儿学习SLAM | 相机成像模型
从零开始一块儿学习SLAM | 不推公式,如何真正理解对极约束?
从零开始一块儿学习SLAM | 神奇的单应矩阵
从零开始一块儿学习SLAM | 你好,点云
从零开始一块儿学习SLAM | 给点云加个滤网
从零开始一块儿学习SLAM | 点云平滑法线估计
从零开始一块儿学习SLAM | 点云到网格的进化
从零开始一块儿学习SLAM | 理解图优化,一步步带你看懂g2o代码
从零开始一块儿学习SLAM | 掌握g2o顶点编程套路
从零开始一块儿学习SLAM | 掌握g2o边的代码套路
零基础小白,如何入门计算机视觉?
SLAM领域牛人、牛实验室、牛研究成果梳理
我用MATLAB撸了一个2D LiDAR SLAM
可视化理解四元数,愿你再也不掉头发
最近一年语义SLAM有哪些表明性工做?
视觉SLAM技术综述
汇总 | VIO、激光SLAM相关论文分类集锦
研究SLAM,对编程的要求有多高?
2018年SLAM、三维视觉方向求职经验分享
2018年SLAM、三维视觉方向求职经验分享
深度学习遇到SLAM | 如何评价基于深度学习的DeepVO,VINet,VidLoc?
视觉SLAM关键方法总结
SLAM方向公众号、知乎、博客上有哪些大V能够关注?
SLAM实验室
SLAM方向国内有哪些优秀公司?
SLAM面试常见问题
SLAM相关领域数据集调研
从零开始一块儿学习SALM-ICP原理及应用
解放双手——相机与IMU外参的在线标定
目标检测