Deep Non-Line-of-Sight Reconstruction:深度非视域重建

点击上方“3D视觉工坊”,选择“星标”

干货第一时间送达

作者:坐化 | 来源:知乎

https://zhuanlan.zhihu.com/p/157348690

本文仅做学术分享,如有侵权,请联系删除。

英文论文信息

J. G. Chopite, M. B. Hullin, M. Wand, and J. Iseringhausen, “Deep Non-Line-of-Sight Reconstruction,” in Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2020, pp. 960-969.

摘要近年来,人们对超视域的成像方法兴趣大增。最突出的技术依赖于时间分辨光脉冲响应,通过超短光脉冲照亮漫反射壁,并用超快时间分辨成像仪观察多次反射间接反射来获得。然而,从这些数据的几何重建是一个复杂的非线性逆问题,随之而来的是大量的计算需求。在本文中,我们利用卷积前馈网络在保持良好重构质量的前提下有效地解决重构问题。具体来说,我们设计了一个定制的自动编码器架构,经过端到端训练,可以直接将瞬时图像映射到深度图表示。训练是使用最近的,非常有效的瞬态渲染器来完成的三次反射式间接光传输,能够为网络快速生成大量训练数据。我们检查了我们的方法在各种合成和实验数据集上的性能,以及它对训练数据和增强策略选择的依赖性,以及架构特征。我们证明,我们的前馈网络,即使只在综合数据上训练,也能够获得与以前的基于模型的优化方法竞争的结果,同时速度也快了一个数量级。

一、研究背景

在过去的几十年里,利用飞行时间测量方法对物体形状进行重建已经成为一项非常普遍和有效的技术。虽然对直接可见的物体进行成像已经颇具挑战性,但近年来研究人员成功地演示了更难的任务,即重建隐藏在视线之外的目标。在这种情况下,我们称之为非视域(NLoS)重建问题,在漫反射漫反射的表面上造成的时间和方向信息或多或少的丢失意味着必须以一种截然不同的方式来处理这个问题。

二、研究现状

在文献中提出的技术改造对象几何和反射率three-bounce间接测量组合方法[1],参数模型适合使用简单,高效推进模型[1,2,3,4,5,6],投影不像什么是用于计算机断层扫描[7,8],反滤波方法[9,10]和时空衍射积分[11,12]。为了本文的目的,我们集中在这种主动照明,飞行时间输入,尽管稳态或完全被动的方法也已证明[13,14,15]。

基于深度神经网络的表示学习方法已经成为一种强大的、被广泛采用的工具,通过学习实例来表示自然信号的高维(函数)空间之间的复杂映射。在最近的工作中,这包括卷积回归直接飞行时间成像[16]。使用具有跨匹配尺度的捷径的尺度空间表示已经被证明是一个特别成功的策略[17]。生成卷积前馈网络也被用于创建3D数据,包括2D到3D的生成[18]。尽管取得了广泛的成功,但到目前为止还没有这种方法被应用于非视域重建问题。假设这可以归因于在实验室或自然场景中产生大量的NLOS训练数据的实际困难。因此,一个关键的步骤是开发一个模拟器,在计算成本和物理预测之间取得良好的平衡,以保持训练问题的可处理性,同时产生可推广的结果。

参考文献:

[1] A. Kirmani, T. Hutchison, J. Davis, and R. Raskar, “Looking around the Corner Using Transient Imaging,” in Proceedings of the IEEE International Conference on Computer Vision, 2009, pp. 159-166.

[2] N. Naik, S. Zhao, A. Velten, R. Raskar, and K. Bala, “Single View Reflectance Capture Using Multiplexed Scatteringand Time-of-Flight Imaging,” ACM Transactions on Graphics, vol. 30, no. 6, pp. 1-10, 2011.

[3]J.Iseringhausen and M. B. Hullin, “Non-Line-of-Sight Reconstruction Using Efficient Transient Rendering,” ACM Transactions on Graphics, vol. 39, no. 1, pp. 1-14, 2020.

[4] J. Klein, C. Peters, J. Martin, M. Laurenzis, and M. B. Hullin, “Tracking Objects outside the Line of Sight Using 2D Intensity Images,” Scientific Reports, vol. 6, no. 32491, pp. 1-9, 2016.

[5] A. K. Pediredla, M. Buttafava, A. Tosi, O. Cossairt, and A. Veeraraghavan, “Reconstructing Rooms Using Photon Echoes: A Plane Based Model and Reconstruction Algorithm for Looking around the Corner,” in Proceedings of the IEEE International Conference on Computational Photography, 2017, pp. 1-12.

[6] C. Tsai, A. C. Sankaranarayanan, and I. Gkioulekas, “Beyond Volumetric Albedo–A Surface Optimization Framework for Non-Line-of-Sight Imaging,” in Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2019, pp. 1545-1555.

[7] M. Laurenzis and A. Velten, “Nonline-of-Sight Laser Gated Viewing of Scattered Photons,” Optical Engineering, vol. 53, no. 2, pp. 1-6, 2014.

[8] A. Velten, T. Willwacher, O. Gupta, A. Veeraraghavan, M. G. Bawendi, and R. Raskar, “Recovering Three-Dimensional Shape around a Corner Using Ultrafast Time-of-Flight Imaging,” Nature Communications, vol. 3, no. 1, pp. 1-8, 2012.

[9] F. Heide, L. Xiao, W. Heidrich, and M. B. Hullin, “Diffuse Mirrors: 3D Reconstruction from Diffuse Indirect Illumination Using Inexpensive Time-of-Flight Sensors,” in Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2014, pp. 3222-3229.

[10] M. O’Toole, D. B. Lindell, and G. Wetzstein, “Confocal Non-Line-of-Sight Imaging Based on the Light-ConeTransform,” Nature, vol. 555, no. 25489, pp. 338-341, 2018.

[11] D. B. Lindell, G. Wetzstein, and M. O’Toole, “Wave-Based Non-Line-of-Sight Imaging Using Fast F-K Migration,” ACM Transactions on Graphics, vol. 38, no. 4, pp. 1-13, 2019.

[12] X. Liu, I. Guillén, M. L. Manna, J. H. Nam, S. A. Reza, T. H. Le, A. Jarabo, D. Gutierrez, and A. Velten, “Non-Line-of-Sight Imaging Using Phasor-Field Virtual Wave Optics,” Nature, vol. 572, no. 7771, pp. 620-623, 2019.

[13] K. L. Bouman, V. Ye, A. B. Yedidia, F. Durand, G. W. Wornell, A. Torralba, and W. T. Freeman, “Turning Corners into Cameras: Principles and Methods,” in Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2017, pp. 2270-2278.

[14] W. Chen, S. Daneau, F. Mannan, and F. Heide, “Steady-State Non-Line-of-Sight Imaging,” in Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2019, pp. 6790-6799.[15] O. Katz, E. Small, and Y. Silberberg, “Looking around Corners and Through Thin Turbid Layers in Real Time with Scattered Incoherent Light,” Nature Photonics, vol. 6, no. 8, pp. 549-553, 2012.[16] D. B. Lindell, M. O’Toole, and G. Wetzstein, “Single-Photon 3D Imaging with Deep Sensor Fusion,” ACM Transactions on Graphics, vol. 37, no. 4, pp. 1-12, 2018.

[17] O. Ronneberger, P. Fischer, and T. Brox, “U-Net: Convolutional Networks for Biomedical Image Segmentation,” Medical Image Computing and Computer Assisted Intervention, 2015, pp. 234-241.[18] A. Dosovitskiy, J. T. Springenberg, M. Tatarchenko, and T. Brox, “Learning to Generate Chairs, Tables and Cars with Convolutional Networks,” IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 39, no. 4, pp. 692-705, 2017.

三、存在问题

1、生成卷积前馈网络也被用于创建3D数据,包括2D到3D的生成。尽管取得了广泛的成功,但到目前为止还没有这种方法被应用于非视域重建问题。

2、在实验室或自然场景中产生大量的NLOS训练数据的困难很大。

四、创新之处

1、设计了一个定制的自动编码器架构,经过端到端训练,可以直接将瞬时图像映射到深度图表示。训练是使用最近的,非常有效的三个瞬态渲染器来完成的反射式间接光传输,能够为网络快速生成大量训练数据。

2、尽管网络结构很简单,但此系统虽然从未接受过任何现实世界输入的训练,但可以对实验数据做出有意义的预测。即使场景中包含了违背(纯扩散)正向模型假设的反向反射对象,预测依然有效。这是深度学习方法首次被成功地用于非视域重建问题,另外一个好处是无参数化。由于预测时间为20毫秒,文章的方法也是可用的最快技术之一。

五、方法概述

1、问题设置

图1 非视域成像装置图

典型的传感装置如图1所示。一个激光光源投射一个非常短的光脉冲(通常模拟为狄拉克脉冲)到墙上的一个位置,从那里它被反射到场景的隐藏角落,在与隐藏的目标相互作用后,由一个时间分辨探测器从墙上测得。根据正演模型T制定这样一个系统的操作,它包括包括光源、传播和探测器的完整图像组成。非视域重建问题涉及到一种逆映射,其中给定测量  ,估计隐藏目标  :

 就是在深度学习方法中进行编码的目标。

2、输入:瞬态图像

如上所述的设置可以产生各种形式的数据,从单个光子检测事件的时间戳序列流到在空间  和时间  中密集采样的直方图。在这项工作中,假设时间分辨强度测量的完全采样时空立方体。这样的三维强度数据体  ,也被称为瞬态图像,将作为系统的输入。

3、输出:预测深度图

另一个核心设计决策与场景几何的表现有关。候选方案包括体积(例如,一个充满散射密度的盒子)和表面表示法,后者为不透明场景提供了更紧凑的编码。由于使用不规则结构几何数据的生成模型的深度学习仍然是一个开放的问题,决定将场景表示为深度图(距离值的2D映射)。这种输出的选择伴随着不能反映某些类型的自遮挡的牺牲。然而,这种表示方式直观上是可以理解的,并且被证明对广泛的测试场景是通用的。

4、深度学习架构的State of the Art

给定这些关于输入和输出接口的设计选择,所产生的高级数据流如图2所示。使用经过端到端训练的卷积回归来建模这样的逆问题已经被证明是成功的,它适用于密集数据上的各种计算机视觉任务。在像图像分割这样的经典视觉问题中,需要对输入图像和每个像素目标类权重进行一对一的映射。一种可能的架构是自动编码器,它将输入压缩到更少的自由度,然后将其解压缩到原始格式。学习输入-输出映射的方法包括裁剪这样的网络的结构特征,并以监督的方式训练。文章的方法中使用这样的神经回归器,它自然受限于输入数据的熵。如果要考虑更多细节,就必须使用生成统计建模,例如通过变分自编码器或生成对抗网络。

图2 重建流程示意图概述

文章的问题设置以维度不匹配为特征:从三维输入(两个空间维度加上飞行时间),我们想推断出二维输出(深度图)。虽然在输入和输出中的空间维度之间可能存在一些相关性,但这并不一定适用于所有的感知几何图形。类似的问题已经在基于深度网络的2D视图三维图像重建中得到研究。之前的大多数工作都试图从2D输入推断出3D输出,而挑战是如何从3D瞬态图像输出到2D深度图输出,因此与SPAD数据去噪的工作更密切相关。尽管复杂的重建机制是可能的,比如稀疏点云和可微渲染,一个简单的解决方案是使用完全连接的网络作为的重建器。文章提出的架构结合卷积层与完全连接的列在最后的解码器,以在合理的成本优化重建质量。

5、用于NLoS传感器的架构

考虑到在分割任务上的成功,使用卷积回归器来构建一个3D/2D编解码器网络。我们的指导原则是使用3D卷积提取时空描述符,然后将其解码为2D特征,以便进一步进行目标估计。在我们的实验中,我们发现用卷积层回归深度值只能粗略估计目标。对于直视线设置,[23]的作者成功地使用了旁路连接,它使用强度图像来通知上采样器网络。然而,对于非los情况,由于漫反射壁的存在,从瞬态体积计算出的强度图像只包含很少的目标信息。我们的经验研究表明,密集层可能是一个很好的解决方案,因为它们在回归阶段表现出比卷积更好的性能(10%)。深度神经网络的详细概述如图3所示。

图3 用于NLoS重建任务的网络模型

在网络中确定了三个主要组成部分如下:

3D/2D U-Net。在网络的入口层,按照U-Net的基本设计原则构造了一个编解码器网络。在编码器方面,网络将三维瞬态图像压缩为二维特征向量,但将时间维度完全压缩是一个瓶颈。解码器从压缩的向量向上采样2D映射。跳过从编码器到解码器的连接,增强梯度传播和尺度分离。

上采样器网络。一旦U-Net再次达到输入的空间分辨率,堆叠一个上采样网络,它将输入的map扩展到更高的空间分辨率。该网络采用与译码器相同的上采样机制,即先上卷积,再来两个二维卷积+ReLU层。

回归器网络。当采样器达到指定的目标分辨率时,堆叠一个回归网络,该网络从输入的特征图计算深度图像。它由收缩输入通道的1×1卷积和两个完全连接的层组成。

在整个流程中,使用一个通道的卷积层。从大小为3 * 3 * 9的卷积开始,在编码过程中逐渐减小为2。在这个阶段,选择了平均池化而不是最大池化,因为这在小批量上显示了更好的验证性能。解码期间的上行采样是通过保持通道不变,同时将**值复制到目标分辨率,然后进行2×2反卷积来完成的。最后,跳过连接被实现为沿着整个时域的平均池化层,然后连接到解码器。

六、实施方案

非视域重建问题的深度学习方法的成功在很大程度上取决于大量合适的训练数据的可用性,对瞬态图像和相应的深度图。在现实世界中收集这样的数据是可以排除的,因为到目前为止开发的实验设置需要大量的校准、自动化和预算,手工设置数千个不同的场景是不可行的。因此,我们使用纯合成数据来训练我们的神经网络。这意味着一些挑战:

•需要定义、采样和投射到深度图的可能隐藏目标范围

•对于每个场景,都必须以反映真实世界光传输方式的方式合成瞬态图像,就像现实世界中的测量设备一样。

•设计和建模选择应考虑有效的数据集综合,因为需要大量数据。

1、生成深度NLoS数据集

将NLoS数据集定义为成对的集合  ,其中  表示隐藏目标的深度映射,  表示对应的瞬时图像。两个不同的来源收集深度图:

1)从三维目标的深度图:给定一个三维模型数据库,通过将一个或多个模型放置在一个包围体中来生成一个深度场景。然后,通过正投影得到深度图。每个模型都通过随机的仿射变换定位在场景中。

2)测量数据的样本:生成深度场景的另一种方法是直接从可用的RGB-D序列中采样深度图。

遵循上述选项中的任何一个,生成目标几何图形的数据集  ,表示为具有固定分辨率的深度图。将深度图转换为边界体  ,其中  表示背景区域,  表示前景几何。

数据生成的下一步是用于固定传感器  绘制目标的瞬态图像。近年来开发了一些用于绘制瞬态光传输的技术。由于其准确性和效率,文章选择了Iseringhausen等人引入的技术,该技术可适用于各种捕获几何,包括同轴装置。当渲染器根据网格对象的每个三角形累积光照时,将深度样本三角化并将它们提供给渲染器,在那里这些样本会进一步从它们的原生边界体转换为隐藏目标的边界区域。在渲染之前,带有一个或多个背景顶点的三角形,以及在  方向上过度拉伸的三角形(它们形成了连接不同深度的对象的人工墙),都将被删除。假定所有表面的反射率都是漫反射的。产生的瞬时渲染存储在NLoS数据集中,该数据集标有相应的深度图。

2、NLoS数据集的传感器模型

上面讨论的渲染算法没有包含图像形成模型  中应该包含的所有效果。基本物理原理(光子统计),以及在现实世界中用于实现NLoS测量的硬件,对结果的信号质量有很大的贡献。由于大多数公开的真实数据集都是由单光子雪崩探测器(SPADs)获得的,因此试图扩展该技术的最重要特征的正演模型。由于在训练过程中需要向网络提供数以万计的传感器增强样本,为了提高效率,选择了一个高度简化的模型。给定由渲染器生成的示例  ,将SPAD响应近似为:

其中  是一个比例因子,它将渲染器的无单位强度值转换为光子计数。从保守选择的区间中随机抽取  样本,该区间包含正确的置信系数。在训练数据中包含这种变化会鼓励回归变量对强度的全局变化保持不变。全局偏差  解释了瞬态测量中暗计数的基准水平。为了估计它,查看来自现场的响应之前的真实场景测量的早期时间区间。同样,从一个充分选择的区间中随机取样这个值,以实现关于这个全局偏移量的不变性。最后,函数  对泊松分布进行采样,以反映光子计数统计量。

图4 真实像素与SPAD像素模型的比较

图4显示了SPAD模型如何接近一个渲染像素来进行SPAD实验测量。虽然模型提供了一个粗略的近似,但它捕获了真实传感器的整体特征,同时容易实现和非常快的计算。这使得它能够在训练期间“即时”评估。

3、训练策略

使用TensorFlow在Keras中实现网络训练。为了训练网络,反向传播深度图的均方差。实验使用  损失,但初步训练期间显示不稳定或者收敛到较差的局部极小值。权重在使用Kaiming初始化,并使用Adam进行优化,默认设置学习率为0.0001。在Nvidia GeForce RTX 2080 Ti上进行了3-5天的训练,并通过早期停止的方式对模型进行了规范化。训练时间长,需要正则化,主要是由于流程的最后阶段全连接层包含了大部分参数。由于在实验中性能更好,训练选择了(相当简单的)以最小的验证错误提前停止,而不是退出。

七、 实验结果与结论

1、合成数据集的训练模型

根据上述策略生成三个NLoS数据集:FlatNet,它使用严格的平面形状作为源模型;ShapeNet,它从ShapeNetCore数据库中采样模型;Redwood,从Redwood数据库中的真实场景深度图中提取作物。为每个数据集绘制了40000幅深度图。接下来,为每个深度数据集绘制了相应的瞬时图像。数据集被划分为36000对训练对和4000对测试对。在运行时使用SPAD传感器模型增强输入瞬态图像。

图5 深度图数据集的例子

为了评价预测性能,考虑了重建任务的两个重要方面。一方面,注意到评价指标必须考虑前景/背景分类的质量。对于本文的其余研究,使用分类精度:

结合缺失几何图形(假阴性/FN),过量(假阳性/FP),正确前景(真阳性/TP)和背景(真阴性/TN)的比率。此外,使用均方根误差(RMSE)度量来评估真实正的深度误差。图6显示了每个数据集的测试分区上的交叉验证错误。注意,平均而言,经过合成训练的模型,FlatNet和ShapeNet,在深度误差方面比Redwood表现得差(参见RMSE),但依次展示了优越的分类性能(精度)。

图6 数据集的平均精度和RMS深度误差

与FlatNet和ShapeNet(分别有71%和78%的背景像素)不同,Redwood在整个数据库中只包含7%的背景像素。这种不平衡可能导致偏差,因此可以解释观察到的现象。

2、合成输入评价

除了这些大规模数据集,文章又准备了三个合成测试用例:SynthBunny、SynthMannequin和SynthDiffuseS。图7显示了对这些合成数据集的预测,这些数据集已经增加了传感器噪声和偏差的合理数量。深度图中的远点像素被掩蔽为背景(  )。这个特性将文章的流程与目前提出的最先进的方法区别开来,后者需要一个额外的阈值和可能的其他参数来执行这样的分割。

图7 训练模型和LCT重建的三个合成深度图的定性可视化

如图8所示,基于真实深度图像(Redwood)训练的模型再次倾向于高估前景几何体。在比较FlatNet和ShapeNet时,前者比后者估计更少的SynthDiffuss和SynthManifuline的几何结构,但它也忽略了更多。在SynthBunny上测试时,发现ShapeNet获得了合理的RMSE,而平面网模型甚至忽略了形状的基本特征,可能是由于没有受过曲线形状的训练。

图8 对图7中的合成深度图进行绝对差值(每像素)和精度的定量评估

3、真实场景实验输入的评估

在合成数据上训练和验证了模型之后,现在测试ShapeNet模型在真实场景中测量的输入上的性能。使用O'Toole等人和Lindell等人提供的数据,并将其采样到标准分辨率。作为比较的基准,使用在原始数据集上执行的光锥变换(LCT)。图9显示了网络如何成功地检索到漫反射目标(漫反射和雕像)的全局特征,令人惊讶的是,也检索到具有薄半透明结构的部分镜面物体(自行车)的全局特征。即使网络是在纯弥散输入的情况下训练的,这也适用于后反射目标(图10)。网络在逆反射n和其他非Lambertian反射输入上的性能表明,它对轻微偏离理想Lambertian反射是鲁棒的。

图9 使用ShapeNet和LCT对捕获的三个不同场景的预测

图10 O'Toole等人(上)、使用ShapeNet(中间行)和LCT(下行)对三个逆反射场景的预测

4、传感器模型评估

现在试图评估SPAD模型,即评估简单的增强方法是否能在综合及真实案例中提供令人满意的效果。为此训练了两个额外版本的ShapeNet模型,它们要么只包含泊松噪声,要么根本没有增强(“plain”)。图11显示了传感器模型对降噪合成样本以及对真实场景输入的影响。虽然所有的模型都能够在视觉上预测SynthDiffuseS的可识别的表现,但它们在更复杂的几何模型SynthBunny和SynthMannequin的表现很差。结合泊松和偏差显然会带来最大的好处。在扩散的真实数据集上,差异变得更加严重。

图11 传感器模型对降噪合成样本以及对真实场景输入的影响

5、推断真实场景的挑战

文章评估了流程在两种不利情况下的性能,这两种情况对非视域重建具有很高的实际意义:低光和低输入分辨率。为了评估在弱光条件下的鲁棒性(光路涉及到三个漫射反射往往是非常有损的),在三个合成测试用例上增加泊松噪声的级别,并将它们输入到ShapeNet训练的模型中(图12)。即使在严重的噪声退化下预测也是稳定的。

图12 有大量增加的泊松噪声输入数据的预测

任何重建方案的另一个有趣的方面是确定恢复给定目标所需的关键输入分辨率。通过块平均输入数据中的值来模拟这种情况。这并不等同于在本地分辨率下训练一个适当维度的网络。然而,它允许使用在全分辨率训练的模型来执行对十进制输入的预测。文章独立抽取了2、4和8的时空维度。图13显示了合成测试用例和真实测试用例的行为。可以注意到,一个层次的空间缩减(因子2×2)会得到可接受的结果,然而,即使是四倍的时间分辨率缩减,对于合成的和真实的测试用例,也会产生几乎无法区分的结果。

图13 ShapeNet对空间和时间上的下采样数据进行预测

6、高分辨率重建

文章还探讨了是否可以用提议的流程训练模型以达到更高分辨率的目标。和前面的例子一样,堆叠层直到输出大小匹配(两个,对于128×128的例子)。由于全连接层随输出尺寸快速增长,使用多个全连通回归层的成本越来越高。这导致了架构的固有限制。对于128×128输出的具体情况,仍然可以使用全连接层,这样可以保持良好的质量。在保持输入分辨率不变的情况下,对128×128的ShapeNet深度图进行训练。图14显示了在实际测量中执行的128×128预测。

图14 在真实测量多重ShapeNet128×128的预测

通过定性地检查这些结果,观察到扩散和非扩散预测都从这些选择中受益。

八、方向展望

1、亟待解决的问题

1)训练时间太长,需要正则化,主要是由于流程的最后阶段全连接层包含了大部分参数。

2)训练数据的获取可以更加多样化。

2、应用

这项研究表明深度学习是非视域几何重建的一种有前途的方法。多亏了传感器模型,网络可以扩展到真实世界的场景,尽管它是在纯合成数据上训练的。还可以证明此方法在输入数据中有大量的镜头噪声时表现良好。由于其快速的运行时,此方法可能被证明是对时间要求严格的应用程序的一个有竞争力的选择。在未来的工作中,想要扩展场景到三维,以便能够解释场景中的自遮挡。此外,研究如何使用深度神经网络将多个测量数据结合起来将是很有趣的。

本文仅做学术分享,如有侵权,请联系删文。

下载1

在「3D视觉工坊」公众号后台回复:3D视觉即可下载 3D视觉相关资料干货,涉及相机标定、三维重建、立体视觉、SLAM、深度学习、点云后处理、多视图几何等方向。

下载2

「3D视觉工坊」公众号后台回复:3D视觉优质源码即可下载包括结构光、标定源码、缺陷检测源码、深度估计与深度补全源码、点云处理相关源码、立体匹配源码、单目、双目3D检测、基于点云的3D检测、6D姿态估计源码汇总等。

下载3

「3D视觉工坊」公众号后台回复:相机标定即可下载独家相机标定学习课件与视频网址;后台回复:立体匹配即可下载独家立体匹配学习课件与视频网址。

重磅!3DCVer-学术论文写作投稿 交流群已成立

扫码添加小助手微信,可申请加入3D视觉工坊-学术论文写作与投稿 微信交流群,旨在交流顶会、顶刊、SCI、EI等写作与投稿事宜。

同时也可申请加入我们的细分方向交流群,目前主要有3D视觉CV&深度学习SLAM三维重建点云后处理自动驾驶、CV入门、三维测量、VR/AR、3D人脸识别、医疗影像、缺陷检测、行人重识别、目标跟踪、视觉产品落地、视觉竞赛、车牌识别、硬件选型、学术交流、求职交流等微信群。

一定要备注:研究方向+学校/公司+昵称,例如:”3D视觉 + 上海交大 + 静静“。请按照格式备注,可快速被通过且邀请进群。原创投稿也请联系。

▲长按加微信群或投稿

▲长按关注公众号

3D视觉从入门到精通知识星球:针对3D视觉领域的知识点汇总、入门进阶学习路线、最新paper分享、疑问解答四个方面进行深耕,更有各类大厂的算法工程人员进行技术指导。与此同时,星球将联合知名企业发布3D视觉相关算法开发岗位以及项目对接信息,打造成集技术与就业为一体的铁杆粉丝聚集区,近2000星球成员为创造更好的AI世界共同进步,知识星球入口:

学习3D视觉核心技术,扫描查看介绍,3天内无条件退款

 圈里有高质量教程资料、可答疑解惑、助你高效解决问题

觉得有用,麻烦给个赞和在看~