Frustum PointNets算法总结

最近一直在看Frustum PointNet源代码,然后结合论文和作者公开课等资料总结了下主要的思路。 数据输入 RGB-D数据 (D可以来自雷达采集的点云或者 深度相机采集的深度图,作者训练使用的是kitti数据集) 网络输出 Amodel 3D bounding box和场景中目标物体的标签(如car 等) 其中 Amodel代表的是 即使物体被遮挡或者截断,依然可以预测完整的3D bound
相关文章
相关标签/搜索