LSD-SLAM深刻学习(1)-基本介绍与ros下的安装


前言

     借鉴来自RGB-D数据处理的两种方法-基于特征与基于总体的,一样能够考虑整个图片的匹配,而不是只考虑特征点的……html

      通常这种稠密的方法须要很大的计算量,DTAM: Dense tracking and mapping in real-time 提出了利用GPU来加速运算的方法,Semi-dense Visual Odometry for a Monocular Camera经过半稠密的滤波有效地减小了运算时间,甚至在智能手机上实时实现了这个算法Semi-dense visual odometry for AR on a smartphonegit

     我的理解错误的地方还请不吝赐教,转载请标明出处,内容若有改动更新,请看原博:http://www.cnblogs.com/hitcm/github

     若有任何问题,feel free to contact me at robotsming@gmail.com算法

主要介绍


       主要参考一下几篇文章,都是来自tum的。之后算法与代码介绍都是基于这几篇文章的,建议仔细研究,一定受益不浅。spring

       2013 Semi-dense Visual Odometry for a Monocular Camera编程

       2014 Semi-dense visual odometry for AR on a smartphoneapp

       2014 LSD-SLAM: Large-Scale Direct Monocular SLAMdom

       在以上几篇文章的基础之上,有了完整的lsd-slam算法。jsp

       算法的主页以下学习

       https://github.com/tum-vision/lsd_slam

       http://vision.in.tum.de/research/vslam/lsdslam?redirect=1

     


ros下的安装

    博主的编程环境是Ubuntu14.04+Ros Indigo,为了方便记录,采用的是虚拟机环境,可能有点卡。关于ROS的基础知识,请自行学习,在此再也不赘述。

    首先安装依赖项

sudo apt-get install ros-indigo-libg2o ros-indigo-cv-bridge liblapack-dev libblas-dev freeglut3-dev libqglviewer-dev libsuitesparse-dev libx11-dev
     而后git下面的内容
git clone https://github.com/tum-vision/lsd_slam.git lsd_slam
      最后是rosmake
rosmake lsd_slam

运行lsd-slam

一个来自官方的范例,使用的dataset以下,400+M

http://vmcremers8.informatik.tu-muenchen.de/lsd/LSD_room.bag.zip

解压之

而后运行下面的3个命令,便可看到效果

rosrun lsd_slam_viewer viewer

rosrun lsd_slam_core live_slam image:=/image_raw camera_info:=/camera_info

rosbag play ./LSD_room.bag

 

另外能够网上另外一位兄弟的文章,连接以下

http://www.bubuko.com/infodetail-1010849.html

http://www.mamicode.com/info-detail-957983.html

相关文章
相关标签/搜索