DeepLiDARFlow: A Deep Learning Architecture For Scene Flow Estimation Using Monocular Camera and Spa

场景光流是对场景中运动和几何模型的稠密三维重建。大多数的系统都是利用双目图像作为输入输出场景的三维重建结果。现存的系统都是比较依赖RGB图像的质量而且在一些反光物体,遮挡,病态的光线场景下表现很差。雷达在上述的环境中影响就很小,但是由于雷达数据的稀疏性导致雷达的特征不适合用来匹配。所以激光和视觉结合通过改善和产生鲁棒的特征用来匹配,可以克服每个传感器的不足。在这个系统中作者提出了一个新的基于激光雷达和视觉结合的框架,通过在单目相机的多个尺度上融合高层次的RGB和LiDAR数据来预测稠密的场景光流。这个系统在上述提到的场景的表现大大由于单相机和单激光雷达的方法。作者在KITTI和FlyingThings3D数据集上都进行了测试,并开源了代码:https:github.com/dfki-av/DeepLiDARFlow
DeepLiDARFlow: A Deep Learning Architecture For Scene Flow Estimation Using Monocular Camera and Spa
DeepLiDARFlow: A Deep Learning Architecture For Scene Flow Estimation Using Monocular Camera and Spa

上一篇:orb-slam2配置环境时几个常见问题


下一篇:4.SceneCode: Monocular Dense Semantic Reconstruction using Learned Encoded Scene Representations.