3D目标检测论文方法汇总 【2021部分持续更新中~】

Automanous-3D-detection-methods

版权注释

该项目地址为:https://github.com/LittleYuanzi/awesome-Automanous-3D-detection-methods
2017~2020汇总部分由CSDN博主Little_sky_jty博主倾力攥写,2021部分我将对其进行维护更新为我个人所用,无任何商业目的,如有侵权,告知删除

前言

该项目主要在对近期(17年)开始的自动驾驶场景的目标检测方法做一个汇总,持续更新,也欢迎大家参与进来。为了方便表示,该项目仅仅针对自动驾驶场景,分类方法按照输入进行划分,特别地,我们也对论文实验对应的论文做出一定的标注。

3D目标检测论文方法汇总 【2021部分持续更新中~】

keywords

inputs

按照传感器的输入: monocular: 单目   stereo: 双目  lidar: 点云  
如果是多种传感器融合: image+lidar: 图像+点云  

对应实验数据集

用于标注该文章实验对应的数据集: kitti: KITTI   nuse.: NuScence   waymo: Waymo   ATG4D: ATG4D   [lyft]: lyft 

代码

标注代码实现框架: Tensorflow.: TensorFlow   PyTorch.: PyTorch   PyTorch.: PyTorch  

2017

  • [CVPR] PointNet: Deep Learning on Point Sets for 3D Classification and Segmentation. [tensorflow][pytorch] [lidar]
上一篇:D. Xenia and Colorful Gems(二分)


下一篇:机载激光雷达原理与应用科普(八)