各种深度预测的网络

能做深度预测或估计的网络好多,记一下,有时间一个个找源码和数据跑一遍。

1,monodepth  无监督  有 tf 和 pytorch 代码 

18,monodepth2  无监督 pytorch    https://github.com/nianticlabs/monodepth2

        Clément Godard小哥真是优秀!

2,sfmlearner   无监督   有 tf 和 pytorch 代码

  作者里头有  Noah Snavely,Bundler的作者,emmm ...

3,struct2depth  无监督  只有 tf 代码   2018.11

  https://github.com/tensorflow/models/tree/master/research/struct2depth

4,GeoNet  这个有3个名字一样的文章

  https://github.com/xjqi/GeoNet     学了个表面法向量,看文章是监督式的

  https://github.com/yzcjtr/GeoNet  额外学了个光流,这篇更出名点,非监督 

  还有篇arxiv1901的文章

5,SfM-Net

  https://arxiv.org/abs/1704.07804

6,BA-Net   有监督   https://github.com/frobelbest/BANet 尚未公布

7,DeMoN  有监督 

8,vid2depth 无监督  估计很难编译成功

  https://github.com/tensorflow/models/tree/master/research/vid2depth

9,LKVOLearner  https://github.com/MightyChaos/LKVOLearner  pytorch 0.3 

10, DeepMatchVO  https://github.com/hlzz/DeepMatchVO   tensorflow

  引入了对极几何的约束,另一篇sfmlearner++也引入了对极约束,可以想象两篇文章

  作者的酸爽。。。

11, fast-depth  https://github.com/dwofk/fast-depth   pytorch

12, PSMNet   https://github.com/KinglittleQ/PSMNet  

13, GwcNet   https://github.com/xy-guo/GwcNet 

14,DORN  https://github.com/hufu6371/DORN 

  排名第一,有监督的,有其他人写了pytorch版的

   比较新的玩法是对深度做分类预测。

15,Deep attention-based classification network for robust depth prediction 

16,iResNet  有代码 

17,deep-vo-feat   这个是开源的,然而是caffe的,看论文效果图也不怎么样,忽略 

19,Learning Unsupervised Multi-View Stereopsis via Robust Photometric Consistency 

20,neuralrgbd   https://github.com/NVlabs/neuralrgbd     

        confidence map 这个东西在slam14讲和cnn-slam里头都有提到过

22,DeepVIO    19年7月份刚出的,没开源,双目+imu,思路还是比较简单的,

  把光流、深度估计、imu凑一块,简直要大一统了,以后这种工作只会越来越多。

  光流适合处理移动物体,imu提供绝对尺度。VINet虽然开源了,但是还封装了c++,

  不好编译,希望能有一个包含imu信息的纯python版的VIO算法。

23,StereoNet,有人复现了pytorch版。

24,DeepVO   有一大堆复现,看着这些监督式的算法我就想把它们改成非监督的,改成

  非监督的也非常容易,直接把非监督后面计算loss的部分怼上去就可以了。

25,暂且叫 virtual normal 吧     https://arxiv.org/abs/1907.12209  

  这个还是监督的。

  深度一致、法线一致、语义一致 这三个玩法后续肯定还会出不少文章。

26,ActiveStereoNet  

最近 2019年5月3日两篇文章还不错,但是还没看到开源,先记着:

Depth from Videos in the Wild: Unsupervised Monocular Depth Learning from Unknown Cameras

https://github.com/google-research/google-research/tree/master/depth_from_video_in_the_wild 

这篇文章说可以从视频中学出相机内参来,牛逼,这样的话网上的视频也可以用来估计深度了

Learning the Depths of Moving People by Watching Frozen People

frozen这篇只有推断的代码,https://github.com/google/mannequinchallenge  没有训练代码 

wild这篇估计不会放源代码出来了

推荐一个库: https://github.com/floatlazer/semantic_slam   基本上是做全套了。

后续我估计会基于这个库把深度估计融进去,换掉rgbd和orbslam的部分。

27,待续  ...

原文地址:https://www.cnblogs.com/shepherd2015/p/10438564.html