能做深度预测或估计的网络好多,记一下,有时间一个个找源码和数据跑一遍。
1,monodepth 无监督 有 tf 和 pytorch 代码
18,monodepth2 无监督 pytorch https://github.com/nianticlabs/monodepth2
Clément Godard小哥真是优秀!
2,sfmlearner 无监督 有 tf 和 pytorch 代码
作者里头有 Noah Snavely,Bundler的作者,emmm ...
3,struct2depth 无监督 只有 tf 代码 2018.11
https://github.com/tensorflow/models/tree/master/research/struct2depth
4,GeoNet 这个有3个名字一样的文章
https://github.com/xjqi/GeoNet 学了个表面法向量,看文章是监督式的
https://github.com/yzcjtr/GeoNet 额外学了个光流,这篇更出名点,非监督
还有篇arxiv1901的文章
5,SfM-Net
https://arxiv.org/abs/1704.07804
6,BA-Net 有监督 https://github.com/frobelbest/BANet 尚未公布
7,DeMoN 有监督
8,vid2depth 无监督 估计很难编译成功
https://github.com/tensorflow/models/tree/master/research/vid2depth
9,LKVOLearner https://github.com/MightyChaos/LKVOLearner pytorch 0.3
10, DeepMatchVO https://github.com/hlzz/DeepMatchVO tensorflow
引入了对极几何的约束,另一篇sfmlearner++也引入了对极约束,可以想象两篇文章
作者的酸爽。。。
11, fast-depth https://github.com/dwofk/fast-depth pytorch
12, PSMNet https://github.com/KinglittleQ/PSMNet
13, GwcNet https://github.com/xy-guo/GwcNet
14,DORN https://github.com/hufu6371/DORN
排名第一,有监督的,有其他人写了pytorch版的
比较新的玩法是对深度做分类预测。
15,Deep attention-based classification network for robust depth prediction
16,iResNet 有代码
17,deep-vo-feat 这个是开源的,然而是caffe的,看论文效果图也不怎么样,忽略
19,Learning Unsupervised Multi-View Stereopsis via Robust Photometric Consistency
20,neuralrgbd https://github.com/NVlabs/neuralrgbd
confidence map 这个东西在slam14讲和cnn-slam里头都有提到过
22,DeepVIO 19年7月份刚出的,没开源,双目+imu,思路还是比较简单的,
把光流、深度估计、imu凑一块,简直要大一统了,以后这种工作只会越来越多。
光流适合处理移动物体,imu提供绝对尺度。VINet虽然开源了,但是还封装了c++,
不好编译,希望能有一个包含imu信息的纯python版的VIO算法。
23,StereoNet,有人复现了pytorch版。
24,DeepVO 有一大堆复现,看着这些监督式的算法我就想把它们改成非监督的,改成
非监督的也非常容易,直接把非监督后面计算loss的部分怼上去就可以了。
25,暂且叫 virtual normal 吧 https://arxiv.org/abs/1907.12209
这个还是监督的。
深度一致、法线一致、语义一致 这三个玩法后续肯定还会出不少文章。
26,ActiveStereoNet
最近 2019年5月3日两篇文章还不错,但是还没看到开源,先记着:
Depth from Videos in the Wild: Unsupervised Monocular Depth Learning from Unknown Cameras
https://github.com/google-research/google-research/tree/master/depth_from_video_in_the_wild
这篇文章说可以从视频中学出相机内参来,牛逼,这样的话网上的视频也可以用来估计深度了
Learning the Depths of Moving People by Watching Frozen People
frozen这篇只有推断的代码,https://github.com/google/mannequinchallenge 没有训练代码
wild这篇估计不会放源代码出来了
推荐一个库: https://github.com/floatlazer/semantic_slam 基本上是做全套了。
后续我估计会基于这个库把深度估计融进去,换掉rgbd和orbslam的部分。
27,待续 ...