SfMLearner 记录

-->   博客答疑说明 链接【置顶】<--

2019年7月12日18:42:34

写了个更细致的公式推导和代码解释的 sfmlearner剖析

2019年3月2日09:29:54

正在看SfMLearner的pytorch源码,意识到无监督的深度估计最重要的是利用实体的一致性

来建立loss。

对于一个不移动的物体,相机从一个pose到另一个pose,那个东西一直在那,可以通过

三维结构、光照 等不会突变来建立loss。

对于移动的刚性物体,比如汽车,可以先检测出来,再做一致性的约束。

对于移动的非刚性物体,比如人啊、狗啊之类的,还需要另外的模型来描述。我记得是有

不少这方面的优秀的工作的。

可以做的比 生成一个检测运动区域的mask 更近一步。

2019年3月6日15:55:31

又看到了arxiv上好几篇无监督的单目深度估计论文看起来还不错...

深度学习加slam的方向发展太快了...

2019年3月11日19:05:37

static_frames.txt 是采集数据的 车子停下来 的画面的图像编号。

看了一天的sfmlearner和struct2depth的 tf 代码。struct2depth报了个错,还没跑起来。

忽然想到把单目深度估计发展出来的技巧用到双目上,岂不是又可以提升一波?

想要重构一下 tf 的代码以方便调试,发现 tf 根本就没有什么操作空间啊!tf 真的是反人类!

真的有 茴字的四种写法 这个问题。。。

2019年3月13日09:11:46 

看的是下面这个库里的代码:

https://github.com/ClementPinard/SfmLearner-Pytorch 

因为要训练自己拍的视频,所以要了解data_loader。自己的数据集肯定没有kitti那么复杂,

就是拍了视频,然后分解成图片。就 000001.jpg、000002.jpg、...... 加上一个内参

 1 首先是读入了图片并resize到 128 x 416大小
 2 # 在 kitti_raw_loader.py   load_image 函数
 3 img = scipy.misc.imread(img_file)
 4 zoom_y = self.img_height/img.shape[0]  # 这里把原始图片resize到指定尺寸了
 5 zoom_x = self.img_width/img.shape[1]   # self.img_height = 128  self.img_width = 416
 6 
 7 img = scipy.misc.imresize(img, (self.img_height, self.img_width))
 8 return img, zoom_x, zoom_y  # 返回的是长宽的比例系数
 9 
10 然后是读入了原始的相机矩阵P,并乘以上面的缩放系数
11 # get_P_rect 函数
12 filedata = self.read_raw_calib_file(calib_file)
13 P_rect = np.reshape(filedata['P_rect_' + scene_data['cid']], (3, 4)) 
14 # 这里读入了 投影矩阵 P 并 reshape 成了 3 x 4 的矩阵
15 # P_rect_02:
16 # [[ 7.183351e+02  0.000000e+00  6.003891e+02  4.450382e+01]
17 # [ 0.000000e+00  7.183351e+02  1.815122e+02 -5.951107e-01]
18 # [ 0.000000e+00  0.000000e+00  1.000000e+00  2.616315e-03]]
19 
20 P_rect[0] *= zoom_x  # 对第一行和第二行乘以一个比例系数
21 P_rect[1] *= zoom_y
22 return P_rect
23 
24 然后是做了 
25 scene_data['intrinsics'] = scene_data['P_rect'][:,:3] # 只取前3列,得到内参
26 得到缩放后的内参
27 
28 这样的话,图片也缩放到了指定尺寸,内参也缩放了,可以送入网络了
29 自己的数据也要做一样的操作。
30 
31 然后是 sequence_folders.py
32 for i in range(demi_length, len(imgs)-demi_length): # 1,321-1
33     sample = {'intrinsics': intrinsics, 'tgt': imgs[i], 'ref_imgs': []}
34     for j in shifts: # shifts = [-1, 1]
35         sample['ref_imgs'].append(imgs[i+j])  # tgt 是 i   ref 是 i-1 和 i+1
36 
37 到了实际要输入网络的时候,再__getitem__读入图片并做 transform
38 custom_transforms.py里也有对图片做随机裁剪时内参要做什么操作的代码。

2019年3月22日13:12:11 

之前训练了一个晚上的sfmlearner,1600张图片,跑了200个epoch,valid loader误用了

train_transform,不过应该没什么大碍,但是最后看效果相当不好,只能简单的区分出远近,

而且预测出来的深度闪来闪去。这个纯当练手了,不打算继续训练了。

需要注意的一点是:手机拍摄自己的训练视频时,尽量走快一点,不要停留!

我手机拍的视频,绕着建筑物走一圈,拍了差不多五分钟,8100张图片,

但是看图片的话帧间运动有点小,所以每隔5帧抽一帧出来训练,所以只有1600张图片。

还简单训练了下LKVO,或者叫DDVO,收敛的确比较快,但是运动部分和黑色区域的预测简直

就是反的!离的近的预测成了离的远!可能是我迭代次数不够。后续有时间再细读代码。

搞 struct2depth 去了。

原文地址:https://www.cnblogs.com/shepherd2015/p/10459748.html