2020.9.14、星期一

1、偏置什么时候可以不要?

 BN操作,里面有一个关键操作

     其中x1 = x0 * w0 + b0,而E[x1] = E[x0*w0] + b0, 所以对于分子而言,加没加偏置,没有影响;

而对于下面分母而言,因为Var是方差操作,所以也没有影响(为什么没影响,回头问问你的数学老师就知道了)。

所以,卷积之后,如果要接BN操作,最好是不设置偏置,因为不起作用,而且占显卡内存。

2、github周末编辑的内容没有上传

3、hourglass

 上面这个是single hourglass,每一个方框都是residual block, 如果简化的话可以将residual 改为常规的cnn

 层和层之间的连接关系

Layer Implementation

  他的动机是捕捉所有尺寸的信息,网络的最小的分辨率是4*4像素

  网络设置: CNN+maxpooling 用来将feature 分辨率降低,每一个maxpooling step之前都会进行一个卷积

  输入是256*256的分辨率需要一个很大的GPU内存,因此hourglass输入最大的分辨率是64*64, 这个不会影响网络产生精确的joint的能力

  网络开始是7*7的卷积层,步长是2, 然后是residual module 和一个max pooling 将分辨率从256降低到64

Stacked Hourglass with Intermediate Supervision

  stacked hourglass的关键是,我们可以在哪一个feature map 上计算loss

     

     每一个single hourglass ,都对loss 有贡献的情况下,对于pose estimate效果好

  蓝色的是1*1的卷积网络用来提升卷积的featuremap 数目的,这里是expansion

  

原文地址:https://www.cnblogs.com/yunshangyue71/p/13664921.html