2016-11-28 23:26:39
零零散散的学习就是感觉效率很低.....
日期 | 任务 | 备注 |
星期一 | 晚上就把仿射和透视变换矩阵理了一下,把透视的线性插值明白了。课外学习为0 | 晚上不效率低 |
星期二 | 上午和早些晚上分析了特殊样本,晚上看了ANN的基本原理,然后看算法之美的数组部分 | 晚上头脑清楚 |
星期三 | 上午就ANN代码流程看了一遍,初步实验了一下,下午汪博说了一下找到角点后计算置信度和和四个角的问题;妈蛋开会再也不要说自己没有事干,说话的声音大一点,训练一下自己;晚上就开始编码,虽然思路流程很简单,但是实际写的时候,才会去关注这些角度和斜率怎么去对应,晚上回寝室还调试了一下。 | 交流时声音洪亮点,不要随便说自己没事!!! |
星期四 | 今天早上继续调试,测试代码;然后继续添加了均值和方差,偏移点的图像特征;晚上上课。。 | |
星期五 | 今天开始接触清分机的程序,需要在里面实现一个共功能,即表明角点和边线上的点;这样方便调试查看仿射是否正确 | |
星期六 | 上午把清分机上标注角点的功能实现了一下,下午完成了学术道德的mooc还有实验室安全考试,晚上班级聚会 | |
星期七 | 今天其实大部分时间都在弄git bash 和git gui 的操作,基本问题都解决了,算法之美第二章完成。英语作业还没有搞。。。 |
注:
2016-11-29 23:36:48 ANN首先明白感知器和线性单元的基本模型,感知器就是多个输入通过,一个输出,通过阈值处理得到结果;线性单元就是没有阈值处理得感知器。优化目标实际输出与目标输出得平方误差;通过梯度下降法寻求局部最优,可能不是全局最优,调整权值向量时,利用全部输入样本;增量梯度法就调整权值时利用自身样本。然后引入多层神经网络,主要讲三层结构,为了引入非线性决策,使用了Sigmiod函数,让感知器输出通过Sigmoid函数,在输入到下层网络中。将梯度下降法引入到多层神经网络中,要调整隐藏层和输出层的权值。(暂时记得这些,还有很多细节理解了)