学习计划 2016//11//28

2016-11-28    23:26:39

零零散散的学习就是感觉效率很低.....

日期 任务 备注
星期一 晚上就把仿射和透视变换矩阵理了一下,把透视的线性插值明白了。课外学习为0 晚上不效率低
星期二  上午和早些晚上分析了特殊样本,晚上看了ANN的基本原理,然后看算法之美的数组部分  晚上头脑清楚
星期三  上午就ANN代码流程看了一遍,初步实验了一下,下午汪博说了一下找到角点后计算置信度和和四个角的问题;妈蛋开会再也不要说自己没有事干,说话的声音大一点,训练一下自己;晚上就开始编码,虽然思路流程很简单,但是实际写的时候,才会去关注这些角度和斜率怎么去对应,晚上回寝室还调试了一下。 交流时声音洪亮点,不要随便说自己没事!!! 
星期四  今天早上继续调试,测试代码;然后继续添加了均值和方差,偏移点的图像特征;晚上上课。。  
星期五  今天开始接触清分机的程序,需要在里面实现一个共功能,即表明角点和边线上的点;这样方便调试查看仿射是否正确  
星期六  上午把清分机上标注角点的功能实现了一下,下午完成了学术道德的mooc还有实验室安全考试,晚上班级聚会  
星期七  今天其实大部分时间都在弄git bash 和git gui 的操作,基本问题都解决了,算法之美第二章完成。英语作业还没有搞。。。  

注:

2016-11-29  23:36:48  ANN首先明白感知器和线性单元的基本模型,感知器就是多个输入通过,一个输出,通过阈值处理得到结果;线性单元就是没有阈值处理得感知器。优化目标实际输出与目标输出得平方误差;通过梯度下降法寻求局部最优,可能不是全局最优,调整权值向量时,利用全部输入样本;增量梯度法就调整权值时利用自身样本。然后引入多层神经网络,主要讲三层结构,为了引入非线性决策,使用了Sigmiod函数,让感知器输出通过Sigmoid函数,在输入到下层网络中。将梯度下降法引入到多层神经网络中,要调整隐藏层和输出层的权值。(暂时记得这些,还有很多细节理解了)

原文地址:https://www.cnblogs.com/ranjiewen/p/6111874.html