深度学习---复习三次周报之前的所有内容!

今天是交完第三次周报的日子,总的来说,自己其实看的并不多,一共过了多久我想想啊,两周+3天,每周五一次周报,等这事儿有结果了我会把总体上6个周的周报贴上来,今天来图书馆看到了一个剧好看的妞哈哈哈,我生活的乐趣=看妞+看技术,虽然我还是和之前一样是一个技术渣子,但是有人愿意给我机会,这个事情本身就很难得。。。。不扯淡了,今天要个联系方式呗。我感觉可以试一下,成不成再说,希望她没有同伙吧。这个妞看的书叫做“青岛物语”,成功了的话我会发个帖子,失败的话我会承认我很怂而且运气不好,她戴眼镜,but眼镜放在了桌子上,我感觉他是一个人。

开始今天的编程之旅!2019年4月27日

从头开始,复习一次深度学习的基础。

首先如果是单层神经网络,分为线性回归(是连续值)和softmax回归离散值用于分类

线性回归:首先要理解一些名词的定义(样本,标签,特征),然后模型中的权重和偏差,这二者都叫做模型的参数

损失函数的定义:用来衡量误差,预测值与真实值之间的误差,通常会选用非负值,比如平方函数,而且数值越小表示误差越小。比如用平方损失(square loss),使用训练数据集中所有样本的误差的平均来衡量预测的模型的质量。误差只与模型的参数有关,所以希望找出一组模型参数使得训练样本的平均损失最小。

优化算法:如果误差最小化问题可以直接用公式表达出来叫做解析解,大多数深度学习模型没有解析解,只能通过有限次迭代模型参数降低损失函数的值,这类解叫做数值解。在数值解的优化算法之中,小批量随机梯度下降(mini-batch stochastic gradient descent)被广泛使用,SGD优化算法的思想,先选取一组模型参数的初始值,比如可以随机选取;之后对参数进行多次迭代,使每次迭代都可以降低损失函数的值。在每次迭代中,先随机均匀采样一个由固定数目训练数据样本所组成的小批量(mini-batch),然后求小批量中数据样本的平均损失有关模型参数的导数(梯度),最后用此结果与预先设定的一个正数的乘积作为模型参数在本次迭代的减少量。

原文地址:https://www.cnblogs.com/huayecai/p/10779635.html