深度学习印象

数据犹如滔滔河水,神经网络犹如控制河道形状的迂回曲折的河岸线、犹如阻挡水势的石头和土山。当数据的河流冲刷河道山石时,河道山石的形状就发生了变化,从而水流的形状也发生了变化。

每一条河流都有自己理想的大海,犹如每一个数据都有自己的标签。河流总是一往无前地朝着大海前进,对于阻碍它行程的河道土石拼力冲刷。

当训练数据对河道山石冲刷地差不多时,这个数据上的河道就确定了。当“没有理想”的数据之河流来时,河道山石固定的形状就会把这条“测试”的河流引向大海。

所以,神经网络其实就是在拟合数据,就像河道山石在拟合河流。如果训练数据和测试数据不一样,那么河道必然不同。

有一个大盒子,里面有各种各样的挡板,把一堆球投入盒子,这些球就会在盒子里面“乒乒乓乓”一顿乱撞,最后各种小球落入各个小孔。大盒子的构造一旦确定,它就只能对特定的数据生效。

深度学习就是在研究如何构造容易被变形的“河道山石”和“大盒子”。

为什么深度学习泛化效果好?因为数据少的话会过拟合。数据多必然能够冲刷河道,让河道更“正统”。

由此观之,我们需要制造的是容易被数据之流冲刷的“结构”。

神经网络不是唯一的选择。神经网络的结构是可以超级丰富多彩的。

原文地址:https://www.cnblogs.com/weiyinfu/p/9698047.html