[基础] 广义线性回归

本质上,linear,Logistic,Softmax 都是一个东西推导出来的。
就是广义线性模型。
这些分布之所以长成这个样子,是因为我们对y进行了假设。
当y是正太分布-------->linear model
当y是两点分布-------->Logistic model
当y是多项式分布-------->Softmax
只要y的分布是指数分布族的(还有若干假设),都可以用一种通用的方法推导出h(x)。
所以你去了解一下广义线性模型,他推导出来就是这个样子的。
 
 
可以用。然而logistic回归时用来解决二元分类问题的,可以用classification解决的问题最好不要用regression,因为不容易优化
It is important to note that the L2 loss is much harder to optimize than a more stable loss such as Softmax. Intuitively, it requires a very fragile and specific property from the network to output exactly one correct value for each input (and its augmentations)
摘自:CS231n Convolutional Neural Networks for Visual Recognition
另外logistic这个奇葩函数也不是YY出来的,主要还是假设sample服从伯努利分布,最大化log likelihood函数(对其求导)后推到出的假设函数。而mse是假设sample服从高斯分布,最大化log likelihood函数后得到的假设函数。详情可以参见Andrew Ng的machine learning公开课Lecture notes 1,section 5


作者:午后阳光
链接:https://www.zhihu.com/question/23817253/answer/86204673
来源:知乎
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。
原文地址:https://www.cnblogs.com/littletail/p/5242562.html