关于”机器学习方法“,"深度学习方法"系列

“机器学习/深度学习方法“系列,我本着开放与共享(open and share)的精神撰写,目的是让很多其它的人了解机器学习的概念,理解其原理,学会应用。如今网上各种技术类文章非常多,不乏大牛的精辟见解,但也有非常多滥竽充数、误导读者的。这个系列对教课书籍和网络资源进行汇总、理解与整理,力求一击中的,通俗易懂。机器学习非常难,是由于她有非常扎实的理论基础,复杂的公式推导;机器学习也非常easy,是由于对她不甚了解的人也能够轻易使用。我希望好好地梳理一些基础方法模型,输出一些真正有长期參考价值的内容,让很多其它的人了解机器学习。所以对自己的要求有三:(1)不瞎写,有理有据;(2)尽量写的通俗易懂;(3)多看多想,深入浅出。


本人14年博士毕业于浙大计算机系,希望与志同道合的朋友一起交流,我设立了了一个技术交流QQ群:433250724,欢迎对算法、技术、应用感兴趣的同学增加,在交流中拉通——算法与技术,让理论研究与实际应用深度融合;也希望能有大牛能来,为大家解惑授业,福泽大众。推广开放与共享的精神。假设人多我就组织一些读书会,线下交流。(如今人不多,无论做什么方向的大家都能够多多交流,希望有很多其它的人能够来讨论。)


————————————————————————————————————————————

眼下已经整理了的系列文章:

  1. 机器学习方法:回归(一):线性回归linear regression
  2. 机器学习方法:回归(二):回归、稀疏与正则约束ridge regression,Lasso
  3. 机器学习方法:回归(三):最小角回归Least Angle Regression,forward stagewise selection
  4. 机器学习方法(四):决策树decision tree原理与实现trick
  5. 机器学习方法(五):逻辑回归Logistic Regression,Softmax Regression








————————————————————————————————————————————

眼下想到的有这些topic,我就抽工作业余时间慢慢复习,慢慢写

content: 
linear regression, Ridge, Lasso 

LARS

Logistic Regression, Softmax 
Kmeans, GMM, EM, Spectral Clustering 

Dimensionality Reduction: PCA、LDA、Laplacian Eigenmap、 LLE、 Isomap(改动前面的blog) 
SVM 
Decision Tree: ID3、C4.5 
Apriori,FP 

优化方法:BFGS method,SGD,Conjugate gradient,Coordinate descent等
PageRank
minHash, LSH, Hashing

Manifold Ranking,EMR(这种方法是我博士期间论文发表的)

PLSA,LDA


Deep Learning Basics:

MLP

RBM

CNN

AutoEncoder,DAE,SAE

RNN

还有非常多其它的


待补充 





原文地址:https://www.cnblogs.com/mfrbuaa/p/4506110.html