“机器学习/深度学习方法“系列,我本着开放与共享(open and share)的精神撰写,目的是让很多其它的人了解机器学习的概念,理解其原理,学会应用。如今网上各种技术类文章非常多,不乏大牛的精辟见解,但也有非常多滥竽充数、误导读者的。这个系列对教课书籍和网络资源进行汇总、理解与整理,力求一击中的,通俗易懂。机器学习非常难,是由于她有非常扎实的理论基础,复杂的公式推导;机器学习也非常easy,是由于对她不甚了解的人也能够轻易使用。我希望好好地梳理一些基础方法模型,输出一些真正有长期參考价值的内容,让很多其它的人了解机器学习。所以对自己的要求有三:(1)不瞎写,有理有据;(2)尽量写的通俗易懂;(3)多看多想,深入浅出。
本人14年博士毕业于浙大计算机系,希望与志同道合的朋友一起交流,我设立了了一个技术交流QQ群:433250724,欢迎对算法、技术、应用感兴趣的同学增加,在交流中拉通——算法与技术,让理论研究与实际应用深度融合;也希望能有大牛能来,为大家解惑授业,福泽大众。推广开放与共享的精神。假设人多我就组织一些读书会,线下交流。(如今人不多,无论做什么方向的大家都能够多多交流,希望有很多其它的人能够来讨论。)
————————————————————————————————————————————
眼下已经整理了的系列文章:
- 机器学习方法:回归(一):线性回归linear regression
- 机器学习方法:回归(二):回归、稀疏与正则约束ridge regression,Lasso
- 机器学习方法:回归(三):最小角回归Least Angle Regression,forward stagewise
selection
- 机器学习方法(四):决策树decision tree原理与实现trick
- 机器学习方法(五):逻辑回归Logistic Regression,Softmax Regression
————————————————————————————————————————————
眼下想到的有这些topic,我就抽工作业余时间慢慢复习,慢慢写
content:
linear regression, Ridge, Lasso
LARS
Logistic Regression, Softmax
Kmeans, GMM, EM, Spectral Clustering
Dimensionality Reduction: PCA、LDA、Laplacian
Eigenmap、 LLE、 Isomap(改动前面的blog)
SVM
Decision Tree: ID3、C4.5
Apriori,FP
优化方法:BFGS method,SGD,Conjugate gradient,Coordinate
descent等
PageRank
minHash, LSH, Hashing
Manifold Ranking,EMR(这种方法是我博士期间论文发表的)
PLSA,LDA
Deep Learning Basics:
MLP
RBM
CNN
AutoEncoder,DAE,SAE
RNN
还有非常多其它的
待补充