花了一周的时间,去看完github看一篇star数目最高的关于深度学习的帖子,怎么说呢,本人认为深度学习在国内目前还是停留在理论阶段较多,实际应用较少,先讲下深度学习的基础后,回来再来看为什么这么说?
git上的帖子主要介绍的关于深度学习基础知识有:
1.神经网络的反向传递
2.CNN(卷积神经网络)
3.RNN(循环神经网络)
4.LSTM(长短期记忆网络)
关于深度学习这些网络的介绍,我总结出,里面涉及到很多线性代数和微积分的知识(其实主要是矩阵和偏导数),整体思路大致是说怎么模拟人脑的工作原理,接着利用数学建模来实现之,这部分研究目前主要停留在理论阶段,比较前沿。
接着就是自然语言处理(NLP)介绍,它目前的主要用途还是在句子和语篇的分析,比如给你一句话或者一篇文章,你利用NLP可以将其划分成我们人脑可以理解的分段。
最后说下,深度学习目前已经应用的领域,
1.文本分类
2.语言模型
3.图像字幕
4.机器翻译
5.问答系统
6.语音识别
7.自动文摘