啦啦啦 今天开始机器学习的课程
在看斯坦福老师在网易公开课里讲的课,学习机器学习是会让人兴奋的
octave 与 matlab,看情况是不是要重新安装一下。
(但是我的主要目的还是要了解什么是机器学习,以及知道怎么在实际项目中使用这些思维)
1.监督学习,通过之前的特征量,预测下次有类似输入时的输出量。
第一节课,
监督学习:有标准答案的对新的情况进行预测
学习理论:这个自然是要学习的,感觉主要还是那些算法
无监督学习:聚类问题,找出特殊数据结构。3D图像呈现,原来那个声音分离的应用算法在2011年就已经出来了啊
强化学习:定义好与坏,倒着飞的直升机
第二节课,
监督学习中的批梯度下降算法,随机梯度下降算法,就看到各种偏导数,然后会逐渐逼近我们要求导的东西。
感觉就是从之前的模型中提取对应的特征量,然后对于新输入的东西进行计算预测。
然后今天还看了关于AI芯片和普通芯片的区别,机器学习关键还是并行计算。
然后GPU刚好可以支持,其次是不同cpu要执行算法上指令集限制运算量肯定没有AI芯片那种定制的强悍。
吴恩达老师,机器学习讲课分享之后才出名的吧。牛逼的人都是要会分享自己经验的。
第三节课,
拟合与欠拟合,局部回归函数,logstic函数,最小二乘回归。(数学逼近,通过计算把模型逼近真实的实验数值)
这个让我想到了,唤醒模型的训练,需要依靠设备对应的录音来进行抓取特征量。所以整套方案可以解决。
第四节课,
牛顿方法,然后分享了推导过程以及分析方法~ 太多符号,总结就是看不懂
牛顿方法,看百度寻找函数解的方法。但
有个特点,像这些课反复出现正态分布(高斯分布),以及概率的曲线,泊松分布。
工作上:要对于某些场景进行建模,所以(需要找到几个已经使用机器学习运行的算法场景,来操作)
第五节课,
生成学习算法,我感觉对于图像,一张图像过来,然后通过不同的算法对这个图像进行计算分析。
然后在根据这些分析数据进行某些匹配,但感觉这个也还只是信号处理的一种呀。和机器学习没有什么关系
机器学习是根据概率进行最适匹配,泊松分布
贝叶斯分类算法,lapulasi平滑过渡(连续客场5场比赛都输,第六场获胜概率)
第六节课,
或许我只能坚持到这里啦
http://open.163.com/special/opencourse/machinelearning.html 这个是学习的网址
剩下的算法以及推导有
朴素贝叶斯算法
最优间隔分类器
顺序最小优化算法
经验风险最小化
特征选择
贝叶斯统计正则化
K-means算法
高斯混合模型
主成分分析法
奇异值分解
马尔科夫决策过程
离散与维数灾难
线性二次型调节控制
微分动态规划
策略搜索
(๑╹◡╹)ノ""" 就先这样,以后再来看啦