• Andrew NgML第十章应用机器学习的建议


    1.如何改进性能不好的学习算法

     图1.运用到测试集上效果不佳

     当进行一个正则化线性回归时,最小化了代价函数得到参数,但是运用到新的测试集上,发现效果不好,那么如何改进?

    1).增加训练集。但是实际上花费的时间更多,效果并不好。

    2).选取更小的特征集合。

    3).获取更多特征。

    4).加入多项式特征项。

    5).增大/减小 正则项系数lmda。

    选择这些方法时,人们大都是根据直觉来的,随便选其中一个,但是发现效果并不好。接下来会介绍一些诊断法。

    2.评估假设

    图2.选取训练集与测试集

     选取总的集合的70%作为训练集,剩下30%作为test set测试集,如果整个数据集是有序的,那么应该先乱序排列再选取集合。

     

    图3.逻辑回归中的0/1错误分类度量

    最小化代价函数,注意m_test中是测试集中数据量,设置的阈值时0.5,那么当>=0.5时,y=0,以及<0.5时,y=1这两种情况都是1,else就是0,那么测试错误率就是在整个测试机上求和/m.

     3.模型选择和训练、验证、测试集

    图4.模型选择 

     如果是进行多项式拟合的话,那么可以选择d,也就是幂次,如选择d=5时,计算其在测试集上的损失函数,很可能是最优的,那么就选d=5。

    图5.训练、交叉验证、测试集

     三者的比例是60%\20%\20%.通常是这样。cross validation(CV)

    图6.训练、交叉验证、测试误差

     

    图7.模型选择

     首先是最小化训练误差,再计算每个模型的在验证集上的验证代价,并选择最小的,使用4模型在测试集上的估计泛化误差。当测试集较大时,将其分为验证集和测试集比较好。

    4.诊断偏差与方差

    如果一个学习模型表现的不好,那么有两种可能的原因,一种是偏差过大,一种是方差过大,或者两者都有关;也就是过拟合和欠拟合的问题。

    图8.偏差/方差初步

     中间的图表示:横轴表示d,即最大幂次,拟合程度,紫色曲线表示训练误差,肯定是越来越小,趋近于过拟合;红色曲线表示验证误差,U型,当过小或者过大时,出现欠拟合和过拟合情况。

    图9.方差/偏差

     假如一个训练好的学习模型有着很大的验证误差代价或测试代价,那么到底是一个偏差问题还是方差问题呢?

    欠拟合(偏差):从图形上可以看出,当训练误差也很大,即训练误差≈验证误差,那么就是偏差问题。

    过拟合(方差):从图上可看出,当训练误差小时,&&验证误差远远大于训练误差,就是方差问题。

     5.正则化和偏差、方差

     这节深入讲解正则化是如何影响偏差和方差的。

    图10.线性回归中正则化与偏差、方差关系

     在正则化项中,当lamd取值很大时,对参数theta的惩罚很大,那么就趋近于=theta_0,得到一条水平直线,这就是大lmda对应高偏差(欠拟合问题)。

    在正则化项中,当lamd取值很小时,即相当于没有正则化,那么会出现高方差(过拟合)。

     只有当lmda不大也不小时,才能够得到一个拟合度好的学习模型。

    图11.如何选择一个正则化参数lmda

    选择2倍长的lmda,通过最小化训练机上的代价函数得到12组不同的参数theta,并且在验证集上验证,得到一组表现最好的,就选择其theta和对应的lamd,比如说是第5组,然后在测试集上得到测试误差。

    图12.lamd大小与欠拟合过拟合

    训练误差曲线没有包括正则化项。

    对于训练误差来说,当lamd较小时,即不进行正则化,则训练误差较小(出现高方差情况);当lamd较大时,出现高偏差,欠拟合。

    对于验证误差,是U型曲线。在实际情况下,曲线没有这么平滑,会有许多噪点。

    6.学习曲线

    学习曲线可以用来判断一个学习模型是偏差、方差还是二者皆有。

    图13.学习曲线

     如图的学习曲线,横轴是测试集的大小,当m=1,2,3很小时,曲线能够很好地拟合,此时训练误差=0,有正则化项时稍大于0;但是当m增大时,曲线不能够很好地拟合,训练误差会增大。

     而验证误差,是相反的,这很好理解。

    下面是在高偏差/高方差情况下的学习曲线。

    图14.高偏差情况下的学习曲线

     对于训练误差,是逐渐增大并不变保持较大,当训练集较小时还能够比较好地拟合,当训练集增大时,会逐渐增大,因为曲线基本上就固定了,所以误差持平;

    对于验证误差,是逐渐减小并持平,一开始的验证误差最大,但是两者均保持较高。

     对于一个学习算法如果高偏差,那么就算增加训练数据量也不能变好,更多的数据也没有意义。当你发现你的模型是高偏差的,那么应该感到幸运,因为可以确定当前学习算法无法再改进了。

     

    图15.高方差情况下的学习曲线

     对应于过拟合的情况,当数据量较小时基本能够很密集地拟合所有的点,当数据量增大时,拟合所有数据难度增加,训练误差增大;验证误差有下降趋势;

     当学习算法有高方差时,获取更多的数据可能是有帮助的。实际情况中,学习曲线可能有更多的噪声。

     7.决定接下来做什么

    图16.改进措施的适用情况

     之前的视频中给出了学习模型表现不好的几种方法,并且给出了对应的适用情况。

     1.获取更多的训练数据——高方差

    2.更小的特征集——高方差

    3.获取更多的特征——高偏差

    4.添加多项式特征——高偏差

    5.降低lmad——高偏差

    6.增加lmad——高方差

    图17.如何选择神经网络

     小的神经网络计算量少,参数少,可能出现欠拟合情况;大的神经网络参数更多,更可能出现过拟合情况,可以使用正则化项来很好的控制过拟合情况,计算量更大。

    如何选择隐含层的层数呢?

    可以像之前介绍的多个模型中如何选择d,可以将数据集分为训练、验证、测试集,分别训练出隐含层=1,2,3的情况,并且选择在验证集上表现最好的神经网络模型。

  • 相关阅读:
    纪念我用word发布的第一篇文章
    第一个SpringMVCHelloWorld
    JSTL学习笔记
    bonecp的使用
    hdu 1556 树状数组
    hdu 1561 树形DP
    MYSQL使用笔记
    Android中简单实现Spinner的数据绑定
    Android中利用Application实现多个Activity间共享数据
    技术到底重要不重要?
  • 原文地址:https://www.cnblogs.com/BlueBlueSea/p/9437464.html
Copyright © 2020-2023  润新知