• 4.3_回归性能评估与欠拟合|过拟合


     

    欠拟合与过拟合

    机器学习中的泛化,泛化即是,模型学习到的概念在它处于学习的过程中时模型没有遇见过的样本时候的表现。在机器学习领域中,当我们讨论一个机器学习模型学习和泛化的好坏时,我们通常使用术语:过拟合和欠拟合。我们知道模型训练和测试的时候有两套数据,训练集和测试集。在对训练数据进行拟合时,需要照顾到每个点,而其中有一些噪点,当某个模型过度的学习训练数据中的细节和噪音,以至于模型在新的数据上表现很差,这样的话模型容易复杂,拟合程度较高,造成过拟合。而相反如果值描绘了一部分数据那么模型复杂度过于简单,欠拟合指的是模型在训练和预测时表现都不好的情况,称为欠拟合。

    我们来看一下线性回归中拟合的几种情况图示:

    heta_0+ heta_1{x}θ0​​+θ1​​x

    heta_{0}+ heta_{1}{x}+ heta_{2}x^{2}θ0​​+θ1​​x+θ2​​x2​​

    heta_{0}+ heta_{1}{x}+ heta_{2}x^{2}+ heta_{3}x^{3}+ heta_{4}x^{4}θ0​​+θ1​​x+θ2​​x2​​+θ3​​x3​​+θ4​​x4​​

    还有在逻辑回归分类中的拟合情况:

    解决过拟合的方法

    在线性回归中,对于特征集过小的情况,容易造成欠拟合(underfitting),对于特征集过大的情况,容易造成过拟合(overfitting)。针对这两种情况有了更好的解决办法

    欠拟合

    欠拟合指的是模型在训练和预测时表现都不好的情况,欠拟合通常不被讨论,因为给定一个评估模型表现的指标的情况下,欠拟合很容易被发现。矫正方法是继续学习并且试着更换机器学习算法。

    过拟合

    对于过拟合,特征集合数目过多,我们需要做的是尽量不让回归系数数量变多,对拟合(损失函数)加以限制。

    (1)当然解决过拟合的问题可以减少特征数,显然这只是权宜之计,因为特征意味着信息,放弃特征也就等同于丢弃信息,要知道,特征的获取往往也是艰苦卓绝的。

    (2)引入了 正则化 概念。

    直观上来看,如果我们想要解决上面回归中的过拟合问题,我们最好就要消除x_3x3​​和x_4x4​​的影响,也就是想让 heta_3{,} heta_4θ3​​,θ4​​都等于0,一个简单的方法就是我们对 heta_3{,} heta_4θ3​​,θ4​​进行惩罚,增加一个很大的系数,这样在优化的过程中就会使这两个参数为零。

  • 相关阅读:
    需求分析与原型设计
    调研《构建之法》指导下的全国高校的历届软工实践作品
    对实践项目完成后学习到的能力的预期
    NOIP2020赛前调整
    CSP-S2020赛前心态调整
    CSP-S2019认证
    如何在数据库中存储IP地址
    jmeter手写脚本,使用正则获取cookie(禁用cookies管理器)
    LoadRunner如何监控Linux下的系统资源
    LR回放https协议脚本失败:[GENERAL_MSG_CAT_SSL_ERROR]connect to host "XXX" failed:[10054] Connection reset by peer [MsgId:MERR-27780]
  • 原文地址:https://www.cnblogs.com/alexzhang92/p/10070270.html
Copyright © 2020-2023  润新知