• 机器学习-模型评估与选择


    经验误差与过拟合

    错误率:分类错误的样本数占总样本数的比例。(测试样本)

    精度:1-错误率

    训练误差(经验误差):学习模型在训练数据上的误差。

    泛化误差:学习模型在新样本上的误差。

    过拟合:学习模型将训练数据学习的太好,将训练样本的某些特征视为样本共有特征,导致泛化性能下降。(将没有锯齿的树叶识别为不是树叶)

    欠拟合:学习样本特征不足。(将一棵树识别为树叶)

    评估方法

    留出法:直接将数据集划分为两个互斥的集合,一个用于训练,一个用于测试。将测试误差看做泛化误差。两个集合的类别比例差别不应太大,否则影响误差。使用留出法时,一般采用若干次随机划分,重复试验后,取平均值作为评价结果。通常2/3 - 4/5 的样本用于训练,剩余样本用于测试。

    交叉验证法:将数据集划分成k个子集,每个子集的样本分类比例应大致相同。每次使用(k-1)个子集进行训练,剩余的子集进行测试,进行k次试验,最终取k个测试的结果的均值为评估结果。通常随机划分数据集为k份,重复p次,称为p次k折交叉验证。最终取p次的均值。

    自助法:直接以自助采样法为基础,数据集D有m个样本,在D中随机抽取一个样本,放入E中,进行m次,将E作为训练样本,将D-E作为测试样本(未在E中出现的部分样本),一般当数据集较大时,只采用留出法和交叉验证法。

    性能度量

    对学习器的泛化性能进行评估,不仅需要有效可行的实验估计方法,还需要衡量模型泛化能力的评价标准,这就是性能度量。

    回归任务常用的性能度量:均方误差

     通常还需要查准率和查全率,两者关系成反相关。

     查准率 = TP / ( TP + FP )

     查全率 = TP / ( TP + FN )

  • 相关阅读:
    Centos7搭建OpenNebula云平台
    Python中__new__和__init__的区别与联系
    16个python常用魔法函数
    微信小程序< 1 > ~ Hello 微信小程序
    扬帆起航,再踏征程(一)
    Java 社区平台
    Java 社区平台
    <Android 应用 之路> 一个类似今日头条的APP
    使用标准C读取文件遇到的结构体对齐问题及其解决办法
    编译64位cu文件的设置
  • 原文地址:https://www.cnblogs.com/2016-zck/p/13947155.html
Copyright © 2020-2023  润新知