• 机器学习基础 | 回归模型评估指标


    回归模型中常用的评估指标可以分如下几类:

    • MAE系列,即由Mean Absolute Error衍生得到的指标;
    • MSE系列,即由Mean Squared Error衍生得到的指标;
    • R²系列;
      注:在英语中,error和deviation的含义是一样的,所以Mean Absolute Error也可以叫做Mean Absolute Deviation(MAD),其他指标同理可得;

    MAE系列

    MAE全称Mean Absolute Error(平均绝对误差)。
    更多参考
    设N为样本数量,第(i)个样本的实际值为(y_i),预测值为(y'_i),那么MAE的定义如下

    [MAE = frac{1}{N}sum^N_{i=1}|y_i-y'_i| ]

    由MAE衍生可以得到:

    • Mean Absolute Pencentage Error(MAPE,平均绝对百分比误差),相当于加权版的MAE.

    [MAPE = frac{1}{N}sum^N_{i=1}iggl|frac{y_i-y'_i}{y_i}iggr| ]

    MAPE可以看做是MAE和MPE(Mean Percentage Error)综合而成的指标

    [MPE = frac{1}{N}sum^N_{i=1}frac{y_i-y'_i}{y_i} ]

    从MAPE公式中可以看出有个明显的bug——当实际值(y_i=0)时就会得到无穷大值(实际值(|y_i|<1)时也会过度放大误差)。为了避免这个bug,MAPE一般用于实际值不会为0的情形。

    Sungil Kima & Heeyoung Kim(2016)提出MAAPE(mean arctangent absolute percentage error) 方法,在保持MAPE的算法思想下克服了上面那个bug(更多参考 A new metric of absolute percentage error for intermittent demand forecasts,Sungil Kima & Heeyoung Kim, 2016).

    [MAAPE = frac{1}{N}sum^N_{i=1}arctaniggl(iggl|frac{y_i-y'_i}{y_i}iggr|iggr) ]

    考虑Absolute Error (|y_i-y'_i|)可能存在Outlier的情况,此时Median Abosulte Error(MedAE, 中位数绝对误差)可能是更好的选择。

    [MedAE=underset{i=1,...,N}{median}|y_i-y'_i| ]

    MSE系列

    MSE全称Mean Squared Error(均方误差),也可以称为Mean Squared Deviation (MSD).
    更多参考

    [MSE = frac{1}{N}sum^N_{i=1}|y_i-y'_i|^2 ]

    由MSE可以衍生得到均方根误差(Root Mean Square Error, RMSE, 或者RMSD)
    更多参考

    [RMSE=sqrt{MSE} = sqrt{frac{1}{N}sum^N_{i=1}|y_i-y'_i|^2} ]

    RMSE可以进行归一化(除以全距或者均值)从而得到归一化的均方根误差(Normalized Root Mean Square Error, NRMSE).
    (NRMSE = frac{RMSE}{y_{max}-y_{min}})
    或者
    (NRMSE = frac{RMSE}{overline{y}})

    RMSE还有其他变式:

    • RMSLE(Root Mean Square Logarithmic Error)

    [RMSLE = sqrt{frac{1}{N}sum^N_{i=1}igl|log(y_i+1)-log(y'_i+1)igr|^2} ]

    • RMSPE(Root Mean Square Percentage Error)

    [RMSPE=sqrt{frac{1}{N}sum^N_{i=1}iggl|frac{y_i-y'_i}{y_i}iggr|^2} ]

    对于数值序列出现长尾分布的情况,可以选择MSLE(Mean squared logarithmic error,均方对数误差),对原有数据取对数后再进行比较(公式中+1是为了避免数值为0时出现无穷值).

    [MSLE = frac{1}{N}sum^N_{i=1}igl|log(y_i+1)-log(y'_i+1)igr|^2 ]

    R²系列

    R²(R squared, Coefficient of determination),中文翻译为“决定系数”或者“拟合优度”,反映的是预测值对实际值的解释程度.
    注意:R²和相关系数的平方不是一回事(只在简单线性回归条件下成立)

    [egin{aligned} R^2 & = 1-frac{SS_{res}}{SS_{tot}} \ & = 1-frac{sum^N_{i=1}(y_i-y'_i)^2}{sum^N_{i=1}(y_i-overline{y})^2} \ end{aligned} ]

    其中(overline{y}=frac{1}{N}sum^N_{i=1}y_i),总平方和(SS_{tot})= 回归平方和(SS_{reg})+残差平方和(SS_{res}).
    (SS_{tot} = sum^N_{i=1}(y_i-y'_i)^2)
    (SS_{res} = sum^N_{i=1}(y_i-overline{y})^2)
    (SS_{reg} = sum^N_{i=1}(y'_i-overline{y})^2)

    回归模型中,增加额外的变量会提升R²,但这种提升可能是虚假的,因此提出矫正的R²(Adjusted R²,符号表示为(R^2_{adj})或者(overline{R}^2))来对模型中的变量个数进行“惩罚”((R^2_{adj} leq R^2))。

    [R^2_{adj} = 1-(1-R^2)frac{N-1}{N-1-P} ]

    公式中(P)表示回归模型中变量(特征)的个数。和(R^2)计算方式很相近的另一个指标是Explained Variance Score.

    (e_i = y_i-y'_i, overline{e}=frac{1}{N}sum^N_{i=1}e_i),则有

    [egin{aligned} explained_variance & = 1-frac{var(y-y')}{var(y)} \ & = 1-frac{sum^N_{i=1}(e_i-overline{e})^2}{sum^N_{i=1}(y_i-overline{y})^2} \ end{aligned} ]

    更多关于R²参考 :

    综上,在选用评价指标时,需要考虑:

    • 数据中是否有0,如果有0值就不能用MPE、MAPE之类的指标;
    • 数据的分布如何,如果是长尾分布可以选择带对数变换的指标,中位数指标比平均数指标更好;
    • 是否存在极端值,诸如MAE、MSE、RMSE之类容易受到极端值影响的指标就不要选用;
    • 得到的指标是否依赖于量纲(即绝对度量,而不是相对度量),如果指标依赖量纲那么不同模型之间可能因为量纲不同而无法比较;

    更多关于指标选择可以参考A Survey of Forecast Error Measures(2013) 这篇文章。

    参考资料:

    本博客所有文章仅用于学习、研究和交流目的,欢迎非商业性质转载。

    转载请注明作者及出处

  • 相关阅读:
    Unity3d在各个平台读取Sqlite3数据库
    UI
    Could..... not preload global game manager
    Asset Store 下载的package存在什么地方?
    NDK下载地址
    UGUI富文本
    Unity播放视频
    让IIS支持无后缀名访问
    PC Android IOS资料同步更新
    PHP memcached 扩展的安装
  • 原文地址:https://www.cnblogs.com/dataxon/p/12540191.html
Copyright © 2020-2023  润新知