• 机器学习中的目标函数、损失函数、代价函数


    1、损失函数(代价函数)

    损失函数(loss function)是用来估量模型的预测值f(x)与真实值Y的不一致程度,它是一个非负实值函数,通常使用L(Y, f(x))来表示,损失函数越小,模型的鲁棒性就越好。损失函数和代价函数是同一个东西,目标函数是一个与它们相关但更广的概念。

    上面三个图的函数依次为 f_{1}(x) , f_{2}(x) , f_{3}(x) 。我们是想用这三个函数分别来拟合Price,Price的真实值记为 Y

    我们给定 x ,这三个函数都会输出一个 f(X) ,这个输出的 f(X) 与真实值 Y可能是相同的,也可能是不同的,为了表示我们拟合的好坏,我们就用一个函数来度量拟合的程度,比如:

    L(Y,f(X)) = (Y-f(X))^2 ,这个函数就称为损失函数(loss function),或者叫代价函数(cost function)。损失函数越小,就代表模型拟合的越好

    那是不是我们的目标就只是让loss function越小越好呢?还不是。

    这个时候还有一个概念叫风险函数(risk function)。风险函数是损失函数的期望,这是由于我们输入输出的 (X,Y) 遵循一个联合分布,但是这个联合分布是未知的,所以无法计算。但是我们是有历史数据的,就是我们的训练集, f(X) 关于训练集的平均损失称作经验风险(empirical risk),即 frac{1}{N}sum_{i=1}^{N}L(y_{i},f(x_{i})) ,所以我们的目标就是最小化 frac{1}{N}sum_{i=1}^{N}L(y_{i},f(x_{i})) ,称为经验风险最小化

    统计学习常用的损失函数有以下几种:

    1)0-1损失

      

    2)平方损失函数

      

      当样本个数为n时,此时的损失函数变为:

      

      在实际应用中,通常会使用均方差(MSE)作为一项衡量指标

       

     3)绝对损失函数

      

    4)对数损失函数

      

    2、目标函数

    如果到这一步就完了的话,那我们看上面的图,那肯定是最右面的 f_3(x) 的经验风险函数最小了,因为它对历史的数据拟合的最好嘛。但是我们从图上来看 f_3(x)肯定不是最好的,因为它过度学习历史数据,导致它在真正预测时效果会很不好,这种情况称为过拟合(over-fitting)。

    为什么会造成这种结果?大白话说就是它的函数太复杂了,都有四次方了,这就引出了下面的概念,我们不仅要让经验风险最小化,还要让结构风险最小化。这个时候就定义了一个函数 J(f) ,这个函数专门用来度量模型的复杂度,在机器学习中也叫正则化(regularization)。常用的有 L_1 , L_2 范数。

    到这一步我们就可以说我们最终的优化函数是:minfrac{1}{N}sum_{i=1}^{N}L(y_{i},f(x_{i}))+lambda J(f) ,即最优化经验风险和结构风险,而这个函数就被称为目标函数

    结合上面的例子来分析:最左面的 f_1(x) 结构风险最小(模型结构最简单),但是经验风险最大(对历史数据拟合的最差);最右面的 f_3(x) 经验风险最小(对历史数据拟合的最好),但是结构风险最大(模型结构最复杂);而 f_2(x) 达到了二者的良好平衡,最适合用来预测未知数据集。

    参考:

    【作者:zzanswer,链接:https://www.zhihu.com/question/52398145/answer/209358209来源:知乎】

    【机器学习-损失函数:http://www.csuldw.com/2016/03/26/2016-03-26-loss-function/

  • 相关阅读:
    struts2 action 之间的跳转
    json格式字符串用jquery.parseJSON()出现的问题 Uncaught SyntaxError: Unexpected token ' Uncaught SyntaxError: Unexpected number (index)
    转:Java生成带有二维码图片的word文档
    PowerDesigner 15 进行 数据库反转到 数据库模型
    模型方案参数更改 对比栏入选模型方案 图表效果对比 已不在项目中使用
    久违的博客园
    [转]不要if else的编程
    希望
    eclipse修改源码导出jar包
    compareTo 比较器
  • 原文地址:https://www.cnblogs.com/xhslovecx/p/10272068.html
Copyright © 2020-2023  润新知