• 机器学习中常见的损失函数


    损失函数是用来估量你模型的预测值f(x)与真实值Y的不一致程度,它是一个非负实值函数,通常使用L(Y, f(x))来表示,损失函数越小,模型的鲁棒性就越好。损失函数是经验风险函数的核心部分,也是结构风险函数重要组成部分。模型的结构风险函数包括了经验风险项和正则项,通常可以表示成如下式子:

    其中,前面的均值函数表示的是经验风险函数,L代表的是损失函数,后面的Φ是正则化项或者叫惩罚项,它可以是L1,也可以是L2,或者其他的正则函数。整个式子表示的意思是找到使目标函数最小时的θ值。下面主要列出几种常见的损失函数:

    n log对数损失函数(逻辑回归)

    平方损失函数(最小二乘法

    指数损失函数(Adaboost

    n Hinge损失函数(SVM

    n 0-1损失

    n 绝对值损失

    1. log对数损失函数(逻辑回归) 

    Logistic回归的损失函数就是对数损失函数,在Logistic回归的推导中,它假设样本服从伯努利分布(0-1)分布,然后求得满足该分布的似然函数,接着用对数求极值。Logistic回归并没有求对数似然函数的最大值,而是把极大化当做一个思想,进而推导它的风险函数为最小化的负的似然函数。从损失函数的角度上,它就成为了log损失函数,其标准形式: 

    Logistic回归目标式子如下:

    如果是二分类的话,则m值等于2,如果是多分类,m就是相应的类别总个数。

    1. 平方损失函数(最小二乘法, Ordinary Least Squares )

    最小二乘法是线性回归的一种方法,它将回归的问题转化为了凸优化的问题。最小二乘法的基本原则是:最优拟合曲线应该使得所有点到回归直线的距离和最小。通常用欧式距离进行距离的度量。当样本个数为n时,此时的损失函数变为:

    Y-f(X)表示的是残差,整个式子表示的是残差的平方和,而我们的目的就是最小化这个目标函数值(注:该式子未加入正则项),也就是最小化残差的平方和。

    而在实际应用中,通常会使用均方差(MSE)作为一项衡量指标,公式如下:

    1. 指数损失函数(Adaboost)

    指数损失函数(exp-loss)的标准形式如下:

     

    可以看出,Adaboost的目标式子就是指数损失,在给定n个样本的情况下,Adaboost的损失函数为:

         

    关于Adaboost的推导,可参考《统计学习方法》P145.

    1. Hinge损失函数(SVM)

    Hinge loss用于最大间隔(maximum-margin)分类,其中最有代表性的就是支持向量机SVM。Hinge函数的标准形式:

     

    其中,t为目标值(-1或+1),y是分类器输出的预测值,并不直接是类标签。其含义为,当t和y的符号相同时(表示y预测正确)并且|y|≥1时,hinge loss为0;当t和y的符号相反时,hinge loss随着y的增大线性增大。可以参考《统计学习方法》P113.

    1. 0-1损失函数

    在分类问题中,可以使用函数的正负号来进行模式判断,函数值本身的大小并不是很重要,0-1损失函数比较的是预测值与真实值的符号是否相同,0-1损失的具体形式如下:

     

    1. 绝对值损失函数

    绝对损失函数的意义和平方损失函数差不多,只不过是取了绝对值而不是求绝对值,差距不会被平方放大,其形式为:

                        

    以上简单列出几种常见的损失函数,详情可参考相关资料进行深入了解。

  • 相关阅读:
    白学jquery Mobile《构建跨平台APP:jQuery Mobile移动应用实战》串行4(场景变化)
    Effective C++:规定20: 宁pass-by-reference-to-const更换pass-by-value
    UI布局术语
    The Runtime Interaction Model for Views-UI布局事件处理流程
    布局的核心在于求解位置和尺寸
    Masonry 原理与使用说明
    布局、约束与函数
    Masonry 原理一
    Masonry基础API
    margin与padding如何进行区分
  • 原文地址:https://www.cnblogs.com/houjun/p/8956384.html
Copyright © 2020-2023  润新知