• 损失函数总结


    1. 前言

    在机器学习中,不同的问题对应了不同的损失函数,不同的损失函数也直接会影响到收敛的快慢和结果的好坏,下面就从不同的损失函数的角度进行一下梳理。

    2. 0-1损失函数

    0-1损失是指,预测值和目标值不相等为1,否则为0

    3. log对数损失函数

    逻辑回归的损失函数就是对数损失函数,在逻辑回归的推导中,它假设样本服从伯努利分布(0-1)分布,然后求得满足该分布的似然函数,接着用对数求极值。逻辑回归并没有求对数似然函数的最大值,而是把极大化当做一个思想,进而推导它的风险函数为最小化的负的似然函数。从损失函数的角度上,它就成为了log损失函数。
    log损失函数的标准形式:

    [L(Y,P(Y|X))=-logP(Y|X) ]

    4. 平方损失函数

    最小二乘法是线性回归的一种方法,它将回归的问题转化为了凸优化的问题。最小二乘法的基本原则是:最优拟合曲线应该使得所有点到回归直线的距离和最小。通常用欧几里得距离进行距离的度量。平方损失的损失函数为:

    [L(Y|f(X))=sum_N(Y-f(X))^2 ]

    5. 指数损失函数

    AdaBoost就是一指数损失函数为损失函数的
    指数损失函数的标准形式:

    [L(Y|f(X))=exp[-yf(x)] ]

    6. Hinge损失函数(合页损失函数)

    Hinge损失函数和SVM是息息相关的。在线性支持向量机中,最优化问题可以等价于

    [minsum_i^N(1-y_i(w^Tx_i+b))_++λ||w||^2 ]

    7. 损失函数比较

    image

  • 相关阅读:
    30秒懂SQL中的join(2幅图+30秒)
    MySQL字符串连接函数
    php 月初,月末时间大统计
    php判断中文,英文, 数字
    配置linux----------------ip
    配置samba
    Python的MySQLdb模块安装
    python 之 PIP 安装
    linux之svn
    vue之computed(计算属性)
  • 原文地址:https://www.cnblogs.com/huangyc/p/9938314.html
Copyright © 2020-2023  润新知