• 深度学习笔记 目标函数的总结与整理


    (作者还处于小白阶段,,,一下皆是自行搜索总结的结果,像信息论还处于学习阶段,暂时无法给出相关解释,还请各位大神给予相关指点,谢谢)  

      目标函数,或称损失函数,是网络中的性能函数,也是编译一个模型必须的两个参数之一。由于损失函数种类众多,下面以keras官网手册的为例。

    在官方keras.io里面,有如下资料:

    • mean_squared_error或mse

    • mean_absolute_error或mae

    • mean_absolute_percentage_error或mape

    • mean_squared_logarithmic_error或msle

    • squared_hinge

    • hinge

    • binary_crossentropy(亦称作对数损失,logloss)

    • categorical_crossentropy:亦称作多类的对数损失,注意使用该目标函数时,需要将标签转化为形如(nb_samples, nb_classes)的二值序列

    • sparse_categorical_crossentrop:如上,但接受稀疏标签。注意,使用该函数时仍然需要你的标签与输出值的维度相同,你可能需要在标签数据上增加一个维度:np.expand_dims(y,-1)

    • kullback_leibler_divergence:从预测值概率分布Q到真值概率分布P的信息增益,用以度量两个分布的差异.

    • cosine_proximity:即预测值与真实标签的余弦距离平均值的相反数


    mean_squared_error

      顾名思义,意为均方误差,也称标准差,缩写为MSE,可以反映一个数据集的离散程度。

      标准误差定义为各测量值误差的平方和的平均值的平方根,故又称为均方误差

      公式:

      公式意义:可以理解为一个从n维空间的一个点到一条直线的距离的函数。(此为在图形上的理解,关键看个人怎么理解了)


    mean_absolute_error

      译为平均绝对误差,缩写MAE。

      平均绝对误差是所有单个观测值与算术平均值的偏差的绝对值的平均。

      公式(fi是预测值,yi是实际值,绝对误差|e_{i}|=|f_{i}-y_{i}|)


    mean_absolute_percentage_error

      译为平均绝对百分比误差 ,缩写MAPE。

      公式:(At表示实际值,Ft表示预测值)


    mean_squared_logarithmic_error

      译为均方对数误差,缩写MSLE。

      公式:(n是整个数据集的观测值,pi为预测值,ai为真实值)


     squared_hinge

      公式为max(0,1-y_true*y_pred)^2.mean(axis=-1),取1减去预测值与实际值的乘积的结果与0比相对大的值的平方的累加均值。


    hinge

      公式为为max(0,1-y_true*y_pred).mean(axis=-1),取1减去预测值与实际值的乘积的结果与0比相对大的值的累加均值。

      Hinge Loss 最常用在 SVM 中的最大化间隔分类中,

      对可能的输出 t = ±1 和分类器分数 y,预测值 y 的 hinge loss 定义如下:

      L(y) = max(0,1-t*y)
      看到 y 应当是分类器决策函数的“原始”输出,而不是最终的类标。例如,在线性的 SVM 中
       y = w*x+b

      可以看出当 ty 有相同的符号时(意味着 y 预测出正确的分类)

       |y|>=1

      此时的 hinge loss

       L(y) = 0

      但是如果它们的符号相反

      L(y)则会根据 y 线性增加 one-sided error。(译自wiki)

    binary_crossentropy

      即对数损失函数,log loss,与sigmoid相对应的损失函数。

      公式:L(Y,P(Y|X)) = -logP(Y|X)

      该函数主要用来做极大似然估计的,这样做会方便计算。因为极大似然估计用来求导会非常的麻烦,一般是求对数然后求导再求极值点。

      损失函数一般是每条数据的损失之和,恰好取了对数,就可以把每个损失相加起来。负号的意思是极大似然估计对应最小损失。


    categorical_crossentropy

      多分类的对数损失函数,与softmax分类器相对应的损失函数,理同上。

      tip:此损失函数与上一类同属对数损失函数,sigmoid和softmax的区别主要是,sigmoid用于二分类,softmax用于多分类(小编还在入门阶段,,对于两种对数损失函数的区别不甚清楚,推导也不大懂,欢迎大神补充,谢谢)。


    sparse_categorical_crossentrop

      在上面的多分类的对数损失函数的基础上,增加了稀疏性(即数据中多包含一定0数据的数据集),如目录所说,需要对数据标签添加一个维度np.expand_dims(y,-1)。


    kullback_leibler_divergence

      (译自WIKI)

      对于离散随机变量,其概率分布P 和 Q的KL散度可按下式定义为

    D_{{{mathrm  {KL}}}}(P|Q)=sum _{i}P(i)ln {frac  {P(i)}{Q(i)}}.!

      即按概率P求得的PQ的对数差的平均值。KL散度仅当概率PQ各自总和均为1,且对于任何i皆满足

      Q(i)>0P(i)>0时,才有定义。式中出现0Ln0的情况,其值按0处理。

      对于连续随机变量,其概率分布PQ可按积分方式定义为 

      D_{{{mathrm  {KL}}}}(P|Q)=int _{{-infty }}^{infty }p(x)ln {frac  {p(x)}{q(x)}}\,{{
m {d}}}x,!

      其中pq分别表示分布PQ的密度。

      更一般的,若PQ为集合X的概率测度,且Q关于P绝对连续,则从PQ的KL散度定义为

      D_{{{mathrm  {KL}}}}(P|Q)=-int _{X}ln {frac  {{{
m {d}}}Q}{{{
m {d}}}P}}\,{{
m {d}}}P,!

      其中,假定右侧的表达形式存在,则{frac  {{{
m {d}}}Q}{{{
m {d}}}P}}Q关于P的R–N导数。

      相应的,若P关于Q绝对连续,则

    D_{{{mathrm  {KL}}}}(P|Q)=int _{X}ln {frac  {{{
m {d}}}P}{{{
m {d}}}Q}}\,{{
m {d}}}P=int _{X}{frac  {{{
m {d}}}P}{{{
m {d}}}Q}}ln {frac  {{{
m {d}}}P}{{{
m {d}}}Q}}\,{{
m {d}}}Q,

      即为P关于Q的相对熵,用以度量两个分布的差异。


    cosine_proximity

      此方法用余弦来判断两个向量的相似性。

      设向量 A = (A1,A2,...,An),B = (B1,B2,...,Bn),则有

      

      

      余弦值的范围在[-1,1]之间,值越趋近于1,代表两个向量的方向越趋近于0,他们的方向更加一致。相应的相似度也越高。

      

  • 相关阅读:
    android 推断应用程序是系统程序还是用户程序
    zoj-3792-Romantic Value-最小割+数值转化
    python中and和or的使用方法
    WP8加入自己定义铃声
    OpenCV-Python教程(4、形态学处理)
    [置顶] Bug 11775332
    Pyhon安装media模块
    hadoop集群环境搭建
    ubuntu12 环境下编译freerdp
    二分查找(非递归JAVA)
  • 原文地址:https://www.cnblogs.com/laurdawn/p/5841192.html
Copyright © 2020-2023  润新知