• Keras深度学习框架之损失函数


    一.损失函数的使用

      损失函数【也称目标函数或优化评分函数】是编译模型时所需的两个参数之一。

      model.compile(loss='mean_squared_error', optimizer='sgd')

      或

      from keras import losses

      model.compile(loss=losses.mean_squared_error, optimizer='sgd')

      可以传递一个现有的损失函数名或者一个TensorFlow/Theano符号函数。该符号函数为每个数据点返回一个标量,有一下两个参数:

      1.y_true

        真实标签,TensorFlow/Theano张量。

      2.y_pred

        预测值,TensorFlow/Theano张量,其shape与y_true相同。

      实际的优化目标是所有数据点的输出数组的平均值。

    二.可用的损失函数

      1.mean_squared_error(y_true, y_pred)【MSE,均方误差】

        计算公式:

        

        源码:

        

      2.mean_absolute_error(y_true, y_pred)【MAE,平均绝对误差】

        提到MAE就不能不说显著性目标检测,所谓显著性目标,举个例子来说,当我们观察一张图片时,我们会首先关注那些颜色鲜明,夺人眼球的内容。就像我们看变形金刚时会首先看擎天柱一样,这是绝对的C位。所以我们把变形金刚中的擎天柱定义为显著性目标。

        在显著性目标检测中的评价指标计算中,常用的检测算法就有平均绝对误差,其计算公式如下:

        

        源码:

        

      3.mean_absolute_percentage_error【MAPE,平均绝对百分比误差】

        与平均绝对误差类似,平均绝对百分比误差预测结果与真实值之间的偏差比例。计算公式如下:

        

        源码:

        

        备注:

        1.clip

          逐元素,将超出指定范围的数强制变为边界数。

        2.epsilon

          固定参数,默认值为1*e-7。

      4.mean_squared_logarithmic_error【MSLE,均方对数误差】

        在计算均方误差之前先对数据取对数,再计算。

        计算公式:

        

         源码:

        

      5.squared_hinage【不常用】

        计算公式:

        

        源码:

        

      6.hinage【不常用】

        计算公式:

        

        源码:

        

      7.categorical_hinge【不常用】

        源码:

        

      8.logcosh【不常用】

        预测误差的双曲余弦的对数。计算结果与均方误差大致相同,但不会受到偶尔疯狂的错误预测的强烈影响。

        源码:

        

      9.categorical_crossentropy【不常用】

        当使用categorical_crossentropy损失时,目标值应该是分类格式【即假如是10类,那么每个样本的目标值应该是一个10维的向量,这个向量除了表示类别的那个索引为1,其它均为0】。为了将整数目标值转换为分类目标值,可以使用keras实用函数to_categorical。

        from keras.utils.np_utils import to_categorical

        categorical_labels = to_categorical(int_labels, num_classes=None)

        源码:

        

       10.sparse_categorical_crossentropy【不常用】

        源码:

        

       11.binary_crossentropy【不常用】

        源码:

        

      12.kullback_leibler_divergence【不常用】

        源码:

        

      13.poisson【不常用】

        计算公式:

        

         源码:

        

      14.cosine_proximity【不常用】

        计算公式:

        

        源码:

        

    三.其它类型的损失函数

      1.ctc_batch_cost【高性能】

        源码:

        

        在每个批处理元素上运行CTC损失算法。

        参数:

        1.y_true

          包含真实值标签的张量。类型(samples, max_string_length).

        2.y_pred

          包含预测值或softmax输出的张量。类型(samples, time_steps, num_categories)。

        3.input_length

          张量(samples, 1),包含y_pred中每个批处理项的序列长度。

        4.label_length

          张量(samples, 1), 包含y_true中每个批处理项的序列长度。

        返回shape为(samples, 1)的张量,包含每一个元素的CTC损失。

  • 相关阅读:
    markdown 常用语法 (在macdown内使用正常)
    C# MessageBox常用用法
    C# 正则表达式匹配汉字
    C# 可视化读取文件、文件夹
    Xcode UUID查询
    Xcode 常用快捷键
    iOS __weak __strong WeakSelf StrongSelf
    iOS 图形图像动画 Core Animation
    iOS Runtime学习笔记
    iOS NSDate本地化
  • 原文地址:https://www.cnblogs.com/yszd/p/12362461.html
Copyright © 2020-2023  润新知