• [CS231n-CNN] Linear classification II, Higher-level representations, image features, Optimization, stochastic gradient descent


    课程主页:http://cs231n.stanford.edu/

    loss function:

    -Multiclass SVM loss:

    NewImage

    NewImage

    NewImage

    NewImage表示实际应该属于的类别的score。因此,可以发现,如果实际所属的类别score越小,那么loss function算出来的就会越大,这样才符合常理。

    最后取平均:

    NewImage

    *问题:

    1⃣️:

    NewImage

    因为include j=y_i其实就是最后加上常数1,对结果没有任何影响。

    2⃣️:

    NewImage

    因为mean和sum成正比,因此对最后的结果都没影响,所以为了方便计算,无需求mean。

    NewImage

    这两种loss function结果会有所区别,但两者都可以。第一种更常见。

    NewImage

    min:0(最完美的)

    max:正无穷(最不完美的)

    NewImage

    NewImageNewImage都很小,所以结果会是number_of_classes - 1.

    NewImage

    NewImage

    如果每个的都分队的话,w无论乘以多少倍(w不唯一),结果都是一样的。

    在w不唯一的情况下,我们如何得到我们最想要的一组w的值呢?因此,我们需要一种方法可以measure niceness of w.

    正则化的目的是防止过拟合。

    -引出:Weight Regularisation

    NewImage

    我们不仅仅想要w能够很好的拟合数据,而且还想得到更好的w。

    motivation:

    NewImage

    w1只与一个feature有关,忽略了其他的feature。虽然w1和w2的值相同。(详细的介绍参考cs229)

    __________________________________________________________________________________________________________

    -Softmax function(a different form loss function:NewImage)

    (之前用的是svm,即:NewImage

    计算方法:

    NewImage

    *问题:

    NewImage

    min:0 (全部分对)

    max:无穷大 (严重分错)

    所以,最大值和最小值是一样的,也符合常理。

    比较:

    NewImage

    问题:

    NewImage

    10是正确的score。

    如果把第三个数据[10,-100,100]稍微变一下,两种loss function会有什么样的变化?

    svm:会保持不变,因为根据公式里,只要(-x)-(100)+1<0,它都会被认为是0.所以,对结果不会产生任何影响。

    softmax:会产生better loss。

    有学生提问:为什么是svm中是+1,可以改为0吗?

    回答:必须要一个正数(详细解释请看cs229,margin)

    demo : http://vision.stanford.edu/teaching/cs231n/linear-classify-demo/

    _________________________________________________________________________________________________________________________________

    -Optimization

    NewImage

    NewImage

    NewImage

    NewImage

    因为参数有成千上万个,如果改变一个参数计算一次loss的话,会非常耗时。

    引出微积分(莱布尼茨和牛顿发现的):

    NewImage

    通过直接计算导数就可以了。

    总结:

    NewImage

    NewImage

    更有效的方法:不把所有的训练数据拿来训练,而是每次随机抽取部分数据拿来训练。虽然每次的结果会有波动,但是总的趋势是下降的。

    NewImage

    下面的那种不需要feature extraction,直接training出10numbers。

    NewImage

  • 相关阅读:
    Python-类和实例
    Python之操作文件和目录
    Python之split()函数
    Python之切片操作
    PyCharm导入selenium的webdirver模块出错
    Python编写“去除字符串中所有空格”
    Python编写“求一元二次方程的解”
    android开发学习 ------- 【转】Genymotion 小白安装
    android开发学习 ------- git
    android开发学习 ------- MongoDB数据库简单理解
  • 原文地址:https://www.cnblogs.com/XBWer/p/5330803.html
Copyright © 2020-2023  润新知