• 梯度下降法推导,凸函数,收敛性推导


    1.梯度下降法的收敛性

    针对迭代式算法,我们就要Convergency Analysis(收敛性分析)

    (1)什么是平滑函数,非平滑函数?

    平滑函数--在每个点上求出梯度

    非平滑函数---在那个点上求不出梯度的,

    L-Lipschitz条件:是针对平滑函数的条件

    Logistic Regression ,Linear Regression都是满足L-Lipschitz条件的

    线性回归和逻辑回归都是凸函数

    f(x*)是最终的收敛后的解,代表的最终想达到的最小值

    我们的目标是通过学习的方式,使得f(xk)慢慢的接近f(x*),即

                                        

    这一项如果随着迭代次数的增加(梯度下降法),慢慢的变小,就等同于f(xk)慢慢的接近f(x*)。

    如果这一项的变小的趋势非常快,代表梯度下降法比较优质,而且很快可以收敛。

    一个好的算法,在有限的最好的次数之内,可以看到A算法,在20次迭代,f(xk)接近f(x*)的速度比较快。

              

    ε表示k次迭代,真实的值与预测值之间只存在ε的差距

    推导过程:

     

    2.凸函数的性质

     

     

     

     

     

     3.L-Lipschitz条件及定理

    两个定理:

    4.收敛性推导

     

     

     上面的f(xi+1)<=f(xi)表示的是:

    梯度下降法每次的更新一定要比之前的好,这是标准意义上的梯度下降法,随机梯度下降法不能保证每次的更新优于之前的。

  • 相关阅读:
    MySQL基础知识-安装MySQL
    java 安装环境 疑问(1)
    java 安装环境
    “64位调试操作花费的时间比预期要长",无法运行调试解决办法
    office完全卸载
    完全卸载oraclean安装
    不能安装64位office提示已安装32位的
    java 之 基础加强(一)
    java 之 dom4j解析xml
    java 之 schema解析
  • 原文地址:https://www.cnblogs.com/GumpYan/p/13681088.html
Copyright © 2020-2023  润新知