• machine learning (7)---normal equation相对于gradient descent而言求解linear regression问题的另一种方式


    • Normal equation: 一种用来linear regression问题的求解Θ的方法,另一种可以是gradient descent
    • 仅适用于linear regression问题的求解,对其它的问题如classification problem或者feature number太大的情况下(计算量会很大)则不能使用normal equation,而应使用gradient descent来求解。

            (由求导的过程推导而得)

             这种方法是对cost function(J(θ),θ为n+1维向量(θ0,θ1.....θn))对各个θ求偏导,令偏导为0,这样求出对应的θ(高等数学里面求极值的方法),这         样求出的θ,使cost function的值最小

            例如:  

    如何求解θ    

    • 这种求解θ的方法可不进行feature scaling,而对于用gradient descent求解θ而言,feature scaling很重要,它可使收敛速度加快。
    • normal equation与gradient descent两种方法优点与缺点比较

           

    • 当n>10000时,即feature number>10000时,用normal equation消耗太大,这时倾向于使用gradient desccent或者其它算法
    • 当n<1000时,使用normal equation更方便
  • 相关阅读:
    解析url
    初学react
    移动端判断用户滑动方向
    冒泡排序、快速排序、数组去重
    Angular Material主题配置
    reset()方法的使用、jq下面reset()的正确使用方法
    conts、var 、let的区别
    NLP
    mybatis的执行流程
    PHP递归算法示例:打印无限级数组元素的值
  • 原文地址:https://www.cnblogs.com/yan2015/p/4539265.html
Copyright © 2020-2023  润新知