• 线性回归和 逻辑回归 的思考(参考斯坦福 吴恩达的课程)


    还是不习惯这种公式的编写,还是直接上word。。。。

    对上面的(7)式取log后并最大化即可得到最小二乘法,即 argmaxθ J(θ)

    思考二:线性回归到逻辑回归的转变:

    1) 引入逻辑回归,假设用线性回归来做分类问题,设为二分类,即y取0或1。

    则会出现如下的情况:

     

    这种情况下是能很好的分类的,但若数据是如下所示呢:

     

    则分类很不好。

     

    思考三:逻辑回归损失函数的得来(解释):

        答,也是通过最大似然得到的。y的取值为0,1;则认为这是一个伯努力的分布,也称为两点的分布,则公式表示如下:

    注:公式(27)最后一行的公式写错了,少了个log,正确公式应是如下:

      

    四:逻辑函数(Logistic function)或者是S形函数(Sigmoid function) 的由来:

     

    五、softmax 与logist回归的关系

      可以认为 对于y|x;θ  logist回归是一个两点的分布,而 softmax是一个多项式的分布。利用广义线性模型可得到softmax的表示。

    总结:

    1)算法是一个很有逻辑(严谨)的一门学科,都有因果和解释。

    2)还有最大似然 法是神器,许多算法的推导都是从其开始的,若 最大似然法 加上 贝叶斯公式就更是神器啦!

    参考:  线性回归、logistic回归、广义线性模型——斯坦福CS229机器学习个人总结:

        https://blog.csdn.net/sinat_37965706/article/details/69204397

        Stanford机器学习---第三讲. 逻辑回归和过拟合问题的解决 logistic Regression & Regularization:

        https://blog.csdn.net/sinat_37965706/article/details/69204397

  • 相关阅读:
    Codevs 1283 等差子序列
    Codevs 1282 约瑟夫问题
    Codevs 1228 苹果树
    Codevs 1191 数轴染色
    洛谷P1080 国王游戏
    Codevs 1523 地精部落
    2014-7-17 NOIP模拟赛
    Codevs 3409 搬运礼物
    Codevs 1425 最长公共子串
    TyvjP1863 [Poetize I]黑魔法师之门(2014-8-27)
  • 原文地址:https://www.cnblogs.com/vincentbnu/p/9461688.html
Copyright © 2020-2023  润新知