• 线性回归 逻辑回归 分类问题的区别


    线性回归 逻辑回归 分类问题的区别

    一、总结

    一句话总结:

    回归算法:线性回归是一种基本的回归算法,当给出相应的训练集后,通过线性回归来寻找合适参数θ(向量)使得Hypothesis函数的Cost function最小。
    分类算法:逻辑回归是一个分类算法,逻辑回归的Hypothesis和线性回归非常相似,唯一的区别在于外层的sigmoid function
    sigmoid:简单来说,当参数大于0时,则函数值趋近于1,而当参数值小于0时,函数值趋近于0。因此逻辑回归的Hypothesis可以解释为样本x属于正类型的概率。当θx>0后,概率趋近于1,反之则趋近于0。

    1、回归和分类?

    分类模型是将回归模型的输出离散化:回归模型和分类模型本质一样,分类模型是将回归模型的输出离散化

    2、线性回归和逻辑回归的回归函数以及代价函数?

    线性回归回归函数:$$h_{ heta}(x)={Theta}^TX$$
    线性回归代价函数:$$J( heta)=frac{1}{2m}sumlimits_{i=0}^{m}(h_{ heta}(x^i)-y^i)^2$$
    逻辑回归回归函数:$$h_ heta(x)=frac{1}{1+e^{-{Theta}X}}$$
    逻辑回归代价函数:$$J( heta)=-y^i{ imes}logh_{ heta}(x^i)+(1-y^i){ imes}log(1-h_{ heta}(x^i))$$

    二、线性回归 逻辑回归 分类问题的区别

    转自或参考:线性回归 逻辑回归 分类问题的区别
    https://blog.csdn.net/bookwormsmallman/article/details/81099358

    线性回归

    回归函数: $$h_{ heta}(x)={Theta}^TX$$
    代价函数:$$J( heta)=frac{1}{2m}sumlimits_{i=0}^{m}(h_{ heta}(x^i)-y^i)^2$$

    逻辑回归

    回归函数:$$h_ heta(x)=frac{1}{1+e^{-{Theta}X}}$$
    代价函数:$$J( heta)=-y^i{ imes}logh_{ heta}(x^i)+(1-y^i){ imes}log(1-h_{ heta}(x^i))$$

    区别

    逻辑回归和线性回归的区别在于输出结果通过了sigmiod函数使得其取值范围在(0,1)上。

    回归和分类

    回归模型和分类模型本质一样,分类模型是将回归模型的输出离散化

     
     

    三、线型回归、逻辑回归和神经网络的区别

    转自或参考:线型回归、逻辑回归和神经网络的区别
    https://www.jianshu.com/p/4cd238493cbd

    一、线型回归(Linear regression)

    二、梯度下降(Gradient descent)

    三、逻辑回归(Logistic regression)

            逻辑回归是一个分类算法,逻辑回归的Hypothesis和线性回归非常相似:

    四、Bias、Variance

    五、Regularization

    总结:线型回归和逻辑回归都是适合线型可分的情况

    六、神经网络

            实际上,可以将Logistic Regression看做是仅含有一层神经元的单层的神经网络。一般用于二分类网络,线性可分的情况,是一个线性模型,激活函数为Sigmoid,logistic regression的一个优点是logistic cost function 是一个凸函数,可以求得全局最小值,可以用极大似然估计求解。

            神经网络是一个对于处理复杂的非线性模型很优秀的算法。

    神经元:

    代表一个神经元

    神经网络:

            就是一组神经元连接在一起的集合。神经网络的第一层是输入层,值为xi,最后一层是输出层,如果作为分类算法训练则有多少个类别就应该有多少个对应的输出单元,对应的输出单元被激活代表着分类的结果。隐藏层可以有多层,每层可以有多个单元,规模越大训练的模型越复杂。而对于隐藏层中的每个单元本身都是一个逻辑回归的过程,也就是说每个隐藏单元都训练出了一个比前一层更加复杂的特征,这样一层接一层我们就可以训练出越来越复杂的特征,直到得到结果。

     
     
     
    我的旨在学过的东西不再忘记(主要使用艾宾浩斯遗忘曲线算法及其它智能学习复习算法)的偏公益性质的完全免费的编程视频学习网站: fanrenyi.com;有各种前端、后端、算法、大数据、人工智能等课程。
    博主25岁,前端后端算法大数据人工智能都有兴趣。
    大家有啥都可以加博主联系方式(qq404006308,微信fan404006308)互相交流。工作、生活、心境,可以互相启迪。
    聊技术,交朋友,修心境,qq404006308,微信fan404006308
    26岁,真心找女朋友,非诚勿扰,微信fan404006308,qq404006308
    人工智能群:939687837

    作者相关推荐

  • 相关阅读:
    mysql数据库
    Mysql之sql语句操作
    mysql修改root密码的多种方法
    kvm虚拟化
    清华AIOps算法:KPI聚类
    有点扯的预测方法
    内网安全运营的逻辑体系架构
    SpringBoot定时消费Kafka消息
    kafka的consumer消费能力很低的情况下的处理方案
    Kafka_Kafka 消费者 偏移量 与 积压 查询脚本 kafka-consumer-groups.sh
  • 原文地址:https://www.cnblogs.com/Renyi-Fan/p/13760872.html
Copyright © 2020-2023  润新知