• 逻辑回归的 LogisticRegressionCV函数


    参考:https://www.cnblogs.com/jfdwd/p/11046747.html

    正则化选择参数 :penalty   
                                  ——>  ;l1 / l2    默认是L2的正则化;

                出现过拟合,考虑使用  L1;

                如果特征较多希望略去不重要特征,就有L1。

    参数优化方式    :solver     
                                 ——> 当penalty为l1的时候,参数只能是:liblinear(坐标轴下降法),lbfgs和cg都是关于目标函数的二 阶泰勒展开,当penalty为l2的时候,参数可以是:lbfgs(拟牛顿法)、newton-cg(牛顿法变种),seg(minibatch) 、而liblinear通吃L1正则化和L2正则化     

                     维度<10000时,lbfgs法比较好,   维度>10000时, cg法比较好,显卡计算的时候,lbfgs和cg都比seg快

                        1.  liblinear:使用了坐标轴下降法来迭代优化损失函数。

              2.  lbfgs:拟牛顿法的一种,利用损失函数二阶导数矩阵即海森矩阵来迭代优化损失函数。

              3. newton-cg:也是牛顿法家族的一种,利用损失函数二阶导数矩阵即海森矩阵来迭代优化损失函数。

              4.  sag:即随机平均梯度下降,是梯度下降法的变种,和普通梯度下降法的区别是每次迭代仅仅用一部分的样本来计  算梯度,适合于样本数据多的时候,SAG是一种线性收敛算法,这个速度远比SGD快。关于SAG的理解.

  • 相关阅读:
    2019-05-07
    2019-04-28 问题记录
    2019-04-15 python深浅复制
    2019-04-11 统计日志重复数量
    2019-03-23 shell练习,日志统计
    问题记录2019-03-12
    问题记录2019-03-06(todo)
    回归
    Mac进行 usr/bin 目录下修改权限问题,operation not permitted
    个人的随笔心情
  • 原文地址:https://www.cnblogs.com/shyzh/p/11726441.html
Copyright © 2020-2023  润新知