• 深度之眼PyTorch训练营第二期 ---4、autograd与逻辑回归


    一、自动求导系统----torch.autograd

    1、torch.autograd.backward  功能:自动求取梯度

      •   tensors:用于求导的张量,如loss
      •        retain_graph:保存计算图
      •        create_graph:创建导数计算图,用于高阶求导
      •        grad_tensors:多梯度权重

    2、torch.aurograd.grad  功能:求取梯度

      •   outputs:用于求导的张量  ----- y
      •         inputs:需要梯度的张量  ----- w,x
      •         create_graph:创建导数计算图,用于高阶求导
      •         retain_graph:保存计算图
      •         grad_outputs:多梯度权重

    小贴士:

      (1)梯度不自动清零  grad.zero_()

      (2)依赖于叶子结点的结点,requires_grad默认为True

      (3)叶子结点不可执行in-place操作

        

    二、逻辑回归

    逻辑回归是线性的二分类模型

    模型表达式: y = f(WX + b)

                          f(x) = 1/(1+eˆ(-x))    f(x)称为Sigmoid函数,也称为Logistic函数

          class={0,0.5>y

             1,0.5<y

    • 线性回归和逻辑回归之间的区别
      • 线性回归是分析自变量x因变量y(标量之间关系的方法
      • 逻辑回归是分析自变量x因变量y(概率之间关系的方法
    • 机器学习模型训练步骤
      •   数据
      •        模型
      •        损失函数
      •        优化器
      •        迭代训练
  • 相关阅读:
    P4396 [AHOI2013]作业 分块+莫队
    B1965 [Ahoi2005]SHUFFLE 洗牌 数论
    B1970 [Ahoi2005]Code 矿藏编码 暴力模拟
    B1968 [Ahoi2005]COMMON 约数研究 数论
    B1237 [SCOI2008]配对 贪心 + dp
    B1108 [POI2007]天然气管道Gaz 贪心
    B1734 [Usaco2005 feb]Aggressive cows 愤怒的牛 二分答案
    B1012 [JSOI2008]最大数maxnumber 分块||RMQ
    HAOI2007 反素数
    NOIP2009 Hankson的趣味题
  • 原文地址:https://www.cnblogs.com/cola-1998/p/11695053.html
Copyright © 2020-2023  润新知