zoukankan      html  css  js  c++  java
  • 深度之眼PyTorch训练营第二期 ---4、autograd与逻辑回归

    一、自动求导系统----torch.autograd

    1、torch.autograd.backward  功能:自动求取梯度

      •   tensors:用于求导的张量,如loss
      •        retain_graph:保存计算图
      •        create_graph:创建导数计算图,用于高阶求导
      •        grad_tensors:多梯度权重

    2、torch.aurograd.grad  功能:求取梯度

      •   outputs:用于求导的张量  ----- y
      •         inputs:需要梯度的张量  ----- w,x
      •         create_graph:创建导数计算图,用于高阶求导
      •         retain_graph:保存计算图
      •         grad_outputs:多梯度权重

    小贴士:

      (1)梯度不自动清零  grad.zero_()

      (2)依赖于叶子结点的结点,requires_grad默认为True

      (3)叶子结点不可执行in-place操作

        

    二、逻辑回归

    逻辑回归是线性的二分类模型

    模型表达式: y = f(WX + b)

                          f(x) = 1/(1+eˆ(-x))    f(x)称为Sigmoid函数,也称为Logistic函数

          class={0,0.5>y

             1,0.5<y

    • 线性回归和逻辑回归之间的区别
      • 线性回归是分析自变量x因变量y(标量之间关系的方法
      • 逻辑回归是分析自变量x因变量y(概率之间关系的方法
    • 机器学习模型训练步骤
      •   数据
      •        模型
      •        损失函数
      •        优化器
      •        迭代训练
  • 相关阅读:
    旧键盘 (20)
    人口普查(20)
    打印沙漏(20)
    程序运行时间(15)
    反转链表 (25)
    科学计数法 (20)
    组个最小数 (20)
    python yield使用
    python如何优雅判断类型
    python中如何优雅使用import
  • 原文地址:https://www.cnblogs.com/cola-1998/p/11695053.html
Copyright © 2011-2022 走看看