zoukankan      html  css  js  c++  java
  • Pytorch中的自动求梯度机制和Variable类

      自动求导机制是每一个深度学习框架中重要的性质,免去了手动计算导数,下面用代码介绍并举例说明Pytorch的自动求导机制。

      首先介绍Variable,Variable是对Tensor的一个封装,操作和Tensor是一样的,但是每个Variable都有三个属性:Varibale的Tensor本身的.data,对应Tensor的梯度.grad,以及这个Variable是通过什么方式得到的.grad_fn,根据最新消息,在pytorch0.4更新后,torch和torch.autograd.Variable现在是同一类。torch.Tensor能像Variable那样追踪历史和反向传播。Variable仍能正确工作,但是返回的是Tensor。

      我们拥抱这些新特性,看看Pytorch怎么进行自动求梯度。

    1 #encoding:utf-8
    2 import torch
    3 
    4 x = torch.tensor([2.],requires_grad=True) #新建一个tensor,允许自动求梯度,这一项默认是false.
    5 y = (x+2)**2 + 3 #y的表达式中包含x,因此y能进行自动求梯度
    6 y.backward()
    7 print(x.grad)

      输出结果是:

    tensor([8.])

      这里添加一个小知识点,即torch.Tensor和torch.tensor的不同。二者均可以生成新的张量,但torch.Tensor()是python类,是默认张量类型torch.FloatTensor()的别名,使用torch.Tensor()会调用构造函数,生成单精度浮点类型的张量。

      而torch.tensor()是函数,其中data可以是list,tuple,numpy,ndarray,scalar和其他类型,但只有浮点类型的张量能够自动求梯度。

    torch.tensor(data, dtype=None, device=None, requires_grad=False)

      言归正传,上一个例子的变量本质上是标量。下面一个例子对矩阵求导。

     1 #encoding:utf-8
     2 import torch
     3 
     4 x = torch.ones((2,4),requires_grad=True)
     5 y = torch.ones((2,1),requires_grad=True)
     6 W = torch.ones((4,1),requires_grad=True)
     7 
     8 J = torch.sum(y - torch.matmul(x,W)) #torch.matmul()表示对矩阵作乘法
     9 J.backward()
    10 print(x.grad)
    11 print(y.grad)
    12 print(W.grad)

      输出结果是:

    tensor([[-1., -1., -1., -1.],
            [-1., -1., -1., -1.]])
    tensor([[1.],
            [1.]])
    tensor([[-2.],
            [-2.],
            [-2.],
            [-2.]])  
  • 相关阅读:
    H.264 RTP PAYLOAD 格式
    ARM:移动GPU往PC GPU效能迈进
    汪墩一中复校设想
    jconsole 和jvisualVM 监控远程 spring boot程序
    jenkins 登录远程机器并执行脚本,脚本中有后台执行的程序无法执行解决方法。
    linux下的抓包工具tcpdump
    adb logcat查看某个进程的输出日志
    Flask-SQLAlchemy 中多表链接查询(不使用外键)
    使用cnpm 安装vue.js
    Jmeter在非GUI环境下传递参数(命令行&Jenkins配置)
  • 原文地址:https://www.cnblogs.com/chester-cs/p/11574672.html
Copyright © 2011-2022 走看看