zoukankan      html  css  js  c++  java
  • 【NAS工具箱】Pytorch中的Buffer&Parameter

    Parameter : 模型中的一种可以被反向传播更新的参数。

    第一种:

    • 直接通过成员变量nn.Parameter()进行创建,会自动注册到parameter中。
    def __init__(self):
        super(MyModel, self).__init__()
        self.param = nn.Parameter(torch.randn(3, 3))  # 模型的成员变量
    

    或者:

    • 通过nn.Parameter() 创建普通对象
    • 通过register_parameter()进行注册
    • 可以通过model.parameters()返回
    def __init__(self):
        super(MyModel, self).__init__()
        param = nn.Parameter(torch.randn(3, 3))  # 普通 Parameter 对象
        self.register_parameter("param", param)
    

    Buffer : 模型中不能被反向传播算法更新的参数。

    • 创建tensor
    • 将tensor通过register_buffer进行注册
    • 可以通过model.buffers()返回
    def __init__(self):
        super(MyModel, self).__init__()
        buffer = torch.randn(2, 3)  # tensor
        self.register_buffer('my_buffer', buffer)
        self.param = nn.Parameter(torch.randn(3, 3))  # 模型的成员变量
    

    总结:

    • 模型参数=parameter+buffer; optimizer只能更新parameter,不能更新buffer,buffer只能通过forward进行更新。
    • 模型保存的参数 model.state_dict() 返回一个OrderDict
    代码改变世界
  • 相关阅读:
    md测试
    安利好用的小工具及软件(常更新)
    08-无人值守自动批量安装系统(下)
    建立本地yum仓库
    如何知道命令是由哪个服务提供的
    08-无人值守自动批量安装系统(上)
    07-软件管理
    06-时间管理
    05-用户和组以及权限
    04-编辑文本
  • 原文地址:https://www.cnblogs.com/pprp/p/14817025.html
Copyright © 2011-2022 走看看