zoukankan      html  css  js  c++  java
  • pytorch 踩坑记

    1.【转】由于研究关系需要自己手动给卷积层初始化权值,但是好像博客上提到的相关文章比较少(大部分都只提到使用nn.init里的按照一定分布初始化方法),自己参考了下Pytorch的官方文档,发现有两种方法吧。所以mark下。

    import torch
    import torch.nn as nn
    import torch.optim as optim
    import numpy as np
    
    # 第一一个卷积层,我们可以看到它的权值是随机初始化的
    w=torch.nn.Conv2d(2,2,3,padding=1)
    print(w.weight)
    
    
    # 第一种方法
    print("1.使用另一个Conv层的权值")
    q=torch.nn.Conv2d(2,2,3,padding=1) # 假设q代表一个训练好的卷积层
    print(q.weight) # 可以看到q的权重和w是不同的
    w.weight=q.weight # 把一个Conv层的权重赋值给另一个Conv层
    print(w.weight)
    
    # 第二种方法
    print("2.使用来自Tensor的权值")
    ones=torch.Tensor(np.ones([2,2,3,3])) # 先创建一个自定义权值的Tensor,这里为了方便将所有权值设为1
    w.weight=torch.nn.Parameter(ones) # 把Tensor的值作为权值赋值给Conv层,这里需要先转为torch.nn.Parameter类型,否则将报错
    print(w.weight)
    

    2.很低级的问题,试用官方mnist cnn识别手写字符的教程后,替换自己的数据集时提示mismatche等问题,

    输入输出格式大小计算方式:

    output = 1+(frac{input+2p-kerneral}{2})/stride

    如果输入图片不是正方形,则先计算高,在计算长

    3.标准的卷积动作: 卷积conv2d->归一化batch->激活->最大池化

    对应如下:

    self.conv1 = nn.Sequential(  # output_size =1+ (input_size+2*padding-kernel_size)/stride
                nn.Conv2d(1, 16, kernel_size=5, padding=1),
                nn.BatchNorm2d(16),
                nn.ReLU(),
                nn.MaxPool2d(2))

    3.AttributeError: Can't get attribute 'CNNnet' on <module '__main__'>

    在加载已保存的cnn模型时出现这个错误,出现了两次

    第一次 通过import cnndemo(cnndemo.py文件的名字)解决

    后来更换了网络的输入数据大小,结果出现问题:首先提示对路径无访问权限,于是将模型与代码放置在同一目录下解决,

    第二次AttributeError: Can't get attribute 'CNNnet' on <module '__main__'>

    通过from cnndemo import CNNnet解决

  • 相关阅读:
    AUDIT审计的一些使用
    HOW TO PERFORM BLOCK MEDIA RECOVERY (BMR) WHEN BACKUPS ARE NOT TAKEN BY RMAN. (Doc ID 342972.1)
    使用BBED理解和修改Oracle数据块
    Using Class of Secure Transport (COST) to Restrict Instance Registration in Oracle RAC [ID 1340831.1]
    调试利器GDB概念
    第4章 思科IOS
    第3章 ip地址和子网划分
    第2章 TCPIP
    2020年阅读过的黑客资源推荐篇
    第1章 计算机网络
  • 原文地址:https://www.cnblogs.com/neo3301/p/13169852.html
Copyright © 2011-2022 走看看