zoukankan      html  css  js  c++  java
  • pytorch

    1、

     a   b

     c   d

     dim/len(shape):2

     shape/size:torch.Size([2, 2])

     numel == 2 * 2(number of element)

    2、三种常用数据类型

     torch.FloatTensor()

     torch.ByteTensor()

     torch.IntTensor()

     torch.Tensor可设置默认类型

     括号内填shape,若想填写现成数据,则放到中括号里面

     若是GUP类型,则加cuda

    3、list可以将size、shape转化成列表

    4、torch.randn()torch.rand()torch.FloatTensor()区别

     rand:在[0,1]之间均匀选取   rand_like(tensor):相当于取了tensor的shape

     randint(min,max,shape)可以自己指定min和max,但是max取不到

     randn:取值服从正态(0,1)分布

    5、将其他类型转化为tensor类型

     (1)由numpy导入

     np.array()、np.ones()

     torch.from_numpy

     (2)由list导入

     torch.tensor()只有一个参数,接收现成的数据,可以是numpy或list或数字

     不成文的规定,小写给数据,大写给shape(可以给数据,但是最好别用)

    6、全部初始化为某一个值

     torch.full([shape], value)

    7、生成等差数列

     torch.arange(min, max, 步长)

    8、全部为1:ones

       全部为0:zeros

       对角为1:eye

    9、索引与切片

     若想加步长,则多写一个冒号

     用...代替 :

     在某一个维度上切片:index_select(维度,[min, max])

    10、维度变换

     (1)view == reshape

     (2)unsqueeze(扩张):正数在前负数在后插一个维度

         squeeze(压缩):参数为打算删减的维度

     (3)t(转置):只适用于二维

     (4)transpose(维度交换)二维的用转置,高维的用transpose

     (5)拼接:cat([tensor1, tensor2], dim=0)只有拼接的维度可以不同

                  stack([tensor1, tensor2], dim=0)相当于创建一个新的维度(概念),所有的维度必须相同

         拆分:split(len, dim=0)len若为单个数,则按每份为len个均分,若为列表,则为具体分配

            chunk(num)按num份均分

    11、矩阵的运算

     + - * /

     **2  **0.5

    12、

     floor、ceil、trunc(取整)、frac(取小数)

     round四舍五入

    13、clamp 裁剪

    14、where(condition,A,B)由tensorA、tensorB构造一个新的tensorC

      gather(input,dim,index)

  • 相关阅读:
    Multi ingress controller
    Obtain file system information
    What is the difference between “inode size” and “Bytes per inode”
    Build and install fluent-bit on CentOS7
    Failed to initialize NVML: Driver/library version mismatch.
    利用multiprocessing.managers开发跨进程生产者消费者模型
    [算法] 举一反三之n重复数组中找唯一m重复异类数
    HBase Thrift过滤语法
    kubernetes pod infra container网络原理
    CentOS7上手动部署入门级kubernetes
  • 原文地址:https://www.cnblogs.com/liujianing/p/12168947.html
Copyright © 2011-2022 走看看