zoukankan      html  css  js  c++  java
  • 用pytorch1.0快速搭建简单的神经网络

    用pytorch1.0搭建简单的神经网络

    import torch
    import torch.nn.functional as F  # 包含激励函数
    
    # 建立神经网络
    # 先定义所有的层属性(__init__()), 然后再一层层搭建(forward(x))层于层的关系链接
    class Net(torch.nn.Module):     # 继承 torch 的 Module
        def __init__(self, n_feature, n_hidden, n_output):
            super(Net, self).__init__()     # 继承 __init__ 功能
            # 定义每层用什么样的形式
            self.hidden = torch.nn.Linear(n_feature, n_hidden)   # hidden layer  # 隐藏层线性输出
            self.predict = torch.nn.Linear(n_hidden, n_output)   # output layer  # 输出层线性输出 ==== 定义层数
    
        def forward(self, x):       # 这同时也是 Module 中的 forward 功能
            # 正向传播输入值, 神经网络分析出输出值
            x = F.relu(self.hidden(x))      # activation function for hidden layer  # 激励函数(隐藏层的线性值)
            x = self.predict(x)             # linear output     # 输出值
            return x
    
    net1 = Net(1, 10, 1)
    
    # easy and fast way to build your network
    net2 = torch.nn.Sequential(
        torch.nn.Linear(1, 10),     # 第一层
        torch.nn.ReLU(),            # 激活层
        torch.nn.Linear(10, 1)      # 输出层
    )
    
    print(net1)     # net1 architecture   ==  显示神经网络结构
    """
    Net (
      (hidden): Linear (1 -> 10)
      (predict): Linear (10 -> 1)
    )
    """
    print(net2)     # net2 architecture
    """
    Sequential (
      (0): Linear (1 -> 10)
      (1): ReLU ()
      (2): Linear (10 -> 1)
    )
    """
    net2多显示了一些内容, 这是为什么呢? 原来它把激励函数也一同纳入进去了,但是net1中, 激励函数实际上是在forward()功能中才被调用的。这也就说明了:
    net1相比net2的好处就是, 你可以根据你的个人需要更加个性化你自己的前向传播过程, 比如(RNN).
  • 相关阅读:
    Oracle 11G单机 无网络环境静默安装
    Centos 7 编译安装llvm 8.0.0
    linux下测试读写
    Linux 初始化 init 系统(1):sysvinit
    自动挂载文件/etc/fstab功能详解
    虚拟机安装LINUX网络配置注意的问题
    rhel7报错整理
    16/4/4二代支付硬盘故障处理
    RedHat Enterprise Linux 7关闭防火墙方法
    Linux命令之awk数组使用范例
  • 原文地址:https://www.cnblogs.com/jeshy/p/11186070.html
Copyright © 2011-2022 走看看