zoukankan      html  css  js  c++  java
  • NLP(五):BiGRU_Attention的pytorch实现

    一、预备知识

    1、nn.Embedding

    在pytorch里面实现word embedding是通过一个函数来实现的:nn.Embedding.

    # -*- coding: utf-8 -*-
    import numpy as np
    import torch
    import torch.nn as nn
    import torch.nn.functional as F
    from torch.autograd import Variable
     
    word_to_ix = {'hello': 0, 'world': 1}
    embeds = nn.Embedding(2, 5)
    hello_idx = torch.LongTensor([word_to_ix['hello']])
    hello_idx = Variable(hello_idx)
    hello_embed = embeds(hello_idx)
    print(hello_embed)

     这就是我们输出的hello这个词的word embedding,代码会输出如下内容,接下来我们解析一下代码:

    Variable containing:
     0.4606  0.6847 -1.9592  0.9434  0.2316
    [torch.FloatTensor of size 1x5]

    首先我们需要word_to_ix = {'hello': 0, 'world': 1},每个单词我们需要用一个数字去表示他,这样我们需要hello的时候,就用0来表示它。

    接着就是word embedding的定义nn.Embedding(2, 5),这里的2表示有2个词,5表示5维度,其实也就是一个2x5的矩阵,所以如果你有1000个词,每个词希望是100维,你就可以这样建立一个word embeddingnn.Embedding(1000, 100)。如何访问每一个词的词向量是下面两行的代码,注意这里的词向量的建立只是初始的词向量,并没有经过任何修改优化,我们需要建立神经网络通过learning的办法修改word embedding里面的参数使得word embedding每一个词向量能够表示每一个不同的词。

    hello_idx = torch.LongTensor([word_to_ix['hello']])
    hello_idx = Variable(hello_idx)

    接着这两行代码表示得到一个Variable,它的值是hello这个词的index,也就是0。这里要特别注意一下我们需要Variable,因为我们需要访问nn.Embedding里面定义的元素,并且word embeding算是神经网络里面的参数,所以我们需要定义Variable

    hello_embed = embeds(hello_idx)这一行表示得到word embedding里面关于hello这个词的初始词向量,最后我们就可以print出来。

     2、nn.GRU()

    这里,嵌入维度50是GRU的input尺寸。

    默认:

    • out = [src_len, batch_size, hid_dim * num_directions]
    • hidden = [n_layers * num_directions, batch_size, hid_dim]

    如果batch_first=True:

    • out = [ batch_size, src_len,hid_dim * num_directions]
    • hidden = [n_layers * num_directions, batch_size, hid_dim]
    >>> import torch.nn as nn
    >>> gru = nn.GRU(input_size=50, hidden_size=50, batch_first=True)
    >>> embed = nn.Embedding(3, 50)
    >>> x = torch.LongTensor([[0, 1, 2]])
    >>> x_embed = embed(x)
    >>> x.size()
    torch.Size([1, 3])
    >>> x_embed.size()
    torch.Size([1, 3, 50])
    >>> out, hidden = gru(x_embed)
    >>> out.size()
    torch.Size([1, 3, 50])
    >>> hidden.size()
    torch.Size([1, 1, 50])
    >>> x = torch.LongTensor([[0, 1, 2], [0, 1, 2]])
    >>> x_embed = embed(x)
    >>> x_embed.size()
    torch.Size([2, 3, 50])
    >>> out, hidden = gru(x_embed)
    >>> out.size()
    torch.Size([2, 3, 50])
    >>> hidden.size()
    torch.Size([1, 2, 50])
  • 相关阅读:
    HTML编辑器(1)
    HTML轮播(2)
    HTML轮播(1)
    MVC联想查询绑定下拉框
    Flex布局
    css垂直水平居中问题
    rem,em,px的区别
    css中的定位、清除浮动
    css3的盒模型
    HTML的语义化
  • 原文地址:https://www.cnblogs.com/zhangxianrong/p/14675539.html
Copyright © 2011-2022 走看看