往期RNN相关工程实践文章
『TensotFlow』RNN中文文本_下_暨研究生开学感想
张量分析
预处理结果是二维数据,相当于batch条一维数据,每个数据对应一首诗,每个字是一个scalar;
embedding之后,将每个字映射为一个rnn_size大小的向量,数据变为三维;
经过递归神经网络,输出维度不变;
将之调整为二维数据,这里面第二维度(即每一行)对应一个字;
全连接映射,将每一个字由rnnsize的向量映射为一个长度为总字数的向量,这样方便计算loss,实际计算loss时,会将label(二维向量,一行一首诗,字为scalar)拉伸为一维向量,每行只有一个字scalar,one_hot之后和此时数据正好对应,方便计算
SoftMax不改变张量形状,只是将结果以概率分布的形式输出
工程分析
代码见Github
1、文件简介
LSTM_model.py
:LSTM网络模型,提供了end_points接口,被其他部分调用
poetry_porcess.py
:数据读取、预处理部分,会返回打包好的batch,被main调用
gen_poetry.py
:古诗生成程序,拥有可选的风格参数,被main调用
main.py
:主函数,既可以调用前两个程序获取预处理数据并使用LSTM网络进行训练,也可以调用gen_poetry.py生成古诗
2、调用指令
在main.py
最后有如下指令,
if __name__ == "__main__":
words,poetry_vector,to_num,x_batches,y_batches = poetry_porcess.poetry_process()
# train(words, poetry_vector, x_batches, y_batches)
# gen_poetry(words, to_num)
generate(words_, to_num_, style_words="狂沙将军战燕然,大漠孤烟黄河骑。")
此时实际上处于生成模式,对于最后的三行, train:表示训练 gen_poetry:表示根据首字符生成 generate:表示根据首句和风格句生成古诗
训练时注释掉后两行,保留train行,
if __name__ == "__main__":
words,poetry_vector,to_num,x_batches,y_batches = poetry_porcess.poetry_process()
train(words, poetry_vector, x_batches, y_batches)
# gen_poetry(words, to_num)
# generate(words_, to_num_, style_words="狂沙将军战燕然,大漠孤烟黄河骑。")
生成时不需要修改,但是
generate(words_, to_num_, style_words="狂沙将军战燕然,大漠孤烟黄河骑。")
可以替换style_word为任何你想要的风格句,注意最好使用7言或者5言,因为这句会大概率影响到你生成的古诗的句子长度(不绝对),这只是风格提取,你可以输入任意长度;在运行了脚本后,屏幕会提示输入起始句,输入的句子一般5或者7个字,这个由于会拿来直接做首句(由结果示范可以看到),输入长度不宜过长。
对于上面的两种情况,修改完成后运行脚本即可,
python main.py
即可显示结果
3、结果示范
head:床前明月光 + style:黄沙百战金甲:
床前明月光辉,魏武征夫血絮红。
数步崩云复遗主,缟衣东,帝京举,玉轮还满出书初。
秋秋惨惨垂杨柳,梦断黄莺欲断肠。
花凋柳映阮家几,屋前病,歇马空留门。
当年皆月林,独往深山有素。
head:少小离家老大回 + style:山雨欲来风满楼:
少小离家老大回,四壁百月弄鸦飞。
扫香花间春风地,隔天倾似烂桃香。
近来谁伴清明日,两株愁味在罗帏。
仍通西疾空何处,轧轧凉吹日方明。
head:少小离家老大回 + style:铁马冰河入梦来:
少小离家老大回,化空千里便成丝。
官抛十里同牛颔,莫碍风光雪片云。
饮水远涛飞汉地,云连城户翠微低。
一树铁门万象耸,白云三尺各关高。
同言东甸西游子,谁道承阳要旧忧。
少小离家老大回,含颦玉烛拂楼台。
初齐去府芙蓉死,细缓行云向国天
RNN结构补充
原网络结构如下,实际上不需要像下面这样写了,不过当时费了好大事,所以保留一下原来版本的代码,
with tf.variable_scope('placeholder'): input_vec = tf.placeholder(tf.int32,[None,None]) output_targets = tf.placeholder(tf.int32,[None,None]) def rnn_network(rnn_size=128,num_layers=2): def lstm_cell(): l_cell = tf.contrib.rnn.BasicLSTMCell(rnn_size,state_is_tuple=True,reuse=tf.get_variable_scope().reuse) return l_cell cell = tf.contrib.rnn.MultiRNNCell([lstm_cell() for _ in range(num_layers)]) initial_state = cell.zero_state(batch_size, tf.float32) # 初始化LSTM网络节点,参数为尺寸 with tf.variable_scope('LSTM'): with tf.variable_scope('embedding'): E = tf.get_variable('embedding',[len(words_list) + 1,rnn_size]) input_embedding = tf.nn.embedding_lookup(E,input_vec) output_embedding, last_state = tf.nn.dynamic_rnn(cell, input_embedding, initial_state=initial_state,scope='lstm') output = tf.reshape(output_embedding,[-1,rnn_size]) with tf.variable_scope('output'): W = tf.get_variable('W', [rnn_size,len(words_list)+1]) b = tf.get_variable('b', [len(words_list)+1]) logits = tf.matmul(output,W) + b probs = tf.nn.softmax(logits) return logits, last_state, probs, cell, initial_state
另外,直接使用tf.nn.rnn_cell而不是用tf.contrib.rnn也可以。