第一天到实验室,两篇英文论文,周四要开组会说两篇论文。还要学Python.
第一篇是关于神经机器翻译,看了一下午只看了2页,悲催。但大致看懂了该论文是讲神经机器翻译可以解决传统翻译的问题-随着输入语句长度的增加翻译出现难度的问题。其次讲解了神经机器翻译主要:
- 不会将整个输入的语句编码成一个单独固定常量
- 而是它把输入语句编码成一系列向量,并在解码翻译时自适应地选择这些向量的子集。
- 条件概率问题,翻译模型学会条件概率分布,就会通过给定的源语句进行搜索最大概率的翻译来进行对应的翻译。
- 其运用了RNN算法。--循环神经网络算法 -------------我觉得我还没有搞懂RNN,以下是我一晚上看的结果。 整个晚上都在看循环神经网络算法,就去追寻了一下神经网络,我大致理解了一维的神经网络,看到一个网站上面讲解的例子,神经网络包含输入层(即你输入一些物体的特征参数),隐藏层(感知层),输出层。其最主要的是隐藏层。隐藏层处理完毕后通过激励函数得出曲线,连接到输出层。------明天继续神经网络