zoukankan      html  css  js  c++  java
  • 清华大学刘洋--基于深度学习的机器翻译(2)--- 受限词汇量/先验约束/训练准则

    受限词汇量:我们不能把全部的所有词汇都汇总起来,这个集合太大了。我们只能选一些。

    受计算复杂度的限制,仅能使用有限的词汇量。

    这里有几种方法:

    1. 未登录词替换 unknown key replace :在后处理阶段,单独翻译未登录词
    2. 基于字母的模型。用更细粒度单元降低词汇量。
    3. 子词:BPE 合并高频字符串对实现子词切分。
    4. 相似词替换:用相似词代替未登录词进行训练

    ——————————————————————————————————————————————————————————————

    先验约束是什么呢?

    神经网络是数据驱动的,先验知识即数据以外的知识。

    1. 先验约束

    覆盖率的约束:不应该重复翻译,也不能漏翻

    注意力机制中的结构化约束,从神经网络自身进行约束,对函数约束

    一致性训练:翻译的正向和反向的结果大致是一致的,具有互补性。

    ________________________________________________________________________________________________________________________________________________________________________

    对于神经网络而言,极大似然估计越大越好。

    exposure bias问题:

    即在观测数据中,生成每一个目标词之前的所有词都是正确的。

    而模型预测的生成词不能保证之前的每一个词是正确的。

    ————————————————————————

    词级损失函数:

    极大似然估计,只对每一个词,使用损失函数。它并不会考虑语序等

    --------------

    最小风险训练

    柱搜索优化

    MIXER: 利用增强学习针对评价指标优化模型。

  • 相关阅读:
    第七章习题G题
    第二周习题O题
    P4735 最大异或和
    P3008 [USACO11JAN]道路和飞机Roads and Planes
    P4009 汽车加油行驶问题
    P1073 最优贸易
    P2260 [清华集训2012]模积和
    P2865 [USACO06NOV]路障Roadblocks
    P1821 [USACO07FEB]银牛派对Silver Cow Party
    P4180 【模板】严格次小生成树[BJWC2010]
  • 原文地址:https://www.cnblogs.com/vector11248/p/10382210.html
Copyright © 2011-2022 走看看