zoukankan      html  css  js  c++  java
  • 《数学之美》阅读小记

    主要是记录一些我认为比较有代表性的知识点~

    1.自然语言处理解决问题的方法经历了从规则(句法分析:主谓宾动名形容词)到统计的转变。

    2.N元模型:P(s)=P(w1,w2,...wn)句子s出现的概率由其中的词出现的概率计算,基于马尔科夫假设(任意一个词wi出现的概率只同它前面的词Wi-1有关),该公式简化为

    P(s)=P(w1)*P(w2|w1)*P(w3|w2)...P(wn|wn-1),该统计语言模型称为二元模型。

    相应的,假设一个词由前面n-1个词决定,称为N元模型。

    但是,一般只用到3元模型及以下,因为当N从1到2,再从2到3时,模型的效果上升显著,但从3到4时,效果提示不是很显著,且资源的耗费增加很快。另外,很有可能即便再高阶的语言模型都不能覆盖所有语言现象,这是马尔科夫假设的局限性,此时要采用其他一些长程的依赖性来解决。

    另外基于统计计算的概率可能得到概率为0,此时方法一是增加数据量,但是仍然没有办法避免出现0概率,方法二是通过古德-图灵估计计算词出现的概率,或者是其他平滑方法如:卡茨退避法。由于一元组wi出现的次数平均比二元组(wi-1,wi)出现的次数要多很多,根据大数定理,他的相对频度更接近概率分布,类似的,二元组比三元组更接近概率分布,所以用低阶语言模型和高阶模型进行线性插值达到平滑的目的,称为删除差值

  • 相关阅读:
    UVa 107 The Cat in the Hat
    UVa 591 Box of Bricks
    UVa 253 Cube painting
    UVa 10161 Ant on a Chessboard
    UVa 401 Palindromes
    UVa 465 Overflow
    我不知道
    消防局的设立
    某CF的D
    保安站岗
  • 原文地址:https://www.cnblogs.com/kjkj/p/10034548.html
Copyright © 2011-2022 走看看