转自:
http://zipperary.com/2013/10/15/an-introduction-to-hmm/
http://www.52nlp.cn/hmm%E7%9B%B8%E5%85%B3%E6%96%87%E7%AB%A0%E7%B4%A2%E5%BC%95
总结(Summary)
隐马尔科夫模型(HMM)用五元组(N,M,pi,A,B) 来表示,N为隐含状态数目,M为观察状态数目,或简写为一个向量和两个矩阵(pi,A,B) ( 隐藏状态初始概率分布、隐藏状态转移概率矩阵、隐藏-观察状态混淆矩阵 ) ,HMM对于实际系统有着巨大的价值,虽然经常只是一种近似,但它们却是经得起分析的。
隐马尔科夫模型通常解决的问题包括:(示例可见:一文搞懂HMM)
1. 概率计算问题:已知HMM模型λ及观察序列O,如何计算得到这个观察序列的概率P(O|λ)?使用前向算法(forward algorithm)解决;
2. 预测问题(解码问题):已知HMM模型λ及观察序列O,确定最可能的隐藏状态序列,使得产生此观测序列的概率最大。使用Viterbi 算法(Viterbi algorithm)解决;
3. 学习问题:对于已生成的观察序列,如何调整模型参数, 使得P(O|λ)最大,使用前向-后向算法(forward-backward algorithm)解决。(这个问题事实上就是给出很多个观察序列值,来训练以上几个参数的问题。)
例子
一个很好的助于理解的例子:http://www.52nlp.cn/hmm-concrete-example-on-wiki
一篇更详细易懂的文章:http://www.cnblogs.com/skyme/p/4651331.html