zoukankan      html  css  js  c++  java
  • 隐马尔可夫模型HMM

    隐马尔可夫模型HMM的探究


    隐马尔可夫模型(hidden Markov model,HMM)是可用于标注问题的统计学习模型,描述由隐藏马尔科夫链随机生成的观测序列的过程,属于生成模型。在语音识别,自然语言处理,生物信息,模式识别有广泛的应用。

    1 HMM基本概念

    1.1 定义


    马尔可夫链的定义:随机过程中出现的字符,每个字符出现的概率不是独立的而是依赖于此前的状态,称为——。与之相对应的是独立链,即每个字符出现的概率是独立的。 
    参考链接:马尔可夫和马尔可夫链


    HMM是关于时序的概率模型,描述由一个隐藏的马尔科夫链随机生成不可观测的状态随机序列,再由各个状态生成一个观测随机序列的过程。隐藏的马尔可夫链随机生成的状态的序列称为状态序列(state sequence)。每个状态生成一个观测,由此产生的观测的随机序列称为观测序列(observation sequence)。序列的每个位置可以看做是一个时刻。 
    很多术语: 
    设Q是所有可能状态的集合,V是所有可能观测的集合。Q={q1,q2,…,qN},V={v1,v2,…,vM}, N是可能的状态数,M是可能的观测数。 
    I是长度为T的状态序列,O是对应的观测序列,I=(i1,i2,…,iT),O=(ν1,ν2,…,νT) 
    A是状态转移概率矩阵,A=[aij]NXN,αij=P(it+1=qj|it=qi),i=1,2,..,N;j=1,2,..N,表明时刻t处于状态qi的条件下t+1转移状态的概率qj。 
    更好的理解状态转移概率:知乎PHD-Tasi的回答 
     
    B是观测概率矩阵,B=[bj(k)]NXM,表明时刻t处于状态qj条件下生成的观测νk的概率。 
    π是初始状态向量,π=(πi),其中,πi=P(i1=qi),i=1,2…,N表示时刻t=1时处于状态qi的概率。 
    HMM由初始状态概率向量π,状态转移概率矩阵A和观测概率矩阵B决定,π和A决定状态序列,B决定观测序列,因此HMM用λ的三元符号表示为:λ=(A,B,π),称为HMM的三要素。 
    从定义出发,发现HMM作了两个基本假设:

    1. 齐次马尔可夫假设:隐藏的马尔可夫链在任意时刻t的状态只依赖于其前一时刻的状态,与其他时刻的状态及观测无关,也与时刻t无关。
    2. 观测独立性假设:假设任意时刻的观测只依赖于该时刻的马尔可夫链的状态,与其他观测及状态无关。 
       
      HMM可用于标注,这时状态对应着标记,标注问题是给定观测的序列与其对应的标记序列。假设标注问题的数据由HMM生成,这样可用HMM的学习与预测算法进行标注。

    1.2 观测序列生成过程

    算法: 

    1.3 HMM的三个问题

    1. 概率计算的问题:给定模型λ=(A,B,π)和观测序列O=(o1,o2,…,ot),计算在模型λ下观测序列O出现的概率P(O|λ)。
    2. 学习问题:已知观测序列O=(o1,o2,…,oT),估计模型λ=(A,B,π)参数,使得在该模型下观测序列的概率P(O|λ)最大,即用极大似然估计方法估计参数。
    3. 预测问题:也称解码(decoding),已知模型λ=(A,B,π)和观测序列O,求对给定观测序列条件概率P(I|O)最大的状态序列I。即给定观测序列求最有可能的对应的状态序列。

    2 概率计算算法

    计算观测序列的概率的算法。

    2.1 直接计算算法

    给定模型λ=(A,B,π)和观测序列O=(o1,o2,…oT),计算观测序列O出现的概率P(O|λ)。最直接的方法是按照概率公式直接计算。通过列举所有可能的长度为T的状态序列I=(i1,i2,…,iT),求各个状态序列I与观测序列O的联合概率P(O,I|λ),然后对所有可能的状态序列求和(边缘概率)得到P(O|λ)。 
    状态序列I的概率是: 
    对固定状态序列I,观测序列O的概率是: 
    O,I同时出现的联合概率为: 
    然后对所有可能的状态I求和得到要求的概率: 
     
    但是计算量极大,是阶的。

    2.2 前向算法forward algorithm

    前向概率:给定HMM模型λ,定义到时刻t部分观测序列为o1,o2,…,oT且状态为qi的概率为—— 
     
    可以递推的求前向概率及观测概率P(O|λ)。 
    算法: 
     
     
    步骤1中,初始化前向概率,是初始时刻的状态i1=qi和观测o1的联合概率; 
    步骤2中,是前向概率的递推公式,计算到时刻t+1部分观测序列为o1,o2,…,ot+1且时刻t+1处于状态qi的前向概率; 
    步骤3中,,所有求和,这里和上面直接求解的加和一个意思。

    2.3 后向算法

    后向概率:给定HMM的λ,定义时刻t状态为qi的条件下,从t+1到T的部分观测序列为ot+1,… ,oT,称为—— 
     
    同样用递推的方法来求。 
    算法: 
     
    因为前向算法和后向算法思路是一致的,所以统一写成: 

    2.4 一些概率与期望值的计算

    利用前向,后向概率可以得到单个状态和两个状态概率的计算公式。

    1. 给定模型λ和观测O,在时刻t处于状态qi的概率: 
      由前向概率可得: 
       
       
      于是, 
    2. 给定模型λ和观测O,在时刻t处于状态qi且在时刻t+1处于状态qj的概率为: 
      由前向后向概率可得: 
       
      而 
       
      因此, 
    3. 将1,2结合可对各个时刻t求和,得到一些有用的期望值
    • 观测O下状态i出现的期望值:
    • 观测O下状态i转移的期望值:
    • 观测O下状态i转移到j的期望值:

    3 学习算法

    根据训练数据是包括观测序列和对应状态序列还是只有观测序列分为监督学和非监督学习实现。

    3.1 监督学习

    假设已知训练数据包含S个长度相同的观测序列和对应的状态序列{(O1,I1),(O2,I2),……,(Os,Is)},那么就可以利用极大似然估计来估计HMM的参数。具体方法如下,

    1. 转移概率aij的估计 
      设样本中时刻t处于状态i,时刻t+1转移到状态j的频数为Aij,那么转移状态概率估计为 
    2. 观测概率bj(k)的估计 
      设样本中状态为j并观测为k的频数为Bjk,那么状态为j观测为k的概率为估计为 
    3. 初始状态概率πi的估计πi hat 为S个样本中初始状态为qi的频率 
      由于监督学习的算法需要训练数据,而人工标注的代价很大,所以有时候需要非监督学习的方法,如下节。

    3.2 非监督学习——Baum-Welch算法

    假设给定训练数据只包含S个,长度为T的观测序列{O1,O2,…,Os}而没对应的状态序列,目标是学习HMM的λ=(A,B,π)的参数。将观测序列看做测试数据O,状态序列数据看做不可观测的隐数据I,实际上HMM是一个含有隐变量的概率模型:可以由EM算法实现。

    更新一个链接:EM算法的介绍 

    1. 确定完全数据的对数似然函数 
      所有观测数据写成O=(o1,o2,…,oT),所有隐数据写成I=(i1,i2,…,iT),完全数据是(O,I)=(o1,o2,…,oT,i1,i2,…,iT),完全数据的对数似然函数是
    2. EM算法的E步:求Q函数 
       
      其中,是HMM当前参数的估计值,λ是要极大化的HMM参数。 
       
      那么Q函数可化为: 
      求和是因为对所有序列总长度为T的训练数据上进行的。
    3. EM算法的M步:极大化Q函数求模型参数A,B,π 
      观察Q函数最后的化简结果可发现,三个参数分别单独出现在三项中,故只需对三项分别极大化。 
      第一项: 
      ,πi的约束条件是,利用拉格朗日乘数法,写出拉格朗日函数: 
      求偏导并令结果为0,得 
      ==> 
      对i求和,得到γ, 
      回代得到; 
      第二项: 
      ,类似第一项约束条件,利用拉格朗日乘数法求得: 
       
      第三项: 
      ,约束条件,利用拉格朗日乘数法,得到: 
       
      注意:只有在ot=νk时,bj(ot)对bj(k)的偏导才不为0,以I(ot=νk)表示

    3.3 Baum-Welch模型参数估计公式

    三个公式:; 
    BW算法: 
     

    4 预测算法

    这是HMM最后一个问题:已知模型λ=(A,B,π)和观测序列O,求对给定观测序列条件概率P(I|O)最大的状态序列I。即给定观测序列求最有可能的对应的状态序列。

    4.1 近似算法

    思想是:在每个时刻t选择在该时刻最有可能出现的状态it从而得到一个状态序列,将它作为预测结果。 
    给定HMM的λ和观测序列O,在此时刻t处于状态qi的概率为: 
     
    每一时刻最有可能的状态是,从而得到状态序列I
    。 
    近似算法的优点是计算简单,缺点是不能保证预测的状态序列整体上是最有可能的状态序列,因为预测的状态序列可能实际有不发生的部分。此方法得到的序列有可能存在转移概率为0的相邻状态。

    4.2 维特比算法Viterbi algorithm

    实际上是运用动态规划(dynamic programming)求解HMM问题。即动态规划求概率最大路径(最优路径)。这时一条路径对应一个状态序列。 
    什么是动态规划 
    根据动态规划原理,最优路径特性:时刻t通过的结点到最终结点时,对于所有其他可能的路径来说一定是最优的,如果不是,那么则出现另外一条最优的,与假设本路径最优矛盾,因此,我们只需,从时刻t=1开始,递推的计算在时刻t状态为i的各条部分路径的最大概率,直到得到t=T状态为i的各条路径的最大概率。时刻t=T的最大概率即为最优路径的概率P,最优路径的终结点iT同时得到。为了找到最优路径的各个结点,从iT开始,由后向前逐步求得结点得到最优路径I,这就是Viterbi算法。 
    定义在时刻t状态为i的所有单个路径(i1,i2,…,iT)中概率最大值为: 
    可得变量δ的递推公式: 
     
    时刻t状态为i的所有单个路径概率最大的路径中第t-1个结点为: 
    Viterbi 算法: 
     
     

     

     

     

     

    分类: 机器学习

  • 相关阅读:
    .NET开源B2C商城项目AssionShop开始开发设计(发布3小时撤下)
    AssionShop开源B2C电子商务系统概述
    ASP.NET中在不同的子域中共享Session
    单元测试框架"艾信.NET单元测试工具(AssionUnit)"开发第二步
    asp.net mvc 分页控件 MvcPager修改;使用范围增大
    Linux服务器测试网络连通性
    如何使用python连接mysql数据库
    mysql数据库基础知识
    使用python创建数据库并插入数据
    Linux下查看日志用到的常用命令
  • 原文地址:https://www.cnblogs.com/Leo_wl/p/8574578.html
Copyright © 2011-2022 走看看