zoukankan      html  css  js  c++  java
  • 高斯混合模型 GMM

    本文将涉及到用 EM 算法来求解 GMM 模型,文中会涉及几个统计学的概念,这里先罗列出来:

    • 方差:用来描述数据的离散或波动程度.

    [var(X) =  frac{sum_{i=1}^N( X_i-ar{X})^2}{N-1}]

    • 协方差协方差表示了变量线性相关的方向,取值范围是 $[-infty, +infty]$,一般来说协方差为正值,说明一个变量变大另一个变量也变大;取负值说明一个变量变大另一个变量变小,取0说明两个变量没有相关关系.

    [cov(X,Y) =  frac{sum_{i=1}^N( X_i-ar{X})(Y_i-ar{Y}) }{N-1}]

    • 相关系数:协方差可反映两个变量之间的相互关系及相关方向,但无法表达其相关的程度,皮尔逊相关系数不仅表示线性相关的方向,还表示线性相关的程度,取值$[-1,1]$,也就是说,相关系数为正值,说明一个变量变大另一个变量也变大;取负值说明一个变量变大另一个变量变小,取0说明两个变量没有相关关系,同时,相关系数的绝对值越接近1,线性关系越显著。

    [ ho_{XY} = frac{cov(X,Y)}{sqrt{DX}sqrt{DX}}]

    • 协方差矩阵: 当 $X in mathbb{R}^n$ 为高维数据时,协方差矩阵可以很好的反映数据的性质,在协方差矩阵中,对角线元素反映了数据在各个维度上的离散程度,协方差矩阵为对角阵,非对角线元素反映了数据各个维度的相关性,其形式如下:
    [mathbf{Sigma} = egin{bmatrix}
    cov(x_1,x_1) &  cov(x_1,x_2)&cdots  &cov(x_1,x_n) \ cov(x_2,x_1) &  cov(x_1,x_1)&cdots  &cov(x_1,x_1) \
    vdots & vdots   & &  vdots & \ cov(x_n,x_1) &  cov(x_n,x_1)&cdots  &cov(x_n,x_n) 
    end{bmatrix}]

    1

    上图展示了二维情况下,使用不同的协方差矩阵时高斯分布的变化,左边代表不相关,中间为正相关,右边为负相关。

    高斯分布

    假设数据 $mathbf{x} in mathbb{R}^n$ 服从参数为 $mathbf{mu},mathbf{Sigma}$ 的高斯分布:

    [ mathcal{N}(mathbf{x};mu,mathbf{Sigma}) = frac{1}{(2pi)^{n/2}|mathbf{Sigma}|^{1/2}}expleft { -frac{1}{2} (mathbf{x}-mu)^Tmathbf{Sigma}^{-1}(mathbf{x}-mu) ight }]

    这里 $mu$ 为均值, $Sigma$ 为协方差矩阵,对于单个高斯分布,当给定数据集之后,直接进行 MLE 即可估计高斯分布的参数;但是有些数据集是多个高斯分布叠加在一起形成的,也就数据集是由多个高斯分布产生的,如下图所示三个高斯分布叠加在一起:

    1

    多个高斯分布叠加在一起便是混合高斯模型 GMM,GMM 的定义如下:

    [p(mathbf{mbox{x}}) = sum_{k=1}^K pi_k mathcal{N}(mathbf{mbox{x}} | mathbf{mu}_k, mathbf{Sigma}_k)]

    这里 $K$ 表示高斯分布的个数, $pi_k$ 代表 mixing coefficient ,且满足 $0 le pi_k le 1,sum_kpi_k = 1$,其实这里 $p(mathbf{x})$ 表示为 $K$ 个高斯分布的加权, $pi_k$ 就是权重系数,如果把 GMM 用在聚类中,则样本 $mathbf{x}$ 的类别即为 $argmax_kpi_k$.

    在 GMM 中,需要估计的参数为 $pi_k, mu_k, mathbf{Sigma}_k$,模型里每个观测数据 $mathbf{x}$ 都对应着一个隐变量 $mathbf{z} in mathbb{R}^K$,代表的即为类别变量, 且 $mathbf{z}_k in left {  0,1 ight }$ ,一个样本可以属于多个类别,叠加起来概率为 1 ,这里显而易见有:

    [p(mathbf{z}_k = 1) = pi_k ]

    则第 $k$ 个高斯分布可以表示为:

    [p(mathbf{mbox{x}}|z_k = 1) = mathcal{N}(mathbf{mbox{x}} | mathbf{mu}_k, mathbf{Sigma}_k)]

    如果已知 $mathbf{x}$ 所属的分布 $k$ ,则可把上式写成向量形式:

    [p(mathbf{x}|mathbf{z}) = mathcal{N}(mathbf{mbox{x}} | mathbf{mu}_k, mathbf{Sigma}_k)]

    因此完全数据的密度函数为:

    [p(mathbf{mbox{x}}) = sum_{mathbf{mbox{z}}} p(mathbf{mbox{z}}) p(mathbf{mbox{x}} | mathbf{mbox{z}}) = sum_{k=1}^K pi_k mathcal{N}(mathbf{mbox{x}} | mathbf{mu}_k, mathbf{Sigma}_k)]

    单个样本推倒完成,接下来给定观测数据集 $X$,对应的完全数据集为 $left{ X,Z ight}$ ,此时 $Z$ 是不可见的,形式如下:

    [X = egin{bmatrix} - mathbf{x}_1^T-\ -mathbf{x}_2^T -\  vdots \ -mathbf{x}_N^T -\end{bmatrix} Z = egin{bmatrix} - mathbf{z}_1^T-\ -mathbf{z}_2^T -\ vdots \ -mathbf{z}_N^T -\end{bmatrix}]

    对于该 GMM 的参数就采用 EM 算法来求解了,完全数据的联合分布为:

    [p(mathbf{X,Z} | mathbf{mu, Sigma, pi}) = prod_{n=1}^N left { sum_{k=1}^K pi_k mathcal{N}(mathbf{mbox{x}}_n vert mathbf{mu}_k, mathbf{Sigma}_k) ight }]

    写成对数似然函数的形式:

    [ln p(mathbf{mbox{X,Z}} | mathbf{mu, Sigma, pi}) = sum_{n=1}^N ln left { sum_{k=1}^K pi_k  mathcal{N}(mathbf{mbox{x}}_n | mathbf{mu}_k, mathbf{Sigma}_k)  ight }]

    下面便是EM 算法求解 GMM 的过程:

    E步: 使用参数 $ heta^{old}=(pi^{old},mu^{old},mathbf{Sigma}^{old})$ ,计算每个样本 $x_n$ 对应隐变量 $z_n$ 的后验分布:

    egin{aligned}
    gamma(z_{nk})=p(z_n = k|mathbf{x}_n;mathbf{mu}^{old},mathbf{Sigma}^{old})
    &=frac{p(z_{nk} = 1)p(mathbf{x_{nk}}|z_{nk} = 1)}{sum_{j=1}^Kp(z_{nj} = 1)p(mathbf{x_n}|z_{nj} = 1)}\
    &= frac{ pi_k^{old} mathcal{N}(mathbf{mbox{x}}_n | mathbf{mu}_k^{old}, mathbf{Sigma}_k^{old})} {Sigma_{j=1}^Kpi_j^{old} mathcal{N}(mathbf{mbox{x}}_n | mathbf{mu}_j^{old}, mathbf{Sigma}^{old}_j)}
    end{aligned}

    M步:便是极大化 Q 函数的计算,这里 Q 函数有非常漂亮的形式:

    egin{aligned}
    mathcal{Q} (mathbf{ heta}, mathbf{ heta}^{mbox{old}}) 
    &=  sum_{Z} p(Z | X, heta^{old}) ln p(X, Z | heta)\
    &=  sum_{Z} p(Z | X, heta^{old}) ln p(X| Z , heta)P(Z| heta)\
    &=sum_{n= 1}^N sum_{k=1}^Kgamma(z_{nk})left {  ln pi_k +lnmathcal{N}(mathbf{x}_n|mathbf{mu}_k ,mathbf{Sigma}_k) ight }\
    end{aligned}

    得到下一步迭代的参数:

    [ heta^{new}=argmax_{ heta}mathcal{Q} (mathbf{ heta}, mathbf{ heta}^{mbox{old}})  ]

    对 Q 函数求导,另倒数得 0 ,即可求得下一次迭代的参数值,这里省去计算过程,只给出结果:

    egin{aligned}
    mathbf{mu}_k^{new} &= frac{1}{N_k}sum_{n=1}^Ngamma(z_{nk})mathbf{x}_n\
    mathbf{Sigma}_k^{new} &= frac{1}{N_k}sum_{n=1}^Ngamma(z_{nk})(mathbf{x}_n-mathbf{mu}_k^{new})(mathbf{x}_n-mathbf{mu}_k^{new})^T \
    mathbf{pi}_k^{new} &=  frac{N_k}{N}
    end{aligned}

    其中:

    [N_k = sum_{n=1}^N gamma(z_{nk})]

    这便是完整的 GMM 推倒过程,理解的不是很好,有机会继续深入。

    参考:

    Pattern Reconginition and Machine Learning

    http://www.zhihu.com/question/20852004

    http://www.cnblogs.com/nsnow/p/4758202.html

    http://alexkong.net/2014/07/GMM-and-EM/

    http://www.cnblogs.com/jerrylead/archive/2011/04/06/2006936.html

    http://www.cnblogs.com/ooon/p/5787995.html

     

     

  • 相关阅读:
    淘宝大牛们——晒一晒淘宝网技术内幕
    csrf攻击与防范
    Angular路由——路由守卫
    Angular路由——辅助路由
    Angular路由——在路由时候传递数据
    Angular路由——子路由
    Angular路由——路由基础
    Angular组件——投影
    Angular组件——组件生命周期(二)
    Angular组件——组件生命周期(一)
  • 原文地址:https://www.cnblogs.com/ooon/p/5790210.html
Copyright © 2011-2022 走看看