zoukankan      html  css  js  c++  java
  • [笔记-机器学习]贝叶斯分类器的原理及实现

    最近阅读了《Python与机器学习实战》的贝叶斯分类器这部分
    对比了一下我写的分类器,发现还有很多地方可以优化,不知道有没有时间去做优化了
    但是这个笔记还是要写的,我们先做一个简单的目录
    注意本文只是一个夹杂了个人理解的笔记,初次学习,有误是肯定的

    • 贝叶斯决策论
    • 参数估计
      1. 极大似然估计
      2. 极大后验概率估计
    • 朴素贝叶斯
      1. 离散型朴素贝叶斯
      2. 连续型朴素贝叶斯
      3. 混合型朴素贝叶斯
    • 半朴素贝叶斯和贝叶斯网

    贝叶斯决策论

    这里首先写一下其中的一些概念

    • 样本空间 $ X $ :指一个包含数据样本的向量$ ilde{X} $的空间,即有 $ ilde{X} in X $
    • 样本 $ ilde{X} $:由各个数据样本构成的高维向量,即 $ ilde{X}=(x_1, ..., x_n)^T $
    • 行动空间 $ A $:指处理问题的所有行动的空间(我的理解就是处理问题的各种方法的空间)
    • 参数空间 $ Theta $:指所有分类的各个参数的集合,在这里我们这样规定 $ A=Theta $
    • 决策 $ delta( ilde{X}) $ :一个样本空间到行动空间的映射,可以通过一组样本 $ ilde{X} $ 取得一个处理问题的行动( $ delta( ilde{X}) in A $ )
    • 损失 $ L( heta, delta( ilde{X})) $ :用以描述在参数( heta, ( heta in Theta))和行动 $ delta( ilde{X}) $ 时所引起的损失
    • 决策风险 $ R( heta, delta) $ :它是损失函数的期望:$ R( heta,delta)=EL( heta,delta( ilde X)) $
    • 平均风险 $ ho(delta) $ :它是决策风险在先验分布 $ heta{X} $ 下的期望: $ ho(delta)=E_xi R( heta,delta) $
    • 贝叶斯决策 $ delta^* $ ,它满足:$ ho(delta^*)=inf_delta ho(delta) $
      即最小后验期望损失,贝叶斯决策也就是这样的

    [delta^*=arg min_delta sum_{ heta_{k} in Theta} L( heta_{k}, delta)P( heta_{k}| ilde{X}) ]

    (这里不理解)
    (数学这块还是不太行啊,看来要预习一下)

    参数估计

    1. 极大似然估计
      自然希望得到一个参数,能当输入为X时,输出正确分类的概率最大。
      我们希望找到这样一个 (hat{ heta}):

    [hat{ heta}= arg max_ heta prod_{i=1}^{N}P(x_{i}| heta) ]

    1. 极大后验概率估计(MAP估计)
      MAP估计的一个优势就是它引入了一个先验概率,即

    [hat{ heta}= arg max_ heta P( heta)prod_{i=1}^{N}P(x_{i}| heta) ]

    朴素贝叶斯

    首先给出由贝叶斯公式推出的概率:

    [P( heta| ilde{X})=frac{P( ilde{X}| heta)P( heta)}{P( ilde{X})} ]

    朴素贝叶斯的一个假设是各个随机变量之间是相互独立的,即:

    [P(X)=P(x_{1}, x_{2}, ..., x_{n}| heta)=prod P(x_{i}| heta) ]

    • 朴素贝叶斯参数空间
      朴素贝叶斯模型参数空间即为类别的选择空间(假设一共有K类:$ c_{1}, .., c_{K} $),即:

    [Theta={y=c_{1}, y=c_{2}, ..., y=c_{K},} ]

    通过观察贝叶斯公式,可以知道$ P( ilde{X}) (是一个不需要的信息, 所以朴素贝叶斯参数空间中包括先验概率) p( heta_{k})=p(y=c_{k}) (,条件概率) p(X|y=c_{k}) (, 样本空间概率) p(X) $

    • 决策
      决策就是后验概率最大化(需证明),于是具体的决策函数就是这样:

    [f(x)=arg max_{c_{k}} prod _{j=1}^{n}hat{p}(x|y=c_{k}) ]

    • 损失
      在离散朴素贝叶斯中,损失函数是这样:

    [L( heta, delta( ilde{X}))=sum_{i=1}^{N}I(y_{i} eq f(x_{i})) ]

    暂时更新到这里,还有其他事:(

    2018-02-28 16:35 Update: 更新至朴素贝叶斯的损失

  • 相关阅读:
    概率派VS贝叶斯派
    Numpy-数组array操作
    Numpy基础
    PCA基本原理
    编程语言
    卷积神经网络基础
    IntelliJ IDEA Merge
    Mybatis 问题总结
    Lambda用法
    Map键值对取值, key是在"|"转义, value是在::取值
  • 原文地址:https://www.cnblogs.com/tanglizi/p/8476725.html
Copyright © 2011-2022 走看看