zoukankan      html  css  js  c++  java
  • logistic Regression

     

     

     进行数学推导

     

    逻辑回顾与线性回顾的差异

     为什么logistic Regression 不能用square error

     

     

    Discriminative vs  Generative

    逻辑回归的方法称为Discriminative(判别) 方法;上一篇中用高斯来描述后验概率,称为 Generative(生成) 方法。它们的函数集都是一样的:

    如果是逻辑回归,就可以直接用梯度下降法找出w和b;如果是概率生成模型,像上篇那样求出 μ^1,μ^2μ1,μ2 ,协方差矩阵的逆,然后就能算出w和b。

    用逻辑回归和概率生成模型找出来的w和b是不一样的。

     

    generative model 做了某些假设
    Naive Bayes(贝叶斯)没有考虑不同维度间的关系
    那么在class 2里面没有(1 1 )因为data 不够多,(1 1)也是有可能被产生的。因此贝叶斯会脑补这些情况

     

    生成方法的优势:

    训练集数据量很小的情况;因为判别方法没有做任何假设,就是看着训练集来计算,训练集数量越来越大的时候,error会越小。而生成方法会自己脑补,受到数据量的影响比较小。 对于噪声数据有更好的鲁棒性(robust)。 先验和类相关的概率可以从不同的来源估计。比如语音识别,可能直观会认为现在的语音识别大都使用神经网络来进行处理,是判别方法,但事实上整个语音识别是 Generative 的方法,DNN只是其中的一块而已;因为还是需要算一个先验概率,就是某句话被说出来的概率,而估计某句话被说出来的概率不需要声音数据,只需要爬很多的句子,就能计算某句话出现的几率。

    多类分类

    siftmax 可以强化大的值

     

    逻辑回归的限制

     但是仍然想用逻辑回归,怎么办?

    特征转化

     那么如何让机器找到一个好的transformation

    举个例子

     这种方式其实就是神经网络

  • 相关阅读:
    【HEOI2016】序列
    【AHOI2006】基因匹配
    【HAOI2016】放棋子
    【TJOI2017】DNA
    Luogu5110 块速递推
    长链剖分学习笔记
    【Vijos】lxhgww的奇思妙想
    [python 学习] requests 库的使用
    [php代码审计] Window api函数 FindFirstFile 在php中的问题
    [php代码审计] apache 后缀名解析“漏洞”
  • 原文地址:https://www.cnblogs.com/tingtin/p/12321465.html
Copyright © 2011-2022 走看看