zoukankan      html  css  js  c++  java
  • 【机器学习】逻辑回归详解总结

    【机器学习】逻辑回归详解总结

    一、总结

    一句话总结:

    还是要看【视频结合看书】,这样才有意义,还是得【多看书】,【多看视频】

    1、Logistic 回归的本质?

    假设数据服从这个分布,然后使用【极大似然估计做【参数的估计】】。

    2、逻辑回归 中的最大化似然函数和最小化损失函数的关系?

    在逻辑回归模型中,我们最大化似然函数和最小化损失函数实际上是【等价】的。

    3、逻辑回归求解方法?

    1.【随机梯度下降】:梯度下降是通过 J(w) 对 w 的一阶导数来找下降方向,并且以迭代的方式来更新参数
    2.【牛顿法】:牛顿法的基本思路是,【在现有极小点估计值的附近对 f(x) 做【二阶泰勒展开】,进而找到极小点的下一个【估计值】】。

    4、逻辑回归与线性回归 对比?

    逻辑回归是在线性回归的基础上【加了一个 Sigmoid 函数】(非线形)映射,使得逻辑回归称为了一个优秀的分类算法。
    本质上来说,两者都属于广义线性模型,但他们两个要解决的问题不一样,逻辑回归解决的是【分类问题】,输出的是离散值,线性回归解决的是【回归问题】,输出的连续值。

    5、逻辑回归与最大熵模型 对比?

    逻辑回归和最大熵模型【本质上没有区别】,最大熵在解决二分类问题时就是逻辑回归,在解决多分类问题时就是【多项逻辑回归】。

    6、逻辑回归与朴素贝叶斯 对比?

    朴素贝叶斯和逻辑回归都属于分类模型,当朴素贝叶斯的条件概率 P(X|Y=c_k) 服从高斯分布时,它【计算出来的 P(Y=1|X) 形式跟逻辑回归是一样的】。
    两个模型不同的地方在于:逻辑回归是【判别式模型 p(y|x)】,朴素贝叶斯是【生成式模型 p(x,y)】

    二、【机器学习】逻辑回归详解总结

    转自:https://zhuanlan.zhihu.com/p/74874291

     
    我的旨在学过的东西不再忘记(主要使用艾宾浩斯遗忘曲线算法及其它智能学习复习算法)的偏公益性质的完全免费的编程视频学习网站: fanrenyi.com;有各种前端、后端、算法、大数据、人工智能等课程。
    博主25岁,前端后端算法大数据人工智能都有兴趣。
    大家有啥都可以加博主联系方式(qq404006308,微信fan404006308)互相交流。工作、生活、心境,可以互相启迪。
    聊技术,交朋友,修心境,qq404006308,微信fan404006308
    26岁,真心找女朋友,非诚勿扰,微信fan404006308,qq404006308
    人工智能群:939687837

    作者相关推荐

  • 相关阅读:
    September 17th 2016 Week 38th Saturday
    【2016-09-16】UbuntuServer14.04或更高版本安装问题记录
    September 16th 2016 Week 38th Friday
    September 11th 2016 Week 38th Sunday
    September 12th 2016 Week 38th Monday
    September 10th 2016 Week 37th Saturday
    September 9th 2016 Week 37th Friday
    c++暂停
    八皇后问题
    ( 转转)Android初级开发第九讲--Intent最全用法(打开文件跳转页面等)
  • 原文地址:https://www.cnblogs.com/Renyi-Fan/p/14111923.html
Copyright © 2011-2022 走看看