zoukankan      html  css  js  c++  java
  • 线性回归LR,广义线性模型GLM,逻辑斯蒂回归

    只是学习笔记,杂乱。
    在[https://blog.csdn.net/Cdd2xd/article/details/75635688]有更好的归纳和解释。

    基本形式

    线性模型,具有更好的可解释性,每个参数有表示的意义。

    f(x) = wx + b
    

    线性回归试图学得一个线性模型以尽可能准确地预测实值输出标记。

    要训练w使得代价函数最小,如何选一个w使得代价函数最小?

    最小均方算法(LMS)。基于均方误差最小化来进行模型求解的方法称为“最小二乘法”

    w* = argmin (y-wx)T(y-wx)
    //当XTX为满秩矩阵或正定矩阵时,可以得到下方等式。
    w = (XT * X)-1 * XT * y
    

    然而,显示生活中很多XTX不是满秩矩阵,需要引入正则化项。

    广义线性模型

    lny = wx + b
    

    对数线性回归,形式上仍是线性回归,实质上已是在求取输入空间到输出空间的非线性函数映射。

    对数几率回归

    逻辑斯蒂回归,正例与反例的比值的对数。通过极大似然法估计w和b。

    多分类学习

    多分类学习的基本思路是将多分类拆为若干个二分类任务求解。为拆出的每个二分类任务训练一个分类器,最后对所有分类器的预测结果进行集成以获得最终的多分类结果。

    关键是如何拆分?有三种策略:一对一,一对其余,多对多

    一对一:将N个类别两两配对,产生N*(N-1)/2个二分类任务,最后结果通过投票得出。

    一对其余:一个类的样例作为正例,其他类的样例作为反例,需要训练N个分类器

    多对多:若干个作为正类,若干个作为反类。

    类别不平衡

    分类任务重不同类别的训练样例数目差别很大,正例少反例多,或正例多反例少。

  • 相关阅读:
    Https协议详解
    python3爬虫之入门和正则表达式
    浅谈httpsssl数字证书
    Linux常见配置文件
    标准C++中的string类的用法总结
    SourceInsight中 加namespace宏后,无法跳转问题解决
    ubuntu 12.04安装vmtools 问题解决
    Prolific PL2303 usb 转串口Win8 Win8.1驱动
    大津法阈值法代码
    opencv常用函数备忘
  • 原文地址:https://www.cnblogs.com/chenshaowei/p/12748756.html
Copyright © 2011-2022 走看看