zoukankan      html  css  js  c++  java
  • 机器学习笔记(7):逻辑回归模型

    损失函数(Cost function)

    不能使用跟线性回归一样的损失函数,因为那样会使输出曲线是波浪形的,导致其不适合凸函数,有很多局部最优值。

    线性回归的损失函数是这样的:

    当 y = 1 时,J(θ) 的图是这样的:

    当 y = 0 时,J(θ) 的图如下:

    如果 y 为0, 如果 hθ(x) 输出0,那么 cost function 也为0, 如果 hθ(x) 接近1,那么 cost function 会接近无穷大。

    如果 y 为1, 如果  hθ(x) 输出1, 那么 cost function 为0,如果  hθ(x)  接近0, 那么 cost function 会接近无穷大。

    注意: cosf function 这样表示可以保证 J(θ) 是凸函数。 


    简化 cost function 和梯度下降

    我们可以把 cost function 的两个case 简化为一个 case:

    整个 cost function 可以写成这样:

    向量化的表示:

    梯度下降可以这样表示:

    梯度下降的向量化表示:


    高级优化

     "Conjugate gradient", "BFGS", 以及 "L-BFGS" 是优化 θ 中比梯度下降更复杂但是更快的方法,很多库提供了这些方法。


    多类别分类问题

     我们将二元分类问题扩展为 y = {0,1,...,n}

    多类别分类时,我们先选择一个类,然后把所有剩下的其他类当做一个单独的第二类。这样,对每个 case 我们使用二元逻辑回归,然后返回 hypothesis 的最大值作为我们的预测。

  • 相关阅读:
    cmd输入输出重定向
    【转载】标准输入输出、错误输出、重定向标准输出
    cmd 重定向
    Windows下cmd标准输入输出重定向
    Windows 命令行输入输出重定向问题
    MATLAB数值计算与符号运算
    选择排序法 冒泡排序法 本质上是对内存进行整理
    学习笔记:Monkey runner(一)
    Monkey test
    fiddler:快速标识接口
  • 原文地址:https://www.cnblogs.com/lxb0478/p/8283290.html
Copyright © 2011-2022 走看看