zoukankan      html  css  js  c++  java
  • 机器学习笔记(7):逻辑回归模型

    损失函数(Cost function)

    不能使用跟线性回归一样的损失函数,因为那样会使输出曲线是波浪形的,导致其不适合凸函数,有很多局部最优值。

    线性回归的损失函数是这样的:

    当 y = 1 时,J(θ) 的图是这样的:

    当 y = 0 时,J(θ) 的图如下:

    如果 y 为0, 如果 hθ(x) 输出0,那么 cost function 也为0, 如果 hθ(x) 接近1,那么 cost function 会接近无穷大。

    如果 y 为1, 如果  hθ(x) 输出1, 那么 cost function 为0,如果  hθ(x)  接近0, 那么 cost function 会接近无穷大。

    注意: cosf function 这样表示可以保证 J(θ) 是凸函数。 


    简化 cost function 和梯度下降

    我们可以把 cost function 的两个case 简化为一个 case:

    整个 cost function 可以写成这样:

    向量化的表示:

    梯度下降可以这样表示:

    梯度下降的向量化表示:


    高级优化

     "Conjugate gradient", "BFGS", 以及 "L-BFGS" 是优化 θ 中比梯度下降更复杂但是更快的方法,很多库提供了这些方法。


    多类别分类问题

     我们将二元分类问题扩展为 y = {0,1,...,n}

    多类别分类时,我们先选择一个类,然后把所有剩下的其他类当做一个单独的第二类。这样,对每个 case 我们使用二元逻辑回归,然后返回 hypothesis 的最大值作为我们的预测。

  • 相关阅读:
    ARM与MIPS平台优劣对比分析
    ARM11Linux2.6ButtonDriverBaseinfo1
    程序员都应该阅读的十一本名书
    驱动设计ARM(6410)按键驱动0基础知识点
    创业编程七个错误认识
    ARM11Linux2.6ButtonDriverBaseinfo
    Arm设计思想与高效C语言编程联系
    个人软件已死?
    评价一个软件的3个角度
    我对北理FTP联盟的建议
  • 原文地址:https://www.cnblogs.com/lxb0478/p/8283290.html
Copyright © 2011-2022 走看看