zoukankan      html  css  js  c++  java
  • 机器学习笔记(二)- from Andrew Ng的教学视频

    省略了Octave的使用方法结束,以后用得上再看吧

    week three:

    Logistic Regression:

    用于0-1分类

    Hypothesis Representation:

    :Sigmoid function or Logistic function

    Decision boundary:

    theta 的转置*小x>=0 即为boundary

    may :Non-linear decision boundaries,构造x的多项式项

    Cost function:

    Simplified cost function and gradient descent:

    由于y只有两个值,所以合并:

    对上式求最小偏导:

    (应该是忽略了分母)

    Advanced optimization:

    Conjugate gradient,BFGS,L-BFGS(有待查询学习)

    Multi-class classification: One-vs-all:

    对每个类使用一次Logistic Regression分类,确定参数之后,求出max的那一类:called One-vs-all(一对多方法)。

    Regularization:The problem of overfitting

    overfiting:reduce number of features or regularization

    linear regression:

    Gradient descent:

    Normal equation:

    Regularized logistic regression:like linear regression,add extra in J(theta)

    attention : 多的正则项是从1开始的,对于0不做惩罚。

  • 相关阅读:
    step_by_step_ABP规约模式
    阅读书单
    关于我
    友情链接
    数据夜话之大数据OLAP数据库概览
    Spark实战
    StormDRPC流程解读
    Curator源码阅读
    Storm使用总结
    JNI相关使用记录
  • 原文地址:https://www.cnblogs.com/holyprince/p/4215164.html
Copyright © 2011-2022 走看看