zoukankan      html  css  js  c++  java
  • Set_ML

    参考资料:斯坦福(http://cs231n.github.io/linear-classify/;http://cs231n.stanford.edu/slides/2017/)

         Mastering Machine Learning With scikit-learn

     

     

    • 假设函数(Hypothesis Function)模型的知识表达:

      然后利用已知的数据对其中的参数进行求解,再将该函数用于新数据的预测,其中参数的求解过程称为“训练(Training) or 学习(Learning)

    • 待优化参数 θ0,θ1

    • 损失函数(loss function),或叫代价函数(cost function)

      损失函数越小,就代表模型拟合的越好。

    • 损失函数最小目标转换为经验风险最小化

      由于我们输入输出的 (X,Y) 遵循一个联合分布,但是这个联合分布是未知的,所以无法计算。但是我们是有历史数据的,就是我们的训练集, f(X) 关于训练集的平均损失称作经验风险(empirical risk),即 frac{1}{N}sum_{i=1}^{N}L(y_{i},f(x_{i})) ,所以我们的目标就是最小化 frac{1}{N}sum_{i=1}^{N}L(y_{i},f(x_{i})) ,称为经验风险最小化

    • 结构风险

      为了平衡经验风险最小化目标与模型的复杂性(模型对数据的记性)引入结构风险,常用方法L1和L2范数。

    • 目标函数

    最终的优化函数是:minfrac{1}{N}sum_{i=1}^{N}L(y_{i},f(x_{i}))+lambda J(f) ,即最优化经验风险和结构风险,而这个函数就被称为目标函数

    线性可分

    • 线性回归与分类

      变换后:

     

     

      线性回归

     

    LinearRegression 回归

     

    • 模型—线性最小二乘法(linear least squares)
    • 函数表示—f(xi,W,b)=Wxi+b
    • 损失函数—残差平方和(residual sum of squares)损失函数

       多元

      多项式回归

     

     

     

      线性分类

    • 二分类

    Logistic 分类器

     

    • 模型—Bernoulli(伯努利) 分布
    • 函数表示—logistic函数(sigmoid函数)

      

    • 多类

    SVM

    • 损失函数—折叶损失(hinge loss)

    softmax

    • 损失函数 —交叉熵损失(cross-entropy loss)

    SVM vs. Softmax

     线性不可分

    SVM

    ANN

     

  • 相关阅读:
    数据对拍
    学大伟业 Day 5 培训总结
    【luogu P3378 堆】 模板
    【luogu P1865 A % B Problem】 题解
    学大伟业 Day 4 培训总结
    【luogu P1082 同余方程】 题解
    诗一首
    【luogu P2251 质量检测】 题解
    【luogu P3865 ST表】 模板
    【luogu P1816 忠诚】 题解
  • 原文地址:https://www.cnblogs.com/JueJi-2017/p/7492474.html
Copyright © 2011-2022 走看看