zoukankan      html  css  js  c++  java
  • Set_ML

    参考资料:斯坦福(http://cs231n.github.io/linear-classify/;http://cs231n.stanford.edu/slides/2017/)

         Mastering Machine Learning With scikit-learn

     

     

    • 假设函数(Hypothesis Function)模型的知识表达:

      然后利用已知的数据对其中的参数进行求解,再将该函数用于新数据的预测,其中参数的求解过程称为“训练(Training) or 学习(Learning)

    • 待优化参数 θ0,θ1

    • 损失函数(loss function),或叫代价函数(cost function)

      损失函数越小,就代表模型拟合的越好。

    • 损失函数最小目标转换为经验风险最小化

      由于我们输入输出的 (X,Y) 遵循一个联合分布,但是这个联合分布是未知的,所以无法计算。但是我们是有历史数据的,就是我们的训练集, f(X) 关于训练集的平均损失称作经验风险(empirical risk),即 frac{1}{N}sum_{i=1}^{N}L(y_{i},f(x_{i})) ,所以我们的目标就是最小化 frac{1}{N}sum_{i=1}^{N}L(y_{i},f(x_{i})) ,称为经验风险最小化

    • 结构风险

      为了平衡经验风险最小化目标与模型的复杂性(模型对数据的记性)引入结构风险,常用方法L1和L2范数。

    • 目标函数

    最终的优化函数是:minfrac{1}{N}sum_{i=1}^{N}L(y_{i},f(x_{i}))+lambda J(f) ,即最优化经验风险和结构风险,而这个函数就被称为目标函数

    线性可分

    • 线性回归与分类

      变换后:

     

     

      线性回归

     

    LinearRegression 回归

     

    • 模型—线性最小二乘法(linear least squares)
    • 函数表示—f(xi,W,b)=Wxi+b
    • 损失函数—残差平方和(residual sum of squares)损失函数

       多元

      多项式回归

     

     

     

      线性分类

    • 二分类

    Logistic 分类器

     

    • 模型—Bernoulli(伯努利) 分布
    • 函数表示—logistic函数(sigmoid函数)

      

    • 多类

    SVM

    • 损失函数—折叶损失(hinge loss)

    softmax

    • 损失函数 —交叉熵损失(cross-entropy loss)

    SVM vs. Softmax

     线性不可分

    SVM

    ANN

     

  • 相关阅读:
    如何构建积木式Web应用
    ASP.NET 2.0 异步页面原理浅析 [1] [原]
    HybridDictionary 类
    datagrid自定义
    认识.NET的集合
    织梦 10060
    java.io.FileNotFoundException: E:\temp (拒绝访问。)
    引用与对象实例化
    C#中为DataGrid添加下拉列表框
    C#中使用指针
  • 原文地址:https://www.cnblogs.com/JueJi-2017/p/7492474.html
Copyright © 2011-2022 走看看