zoukankan      html  css  js  c++  java
  • 《机器学习》第二次作业——第四章学习记录和心得

    4.1线性判据基本概念

    • 生成模型——直接在输入空间中学习其概率密度p(x),
      • 对于贝叶斯分类,用作观测似然。然后可以通过这个p(x)生成新的样本数据;也可以检测出较低概率的数据,进行离群点检测。p(x)需要大量的数据才能学习得好,否则出现维度灾难。
    • 判别模型——直接在输入空间输出后验概率。快速,省去了观测似然的部分。
    • 线性判据——如果判别模型f(x)是线性函数,那f(x)为线性判据。对于二分类,决策边界是线性;对于多分类,相邻两类的决策边界也是线性。计算量少,适合样本少的情况。

       

    4.2线性判据学习概述

    参数空间&解域(从解域中找到最优解);

    • 设计目标函数 ,
    • 最大/最小化目标函数,求解目标函数
    • 加入约束条件,提高泛化能力

    4.3并行感知机算法

    • 预处理

    • 目标函数——被错误分类的样本最少(输出值 f(x)是负数)。
    • 梯度下降法——使用当前梯度迭代更新参数

    4.4 串行感知机算法

    • 目标函数

    •  感知机:收敛性——如果训练样本是线性可分的,感知机算法理论上收敛于一个解。
    • 步长决定收敛的速度、以及是否收敛到局部或者全局最优点
    • 提高感知机的泛化能力——加入Margin约束

     

    4.5 Fisher线性判据

    • 目标函数

    •  线性判据

     

    4.6 支持向量机基本概念

    • 目标函数

    4.7 拉格朗日乘数法

    • 常用于解决条件优化问题
    • 条件优化问题——不等式约束优化问题、等式约束优化问题、条件优化求解
    • 不等式约束
      • 极值点落在可行区域内 ——直接通过获得极值点
      • 极值点落在可行域边界
    • KKT条件

    4.8 拉格朗日对偶问题

    • 对偶函数

    • 对偶函数是主问题的最优值下界
    • 对偶函数是凹函数
    • 对偶问题是凸优化问题;对偶问题的极值是唯一的全局极值点
    • 弱对偶性、强对偶性

     

    4.9 支持向量机学习算法

    构建拉格朗日函数、构建对偶函数、求解对偶问题(可用MATLAB提供的quadprog函数求解)、求解支持向量、参数最优解

    • 识别决策

    4.10 间隔支持向量机

    • 目标函数

    •  构建拉格朗日函数、构建对偶函数、求解对偶问题、求解支持向量、参数最优解
    • 决策过程

         

    4.11 线性判据多类分类

    • 多类分类本质——非线性
    • 思路一:One-to-all策略

     

    •  思路二:线性机
      • 基于one-to-all策略训练k个线性分类器,每个分类器对应一个类
      • 决策使用输出值投票法
      • 决策过程

              

    •  思路三:One-to-one策略

            

             优势:适用于一些线性不可分的情况,从而实现非线性可分;无重叠区域   

        问题:出现拒绝选项

    4.12 线性回归

    •  模型表达

    •  线性回归模型
      • 学习参数W
      • 目标函数

                   

      • 目标优化:梯度下降法、最小二乘法

    4.13 逻辑回归的概念

    • Logic变换

    •  Sigmoid函数

    • Sigmoid函数:连接线性模型和后验概率的桥梁
      • 线性模型f(x)+Sigmoid函数=后验概率
    •  逻辑回归

            

      • 决策边界  

           

      • 逻辑回归本身是一个非线性模型
      • 用于分类:只能处理两个类别线性可分的情况
      • 用于拟合:可拟合有限的非线性曲线
    • 模型对比

     

    4.14 逻辑回归的学习

    • 学什么——学习参数w和w0
    • 目标函数

    •  目标函数优化——梯度下降法
      • 梯度下降法注意问题:梯度消失问题(参数w尽量选择较小的初始值) 

    4.15 Softmax判据的概念

    •  Softmax判据——K个线性判据+softmax函数
    • Softmax判据的决策过程

    •  Softmax判据的决策边界

    •  适用范围
      • 分类(前提是每个类与剩余类之间是线性可分)
      • 回归(可以拟合指数函数exp形式的非线性曲线)
    • Softmax判据本身是非线性模型
    • 模型对比

         

    4.16 Softmax判据的学习

    • 学什么——学习k组参数
    • 目标函数

    •  目标函数优化:梯度下降法

    4.17 核支持向量机

    • 决策模型

    • 核支持向量机:一个单隐层神经网络
    • 对偶问题
    • 常见核函数:多项式核函数、高斯核函数

          

    4.2线性判据学习概述

  • 相关阅读:
    C++面向对象三大特性
    4G通信技术LTE介绍
    汉澳战斗檄文,跟着汉澳去战斗
    AdapterView及其子类之二:使用ListActivity及ArrayAdapter创建列表
    [置顶] Objective-C ,ios,iphone开发基础:protocol 协议(委托,代理)的声明
    C语言中几种类型所占字节数
    UART, SPI, IIC的详解及三者的区别和联系
    数学基础详解 2——概率论与数理统计
    1—机器学习简介
    Python基础(11)——反射、异常处理
  • 原文地址:https://www.cnblogs.com/tingfa/p/14817052.html
Copyright © 2011-2022 走看看