zoukankan      html  css  js  c++  java
  • 机器学习十讲——第三讲学习总结

    点到平面距离:

    梯度下降法:

    简介:求解无约束最优化问题的经典方法,机器学习和深度学习中应用最广泛的模型求解算法。

    定义:如果实值函数g(w)a处可微且有定义,那么函数g(w)a处沿着梯度相反的方向-▽g(a)下降最快

    优化问题:

    更新参数:

    随机梯度下降法:

    在机器学习中,优化目标和梯度具有特定结构:

    更新参数公式:

    随机梯度下降法绘制出来的图像是振动的,需要调整学习率来减小振幅,最终让它趋近于0:

    最大似然估计:

    介绍:一种求解概率模型的参数方法。

    概念:

      分类:

    介绍:分类是另一种典型的有监督学习问题。标签(模型预测值)y离散值

    做分类(附图示):

     线性可分训练集:

    感知机:找到一条直线,将两类数据分开

    支持向量机:找到一条直线,不仅将两类数据正确分类,还使得数据离直线尽量远。

    逻辑回归:找到一条直线使得观察到训练集的“可能性”最大。数据离直线越远越接近于1,反之则趋近于0

    训练集的矩阵表示(第二讲回顾):

      算法详细介绍:

      感知机:

    划出一条直线,将正负分开。当出现划分错误情况(如正值在左/负值在右),就需要进行优化,优化目标简单的说就是让划分错误的那个点尽可能地离直线近,即距离越小。

    优化目标介绍:

    优化目标就是L(w)函数。

    感知器算法——SGD:

      支持向量机:

    间隔最大化。

    样本损失函数:

    优化目标:

    非线性:核技巧

    映射trick:将数据点从二维空间映射到三维空间中,使得数据线性可分

    图示:

    原本映射到高维会出现维度灾难问题,使得计算量复杂化。而支持向量机的好处在于映射到高维的时候,计算量仍是低维空间的计算量。

      逻辑回归:

    赋予样本概率解释

    似然函数与负对数似然函数:

    优化目标就是NLL(w)最小值

      三种模型的损失函数对比:

    感知机是蓝色线,支持向量机是绿色线,逻辑回归是红色线

    分类问题的评价指标:

    负例0可变更为-1

    SKlearn分类模块介绍:

  • 相关阅读:
    select,radio,checkbox的美化
    BBMASTER 博客
    thymeleaf教程
    Spring Boot入门01
    thymeleaf
    [转]Eclipse中10个最有用的快捷键组合
    SpringMVC实现文件上传
    Maven_项目管理利器入门
    [转]centos6.5安装mysql
    YOUNG博客项目设计书_v01.00_账号管理模块
  • 原文地址:https://www.cnblogs.com/Aming-/p/14941354.html
Copyright © 2011-2022 走看看