zoukankan      html  css  js  c++  java
  • 理解机器为什么可以学习(一)---Feasibility of learning

    主要讲解内容来自机器学习基石课程。主要就是基于Hoeffding不等式来从理论上描述使用训练误差Ein代替期望误差Eout的合理性。

    PAC : probably approximately correct

    一方面:根据PAC,针对一个h,Ein与Eout的差距很大的概率是很小的

    另一方面:不能说直接选定一个h,需要从许多h中选择一个Ein较小的,可能出现某一些坏数据在某些h上的表现很差,但是坏数据在所有h上表现都差的概率很小。

    1. Hoeffding 不等式

    用频率代替概率,如果抽样的数目很大的话,频率和概率的差别不会很大。也就是 (频率 PAC 概率)

    2.Connection to Meachine Learning

    描述了Ein PAC Eout,所以h在资料上的表现就可以用来估计h在所有资料上的表现。

    所以,我们的学习问题就变为:

    Hoeffding形式:

    上述由Hoeffding不等式说明了N很大的时候,用Ein和Eout是差不多大概是一样的。但是上述说明的是某一个特定的h,这时候的Ein可能是很大的,Ein和Eout很接近,但是g和f差别很大。所以需要验证某个g好不好。

    3. h可以自由选择

    那么接下来就论述假如有很多h呢?

    Hoeffding说明了对一个资料,不好的资料(Ein 和 Eout差别很大)很少。在演算法不能自由选择,可能会踩到雷。

    所以,现在如果让演算法可以自由选择,那么:

    所以,对于有限的假设,如果演算法可以自由选择,资料量大,这样一定可以选择到一个g,使得Ein和Eout是接近的。所以,选择Ein最小的是有道理的。

    好了,现在证明了有有限个h的时候,如果演算法可以找到一个小的Ein的时候,演算法还是可行的,那么如果有无限个h呢?

    接下来继续讨论。http://www.cnblogs.com/futurehau/p/6246784.html

  • 相关阅读:
    linux中fork()函数详解(原创!!实例讲解) (转载)
    超级课程表原理解析(如何获取网页内容)
    MySql中时间类型总结
    android Json详解
    Jsoup解析Html中文文档
    Mysql相关
    Chrome驱动安装问题
    Airtest 网易 UI 自动化工具 Airtest 浅用记录
    关于Airtest的使用探索
    Sublime text 3搭建Python开发环境及常用插件安装
  • 原文地址:https://www.cnblogs.com/futurehau/p/6235348.html
Copyright © 2011-2022 走看看