zoukankan      html  css  js  c++  java
  • 转载一篇短小精悍的博文:强可学习在什么条件下与弱可学习等价

    强可学习在什么条件下与弱可学习等价

    2009年10月27日 星期二 上午 11:08

    Kearns和Valiant(1988,1994)在PAC的基础上,提出弱可学习的理论。他这样描述一个概念是弱可学习:F(x)是自然模型,f(x)是从样本集学习后建立的模型,|F(x)-f(x)|≤ε成立的概率大于(1/2)+δ,0≤δ≤1/2。这意味着,一个概念如果是弱可学习的,那么只要求一个弱可学习算法产生的模型的精度高于50%,也就是比随机猜想稍好。同时他将满足PAC原始定义的概念可学习称为强可学习。进而,他问了如下一个问题,强可学习在什么条件下与弱可学习等价。

    1990年,Schapire回答了这个问题。他使用构造的方法证明:一个概念弱可学习的充要条件是这个概念强可学习。这是一个有些“不可思议”的结论。正是由于这个定理,开始了至今还在人们关注视野中的一类机器学习的研究,机器学习研究者将这类学习方式称为集群学习(Ensemble Learning)。
     
    出处:江岭师弟的博客:

    http://hi.baidu.com/timeless/blog/item/c128dd543a40eb52d1090640.html

  • 相关阅读:
    zabbix实现mysql数据库的监控(四)
    Redis高级进阶(一)
    Redis高级进阶(二)
    Redis的管理
    9.动态SQL
    8.Mapper动态代理
    7.属性名与查询字段名不相同
    6.单表的CRUD操作
    5.API详解
    4.主配置文件详解
  • 原文地址:https://www.cnblogs.com/foamliu/p/1631520.html
Copyright © 2011-2022 走看看