强可学习在什么条件下与弱可学习等价
2009年10月27日 星期二 上午 11:08
Kearns和Valiant(1988,1994)在PAC的基础上,提出弱可学习的理论。他这样描述一个概念是弱可学习:F(x)是自然模型,f(x)是从样本集学习后建立的模型,|F(x)-f(x)|≤ε成立的概率大于(1/2)+δ,0≤δ≤1/2。这意味着,一个概念如果是弱可学习的,那么只要求一个弱可学习算法产生的模型的精度高于50%,也就是比随机猜想稍好。同时他将满足PAC原始定义的概念可学习称为强可学习。进而,他问了如下一个问题,强可学习在什么条件下与弱可学习等价。
1990年,Schapire回答了这个问题。他使用构造的方法证明:一个概念弱可学习的充要条件是这个概念强可学习。这是一个有些“不可思议”的结论。正是由于这个定理,开始了至今还在人们关注视野中的一类机器学习的研究,机器学习研究者将这类学习方式称为集群学习(Ensemble Learning)。
出处:江岭师弟的博客:
http://hi.baidu.com/timeless/blog/item/c128dd543a40eb52d1090640.html