以二分类问题为例({-1,+1})
adaboost步骤:
1.初始化u1=(1/N,1/N,…,1/N)
3.更新ui:
4.重复2,3得到T个h,使用下列公式作为预测
理解:
1. adaboost 和 ut
数据n的权重在经过T轮更新后,正比于 每个g在该资料上做的带权重的投票
2.adaboost 和 g(把adaboost看成在每一轮都尽可能使ut变小)
以gradient观点看:
adaboost每一轮都在找一个最好的h作为方向更新ut,使ut最小
总结:
以二分类问题为例({-1,+1})
adaboost步骤:
1.初始化u1=(1/N,1/N,…,1/N)
3.更新ui:
4.重复2,3得到T个h,使用下列公式作为预测
理解:
1. adaboost 和 ut
数据n的权重在经过T轮更新后,正比于 每个g在该资料上做的带权重的投票
2.adaboost 和 g(把adaboost看成在每一轮都尽可能使ut变小)
以gradient观点看:
adaboost每一轮都在找一个最好的h作为方向更新ut,使ut最小
总结: