VB.net 2010 视频教程 VB.net 2010 视频教程 python基础视频教程
SQL Server 2008 视频教程 c#入门经典教程 Visual Basic从门到精通视频教程
当前位置:
首页 > 编程开发 > python教程 >
  • python基础教程之集成学习之AdaBoost算法(2)

本站最新发布   Python从入门到精通|Python基础教程
试听地址  
https://www.xin3721.com/eschool/pythonxin3721/


yi)=i=1mwkiI(Gk(xi)yi)ek=P(Gk(xi)yi)=i=1mwkiI(Gk(xi)yi)

 

第k个弱分类器Gk(x)的权重系数为:

 

αk=12log1ekek

 

为什么这样计算弱学习器权重系数?从上式可以看出,如果分类误差率ek越大,则对应的弱分类器权重系数αk越小。也就是说,误差率小的弱分类器权重系数越大。具体为什么采用这个权重系数公式,我们在讲Adaboost的损失函数优化时再讲。

更新样本权重D。假设第k个弱分类器的样本集权重系数为D(k)=(wk1,wk2,...wkm),则对应的第k+1个弱分类器的样本集权重系数为:

 

wk+1,i=wkiZKexp(αkyiGk(xi))

 

这里Zk是规范化因子:

 

Zk=i=1mwkiexp(αkyiGk(xi))

 

wk+1,i 计算公式可以看出,如果第i个样本分类错误,则