VB.net 2010 视频教程 VB.net 2010 视频教程 python基础视频教程
SQL Server 2008 视频教程 c#入门经典教程 Visual Basic从门到精通视频教程
当前位置:
首页 > 编程开发 > python教程 >
  • python基础教程之集成学习之AdaBoost算法(6)

本站最新发布   Python从入门到精通|Python基础教程
试听地址  
https://www.xin3721.com/eschool/pythonxin3721/


emem即为我们前面的分类误差率:

em=i=1mwmiI(yiG(xi))i=1mwmi=i=1mwmiI(yiG(xi))

 

最后看样本权重的更新:利用fm(x)=fm1(x)+αmGm(x)wmi=exp(yifm1(x)),即可得:

wm+1,i=wmiexp[yiαmGm(x)]

 

到此AdaBoost二分类算法推导结束。

5. Adaboost算法的正则化

为了防止Adaboost过拟合,我们通常也会加入正则化项,这个正则化项我们通常称为步长(learning rate)。定义为ν,对于前面的弱学习器的迭代:

 

fk(x)=fk1(x)+αkGk(x)

 

如果我们加上了正则化项,则有: