VB.net 2010 视频教程 VB.net 2010 视频教程 python基础视频教程
SQL Server 2008 视频教程 c#入门经典教程 Visual Basic从门到精通视频教程
当前位置:
首页 > 编程开发 > python教程 >
  • python基础教程之集成学习之AdaBoost算法(5)

本站最新发布   Python从入门到精通|Python基础教程
试听地址  
https://www.xin3721.com/eschool/pythonxin3721/


wm,i=exp(yifm(x)),这里yifm1(x)是已知的,相当于可以作为常量移到前面去:

Loss=i=1Nwm,iexp(yiαmGm(x)))

接下来就是求解上式的优化问题的最优解α^mG^m(x)

首先我们求G^m(x),可以得到:

 

Gm(x)=argminGi=1mwmiI(yiGm(xi))

 

上式将指数函数换成指示函数是因为前面说的指数损失函数和0/1损失函数是一致等价的。式子中所示的优化问题其实就是AdaBoost算法的基学习器的学习过程,即计算数据集的分类误差率,得到的G^m(x)是使第m轮加权训练数据分类误差最小的基分类器。

然后求α^m,将Gm(x)带入损失函数,并对α求导,使其等于0,即可得到:

αm=12log1emem

 

其中,