VB.net 2010 视频教程 VB.net 2010 视频教程 python基础视频教程
SQL Server 2008 视频教程 c#入门经典教程 Visual Basic从门到精通视频教程
当前位置:
首页 > 编程开发 > python教程 >
  • python基础教程之集成学习之AdaBoost算法(7)

本站最新发布   Python从入门到精通|Python基础教程
试听地址  
https://www.xin3721.com/eschool/pythonxin3721/


1(x)+ναkGk(x)fk(x)=fk1(x)+ναkGk(x)

 

ν 的取值范围为0<ν≤1。对于同样的训练集学习效果,较小的ν意味着我们需要更多的弱学习器的迭代次数。通常我们用步长和迭代最大次数一起来决定算法的拟合效果。

6. AdaBoost二元分类问题算法流程总结

输入:训练数据集T={(x,y1),(x2,y2),...(xm,ym)},输出为{-1, +1},弱分类器算法, 弱分类器迭代次数K;

输出:为最终的强分类器f(x)

1) 初始化样本集权重为:

 

D(1)=(w11,w12,...w1m);w1i=1m;i=1,2...m

 

2) 对于k=1,2,...K:

a) 使用具有权重Dk的样本集来训练数据,得到弱分类器Gk(x):χ{1,+1}

b)计算Gk(x)的分类误差率:

ek=P(Gk(xi)yi)=i=1mwkiI(Gk(xi)yi)

 

c) 计算弱分类器的系数:

αk=12log1ekek

 

d) 更新样本集的权重分布:

相关教程