-
python入门教程之集成学习之Xgboost(5)
本站最新发布 Python从入门到精通|Python基础教程
试听地址 https://www.xin3721.com/eschool/pythonxin3721/
表示组合棵树模型对样本的预测结果。
试听地址 https://www.xin3721.com/eschool/pythonxin3721/
表示组合棵树模型对样本的预测结果。
3. 树的结构与复杂度:
从单一的树来考虑。对于其中每一棵回归树,其模型可以写成:
树拆分成结构部分和叶子权重部分,其中为叶子节点的得分值,表示样本对应的叶子节点。为该树的叶子节点个数。
Xgboost对树的复杂度包含了两个部分:(1)一个是树里面叶子节点的个数;(2)一个是树上叶子节点的得分的模平方(对进行正则化,相当于针对每个叶结点的得分增加平滑,目的是为了避免过拟合)。
因此可以将该树的复杂度写成:
其中,为正则的惩罚项,为正则的惩罚项。
树的复杂度函数和样例:
定义树的结构和复杂度的原因很简单,这样就可以衡量模型的复杂度了啊,从而可以有效控制过拟合。
4. Xgboost中的boosting tree模型:
例如要预测一家人对电子游戏的喜好程度,考虑到年轻和年老相比,年轻更可能喜欢电子游戏,以及男性和女性相比,男性更喜欢电子游戏,故先根据年龄大小区分小孩和大人,然后再通过性别区分开是男是女,逐一给各人在电子游戏喜好程度上打分,如下图所示:
看上图训练出2棵树tree1和tree2,类似之前GBDT的原理(Xgboost与GBDT比较大的不同就是目标函数的定义,下文会具体介绍),两棵树的结论累加起来便是最终的结论,所以小孩的预测分数就是两棵树中小孩所落到的结点的分数相加:2 + 0.9 = 2.9。爷爷的预测分数同理:-1 + (-0.9)= -1.9。
和传统的boosting tree模型一样,Xgboost的提升模型也是采用的残差(或梯度负方向),不同的是分裂结点选取的时候不一定是最小平方损失。
5. Xgboost目标/损失函数:
因为XGBoost也是集成学习方法的一种,所以预测模型和损失函数都可用上式表示。
XGBoost预测模型:
栏目列表
最新更新
如何使用OS模块中的stat方法
Python os 模块
seek() 方法
python打开文件实例1
Python写入文件
什么是流?
文件操作如何进制逐行读取
Python相对路径
with创建临时运行环境
Python文件操作
.Net Standard(.Net Core)实现获取配置信息
Linux PXE + Kickstart 自动装机
Shell 编程 基础
Shell 编程 条件语句
CentOS8-网卡配置及详解
Linux中LVM逻辑卷管理
1.数码相框-相框框架分析(1)
Ubuntu armhf 版本国内源
Linux中raid磁盘阵列
搭建简易网站
access教程之Access简介
mysql 安装了最新版本8.x版本后的报错:
Mysql空间数据&空间索引(spatial)
如何远程连接SQL Server数据库的图文教程
复制SqlServer数据库的方法
搜索sql语句
sql中返回参数的值
sql中生成查询的模糊匹配字符串
数据定义功能
数据操作功能