XGBoost参数介绍

更新时间:2023-05-15 08:26:46 阅读: 评论:0

XGBoost参数介绍
XGBoost 的设置有三种参数:⼀般参数,提升参数和学习参数。
春天的西湖⼀般参数取决于提升器,通常是树或线性模型
提升参数取决于选择的提升器的相关参数
学习参数取决于指定学习任务和相应的学习⽬标蘑菇头短发发型图片
⼀般参数 (general parameters)
booster:选择提升器,默认是 tree
silent:是否打印信息,默认是 0 不打印
nthread:线程数,默认为最⼤可⽤线程数
num_pbuffer:缓冲区⼤⼩,默认为训练实例的数量
num_feature:特征纬度,默认为特征的最⾼纬度
提升参数 (booster parameters)
9月有什么节日
eta:学习率,范围 [0, 1],默认为 0.3。该参数越⼩,计算速度越慢;该参数越⼤,有可能⽆法收敛
gamma:控制叶⼦个数的参数,范围 [0, +∞),默认为 0。该参数越⼤,越不容易过拟合
max_depth:每颗树的最⼤深度,范围 [0, +∞),默认为 6。该参数越⼤,越容易过拟合
min_child_weight:每个叶⼦⾥⾯的最⼩权重和,范围 [0, +∞),默认为 1。该参数越⼤,越不容易过拟合
subsample:样本采样⽐率,范围 (0, 1],默认为 1。如果取 0.5 代表随机⽤ 50% 的样本集⽤来训练
colsample_bytree:列采样⽐率,范围 (0, 1],默认为 1。对每棵树的⽣成⽤的特征进⾏列采样,类似于随机森林的列采样
lambda:L2 正则化参数,范围 [0, +∞),默认为 1。该参数越⼤,越不容易过拟合。
alpha:L1 正则化参数,范围 [0, +∞),默认为 0。该参数越⼤,越不容易过拟合。
农村实用技术>人物外貌的成语scale_pos_weight:控制正反类的平衡参数,范围 [0, +∞),默认为 1。该参数通常设为“反类的总和/
正类的总和”
学习参数 (learning parameters)
objective:损失函数,默认为 linear。其他常见类型有:
reg:logistic – ⼆分类
binary:logistic – ⼆分类概率
multi:softmax – 多分类
multi:softprob – 多分类概率
rank:pairwi – 排序
ba_score:预测分数,默认为 0.5。最初每个样例的预测分数。
eval_metric:评估指标。该指标⽤在验证集上,⽐如回归任务默认的是 rm;分类任务默认为 error;排序任务默认为 map。其他常见类型有:
rm – root mean square error
mae – mean absolute error
logloss – negative log-likelihood
error – binary classification error rate
拍拍乐merror – multiclass classification error rate
mlogloss – multiclass logloss
auc – area under the curve风韵是什么意思
map – mean average precision
ed:随机种⼦,默认为 0,⽤于产⽣可复现的结果
3月31日

本文发布于:2023-05-15 08:26:46,感谢您对本站的认可!

本文链接:https://www.wtabcd.cn/fanwen/fan/82/638549.html

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。

标签:参数   默认   提升   学习   范围   任务   指标   总和
相关文章
留言与评论(共有 0 条评论)
   
验证码:
推荐文章
排行榜
Copyright ©2019-2022 Comsenz Inc.Powered by © 专利检索| 网站地图