xgboost调参函数(GridSearchCV的使用)

更新时间:2023-05-15 07:23:51 阅读: 评论:0

xgboost调参函数(GridSearchCV的使⽤)
xgboost调参函数(GridSearchCV的使⽤)
1.简介
调参⽤的是sklearn的GridSearchCV,其中,x_train和y_train分别指的训练集的特征和标签。
在调参之前,有⼀个点需要注意。如果直接导⼊x_train和y_train,会报错,报too many indices in the array,所以需要:# 链接:/questions/42928855/gridarchcv-error-too-many-indices-in-the-array
#
炎的组词c, r = y_train_array.shape
y_train_ = y_shape(c,)# 只能识别(shape,)⽽不能(shape,1)
之后可运⾏函数,进⾏调参了。⾸先呈现函数,详细代码如下:
del_lection import GridSearchCV
def Tuning(cv_params, other_params):新生儿脸上有小红点
model2 = XGBClassifier(**other_params)
夏季快速减肥方法
美修optimized_GBM = GridSearchCV(estimator=model2,
param_grid=cv_params,
cv=5,
n_jobs=4)
optimized_GBM.fit(x_train_array, y_train_)
evalute_result = id_scores_
print('每轮迭代运⾏结果:{0}'.format(evalute_result))
print('参数的最佳取值:{0}'.format(optimized_GBM.best_params_))
print('最佳模型得分:{0}'.format(optimized_GBM.best_score_))
2.调参
此后,只需要往Tuning中输⼊两个参数,cv_params,和other_params,前⾯指的你要调优的参数,后⾯指的其他的参数。xgboost参数简介见假发怎么洗
如对n_estimators进⾏调节,则:
cv_params ={'n_estimators':[700,800,900,1000,1100,1200,1300,1400]}
咏物言志诗other_params ={
'scale_pos_weight':scale_pos_weight,
'eta':0.3,
'learning_rate':0.07,
贴窗花'n_estimators':700,# 需调参
'max_depth':6,# 需调参
'min_child_weight':1,# 需调参
'gamma':0.2,# 需调参
'subsample':0.639,# 需调参
'colsample_bytree':0.2,# 需调参
'objective':'binary:logistic'
}
Tuning(cv_params, other_params)# ⼀个调节完毕之后,相应改动other_params 中的参数设置即可
辛勤的反义词⼀个参数调节完毕后,相应改变other_params中的最优参数设置即可
代码中打#的都可以做类似过程进⾏调参
3. ⼀个问题
GridSearchCV调参好慢啊好慢,不知道有什么好的⽅法能快⼀点,待补充!

本文发布于:2023-05-15 07:23:51,感谢您对本站的认可!

本文链接:https://www.wtabcd.cn/fanwen/fan/89/898754.html

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。

标签:参数   完毕   呈现
相关文章
留言与评论(共有 0 条评论)
   
验证码:
推荐文章
排行榜
Copyright ©2019-2022 Comsenz Inc.Powered by © 专利检索| 网站地图