广东工业大学学报 ›› 2018, Vol. 35 ›› Issue (01): 23-28.doi: 10.12052/gdutxb.170124

• • 上一篇    下一篇

基于贝叶斯最优化的Xgboost算法的改进及应用

李叶紫, 王振友, 周怡璐, 韩晓卓   

  1. 广东工业大学 应用数学学院, 广东 广州 510520
  • 收稿日期:2017-08-09 出版日期:2018-01-09 发布日期:2017-12-22
  • 通信作者: 韩晓卓(1978-),女,副教授,主要研究方向为生物数学,算法设计与分析.E-mail:hanxzh03@163.com E-mail:zywang@gdut.edu.cn
  • 作者简介:李叶紫(1993-),女,硕士研究生,主要研究方向为算法设计与分析、图像处理.
  • 基金资助:
    国家自然科学基金资助项目(11401115);广州市科技计划项目(201707010435)

The Improvement and Application of Xgboost Method Based on the Bayesian Optimization

Li Ye-zi, Wang Zhen-you, Zhou Yi-lu, Han Xiao-zhuo   

  1. School of Applied Mathematics, Guangdong University of Technology, Guangzhou 510520, China
  • Received:2017-08-09 Online:2018-01-09 Published:2017-12-22

摘要: 在使用Xgboost框架时,经常涉及各种参数的调整,并且参数组合的选取对模型的分类性能影响较大. 传统的参数寻优方法,通常先导出一个惩罚函数,然后运用经验或者穷举法调整参数值来最大化或最小化这个惩罚函数,但是经常会遇到某个模型没有一个显式的表达式情况. 这类模型的参数寻优就非常麻烦,同时又会给算法带来一定的不确定性和随机性. 本文基于高斯法(GP)的贝叶斯最优化算法对Xgboost框架进行参数寻优,提出了一种新的算法GP_Xgboost,并通过多组数值进行实验. 结果表明本文改进的算法分类效果要优于人工调优和穷举法,从而证明了该算法的可行性和有效性.

关键词: Xgboost算法, 模型参数, 贝叶斯最优化, 参数寻优

Abstract: When the Xgboost framework is in use, it is often involved in the adjustment of various parameters, and the selection of parameters has a great influence on the classification performance of the model. The traditional parameter optimization method usually first derives a penalty function, and then the empirical or exhaustive method is used to adjust the parameter value to maximize or minimize the penalty function, but often encounters a model without an explicit expression. The optimization of the parameters of this model is very troublesome, also bringing some uncertainty and randomness to the algorithm. The Bayesian optimization algorithm based on Gaussian method (GP) is used to optimize the parameters of the Xgboost framework. A new algorithm, GP_Xgboost, is proposed and experimented by multiple sets of numerical values. The results show that the proposed algorithm is superior to the manual tuning and exhaustive method, which proves the feasibility and effectiveness of the proposed algorithm.

Key words: Xgboost algorithm, model parameters, Bayesian optimization, parameter optimization

中图分类号: 

  • TP18
[1] 章云, 王晓东. 基于受限样本的深度学习综述与思考[J]. 广东工业大学学报, 2022, 39(05): 1-8.
[2] 袁君, 章云, 张桂东, 李忠, 陈哲, 于晟龙. 基于自适应动态规划的能量管理系统研究综述[J]. 广东工业大学学报, 2022, 39(05): 21-28.
[3] 饶东宁, 易善桢. 基于蒙特卡洛树搜索的众包概率规划[J]. 广东工业大学学报, 2022, 39(04): 1-8.
[4] 丘展春, 费伦科, 滕少华, 张巍. 余弦相似度保持的掌纹识别算法[J]. 广东工业大学学报, 2022, 39(03): 55-62.
[5] 胡滨, 关治洪, 谢侃, 陈关荣. 复杂网络动力学与智能控制[J]. 广东工业大学学报, 2021, 38(06): 9-19.
[6] 王东, 黄瑞元, 李伟政, 黄之峰. 面向抓取任务的移动机器人停靠位置优化方法研究[J]. 广东工业大学学报, 2021, 38(06): 53-61.
[7] 崔铁军, 李莎莎. 人工智能与生产过程中本质安全的实现[J]. 广东工业大学学报, 2021, 38(06): 84-90.
[8] 胡斌, 周颖慧, 陶小梅. 情感智能与心理生理计算[J]. 广东工业大学学报, 2021, 38(04): 1-8.
[9] 汪培庄, 曾繁慧, 孙慧, 李兴森, 郭建威, 孟祥福, 何静. 知识图谱的拓展及其智能拓展库[J]. 广东工业大学学报, 2021, 38(04): 9-16.
[10] 饶东宁, 杨锦鹏, 刘越畅. 时态规划综述及研究现状[J]. 广东工业大学学报, 2021, 38(03): 9-16.
[11] 赖峻, 刘震宇, 刘圣海. 基于全局数据混洗的小样本数据预测方法[J]. 广东工业大学学报, 2021, 38(03): 17-21.
[12] 陈思豆, 黄卓铨, 杨兴雨. 考虑限制性卖空的多期模糊投资组合优化模型[J]. 广东工业大学学报, 2021, 38(02): 39-47.
[13] 高红, 郗常清, 刘巍. 可拓分析与决策的应用研究:以高校招生体系为例[J]. 广东工业大学学报, 2021, 38(01): 13-20.
[14] 饶东宁, 林卓毅, 魏来. n-度中心度与k-压力中心度及其并行算法[J]. 广东工业大学学报, 2020, 37(03): 36-41.
[15] 吴家湖, 熊华, 宗睿, 赵曜, 周贤中. 基于循环神经网络的目标转弯机动类型识别[J]. 广东工业大学学报, 2020, 37(02): 67-73.
Viewed
Full text


Abstract

Cited

  Shared   
  Discussed   
No Suggested Reading articles found!