猪猪のAI笔记
  • README
  • 读书笔记
    • 1.特征工程
      • 1.1.数值空间
      • 1.2.文本数据
      • 1.3.词袋到TF-IDF
      • 1.4.分类变量
      • 1.5.数据降维:PCA
    • 2.自然语言
      • 2.1.处理文本的机器
      • 2.2.词频背后
      • 2.3.神经网络基础
      • 2.4.Word2Vec,词向量推理
      • 2.5.神经网络深入
    • 3.神经网络
      • 3.1.绪论
      • 3.2.机器学习
      • 3.3.线性模型
      • 3.4.前馈神经网络
      • 3.5.卷积神经网络
      • 3.6.循环神经网络
      • 3.7.网络优化
      • 3.8.注意力机制/外部记忆
      • 3.9.无监督学习
    • 4.XGboost
      • 4.1.基础和初探
  • 课程系列
    • CDA III
      • 1.数据挖掘
      • 2.特征工程
      • 3.自然语言
      • 4.神经网络
      • 5.支持向量机
      • 6.集成学习
      • 7.朴素贝叶斯
      • 8.决策树
      • 9.聚类
      • 10.模型评估
      • 11.关联规则
      • 12.计算题知识点
      • 13.计算题分析
    • 题库分析
      • 深度学习
      • 机器学习-01
      • 机器学习-02
      • 机器学习-03
      • 机器学习-04
      • 机器学习-05
      • 机器学习-06
      • 机器学习-07
      • 机器学习-08
      • 机器学习-09
      • 机器学习-10
      • Level III模拟(一)
      • Level III模拟(二)
    • 知识点
      • Transformer模型
      • ELMO,BERT,GPT
      • 正则化之L1,L2
      • 距离详解
    • K-RPA
      • RPA行业展望
      • 命名规范和开发原则
      • 脚本向导编程
      • K-RPA异常处理
      • K-RPA文件/目录操作
      • (高)K-RPA环境
      • (高)K-RPA命名规范和开发原则
      • (高)K-RPA脚本向导编程
      • (实)01:安装K-RPA
      • (实)02:脚本向导编程
      • (实)03:完整案例
      • (实)04:文件和集成
由 GitBook 提供支持
在本页

这有帮助吗?

  1. 读书笔记
  2. 4.XGboost

4.1.基础和初探

    XGBoost(Extreme Gradient Boosting)在训练样本有限、训练时间短、调参只是缺乏的场景下具有独特优势,相对深度神经网络,它能更好处理表格数据,具有很强可解释性,并易于调试、输入数据不变性等优势。

    XGBoost是Gradient Boosting的实现,它的特征如下:

  1. 将正则项加入目标函数中,控制模型的复杂度、防止过拟合。

  2. 对目标函数进行二阶泰勒展开,同时使用了一阶导数和二阶导数。

  3. 实现了可并行的近似直方图算法。

  4. 实现了缩减和列采样(借鉴GBDT、随机森林)。

  5. 实现了快速直方图算法,引入基于loss-guide的树构建方法(借鉴了LightGBM)。

  6. 实现了求解带权值的分位数近似算法(Weighted Quantile Sketch)。

  7. 可根据样本自动学习缺失值的分裂方向,进行缺失值处理。

  8. 数据预先排序,并以块(Block)的形式保存,有利于并行计算。

  9. 采用缓存感知访问、外存块计算等方式提高数据访问和计算效率。

  10. 基于Rabit实现分布式计算、可集成于主流大数据平台中。

  11. 除CART作为基分类器外,XGBoost还支持线性分类器以及LambdaMART排序模型等算法。

  12. 实现了DART,引入了Dropout技术。

上一页4.XGboost下一页CDA III

最后更新于3年前

这有帮助吗?