XGBoost

XGBoost

 

 

1. XGBoost简介

XGBoost的全称是eXtreme Gradient Boosting,它是经过优化的分布式梯度提升库,旨在高效、灵活且可移植。XGBoost是大规模并行boosting tree的工具,它是目前最快最好的开源 boosting tree工具包,比常见的工具包快10倍以上。在数据科学方面,有大量的Kaggle选手选用XGBoost进行数据挖掘比赛,是各大数据科学比赛的必杀武器;在工业界大规模数据方面,XGBoost的分布式版本有广泛的可移植性,支持在Kubernetes、Hadoop、SGE、MPI、 Dask等各个分布式环境上运行,使得它可以很好地解决工业界大规模数据的问题。本文将从XGBoost的数学原理和工程实现上进行介绍,然后介绍XGBoost的优缺点,并在最后给出面试中经常遇到的关于XGBoost的问题。

2. XGBoost的原理推导

2.1 从目标函数开始,生成一棵树

XGBoost和GBDT两者都是boosting方法,除了工程实现、解决问题上的一些差异外,最大的不同就是目标函数的定义。因此,本文我们从目标函数开始探究XGBoost的基本原理。

2.1.1 学习第 XGBoost 棵树

XGBoost是由 XGBoost 个基模型组成的一个加法模型,假设我们第 XGBoost 次迭代要训练的树模型是 XGBoost ,则有:

则有:

XGBoost

2.1.2 XGBoost的目标函数

损失函数可由预测值 XGBoost 与真实值 XGBoost 进行表示:

XGBoost

其中, XGBoost 为样本的数量。

我们知道模型的预测精度由模型的偏差和方差共同决定,损失函数代表了模型的偏差,想要方差小则需要在目标函数中添加正则项,用于防止过拟合。所以目标函数由模型的损失函数 XGBoost 与抑制模型复杂度的正则项 XGBoost 组成,目标函数的定义如下:

XGBoost

其中,XGBoost 是将全部 XGBoost 棵树的复杂度进行求和,添加到目标函数中作为正则化项,用于防止模型过度拟合。

由于XGBoost是boosting族中的算法,所以遵从前向分步加法,以第 XGBoost 步的模型为例,模型对第 XGBoost 个样本 XGBoost 的预测值为:

XGBoost

其中, XGBoost 是由第 XGBoost 步的模型给出的预测值,是已知常数, XGBoost 是这次需要加入的新模型的预测值。此时,目标函数就可以写成:

XGBoost

注意上式中,只有一个变量,那就是第 XGBoost 棵树XGBoost ,其余都是已知量或可通过已知量可以计算出来的。细心的同学可能会问,上式中的第二行到第三行是如何得到的呢?这里我们将正则化项进行拆分,由于前XGBoost 棵树的结构已经确定,因此前XGBoost 棵树的复杂度之和可以用一个常量表示,如下所示:

 

XGBoost

2.1.3 泰勒公式展开

泰勒公式是将一个在 XGBoost 处具有XGBoost 阶导数的函数XGBoost 利用关于XGBoost 的 XGBoost 次多项式来逼近函数的方法。若函数XGBoost 在包含 XGBoost 的某个闭区间 XGBoost 上具有 XGBoost 阶导数,且在开区间 XGBoost 上具有 XGBoost 阶导数,则对闭区间 XGBoost 上任意一点 XGBoost 有:

XGBoost

其中的多项式称为函数在 XGBoost 处的泰勒展开式,XGBoost 是泰勒公式的余项且是 XGBoost 的高阶无穷小。

根据泰勒公式,把函数 XGBoost 在点 XGBoost 处进行泰勒的二阶展开,可得如下等式:

XGBoost

回到XGBoost的目标函数上来, XGBoost 对应损失函数 XGBoost , XGBoost 对应前 XGBoost 棵树的预测值 XGBoost ,XGBoost 对应于我们正在训练的第 XGBoost 棵树 XGBoost ,则可以将损失函数写为:

XGBoost

其中, XGBoost 为损失函数的一阶导, XGBoost 为损失函数的二阶导,注意这里的求导是对 XGBoost 求导。

我们以平方损失函数为例:

XGBoost

则:

XGBoost

XGBoost

将上述的二阶展开式,带入到XGBoost的目标函数中,可以得到目标函数的近似值:

XGBoost

由于在第 XGBoost 步时 XGBoost 其实是一个已知的值,所以 XGBoost 是一个常数,其对函数的优化不会产生影响。因此,去掉全部的常数项,得到目标函数为:

XGBoost

所以我们只需要求出每一步损失函数的一阶导和二阶导的值(由于前一步的 XGBoost 是已知的,所以这两个值就是常数),然后最优化目标函数,就可以得到每一步的 XGBoost ,最后根据加法模型得到一个整体模型。

2.1.4 定义一棵树

我们知道XGBoost的基模型不仅支持决策树,还支持线性模型,本文我们主要介绍基于决策树的目标函数。我们可以重新定义一棵决策树,其包括两个部分:

  • 叶子结点的权重向量 XGBoost ;
  • 实例(样本)到叶子结点的映射关系 XGBoost (本质是树的分支结构);

XGBoost

2.1.5 定义树的复杂度

决策树的复杂度 XGBoost 可由叶子数 XGBoost 组成,叶子节点越少模型越简单,此外叶子节点也不应该含有过高的权重 XGBoost (类比 LR 的每个变量的权重),所以目标函数的正则项由生成的所有决策树的叶子节点数量,和所有节点权重所组成的向量的 XGBoost 范式共同决定。

XGBoost

2.1.6 叶子结点归组

我们将属于第 XGBoost 个叶子结点的所有样本 XGBoost 划入到一个叶子结点的样本集合中,数学表示为: XGBoost ,那么XGBoost的目标函数可以写成:

XGBoost

上式中的第二行到第三行可能看的不是特别明白,这里做些解释:第二行是遍历所有的样本后求每个样本的损失函数,但样本最终会落在叶子节点上,所以我们也可以遍历叶子节点,然后获取叶子节点上的样本集合,最后再求损失函数。即我们之前是单个样本,现在都改写成叶子结点的集合,由于一个叶子结点有多个样本存在,因此才有了 XGBoost 和 XGBoost 这两项, XGBoost 为第 XGBoost 个叶子节点取值。

为简化表达式,我们定义 XGBoost , XGBoost ,含义如下:

  • XGBoost :叶子结点XGBoost所包含样本的一阶偏导数累加之和,是一个常量;
  • XGBoost :叶子结点XGBoost所包含样本的二阶偏导数累加之和,是一个常量;

将 XGBoost 和 XGBoost 带入XGBoost的目标函数,则最终的目标函数为:

XGBoost

这里我们要注意 XGBoost 和 XGBoost 是前 XGBoost 步得到的结果,其值已知可视为常数,只有最后一棵树的叶子节点 XGBoost 不确定。

2.1.7 树结构打分

回忆一下初中数学知识,假设有一个一元二次函数,形式如下:

XGBoost

我们可以套用一元二次函数的最值公式轻易地求出最值点:

XGBoost

XGBoost

那么回到XGBoost的最终目标函数上 XGBoost ,该如何求出它的最值呢?

XGBoost

我们先简单分析一下上面的式子:

  • 对于每个叶子结点 XGBoost ,可以将其从目标函数中拆解出来:

XGBoost

在2.1.5中我们提到, XGBoost 和 XGBoost 相对于第 XGBoost 棵树来说是可以计算出来的。那么,这个式子就是一个只包含一个变量叶子结点权重 XGBoost 的一元二次函数,我们可以通过最值公式求出它的最值点。

  • 再次分析一下目标函数 XGBoost ,可以发现,各个叶子结点的目标子式是相互独立的,也就是说,当每个叶子结点的子式都达到最值点时,整个目标函数XGBoost才达到最值点。

那么,假设目前树的结构已经固定,套用一元二次函数的最值公式,将目标函数对 XGBoost 求一阶导,并令其等于 XGBoost ,则可以求得叶子结点 XGBoost 对应的权值:

XGBoost

所以目标函数可以化简为:

XGBoost

XGBoost

上图给出目标函数计算的例子,求每个节点每个样本的一阶导数 XGBoost 和二阶导数 XGBoost ,然后针对每个节点对所含样本求和得到 XGBoost 和 XGBoost ,最后遍历决策树的节点即可得到目标函数。

2.2 一棵树的生成细节

2.2.1 最优切分点划分算法

在实际训练过程中,当建立第 XGBoost 棵树时,一个非常关键的问题是如何找到叶子节点的最优切分点,XGBoost支持两种分裂节点的方法——贪心算法和近似算法。

(1)贪心算法

从树的深度为0开始:

  1. 对每个叶节点枚举所有的可用特征;
  2. 针对每个特征,把属于该节点的训练样本根据该特征值进行升序排列,通过线性扫描的方式来决定该特征的最佳分裂点,并记录该特征的分裂收益;
  3. 选择收益最大的特征作为分裂特征,用该特征的最佳分裂点作为分裂位置,在该节点上分裂出左右两个新的叶节点,并为每个新节点关联对应的样本集;
  4. 回到第1步,递归执行直到满足特定条件为止;

那么如何计算每个特征的分裂收益呢?

假设我们在某一节点完成特征分裂,则分裂前的目标函数可以写为:

XGBoost

分裂后的目标函数为:

XGBoost

则对于目标函数来说,分裂后的收益为:

XGBoost

注意:该特征收益也可作为特征重要性输出的重要依据。

对于每次分裂,我们都需要枚举所有特征可能的分割方案,如何高效地枚举所有的分割呢?

假设我们要枚举某个特征所有 XGBoost 这样条件的样本,对于某个特定的分割点 XGBoost 我们要计算 XGBoost 左边和右边的导数和。

XGBoost

我们可以发现对于所有的分裂点 XGBoost ,只要做一遍从左到右的扫描就可以枚举出所有分割的梯度和 XGBoost 、 XGBoost 。然后用上面的公式计算每个分割方案的收益就可以了。

观察分裂后的收益,我们会发现节点划分不一定会使得结果变好,因为我们有一个引入新叶子的惩罚项,也就是说引入的分割带来的增益如果小于一个阀值的时候,我们可以剪掉这个分割。

(2)近似算法

贪心算法可以得到最优解,但当数据量太大时则无法读入内存进行计算,近似算法主要针对贪心算法这一缺点给出了近似最优解。

对于每个特征,只考察分位点可以减少计算复杂度。

该算法首先根据特征分布的分位数提出候选划分点,然后将连续型特征映射到由这些候选点划分的桶中,然后聚合统计信息找到所有区间的最佳分裂点。

在提出候选切分点时有两种策略:

  • Global:学习每棵树前就提出候选切分点,并在每次分裂时都采用这种分割;
  • Local:每次分裂前将重新提出候选切分点。

直观上来看,Local策略需要更多的计算步骤,而Global策略因为节点已有划分所以需要更多的候选点。

下图给出不同种分裂策略的AUC变化曲线,横坐标为迭代次数,纵坐标为测试集AUC,eps为近似算法的精度,其倒数为桶的数量。

XGBoost

从上图我们可以看到, Global 策略在候选点数多时(eps 小)可以和 Local 策略在候选点少时(eps 大)具有相似的精度。此外我们还发现,在eps取值合理的情况下,分位数策略可以获得与贪心算法相同的精度。

近似算法简单来说,就是根据特征 XGBoost 的分布来确定 XGBoost 个候选切分点 XGBoost ,然后根据这些候选切分点把相应的样本放入对应的桶中,对每个桶的 XGBoost 进行累加。最后在候选切分点集合上贪心查找。该算法描述如下:

XGBoost

算法讲解:

  • 第一个for循环:对特征k根据该特征分布的分位数找到切割点的候选集合 XGBoost 。这样做的目的是提取出部分的切分点不用遍历所有的切分点。其中获取某个特征k的候选切割点的方式叫proposal(策略)。XGBoost 支持 Global 策略和 Local 策略。
  • 第二个for循环:将每个特征的取值映射到由该特征对应的候选点集划分的分桶区间,即 XGBoost 。对每个桶区间内的样本统计值 G,H并进行累加,最后在这些累计的统计量上寻找最佳分裂点。这样做的目的是获取每个特征的候选分割点的 G,H值。

下图给出近似算法的具体例子,以三分位为例:

XGBoost

根据样本特征进行排序,然后基于分位数进行划分,并统计三个桶内的 G,H 值,最终求解节点划分的增益。

2.2.2 加权分位数缩略图

实际上,XGBoost不是简单地按照样本个数进行分位,而是以二阶导数值 XGBoost 作为样本的权重进行划分。为了处理带权重的候选切分点的选取,作者提出了Weighted Quantile Sketch算法。加权分位数略图算法提出了一种数据结构,这种数据结构支持merge和prune操作。作者在论文中给出了该算法的详细描述和证明链接,现在链接已经失效,但是在arXiv的最新版XGBoost论文中APPENDIX部分有该算法详细的描述,地址:https://arxiv.org/abs/1603.02754 。现在我们简单介绍加权分位数略图侯选点的选取方式,如下:

XGBoost

那么为什么要用二阶梯度 XGBoost 进行样本加权?

我们知道模型的目标函数为:

XGBoost

我们把目标函数配方整理成以下形式,便可以看出 XGBoost 有对 loss 加权的作用。

XGBoost

其中,加入XGBoost 是因为 XGBoost 和 XGBoost 是上一轮的损失函数求导与 XGBoost 皆为常数。我们可以看到 XGBoost 就是平方损失函数中样本的权重。

2.2.3 稀疏感知算法

实际工程中一般会出现输入值稀疏的情况。比如数据的缺失、one-hot编码都会造成输入数据稀疏。XGBoost在构建树的节点过程中只考虑非缺失值的数据遍历,而为每个节点增加了一个缺省方向,当样本相应的特征值缺失时,可以被归类到缺省方向上,最优的缺省方向可以从数据中学到。至于如何学到缺省值的分支,其实很简单,分别枚举特征缺省的样本归为左右分支后的增益,选择增益最大的枚举项即为最优缺省方向。

在构建树的过程中需要枚举特征缺失的样本,乍一看这个算法会多出相当于一倍的计算量,但其实不是的。因为在算法的迭代中只考虑了非缺失值数据的遍历,缺失值数据直接被分配到左右节点,所需要遍历的样本量大大减小。作者通过在Allstate-10K数据集上进行了实验,从结果可以看到稀疏算法比普通算法在处理数据上快了超过50倍。

XGBoost

3. XGBoost的工程实现

3.1 列块并行学习

在树生成过程中,最耗时的一个步骤就是在每次寻找最佳分裂点时都需要对特征的值进行排序。而 XGBoost 在训练之前会根据特征对数据进行排序,然后保存到块结构中,并在每个块结构中都采用了稀疏矩阵存储格式(Compressed Sparse Columns Format,CSC)进行存储,后面的训练过程中会重复地使用块结构,可以大大减小计算量。

作者提出通过按特征进行分块并排序,在块里面保存排序后的特征值及对应样本的引用,以便于获取样本的一阶、二阶导数值。具体方式如图:

XGBoost

通过顺序访问排序后的块遍历样本特征的特征值,方便进行切分点的查找。此外分块存储后多个特征之间互不干涉,可以使用多线程同时对不同的特征进行切分点查找,即特征的并行化处理。在对节点进行分裂时需要选择增益最大的特征作为分裂,这时各个特征的增益计算可以同时进行,这也是 XGBoost 能够实现分布式或者多线程计算的原因。

3.2 缓存访问

列块并行学习的设计可以减少节点分裂时的计算量,在顺序访问特征值时,访问的是一块连续的内存空间,但通过特征值持有的索引(样本索引)访问样本获取一阶、二阶导数时,这个访问操作访问的内存空间并不连续,这样可能造成cpu缓存命中率低,影响算法效率。

为了解决缓存命中率低的问题,XGBoost 提出了缓存访问算法:为每个线程分配一个连续的缓存区,将需要的梯度信息存放在缓冲区中,这样就实现了非连续空间到连续空间的转换,提高了算法效率。此外适当调整块大小,也可以有助于缓存优化。

3.3 “核外”块计算

当数据量非常大时,我们不能把所有的数据都加载到内存中。那么就必须将一部分需要加载进内存的数据先存放在硬盘中,当需要时再加载进内存。这样操作具有很明显的瓶颈,即硬盘的IO操作速度远远低于内存的处理速度,肯定会存在大量等待硬盘IO操作的情况。针对这个问题作者提出了“核外”计算的优化方法。具体操作为,将数据集分成多个块存放在硬盘中,使用一个独立的线程专门从硬盘读取数据,加载到内存中,这样算法在内存中处理数据就可以和从硬盘读取数据同时进行。此外,XGBoost 还用了两种方法来降低硬盘读写的开销:

  • 块压缩(Block Compression)。论文使用的是按列进行压缩,读取的时候用另外的线程解压。对于行索引,只保存第一个索引值,然后用16位的整数保存与该block第一个索引的差值。作者通过测试在block设置为 XGBoost 个样本大小时,压缩比率几乎达到26% XGBoost 29%。
  • 块分区(Block Sharding )。块分区是将特征block分区存放在不同的硬盘上,以此来增加硬盘IO的吞吐量。

4. XGBoost的优缺点

4.1 优点

  • 精度更高:GBDT 只用到一阶泰勒展开,而 XGBoost 对损失函数进行了二阶泰勒展开。XGBoost 引入二阶导一方面是为了增加精度,另一方面也是为了能够自定义损失函数,二阶泰勒展开可以近似大量损失函数;
  • 灵活性更强:GBDT 以 CART 作为基分类器,XGBoost 不仅支持 CART 还支持线性分类器,使用线性分类器的 XGBoost 相当于带 L1 和 L2 正则化项的逻辑斯蒂回归(分类问题)或者线性回归(回归问题)。此外,XGBoost 工具支持自定义损失函数,只需函数支持一阶和二阶求导;
  • 正则化:XGBoost 在目标函数中加入了正则项,用于控制模型的复杂度。正则项里包含了树的叶子节点个数、叶子节点权重的 L2 范式。正则项降低了模型的方差,使学习出来的模型更加简单,有助于防止过拟合,这也是XGBoost优于传统GBDT的一个特性。
  • Shrinkage(缩减):相当于学习速率。XGBoost 在进行完一次迭代后,会将叶子节点的权重乘上该系数,主要是为了削弱每棵树的影响,让后面有更大的学习空间。传统GBDT的实现也有学习速率;
  • 列抽样:XGBoost 借鉴了随机森林的做法,支持列抽样,不仅能降低过拟合,还能减少计算。这也是XGBoost异于传统GBDT的一个特性;
  • 缺失值处理:对于特征的值有缺失的样本,XGBoost 采用的稀疏感知算法可以自动学习出它的分裂方向;
  • XGBoost工具支持并行:boosting不是一种串行的结构吗?怎么并行的?注意XGBoost的并行不是tree粒度的并行,XGBoost也是一次迭代完才能进行下一次迭代的(第t次迭代的代价函数里包含了前面t-1次迭代的预测值)。XGBoost的并行是在特征粒度上的。我们知道,决策树的学习最耗时的一个步骤就是对特征的值进行排序(因为要确定最佳分割点),XGBoost在训练之前,预先对数据进行了排序,然后保存为block结构,后面的迭代中重复地使用这个结构,大大减小计算量。这个block结构也使得并行成为了可能,在进行节点的分裂时,需要计算每个特征的增益,最终选增益最大的那个特征去做分裂,那么各个特征的增益计算就可以开多线程进行。
  • 可并行的近似算法:树节点在进行分裂时,我们需要计算每个特征的每个分割点对应的增益,即用贪心法枚举所有可能的分割点。当数据无法一次载入内存或者在分布式情况下,贪心算法效率就会变得很低,所以XGBoost还提出了一种可并行的近似算法,用于高效地生成候选的分割点。

4.2 缺点

  • 虽然利用预排序和近似算法可以降低寻找最佳分裂点的计算量,但在节点分裂过程中仍需要遍历数据集;
  • 预排序过程的空间复杂度过高,不仅需要存储特征值,还需要存储特征对应样本的梯度统计值的索引,相当于消耗了两倍的内存。
上一篇:决策树- 随机森林/GBDT/XGBoost


下一篇:XGBoost--学习1