05_DecisionTree_统计学习方法

文章目录

决策树

是一种基本的分类和回归方法。决策树呈树形结构,在分类问题中,表示基于特征对实例进行分类的过程。它可以认为是if-then规则的集合,也可以认为是定义在特征空间和类空间上的条件概率分布。学习时,利用训练数据,根据损失函数最小化的原则建立决策树模型。预测时,对新的数据,利用决策树模型进行分类。

(1)决策树学习通常包括三个步骤:特征选择、决策树的生成和决策树的剪枝。

(2)由于决策树表示一个条件概率分布,所以深浅不同的决策树对应着不同复杂度的概率模型。决策树的生成对应模型的局部选择,决策树的剪枝对应于模型的全局选择。决策树的生成只考虑局部最优,决策树的剪枝则考虑全局最优

(3)决策树常见算法:ID3、C4.5、CART

(4)决策树相关的重要概念:

  • 根结点(Root Node):它表示整个样本集合,并且该节点可以进一步划分成两个或多个子集。
  • 拆分(Splitting):表示将一个结点拆分成多个子集的过程。
  • 决策结点(Decision Node):当一个子结点进一步被拆分成多个子节点时,这个子节点就叫做决策结点。
  • 叶子结点(Leaf/Terminal Node):无法再拆分的结点被称为叶子结点。
  • 剪枝(Pruning):移除决策树中子结点的过程就叫做剪枝,跟拆分过程相反。
  • 分支/子树(Branch/Sub-Tree):一棵决策树的一部分就叫做分支或子树。
  • 父结点和子结点(Paren and Child Node):一个结点被拆分成多个子节点,这个结点就叫做父节点;其拆分后的子结点也叫做子结点。

一、特征选择:

特征选择的准则:使用某特征对数据集划分之后,各数据子集的纯度要比划分前的数据集D的纯度高(也就是不确定性要比划分前数据集D的不确定性低)。

特征选择的方法

  • 信息增益,ID3采用
  • 信息增益比,C4.5采用
  • GiniIndex,CART分类采用
  • 平方误差最小化准则,CART回归采用

1、信息增益

是表示随机变量不确定性的度量。XXX是一个取有限个值的离散随机变量,其概率分布为:
P(X=xi)=pi,i=1,2,,nP(X=x_i)=p_i,i=1,2,…,nP(X=xi​)=pi​,i=1,2,…,n
则随机变量XXX的熵定义为 :
H(X)=i=1npilogpiH(X) = -\sum_{i=1}^n{p_i}log{p_i}H(X)=−i=1∑n​pi​logpi​
熵越大,随机变量的不确定性就越大。上式中的对数以2或者e为底时,熵的单位分别称作比特(bit)或者纳特(nat)。熵只依赖于X的分布,而与X的取值无关,所以也可将X的熵记作H(p)H(p)H(p):
H(p)=i=1npilogpiH(p) = -\sum_{i=1}^n{p_i}log{p_i}H(p)=−i=1∑n​pi​logpi​
从定义可以验证:0&lt;=H(p)&lt;=logn0&lt;= H(p)&lt;=logn0<=H(p)<=logn。

随机变量X给定的条件下随机变量Y的条件熵H(YX)H(Y|X)H(Y∣X),定义为X给定条件下Y的条件概率分布的熵对X的数学期望:
H(YX)=i=1npi H(YX=xi)H(Y|X) = \sum_{i = 1}^np_i\space H(Y|X=x_i)H(Y∣X)=i=1∑n​pi​ H(Y∣X=xi​)

  • pi=P(X=xi),i=1,2,,n.p_i = P(X=x_i),i = 1,2,…,n.pi​=P(X=xi​),i=1,2,…,n.

信息增益:特征A对训练数据集D的信息增益g(D,A)g(D,A)g(D,A),定义为集合D的经验嫡H(D)H(D)H(D)与特征A给定条件下DDD的经验条件嫡H(DA)H(D|A)H(D∣A)之差。

(1)g(D,A)=H(D)H(DA)g(D,A) = H(D) - H(D|A) \tag 1g(D,A)=H(D)−H(D∣A)(1)
集合D的经验熵H(D)H(D)H(D)
H(D)=k=1KCkDlog2CkDH(D) = -\sum_{k=1}^K\dfrac{|C_k|}{|D|}log_2\dfrac{|C_k|}{|D|}H(D)=−k=1∑K​∣D∣∣Ck​∣​log2​∣D∣∣Ck​∣​

经验条件嫡H(DA)H(D|A)H(D∣A)
H(DA)=i=1npi H(DA=ai)=i=1nDiDH(Di)=i=1nDiDk=1KDikDilog2DikDiH(D|A) = \sum_{i = 1}^np_i\space H(D|A = a_i) = \sum_{i=1}^n\dfrac{|D_i|}{|D|}H(D_i) = -\sum_{i=1}^n\dfrac{|D_i|}{|D|}\sum_{k=1}^K\dfrac{|D_{ik}|}{|D_i|}log_2\dfrac{|D_{ik}|}{|D_i|}H(D∣A)=i=1∑n​pi​ H(D∣A=ai​)=i=1∑n​∣D∣∣Di​∣​H(Di​)=−i=1∑n​∣D∣∣Di​∣​k=1∑K​∣Di​∣∣Dik​∣​log2​∣Di​∣∣Dik​∣​

  • D|D|∣D∣表示其样本容量,即样本个数
  • 设有K个类CkC_kCk​,k=1,2,…,K,Ck|C_k|∣Ck​∣为属于类CkC_kCk​的样本个数
  • 根据特征A的取值a1,a2,...,ana_1,a_2,...,a_na1​,a2​,...,an​将D划分为n个子集D1,D2,...,DnD_1,D_2,...,D_nD1​,D2​,...,Dn​,Di|D_i|∣Di​∣为DiD_iDi​的样本个数。
  • 记子集DiD_iDi​中属于类CkC_kCk​的样本的集合为DikD_{ik}Dik​。

结论

  • 信息增益值的大小是相对于训练数据集而言的,并没有绝对意义。在分类问题困难时,也就是说在训练数据集的经验嫡大的时候,信息增益值会偏大,反之,信息增益值会偏小。
  • 对于数据集D而言,信息增益依赖于特征,不同的特征往往具有不同的信息增益,信息增益大的特征具有更强的分类能力。
  • 信息增益表示得知特征A的信息而使得类Y的信息的不确定性减少的程度。在特征选择时,选择信息增益最大的特征。

2、信息增益比

定义:特征AAA对训练数据集D的信息增益比gR(D,A)g_R(D,A)gR​(D,A)定义为其信息增益g(D,A)g(D,A)g(D,A)与训练数据集D关于特征A的值的熵HA(D)H_A(D)HA​(D)之比,即 :
(2)gR(D,A)=g(D,A)HA(D)g_R(D,A) = \dfrac{g(D,A)}{H_A(D)} \tag 2gR​(D,A)=HA​(D)g(D,A)​(2)

  • HA(D)=i=1nDiDlog2DiDH_A(D) = -\sum_{i=1}^n\dfrac{|D_{i}|}{|D|}log_2\dfrac{|D_{i}|}{|D|}HA​(D)=−∑i=1n​∣D∣∣Di​∣​log2​∣D∣∣Di​∣​,HA(D)H_A(D)HA​(D)是D关于特征A的值的熵,n是特征A取值的个数。注意与H(DA)H(D|A)H(D∣A)的区别。

在特征选择时,选择信息增益比最大的特征

3、GiniIndex

分类问题中,假设有K个类,样本点属于第k类的概率为pkp_kpk​,则概率分布的基尼指数定义为:
Gini(p)=k=1K pk(1pk)=1k=1K pk2Gini(p) = \sum_{k=1}^K\space p_k(1-p_k) = 1 - \sum_{k=1}^K\space p_k^2Gini(p)=k=1∑K​ pk​(1−pk​)=1−k=1∑K​ pk2​

  • pkp_kpk​表示选中的样本属于k类别的概率,则这个样本被分错的概率为1pk1- p_k1−pk​

对于给定的样本集合D,其基尼指数为:
Gini(D)=1k=1K (CkD)2Gini(D) = 1 - \sum_{k=1}^K\space (\dfrac{|C_k|}{|D|})^2Gini(D)=1−k=1∑K​ (∣D∣∣Ck​∣​)2

  • 这里CkC_kCk​是D中属于第k类的样本,K是类的个数
    如果样本集合D根据特征A是否取某一可能值a被分割成D1D_1D1​和D2D_2D2​两部分,即:
    D1={(x,y)D,A(x)=a},D2=DD1D_1 = \{(x,y)\in D,A(x) = a\},D_2 = D - D_1D1​={(x,y)∈D,A(x)=a},D2​=D−D1​
    (3)Gini(D,A)=D1DGini(D1)+D2DGini(D2)Gini(D,A) = \dfrac{|D_1|}{|D|}Gini(D_1) + \dfrac{|D_2|}{|D|}Gini(D_2) \tag 3Gini(D,A)=∣D∣∣D1​∣​Gini(D1​)+∣D∣∣D2​∣​Gini(D2​)(3)
    基尼指数Gini(D)表示集合D的不确定性,基尼指数Gini(D,A)表示经A=a分割后集合D的不确定性。基尼指数值越大,样本集合的不确定性也就越大,这一点跟熵相似。

在特征选择时,选择基尼指数最小的特征

4、使用平方误差最小化准则进行单元划分

回归树模型表示为:
f(x)=m=1M cm I(xRm)f(x) = \sum_{m=1}^M\space c_m \space I(x\in R_m)f(x)=m=1∑M​ cm​ I(x∈Rm​)
数据空间被划分成了 R1RmR_1~R_mR1​~Rm​ 单元,每个单元上有一个固定的输出值 cmc_mcm​。
则模型输出值与实际值的平方误差为:
xiRm(yif(xi))2\sum_{x_i\in R_m}(y_i - f(x_i))^2xi​∈Rm​∑​(yi​−f(xi​))2
在划分空间时,也就是在选择特征和切分点时,使用平方误差最小化准则

希望每个单元上的 cmc_mcm​,可以使得这个平方误差最小化,易知当 cmc_mcm​ 为相应单元上的所有实际值的均值时,可以达到最优:
cm^=ave(yixiRm)\hat{c_m} = ave(y_i|x_i\in R_m)cm​^​=ave(yi​∣xi​∈Rm​)

二、决策树的生成

1、ID3算法

输入:训练数据集D,特征集A,阈值ε\varepsilonε

输出:决策树T

step1: 若D中所有实例属于同一类CkC_kCk​,则T为单节点树,并将类CkC_kCk​作为该结点的类标记,返回T;

step2:若A=A = \emptysetA=∅,则T为单结点树,并将D中实例数最大的类CkC_kCk​作为该结点的类标记,返回T;

step3:否则,计算A中各特征对D的信息增益,选择信息增益最大的特征AgA_gAg​;

step4:如果AgA_gAg​的信息增益小于阈值ε\varepsilonε,则置T为单结点树,并将D中实例数最大的类CkC_kCk​作为该结点的类标记,返回T;

step5:否则,对AgA_gAg​的每一可能取值aia_iai​,依Ag=aiA_g = a_iAg​=ai​将D分割为若干非空子集DiD_iDi​,将DiD_iDi​中实例数最大的类作为标记,构建子结点,由结点及其子结点构成树T,返回T;

step6:对第i个子结点,以DiD_iDi​为训练集,以AAgA - {A_g}A−Ag​为特征集,递归的调用步step1- step5,得到子树TiT_iTi​,返回TiT_iTi​。

2、C4.5算法

输入:训练数据集D,特征集A,阈值ε\varepsilonε

输出:决策树T

step1: 若D中所有实例属于同一类CkC_kCk​,则T为单节点树,并将类CkC_kCk​作为该结点的类标记,返回T;

step2:若A=A = \emptysetA=∅,则T为单结点树,并将D中实例数最大的类CkC_kCk​作为该结点的类标记,返回T;

step3:否则,计算A中各特征对D的信息增益比,选择信息增益比最大的特征AgA_gAg​;

step4:如果AgA_gAg​的信息增益比小于阈值ε\varepsilonε,则置T为单结点树,并将D中实例数最大的类CkC_kCk​作为该结点的类标记,返回T;

step5:否则,对AgA_gAg​的每一可能取值aia_iai​,依Ag=aiA_g = a_iAg​=ai​将D分割为若干非空子集DiD_iDi​,将DiD_iDi​中实例数最大的类作为标记,构建子结点,由结点及其子结点构成树T,返回T;

step6:对第i个子结点,以DiD_iDi​为训练集,以AAgA - {A_g}A−Ag​为特征集,递归的调用步step1- step5,得到子树TiT_iTi​,返回TiT_iTi​。

3、CART分类树的生成

输入:训练数据集D,停止计算的条件

输出:CART决策树

根据训练数据集,从根节点开始,递归地对每个结点进行以下操作,构建二叉决策树

step1:设结点的训练数据集为D,计算现有特征对该数据集的基尼指数,此时,对每个特征A,对其可能取的每个值a,根据样本点对A=a的测试为“是”或“否”将D分割成D1D_1D1​和D2D_2D2​两部分,利用公式(3)计算A=aA = aA=a时的基尼指数。

step2:在所有可能的特征A以及他们所有可能的切分点a中,选择基尼指数最小的特征及其对应的切分点为最优特征和最优切分点。最优特征和最优切分点,从现结点生成两个子结点,将训练数据集依特征分配到两个子结点中去。

step3:对两个子结点递归地调用step1和step2。直至满足停止条件。

step4:生成CART决策树。

算法停止条件是结点中的样本个数小于预定阈值,或样本集的基尼指数小于预定阈值(样本基本属于同一类),或者没有更多特征。

4、CART回归树的生成

输入:训练数据集D

输出:回归树f(X)f(X)f(X)

在训练数据集所在的输入空间中,递归地将每个区域划分为两个子区域并决定每个子区域上的输出值,构建二叉决策树

step1:选择最优切分变量j和切分点s,求解:
(4)minj,s(minc1xiR1(j,s)(yic1)2+minc2xiR2 (j,s)(yic2)2)min \sum_{j,s}(min_{c_1}\sum_{x_i\in R_1(j,s)}(y_i-c_1)^2 + min_{c_2}\sum_{x_i\in R_2\space (j,s)}(y_i-c_2)^2) \tag 4minj,s∑​(minc1​​xi​∈R1​(j,s)∑​(yi​−c1​)2+minc2​​xi​∈R2​ (j,s)∑​(yi​−c2​)2)(4)
遍历变量j,对固定的切分变量j扫描切分点s,选择使式(4)达到最小值的对(j,s)(j,s)(j,s)。

step2:用选定的对(j,s)(j,s)(j,s)划分区域并决定相应的输出值:
R1(j,s)={xx(j)&lt;=s},R2(j,s)={xx(j)&gt;s}R_1(j,s) = \{x|x^{(j)} &lt;=s\},R_2(j,s) = \{x|x^{(j)} &gt; s\}R1​(j,s)={x∣x(j)<=s},R2​(j,s)={x∣x(j)>s}
c1^=ave(yixiR1(j,s)), c2^=ave(yixiR2(j,s))\hat{c_1} = ave(y_i|x_i\in R_1(j,s)),\space \hat{c_2} = ave(y_i|x_i\in R_2(j,s))c1​^​=ave(yi​∣xi​∈R1​(j,s)), c2​^​=ave(yi​∣xi​∈R2​(j,s))

step3:继续对两个子区域调用步骤step1和step2,直至满足停止条件。

step4:将输入空间划分为M个区域R1,R2,,RMR_1,R_2,…,R_MR1​,R2​,…,RM​,生成决策树:
f(x)=m=1Mcm^I(cRm)f(x) = \sum_{m=1}^M\hat{c_m}I(c\in R_m)f(x)=m=1∑M​cm​^​I(c∈Rm​)

三、决策树的剪枝

1、ID3和C4.5使用的剪枝方法

  • 决策树的生成算法容易构建过于复杂的决策树,产生过拟合。

  • 决策树的剪枝:在决策树学习中将已生成的树进行简化的过程称为剪枝(pruning)。具体地,剪枝从已生成的树上裁掉一些子树或叶结点,并将其根结点或父结点作为新的叶结点,从而简化分类树模型.

  • 决策树的剪枝往往通过极小化决策树整体的损失函数(loss fimction)或代价函数( cost function)来实现。

设树T的叶结点个数为|T|, t是树T的叶结点,该叶结点有NtN_tNt​个样本点,其中k类的样本点有NtkN_{tk}Ntk​个,k=1,2,…,K,Ht(T)H_t(T)Ht​(T)为叶结点t上的经验嫡,α&gt;=0\alpha &gt;=0α>=0为参数,则决策树学习的损失函数可以定义为:
Cα(T)=t=1TNtHt(T)+αTC_{\alpha} (T) = \sum_{t=1}^{|T|}N_t H_t(T) + \alpha |T|Cα​(T)=t=1∑∣T∣​Nt​Ht​(T)+α∣T∣
其中经验熵:
Ht(T)=k=1KNtkNtlogNtkNtH_t(T) = -\sum_{k=1}^K \dfrac{N_{tk}}{N_t}log\dfrac{N_{tk}}{N_t}Ht​(T)=−k=1∑K​Nt​Ntk​​logNt​Ntk​​
第一项记作C(T)C(T)C(T):
C(T)=t=1Tk=1KNtklogNtkNtC(T) = -\sum_{t=1}^{|T|}\sum_{k=1}^K N_{tk}log\dfrac{N_{tk}}{N_t}C(T)=−t=1∑∣T∣​k=1∑K​Ntk​logNt​Ntk​​
则有:
Cα(T)=C(T)+αTC_{\alpha} (T) = C(T) + \alpha |T|Cα​(T)=C(T)+α∣T∣
C(T)C(T)C(T)表示模型对训练数据的预测误差,经验熵的变形,越小越好,|T|表示模型复杂度,参数α&gt;=0\alpha&gt;=0α>=0控制两者之间的影响。剪枝,就是当α\alphaα确定时,选择损失函数最小的模型,即损失函数最小的子树。损失函数正好表示了对模型的复杂度和训练数据的拟合两者的平衡。利用损失函数最小原则进行剪枝就是用正则化的极大似然估计进行模型选择。

剪枝算法
输入:生成算法产生的整个树T,参数α\alphaα。

输出:修剪后的子树TαT_{\alpha}Tα​

step1:计算每个结点的经验熵;

step2:递归的从树的叶结点回溯。

设一组叶结点回溯到父结点之前与之后的整体树分别为TBT_BTB​与TAT_ATA​,C(TB),C(TA)C(T_B),C(T_A)C(TB​),C(TA​)表示树对训练数据的预测误差,用树的叶子数TBTA|T_B|、|T_A|∣TB​∣、∣TA​∣表示树的复杂度,则树对应的损失函数值分别为Cα(TB)C_{\alpha}(T_B)Cα​(TB​)、Cα(TA)C_{\alpha}(T_A)Cα​(TA​),如果:
Cα(TA)&lt;=Cα(TB)C_{\alpha}(T_A)&lt;=C_{\alpha}(T_B)Cα​(TA​)<=Cα​(TB​)
则进行剪枝,将父结点变为新的叶结点。

Cα(TA)=C(TA)+αTAC_{\alpha} (T_A) = C(T_A) + \alpha |T_A|Cα​(TA​)=C(TA​)+α∣TA​∣
Cα(TB)=C(TB)+αTBC_{\alpha} (T_B) = C(T_B) + \alpha |T_B|Cα​(TB​)=C(TB​)+α∣TB​∣
即:
C(TA)+αTA&lt;=C(TB)+αTBC(T_A) + \alpha |T_A| &lt;= C(T_B) + \alpha |T_B|C(TA​)+α∣TA​∣<=C(TB​)+α∣TB​∣
C(TA)C(TB)&lt;=α(TBTA)\therefore C(T_A) - C(T_B) &lt;= \alpha(|T_B| - |T_A|)∴C(TA​)−C(TB​)<=α(∣TB​∣−∣TA​∣)

由上式可以看出回溯前后的叶结点的数量差TBTA&gt;0|T_B| - |T_A| &gt; 0∣TB​∣−∣TA​∣>0为被剪枝特征的可取值数量-1,若α\alphaα很大,则剪枝后可能会出现训练精度急速下降的情况,即C(TA)&lt;&lt;C(TB)C(T_A) &lt;&lt; C(T_B)C(TA​)<<C(TB​)。

step3:返回step2,直至不能继续为止,得到损失函数最小的树TαT_{\alpha}Tα​。

所以在剪枝时,α\alphaα的选择会很重要,也是缺陷所在。

2、CART使用的剪枝方法

(1)计算局部损失函数

输入:生成算法产生的整个树T0T_0T0​,traindata[,testdata][,testdata][,testdata]

输出:修剪后的子树TαT_{\alpha}Tα​

step1:对 T0T_0T0​中的任意内部结点 ttt,以 ttt为单结点树(结点即为叶,没有分支)即剪枝后的损失函数是:Cα(t)=C(t)+αC_{\alpha}(t) = C(t) + \alphaCα​(t)=C(t)+α,以ttt为根结点的子树TtT_tTt​即剪枝前的损失函数是:Cα(Tt)=C(Tt)+αTtC_{\alpha}(T_t) = C(T_t) + \alpha|T_t|Cα​(Tt​)=C(Tt​)+α∣Tt​∣

  • α=0\alpha=0α=0或充分小时,有:Cα(Tt)&lt;Cα(t)C_{\alpha}(T_t) &lt; C_{\alpha}(t)Cα​(Tt​)<Cα​(t)
  • α=C(t)C(Tt)Tt1\alpha = \dfrac{C(t)-C(T_t)}{|T_t|-1}α=∣Tt​∣−1C(t)−C(Tt​)​,有:Cα(Tt)=Cα(t)C_{\alpha}(T_t) = C_{\alpha}(t)Cα​(Tt​)=Cα​(t)
  • α&gt;C(t)C(Tt)Tt1\alpha &gt; \dfrac{C(t)-C(T_t)}{|T_t|-1}α>∣Tt​∣−1C(t)−C(Tt​)​,有:Cα(Tt)&gt;Cα(t)C_{\alpha}(T_t) &gt; C_{\alpha}(t)Cα​(Tt​)>Cα​(t)
    按李航统计学习方法里面说的,只需比较两个树的损失函数大小,其计算可以在局部进行,所以可以一次计算所有的结点,并把每一个结点对应的α\alphaα存储到αlist\alpha_{list}αlist​。

step2:αlist\alpha_{list}αlist​升序排列,从小到大依次取出一个αi\alpha_iαi​,找到对应的结点aia_iai​进行剪枝,得到对应的树为TiT_iTi​树,存入TlistT_{list}Tlist​,直到最后一棵树上只有一个叶子结点,此时也是根节点的树TnT_nTn​,循环结束。得到的Tlist=[T0,T1,,Tn]T_{list} = [T_0,T_1,…,T_n]Tlist​=[T0​,T1​,…,Tn​]

step3:用独立的数据集验证每一颗树,选择误差最小的一棵树TαT_{\alpha}Tα​。

上面是按剪枝前后局部的损失函数来选择α\alphaα,李航书中说可以局部,那么就可以一次性把所有的结点都对应的α \alpha\spaceα 计算出来。下面我按整棵树的损失函数重写了CART剪枝方法,这两种方法如果剪枝后的αlist\alpha_{list}αlist​一致,说明计算整棵树的损失函数和计算局部损失函数是一样的,如果是这样,那肯定是计算局部损失函数以提高计算速度,而且还可以一次找出所有结点对应的α\alphaα。

(2)计算整棵树损失函数

输入:生成算法产生的整个树T0T_0T0​,traindata[,testdata][,testdata][,testdata]

输出:修剪后的子树TαT_{\alpha}Tα​

step1:对于当前最优决策树T,其内任一结点 t \space t\space t 剪枝前后的整体树分别为TBT_BTB​与TAT_ATA​,C(TB),C(TA)C(T_B),C(T_A)C(TB​),C(TA​)表示树对训练数据的预测误差,用树的叶子数TBTA|T_B|、|T_A|∣TB​∣、∣TA​∣表示树的复杂度,该节点内的叶子数为Tt|T_t|∣Tt​∣,则树对应的损失函数值分别为Cα(TB)C_{\alpha}(T_B)Cα​(TB​)、Cα(TA)C_{\alpha}(T_A)Cα​(TA​),则:
(5)Cα(TA)=C(TA)+αTAC_{\alpha} (T_A) = C(T_A) + \alpha |T_A|\tag 5Cα​(TA​)=C(TA​)+α∣TA​∣(5)
(6)Cα(TB)=C(TB)+αTBC_{\alpha} (T_B) = C(T_B) + \alpha |T_B|\tag 6Cα​(TB​)=C(TB​)+α∣TB​∣(6)
显然剪枝前的预测误差小于剪枝后的误差C(TB)&lt;C(TA)C(T_B) &lt; C(T_A)C(TB​)<C(TA​),且有剪枝前后的叶子数之差为TBTA=Tt1|T_B| - |T_A| = |T_t| - 1∣TB​∣−∣TA​∣=∣Tt​∣−1

  • α=0\alpha=0α=0或充分小时,有不等式:Cα(TB)&lt;Cα(TA)C_{\alpha} (T_B) &lt; C_{\alpha} (T_A)Cα​(TB​)<Cα​(TA​)
  • α=C(TA)C(TB)TBTA=C(TA)C(TB)Tt1\alpha = \dfrac{C(T_A) - C(T_B)}{|T_B| - |T_A|} = \dfrac{C(T_A) - C(T_B)}{|T_t| - 1}α=∣TB​∣−∣TA​∣C(TA​)−C(TB​)​=∣Tt​∣−1C(TA​)−C(TB​)​,有:Cα(TB)=Cα(TA)C_{\alpha} (T_B) = C_{\alpha} (T_A)Cα​(TB​)=Cα​(TA​)
  • α&gt;C(TA)C(TB)Tt1\alpha &gt; \dfrac{C(T_A) - C(T_B)}{|T_t| - 1}α>∣Tt​∣−1C(TA​)−C(TB​)​ 时,有:Cα(TB)&gt;Cα(TA)C_{\alpha} (T_B) &gt; C_{\alpha} (T_A)Cα​(TB​)>Cα​(TA​),即剪枝后比剪枝前的损失函数小,所以对结点t剪枝。
    假设当前树T有m个结点,求出m个结点对应的α\alphaα。

step2:取最小的α\alphaα存入αlist\alpha_{list}αlist​并找到对应的结点进行剪枝,得到对应的树为TiT_iTi​树,存入TlistT_{list}Tlist​,并把TiT_iTi​赋值给T作为当前最优决策树;

step3:递归执行step1和step2,直到最后一棵树上只有一个叶子结点,此时也是根节点的树TnT_nTn​,递归结束。得到的Tlist=[T0,T1,,Tn]T_{list} = [T_0,T_1,…,T_n]Tlist​=[T0​,T1​,…,Tn​]

step4:用独立的数据集验证每一颗树,选择误差最小的一棵树TαT_{\alpha}Tα​。

四、三种决策树算法比较

1、决策树的优点和缺点

优点

  • 决策树算法中学习简单的决策规则建立决策树模型的过程非常容易理解;
  • 决策树模型可以可视化,非常直观;
  • 应用范围广,可用于分类和回归,而且非常容易做多类别的分类;
  • 能够处理数值型和连续的样本特征。

缺点

  • 很容易在训练数据中生成复杂的树结构,造成过拟合(overfitting)。剪枝可以缓解过拟合的负作用,常用方法是限制树的高度、叶子节点中的最少样本数量;
  • 学习一棵最优的决策树被认为是NP-Complete问题。实际中的决策树是基于启发式的贪心算法建立的,这种算法不能保证建立全局最优的决策树。Random Forest 引入随机能缓解这个问题。

2、ID3

ID3决策树可以有多个分支,但是不能处理特征值为连续的情况。决策树是一种贪心算法,每次选取的分割数据的特征都是当前的最佳选择,并不关心是否达到最优。

缺点:只能处理离散型属性,并且对倾向于选择取值较多的特征。

3、C4.5

C4.5算法流程与ID3相类似,只不过将信息增益改为信息增益比,以解决偏向取值较多的属性的问题,另外它可以处理连续型属性。

4、CART分类

CART是一棵二叉树,采用二元切分法,每次把数据切成两份,分别进入左子树、右子树。而且每个非叶子节点都有两个孩子,所以CART的叶子节点比非叶子多1。相比ID3和C4.5,CART应用要多一些,既可以用于分类也可以用于回归。CART分类时,使用基尼指数(Gini)来选择最好的数据分割的特征,gini描述的是纯度,与信息熵的含义相似。CART中每一次迭代都会降低GINI系数。

5、分类树 VS 回归树

  • 提到决策树算法,很多想到的就是上面提到的ID3、C4.5、CART分类决策树。其实决策树分为分类树和回归树,前者用于分类,如晴天/阴天/雨天、用户性别、邮件是否是垃圾邮件,后者用于预测实数值,如明天的温度、用户的年龄等。

  • 作为对比,先说分类树,我们知道ID3、C4.5分类树在每次分枝时,是穷举每一个特征属性的每一个阈值,找到使得按照feature<=阈值,和feature>阈值分成的两个分枝的熵最大的feature和阈值。按照该标准分枝得到两个新节点,用同样方法继续分枝直到所有人都被分入性别唯一的叶子节点,或达到预设的终止条件,若最终叶子节点中的性别不唯一,则以多数人的性别作为该叶子节点的性别。

  • 回归树总体流程也是类似,不过在每个节点(不一定是叶子节点)都会得一个预测值,以年龄为例,该预测值等于属于这个节点的所有人年龄的平均值。分枝时穷举每一个feature的每个阈值找最好的分割点,但衡量最好的标准不再是最大熵,而是最小化均方差–即(每个人的年龄-预测年龄)^2 的总和 / N,或者说是每个人的预测误差平方和 除以 N。这很好理解,被预测出错的人数越多,错的越离谱,均方差就越大,通过最小化均方差能够找到最靠谱的分枝依据。分枝直到每个叶子节点上人的年龄都唯一(这太难了)或者达到预设的终止条件(如叶子个数上限),若最终叶子节点上人的年龄不唯一,则以该节点上所有人的平均年龄做为该叶子节点的预测年龄。

三种决策树算法比较引用自博客


未完待续……

上一篇:ta和夏天一起来了


下一篇:大数据告诉你劈腿的人有哪4种表现