1.介绍
如前文所述,随机森林目前拥有比较好的正确率,在各种数据中表现位于前列。随机森林顾名思义,是用随机的方式建立一个森林,森林里面有很多的决策树组成,随机森林的每一棵决策树之间是没有关联的。在得到森林之后,当有一个新的输入样本进入的时候,就让森林中的每一棵决策树分别进行一下判断,看看这个样本应该属于哪一类(对于分类算法),然后看看哪一类被选择最多,就预测这个样本为那一类。在建立每一棵决策树的过程中,有两点需要注意 - 采样与完全分裂。对于行采样,采用有放回的方式,也就是在采样得到的样本集合中,可能有重复的样本。假设输入样本为N个,那么采样的样本也为N个。这样使得在训练的时候,每一棵树的输入样本都不是全部的样本,使得相对不容易出现over-fitting。
然后进行列采样。之后就是对采样之后的数据使用完全分裂的方式建立出决策树,这样决策树的某一个叶子节点要么是无法继续分裂的,要么里面的所有样本的都是指向的同一个分类。
按这种算法得到的随机森林中的每一棵都是很弱的,但是大家组合起来就很厉害了。我觉得可以这样比喻随机森林算法:每一棵决策树就是一个精通于某一个窄领域的专家,这样在随机森林中就有了很多个精通不同领域的专家,对一个新的问题(新的输入数据),可以用不同的角度去看待它,最终由各个专家,投票得到结果。
主要函数
R语言中的randomForest包可以实现随机森林算法的应用,该包中主要涉及5个重要函数,关于这5个函数的语法和参数请见下方:
- formula指定模型的公式形式,类似于y~x1+x2+x3...;
- data指定分析的数据集;
- subset以向量的形式确定样本数据集;
- na.action指定数据集中缺失值的处理方法,默认为na.fail,即不允许出现缺失值,也可以指定为na.omit,即删除缺失样本;
- x指定模型的解释变量,可以是矩阵,也可以是数据框;y指定模型的因变量,可以是离散的因子,也可以是连续的数值,分别对应于随机森林的分类模型和预测模型。这里需要说明的是,如果不指定y值,则随机森林将是一个无监督的模型;
- xtest和ytest用于预测的测试集;
- ntree指定随机森林所包含的决策树数目,默认为500;
- mtry指定节点中用于二叉树的变量个数,默认情况下数据集变量个数的二次方根(分类模型)或三分之一(预测模型)。一般是需要进行人为的逐次挑选,确定最佳的m值;
- replace指定Bootstrap随机抽样的方式,默认为有放回的抽样;
- nodesize指定决策树节点的最小个数,默认情况下,判别模型为1,回归模型为5;
- maxnodes指定决策树节点的最大个数;
- norm.votes显示投票格式,默认以百分比的形式展示投票结果,也可以采用绝对数的形式;
- do.trace是否输出更详细的随机森林模型运行过程,默认不输出;
importance()函数
用于计算模型变量的重要性
importance(x, type=NULL, class="NULL", scale=TRUE, ...)
x为randomForest对象;
type可以是1,也可以是2,用于判别计算变量重要性的方法,1表示使用精度平均较少值作为度量标准;2表示采用节点不纯度的平均减少值最为度量标准。值越大说明变量的重要性越强;
scale默认对变量的重要性值进行标准化。
MDSplot()函数
用于实现随机森林的可视化
MDSplot(rf, fac, k=2, palette=NULL, pch=20, ...)
rf为randomForest对象,需要说明的是,在构建随机森林模型时必须指定计算临近矩阵,即设置proximity参数为TRUE;
fac指定随机森林模型中所使用到的因子向量(因变量);
palette指定所绘图形中各个类别的颜色;
pch指定所绘图形中各个类别形状;还可以通过R自带的plot函数绘制随机森林决策树的数目与模型误差的折线图
rfImpute()函数
可为存在缺失值的数据集进行插补(随机森林法),得到最优的样本拟合值
rfImpute(x, y, iter=5, ntree=300, ...)
rfImpute(x, data, ..., subset)
x为存在缺失值的数据集;
y为因变量,不可以存在缺失情况;
iter指定插值过程中迭代次数;
ntree指定每次迭代生成的随机森林中决策树数量;
subset以向量的形式指定样本集。
应用
- 将数据集分为训练集和测试集,并查看数据集基本属性。数据为R自带IRIS数据
setwd("E:\\Rwork")
library(randomForest)
data("iris")
index <- sample(nrow(iris),0.75*nrow(iris))
train <- iris[index,]
test <- iris[index,]
- 选取randomforest –mtry节点值,对应误差最小为2,一般可默认。通常也是2记得。mtry指定节点中用于二叉树的变量个数,默认情况下数据集变量个数的二次方根(分类模型)或三分之一(预测模型)。
n <- length(names(train))
set.seed(100)
library(tcltk)
pb<-tkProgressBar("进度","已完成 %",0,400)
for (i in 1:(n-1)){
info<- sprintf("已完成 %d%%", round(i*100/length(n)))
setTkProgressBar(pb, i*100/length(n), sprintf("进度 (%s)", info),info)
mtry_fit <- randomForest(Species~.,data = train,mtry = i)
error <- mean(mtry_fit$err.rate)
print(error)
}
[1] 0.04328544
[1] 0.04293262
[1] 0.04588242
[1] 0.04616312
- 选择最佳mtry
set.seed(100)
ntree_fit<-randomForest(Species~.,data=train,mtry=2,ntree=1000)
plot(ntree_fit)
- 选择ntree=200
rf <- randomForest(Species~., data = train ,mtry = 2 ,
ntree = 200,importance= TRUE)
)
rf
Call:
randomForest(formula = Species ~ ., data = train, mtry = 2, ntree = 200, importance = TRUE)
Type of random forest: classification
Number of trees: 200
No. of variables tried at each split: 2
OOB estimate of error rate: 4.44%
Confusion matrix:
setosa versicolor virginica class.error
setosa 32 0 0 0.00000000
versicolor 0 29 2 0.06451613
virginica 0 2 25 0.07407407
- 建立随机森林模型
importance <- importance(rf)
importance
importance
setosa versicolor virginica MeanDecreaseAccuracy MeanDecreaseGini
Sepal.Length 4.268225 0.2564647 7.822284 6.792504 7.123898
Sepal.Width 2.409402 -0.7655617 2.686758 2.304386 0.750602
Petal.Length 12.652948 15.2819119 17.274815 19.071343 23.149037
Petal.Width 14.672686 18.1435246 18.742883 21.238528 28.105741
varImpPlot(rf)
pred1<-predict(rf,data=train)
Freq1<-table(pred1,train$Species)
sum(diag(Freq1))/sum(Freq1)
[1] 0.9555556
重要性排名
测试
table(actual=test$Species,predicted=predict(rf,newdata = test,type = "class"))
predicted
actual setosa versicolor virginica
setosa 30 0 0
versicolor 0 30 0
virginica 0 0 30